Вы находитесь на странице: 1из 36

DISEÑOS INTRASUJETO.

CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS


Profa. Mª JOSÉ BLANCA

DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS


RELACIONADAS

La situación de investigación más típica que utiliza muestras relacionadas es


la que se contempla un solo grupo de sujetos al que se le mide una o más variables
de forma repetida. Esta situación caracteriza a los diseños intrasujeto o de
medidas repetidas (MR), el cual implica el registro de la VD bajo todos los niveles
de la VI en todos los sujetos. En un contexto experimental, estas condiciones
pueden ser diferentes tratamientos experimentales cuyo orden de aplicación puede
ser aleatorizado. En un contexto cuasi-experimental, como es el diseño pretest-
postest, las medidas se registran en distintos intervalos temporales, antes y después
de la intervención. Finalmente, en un contexto no experimental las medidas se
registran también en distintos intervalos temporales pero en ausencia de tratamiento
experimental, como por ejemplo en los diseños evolutivos. Cuando el factor tiempo
es una variable de interés, el diseño se concibe como longitudinal.

Prueba t para muestras relacionadas

La prueba t para muestras relacionadas evalúa si existen diferencias


estadísticamente significativas entre la media de dos condiciones, experimentales o
no, en situaciones intrasujeto. Su aplicación, por tanto, es adecuada para los datos
provenientes de los diseños de medidas repetidas con dos niveles en la VI
(experimentales, cuasi-experimentales o no experimentales) cuando la variable
dependiente sea cuantitativa, medida en escala de intervalo o razón.

Supuestos de la prueba t para muestras relacionadas

1. La VD es cuantitativa, medida en escala de intervalo o razón.


2. Normalidad. La VD debe distribuirse según la curva normal, en cada
condición.
3. Independencia. Las observaciones entre los distintos sujetos deben ser
independientes unas de otras.

1
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

Matriz de datos para el análisis con el SPSS

Los datos se introducen en el Editor de datos del SPSS en dos columnas, una
para cada registro de la VD bajo cada condición.

Supongamos que se desea comprobar si el número de errores en una tarea de


discriminación visual de rostros varía en función del color de las fotos, introduciendo
fotos en blanco y negro, y fotos en color. Para ello, se presentan a cada sujeto
estímulos de las dos condiciones, registrando el número de errores. Se pide que,
tras la presentación del estímulo, presione un botón rojo para señalar que los rostros
presentados son iguales o un botón verde para indicar que son desiguales.

SS B/N Color
1 7 3
2 6 2
3 6 3
4 5 3
5 4 1
6 6 4
7 7 4
8 7 4
9 6 2
10 8 5

Ejemplificación del análisis

Una vez introducidos los datos en dos columnas, para solicitar la prueba t se
selecciona
→ Analizar
→ Comparar medias
→ Prueba t para muestras relacionadas
Posteriormente, se seleccionan las dos condiciones que se desean
comparar.

2
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

Figura 1. Selección de variables

En el Navegador de resultados de SPSS aparece en primer lugar una tabla con


el número de sujetos, la media en la VD en cada condición, la desviación típica y el
error típico de la media. Asimismo, proporciona la correlación entre las puntuaciones
obtenidas en los dos niveles de la VI.

Estadísticos de muestras relacionadas

Desviación Error típ. de


Media N típ. la media
Par 1 BN 6,2000 10 1,13529 ,35901
COLOR 3,1000 10 1,19722 ,37859

Correlaciones de muestras relacionadas

N Correlación Sig.
Par 1 BN y COLOR 10 ,801 ,005

Posteriormente, se presenta una tabla con la prueba t para muestras


relacionadas.

¿Existen diferencias en el número de errores en la identificación de rostros,


dependiendo del color de las fotos?:
H 0 : μ1 = μ 2
H 1 : a ) μ1 < μ 2
b ) μ1 > μ 2

3
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

El SPSS proporciona la probabilidad bidireccional o bilateral asociada al


estadístico observado. Para realizar una prueba unilateral, se debe dividir la
probabilidad entre 2 y compararla con el alfa establecido del 0,05 para aceptar o
rechazar la hipótesis nula.
Prueba de muestras relacionadas

Diferencias relacionadas
95% Intervalo de
confianza para la
Desviación Error típ. de diferencia
Media típ. la media Inferior Superior t gl Sig. (bilateral)
Par 1 BN - COLOR 3,1000 ,73786 ,23333 2,5722 3,6278 13,286 9 ,000

Si p/2>0,05 se acepta H0. Las


medias son iguales.
Si p/2≤0,05 se rechaza H0. Las
medias no son iguales.

En el ejemplo, la probabilidad asociada al estadístico (dividida por 2) es menor


que 0,05, por lo que se concluye que existen diferencias entre las dos medias. Para
saber qué media es mayor que la otra, y si los datos apoyan la hipótesis del
investigador, se observa la tabla de medias. En nuestro caso, la media de los errores
de las fotos en blanco y negro es 6,2 y la de las fotos en color es 3,1. Por tanto, los
sujetos comenten mayor número de errores en el primer caso.

Magnitud de la asociación y tamaño del efecto

La medida de asociación, basada en la familia r se puede calcular a partir del


valor de t (Gravetter y Wallnau, 2009)

t2
r=
t 2 + g .l

El cuadrado de r indica la proporción de variación de la VD explicada por la VI y


se interpreta igual que la expuesta en los diseños intersujeto:
o r= 0,1: asociación pequeña.
o r= 0,3: asociación mediana.
o r= 0,5: asociación grande.

4
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

La medida de tamaño del efecto basada en la diferencia de medias se define


como:
D
d′ =
Sd

donde D es la media de las diferencias entre la dos condiciones que se comparan y


S d la desviación típica de la diferencias. Estos datos los aporta el SPSS en la tabla

“pruebas de muestras relacionadas”. En el ejemplo, d’ viene dado por:

D 3,1
d′ = = = 4,20
Sd 0,737

Al igual que en los diseños intersujeto, el índice d’ refleja el número de


desviaciones típicas que diferencian a las dos condiciones y se interpreta de la
misma forma:
o d ´= 0,20 : tamaño del efecto pequeño.
o d´= 0,50 : tamaño del efecto medio.
o d´= 0,80 : tamaño del efecto grande.

Redacción e interpretación de resultados en un informe científico

“Para comparar si el número de errores en la identificación de rostros


difieren según si las fotos mostradas son en blanco y negro o color, se ha
realizado una prueba t para muestras relacionadas. Los resultados
muestran diferencias estadísticamente significativas entre ambas medias
[t(9)=13,2; d=4,20; p<0,001], siendo el número de errores mayor en el
primer caso que en el segundo (M=6,2, SD=1,14 vs M=3,1, SD=1,98).”

5
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

Prueba de Wilcoxon

La prueba de Wilcoxon es una prueba no paramétrica que compara la


distribución de los rangos en dos condiciones relacionadas. Se utiliza en los mismos
casos que la prueba t cuando la VD esté medida en escala ordinal. También se
puede utilizar con VD cuantitativas cuando el número de sujetos sea muy pequeño o
la normalidad se viole de forma grave.

Para realizar la prueba de Wilcoxon, se siguen los siguientes pasos:


o Calcular la diferencia entre puntuaciones, realizando la resta entre la
puntuación de la segunda condición de la primera (a2-a1)
o Extraer el signo de las diferencias
o Extraer el rango de las diferencias en valor absoluto, prescindiendo de las
diferencias nulas.
o Sumar los rangos con signo positivo y los rangos con signos negativos.
o El estadístico observado (T) es el rango con menor valor. Este estadístico se
compara con el crítico y se adopta la decisión estadística. El SPSS convierte
el estadístico T a la z, proporcionando la aproximación a la curva normal.
Cuando N es menor o igual a 25 es recomendable utilizar la probabilidad
exacta asociada; en caso contrario, se puede utilizar la aproximación al
estadístico z y la probabilidad asintótica.

La prueba de Wicoxon contestaría a la pregunta ¿es simétrica la distribución de


las diferencias entre las puntuaciones de las dos condiciones de tratamiento?
H0: La suma de los rangos positivos es igual a la suma de los rangos negativos
(no efectos de tratamiento)
H2: a) La suma de los rangos positivos es mayor a la suma de los rangos
negativos
b) La suma de los rangos positivos es menor a la suma de los rangos
negativos

6
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

Ejemplificación del análisis

Supongamos que se aplica un tratamiento psicológico para disminuir las


conductas agresivas en alumnos de primaria, registrándose las mismas antes y
después del tratamiento. Adicionalmente, se registra la apreciación del profesorado
sobre el comportamiento del alumno, también antes y después de la intervención, en
una escala de 0 (nada agresivo) a 5 (muy agresivo). Si se desea comprobar si el
profesorado detecta el cambio en los niños entre los dos períodos de medición, se
debería aplicar una prueba de Wilcoxon, ya que la apreciación de la agresividad está
medida en escala ordinal.

Ho : ∑ R + = ∑ R −
a ) H1 : ∑ R + < ∑ R −
b) H 1 : ∑ R + > ∑ R −

Pretest (a1) Postest (a2)


4 2
4 3
5 3
5 3
3 3
2 3
5 3
3 3
1 2
5 3
5 2
5 2
4 5
5 2
5 5
5 3
5 1

7
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

Postest(a2) Pretest (a1) D |D| Orden Rangos


ordenadas (R)

2 4 -2 1 1
(1+2+3+4)/4
3 4 -1 1 2
2,5
3 5 -2 1 3
3 5 -2 1 4
3 3 2 5
(5+6+7+8+9+10)/6
3 2 1 2 6
3 5 -2 2 7
7,5
3 3 2 8
2 1 1 2 9
3 5 -2 2 10 (11+12+13)/3
2 5 -3 3 11 12
2 5 -3 3 12
5 4 1 3 13
2 5 -3 4 14 14
5 5
3 5 -2
1 5 -4

Postest(a2) Pretest (a1) D Rangos R+ R-


2 4 -2 7,5 7,5
3 4 -1 2,5 2,5
3 5 -2 7,5 7,5
3 5 -2 7,5 7,5
3 3
3 2 1 2,5 2,5
3 5 -2 7,5 7,5
3 3
2 1 1 2,5 2,5
3 5 -2 7,5 7,5
2 5 -3 12 12
2 5 -3 12 12
5 4 1 2,5 2,5
2 5 -3 12 12
5 5
3 5 -2 7,5 7,5
1 5 -4 14 14

7,5 97,5

8
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

El valor del estadístico T corresponde al valor del rango, positivo o negativo,


con menor valor. En este caso T=7,5. Como anteriormente se apuntó, el SPSS
convierte este estadístico en un valor z. Para ello, se selecciona
→ Analizar
→ Pruebas no paraméticas
→ 2 muestras relacionadas
→ Prueba de los rangos con signo de Wilcoxon

Rangos

Rango Suma de
N promedio rangos
DESPUÉS - ANTES Rangos negativos 11a 8,86 97,50
Rangos positivos 3b 2,50 7,50
Empates 3c
Total 17
a. DESPUÉS < ANTES
b. DESPUÉS > ANTES
c. ANTES = DESPUÉS

Estadísticos de contrasteb

DESPUÉS -
ANTES
Z -2,860a
Si p>0,05 se acepta H0. No hay
Sig. asintót. (bilateral) ,004
diferencias entre las puntuaciones de
Sig. exacta (bilateral) ,003
las dos condiciones, ya que las
Sig. exacta (unilateral) ,001
diferencias positivas son iguales a las
Probabilidad en el punto ,001
negativas.
a. Basado en los rangos positivos.
Si p≤0,05 se rechaza H0. Hay
b. Prueba de los rangos con signo de Wilcoxon diferencias entre las puntuaciones de
las dos condiciones.

Si la suma de rangos negativos es mayor que la de los positivos, entonces las


diferencias negativas son mayores a las positivas, lo que indica que hay
puntuaciones menores en la segunda condición de tratamiento (postest en el
ejemplo). Si la suma de rangos negativos es menor que la de los positivos, entonces
las diferencias positivas son mayores a las negativas, indicando puntuaciones
mayores en la segunda condición de tratamiento (postest en el ejemplo).

Si R- > R+ → puntuaciones a2 < a1


Si R- < R+ → puntuaciones a2 > a1

9
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

En el ejemplo, como R- > R+ y la probabilidad asociada es menor a 0,05, se


puede concluir que la apreciación de la agresividad por parte del profesorado es
menor en el postest. Por tanto, parece que el tratamiento psicológico ha disminuido
la agresividad de los alumnos apreciada por el profesor.

La medida de asociación que se puede utilizar se calcula a partir del


estadístico z, al igual que con la prueba U de Mann-Whitney (Field, 2009). Esta
medida multiplicada por 100 indica el porcentaje de variabilidad de la VI que se debe
a la VD.
z
r=
N º de observaciones

El denominador representa el número de observaciones, es decir, el número de


sujetos por 2. En el ejemplo:
z 2,86
r= = = 0,49
N º de observaciones 17 * 2

Redacción e interpretación de resultados en un informe científico

“Para comparar si la agresividad del alumnado evaluada por el


profesorado disminuye después del tratamiento psicológico aplicado, se
ha realizado la prueba de Wilcoxon, comparando las puntuaciones en
agresividad entre el pretest y el postest. Los resultados muestran
diferencias estadísticamente significativas [T=7,5; z=-2,86; r=0,49;
p=0,001], siendo la suma de los rangos negativos (SR=97,5) mayores que
la suma de los rangos positivos (SR=7,5) (postest-pretest). Los resultados
indican que la apreciación de la agresividad por parte del profesorado es
menor en el postest, indicando que el tratamiento psicológico ha
disminuido la agresividad de los alumnos apreciada por este agente
evaluador.”

Si la VD es cuantitativa, se deben aportar además la media, mediana y varianza


de las puntuaciones originales en cada una de las condiciones, así como la
suma de rangos positivos y negativos.

10
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

Análisis de la varianza unifactorial intrasujeto

Cuando se desean comparar tres o más condiciones de datos relacionados, el


análisis estadístico pertinente, si la VD es cuantitativa, es el ANOVA de medidas
repetidas.

¿Existen diferencias entre las medias en la puntuación de la VD en las


diferentes condiciones?
H 0 : μ1 = μ 2 = μ 3
H 1 : No H 0 . Al menos dos medias difieren

Si del análisis se desprende que el efecto del tratamiento, factor A, es


significativo, es decir que existen diferencias entre al menos dos medias, se deberán
realizar comparaciones múltiples entre todos los pares posibles de medias para
averiguar qué condiciones son las que difieren.

Supuestos del ANOVA

a) Distribución normal multivariada de las observaciones correspondientes a las


distintas condiciones.
b) Independencia entre las observaciones correspondientes a los distintos sujetos.
c) Esfericidad: las varianzas de las diferencias entre todos los pares de
puntuaciones deben ser iguales.

Asimismo, se considera que no existe interacción entre el factor A y los


sujetos, supuesto que se puede comprobar con la prueba de no aditividad de
Tukey. En el SPSS esta prueba se encuentra en Escalas, Fiabilidad y en
Estadísticos, seleccionando Prueba de no aditividad. Si el componente de no
aditividad es significativo el supuesto no se satisface.

11
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

ANOVA con la prueba de no aditividad de Tukey

Suma de Media
cuadrados gl cuadrática F Sig.
Inter-personas 36,833 14 2,631
Intra-personas Inter-elementos 230,850 3 76,950 120,145 ,000
Residual No aditividad 1,075a 1 1,075 1,706 ,199
Equilibrio 25,825 41 ,630
Total 26,900 42 ,640
Total 257,750 45 5,728
Total 294,583 59 4,993
Media global = 6,0833
a. Estimación de Tukey de la potencia a la que es necesario elevar las observaciones para conseguir la aditividad =
,470.

Si la prueba de aditividad es significativa, se puede hacer una transformación


de potencia, elevando las puntuaciones de la VD a 0,47.

Evaluación de la esfericidad

Si se viola la esfericidad, el estadístico F tiende a ser liberal, lo que lleva al


investigador a rechazar con más frecuencia la hipótesis nula cuando realmente es
verdadera, es decir, cuando los efectos de tratamiento no están presentes.

El supuesto se puede comprobar con la prueba de esfericidad de Mauchly. No


obstante, aunque existe una amplia controversia en torno a su uso y algunos autores
aconsejan prescindir de esta prueba y realizar directamente algún ajuste para
corregir el sesgo por violación de la esfericidad.

H 0 : Existe esfericidad
H 1 : No existe esfericidad

Para cumplir el supuesto, se debe aceptar la hipótesis nula. En caso contrario,


habría que buscar un método alternativo para evaluar la significación de la F del
ANOVA correspondiente a la hipótesis de nulidad de igualdad entre medias.

Ejemplificación del análisis bajo cumplimiento de la esfericidad

Un investigador pretende comprobar si la capacidad de los pacientes con


afasia de Broca para escribir palabras varía en función de la longitud de las mismas.
Para tal fin presenta a un grupo de pacientes una tarea que incluye palabras

12
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

frecuentes de cuatro longitudes (tres, cuatro, cinco y seis letras), registrando el


número de términos que cada paciente escribe correctamente bajo cada condición.
En la tabla se muestran los datos hipotéticos.

3 letras 4 letras 5 letras 6 letras


9 7 5 4
8 6 4 5
10 8 6 5
7 7 4 4
8 7 3 3
9 6 5 4
11 8 5 3
10 7 6 5
7 6 3 3
9 8 4 2
9 6 4 4
8 8 6 4
10 6 5 4
7 6 4 3
11 8 6 5

Al igual que las pruebas anteriores, los datos se introducen en el Editor de


datos del SPSS en tantas columnas como condiciones de tratamiento.

Figura 2. Editor de datos

13
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

Una vez introducidos los datos, para solicitar el ANOVA se selecciona


→ Analizar
→ Modelo lineal general
→ Medidas repetidas

Posteriormente, aparece el cuadro Definición de factores de medidas repetidas,


donde es necesario introducir el nombre del factor, el número de niveles y hacer clic
en Añadir. Con ello se selecciona los factores o VI a analizar (figura 3). Finalmente,
se selecciona Definir.

Figura 3. Definición de factores.

La siguiente ventana aparece con el nombre Medidas Repetidas, donde hay


que especificar los niveles de la VI que se desea contrastar. Para ello se marca el
nivel deseado de la ventana de la izquierda, pulsando posteriormente en el símbolo
del triángulo para pasarlo a la ventana titulada Variables intra-sujetos (factor 1).
Finalmente, una vez seleccionados todos los niveles, se pulsa en Aceptar (figura 4).
Si se pulsa en Opciones se pueden seleccionar distintas alternativas de análisis,
tales como la incorporación de las medias observadas de las condiciones
experimentales, tamaño del efecto, residuales, etc.

14
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

Figura 4. Selección de niveles de la VI.

Para obtener los estadísticos descriptivos de cada condición experimental, se


hace clic en Opciones y se selecciona en Mostrar la casilla correspondiente a
Descriptivos. Finalmente, se pulsa en Continuar y, en el cuadro siguiente, en Aceptar
para ejecutar el programa (figura 5).

Figura 5. Selección de los estadísticos descriptivos.

15
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

También es posible solicitar las estimaciones del tamaño del efecto,


interpretándose de la misma forma que las estudiadas en el ANOVA intersujeto.

El SPSS proporciona la tabla de estadísticos descriptivos, con las medias,


desviaciones típicas por condición y el tamaño muestral.

Factores intra-sujetos

Medida: MEASURE_1
Variable
factor1 dependiente
1 tres
2 cuatro
3 cinco
4 seis

Estadísticos descriptivos

Media Desv. típ. N


tres 8,8667 1,35576 15
cuatro 6,9333 ,88372 15
cinco 4,6667 1,04654 15
seis 3,8667 ,91548 15

Las medias de las cuatro condiciones son respectivamente, 8,8676, 6,9333,


4,6667 y 3,8667. El ANOVA informa si existen diferencias estadísticamente
significativas entre al menos dos de estas medias.

Posteriormente, el SPSS proporciona la prueba de esfericidad de Mauchly.

H 0 : Existe esfericidad
H 1 : No existe esfericidad

16
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

Prueba de esfericidad de Mauchlyb

Medida: MEASURE_1

a
Epsilon
Chi-cuadrado Greenhous
Efecto intra-sujetos W de Mauchly aprox. gl Significación e-Geisser Huynh-Feldt Límite-inferior
factor1 ,633 5,825 5 ,325 ,822 1,000 ,333
Contrasta la hipótesis nula de que la matriz de covarianza error de las variables dependientes transformadas es proporcional a
una matriz identidad.
a. Puede usarse para corregir los grados de libertad en las pruebas de significación promediadas. Las pruebas corregidas
se muestran en la tabla Pruebas de los efectos inter-sujetos.
b.
Diseño: Intercept
Diseño intra sujetos: factor1

Si p>0,05 se acepta H0. Existe esfericidad.


Si p≤0,05 se rechaza H0. No existe
esfericidad.

Si el supuesto de esfericidad se satisface, para el contraste de medias en la


tabla del ANOVA se interpreta los datos correspondientes a “Esfericidad asumida”,
como sucede en el ejemplo.
H 0 : μ1 = μ 2 = μ 3
H 1 : No H 0 . Al menos dos medias difieren

Pruebas de efectos intra-sujetos.

Medida: MEASURE_1
Suma de
cuadrados Media
Fuente tipo III gl cuadrática F Significación
factor1 Esfericidad asumida 230,850 3 76,950 120,145 ,000
Greenhouse-Geisser 230,850 2,465 93,648 120,145 ,000
Huynh-Feldt 230,850 3,000 76,950 120,145 ,000
Límite-inferior 230,850 1,000 230,850 120,145 ,000
Error(factor1) Esfericidad asumida 26,900 42 ,640
Greenhouse-Geisser 26,900 34,511 ,779
Huynh-Feldt 26,900 42,000 ,640
Límite-inferior 26,900 14,000 1,921

Estadístico F
Grados de libertad
del numerador: 3 Grados de libertad del Si p>0,05 se acepta H0. Las medias son
denominador: 42 iguales.
Si p≤0,05 se rechaza H0. Al menos dos
medias difieren.

17
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

Contrastes entre medias

Los contrastes entre medias se pueden realizar, como en el ANOVA


intersujeto, a priori y a posteriori. Cuando la esfericidad se satisface, se puede
utilizar cualquier método de comparaciones múltiples ya explicadas anteriormente,
utilizando una media cuadrática residual común. Sin embargo, la mayoría de los
autores aconsejan realizar pruebas t para grupos relacionados para cada par de
tratamiento de interés y realizar el ajuste Bonferroni o Šidàk . Keepel (1982)
aconseja ser menos restrictivo que estos ajustes y utilizar un alfa igual a
0,05/(número de contrastes-1).

El SPSS sólo proporciona los contrastes Desviación, Simple, Diferencia,


Hermert, Repetido y Polinómico, así como las comparaciones a priori con el ajuste
de Bonferroni y el ajuste de Šidàk. En los dos últimos casos, los resultados son los
mismos que si se realizara una prueba t para grupos relacionados para cada uno de
los contrastes de forma independiente y después se realizara el ajuste a mano. Para
ello, se selecciona Opciones dentro del análisis de medidas repetidas, se pasa el
factor a Mostrar medias para y se activa la opción de Comparar los efectos
principales, ajuste Bonferroni (figura 6).

Figura 6. Elección de estadísticos descriptivos y Comparaciones múltiples.

18
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

Las comparaciones múltiples se interpretan igual que las estudiadas en el


ANOVA intersujeto. El análisis arroja diferencias entre las cuatro condiciones
respectivamente.

Comparaciones por pares

Medida: MEASURE_1

Intervalo de confianza al 95
a
Diferencia % para diferencia
entre Límite
a
(I) factor1 (J) factor1 medias (I-J) Error típ. Significación Límite inferior superior
1 2 1,933* ,316 ,000 ,964 2,902
3 4,200* ,262 ,000 3,396 5,004
4 5,000* ,352 ,000 3,920 6,080
2 1 -1,933* ,316 ,000 -2,902 -,964
3 2,267* ,248 ,000 1,505 3,028
4 3,067* ,330 ,000 2,053 4,081
3 1 -4,200* ,262 ,000 -5,004 -3,396
2 -2,267* ,248 ,000 -3,028 -1,505
4 ,800* ,223 ,018 ,117 1,483
4 1 -5,000* ,352 ,000 -6,080 -3,920
2 -3,067* ,330 ,000 -4,081 -2,053
3 -,800* ,223 ,018 -1,483 -,117
Basadas en las medias marginales estimadas.
*. La diferencia de las medias es significativa al nivel ,05.
a. Ajuste para comparaciones múltiples: Bonferroni.

De forma equivalente, si se realiza una prueba t para cada par de


tratamientos, los resultados serían los siguientes:

Prueba de muestras relacionadas

Diferencias relacionadas
95% Intervalo de
confianza para la
Desviación Error típ. de diferencia
Media típ. la media Inferior Superior t gl Sig. (bilateral)
Par 1 tres - cuatro 1,93333 1,22280 ,31573 1,25617 2,61050 6,123 14 ,000
Par 2 tres - cinco 4,20000 1,01419 ,26186 3,63836 4,76164 16,039 14 ,000
Par 3 tres - seis 5,00000 1,36277 ,35187 4,24532 5,75468 14,210 14 ,000
Par 4 cuatro - cinco 2,26667 ,96115 ,24817 1,73440 2,79893 9,134 14 ,000
Par 5 cuatro - seis 3,06667 1,27988 ,33046 2,35789 3,77544 9,280 14 ,000
Par 6 cinco - seis ,80000 ,86189 ,22254 ,32270 1,27730 3,595 14 ,003

Para cada contraste, se debería utilizar un alfa igual a 0,05/número de


contrastes. En el ejemplo se realizan 6 contrastes, por lo que el alfa sería igual a
0,05/6=0,008. De esta forma, se rechazaría la hipótesis nula de diferencia entre las
respectivas medias si la probabilidad asociada al estadístico t dividida por 2 (ya que
el SPSS arroja una probabilidad bilateral) es menor o igual a 0,008. En los

19
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

resultados del ejemplo, todas son inferiores a 0,008, indicando que todos los
tratamientos difieren entre sí.

Medidas de la magnitud de asociación y tamaño del efecto

Las medidas de la magnitud de la asociación y del tamaño del efecto se


calculan de la misma forma que en los diseños factoriales. Las más adecuadas son
eta cuadrado parcial y omega cuadrado parcial, que ignoran el efecto del factor
sujetos. Eta cuadrado parcial lo proporciona el SPSS en Opciones dentro de Modelo
Lineal General.

Pruebas de efectos intra-sujetos.

Medida: MEASURE_1
Suma de Eta al
cuadrados Media cuadrado Parámetro de Potencia
a
Fuente tipo III gl cuadrática F Significación parcial no centralidad observada
factor1 Esfericidad asumida 230,850 3 76,950 120,145 ,000 ,896 360,435 1,000
Greenhouse-Geisser 230,850 2,465 93,648 120,145 ,000 ,896 296,168 1,000
Huynh-Feldt 230,850 3,000 76,950 120,145 ,000 ,896 360,435 1,000
Límite-inferior 230,850 1,000 230,850 120,145 ,000 ,896 120,145 1,000
Error(factor1) Esfericidad asumida 26,900 42 ,640
Greenhouse-Geisser 26,900 34,511 ,779
Huynh-Feldt 26,900 42,000 ,640
Límite-inferior 26,900 14,000 1,921
a. Calculado con alfa = ,05

SC A 230,85
η parcial
2
de A = = = 0,896
SC A + SC ERROR 230,85 + 26,90

Omega cuadrado parcial se puede calcular a partir de:


gl A ( MC A − MC ERROR )
ω parcial
2
de A =
gl A MC A + ( Np − gl A ) MC ERROR

gl A ( F − 1))
ω parcial
2

gl A ( F − 1) + Np
de A

(N=número de sujetos, p=número de niveles de la VI)

o ω 2 ≤ 0,010 : asociación baja.

o ω 2 = 0,059 : asociación media.

o ω 2 ≥ 0,138 : asociación alta.

20
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

Con los datos del ejemplo, omega cuadrado parcial es:

gl A ( MC A − MC ERROR ) 3 * (76,95 − 0,64)


ω parcial
2
= = 0,856
gl A MC A + ( Np − gl A ) MC ERROR 3 * 76,95 + ([60 − 3)0,64]
de A

gl A ( F − 1)) 3 * (120,145 − 1)
ω parcial
2
= = 0,856
gl A ( F − 1) + Np 3 * (120,45 − 1) + 60
de A

A partir de omega cuadrado parcial, también se puede calcular el tamaño del


efecto, como estimación de las diferencias entre las medias:

ω parcial
2
0,856
f = = = 2,43
de A

1−ω 2
parcial de A 1 − 0,856

o f = 0,10 : tamaño del efecto pequeño.


o f = 0,25 : tamaño del efecto medio.
o f = 0,40 : tamaño del efecto grande.

Si se realizan contrastes a partir de la prueba t, se pueden calcular los tamaños


del efecto para cada uno de ellos, calculando las respectivas d’ como se explicó
anteriormente.
D
d′ =
Sd

Redacción e interpretación de resultados en un informe científico

“Se ha realizado un análisis de varianza unidireccional de medidas repetidas. El


factor “longitud de las palabras” ha resultado estadísticamente significativo
[F(3,42)=120,145; ω parcial
2
= 0,856 y p<0,001], observándose un promedio mayor

de palabras escritas correctamente cuando la longitud de las mismas es de tres


letras (M=8,87, SD=1,36), seguidas de las que tienen cuatro (M=6,93,
SD=0,88), cinco (M=4,67, SD=1,05), y, por último, seis letras (M=3,87,
SD=0,92). Las comparaciones múltiples, utilizando el ajuste de Bonferroni,

21
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

indican que todas medias de las condiciones experimentales difieren


respectivamente. Por tanto, los resultados indican que la longitud de la palabra
influye en la capacidad de escritura de las personas con afasia de Broca.”

Análisis de varianza de medidas repetidas bajo violación de la esfericidad:


prueba F ajustada

Si la esfericidad se viola, es necesario corregir el sesgo introducido, ya que


aumenta la probabilidad de cometer mayor error de Tipo I. Existen muchos
procedimientos para corregir este sesgo, pero ninguno es unánimamente aceptado
(Blanca, 2004). Uno de ellos es la corrección de los grados de libertad a partir de un
factor multiplicativo denominado épsilon (ε), lo que se conoce como prueba F
ajustada. El parámetro ε representa la cuantía en la que los datos se alejan de la
esfericidad, siendo igual a 1 cuando ésta se satisface. Cuanto más se aleje ε de 1 y
más se aproxime a su límite inferior, que viene dado por 1/p-1, peor será la
violación del supuesto.

En la prueba F ajustada, la F observada no se compara con la F crítica con p-1


y (N-1)(p-1), sino con la F crítica con los siguientes los grados de libertad
multiplicados por épsilon:

Grados de libertad del numerador: ε ( p - 1)


Grados de libertad del denominador: ε ( N - 1)( p - 1)

Si la Fo es mayor que la Fc con los grados de libertad ajustados y al nivel de α

elegido, entonces se rechaza la hipótesis nula de igualdad de medias.

Existen varios procedimientos para estimar épsilón, siendo los más utilizados ε
de Greenhouse-Geisser y ε de Huynh-Feldt. Cuando el ordenador no era una
herramienta para el análisis de datos y las estimaciones de ε conllevaban una gran
dificultad de cálculo, Greenhouse y Geisser (1959) propusieron una estrategia
secuencial, que se aplicaría de la siguiente forma para un diseño de medidas
repetidas unifactorial:

22
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

1. Si el estadístico F del ANOVA no es significativo, es decir, la hipótesis nula se


mantiene como probable, entonces se detiene el análisis, ya que cualquier
procedimiento de ajuste de los grados de libertad llevaría al mismo resultado.
2. Si el estadístico F es significativo, se comienza por el ajuste a partir del límite
inferior de ε; si con este ajuste resulta significativo se detiene el proceso y se
rechaza la hipótesis nula de diferencias entre medias, ya que cualquier otro
ajuste conduciría al mismo resultado.
3. Si el estadístico F es significativo sin ajustar pero no lo es con el ajuste a partir
del límite inferior, entonces se debería proceder a la estimación de ε por algún
otro procedimiento.

La estimación de Greenhouse-Geisser suele tener un valor menor que la de


Huynh-Feldt, por lo que es algo más conservadora y es la más utilizada cuando se
viole la esfericidad. El SPSS proporciona los valores de ambas estimaciones en la
misma tabla de la prueba de esfericidad, y la prueba F ajustada con las dos y con el
límite inferior de épsilon en la tabla del ANOVA. De esta forma, con el SPSS, la
prueba de hipótesis de igualdad de medias sigue los mismos pasos que los
explicados en el punto anterior, pero utilizando el procedimiento de la fila respectiva
a Greenhouse-Geisser en la tabla de Pruebas de efectos intrasujeto.

Ejemplificación del análisis bajo violación de esfericidad

Se desea observar la curva de olvido en sujetos sometidos a una tarea de


retención de números de una cifra. Se selecciona un grupo de estudiantes al azar y
se le pide que memoricen una lista de números durante un tiempo establecido.
Posteriormente se realiza una medición de la cantidad de números retenidos
inmediatamente después del aprendizaje y otras dos mediciones, una transcurridos
siete minutos y otra doce minutos. Los datos hipotéticos son los siguientes:

23
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

0 minutos 7 minutos 12 minutos

13 6 4
9 7 5
10 4 3
10 7 4
11 6 2
10 6 5
8 6 5
11 8 5
12 7 6
14 6 4
11 5 4
12 7 5

El análisis arroja los siguientes resultados:

Factores intra-sujetos

Medida: MEASURE_1
Variable
factor1 dependiente
1 cero
2 siete
3 doce

Estadísticos descriptivos

Media Desv. típ. N


cero 10,9167 1,67649 12
siete 6,2500 1,05529 12
doce 4,3333 1,07309 12

24
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

Prueba de esfericidad de Mauchlyb

Medida: MEASURE_1

a
Epsilon
Chi-cuadrado Greenhous
Efecto intra-sujetos W de Mauchly aprox. gl Significación e-Geisser Huynh-Feldt Límite-inferior
factor1 ,542 6,118 2 ,047 ,686 ,751 ,500
Contrasta la hipótesis nula de que la matriz de covarianza error de las variables dependientes transformadas es proporcional a
una matriz identidad.
a. Puede usarse para corregir los grados de libertad en las pruebas de significación promediadas. Las pruebas corregidas
se muestran en la tabla Pruebas de los efectos inter-sujetos.
b.
Diseño: Intercept
Diseño intra sujetos: factor1 p<0,05, se rechaza la hipótesis
nula de que existe esfericidad.
El supuesto se viola

Como la prueba de esfericidad indica que el supuesto no se satisface, es


necesario aplicar, para contrastar la hipótesis nula de igualdad de medias, la prueba
F ajusta mediante la estimación de Greenhouse-Geisser, la cual arroja una F(1,37,
15,09)=92,18 y p<0,001, rechazando la hipótesis nula. El examen de las medias
indica que la cantidad del número retenidos disminuye a medida que aumenta el
tiempo transcurrido desde el aprendizaje.

Pruebas de efectos intra-sujetos.

Medida: MEASURE_1
Suma de
cuadrados Media
Fuente tipo III gl cuadrática F Significación
factor1 Esfericidad asumida 275,167 2 137,583 92,188 ,000
Greenhouse-Geisser 275,167 1,372 200,549 92,188 ,000
Huynh-Feldt 275,167 1,502 183,153 92,188 ,000
Límite-inferior 275,167 1,000 275,167 92,188 ,000
Error(factor1) Esfericidad asumida 32,833 22 1,492
Greenhouse-Geisser 32,833 15,093 2,175
Huynh-Feldt 32,833 16,526 1,987
Límite-inferior 32,833 11,000 2,985

Cuando se viola la esfericidad, los contrastes entre medias que utilicen una
media cuadrática residual común no son adecuados. Por ello, se aconsejan realizar
pruebas t para grupos relacionados para cada par de tratamiento de interés y
realizar el ajuste Bonferroni o Šidàk, tal como se explicó anteriormente. Para ello, se
selecciona Opciones dentro del análisis de medidas repetidas, se pasa el factor a

25
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

Mostrar medias para y se activa la opción de Comparar los efectos principales,


ajuste Bonferroni (figura 6).

Comparaciones por pares

Medida: MEASURE_1

Intervalo de confianza al 95
a
Diferencia % para la diferencia
entre Límite
a
(I) factor1 (J) factor1 medias (I-J) Error típ. Significación Límite inferior superior
1 2 4,667* ,555 ,000 3,101 6,232
3 6,583* ,596 ,000 4,902 8,265
2 1 -4,667* ,555 ,000 -6,232 -3,101
3 1,917* ,288 ,000 1,106 2,728
3 1 -6,583* ,596 ,000 -8,265 -4,902
2 -1,917* ,288 ,000 -2,728 -1,106
Basadas en las medias marginales estimadas.
*. La diferencia de las medias es significativa al nivel ,05.
a. Ajuste para comparaciones múltiples: Bonferroni.

De forma equivalente, también se pueden realizar diferentes pruebas t para


grupos relacionados, ajustando el alfa por el procedimiento de Bonferroni. En el
ejemplo, el alfa a utilizar para cada contraste sería de 0,05/3=0,0167. Los resultados
muestras que todos los tratamientos difieren entre sí.

Prueba de muestras relacionadas

Diferencias relacionadas
95% Intervalo de
confianza para la
Desviación Error típ. de diferencia
Media típ. la media Inferior Superior t gl Sig. (bilateral)
Par 1 cero - siete 4,66667 1,92275 ,55505 3,44501 5,88832 8,408 11 ,000
Par 2 cero - doce 6,58333 2,06522 ,59618 5,27115 7,89551 11,043 11 ,000
Par 3 siete - doce 1,91667 ,99620 ,28758 1,28371 2,54963 6,665 11 ,000

Redacción e interpretación de resultados en un informe científico

“Se ha realizado un análisis de varianza unidireccional de medidas repetidas,


con ajuste de los grados de libertad por el procedimiento de Greenhouse-
Geisser por violación de la esfericidad (ε=0,686). El factor “tiempo transcurrido
entre el aprendizaje y la medición” ha resultado estadísticamente significativo
[F(1,37, 15,09)=92,18 y p<0,001], observándose que la cantidad de números
recordados disminuye a medida que incrementa el tiempo de cero (M=10,92,

26
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

SD=1,68) a siete (M=6,25, SD=1,06) y a doce minutos (M=4,33, SD=1,07) tras


el aprendizaje. Los contrastes entre medias realizando un ajuste Bonferroni
indican que todas las condiciones difieren entre sí de forma estadísticamente
significativa [cero vs. siete: t(11)=8,41, p<0,001; cero vs. doce: t(11)=11,04,
p<0,001; siete vs. doce: t(11)=6,67, p<0,001].”

Prueba de Friedman

La prueba de Friedman es una prueba no paramétrica que permite comparar


la media de los rangos entre tres o más condiciones con datos relacionados,
resolviendo una cuestión similar a la del ANOVA unifactorial en situaciones de
medidas repetidas. Se utiliza con VD ordinales o con VD cuantitativas, cuando se
viola de forma grave la normalidad o hay pocos sujetos.

¿Es igual la distribución de los rangos en las diferentes condiciones?


H0: Las distribuciones de los rangos son iguales en las p condiciones de
tratamiento u ocasiones de medida.
H1: No H0. Al menos dos condiciones difieren en la distribución de los rangos.

H o : R1 = R2 = K = R p
H1 : No H 0

La prueba de Friedman con VD ordinal

Consideremos el siguiente ejemplo que, aunque no sigue un diseño pretest-


postest, resulta ilustrativo. Supongamos que se desea evaluar el contenido belicista
de cuatro frases. Para ello, se pide a diez jueces que ordenen las frases según su
contenido belicista de menor a mayor, adjundicando un valor de 1 a 4,
respectivamente.

27
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

Al igual que las pruebas anteriores, los datos se introducen en el Editor de


datos del SPSS en cuatro columnas, una para cada condición de tratamiento.

Ejemplificación del análisis

Una vez introducidos los datos, para solicitar la prueba de Friedman se


selecciona
→ Analizar
→ Pruebas no paramétricas
→ K muestras relacionadas

paraχ calcular la significación


2
El SPSS realiza la aproximación al estadístico
estadística. Con tres niveles del factor de medidas repetidas y N<16 es preferible
utilizar la probabilidad exacta, en vez de la asintótica, al igual que con cuatro o cinco
niveles y N<9.

En la salida, el SPSS proporciona la tabla con las medias de los rangos por
condición de tratamiento y la tabla con el estadístico de contraste.

28
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

Rangos

Rango
promedio
F1 3,75
F2 3,25
F3 1,70
F4 1,30

Estadísticos de contrastea
N 10
Chi-cuadrado 25,485 Si p>0,05 se acepta H0. Las
gl 3 condiciones son iguales en la
H o : R1 = R2 = R3 = R4 Sig. asintót. ,000 distribución de los rangos.
H 1 : No H 0 Sig. exacta ,000 Si p≤0,05 se rechaza H0. Al
Probabilidad en el punto ,000 menos dos condiciones difieren
a. Prueba de Friedman en la distribución de los rangos.

En el ejemplo, la probabilidad asociada al estadístico es menor que 0,05,


indicando que existen diferencias en la distribución de los rangos entre al menos dos
condiciones de medida. La media de los rangos parece indicar que las frases de
mayor contenido belicistas son la primera y segunda. Al igual que en el ANOVA, el
siguiente paso es averiguar qué grupos son los que difieren. Algunos autores como
Pallant (2007) aconsejan realizar las comparaciones a través de diferentes pruebas
de Wilcoxon entre pares de condiciones, ajustando el nivel de alfa por el
procedimiento de Bonferroni. En este caso, se pueden aportar las medidas de
tamaño del efecto a partir de la familia r:
z
r=
N º de observaciones

Nº de observaciones= Nº de sujetos x 2

El tamaño del efecto se puede intrerpretar de la siguiente manera:


o r= 0,1: asociación pequeña.
o r= 0,3: asociación mediana.
o r= 0,5: asociación grande.

29
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

Si deseáramos realizar todas los contrastes entre los pares de puntuaciones


(6 contrastes), deberíamos utilizar un alfa de 0,05/6=0,0083. De esta forma, el
contraste se declara significativo si la probabilidad asociada es igual o menor que
0,0083. Los resultados de realizar las pruebas de Wilcoxon entre cada par de
condiciones muestran que las frases 1 y 2, y las frases 3 y 4, poseen el mismo
contenido belicista, respectivamente, pero que las primeras se diferencian de forma
significativa de las segundas. Estos resultados indican que las frases 1 y 2 tienen
mayor contenido belicista que las frases 3 y 4.

Estadísticos de contrasteb

F2 - F1 F3 - F1 F4 - F1 F3 - F2 F4 - F2 F4 - F3
Z -1,667a -2,873a -2,859a -2,877a -2,913a -1,265a
Sig. asintót. (bilateral) ,096 ,004 ,004 ,004 ,004 ,206
Sig. exacta (bilateral) ,180 ,002 ,002 ,002 ,002 ,344
Sig. exacta (unilateral) ,090 ,001 ,001 ,001 ,001 ,172
Probabilidad en el punto ,070 ,001 ,001 ,001 ,001 ,117
a. Basado en los rangos positivos.
b. Prueba de los rangos con signo de Wilcoxon

1,667 2,873
rfrase 1 vs frase 2 = = 0,373 rfrase 1 vs frase 3 = = 0,642
10 x 2 10 x 2

2,859 2,877
rfrase 1 vs frase 4 = = 0,639 rfrase 2 vs frase 3 = = 0,643
10 x 2 10 x 2

2,913 1,265
rfrase 2 vs frase 4 = = 0,65 rfrase 3 vs frase 4 = = 0,283
10 x 2 10 x 2

Redacción e interpretación de resultados en un informe científico

En la redacción de resultados se debe informar del valor del estadístico χ2, de la


probabilidad asociada y de las medias de rango obtenidas. Si las comparaciones
múltiples se realizan a través de diferentes pruebas de Wilcoxon es aconsejable
señalar que se realiza el ajuste Bonferroni y aportar los respectivos resultados junto
con las medidas de tamaño del efecto.

30
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

“Se ha realizado una prueba de Friedman para analizar la diferencia en el


contenido belicista de cuatro frases, evaluadas por diez jueces expertos. El
análisis arroja diferencias estadísticamente significativas [χ2(3)= 25,49;
p<0,001]. Las comparaciones múltiples a través de pruebas de Wilcoxon entre
cada par de ocasiones de medida, con ajuste Bonferroni (alfa=0,0083 por
contraste), muestran que las frases 1 y 2, y las frases 3 y 4, poseen el mismo
contenido belicista, respectivamente, pero que las primeras se diferencian de
forma significativa con las segundas. Estos resultados indican que las frases 1
y 2 tienen mayor contenido belicista que las frases 3 y 4. En la tabla 1 se
presentan las medias de rangos y en la tabla 2 los resultados de las
comparaciones múltiples.

Media de rango
Frase 1 3,75
Frase 2 3,25
Frase 3 1,70
Frase 4 1,30
Tabla 1. Media de rangos en contenido belicista de las distintas frases.

Frases Frase 1 Frase 2 Frase 3


z= -1,67
Frase 2 p= 0,09
r= 0,37
z= -2,87 z= -2,88

Frase 3 p= 0,001 p= 0,001


r= 0,64 r= 0,64
z= 2,86 z= -2,91 z= -1,27

Frase 4 p= 0,001 p= 0,001 p= 0,12


r= 0,64 r= 0,65 r= 0,28
Tabla 2. Resultados de la prueba de Wilcoxon entre las medias de rangos de
cada par de frases, con indicación del estadístico z, la probabilidad asociada
(p) y tamaño del efecto de la familia r.

31
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

La prueba de Friedman con VD cuantitativa

Cuando la VD es cuantitativa, las puntuaciones se deben transformar a rangos,


La puntación que ordena puntuaciones en la VD de las ocasiones de medida de
menor a mayor, se denomina rango. La prueba de Friedman compara la distribución
de estos rangos entre las ocasiones de medida. Por tanto, cuando se realiza una
prueba de Friedman con VD cuantitativas, no comparamos la media de la VD
original sino la media de la VD convertida a rangos.

Supongamos que se desea evaluar la efectividad de un entrenamiento


deportivo en el número de errores que comente un lanzador a canasta en
baloncesto. Se registra el número de errores en dos ocasiones antes de comenzar el
tratamiento y en otras dos ocasiones después del mismo. Los datos hipotéticos son
los siguientes:

La conversión de estos datos, quedaría como sigue (esta conversión la hace


automáticamente el SPSS cuando se solicita una prueba no paramétrica, por lo
que no hay que modificar ni introducir los rangos en el editor de datos):

32
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

Los resultados obtenidos de ejecutar la prueba de Friedman sobre los datos


cuantitativos son los siguientes:

Estadísticos descriptivos

Desviación
N Media típica Mínimo Máximo
pretes1 7 7,7143 1,11270 6,00 9,00
pretes2 7 7,7143 ,75593 7,00 9,00
postest1 7 5,4286 ,78680 5,00 7,00
postest2 7 5,0000 ,81650 4,00 6,00

Rangos

Rango
promedio
pretes1 3,43
pretes2 3,57
postest1 1,71
postest2 1,29

Estadísticos de contrastea
N 7 Si p>0,05 se acepta H0.
Chi-cuadrado 18,844 Las condiciones son
H o : R1 = R2 = R3 = R4 gl 3 iguales en la distribución
Sig. asintót. ,000 de los rangos.
H 1 : No H 0
Sig. exacta ,000 Si p≤0,05 se rechaza H0.
Probabilidad en el punto ,000 Al menos dos condiciones
a. Prueba de Friedman difieren en la distribución
de los rangos.

En el ejemplo, la probabilidad asociada al estadístico es menor que 0,05,


indicando que existen diferencias en la distribución de los rangos entre al menos dos
ocasiones de medidas. La media de los rangos parece indicar que las puntuaciones
son mayores en la primera y segunda medición que en la tercera y cuarta. Al igual
que en el ANOVA, el siguiente paso es averiguar qué ocasiones son las que difieren.

Para realizar todas los contrastes entre los pares de puntuaciones, se debería
utilizar un alfa de 0,05/6=0,0083. De esta forma, el contraste se declara significativo
si la probabilidad asociada es igual o menor que 0,0083. Los resultados muestran
que las dos puntuaciones pretest difieren de las dos puntuaciones postest.

33
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

Estadísticos de contrastec

pretes2 - postest1 - postest2 - postest1 - postest2 - postest2 -


pretes1 pretes1 pretes1 pretes2 pretes2 postest1
Z ,000a -2,379b -2,379b -2,379b -2,388b -1,732b
Sig. asintót. (bilateral) 1,000 ,017 ,017 ,017 ,017 ,083
Sig. exacta (bilateral) 1,000 ,016 ,016 ,016 ,016 ,250
Sig. exacta (unilateral) ,625 ,008 ,008 ,008 ,008 ,125
Probabilidad en el punto ,250 ,008 ,008 ,008 ,008 ,125
a. La suma de rangos negativos es igual a la suma de rangos positivos.
b. Basado en los rangos positivos.
c. Prueba de los rangos con signo de Wilcoxon

Redacción e interpretación de resultados en un informe científico

Si la VD es cuantitativa, se deben aportar además del valor del estadístico la media,


mediana y varianza de las puntuaciones originales en cada una de las
condiciones, así como la media de los rangos. Estos estadísticos descriptivos se
pueden obtener en Estadísticos descriptivos, Frecuencias, Estadísticos.

“Se ha realizado una prueba de Friedman para analizar las diferencias en el


número de errores que cometen los lanzadores de canasta antes y después del
entrenamiento deportivo. Los resultados muestran diferencias estadísticamente
significativas [χ2(3)= 18,84; p<0,001] entre las ocasiones de medida. Para
detectar qué condiciones difieren, se ha realizado una prueba de Wilcoxon con
el ajuste Bonferroni (α=0,0083) entre cada par de ocasiones de medida. El
análisis indica que no hay diferencias entre las dos medidas pretest (z=0,001,
p=0,63), ni entre las dos medidas postest (z=-1,73, p=0,12). Sin embargo, sí
existen diferencias entre primera medida pretest y las dos medidas postest (z=-
2,38, p=0,008; z=-2,38, p=0,008, respectivamente), y la segunda medida
pretest y las dos medidas postest (z=-2,38, p=0,008; z=-2,39, p=0,008,
respectivamente). Estos resultados indican que el número de errores disminuye
en las mediciones posteriores al entrenamiento deportivo. Los estadísticos
descriptivos se presentan en la tabla 1.

34
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

M Md SD Media de rango
Pretest 1 7,71 8 1,11 3,43
Prestest 2 7,71 8 0,76 3,57
Postest 1 5,42 5 0,79 1,71
Postest 2 5,00 5 0,82 1,29

Tabla 1. Media (M), mediana (Md), desviación típica (SD) y media de rangos en
función de las ocasiones de medida.

REFERENCIAS

Arnau, J. (contenidos teóricos) y Bono, R. (contenidos prácticos) (2001a). Diseños


Experimentales (CD). Barcelona: Edicions Universitat de Barcelona. Colecció
TEAM-UB.
Balluerka, N. y Vergara, A.I. (2002). Diseños de investigación experimental en
Psicología. Madrid: Prentice-Hall.
Blanca, M.J. (2004). Alternativas de análisis estadístico en los diseños de medidas
repetidas. Psicothema, 16 (3), 509-518.
Blanca, M.J. y Rando, B. (2005). Diseños experimentales en CC. del
Comportamiento: ejercicios y aplicaciones. Málaga: Universidad de Málaga.
Field, A. (2009). Discovering statistics using SPSS. (3rd. ed.). London: Sage
Gravetter, F.J. y Wallnau, L.B (2009). Statistics for the Behavioral Science. Belmont,
CA: Wadsworth.
Greenhouse, S.W. y Geisser, S. (1959). On methods in the analysis of profile data.
Psychometrika, 24, 95-112.
Keppel, G. (1982). Design and analysis. A researcher's handbook (2nd ed.). New
Jersey: Prentice-Hall.
Kirk, R.E. (1995). Experimental design. Procedures for the behavioral sciences (3rd
ed). California: Brooks/Cole Publishing Company.
Pallant, J. (2007). SPSS survival manual. A step-by-step guide to data analysis using
SPSS for windows (version 15) (3rd. ed.). Crows Nest: Allen & Unwin

35
DISEÑOS INTRASUJETO. CONTRASTES DE HIPÓTESIS PARA MUESTRAS RELACIONADAS
Profa. Mª JOSÉ BLANCA

Pardo, A. y Ruiz, M.A. (2005). Análisis de datos con SPSS 13 Base. Madrid:
McGraw-Hill.
Pardo, A. y San Martín, R. (1999). Análisis de datos en psicología II. Madrid:
Pirámide.
Ximénez, C. y San Martín, R. (2000). Análisis de varianza con medidas repetidas.
Salamanca: Editorial La Muralla.

36

Вам также может понравиться