Вы находитесь на странице: 1из 111

METODOLOGÍA

CUANTITATIVA CON
SPSS 12

PROF. JOSÉ MANUEL TOMÁS


Departamento de Metodología de las Ciencias del
Comportamiento

UNIVERSITAT DE VALÈNCIA
1. MANEJO DE SPSS
1.1. Introducción de datos
1.2. Datos omitidos
1.3. Selección de datos
1.4. Transformación de variables
1.5. Fusión y segmentado de archivos
1.6. Remodificación de variables

2. TÉCNICAS ESTADÍSTICAS DESCRIPTIVAS


BÁSICAS
2.1. Representaciones gráficas
2.2. Estadísticos descriptivos
2.3. Relación bivariada entre variables categóricas

3. PRUEBAS T, ANOVA Y NO PARAMÉTRICA:


CONTRASTES DE TENDENCIA CENTRAL
3.1. Pruebas t
3.2. ANOVA
3.2.1. Anova de un factor
3.2.2. Anova de un factor intra-sujetos
3.2.3. Tamaño del efecto
3.2.4. Anova de dos factores entre-sujetos
3.2.5. Anova mixto
3.2.6. Transformaciones de potencia

4.REGRESIÓN LINEAL MÚLTIPLE


4.1. estimación
4.2. Diagnóstico en regresión

-2-
4.3. Validación cruzada
4.4. Categóricas en regresión
4.5. Interacciones en regresión

5. REGRESIÓN LOGÍSTICA BINARIA


5.1. Generalidades
5.2. Modelo estadístico
5.3. Supuestos
5.4. Regresión logística simple en SPSS 12
5.5. Regresión logística múltiple en SPSS
5.6. Procedimientos de selección de variables

6.ANÁLISIS FACTORIAL
6.1. Pasos previos al análisis factorial
6.2. Tipos de análisis factorial
6.3. ¿Cuántos componentes retener?
6.4. Rotaciones
6.5. ¿Qué saturaciones interpretar?
6.6. Ejemplo integrador

-3-
11.. M ANEJO DDE
MANEJO PSS
E SSPSS

1.1. INTRODUCCIÓN DE DATOS

Existen dos grandes opciones: a) Importar datos ya introducidos, desde


cualquier otro programa; b) Introducir los datos desde el propio programa
SPSS, en cualquiera de sus versiones. En la primera, aunque los formatos y
los programas desde donde pueden venir los datos son múltiples, es
normalmente el caso que el programa externo es una hoja de cálculo,
habitualmente EXCEL. La segunda de las opciones es la más habitual, y
probablemente la más recomendable, ya que a partir del propio SPSS es
sencilla la importación a otros programas, si fuera necesario.

A) Datos desde EXCEL. Simplemente considerar que antes de importar los


datos a SPSS es conveniente guardarlos en formato SYLK, en las opciones
de GUARDAR COMO. Después en SPSS se pide ABRIR con formato
SYLK.

B) Desde el propio SPSS. Cuando se introducen los datos desde SPPS hay
que considerar varias cuestiones.

Primero hay que definir las variables. La forma de definirlas, así como la
colocación de etiquetas, longitud de la variable y número de decimales son
autoexplicativas. El nombre de la variable no puede ser más de ocho
caracteres, en tipo se define si es numérica o alfanumérica, y el número de
cifras y decimales, caso de tener. Se pueden colocar etiquetas, para
nombrar la variable con un nombre largo en lugar del acrónimo de ocho
caracteres que hemos elegido antes. Además de esas etiquetas, se puede
colocar etiquetas para cada uno de los valores.

Finalmente, aquí como recomendación es importante considerar que puede,


a la larga, resultar recomendable nombrar todas las variables como

-4-
cuantitativas, aún cuando su escala de medida simplemente alcance las
escalas nominal u ordinal. Aunque ello implica que el investigador ha de
ser cuidadoso en la elección de técnica estadística, le deja libre para un
mayor número de análisis, cuando lo considere necesario. Existen otras
razones para esta elección, como por ejemplo que aunque se distinga entre
nominales y ordinales, el programa, en según qué opciones (por ejemplo en
gráficas) no las distingue, y te impide realizar algunas gráficas de interés.
Por tanto la recomendación es catalogar todas las variables como de escala,
aunque manteniendo nuestro conocimiento sobre su verdadera escala de
medida.

1.2. DATOS OMITIDOS

En la misma introducción de datos merece la pena colocar los valores que


representarán a los datos omitidos, a los datos perdidos (missing data).

Una primera opción de carácter general es no definir ningún valor perdido,


simplemente dejar un hueco en la matriz de datos. Implícitamente esto
significa definir el valor perdido como perdido del sistema
(SYSMISSING), denominación que usará internamente desde entonces el
programa. Esta es una buena solución por defecto para las variables
numéricas, pero si la variable se ha definido como cadena no es válido
porque entonces las plantea como una categoría más. Entonces hay que
informar al programa explícitamente (mediante la opción de valores
discretos que veremos luego) de que el faltante es un blanco.

La segunda opción es definir los valores que queremos para los faltantes,
que debe ser un valor (o rango de valores, o varios valores) que no sean
valores potenciales de la variable (por ejemplo, se puede definir como
faltante el 999 para la edad, pero no el 9, porque es posible que tengamos
niños de 9 años ahora o en el futuro en la muestra). La posibilidad de dar
distintos valores perdidos puede ser de utilidad caso de que se quiera
distinguir entre tipos de perdidos, por ejemplo perdidos que vienen de una
persona que apenas contesta nada de la encuesta, y perdidos ocasionales,
que pueden ser despistes.

-5-
1.3. SELECCIÓN DE DATOS

Dentro de la selección de datos hay muchas opciones, casi todas dentro del
menú DATOS. Nosotros nos centraremos en explicar las opciones de
fundir archivos y la de seleccionar casos.

En la opción de FUNDIR ARCHIVOS es donde se pueden agregar bases de


datos para conseguir una base nueva de mayores dimensiones. Existen dos
formas de hacerlo: añadir variables, que puede realizarse siempre que las
dos bases de datos tengan los mismos sujetos (las mismas filas), en el
mismo orden; y añadir casos, que sirve para fundir dos archivos con las
mismas variables (mismas columnas) y en el mismo orden.
Por otro lado dentro del menú datos esta la opción SELECCIONAR CASOS de
tremenda utilidad. Este es un proceso para filtrar los datos, esto es, para
analizar solamente una parte de los datos, en función de diversos criterios.
Los criterios más importantes son:

Satisfacer una condición, como por ejemplo, seleccionar solamente


los casos con género = 1 (mujeres u hombres)

Muestra aleatoria de casos, que puede usarse como una opción previa
a realizar validaciones cruzadas (replicación de los resultados), y puede
realizarse de forma exacta o aproximada.

Rango de los casos, como seleccionar los casos 50 a 100 de una


muestra, por ejemplo.

Los datos no seleccionados de cualquiera de estas formas, pueden filtrarse,


con lo que quedan disponibles en la misma base de datos, y pueden
volverse a utilizar cuando se elimine la selección, o pueden eliminarse, con
lo que la base de datos original quedará reducida solamente a los datos sí
seleccionados.

-6-
1.4. TRANSFORMACIÓN DE VARIABLES

La mayor parte de las transformaciones de variables que vamos a ver se


realizan en el menú TRANSFORMAR, y dentro de éste en la opción
CALCULAR.

Las posibilidades de transformaciones de variables mediante el comando


calcular son enormes, por lo que simplemente veremos algunos de los más
utilizados.

TRANSFORMACIÓN POR AGREGACIÓN

A menudo, una de las transformaciones habituales en una masa de datos es


el agregar de alguna forma los valores de distintas variables, para obtener
un compuesto de ciertas características. Un ejemplo concreto de este
agregado es cuando se generan las puntuaciones en una escala (o en una
dimensión de una escala) mediante suma de los items que la componen.
Este agregado puede hacerse mediante dos formas similares, pero con
importantes diferencias: la suma y el promedio.

Suma: para sumar hay que ir al menú TRANSFORMAR, dentro de


él CALCULAR. Hay que utilizar la función SUM. Evidentemente suma las
puntuaciones de los items (o variables) definidas en la función. Hay que
considerar que si para un caso cualquiera alguna de las variables
integradas en la función suma tuviera un dato faltante (omitido), el
resultado global para ese caso de la suma es faltante. Por lo tanto, es un
comando que arrastra los faltantes. Si, por ejemplo, un sujeto ha dejado
solamente por contestar un ítem de los 20 que forman la escala, su
puntuación suma es un faltante. Esto no ocurre para la función promedio
(media) que detallamos a continuación.

Promedio: para promediar hay que ir al menú TRANSFORMAR,


dentro de él CALCULAR. Hay que utilizar la función MEAN.
Evidentemente promedia las puntuaciones de los items (o variables)
definidas en la función. No se arrastran los faltantes, con que una de las

-7-
variables tenga dato válido ya se obtiene puntuación para el caso. Por lo
tanto, ofrece mayor tamaño muestral (da menos faltantes), pero hay que
tener cuidado porque puede dar una puntuación global muy inestable,
basada solamente en unos pocos items, incluso un solo ítem. Por lo
demás ambas funciones, suma y promedio, son transformación lineal
una de la otra, por lo que la mayoría de estadísticos (por ejemplo, la
correlación y cualquier técnica basada en ella) no se ve afectado.

Estos procedimientos pueden usarse de forma combinada para crear


“indicadores complejos” donde se recoja información compacta p.e. de
la manifestación de una conducta, de su intensidad y duración, etc.. así
como indicadores de salud.

INVERSIÓN DE ESCALA

Cuando se suman o promedian variables es importante concentrarse muy


bien en qué se suma. Un error común es sumar items que van en distintas
direcciones, por ejemplo un ítem positivo y uno negativo (invertido) de
autoestima. El resultado es un desastre. Por lo tanto hay que darle la vuelta
a los items invertidos previo a la suma o el promedio. Esto es posible
hacerlo también en el menú transformar. Vamos a ver dos de los ejemplos
más comunes: un ítem en formato tipo Likert con valor mínimo cero; el
mismo formato tipo Likert, pero empezando en uno.

Valor mínimo es 0: En ese caso para realizar una inversión de escala


hay que realizar el siguiente cálculo en TRANSFORMAR y calcular: La
variable nueva (la invertida) es igual al valor máximo de la variable
menos la propia variable.

Valor mínimo es 1: En ese caso para realizar una inversión de escala


hay que realizar el siguiente cálculo en TRANSFORMAR y calcular: La
variable nueva (la invertida) es igual al valor máximo más uno de la
variable menos la propia variable.

-8-
TRANSFORMACIONES DE POTENCIA

Al margen de los dos tipos de transformaciones vistos anteriormente, por


agregación e inversión de escala, existen un cierto grupo de
transformaciones habituales en análisis de datos. Una muy habitual es
transformar en rangos, transformación usada en muchas pruebas de
estadística no paramétrica, y que veremos entonces. Siempre es posible
realizar transformaciones basadas en la teoría, como al agregar las notas de
lengua y de matemáticas dar el doble de valor a una de ellas, por motivos
teóricos, pero son tan numerosas, y cambiantes, que se resuelven según el
caso.

Finalmente una categoría de transformaciones bastante estandarizada, y


empleada a menudo, es la transformación de potencia, presentada
claramente, entre otros por Tukey (1977), y cuyo procedimiento, simple e
intuitivo se conoce como la escalera de potencias de Tukey. El objetivo de
estas transformaciones consiste básicamente en corregir asimetrías en las
variables, aunque normalmente también pueden mejorar problemas de
heterogeneidad de varianza, etc. La idea es sencilla: se pueden transformar
las variables elevando a una potencia, positiva o negativa, cuanto mayor
sea la potencia a la que se elevan las puntuaciones originales, mayor el
efecto sobre la escala original. Las potencias positivas corrigen la
asimetría negativa, las potencias negativas corrigen la asimetría positiva.
En el cuadro:

Potencia 3 2 1 .5 0 -.5 ... -2


Transformación X3 X2 X RCX logX 1/RCX 1/X2
RC= raíz cuadrada

Para ver qué transformación aplicar, y también para evaluar el efecto que
sobre la variable ha tenido la transformación es adecuado estudiar
sdescriptivamente la variable en todo momento: calcular estadísticos
descriptivos, realizar histogramas, y muy especialmente en este caso
realizar Q-Q plots (gráfico de cuantil-cuantil).

-9-
Ejemplo práctico: la variable autoestima que es asimétrica negativa puede
funcionar mejor realizando una transformación de potencia positiva
(cuadrado, cubo..), para corregir esta asimetría.

1.5. FUSIÓN Y SEGMENTADO DE ARCHIVOS

FUSIÓN DE ARCHIVOS

A menudo el trabajo de análisis de datos con SPSS requiere de la


integración (fundido) de archivos que se complementan. Los tipos de
fusión de archivos son fusión vertical y horizontal.

La fusión vertical (añadir casos) responde a la situación de tener dos


archivos con las mismas variables pero con casos diferentes. Pensemos, por
ejemplo, en el pase de un cuestionario a una muestra de escolares en el año
2000, y recoger otra muestra de escolares de las mismas características,
pero en el año 2001, con motivo de una replicación del estudio. Podría
convenir, entonces, tener los dos archivos juntos. En ese caso estamos ante
una fusión vertical. Para realizar este tipo de fusión hay que abrir el
primero de los archivos a fundir e ir al menú DATOS, y escoger la opción
FUNDIR ARCHIVOS... AÑADIR CASOS. Se abre una ventana en la que
simplemente hay que decir que quieres leer el segundo de los archivos.

La fusión vertical (añadir variables) responde a la situación de tener dos


archivos con distintas variables pero con los mismos sujetos. Pensemos,
por ejemplo, en el pase de un cuestionario a una muestra de escolares en el
año 2000, y recoger en otro archivo otras variables de la misma muestra,
pero en el año 2001, con motivo de una ampliación del estudio (o una
recogida de otro momento temporal). Podría convenir, entonces, tener los
dos archivos juntos. En ese caso estamos ante una fusión horizontal. Para
realizar este tipo de fusión hay que abrir el primero de los archivos a fundir
e ir al menú DATOS, y escoger la opción FUNDIR ARCHIVOS... AÑADIR

-10-
VARIABLES. Se abre una ventana en la que simplemente hay que decir que
quieres leer el segundo de los archivos.

SEGMENTACIÓN DE ARCHIVOS

La segmentación divide el archivo de datos en distintos grupos oara el


análisis, basándose en los valores de una o más variables de agrupación
(hasta un máximo de ocho variables de agrupación). Para realizar la
segmentación hay que ir a DATOS y dar a SEGMENTAR ARCHIVOS. Allí hay
dos opciones: comparar los grupos que definamos por la variable (o
variables agrupadoras) y organizar los resultados por grupos. Ambas dan
los resultados para los grupos definidos, solamente cambia el formato. En
el primer caso todos los resultados por grupos en una misma tabla, en el
otro separados en tantas tablas como grupos se definan.

1.6. RECODIFICACIÓN DE VARIABLES

Se puede recodificar en las mismas variables o en variables diferentes. El


consejo conservador es recodificar en distintas variables siempre, con lo
que la variable original queda intacta, y previene fallos.

RECODIFICACIÓN EN LAS MISMAS VARIABLES

Reasigna los valores existentes en la variable, puede ser cambiando valor a


valor (valor antiguo cambia a valor nuevo) o por agrupación en un valor de
un rango de valores previos (desde tal a tal valor antiguo será el valor x
nuevo). Se realiza en el menú TRANSFORMAR, y dentro de él en
Recodificar... en las mismas variables

RECODIFICACIÓN EN DISTINTAS VARIABLES

Todo igual que la opción anterior pero guarda los valores nuevos en una
nueva variable que generamos al efecto.

-11-
Dónde puedo aprender más de esto:

• Todo lo que tiene que ver con manejo de ficheros de SPSS, sin duda en el
propio manual del SPSS. Está disponible en el centro de cálculo de la
Universitat.

• Sobre transformación de variables se puede consultar en libros sobre análisis


exploratorio de datos, como Freixa, M., Salafranca, L., Guardia, J., Ferrer, R. y
Turbany, J. (1992). Análisis exploratorio de datos: Nuevas técnicas
estadísticas. Barcelona: PPU.

-12-
22.. TTÉCNICAS STADÍ
ÉCNICAS EESTAD STICAS BBÁSICAS
DÍÍSTICAS ÁSICAS

2.1. REPRESENTACIÓN GRÁFICA

Para el cumplimiento de los supuestos de algunas técnicas estadísticas es


fundamental evaluar el grado de alejamiento de la normalidad, la falta de
simetría y la presencia de datos atípicos. Un primer paso en este sentido es
estudiar las variables de forma descriptiva, y concretamente mediante
graficas y mediante el cálculo de estadísticos.

Los diagramas o representaciones gráficas más importantes se sitúan en


SPSS en el menú de GRAFICOS, y son la mayoría bien entendidos y
utilizados, por lo que no nos de tendremos en ellos. Aquí veremos
simplemente los diagramas de caja y bigotes y los diagramas de cuantiles,
por ser los menos utilizados, pero son muy importantes en el análisis de
datos previo a la aplicación de algunas técnicas estadísticas (como las
pruebas t, ANOVAs y regresión).

Una primera aproximación es pedir el histograma de una variable, que


puede pedirse, además, con una representación de la distribución normal
superpuesta, de forma que permite ver alejamientos de ésta. Para pedir un
histograma se debe ir al menú GRÁFICOS, dentro de la opción
HISTOGRAMA, y allí situar la variable sobre la que se quiere el histograma y
la opción de ver curva normal.

El resultado de un histograma para un par de variables es como el de las


gráficas a continuación. La primera de las gráficas muestra la asimetría
negativa de la variable, mientras que la segunda de las gráficas presenta
una extrema asimetría positiva.

-13-
60 400

50

300

40

30 200

20
100

10 Desv. típ. = ,79 Desv. típ. = 3,38


Media = 3,37 Media = 1,9

0 N = 535,00 0 N = 567,00
0,0 5,0 10,0 15,0 20,0 25,0
1,
1,
1,
1,
2,
2,
2,
2,
3,
3,
3,
3,
4,
4,
4,
4,
5,
00
25
50
75
00
25
50
75
00
25
50
75
00
25
50
75
00

2,5 7,5 12,5 17,5 22,5 27,5

SMANAG
SUMACC

Para estudiar las características de una distribución en cuanto a su


aproximación a la normal es, no obstante mejor, especialmente en tamaños
muestrales no muy grandes, acudir a diagramas de cuantiles. Hay dos
posibilidades, los gráficos P-P (percentil-percentil) y los gráficos Q-Q
(cuantil-cuantil). Se diferencian en que los primeros utilizan las
proporciones acumuladas, y los segundos los valores. Estos últimos son
quizá más fáciles, por tanto, de interpretar. Los gráficos Q-Q se piden en el
menú GRÁFICOS y en la opción Q-Q. Los defectos que ofrece SPSS son
buenos, simplemente hay que decir de qué variables queremos los gráficos.
Los resultados para las dos variables anteriores se pueden ver a
continuación.

Normal gráfico Q-Q de SMANAG Normal gráfico Q-Q de SUMACC


6 12

10
5

4
6
Valor Normal esperado

Valor Normal esperado

3 4

2
2

0
1
0 1 2 3 4 5 6 -2
-10 0 10 20 30
Valor observado
Valor observado

-14-
Por último repasaremos un tipo de gráficos que resulta útil para revisar la
simetría, pero especialmente para señalar la presencia de valores atípicos
(outliers). Los diagramas de caja y bigotes, desarrollados por Tukey desde
el análisis exploratorio de datos, se pueden pedir en SPSS en el menú
GRÁFICOS, y dentro de la opción DIAGRAMAS DE CAJA... Existen dos
opciones, una vez pedidos, el defecto es el adecuado, pidiendo diagramas
simples. De todas formas, aún pidiendo simple existen dos opciones a
elegir. Por un lado se puede optar por resúmenes para distintas variables, lo
que nos da para cada variable que seleccionemos un diagrama de cajas, o la
opción de resúmenes para grupos de casos, que sirve para que se ofrezca un
diagrama de caja y bigotes por subgrupos definidos en base a una tercera
variable. Veamos un ejemplo de cada opción.

Supongamos que queremos un diagrama de caja y bigotes para una


variable, iríamos a diagrama de caja y seleccionaríamos la opción
resúmenes para distintas variables, pincharíamos en definir y
seleccionaríamos la variable en cuestión. El resultado vendría en un
formato como en el de la gráfica a continuación:

-15-
6

56
1 250
543
7

0
N= 535

SMANAG

La interpretación del diagrama de caja y bigotes es simple. La raya negra


central muestra la mediana de la variable. Mientras que arriba y debajo de
ella hay un rectángulo en rojo (caja) que va hasta los valores del cuartil 1 y
cuartil 3. Si la distancia entre la mediana y los cuartiles fuera idéntica sería
muestra de simetría en la distribución. Por su parte las líneas que se
extienden hasta un límite superior e inferior que señala los límites de las
observaciones típicas (no “outliers”). A partir de éstos límites aparecen los
valores atípicos, si los hay. Estos valores se muestran con su valor de caso.

Por su parte, si se opta por los resúmenes para grupos de casos, entonces el
diagrama es exactamente igual pero hay varias, una para cada subgrupo. A
continuación puede verse un ejemplo donde la variable agrupadora es el
sexo, hombre, mujer y omitido, y cada uno de estos grupos tiene su
diagrama correspondiente.

-16-
30
507
290

20
180
182
334
181
445
569
588
460
236
224
165
524
227
214
466
184
10 242
593
353
397
183
281
509
204
337
4
543
453
261
386
27
354 343
179
547
556
117
113
82
62
554
40
506
275
63
58
452
170
391
276
110

0
SUMACC

-10
N= 3 413 151

Omitido hombre mujer

género

2.2. ESTADÍSTICOS DESCRIPTIVOS

Los estadísticos descriptivos son bien conocidos, y fáciles de obtener.


Normalmente se reduce a obtener una distribución de frecuencias,
especialmente útil en el caso de variables cualitativas, y el estudio de la
tendencia central, variabilidad, asimetría y curtosis. Todos estos
estadísticos descriptivos se obtienen del menú ANALIZAR, y dentro de la
opción ESTADÍSTICOS DESCRIPTIVOS.

La opción de estadísticos descriptivos presenta, a su vez, diversas


posibilidades, la primera de ellas la de frecuencias. En frecuencias se
obtiene las tablas de frecuencia (distribuciones de frecuencia) en que se da
la frecuencia y proporción de cada uno de los valores de la variable en la

-17-
muestra bajo estudio. Se pueden pedir en estadísticos de esa misma ventana
las medidas más utilizadas de tendencia central, variabilidad, asimetría,
curtosis, y los percentiles que deseemos. Esto último, los percentiles, son
de extraordinaria importancia en la descripción de grupos normativos de
cuestionarios y escalas, por ejemplo. También pinchando en la opción
gráficos pueden obtenerse diagramas de barras e histogramas (con curva
normal), como los que hemos analizado ya en la sección anterior.

Otra de las opciones dentro de ANALIZAR.... ESTADÍSTICOS DESCRIPTIVOS


es la de descriptivos. Ofrece los mismos estadísticos que la opción anterior
de frecuencias, por lo que típicamente lo pediremos junto a la tabla de
frecuencias anterior.

Más interesante puede resultar la opción de explorar, en el mismo menú y


submenú, que integra algunos de los aspectos de diagnóstico que hemos
estado viendo hasta ahora, tanto a nivel gráfico, como de estadísticos
descriptivos. Por lo tanto es una opción interesante para pedir de forma
integrada alguno de los aspectos ya considerados por separado.

La opción de explorar abre una ventana en la que se debe colocar las


variables de las que queramos estadísticos descriptivos y gráficos en la
ventana de dependientes. Ofrece la posibilidad de determinar factores, que
serían variables agrupadoras. Es decir, variables que generan subgrupos
sobre los que se calculará, por separado, los estadísticos y gráficas que
deseemos. Así, por ejemplo, si ponemos la edad como dependiente y a
variable género como factor, nos realizará estadísticos descriptivos y
gráficas por separado para hombres y mujeres.

Dentro de la ventana de explorar hay, por tanto, dos botones de interés, uno
de estadísticos y otro de gráficos. En la opción de estadísticos por defecto
da los descriptivos más habituales, pero además ofrece estimadores
robustos de tendencia central, valores atípicos y los percentiles más
utilizados. En la opción de gráficos permite calcular los diagramas de caja
y bigotes presentados con anterioridad, diagramas de tallo y hojas e
histogramas con curva normal. Además ofrece en la opción de gráficos con

-18-
prueba de normalidad los Q-Q plots presentados anteriormente junto a una
prueba de normalidad (Kolmogorov-Smirnov con corrección de Lilliefors).

Como se ve la opción explorar ofrece una forma rápida de pedir los


principales estadísticos descriptivos y las representaciones gráficas de
forma unitaria, sin necesidad de acudir a menús diferentes.

-19-
2.3. RELACIONES BIVARIADAS ENTRE VARUIABLES
CATEGÓRICAS

Entre las técnicas estadísticas básicas ocupan un lugar predominante las


que permiten estudiar las relaciones entre dos variables. Existen diversos
tipos de técnicas, con fundamentos, exigencias e interpretaciones
diferentes, en función de las características de las variables cuya relación se
quiere estudiar.

El primer caso que nos podemos encontrar es el de querer estudiar la


relación entre variables categóricas como, por ejemplo, el sexo y la
elección de carrera universitaria. El procedimiento habitual es realizar una
tabla de contingencia donde se calcula una prueba de chi-cuadrado o una
razón de verosimilitud) de independencia entre las variables, junto con el
cálculo de alguna medida de la cuantía de la asociación, si existe.

Estos dos cálculos pueden realizarse en el menú ANÁLISIS, dentro de la


opción de ESTADÍSTICOS DESCRIPTIVOS, al seleccionar tablas de
contingencia. Una vez seleccionada la opción de tablas de contingencia se
abre una ventana, donde simplemente hay que colocar una de las variables
categóricas en filas, y la otra en columnas (en principio, para estudiar la
relación es indiferente cuál se ponga en cada sitio). Está la opción de
definir capas, que es simplemente colocar una o más variables categóricas
en esta sub-ventana para que realice el análisis de las dos variables
categóricas de interés, pero en función de los subgrupos de la variable
categórica que defina las capas.

Además de la definición de las filas y columnas de la tabla, las opciones


relevantes que hay que dar están en los botones de estadísticos y de
casillas. En la opción de estadísticos las mejores opciones son el cálculo del
coeficiente phi para tablas de 2x2, y el cálculo de la V de Cramer para el
caso de tablas de I x J. El la opción de casillas resulta conveniente para la
interpretación posterior pedir los porcentajes, bien por filas, bien por
columnas.

-20-
A continuación aparecen los resultados de un ejemplo de cruce de variables
categóricas. En este caso es en una muestra de trabajadores en que se ha
estudiado la asociación entre la posición (empleado, supervisor y directivo)
y el tipo de contrato. En la siguiente tabla aparecen las frecuencias y,
además, en este caso hemos pedido los porcentajes por columnas. Ello nos
permite ver que el patrón de contrato varía de forma porcentual en función
de la categoría de posición en que estemos. Así, por ejemplo, podemos
fijarnos en que el mayor porcentaje de contratos temporales se da en los
trabajadores, y el menor en los directivos.

Tabla de contingencia tipo de contrato * POSICION

POSICION
1,00 2,00 3,00 Total
tipo de temporal Recuento 79 3 1 83
contrato % de POSICION 18,7% 5,4% 2,0% 15,7%
terminación de tarea Recuento 10 2 12
% de POSICION 2,4% 3,6% 2,3%
indefinido Recuento 256 43 29 328
% de POSICION 60,7% 76,8% 59,2% 62,2%
otros Recuento 77 8 19 104
% de POSICION 18,2% 14,3% 38,8% 19,7%
Total Recuento 422 56 49 527
% de POSICION 100,0% 100,0% 100,0% 100,0%

Ahora bien, esta tabla puede interpretarse de forma cualitativa de manera


inadecuada al tratar como estadísticamente significativas diferencias
porcentuales que pueden ser debidas al azar. Para eliminar este error se
hace necesario realizar alguna prueba estadística que permita saber si la
asociación entre las variables es estadísticamente significativa. El
estadístico (prueba) más utilizado es el de chi-cuadrado que contrasta la
hipótesis de que las variables de fila y columna son independientes. No
debe utilizarse si cualquiera de las casillas tiene un valor observado menor
que 1, o si más de un 20% de las casillas tienen valores esperados menores
que 5. En cualquier caso, el propio SPSS avisa si ocurre cualquiera de estos
problemas. Hay dos pruebas, en realidad, disponibles, la de chi-cuadrado y
la razón de verosimilitud, pero los resultados de ambas convergen a medida

-21-
que aumenta la muestra. No obstante, en muestras pequeñas funciona mejor
la razón de verosimilitud.

Pruebas de chi-cuadrado

Sig. asintótica
Valor gl (bilateral)
Chi-cuadrado de Pearson 26,060a 6 ,000
Razón de verosimilitud 29,783 6 ,000
Asociación lineal por
17,966 1 ,000
lineal
N de casos válidos 527
a. 2 casillas (16,7%) tienen una frecuencia esperada inferior a 5.
La frecuencia mínima esperada es 1,12.

Finalmente, y aún cuando la prueba de chi-cuadrado ha resultado


estadísticamente significativa, mostrando por tanto una asociación, resulta
conveniente tener una medida de la fuerza de esa asociación. La siguiente
tabla de resultados ofrece tanto el coeficiente phi, como la V de Cramer. En
esta caso el más adecuado sería la V de Cramer, dado que la tabla es IxJ.

Medidas simétricas

Sig.
Valor aproximada
Nominal por Phi ,222 ,000
nominal V de Cramer ,157 ,000
N de casos válidos 527
a. Asumiendo la hipótesis alternativa.
b. Empleando el error típico asintótico basado en la hipótesis
nula.

-22-
Dónde puedo aprender más de esto:

• Sobre potencia y tamaño del efecto: Cohen, J. (1988). Statistical power


analysis for the behavioral sciences (2nd ed). New York: Academic Press.

• Sobre relaciones en datos categóricos; Reynolds, H.T. (1984). Analysis of


nominal data. Beverly Hills, CA: Sage.

• General, muy práctico y actualizado: Stevens, J.P. (1999). Intermediate


statistics (2nd ed). Hillsdale, New Jersey: Lawrence Erlbaum.

• Sobre correlación y regresión lineal simple: Estarelles, R., Oliver, A., Tomás,
J. M. Y Aragón, J. L. (1994). Regresión y correlación bivariada. Valencia:
Promolibro.

• Sobre comparaciones múltiples (pruebas a posteriori especialmente):


Klockars, A. J., y Sax, G. (1986). Multiple comparisons. Newbury Park, CA:
Sage.

• Sobre fiabilidad y validez: El mejor texto en castellano es, sin duda, el de


Martínez Arias, R. (1995). Psicometría. Madrid: Síntesis.

-23-
33.. PPRUEBAS T,, AANOVA
R U EB A S T NOVA Y NO
NO
PPARAMÉTR
ARAMÉTRIC CAA: C ONTRASTES
CONTRASTES
D
DEE TTENDENC
ENDENCIA CENTRAL
CENTRAL
Todas las comparaciones entre medias se encuentran dentro del modelo
lineal general, de forma que todas las pruebas estadísticas que comparan
medias se realizarán en este módulo. Esto incluye las pruebas t, cuando se
comparan dos medias, tanto dependientes como dependientes, así como los
análisis de varianza, cuando se comparan tres o más medias, tanto
dependientes como independientes, y tanto en diseños unifactoriales (una
única variable independiente) como factoriales (dos o más variables
independientes). Adicionalmente en modelo lineal general se pueden
realizar Análisis de Covarianza (ANCOVA), donde la lógica es la misma
que en ANOVA, pero se introduce una o más variables covariantes, para
controlar por éstas las diferencias que se buscan entre medias, para igualar
los grupos estadísticamente en las covariables. Si en lugar de tener una
única variable dependiente en cada análisis se tienen dos o más variables
dependientes que se quieren analizar simultáneamente para ver si los
distintos grupos difieren en promedio, nos encontramos ante Análisis de la
Varianza Multivariado (MANOVA) o Análisis de Covarianza Multivariado
(MANCOVA). Todos estos tipos de técnicas son los que revisaremos en
este capítulo.

3.1. Pruebas t
La prueba t permite comparar dos medias muestrales. Por lo tanto está
indicada cuando se quiere estudiar si una variable categórica con dos

-24-
niveles guarda relación con una variable cuantitativa. Existen dos tipos de
pruebas t principales, aquellas para grupos independientes, para muestras
independientes, y aquellas para muestras, grupos, dependientes. El primero
de los casos respondería al genérico de dos grupos de sujetos diferentes,
como la comparación de las medias de hombres y mujeres en un variable
cualquiera. El segundo caso, muestra dependientes, respondería al genérico
de los mismos sujetos medidos en dos ocasiones o en dos aspectos
diferentes, parar saber si las medias son iguales o diferentes. Por ejemplo la
media antes y después de una intervención terapéutica.

Todas las pruebas t anteriormente descritas se realizan en el menú


ANALIZAR dentro del submenú COMPARAR MEDIAS. Dentro de este
submenú existe diversas opciones de pruebas t, además de las opciones de
medias y ANOVA de un factor. Las tres opciones de pruebas t son: la de
comparación con un valor poblacional (o prueba de una muestra), y las de
comparación de dos muestras, siendo estas independientes o dependientes,
que suelen ser las de nuestro interés.

La prueba t de comparación de dos muestras independientes suele


denominarse también prueba t de Student. Si se opta por esta opción
aparece una ventana de diálogo en que simplemente debemos colocar la
variable (o variables) de la que queremos conocer si existen diferencias de
medias en la ventana de variable a analizar y la variable que genera los
grupos, aquella que define qué sujetos pertenecen a una muestra, y cuáles a
la otra, en la ventana de variable agrupadora. Esta prueba t alberga en
realidad dos pruebas diferentes, una para el caso de varianzas homogéneas,
otra para el caso de varianzas heterogéneas. La prueba para el caso de
heterogeneidad de varianzas es la corrección de Welch-Satterwhite para el
problema de Behrens-Fisher.

Puede saberse si las varianzas son homogéneas o no mediante la prueba de


Levene, también ofrecida por la salida del ordenador. No obstante el
supuesto de homogeneidad de varianza es relativamente poco importante si
los grupos presentan tamaños de muestra similares. Si éstos difieren
bastante (diversos autores -ver Stevens, 1999- hablan de razones de 1.5), en
ese caso conviene contrastar la igualdad de varianzas y aplicar la prueba

-25-
más adecuada. (No obstante parece que la prueba de varianzas iguales
funciona bastante bien con tal de que las varianzas no superen la razón 3 a
1).

A continuación aparece una ejemplo de contraste de las medias de número


de accidentes leves entre hombres y mujeres trabajadores. El ordenador
ofrece en primer lugar los descriptivos (media y varianza) de cada grupo, y
a continuación las pruebas de varianza y de medias, propiamente dichas.

Prueba de muestras independientes

Prueba de Levene
ara la igualdad de
varianzas Prueba T para la igualdad de medias
ervalo de confian
DiferenciaError típ depara la diferencia
F Sig. t gl ig. (bilaterade mediasa diferenciaInferior Superior
ACLEV Se han asumid
13,347 ,000 2,859 550 ,004 ,3946 ,1380 ,1235 ,6657
varianzas igua
No se han asu
3,227 343,557 ,001 ,3946 ,1223 ,1541 ,6351
varianzas igua

Como puede verse en la tabla las varianzas son heterogéneas, por lo que
dada la gran desigualdad entre grupos, conviene utilizar la prueba que no
asume varianzas iguales (prueba de Welch-Satterwhite). No obstante hay
que darse cuenta de que ambas pruebas ofrecen la misma conclusión (para
el 5% y el 1%), desigualdad de medias.

Una cuestión importante que aparece en este mismo ejemplo de forma clara
es la de la significatividad de los efectos. En este caso es evidente que las
dos pruebas ofrecen resultados estadísticamente significativos. Sin
embargo resulta posible que, dado el elevado tamaño muestral, la extrema
potencia resulte en una probabilidad muy alta de rechazo de la hipótesis
nula. En este caso convendría un cálculo del tamaño del efecto que nos
pudiera ofrecer no solo una medida de diferencias, sino de cuantía de las
diferencias, lo que finalmente puede devenir en una evaluación de la
significatividad práctica. Una de las medidas más empleadas del tamaño

-26-
del efecto, fácil de calcular a partir de los resultados de SPSS, es la
propuesta por Hedges:

&&& − X
X &&& (n1 − 1) S 12 + (n 2 − 1) S 22
1 2
d= y donde Sx =
Sx n1 + n 2 − 2

Esta no es más que una diferencia entre medias estandarizada, y Cohen,


uno de los principales teóricos sobre la potencia y el tamaño del efecto,
propone como guías para su evaluación que un valor de 0.2 se considere un
efecto bajo, 0.5 medio y 0.8 alto. En este caso el valor obtenido es 0.275.
Otra opción más prosaica, pero igualmente efectiva consiste en calcular
para este caso la correlación entre sexo (hombre-mujer) y accidentes leves.
La cuantía de la correlación es, también, una medida del tamaño del efecto.

De la misma manera puede operarse en muestras dependientes o


relacionadas. En este caso queremos comprobar si existen diferencias entre
las medias de accidentes con tres días de baja y la media de accidentes
graves en nuestra muestra de trabajadores. Se operaría pidiendo en
COMPARAR MEDIAS la prueba t de muestras relacionadas. Allí se sitúa el par
de variables a comparar. Las siguiente tabla ofrece los resultados de SPSS.

Prueba de muestras relacionadas

Diferencias relacionadas
95% Intervalo de
confianza para la
diferencia
Desviación Error típ. de
Media típ. la media Inferior Superior t gl Sig. (bilateral)
Par 1 AC3DBAJ - ACGRAVE -,1190 ,9140 3,911E-02 -,1959 -4,22E-02 -3,044 545 ,002

Puede verse cómo la tabla ofrece diferencias estadísticamente


significativas. Las cuestiones de tamaño del efecto que ya comentamos en
el caso de muestras independientes tienen aquí la misma importancia. En
cualquier caso para el cálculo de la d (diferencia entre medias), la
desviación típica del denominador ya está calculada en la tabla que
adjuntamos, lo que evita un cálculo tedioso.

-27-
3.2. Análisis de varianza (ANOVA)
Si en lugar de querer comparar las medias de dos grupos se desean
contrastar las diferencias de tres o más grupos, la prueba F de análisis de
varianza (ANOVA) resulta, en principio, la adecuada. La prueba de
ANOVA es muy versátil, ya que permite analizar, compara, medias de
diversos diseños y/o tipos de variables simultáneamente. Los diseños de
mayor simplicidad son el ANOVA unifactorial entre-sujetos (el caso de
tres o más grupos independientes) y el intra-sujetos o de medidas repetidas
(tres o más grupos dependientes o relacionados). Veamos un ejemplo de
cada uno de ellos.

3.2.1. ANOVA de un factor entre-sujetos

Cuando hay un factor o variable independiente que agrupa a los sujetos en


grupos o muestras independientes, y queremos saber si existen diferencias
entre las medias de esos grupos en una variable cuantitativa (variable
dependiente) podemos emplear el ANOVA simple o unifactorial.

Pongamos por caso que queremos saber si tres grupos de edad


adolescentes, de edades diferentes presentan diferencias en las medias de
autoestima de apariencia física. Los tres grupos de edad, por tanto,
actuarían como variable independiente, factor o agrupadora, mientras que
la variable dependiente sería la autoestima física de los sujetos
(participantes). El análisis empezaría en el menú ANALIZAR, y dentro de
él en el submenú COMPARAR MEDIAS, eligiendo la opción ANOVA de un
factor. Allí señalaríamos al ordenador que la variable dependiente es
autoestima de apariencia física (AF) y que el factor es la edad (con tres
categorías generadas acorde a nuestros intereses). De entre las opciones que
resulta importante considerar tenemos en opciones la posibilidad de: pedir
los descriptivos por grupos, lo que ofrece información sobre la media y la
desviación típica de cada grupo; la homogeneidad de varianzas, mediante la
prueba de Levene que ya vimos en las pruebas t; y un gráfico de medias,

-28-
menos importante. De especial importancia es escoger las pruebas a
posteriori (o post-hoc) adecuadas.

La siguiente tabla presenta la prueba de homogeneidad de varianzas y la


siguiente la tabla resumen del ANOVA. Como puede apreciarse las pruebas
no resultan estadísticamente significativas, por lo que las varianzas son
homogéneas, y no existen diferencias entre las medias de los tres grupos de
edad.

Prueba de homogeneidad de varianzas

AF
Estadístico
de Levene gl1 gl2 Sig.
,879 2 632 ,416

ANOVA

AF
Suma de Media
cuadrados gl cuadrática F Sig.
Inter-grupos ,435 2 ,218 ,460 ,632
Intra-grupos 299,136 632 ,473
Total 299,571 634

En este caso no puede rechazarse la hipótesis nula de igualdad entre las


medias, por lo que las pruebas a posteriori resultarían innecesarias. No
obstante, las hemos pedido, y así se ve un ejemplo de su formato de tabla.
Como recomendación general para escoger entre la multitud de pruebas a a
posteriori puede usarse la siguiente lógica: una buena prueba general que
sirve para la mayor parte de situaciones la de Tukey; si las varianzas no son
homogéneas la de Games-Howell. Estos son los dos estándares adecuados.
Si se cumplen los supuestos y se quiere una prueba más potente se puede
usar cualquiera de las dos pruebas de Ryan-Einot-Gabriel y Welch
(REGW-F o REGW-q), pero hay que tener en cuenta que no funcionan
demasiado bien si los tamaños de los grupos son muy distintos entre sí
(proporciones 3:1 o superiores); mientras si se quiere una prueba
conservadora, se puede optar por Scheffé.

-29-
Comparaciones múltiples

Variable dependiente: AF
Intervalo de confianza al
95%
Diferencia de Límite
(I) edad recodificada (J) edad recodificada medias (I-J) Error típico Sig. Límite inferior superior
HSD de Tukey 1,00 2,00 -2,7955E-02 6,423E-02 ,901 -,1785 ,1226
3,00 -8,5250E-02 9,244E-02 ,626 -,3019 ,1314
2,00 1,00 2,795E-02 6,423E-02 ,901 -,1226 ,1785
3,00 -5,7295E-02 ,1018 ,840 -,2960 ,1814
3,00 1,00 8,525E-02 9,244E-02 ,626 -,1314 ,3019
2,00 5,729E-02 ,1018 ,840 -,1814 ,2960
Games-Howell 1,00 2,00 -2,7955E-02 6,423E-02 ,895 -,1738 ,1179
3,00 -8,5250E-02 9,244E-02 ,595 -,2938 ,1233
2,00 1,00 2,795E-02 6,423E-02 ,895 -,1179 ,1738
3,00 -5,7295E-02 ,1018 ,820 -,2836 ,1690
3,00 1,00 8,525E-02 9,244E-02 ,595 -,1233 ,2938
2,00 5,729E-02 ,1018 ,820 -,1690 ,2836

Como puede verse en la tabla ninguna comparación a posteriori por pares


ha resultado estadísticamente significativa. Pero si se hubiera rechazado la
hipótesis nula de igualdad de medias, aquí encontraríamos dónde se han
producido las diferencias, entre qué grupos.

Los mismos análisis que hemos realizado en comparar medias puede


realizarse, para el caso de ANOVA de un factor entre-sujetos en el
submenú MODELO LINEAL GENERAL en la opción univariante. Lo único que
permite hacer en esta nueva opción frente a la que hemos utilizado es que
ofrece estimaciones del tamaño del efecto, aspecto general del ANOVA
sobre el que volveremos una vez se revise el ANOVA de medidas
repetidas.

3.2.2. ANOVA de un factor de medidas repetidas


(intra-sujetos)
Cuando los sujetos se miden repetidas veces, por ejemplo por tener cuatro
momentos temporales, y estamos interesados en contrastar las medias de
esos momentos, podemos resolver mediante análisis de varianza de

-30-
medidas repetidas. El ejemplo que vamos a manejar es el siguiente:
tenemos un cuestionario de autoestima, con tres factores, autoestima social,
de desempeño y de apariencia física, aplicado a una muestra de
adolescentes escolarizados. Los tres factores presentan la misma escala de
medida, y queremos saber si existen diferencias en promedio en la
evaluación que hacen los sujetos de estos tres factores de autoestima.
Todos los sujetos han contestado a los tres factores (todos han pasado por
el cuestionario completo) y nos encontramos, por tanto ante un problema a
resolver mediante ANOVA de medidas repetidas.

Para pedir este tipo de análisis hay que acudir al menú ANALIZAR, dentro
de él al submenú MODELO LINEAL GENERAL, y finalmente a la opción
medidas repetidas. SPSS abre una ventana en que debemos informar del
nombre del factor, en nuestro caso autoestima, y del número de niveles que
presenta, en nuestro caso tres: social, de desempeño y física. Se pulsa
añadir, y después a definir, lo que abre una nueva ventana. El
funcionamiento de la nueva ventana es intuitivo, y muy parecido al que
hemos visto para ANOVA entre-sujetos. Simplemente anotar que en esta
ventana no sólo se realizan análisis de varianza de medidas repetidas, sino
también los mixtos, por lo que esa es la razón de que ofrezca la posibilidad
de colocar factores entre-sujetos. De las opciones a pedir en el caso de
Anova intra o de medidas repetidas solamente hay un cambio con respecto
al Anova entre-sujetos: las pruebas a posteriori para este tipo de diseño se
piden en opciones pinchando en la opción comparar efectos principales, y
seleccionando Bonferroni o Sidàk.

Los resultados relevantes para nuestro problema serían los que aparecen en
las siguientes tablas. La primera de las tablas presenta la prueba de
esfericidad de Mauchly. El supuesto de esfericidad es un nuevo supuesto
que rige en el análisis de varianza de medidas repetidas y que, por tanto,
hay que comprobar. En nuestro caso el supuesto puede mantenerse, dado
que la prueba no resulta estadísticamente significativa. Tan importante
como la significatividad de la prueba son las estimaciones de epsilon que,
si no puede mantenerse el supuesto de esfericidad, son necesarias para las
correcciones. En nuestro ejemplo, dado que el supuesto se mantiene no
resultan relevantes. En cualquier caso, si la estimación de Huyhn y Feldt

-31-
del valor de epsilon se encuentra entre 0.7 y 1, entonces no hay que
preocuparse aún cuando el test de esfericidad resulte significativo.

Prueba de esfericidad de Mauchlyb

Medida: MEASURE_1

a
Epsilon
Chi-cuadrado Greenhous
Efecto intra-sujetos W de Mauchly aprox. gl Significación e-Geisser Huynh-Feldt Límite-inferior
AUTOESTI ,999 ,856 2 ,651 ,999 1,000 ,500
Contrasta la hipótesis nula de que la matriz de covarianza error de las variables dependientes transformadas es proporcional a una
matriz identidad.
a. Puede usarse para corregir los grados de libertad en las pruebas de significación promediadas. Las pruebas corregidas
se muestran en la tabla Pruebas de los efectos inter-sujetos.
b.
Diseño: Intercept
Diseño intra sujetos: AUTOESTI

Tras la prueba del supuesto nos centramos ya en si las medias pueden


considerarse estadísticamente diferentes o no. Esto es, en el análisis de
varianza propiamente dicho. La tabla a continuación ofrece los resultados
del ANOVA. En este caso, como se cumple el supuesto de esfericidad,
solamente resulta necesario analizar la significatividad de la F generada
bajo el supuesto de esfericidad, que ofrece un resultado estadísticamente
significativo. Si no se hubiera cumplido el supuesto de esfericidad,
entonces la prueba recomendada por casi todos los autores sería la de
Huynh y Feldt.

Pruebas de efectos intra-sujetos.

Medida: MEASURE_1
Suma de
cuadrados Media
Fuente tipo III gl cuadrática F Significación Eta cuadrado
AUTOESTI Esfericidad asumida 71,817 2 35,908 156,911 ,000 ,198
Greenhouse-Geisser 71,817 1,997 35,957 156,911 ,000 ,198
Huynh-Feldt 71,817 2,000 35,908 156,911 ,000 ,198
Límite-inferior 71,817 1,000 71,817 156,911 ,000 ,198
Error(AUTOESTI) Esfericidad asumida 291,548 1274 ,229
Greenhouse-Geisser 291,548 1272,289 ,229
Huynh-Feldt 291,548 1274,000 ,229
Límite-inferior 291,548 637,000 ,458

-32-
Una vez se presenta un rechazo de la hipótesis nula de igualdad de medias,
resulta normalmente necesario evaluar entre qué grupos se encuentran esas
diferencias. En nuestro caso eso implica observar los valores de las medias
y realizar la prueba de comparación por pares mediante la corrección de
Bonferrroni que hábilmente pedimos con anterioridad. Como puede verse
en las siguientes tablas, los sujetos se auto-evalúan más alto en autoestima
de desempeño (media 2), y en lo que más bajo se auto-evalúan es en
autoestima social (media 1). Por su parte también las siguientes tablas
ofrecen la prueba de Bonferroni por pares, que muestra cómo todas las
comparaciones por pares han resultado estadísticamente significativas.

Estimaciones

Medida: MEASURE_1
Intervalo de confianza al
95%.
Límite
AUTOESTI Media Error típ. Límite inferior superior
1 3,133 ,026 3,082 3,185
2 3,601 ,025 3,552 3,650
3 3,436 ,027 3,383 3,490

Comparaciones por pares

Medida: MEASURE_1

Intervalo de confianza al 95
a
% para diferencia
Diferencia
entre Límite
a
(I) AUTOESTI (J) AUTOESTI medias (I-J) Error típ. Significación Límite inferior superior
1 2 -,468* ,027 ,000 -,532 -,403
3 -,303* ,027 ,000 -,368 -,238
2 1 ,468* ,027 ,000 ,403 ,532
3 ,165* ,026 ,000 ,102 ,228
3 1 ,303* ,027 ,000 ,238 ,368
2 -,165* ,026 ,000 -,228 -,102
Basadas en las medias marginales estimadas.
*. La diferencia de las medias es significativa al nivel ,05.
a. Ajuste para comparaciones múltiples: Bonferroni.

-33-
Hemos repasado los dos tipos simples de análisis de varianza: entre-sujetos
y de medidas repetidas. El hecho de añadir más variables independientes o
factores no produce cambios en la manera de proceder, pues se mantienen
las normas y opciones comentadas hasta ahora. Los diseños factoriales son
simples extensiones de los diseños simples.

3.2.3. Tamaño del efecto en ANOVA


De la misma manera que hemos visto la importancia que puede tener la
estimación del tamaño del efecto en la comparación de medias mediante
pruebas t, o en la búsqueda de relaciones entre variables categóricas, ahora
nos centraremos en los mismos cálculos en el caso del análisis de varianza.

La medida más simple para la estimación del tamaño del efecto en análisis
de varianza es la eta al cuadrado (η2), que se calcula dividiendo la Suma de
Cuadrados de la variable independiente entre la Suma de Cuadrados Total.
Se puede interpretar como un porcentaje de varianza explicada, y se puede
calcular en cualquier tipo de diseño. Un problema de esta medida es que
suele dar más alto en diseños unifactoriales (simples) que en complejos.
Para corregir este problema hay una modificación consistente en partir la
suma de cuadrados de la variable independiente por la suma de la suma de
cuadrados de error y la propia suma de cuadrados anterior. Esta es la
estimación de eta-cuadrado que calcula SPSS cuando se pide estimación
del tamaño del efecto en opciones. Simplemente hay que tener en cuenta
una cosa, que este cálculo implica que en ocasiones la suma de los
porcentajes de varianza explicados de todas las variables independientes
del diseño (y sus interacciones) puede sumar más de la unidad.

Finalmente otra medida popular del tamaño del efecto en ANOVA es la


omega al cuadrado, que pretende ser una estimación del porcentaje de
varianza explicado en la población. Sus inconvenientes, desde el punto de
vista práctico, son dos: solamente se puede calcular en diseños entre-
sujetos, siendo sus equivalentes para otros diseños son complicados; y que
no se ofrece en SPSS.

-34-
3.2.4. ANOVA de dos factores entre-sujetos
Supongamos que se quiere ver si el sexo y el nivel de estudios (bajo, medio
superior) afectan a las puntuaciones de PSW. Los datos son los de la base
de datos NuevoIVOC, pero manipulados para que la interacción resulte
significativa, y poder realizar efectos simples de la interacción. El
procedimiento es entrar en Modelo Lineal General, Univariante y colocar
en variable dependiente la escala (PSW) y en factores fijos el sexo y los
estudios. Además puede verse en el siguiente pantallaza que se ha pedido
para nivel de estudios la prueba de Tukey y la de Games-Howell. No se
pide para sexo por tener solamente dos niveles.

También puede verse que hemos colocado que nos muestre las medias para
la interacción, ya que de ésta manera resulta más fácil interpretarla si
resulta significativa.

-35-
Los resultados de este análisis de varianza, centrándonos solamente en lo
que tiene de nuevo con respecto a los anteriormente utilizados empiezan en
la tabla de los efectos, donde puede verse que hay diferencias por tipo de
estudios (efecto principal) y también interacción estadísticamente
significativa (p= 0.000, p< 0.001).

-36-
Pruebas de los efectos inter-sujetos

Variable dependiente: Puntuación total PSWQ


Suma de Eta al
cuadrados Media cuadrado
Fuente tipo III gl cuadrática F Significación parcial
Modelo corregido 5339,266a 5 1067,853 6,582 ,000 ,161
Intersección 241511,119 1 241511,119 1488,586 ,000 ,896
sexo 247,276 1 247,276 1,524 ,219 ,009
estu 1199,744 2 599,872 3,697 ,027 ,041
sexo * estu 3598,437 2 1799,218 11,090 ,000 ,114
Error 27905,611 172 162,242
Total 371546,000 178
Total corregida 33244,876 177
a. R cuadrado = ,161 (R cuadrado corregida = ,136)

Nos centraremos en la interacción, porque es lo “nuevo” que aparece en los


diseños factoriales (de más de una variable independiente), por lo que la
tabla de las medias de la interacción, los cruces de las variables
independientes, son útiles para interpretar.

Sexo * Nivel de estudios

Variable dependiente: Puntuación total PSWQ


Intervalo de confianza al
95%.
Límite
Sexo Nivel de estudios Media Error típ. Límite inferior superior
Hombre primarios o elementales 45,222 4,246 36,842 53,603
medios 40,000 2,326 35,410 44,590
superiores o
46,556 2,123 42,365 50,746
universitarios
Mujer primarios o elementales 55,455 3,840 47,874 63,035
medios 48,095 1,965 44,216 51,975
superiores o
36,940 1,801 33,384 40,496
universitarios

Estas medias pueden verse quizá mejor en la gráfica de la interacción:

-37-
Sexo
Hombre
55,00 Mujer
Medias del PSWQ

50,00

45,00

40,00

35,00
primarios o medios superiores o
elementales universitarios
Nivel de estudios

Ahora, para interpretar la interacción hay dos opciones, una la subjetiva y


directa de observar la gráfica y, a partir de ella extraer conclusiones, que es
simple y directa, pero puede llevar a error. Especialmente teniendo en
cuenta que la escala de la gráfica, si no se modifica, no es el total de la
escala, sino la que SPSS escoge para mostrar mejor las medias. Esta escala
puede modificarse para ajustarla al máximo y mínimo reales de los datos, y
ofrecer una información más veraz. La siguiente es la misma gráfica, pero
con la escala de la variable desde su mínimo (0) a su máximo (75) en el eje
de las Y (ordenadas).

-38-
Sexo
Hombre
70,00
Mujer

60,00
Medias del PSWQ

50,00

40,00

30,00

20,00

10,00

0,00

primarios o medios superiores o


elementales universitarios
Nivel de estudios

Si la interpretamos subjetivamente podemos ver que las mujeres presentan


menor media en PSWQ a medida que aumenta el nivel de estudios. Para los
hombres el patrón es distinto, pues la mayor media es para los estudios
superiores o universitarios. Esta interpretación es subjetiva. Una mejor
interpretación puede venir de las pruebas de efectos simples de la
interacción. Hay dos posibilidades, los efectos simples de nivel de estudios
en Sexo, que realizaría dos ANOVAS con VI el nivel de estudios, uno en

-39-
hombres y otro en mujeres, o bien los efectos simples de sexo en nivel de
estudios, lo que realizaría tres ANOVAS con VI el sexo, uno en primarios
o elementales, otro en medios y otro en superiores o universitarios.
Cualquiera de las dos opciones nos mostraría el patrón de medias en
función de los niveles de la otra variable, pero para realizar el
procedimiento de forma adecuada habría de hacerse sustituyendo la media
cuadrática del error de los ANOVAS que se realicen por la media
cuadrática del error del ANOVA original (puede consultarse en la tabla de
efectos y vale MCe= 162.242, con grados de libertad 172). En nuestro caso
vamos a realizar los efectos simples de estudios en Sexo, esto es separados
para hombres y mujeres, mediante dos nuevos ANOVAS.

Una opción interesante para hacerlo es ir a DATOS, y luego seleccionar


segmentar archivos, y poner sexo como variable agrupadora, tal y como
muestra el pantallazo de SPSS siguiente. Esto producirá que el ANOVA
que se realice se haga para el total de la muestra, para hombres y para
mujeres simultáneamente.

-40-
Aquí solamente nos interesan los resultados de hombres y de mujeres. Para
los hombres los efectos entre-sujetos se muestran en la siguiente tabla. No
obstante hay que recordar que estos efectos no son los estadísticamente
adecuados, pues la estimación del error que es más adecuada es la propia
del ANOVA original. Por tanto, debemos realizar unos pocos cálculos
manuales (con calculadora) y comprobar en la tabla de los valores críticos
de la F si hay o no diferencias entre medias. Simplemente para calcular la F
hay que usar la media cuadrática de estudios y para el error la MCe del
ANOVA original. Los cálculos se muestran tras la tabla de los efectos
inter-sujetos.

Sexo = Hombre
Pruebas de los efectos inter-sujetosb

Variable dependiente: Puntuación total PSWQ


Suma de Eta al
cuadrados Media cuadrado
Fuente tipo III gl cuadrática F Significación parcial
Modelo corregido 724,702a 2 362,351 1,655 ,198 ,044
Intersección 100831,254 1 100831,254 460,404 ,000 ,865
estu 724,702 2 362,351 1,655 ,198 ,044
Error 15768,444 72 219,006
Total 160201,000 75
Total corregida 16493,147 74
a. R cuadrado = ,044 (R cuadrado corregida = ,017)
b. Sexo = Hombre

Los efectos simples de la interacción de nivel de estudios en hombres se


calcula, pues, como:

F= 362.351 / 162.242= 2.23

Como el valor crítico de la F para 2 y 172 grados de libertad y alfa de 0.05


vale 3.92 se mantiene la Ho y se concluye que no hay diferencias entre las
medias del PSWQ en hombres.

-41-
Por su parte los efectos inter-sujetos para mujeres se muestran en la
siguiente tabla, y los cálculos de los efectos simples de la interacción se
muestran tras ésta.

Sexo = Mujer
Pruebas de los efectos inter-sujetosb

Variable dependiente: Puntuación total PSWQ


Suma de Eta al
cuadrados Media cuadrado
Fuente tipo III gl cuadrática F Significación parcial
Modelo corregido 4610,465a 2 2305,232 18,993 ,000 ,275
Intersección 146508,182 1 146508,182 1207,104 ,000 ,923
estu 4610,465 2 2305,232 18,993 ,000 ,275
Error 12137,166 100 121,372
Total 211345,000 103
Total corregida 16747,631 102
a. R cuadrado = ,275 (R cuadrado corregida = ,261)
b. Sexo = Mujer

Los efectos simples de la interacción de nivel de estudios en mujeres se


calcula, pues, como:

F= 2305.232 / 162.242= 14.208

Como el valor crítico de la F para 2 y 172 grados de libertad y alfa de 0.05


vale 3.92 se rechaza la Ho y se concluye que hay diferencias entre las
medias del PSWQ en mujeres, que como se apreciaba en la gráfica es a la
baja.

3.2.5. ANOVA mixto


En ocasiones tenemos dos o mas variables independientes en un mismo
análisis, siendo que alguna de ellas es de medidas repetidas y alguna de
ellas es entre-sujetos. En estos casos tenemos una combinación de análisis
con medidas independientes y medidas dependientes, lo que produce como

-42-
resultado un ANOVA mixto. Un ejemplo con datos reales sería una
situación experimental en que se tienen dos variables independientes entre
sujetos y una variable independiente intra-sujetos o de medidas repetidas:

VI1= grupo experimental supresión vs. no supresión -- variable entre


VI2= grupo experimental inducción vs. no inducción – variable entre
VI3= tiempo 1, tiempo 2, tiempo 3 – variable intra

Y se supone que estas variables afectan a la frecuencia de imágenes


intrusas en cada momento temporal. Para realizar cualquier análisis de
varianza mixto se debe ir a analizar, luego a MODELO LINEAL
GENERAL, y allí a medidas repetidas, donde se define (ver pantallazo a
continuación) la variable intra y sus tres niveles y las dos variables entre.

Hemos pedido el gráfico de la interacción de segundo orden, pero en la


misma forma podría pedirse cualquier otra de las interacciones. Como

-43-
puede verse es la interacción de segundo orden ya que pone
frecuenc*supresi*inducci que viene de poner frecuencia en el eje
horizontal, supresión en líneas distintas y inducción en gráficos distintos.

Además del gráfico se pueden pedir pruebas post-hoc en el botón


correspondiente de la ventana de SPSS, pero solamente para analizar las
medias de las variables entre-sujetos, y eso no tiene sentido en este caso
pues ambas variables independientes presentan solamente dos niveles. Lo
que sí tiene sentido es pedir en opciones los estadísticos descriptivos, las
estimaciones del tamaño del efecto y las pruebas de homogeneidad, y
adicionalmente las pruebas post-hoc por el método de Bonferroni para la
variable intra. Todas estas opciones se pueden ver en la siguiente figura de
SPSS.

-44-
A partir de aquí los resultados más interesantes aparecen como tablas de
SPSS. Se hacen un número de análisis que aparecen en tablas adicionales,
pero, o bien son pruebas de supuestos que ya sabemos interpretar, o bien
son innecesarios para obtener todos los aspectos relevantes de comparación
de medias que nos interesan.

La tabla más importante es la de los efectos, pero en este caso no es


solamente una, sino que SPSS las separa para los efectos entre sujetos y los
intrasujetos. La primera que aparece es la de intra-sujetos, y en ella
aparecen los efectos principales y de interacción en que al menos una de las
variables independientes es intra-sujetos. Puede verse en la tabla de efectos
intra-sujetos que los únicos efectos estadísticamente significativo son la
variable tiempo (frecuenc) y la interacción de las tres variables
independientes. En la tabla de efectos entre sujetos puede verse que las
variables independientes entre-sujetos no presentan efectos principales
sobre la frecuencia de imágenes intrusas, y tampoco su interacción.

-45-
Pruebas de efectos intra-sujetos.

Medida: MEASURE_1
Suma de Eta al
cuadrados Media cuadrado
Fuente tipo III gl cuadrática F Significación parcial
frecuenc Esfericidad asumida 1354,707 2 677,353 38,381 ,000 ,398
Greenhouse-Geisser 1354,707 1,739 778,858 38,381 ,000 ,398
Huynh-Feldt 1354,707 1,881 720,114 38,381 ,000 ,398
Límite-inferior 1354,707 1,000 1354,707 38,381 ,000 ,398
frecuenc * supresi Esfericidad asumida 86,578 2 43,289 2,453 ,091 ,041
Greenhouse-Geisser 86,578 1,739 49,776 2,453 ,099 ,041
Huynh-Feldt 86,578 1,881 46,022 2,453 ,094 ,041
Límite-inferior 86,578 1,000 86,578 2,453 ,123 ,041
frecuenc * inducci Esfericidad asumida 29,849 2 14,924 ,846 ,432 ,014
Greenhouse-Geisser 29,849 1,739 17,161 ,846 ,418 ,014
Huynh-Feldt 29,849 1,881 15,866 ,846 ,426 ,014
Límite-inferior 29,849 1,000 29,849 ,846 ,362 ,014
frecuenc * supresi Esfericidad asumida 192,171 2 96,086 5,444 ,005 ,086
* inducci Greenhouse-Geisser 192,171 1,739 110,484 5,444 ,008 ,086
Huynh-Feldt 192,171 1,881 102,151 5,444 ,007 ,086
Límite-inferior
192,171 1,000 192,171 5,444 ,023 ,086

Error(frecuenc) Esfericidad asumida 2047,208 116 17,648


Greenhouse-Geisser 2047,208 100,882 20,293
Huynh-Feldt 2047,208 109,112 18,762
Límite-inferior 2047,208 58,000 35,297

Pruebas de los efectos inter-sujetos

Medida: MEASURE_1
Variable transformada: Promedio
Suma de Eta al
cuadrados Media cuadrado
Fuente tipo III gl cuadrática F Significación parcial
Intersección 19509,389 1 19509,389 99,891 ,000 ,633
supresi 19,002 1 19,002 ,097 ,756 ,002
inducci 130,650 1 130,650 ,669 ,417 ,011
supresi * inducci ,005 1 ,005 ,000 ,996 ,000
Error 11327,746 58 195,306

La variable tiempo (frecuenc) presentaba un efecto estadísticamente


significativo, lo que puede entenderse al observar las pruebas a posteriori
(post-hoc) por el método de Bonferroni, que se presentan a continuación. El
tiempo 1 se diferencia significativamente de los tiempos 2 y 3.

-46-
Comparaciones por pares

Medida: MEASURE_1

Intervalo de confianza al 95
a
Diferencia % para diferencia
entre Límite
a
(I) frecuenc (J) frecuenc medias (I-J) Error típ. Significación Límite inferior superior
1 2 5,020* ,788 ,000 3,078 6,962
3 6,240* ,855 ,000 4,132 8,347
2 1 -5,020* ,788 ,000 -6,962 -3,078
3 1,220 ,599 ,139 -,257 2,696
3 1 -6,240* ,855 ,000 -8,347 -4,132
2 -1,220 ,599 ,139 -2,696 ,257
Basadas en las medias marginales estimadas.
*. La diferencia de las medias es significativa al nivel ,05.
a. Ajuste para comparaciones múltiples: Bonferroni.

La interacción de segundo orden es complicada de entender. Una


interacción de primer orden significa que las diferencias entre las medias
de una variable dependiente en función de una independiente cambia
(moderación) en función de en qué valores de la otra variable
independiente estemos. Sin embargo, la interacción de segundo orden es
más complicada de entender, ya que significa que la relación entre tres
variables (dos independientes y una dependiente) se ve afectada por otra
variable independiente. En este caso hemos sacado dos gráficas, una para el
grupo de inducción negativa y otro para no inducción. Lo primero que
hemos hecho ha sido cambiar la escala para que vaya desde el mínimo
hasta el máximo.

-47-
Grupo de inducción negativa

50

45

40 supresión
Medias de frecuencia

no
35 supresión/control

30

25

20

15

10

1 2 3
frecuenc

-48-
Grupo de no inducción

50

45
supresión
40
no supresión/control
Medias de frecuencia

35

30

25

20

15

10

1 2 3
frecuenc

Ahora para entender cómo la variable inducción genera cambios en la


relación en la evolución en el tiempo de la frecuencia de imágenes en
función de supresión, hay que realizar dos ANOVAS mixtos, uno para el
grupo de inducción negativa, y otro para el de no inducción. En otras
palabras, serían como efectos simples pero aplicados a las medias de cada
una de esas dos gráficas Lo que queremos saber es si los efectos que son
significativos en el grupo de inducción negativa son también significativos
en el de no inducción. Estos ANOVAS separados se pueden hacer
segmentando el archivo, como hicimos con anterioridad.

Los efectos para el GRUPO DE INDUCCIÓN NEGATIVA son:

-49-
Pruebas de efectos intra-sujetos.a

Medida: MEASURE_1
Suma de Eta al
cuadrados Media cuadrado
Fuente tipo III gl cuadrática F Significación parcial
frecuenc Esfericidad asumida 630,022 2 315,011 17,674 ,000 ,379
Greenhouse-Geisser 630,022 1,925 327,213 17,674 ,000 ,379
Huynh-Feldt 630,022 2,000 315,011 17,674 ,000 ,379
Límite-inferior 630,022 1,000 630,022 17,674 ,000 ,379
frecuenc * supresi Esfericidad asumida 59,957 2 29,979 1,682 ,195 ,055
Greenhouse-Geisser 59,957 1,925 31,140 1,682 ,196 ,055
Huynh-Feldt 59,957 2,000 29,979 1,682 ,195 ,055
Límite-inferior 59,957 1,000 59,957 1,682 ,205 ,055
Error(frecuenc) Esfericidad asumida 1033,742 58 17,823
Greenhouse-Geisser 1033,742 55,837 18,514
Huynh-Feldt 1033,742 58,000 17,823
Límite-inferior 1033,742 29,000 35,646
a. grupo experimental inducción e.a. negativo/no inducción = inducción negativa

Pruebas de los efectos inter-sujetosa

Medida: MEASURE_1
Variable transformada: Promedio
Suma de Eta al
cuadrados Media cuadrado
Fuente tipo III gl cuadrática F Significación parcial
Intersección 8223,490 1 8223,490 38,745 ,000 ,572
supresi 9,813 1 9,813 ,046 ,831 ,002
Error 6155,133 29 212,246
a. grupo experimental inducción e.a. negativo/no inducción = inducción negativa

En este grupo lo que ocurre es que solamente la frecuencia de imágenes en


el tiempo (tiempo o frecuenc) es estadísticamente significativa. Por lo tanto
tanto el grupo de supresión como el de no supresión el patrón de frecuencia
de imágenes intrusas es el mismo a lo largo del tiempo. En el caso del
grupo de no inducción los efectos se presentan a continuación.

Los efectos para el GRUPO DE INDUCCIÓN NO INDUCCIÓN son:

-50-
Pruebas de efectos intra-sujetos.a

Medida: MEASURE_1
Suma de Eta al
cuadrados Media cuadrado
Fuente tipo III gl cuadrática F Significación parcial
frecuenc Esfericidad asumida 754,533 2 377,267 21,591 ,000 ,427
Greenhouse-Geisser 754,533 1,467 514,197 21,591 ,000 ,427
Huynh-Feldt 754,533 1,580 477,685 21,591 ,000 ,427
Límite-inferior 754,533 1,000 754,533 21,591 ,000 ,427
frecuenc * supresi Esfericidad asumida 218,791 2 109,396 6,261 ,003 ,178
Greenhouse-Geisser 218,791 1,467 149,101 6,261 ,008 ,178
Huynh-Feldt 218,791 1,580 138,514 6,261 ,007 ,178
Límite-inferior 218,791 1,000 218,791 6,261 ,018 ,178
Error(frecuenc) Esfericidad asumida 1013,467 58 17,474
Greenhouse-Geisser 1013,467 42,555 23,816
Huynh-Feldt 1013,467 45,807 22,125
Límite-inferior 1013,467 29,000 34,947
a. grupo experimental inducción e.a. negativo/no inducción = no inducción

Pruebas de los efectos inter-sujetosa

Medida: MEASURE_1
Variable transformada: Promedio
Suma de Eta al
cuadrados Media cuadrado
Fuente tipo III gl cuadrática F Significación parcial
Intersección 11416,549 1 11416,549 64,006 ,000 ,688
supresi 9,194 1 9,194 ,052 ,822 ,002
Error 5172,613 29 178,366
a. grupo experimental inducción e.a. negativo/no inducción = no inducción

En este caso, la interacción entre supresión y frecuencia es estadísticamente


significativa. Por ello ya hemos conseguido entender la interacción de
segundo orden, que indica que solamente hay interacción entre supresión y
frecuencia de imágenes intrusas en el tiempo para el grupo de no inducción,
pero no para el de inducción negativa. Para entender esta interacción que se
da solamente en un nivel de la variable inducción podrían realizarse nuevos
análisis de efectos simples como los vistos en el apartado anterior.

3.2.6. TRANSFORMACIONES DE POTENCIA

-51-
Existe un cierto grupo de transformaciones habituales en análisis de datos.
Una muy habitual es transformar en rangos, transformación usada en
muchas pruebas de estadística no paramétrica, y que permite fijarse no el
carácter numérico de los datos, sino en su ordenación, y resuelve, en
ocasiones, la falta de ajuste de las pruebas paramétricas a sus supuestos.
Sin embargo, una categoría de transformaciones bastante estandarizada, y
empleada a menudo con este mismo propósito es la transformación de
potencia, presentada por ejemplo en Tukey (1977), y cuyo procedimiento,
simple e intuitivo se conoce como la escalera de potencias de Tukey. El
objetivo de estas transformaciones consiste básicamente en corregir
asimetrías y curtosis en las variables, aunque normalmente también pueden
mejorar problemas de heterogeneidad de varianza, etc. La idea es sencilla:
se pueden transformar las variables elevando a una potencia, positiva o
negativa, cuanto mayor sea la potencia a la que se elevan las puntuaciones
originales, mayor el efecto sobre la escala original. Las potencias positivas
corrigen la asimetría negativa, las potencias negativas corrigen la
asimetría positiva. En el cuadro:

Potencia 3 2 1 .5 0 -.5 ... -2


Transformación X3 X2 X RCX logX 1/RCX 1/X2
RC= raíz cuadrada

Para ver qué transformación aplicar, y también para evaluar el efecto que
sobre la variable ha tenido la transformación es adecuado estudiar
descriptivamente la variable en todo momento: calcular estadísticos
descriptivos, realizar histogramas, y muy especialmente en este caso
realizar Q-Q plots (gráfico de cuantil-cuantil).

3.3. Algunas pruebas no paramétricas


Cuando se incumplen gravemente los supuestos para realizar las pruebas
paramétricas de comparación de medias, como: heterogeneidad o no
normalidad extremas, escala de medida de las variables ordinal con un

-52-
número pequeño de categorías, o existen abundantes valores atípicos, cabe
la posibilidad de realizar pruebas no paramétricas. Podríamos verlos, por
tanto, como las alternativas a las pruebas t y el ANOVA, y por tanto
estarían indicadas para la comparación de dos grupos o tres o más grupos.

PRUEBAS PARA DOS GRUPOS


Serían los equivalentes no paramétricos a las pruebas t que hemos revisado
con anterioridad. La equivalente no paramétrica a la prueba t de muestras
independientes es la prueba U de Mann-Whitney, mientras la equivalente a
la de muestras dependientes es la prueba de Wilcoxon. En realidad existen
otras opciones, más específicas, pero las dos que hemos destacado son las
de mayor uso y de carácter más general.

Para pedir la prueba de Mann-Whitney se debe acudir a ANALIZAR,


después al menú de PRUEBAS NO PARAMÉTRICAS, y entre las opciones
escoger 2 muestras independientes. La opción por defecto es la que
interesa, y simplemente debemos informar al programa de cuál es la
variable agrupadora, y cual la que deseamos analizar. La interpretación del
output es muy similar a la de otras pruebas de contraste, paramétrico o no,
por lo que no entraremos aquí.

Para pedir la prueba de Wilcoxon se debe acudir a ANALIZAR, después al


menú de PRUEBAS NO PARAMÉTRICAS, y entre las opciones escoger 2
muestras dependientes. La opción por defecto es la que interesa, y
simplemente debemos seleccionar las variables 1 y 2 (por ejemplo los dos
momentos temporales) y situarlas en contrastar pares. La interpretación de
los resultados del SPSS es muy similar a la de otras pruebas de contraste,
paramétrico o no, por lo que no entraremos aquí.

PRUEBAS PARA K GRUPOS


Serían los equivalentes no paramétricos a las pruebas de ANOVA que
hemos revisado con anterioridad. La prueba no paramétrica equivalente al
ANOVA entre-sujetos (de muestras independientes) es la prueba H de
Hruskal-Wallis, mientras la equivalente al ANOVA intra-sujetos o de
medidas repetidas es la prueba de Friedman. En realidad existen otras

-53-
opciones, más específicas, pero las dos que hemos destacado son las de
mayor uso y de carácter más general.

Para pedir la H de Kruskal-Wallis se debe acudir a ANALIZAR, después al


menú de PRUEBAS NO PARAMÉTRICAS, y entre las opciones escoger k
muestras independientes. La opción por defecto es la que interesa, y
simplemente debemos informar al programa de cuál es la variable de
agrupación (variable independiente), y cual la variable a contrastar
(variable o variables dependiente). La interpretación del output es muy
similar a la de otras pruebas de contraste, paramétrico o no, por lo que no
entraremos aquí.

Para pedir la prueba de Friedman se debe acudir a ANALIZAR, después al


menú de PRUEBAS NO PARAMÉTRICAS, y entre las opciones escoger k
muestras dependientes. La opción por defecto es la que interesa, y
simplemente debemos seleccionar las variables a contrastar (por ejemplo
tres momentos temporales). La interpretación de los resultados del SPSS es
muy similar a la de otras pruebas de contraste, paramétrico o no, por lo que
no entraremos aquí.

Dónde puedo aprender más de esto:

• Sobre potencia y tamaño del efecto: Cohen, J. (1988). Statistical power


analysis for the behavioral sciences (2nd ed). New York: Academic Press.

• General, muy práctico y actualizado: Stevens, J.P. (1999). Intermediate


statistics (2nd ed). Hillsdale, New Jersey: Lawrence Erlbaum.

• Sobre comparaciones múltiples (pruebas a posteriori especialmente):


Klockars, A. J., y Sax, G. (1986). Multiple comparisons. Newbury Park, CA:
Sage.

• Sobre análisis de varianza y covarianza multivariante: Stevens, J. (2002).


Applied multivariate stastistics for the social sciences. Hillsdale, New Jersey:
Lawrence Erlbaum.

-54-
44.. REGRESIÓ
REGRESI N LIN
ÓN EAL M
NEAL ÚLTIPPLE
MÚLT LE
La regresión lineal múltiple es una extensión natural de la regresión simple.
Resulta evidente que en ciencias sociales la capacidad explicativa de los
modelos exige la inclusión de un número relativamente importante de
predictores. Esa es la consecuencia de la complejidad de el/los objetos de
estudio. Por lo tanto, lo habitual es que se presente la situación en que
queremos evaluar la capacidad que tenemos para predecir una determinada
variable dependiente (cuantitativa) en base a diversos predictores
(usualmente, pero no necesariamente, cuantitativos). Normalmente estamos
también interesados en evaluar el impacto individual de esos predictores,
esto es, su importancia relativa a la hora de explicar los valores de la
variable dependiente o criterio. La regresión múltiple es un marco
adecuado para estos objetivos.

4.1. ESTIMACIÓN
La estimación va precedida, necesariamente, de una fase de constitución
del modelo, de una fase de especificación, consistente en la selección de las
variables que van a intervenir en la ecuación de regresión. Esta elección
viene dictada habitualmente por motivos teóricos, empíricos (estadísticos),
o por una combinación de ambos. La idea es tener el máximo de
predictores relevantes al fenómeno a predecir, y el mínimo (a ser posible
ninguno) irrelevante. Pero claro, a veces es necesario realizar selecciones
estadísticas debido a los requisitos de tamaño de la muestra, que en
regresión múltiple suele situarse en un mínimo de 5-10 sujetos por
predictor, con el óptimo situado en 15 sujetos por predictor, pero
recomendándose muestras mayores de 100, sea cual sea el número de
predictores.

-55-
Una vez elegidos los predictores la estimación propiamente dicha de los
parámetros de la ecuación de regresión suele realizarse mediante el método
de mínimos cuadrados, aspecto técnico que no tocaremos. Simplemente es
relevante que de los resultados del análisis obtendremos una estimación de
la pendiente para cada variable predictora, que en el caso no estandarizado
es un coeficiente de regresión parcial y en el estandarizado un coeficiente
de correlación parcial (y sus pruebas de significación), además de una
estimación de la capacidad explicativa del modelo en términos del
coeficiente de determinación (y su correspondiente valor ajustado).

Pero, aún asumiendo siempre este tipo de estimación, cabe todavía hacer
ciertas elecciones críticas en el proceso de estimación, ya que existen
diversos procedimientos de selección de variables. El problema de escoger
entre diversos procedimientos de selección es doble. Por un lado, cuando
hay muchos predictores potenciales y la muestra es relativamente pequeña
se impone en ocasiones una reducción en su número, lo que nos suele
llevar a algún tipo de selección de tipo estadístico. Por otro lado, en
ocasiones el orden de entrada de las variables en la ecuación de regresión
es relevante, por lo que éste no es indiferente, debiéndose, por tanto,
imponer un cierto orden, de forma estadística o substantiva. Los principales
tipos de procedimientos de selección, todos ellos montados en el SPSS, a
las dos lógicas ya esbozadas con anterioridad: la substantiva y la
estadística.

A) CONOCIMIENTO SUBSTANTIVO
Es el investigador el que escoge todos los predictores a introducir en la
ecuación de regresión, de todos ellos se obtendrá estimación de su efecto
sobre la variable dependiente. El investigador también determina su orden.
Existen dos subtipos bien diferenciados: introducir todos los predictores y
regresión jerárquica.

Todos los predictores

-56-
Es la opción por defecto de SPSS. Resulta sencilla. El investigador escoge
los predictores y su orden de entrada en la ecuación de regresión, pero
todos los predictores se incluyen en la misma ecuación simultáneamente.
Simplemente hay que acudir a ANALIZAR y escoger REGRESIÓN,
asumiendo la opción lineal. Aquí, en principio, solamente hace falta
colocar en la ventana de dependiente la variable que queremos predecir
(explicar), y en la ventana de independientes todos los predictores que
consideremos necesarios para su predicción, en el orden que nos parezca
adecuado. Hay que asegurarse que la opción por defecto, introducir, es la
que está seleccionada. Justo debajo de la ventana de independiente. Como
es el tipo de regresión múltiple más sencilla no entraremos en más detalles,
ni pondremos ejemplos, ya que se subsumirán en los ejemplos siguientes.

Regresión jerárquica
En la regresión jerárquica las variables se introducen por bloques según un
criterio lógico (teórico) definido por el investigador. De esta forma se
evalúa lo que la (o las) variables de cada nuevo bloque añaden a las ya
introducidas previamente. Normalmente las variables que se consideran de
mayor importancia, o de efecto causal anterior se introducen antes.

Como ejemplo supongamos que se quiere estudiar cómo diversas facetas de


la autoestima (social, de desempeño, y de apariencia física) explican o se
relacionan con la autoestima general en adolescentes. La idea es evaluar
qué tipo de autoestima específica tiene más peso en la muestra de
adolescentes recogidas. No obstante y dado que algunos aspectos físicos de
los adolescentes pueden tener un impacto también en la autoestima se
decide introducirlos primero en una regresión jerárquica. Los aspectos
físicos considerados relevantes son la edad y el sexo. Este último, pese a
ser una variable categórica puede introducirse sin problemas en la ecuación
de regresión ya que solamente presenta dos categorías. Por lo tanto los
predictores considerados relevantes por el investigador son cinco: edad,
sexo, autoestima social, de desempeño y de apariencia física. El
investigador, no obstante, va a incluirlas en dos bloques (regresión
jerárquica), el primero con las dos primeras y el segundo con las tres
últimas. Por lo tanto, el cambio que se produce es que el investigador está

-57-
interesado en saber qué explican los tres componentes de la autoestima, una
vez que edad y sexo han recogido su parte en la explicación.

Para realizar este procedimiento se acude a ANALIZAR y después se


escoge REGRESIÓN, asumiendo la opción lineal. Tras ello se escoge la
autoestima general (rosen) como dependiente y sexo y edad como
indpendientes. Justo arriba de la ventana donde están las independientes se
le da a la opción bloque siguiente y aquí se colocan las tres predictoras
(AS, AD y AF) del bloque dos. Con ello ya hemos informado al programa
de que queremos realizar una regresión jerárquica en dos bloques. En
principio lo único que necesitamos, además, para realizar la regresión
jerárquica es pinchar en la opción estadísticos y pedir el cambio en R-
cuadrado.

Variables introducidas/eliminadasb

Variables Variables
Modelo introducidas eliminadas Método
1 sexo, EDADa , Introducir
2 AD, AS, AFa , Introducir
a. Todas las variables solicitadas introducidas
b. Variable dependiente: ROSEN

Resumen del modelo

Cambiar los estadísticos


R cuadrado Error típ. de la Cambio en Sig. del
Modelo R R cuadrado corregida estimación R cuadrado Cambio en F gl1 gl2 cambio en F
1 ,191a ,037 ,033 ,4810 ,037 11,915 2 628 ,000
2 ,791b ,626 ,623 ,3003 ,590 328,528 3 625 ,000
a. Variables predictoras: (Constante), sexo, EDAD
b. Variables predictoras: (Constante), sexo, EDAD, AD, AS, AF

-58-
Coeficientesa

Coeficient
es
Coeficientes no estandari
estandarizados zados
Modelo B Error típ. Beta t Sig.
1 (Constante) 2,863 ,236 12,127 ,000
EDAD 2,512E-02 ,015 ,068 1,726 ,085
sexo -,177 ,039 -,180 -4,599 ,000
2 (Constante) ,308 ,169 1,829 ,068
EDAD 2,189E-02 ,009 ,059 2,380 ,018
sexo -5,39E-02 ,025 -,055 -2,189 ,029
AS 9,813E-02 ,022 ,133 4,550 ,000
AD ,414 ,023 ,535 18,069 ,000
AF ,183 ,022 ,257 8,451 ,000
a. Variable dependiente: ROSEN

B) MÉTODOS ESTADÍSTICOS
Otra opción para seleccionar predictores de entre un conjunto amplio es
recurrir a razones puramente estadísticas. Los procedimientos son: hacia
delante, en que se introduce el predictor con mayor relación con la variable
dependiente, luego el segundo, etcétera; hacia atrás, en que se empieza con
todos los predictores y se van eliminando, uno a uno, los menos
relacionados; y la regresión paso a paso, probablemente el más utilizado.

Regresión paso a paso (stepwise)


La regresión paso a paso es ligeramente diferente a la regresión hacia
delante. Es igual que ésta en que empieza con el predictor más relacionado
con el criterio, y sigue con el segundo más relacionado, y así
sucesivamente. La diferencia es que evalúa la regresión en cada paso, y si
al entrar un nuevo predictor alguno de los predictores ya en la regresión
pasa a ser no significativo, lo elimina.

-59-
Supongamos que el ejemplo anterior se trata, en lugar de mediante
regresión jerárquica, mediante regresión paso a paso. Para poder realizarlo
se opta por ANALIZAR, en el menú REGRESIÓN, opción lineal. Se abre una
ventana en que se tiene que colocar en la dependiente la variable rosen, y
en las independientes el sexo, edad, AS, AD y AF, sin colocar bloques. Se
opta por método pasos suc. (pasos sucesivos). Los resultados más
importantes se muestran a continuación.

Resumen del modelo

R cuadrado Error típ. de la


Modelo R R cuadrado corregida estimación
a
1 ,727 ,528 ,527 ,3364
2 ,778b ,606 ,605 ,3077
c
3 ,787 ,620 ,618 ,3023
d
4 ,789 ,623 ,621 ,3013
e
5 ,791 ,626 ,623 ,3003
a. Variables predictoras: (Constante), AD
b. Variables predictoras: (Constante), AD, AF
c. Variables predictoras: (Constante), AD, AF, AS
d. Variables predictoras: (Constante), AD, AF, AS, EDAD
e. Variables predictoras: (Constante), AD, AF, AS, EDAD, sexo

El cuadro anterior nos ofrece un resumen de los cinco pasos que se han
realizado, y del incremento (en este caso) en los porcentajes de varianza
explicada. En este ejemplo la regresión ha introducido uno a uno todos los
predictores, sin eliminar ninguno, porque coincide que todos ellos
continúan siendo significativos cuando otros predictores entran en la
regresión.

-60-
Coeficientesa

Coeficient
es
Coeficientes no estandari
estandarizados zados
Modelo B Error típ. Beta t Sig.
1 (Constante) ,975 ,078 12,562 ,000
AD ,563 ,021 ,727 26,532 ,000
2 (Constante) ,639 ,077 8,282 ,000
AD ,438 ,022 ,566 19,570 ,000
AF ,228 ,021 ,322 11,122 ,000
3 (Constante) ,542 ,078 6,922 ,000
AD ,408 ,023 ,526 17,788 ,000
AF ,193 ,021 ,272 9,018 ,000
AS ,105 ,022 ,143 4,864 ,000
4 (Constante) ,213 ,163 1,305 ,192
AD ,414 ,023 ,534 17,994 ,000
AF ,190 ,021 ,268 8,898 ,000
AS 9,955E-02 ,022 ,135 4,604 ,000
EDAD 2,116E-02 ,009 ,057 2,294 ,022
5 (Constante) ,308 ,169 1,829 ,068
AD ,414 ,023 ,535 18,069 ,000
AF ,183 ,022 ,257 8,451 ,000
AS 9,813E-02 ,022 ,133 4,550 ,000
EDAD 2,189E-02 ,009 ,059 2,380 ,018
sexo -5,39E-02 ,025 -,055 -2,189 ,029
a. Variable dependiente: ROSEN

La tabla anterior nos ofrece los coeficientes de cada uno de los pasos de la
regresión paso a paso, siendo el último el que debe interpretarse. Como
vemos todos los predictores han resultado estadísticamente significativos
(p<0.05), tal y como ocurría en la regresión por bloques.

-61-
4. 2. DIAGNÓSTICO EN REGRESIÓN
La regresión, al igual que el análisis de varianza, dado que es un submodelo
del modelo lineal general, como éste, presenta una serie de supuestos
subyacentes, de cumplimiento más o menos necesario para una correcta
utilización de la prueba. Prácticamente ningún conjunto de datos aplicados
(reales) cumple estrictamente todos los supuestos en los que se basa la
regresión, de forma que el problema se traslada a comprobar si el
alejamiento de los supuestos no es tan grande que genere problemas graves
de aplicación e interpretación del modelo de regresión. La evaluación del
grado de cumplimiento de los supuestos es lo que se conoce como
diagnóstico en regresión. Para aprender a hacer un buen diagnóstico en
regresión, que sea al mismo tiempo muy sencillo, conviene ir a las pruebas
a realizar, más que evaluar supuesto a supuesto, ya que algunas pruebas
responden sobre el cumplimiento de varios supuestos. Hay tres cuestiones a
realizar:

A) GRÁFICOS DE RESIDUALES
Los residuales son los errores que se cometen al predecir cada puntuación
individual en base a la ecuación de regresión. Si la regresión es buena, los
residuales tienden a ser pequeños. Pero no es por esto por los que los
tratamos aquí, sino porque al estudiar el comportamiento de los residuales
podemos observar de forma simple posibles alejamientos de los supuestos.
Este estudio de diagnóstico conviene realizarlo para cada predictor por
separado, y para la ecuación completa.

En concreto los gráficos de residuos nos permiten tener una idea de


problemas con la homogeneidad de varianzas y con la linealidad.

-62-
Supongamos que se quiere predecir ROSEN en base a AD, siguiendo con
las mismas variables de ejemplos anteriores. Queremos añadir a lo pedido
habitualmente un gráfico de residuos. Para hacerlo se opta en la ventana
abierta de regresión lineal por la opción gráficos, lo que nos abre una nueva
ventana, en la que escogeremos como valores para el eje de abscisas (X)
los valores predichos estandarizados (ZPRED, en SPSS), mientras en el eje
de ordenadas (Y) escogeremos, de entre las distintas medidas de residuales
estandarizados y estudentizados la opción de SDRESID. Si lo hacemos así
para este ejemplo obtendremos un gráfico como el siguiente:
Regresión Residuo borrado (pulsar) estudentizado

Gráfico de dispersión
Variable dependiente: ROSEN
3

-1

-2

-3

-4
-4 -3 -2 -1 0 1 2 3

Regresión Valor pronosticado tipificado

Este gráfico no muestra problemas importantes (obvios) ni de


homogeneidad, ni de no linealidad. Si hubiéramos tenido problemas de
homocedasticidad tendríamos mucha más dispersión alrededor del valor de
residual cero en unos puntos del eje de abscisas que en otros. Si
hubiéramos tenido problemas de linealidad el propio diagrama de
dispersión mostraría una relación no lineal. Si ahora pasamos a realizar el
mismo gráfico para el caso de la regresión múltiple con cinco predictores

-63-
que realizamos anteriormente con el procedimiento paso a paso, el
resultado que obtenemos es el siguiente:
Regresión Residuo borrado (pulsar) estudentizado

Gráfico de dispersión
Variable dependiente: ROSEN
3

-1

-2

-3

-4

-5
-4 -3 -2 -1 0 1 2 3

Regresión Valor pronosticado tipificado

Este gráfico tampoco muestra problemas obvios de homogeneidad o no


linealidad.

B) ESTUDIO DE VALORES ATÍPICOS


Todas las técnicas estadísticas basadas en el modelo lineal general son
bastante sensibles a los valores atípicos. Hemos visto ya cómo detectar
valores atípicos en variables aisladas (valores atípicos univariantes), pero
en regresión simple y múltiple la cosa es un poco más complicada, pues se
trata de revisar valores atípicos multivariantes. Claro, aquí la cosa se
complica ya que los casos, los sujetos, pueden ser atípicos en la variable Y,
en la variable X o en ambas. Por lo tanto necesitamos procedimientos que

-64-
nos digan si tenemos alguna observación que nos genere problemas a
cualquiera de estos niveles.

Por lo tanto, debemos detectar:

Valores atípicos en Y, o outliers. Para comprobar si se tiene algún


caso que genere problemas como outlier se puede optar por calcular
el residual estudentizado eliminado. Si cualquier caso tiene un
residual estudentizado eliminado mayor de 2, nos generará
problemas. Para pedir los residuales de este tipo se debe ir a la
ventana de la regresión, escoger la opción guardar y pedir los
Residuos eliminados estudentizados.

Valores atípicos en X, o leverages. Para comprobarlo hay que acudir


al valor de un estadístico, hi, conocido como valor de leverage. SPSS
no ofrece el valor de este estadístico, pero sí ofrece el valor de la
Distancia de Mahalanobis, en el que esta basado. Para pedir la
distancia de Mahalanobis hay que seleccionarla también en la opción
de guardar de regresión. Una vez se obtienen las distancias, el valor
del estadístico es:

1 DM
hi = +
n n −1

Genera problemas si igual o supera el valor 5 veces el valor de


(k+1)/n donde k es el número de predictores.

Valores atípicos en ambos, observaciones influyentes. Se puede


controlar si se presentan observaciones influyentes mediante el
cálculo de las distancias de Cook, que son el equivalente al producto
de outlier por leverage. El SPSS ofrece directamente estos valores de
las distancias de Cook, simplemente en la misma opción que
anteriormente escogimos las distancias de Mahalanobis y los
residuales. Resulta un problema cualquier observación que supere el
valor de 4/(n-k-1).

-65-
C) MULTICOLINEALIDAD
En el caso de regresión simple solamente se considera un predictor, por lo
que no se puede producir multicolinealidad (colinealidad), que de forma
intuitiva puede definirse como el problema que aparece cuando los
predictores están parcialmente solapados (altamente correlacionados), y por
tanto resulta difícil discernir quién predice mejor (o más) a la variable
dependiente. En el límite si los predictores están muy correlacionados,
entonces los resultados de los coeficientes de regresión son muy inestables
e inseguros. Por lo tanto, debemos asegurarnos de que el nivel de
correlación entre los predictores no es tan importante como para hacer
inseguros nuestros resultados, para lo que es necesario tomar medidas de
diagnóstico de la colinealidad.

El SPSS nos ofrece diversos estadísticos para evaluar los problemas de


colinealidad. La tolerancia es uno de los más empleados (si su valor es
menor de 0.1, suele ser indicativo de problemas. Nosotros veremos otro de
fácil cálculo y más fácil interpretación, que funciona tan bien como la
tolerancia. Para poder pedir estos estadísticos debemos estar en la ventana
de regresión lineal, y seleccionar la opción de estadísticos. Una de las
opciones dentro de la nueva ventana que se abre es diagnóstico de
colinealidad, el cual seleccionaremos. Al seleccionar este botón, entre los
resultados que obtendremos, aparecerán los estadísticos que nos permiten
evaluar posibles problemas de colinealidad. El que nos interesa es el factor
de inflación de la varianza (FIV), y que muestra un problema de
multicolinealidad asociado a una variable en concreto si es mayor de 10. Al
aplicar a nuestro ejemplo de regresión múltiple estas opciones obtenemos
(relevante para el diagnóstico de colinealidad), la siguiente tabla:

-66-
Coeficientesa

Coeficient
es
Coeficientes no estandari Estadísticos de
estandarizados zados colinealidad
Modelo B Error típ. Beta t Sig. Tolerancia FIV
1 (Constante) ,308 ,169 1,829 ,068
AS 9,813E-02 ,022 ,133 4,550 ,000 ,695 1,438
AD ,414 ,023 ,535 18,069 ,000 ,683 1,463
AF ,183 ,022 ,257 8,451 ,000 ,645 1,549
EDAD 2,189E-02 ,009 ,059 2,380 ,018 ,975 1,026
sexo -5,39E-02 ,025 -,055 -2,189 ,029 ,955 1,047
a. Variable dependiente: ROSEN

Como puede verse, ninguno de los predictores parece generarnos problema


alguno de multicolinealidad: ni visto con la tolerancia, ni visto por el factor
de inflación de la varianza.

4. 3. VALIDACIÓN CRUZADA
Un aspecto crucial de cualquier técnica estadística es el de la replicación, la
generalización de los resultados a muestras de la misma población. En el
caso de la regresión simple y múltiple el problema se agudiza por la
capitalización del azar que se produce, entre otros problemas, como que,
por ejemplo que simplemente aumentando el número de predictores se
obtienen predicciones mayores aunque éstos no aporten nada. Por lo tanto,
es muy necesario, en ocasiones realizar estudios de validación cruzada.

La validación cruzada exige una división aleatoria de la muestra en dos


mitades (más partes en el caso de doble validación cruzada). En ocasiones
esta división no es aconsejable dado que nos dejaría con un tamaño
muestral demasiado pequeño en nuestra muestra como para que nuestra
estimación fuera adecuada. Si se da este caso, la validación cruzada ha de
esperar a la recogida de otra muestra de la misma población. Mientras tanto
solamente podemos utilizar la R al cuadrado ajustada para tener una mejor

-67-
idea de la capacidad predictiva del modelo sin estar influida por el tamaño
muestral ni el número de predictores, por lo que nos resultará de especial
utilidad para comparar regresiones múltiples de distintas muestras y de
tamaños desiguales.

Si la muestra que tenemos es grande podemos proceder a un estudio


propiamente de validación cruzada. Para ello hace falta dividir de forma
aleatoria, mediante las herramientas de selección de SPSS, la muestra
(pongamos 1000 sujetos o participantes) en dos submuestras de
aproximadamente el mismo tamaño.

Ahora cabrían dos posibilidades, la primea de ellas simple, que sería


calcular la regresión en las dos muestras por separado y comparar los
resultados, siempre en valores no estandarizados. Este procedimiento nos
puede ofrecer una información valiosa pero de carácter más bien cualitativo
y difícil de ponderar.

Un mejor procedimiento consiste en llevar a cabo una validación cruzada


propiamente dicha. Se calcularía la regresión en una muestra (muestra de
estimación) obteniendo una estimación de los coeficientes de regresión. En
la segunda muestra (de validación) se calcula la regresión obteniendo los
valores predichos según esta nueva estimación. Adicionalmente se calculan
los valores predichos para los sujetos de la muestra de validación en base a
la ecuación de regresión hallada en la muestra de estimación. La
correlación (en la muestra de validación) entre ambos tipos de valores
predichos nos ofrece una medida cuantitativa de la capacidad explicativa de
nuestra regresión.

4. 4. CATEGÓRICAS EN REGRESIÓN

-68-
Regresión múltiple es una técnica específica del modelo lineal general.
Como tal el modelo lineal general es capaz de manejar variables tanto
cuantitativas como cualitativas, con tal de que se cumplan ciertas
condiciones de codificación.

Variables dicotómicas
Con variables dicotómicas (o dicotomizadas) no hay ningún problema en
absoluto. Cualquier variable cualitativa puede introducirse sin ningún
problema en una ecuación de regresión simple o múltiple, con tal de que
esté codificada en 0-1, siendo uno cualquiera de las dos categorías.

A continuación se presenta un ejemplo de una ecuación de regresión


múltiple en que se introducen dos variables cualitativas dicotómicas y
codificadas 0 y 1. La variable dependiente es MOCI y la intentamos
predecir en base a los siete factores del IVOC, el sexo (0= hombre, 1=
mujer) y si recibe o no tratamiento psicológico (0= no, 1= sí). Se han
pedido diagnósticos de colinealidad y también los gráficos parciales para
ver cómo se comportan las variables dicotómicas. Los resultados se
presentan a continuación.

Resumen del modelo b

R cuadrado Error típ. de la


Modelo R R cuadrado corregida estimación
1 ,563a ,317 ,291 3,494
a. Variables predictoras: (Constante), Recibe tratamiento psicológico, Factor 5 IVOC:
RE-ICP, Sexo , Factor 1 IVOC: TAF-P, Factor 7 IVOC: RI, Factor 6 IVOC: SIP, Factor
3 IVOC: SP, Factor 4 IVOC: TAF-M, Factor 2 IVOC: P-II
b. Variable dependiente: MOCI

La correlación múltiple de los predictores con el criterio es 0.563, lo que se


traduce en una correlación múltiple al cuadrado de 0.317 (31.7% de
varianza explicada), corregido de 0.291.

-69-
Coeficientes a

Coeficientes no Coeficientes
estandarizados estandarizados Estadísticos de colinealidad
Modelo B Error típ. Beta t Sig. Tolerancia FIV
1 (Constante) -1,604 1,145 -1,401 ,162
Factor 1 IVOC: TAF-P ,002 ,050 ,003 ,047 ,962 ,637 1,571

Factor 2 IVOC: P-II ,036 ,025 ,112 1,411 ,159 ,457 2,189
Factor 3 IVOC: SP ,133 ,034 ,273 3,937 ,000 ,597 1,674

Factor 4 IVOC: TAF-M ,049 ,029 ,125 1,694 ,092 ,531 1,885
Factor 5 IVOC: RE-ICP ,029 ,030 ,078 ,965 ,335 ,446 2,242

Factor 6 IVOC: SIP -,086 ,074 -,078 -1,148 ,252 ,617 1,621
Factor 7 IVOC: RI ,065 ,050 ,090 1,296 ,196 ,598 1,671

Sexo ,038 ,503 ,004 ,076 ,940 ,911 1,097


Recibe tratamiento psicológico 8,289 2,101 ,219 3,945 ,000 ,933 1,072
a. Variable dependiente: MOCI

Los coeficientes en la tabla anterior tienen una interpretación similar a la ya


presentada. Solamente cambia en el caso de las variables cualitativas, y
solamente cambia la forma de entenderlo. Aquí en realidad la prueba de
significación del coeficiente sería equivalente a una prueba t de contrasta
de medias (pero manteniendo constante el resto de predictores). De forma
que a la vista de la significación puede decirse que el sexo no presenta
efecto sobre las puntuaciones del MOCI, pero recibir tratamiento o no sí.
Para interpretar el efecto de recibir tratamiento hay que recordar que recibir
tratamiento es 1, y por tanto el valor de referencia sobre el que
interpretaremos. El coeficiente sin estandarizar vale 8.28, positivo, y eso
quiere decir que la media de los que reciben tratamiento (=1) es 8.28 veces
mayor que la de los que no reciben (=0).

Los gráficos parciales para las dos variables cualitativas nos permiten ver el
porqué de que una sea significativa y otra no. En cualquier caso los
resultados para el grupo de los que reciben tratamiento están basados en
muy pocos datos.

-70-
Gráfico de regresión parcial
Variable dependiente: MOCI
20,0

10,0
MOCI

0,0

-10,0

-20,0 R² = 0.0000
-1,5 -1,0 -,5 0,0 ,5 1,0

Sexo

Gráfico de regresión parcial


Variable dependiente: MOCI
20,0

10,0
MOCI

0,0

-10,0 R² = 0.0616
-,2 0,0 ,2 ,4 ,6 ,8 1,0

Recibe tratamiento psicológico

Variables politómicas, cualitativas de más de 3 categorías

-71-
En el caso de las variables de tres o más categorías la situación no es tan
sencilla, pues hay que reducirlas primero a variables dicotómicas. Existen
diversas opciones de codificación, pero la más habitual es generar
dummies. En este caso utilizaremos la variable estado civil, que tiene las
siguientes categorías: 1= soltero, 2= divorciado y 4 = casado (existía 3=
viudo, pero no paraeció en los datos). Para codificar esta variable de tres
categorías en variables dummy hace falta generar dos dummies -siempre
hace falta una dummy menos que categorías tiene la variable cualitativa-:

Dummy 1: casados=1 versus resto= 0


Dummy 2: soltero= 1 versus resto= 0

Luego se introducen en la ecuación de regresión como cualesquiera


dicotómicas y se interpretan como las que hemos visto con anterioridad.

Los resultados de una regresión en que los predictores son las dos dummies
acabadas de generar y el factor 3 del IVOC se ofrecen a continuación.

Resumen del modelo

R cuadrado Error típ. de la


Modelo R R cuadrado corregida estimación
1 ,477a ,227 ,218 3,681
a. Variables predictoras: (Constante), Factor 3 IVOC: SP, casados vs resto, soltero vs resto

Coeficientes a

Coeficientes no Coeficientes
estandarizados estandarizados

Modelo B Error típ. Beta t Sig.


1 (Constante) 6,323 2,201 2,874 ,004

casados vs resto -4,661 2,183 -,461 -2,135 ,034

soltero vs resto -5,698 2,143 -,575 -2,658 ,008


Factor 3 IVOC: SP ,226 ,028 ,463 8,187 ,000
a. Variable dependiente: MOCI

-72-
4. 5. INTERACCIONES EN REGRESIÓN
Al igual que en análisis de varianza existen interacciones entre dos o más
variables independientes, en regresión pueden existir interacciones entre
predictores. En regresión a estas interacciones se les suele llamar efectos de
moderación. En esencia quieren decir que los efectos de un predictor sobre
un criterio dependen de (son condicionales) al nivel que se considere de
una tercera variable. Hay dos situaciones distintas para estudiar estas
moderaciones, en el caso en que la variable moderadora sea una cualitativa
es la más simple, con una variable moderadora cuantitativa el problema
resulta más complejo.

Interacciones de una categórica


La interacción de una categórica es simplemente una cuestión de realizar la
misma ecuación de regresión pero en cada uno de los subgrupos que genere
la variable cualitativa moderadora. Aquí hay un ejemplo realizado en
gráficos de dispersión ajustando la ecuación para hombres y mujeres por
separado. Se aprecia que existe una interacción aparentemente entre sexo y
factor 3 del IVOC, ya que la pendiente estandarizada cambia según se
calcule en hombres o en mujeres.

En la misma forma en que se realiza para una variable cualitativa, como el


sexo, se puede realizar para cualesquiera variables cualitativas, sin importar
el número de categorías que presenten.

-73-
30,0

20,0
MOCI

10,0

Sexo
0,0 Mujer
R² = 0.2383

Hombre
-10,0 R² = 0.1134
0 10 20 30 40 50 60

Factor 3 IVOC: SP

Interacciones de cuantitativas
En el caso de variables cuantitativas la interacción se realiza mediante la
introducción de un nuevo predictor. Este nuevo predictor es la
multiplicación de los dos predictores que se supone que tienen un efecto de
moderación. Ahora bien, esta multiplicación no se realiza con las variables
originales, sino con las variables en puntuaciones diferenciales.
Supongamos que tenemos las siguientes variables:

Y= la variable dependiente
X1= predictor 1
X2= predictor 2

Supongamos que se piensa que ambos predictores interactúan. En este caso


se trataría primero de calcular las medias de ambos predictores y en

-74-
trasformar, calcular de SPSS obtener las diferenciales (variable original
menos su media, también conocidas como variables centradas) de forma
que obtendríamos:

x1= predictor 1- media


x2= predictor 2- media

y posteriormente las multiplicaríamos, obteniendo la interacción entre


ambas.

x1 x2= interacción

Esta interacción se introduciría en la ecuación de regresión y si su


coeficiente es estadísticamente significativo es indicativo de un efecto
moderador entre variables.

-75-
Dónde puedo aprender más de esto:

• Sobre regresión múltiple: Martínez Arias, Rosario (1999).


El análisis multivariante en la investigación científica.
Madrid: La muralla.

• El mejor manual sobre estadística multivariante, sin duda,


y que presenta muy bien los aspectos de regresión
Tabachnick, B. G. y Fidell, L. S. (1996). Using multivariate
statistics. New York: Harper Collins.

• Solamente con regresión: Cohen, J. Y Cohen, P. (1983).


Applied múltiple regresión/correlation analysis for the
behavioral sciences. Hillsdale, NJ: Erlbaum.

• Sobre diagnóstico en regresión, muy nuevo y muy


adecuado, pero difícil: Fox, J. (1997). Applied regresión
analysis, linear models and related methods. CA: Sage

-76-
5. REGRESIÓN LOGÍSTICA

5. 1. Generalidades de la técnica

El modelo de regresión logística es un


modelo lineal (generalizado) cuya utilidad
reside en predecir una variable nominal o
categórica en base a predictores
cuantitativos y/o cualitativos.
Es muy similar desde el punto de vista conceptual al análisis de regresión lineal
múltiple, modelo con el que comparte algunos de los supuestos y condiciones de
aplicación, que veremos más adelante. En ambos casos se trata de predecir una
variable, en adelante dependiente, predicha o criterio, en base a una serie de
variables independientes o predictoras, estimando la fuerza de la relación (peso)
de cada una de ellas condicional a valores constantes del resto. En ambos casos
se pueden emplear variables independientes cuantitativas, pero también admite
nominales con dos categorías o inclusive con más tras la apropiada creación de
nuevas variables dicotómicas (codificación dummy, efecto, etc.).

La diferencia es que en regresión logística la variable dependiente tiene


naturaleza nominal. Usualmente es de carácter dicotómico, como
suspender/aprobar 0 sano/enfermo, y se conoce como regresión logística
binaria en el SPSS, pero el modelo admite también la predicción de variables
multinomiales, conociéndose entonces en SPSS como regresión logística
multinomial.

-77-
El modelo es tan similar a la regresión múltiple que en principio surge la
pregunta de porqué no usar, simplemente, este último modelo para predecir la
probabilidad de la variable dependiente. La respuesta es que existirían dos
problemas (Landau y Everitt, 2004):

Asumir el modelo de regresión lineal múltiple daría valores predichos de


la variable dependiente que se saldrían del rango de probabilidad 0-1.

El modelo de regresión lineal asume que dados los valores de los


predictores la variable dependiente tiene una distribución normal con
varianza constante, lo que claramente es inadecuado para el caso de una
variable dependiente binaria.

Otro modelo estadístico que se ha empleado, y se sigue empleando, para esta


misma situación es el análisis discriminante. Aunque efectivamente puede
emplearse en sustitución de la regresión logística, todos los autores actuales
reconocen que la superioridad de ésta sobre el discriminante, ya que exige
supuestos más restrictivos que los de la regresión logística (Wright, 1995).

5. 2. Modelo estadístico

El modelo de regresión múltiple lineal


predice los valores de una variable
dependiente cuantitativa (Y) mediante la
siguiente expresión:
Y = β 0 + β1 X 1 + β 2 X 2 + K + β i X i

Si en lugar de tener una variable dependiente cuantitativa (Y), se dispone de una


variable binaria, y a las dos categorías se las cuantifica mediante los valores 0 y
1, entonces puede sustituirse la variable dependiente de esta ecuación por la
predicción de la probabilidad de ocurrencia de la categoría con 1. Por ejemplo, si
se dispone de la variable dicotómica depresivo= 0 frente a curado de la
depresión= 1, se puede utilizar el modelo anterior para predecir la importancia

-78-
de diversos factores, cuantitativos o no, en la predicción de la probabilidad de
curarse de una depresión.

A todos los efectos esto sería una aplicación de regresión lineal múltiple y los
coeficientes se calcularían mediante mínimos cuadrados, como se ha visto en el
capítulo dedicado a regresión. Este procedimiento, no obstante, produce dos
problemas:

Los valores predichos de la probabilidad ( p̂ ) debieran estar en el rango


0-1, como cualesquiera probabilidades, pero la regresión múltiple no cumple
con ello.

Los valores observados no siguen una distribución normal, con media p,


sino una distribución de Bernoulli.

Así que la solución es intentar explicar o predecir la probabilidad de forma


indirecta a través de la transformación logit de p, o sea ln[p/(1-p)]. Esto nos
lleva al modelo de regresión logística:

p
ln = β 0 + β1 X 1 + β 2 X 2 + K + β i X i
1− p

Los parámetros en el modelo de regresión logística se pueden estimar mediante


máxima verosimilitud. Estas estimaciones (β) estiman el cambio que se produce
en la transformación logit por un cambio unitario de la variable independiente,
condicionado a que el resto de variables independientes permanezcan
constantes. Los parámetros suelen exponenciarse (exp β) para poder dar los
resultados en términos de los odds ratio, más sencillos de interpretar que los
logaritmos neperianos.

Los modelos competitivos, modelos con distintas variables que pretenden


explicar la misma variable dependiente, pueden compararse formalmente por la
prueba Likelihood ratio (razón de verosimilitud, LR), mediante un score test o
por la prueba de Wald (Hosmer y Lemeshow, 2000). Estos tres tests son
asintóticamente equivalentes, pero difieren en muestras finitas. En estos casos
el LR test parece el más fiable, mientras que el test de Wald es el menos fiable
(Therneau y Grambsch, 2000).

-79-
5. 3. Supuestos del modelo de regresión logística

Como cualquier modelo estadístico, la


regresión logística presenta una serie de
supuestos para aplicarse de forma
estrictamente correcta. El incumplimiento de
estos supuestos puede ser más o menos
razonable en la práctica, y sus efectos ser
más o menos importantes sobre los
estimadores o sus errores. Los supuestos
de la regresión logística son:
1. La variable dependiente es binaria y con
valores 0 y 1. En el caso del paquete
SPSS, si no lo fuera el programa la
convertiría en o y 1, dando el 1 al valor
más alto de la variable, pero ésta ha de
tener dos valores.
2. Las puntuaciones son estadísticamente
independientes.

-80-
3. El modelo debe especificarse
correctamente. Este supuesto se conoce
como especificidad, y requiere que el
modelo incluya todos los predictores
relevantes y ningún predictor irrelevante.
Este supuesto es compartido con el
modelo de regresión lineal, pero en
pocas ( o ninguna) ocasión se cumple en
la práctica.
4. Las categorías implicadas en el análisis
deben ser mutuamente exclusivas y
exhaustivas.
5. Finalmente, y aunque más que un
supuesto es una condición de
aplicación, la estimación de los
coeficientes de regresión requieren de
muestras grandes para ser adecuados,
ya que en muestras pequeñas los errores
estándar (típicos) asociados pueden ser
poco fiables. Para la mayoría de

-81-
aplicaciones, el mínimo de sujetos por
predictor se situaría en 50 (Aldrich y
Nelson, 1984).

5. 4. Regresión logística simple en SPSS 12

Para empezar vamos a resolver un problema


simple, el de una regresión logística binaria
simple. Esto es, vamos a intentar predecir
una variable dependiente dicotómica en base
a una sola variable independiente. Los datos
que vamos a utilizar están en la base de
datos “Base de ejemplo.sav”. Esta base de
datos contiene datos sobre trabajadores (n=
195) en una serie de riesgos para la salud
física y psicológica asociados al trabajo,
medidas de salud y algunos (pocos)
descriptivos.
Las variables que vamos a utilizar son las siguientes:

• Variable dependiente el estrés dicotómico, que es una variable en


principio continua, pero que hemos dicotomizado por la mediana para

-82-
poder aplicar como ejemplo la regresión logística. El valor 0 indicaría no
estrés (en realidad nivel por debajo de la median de estrés), mientras el
valor 1 indica síntomas de estrés (en realidad valores por encima de la
mediana de estrés.

• Variable independiente es el nivel de exigencia cuantitativa del trabajo.


Esta variable es cuantitativa, y oscila de 1 a 5, con media de 2.78 y
desviación típica 0.85.

Para empezar el procedimiento simplemente es necesario ir a ANALIZAR y


desplegar el menú para encontrar el submenú REGRESIÓN, donde se tendrá que
escoger la regresión logística binaria.

Al abrir la regresión logística aparece la


ventana de este modelo estadístico. Para
hacer lo mínimo, el defecto del programa,
que de momento es lo único que vamos a

-83-
hacer se tiene simplemente que situar la
variable dependiente en su lugar
(dependiente) y la independiente en la
ventana que dice covariables, que es la
denominación empleada en la ventana para
los predictores.

Tras realizar esta elección se dan los resultados del modelo, que incluye un gran
número de tablas, de las que solamente veremos las más relevantes para este
problema. La primera de las tablas simplemente nos informa de los casos totales
incluidos en el análisis, y resulta importante, dado que ya hemos visto que los
requerimientos muestrales son importantes, y necesitamos ver de cuántos
sujetos efectivos tenemos, ya que puede haber faltantes en la variable
dependiente y/o en la o las independientes.

-84-
Resumen del procesamiento de los casos
a
Casos no ponderados N Porcentaje
Casos seleccionados Incluidos en el análisis 189 96,9
Casos perdidos 6 3,1
Total 195 100,0
Casos no seleccionados 0 ,0
Total 195 100,0
a. Si está activada la ponderación, consulte la tabla de clasificación para ver el
número total de casos.

Tras estas tablas el programa da una serie de tablas que se corresponden con lo
que se denomina modelo nulo. Es un modelo que no incluye ningún predictor. O
sea, que en nuestro caso no incluye siquiera el único predictor empleado, y es
por tanto un modelo que sirve para comparar la ganancia que supone añadir
predictores. No tiene utilidad en sí misma. SPSS le llama bloque 0 o bloque
inicial. La siguiente tabla nos permite ver que el modelo nulo simplemente es
capaz de clasificar correctamente a un 50.3%, ya que clasifica a todo el mundo
en base a la categoría más frecuente.

Bloque 0: Bloque inicial


Tabla de clasificacióna,b

Pronosticado

estres dicotómico
Porcentaje
Observado ,00 1,00 correcto
Paso 0 estres dicotómico ,00 0 94 ,0
1,00 0 95 100,0
Porcentaje global 50,3
a. En el modelo se incluye una constante.
b. El valor de corte es ,500

También interesante es la tabla, siempre siguiendo en bloque inicial, que nos


informa de las variables (predictoras o independientes) que no están en la
ecuación, ya que aquí aparece una primera prueba estadística que nos permite
saber si la inclusión del predictor (solamente uno ya que estamos haciendo una
regresión logística simple) resultará estadísticamente significativo cuando se
incluya.

-85-
Variables que no están en la ecuación

Puntuación gl Sig.
Paso 0 Variables epc 21,083 1 ,000
Estadísticos globales 21,083 1 ,000

Como puede apreciarse la prueba estadística


resulta estadísticamente significativa para la
variable epc (exigencias cuantitativas) ya
que la significatividad es p< 0.05. Esta
prueba estadística es el estadístico de
puntuación de Rao. Esto nos permite prever
que al incluir en el modelo la variable que
habíamos definido como predictora
efectivamente se ganará sustancialmente en
la predicción del estrés laboral. Las
siguientes tablas nos ofrecen ya información
del modelo que nosotros pretendíamos
poner a prueba, el modelo con epc como
predictora.

-86-
Bloque 1: Método = Introducir
Resumen de los modelos

-2 log de la R cuadrado de R cuadrado de


Paso verosimilitud Cox y Snell Nagelkerke
1 239,782a ,111 ,148
a. La estimación ha finalizado en el número de iteración 4 porque las
estimaciones de los parámetros han cambiado en menos de ,001.

Tabla de clasificacióna

Pronosticado

estres dicotómico
Porcentaje
Observado ,00 1,00 correcto
Paso 1 estres dicotómico ,00 55 39 58,5
1,00 30 65 68,4
Porcentaje global 63,5
a. El valor de corte es ,500

En la tabla resumen de los modelos lo relevante es ver las dos estimaciones del
porcentaje de varianza explicada que se ofrecen, la de Cox y Shell y la de
Nagelkerke. Su interpretación, análoga a la R al cuadrado de la regresión lineal.
Por su parte, en la tabla de clasificación vemos que ahora se clasifica
correctamente a un total del 63.5% de los trabajadores en los dos grupos, de
forma que la ganancia con respecto al 50.3% es del 13.2%. Se clasifica un 13.2%
mejor al incluir un predictor. También puede verse que se predice mejor al
grupo de estresados (68.4%) que al grupo de no estresados (58.5%).

Finalmente, la última tabla es la que propiamente nos ofrece la estimación de


los parámetros del modelo. Esto es, la que nos da la ecuación de regresión
logística binaria.

Variables en la ecuación

B E.T. Wald gl Sig. Exp(B)


Paso 1 a epc ,881 ,202 19,082 1 ,000 2,413
Constante -2,410 ,573 17,661 1 ,000 ,090
a. Variable(s) introducida(s) en el paso 1: epc.

-87-
Esta ecuación, y su interpretación son el
meollo de la regresión logística. Si no se
interpretara bien, todo el trabajo realizado
sería inadecuado. El primer valor que
aparece es el de B, que es el coeficiente de
regresión asociado a la variable
independiente exigencias cuantitativas. El
valor es poco relevante, puesto que no es
estandarizado, pero el signo es fundamental.
Si el signo, como en este caso, es positivo
quiere decir que aumentando las exigencias
aumenta la probabilidad de padecer estrés
(la categoría señalada con un 1 en la variable
dependiente binaria). Por el contrario, si el
signo es negativo querría decir que al
aumentar la exigencia disminuye la
probabilidad de estar estresado. Este
coeficiente tiene un cierto error estándar o
típico (ET) ambos (coeficiente y error típico)
dan lugar al estadístico de Wald que permite
poner a prueba la hipótesis nula de que el

-88-
coeficiente es cero en la población. En otras
palabras, si el estadístico de Wald resultase
estadísticamente significativo para un 0.05
(habitualmente), sería indicativo de que
efectivamente el predictor es
estadísticamente significativo, como es el
caso ya que p< 0.05.
Finalmente, a la hora de interpretar el impacto la B no resulta de mucha
utilidad, ya que indica el cambio en la transformación logit por un cambio
unitario del predictor, o sea un cambio dado en términos de logaritmos
neperianos. Por el contrario, si calculamos expB ( e B ) se consigue una
interpretación sencilla en términos de los odds ratio, de las ventajas. Así, en
nuestro caso el expB es 2.413 que quiere decir que al cambiar un punto en las
exigencias cuantitativas (por ejemplo de nada=1 a algunas veces=2) aumenta
2.413 veces la probabilidad de estar estresado (variable dependiente=1).

Regresión logística con variable independiente categórica


Vamos a realizar un segundo ejemplo de regresión logística simple, pero en este
caso el predictor que introduciremos será el sexo. Este segundo ejemplo tiene
como principal interés que se incluye como único predictor el sexo (1= hombre y
2= mujer) y resulta interesante ver cómo interpretar los efectos de este tipo de
variables.

En el caso de las variables categóricas, éstas pueden introducirse en la ecuación


sin ningún tipo de problemas si no tienen más de dos categorías. Si hay más de
dos categorías, entonces hay que recodificarlas mediante el oportuno número de
dicotómicas, tal y como se hacía en regresión lineal. En SPSS esto puede hacerse
por un cierto número de procedimientos, que se sitúan en la propia ventana de
la regresión logística bajo el botón de categóricas, tal y como muestra la
siguiente imagen.

-89-
Haciendo click en ella se despliega un menú que contiene las diversas
posibilidad de recodificación automática, entre las que se encuentran:
indicador, simple, diferencia, Helmert, repetido, etc. Para una descripción
detallada, que está fuera de nuestro interés ver Pardo y Ruíz (2002). La
apariencia de la ventana puede verse a continuación:

En nuestro caso no hemos necesitado declarar la variable categórica como tal,


ya que el sexo solamente tiene dos categorías. Los resultados de la regresión se
dan en las mismas tablas que el ejemplo anterior, pero pasaremos directamente

-90-
a la tabla que nos ofrece las estimaciones de los parámetros del modelo,
simplemente para conseguir entender la interpretación de una variable
categórica:
Variables en la ecuación

B E.T. Wald gl Sig. Exp(B)


Paso 1 a sexo 1,013 ,316 10,259 1 ,001 2,755
Constante -1,662 ,547 9,248 1 ,002 ,190
a. Variable(s) introducida(s) en el paso 1: sexo.

En esta tabla puede verse que el coeficiente


para sexo es B=1.013, que al ser positivo
indica que las mujeres (valor mayor de la
categórica) tienen mayor probabilidad de
estresarse que los hombres (valor inferior de
la categórica). Para poder interpretar bien
este coeficiente, que resulta
estadísticamente significativo vista la prueba
de Wald (p< 0.05) hay que acudir a expB, que
vale 2.755 y que indica que las mujeres
tienen 2.755 veces más probabilidad de
estresarse que los hombres.

5. 5. Regresión logística binaria múltiple en SPSS 12

-91-
Utilizando los mismos datos de la “base de
ejemplo.sav” vamos a realizar una regresión
logística con múltiple predictores o variables
independientes. Vamos a utilizar las
siguientes variables.
• Variable dependiente el estrés dicotómico, que es una variable en
principio continua, pero que hemos dicotomizado por la mediana para
poder aplicar como ejemplo la regresión logística. El valor 0 indicaría no
estrés (en realidad nivel por debajo de la median de estrés), mientras el
valor 1 indica síntomas de estrés (en realidad valores por encima de la
mediana de estrés.

• Variables independientes: Todas ellas salvo el sexo son cuasi-


cuantitativas y se pueden tratar sin problemas como cuantitativas.

⇒ Sexo (1= hombre y 2= mujer)

⇒ Epc, exigencias psicológicas cuantitativas

⇒ Pdt, posibilidades de desarrollo en el trabajo

⇒ Conr, conflicto de rol

⇒ As, nivel de apoyo social en el trabajo

⇒ Cl, calidad del liderazgo

En este caso vamos a utilizar un método de


entrada introducir, esto es vamos a colocar
todos los predictores, y ello pese a que su
número hace desaconsejable hacerlo para el
tamaño de muestra que previsiblemente
-92-
tendremos. No obstante en el punto 6
veremos otros procedimientos de entrada de
variables que pueden solucionar este
problema. Como para usar el método
introducir no hace falta hacer nada, ya que
es el defecto del programa, no ofrecemos un
pantallazo del SPSS, pero `posteriormente
veremos donde se controlan los
procedimientos de selección de variables
Las tablas de resultados, al igual que en el
caso de un solo predictor, empiezan por una
tabla como la que sigue que nos dice que el
tamaño de la muestra efectivo para este
análisis es de n= 174 casos.
Resumen del procesamiento de los casos
a
Casos no ponderados N Porcentaje
Casos seleccionados Incluidos en el análisis 174 89,2
Casos perdidos 21 10,8
Total 195 100,0
Casos no seleccionados 0 ,0
Total 195 100,0
a. Si está activada la ponderación, consulte la tabla de clasificación para ver el
número total de casos.

Las siguientes tablas, tabla de clasificación y variables que no están en la


ecuación, referidas al bloque inicial nos informan de que clasificaríamos bien,

-93-
sin ninguno de los predictores propuestos a un 50% de los sujetos. Además la
tabla de variables que no están en la ecuación nos permite, mediante el
estadístico de Rao asociado a cada variable independiente, qué variables serán
previsiblemente estadísticamente significativas al calcular de forma efectiva en
el siguiente bloque la regresión logística. Todos los predictores, salvo pdt (p=
0.691, y por tanto p> 0.05), han resultado estadísticamente significativos (p<
0.05).

Bloque 0: Bloque inicial


Tabla de clasificacióna,b

Pronosticado

estres dicotómico
Porcentaje
Observado no estresado estresado correcto
Paso 0 estres dicotómico no estresado 0 87 ,0
estresado 0 87 100,0
Porcentaje global 50,0
a. En el modelo se incluye una constante.
b. El valor de corte es ,500

Variables que no están en la ecuación

Puntuación gl Sig.
Paso 0 Variables sexo 11,132 1 ,001
epc 19,681 1 ,000
pdt ,158 1 ,691
conr 23,092 1 ,000
as 14,965 1 ,000
cl 11,885 1 ,001
Estadísticos globales 43,994 6 ,000

A continuación SPSS pasa a calcular en el bloque 1, o sea con todos los


predictores señalados. La tabla de resumen de los modelos a continuación nos
ofrece las estimaciones del porcentaje de varianza explicado conjuntamente por
todos los predictores.

Bloque 1: Método = Introducir

-94-
Resumen de los modelos

-2 log de la R cuadrado de R cuadrado de


Paso verosimilitud Cox y Snell Nagelkerke
1 190,573a ,253 ,337
a. La estimación ha finalizado en el número de iteración 5 porque las
estimaciones de los parámetros han cambiado en menos de ,001.

Tabla de clasificacióna

Pronosticado

estres dicotómico
Porcentaje
Observado no estresado estresado correcto
Paso 1 estres dicotómico no estresado 67 20 77,0
estresado 23 64 73,6
Porcentaje global 75,3
a. El valor de corte es ,500

Variables en la ecuación

B E.T. Wald gl Sig. Exp(B)


Paso 1 a sexo 1,294 ,391 10,976 1 ,001 3,647
epc ,492 ,235 4,392 1 ,036 1,636
pdt ,063 ,209 ,090 1 ,765 1,065
conr ,693 ,227 9,313 1 ,002 2,001
as -,382 ,235 2,643 1 ,104 ,682
cl -,147 ,197 ,559 1 ,455 ,863
Constante -3,762 1,413 7,092 1 ,008 ,023
a. Variable(s) introducida(s) en el paso 1: sexo, epc, pdt, conr, as, cl.

También podemos ver, en la tabla de clasificación, que al agregar las variables


independientes se puede conseguir un 75.3% de porcentaje correcto de
clasificación, lo que supone con respecto al modelo nulo (50% de clasificación
correcta) un 25.3% superior de clasificación correcta. La siguiente tabla ya
ofrece la estimación de los parámetros del modelo. Nos vamos a fijar
simplemente en dos de ellos, sin importarnos si son o no estadísticamente
significativos. Uno de ellos implica una relación positiva, mientras el otro
inversa o negativa:
La variable independiente conr (conflicto de rol) presenta una relación positiva,
ya que la B= 0.693. Resulta estadísticamente significativa, ya que la prueba de Wald
lo es (p< 0.05). Al elevar e al valor de B (expB) obtenemos el cambio esperado en
los odds ratio de estresarse por un cambio unitario del conflicto de rol, y resulta ser

-95-
2.001. Este resultado indica que para aquellos que aumenten su conflicto de rol en un
punto, aumenta en casi el doble la probabilidad de padecer estrés laboral.

• La variable independiente as (apoyo social) tiene un coeficiente B


negativo, lo que implica que al aumentar el apoyo social tiende a bajar la
probabilidad de padecer estrés (o lo que es lo mismo, aumenta la
probabilidad de la categoría menor, no estrés= 0). La prueba de Wald no
resulta estadísticamente significativa, lo que supone que no se puede
rechazar que la relación es nula. No obstante, y simplemente a modo de
ejemplo, vamos a interpretar el expB como si fuera significativo, dado que al
ser negativo es más complicado. El expB vale 0.682. Esto interpretado con
referencia al suceso padecer estrés (el Y=1) sería igual que el caso anterior
pero suponiendo un REDUCCIÓN en la probabilidad de estresarse: un
cambio unitario en X produce una reducción de la probabilidad de padecer
estrés de 0.682. Si así resulta difícil de interpretar, se puede calcular
1/expB= 1.46, y se interpretaría de forma más sencilla, pero refiriéndolo al
valor Y=0 (no estresarse): un cambio unitario de la variable X (as) aumenta
1.46 veces la probabilidad de NO ESTRESARSE.

5. 6. Procedimientos de selección de variables


Al igual que en regresión múltiple, cuando por el tamaño muestral reducido o
por cualesquiera otros motivos, se prefiere seleccionar las variables de forma
estadística, se hace desplegando el submenú introducir y se pueden hacer
mediante los siguientes procedimientos:

• Hacia delante, que incorpora variable a variable hasta que ninguna más es
significativa, y usando los estadísticos de puntuación de Rao, la RV (razón de
verosimilitudes) y el estadístico de Wald.

• Hacia atrás, que quita variable a variable hasta que ninguna más es no
significativa, y usando los estadísticos de puntuación de Rao, la RV (razón de
verosimilitudes) y el estadístico de Wald.

• Regresión logística por bloques, idéntica al procedimiento de regresión


múltiple.

-96-
Dónde puedo aprender más de esto:
• Pardo, A. y Ruiz, M. A. (2002). SPSS 11. McGraw-Hill.
Tiene un capítulo de regresión logística muy centrado en
SPSS. Muy bueno
• Grimm, L. y Yarnold, P. (1995). Reading and
understanding mulltivariate statistics. El capítulo de
regresion logística es básico, y en general es un libro
buenísimo sobre multivariante.

-97-
66.. AANÁLISIS ACTORIAL
NÁLISIS FFACTORIAL

El objetivo general del análisis factorial es descubrir las diferentes


dimensiones de variabilidad común existente en cierto campo de
fenómenos que se hace operativo a partir de un grupo de variables. Algunas
de las situaciones o preguntas de investigación que pueden contestarse
desde el análisis factorial.:

Se tienen medidas de un conjunto de variables y se desea tener una


idea sobre qué construcciones pueden usarse para explicar las
intercorrelaciones entre estas variables.

Se desea probar una teoría sobre el número y la naturaleza de las


dimensiones subyacentes a un número de variables.

Se desea saber qué mide un cuestionario: cuantos conceptos


diferentes, y qué contenidos (preguntas) agrupa.

Como puede verse, en todos los casos se asume que un cierto número de
variables están altamente correlacionadas entre sí, porque comparten algo
en común. Por ejemplo, se asume que los distintos síntomas de depresión
deben darse conjuntamente, covariar, en una muestra de depresivos.

Otro ejemplo puede se que se asume que si se preguntan varias preguntas


de razonamiento numéricos, los niños con alta capacidad matemática
tenderán a contestar bien a todas, y los de baja capacidad matemática
tenderán a contestar mal a todas, y por tanto que las respuestas covariarán
(estarán relacionadas) porque subyace a las respuestas una capacidad
común.

Nosotros vamos a realizar como ejemplo una factorización de una escala


muy conocida en psicología, la escala de autoestima de Rosenberg, que se
diseñó para medir un solo factor de autoestima global en población general.
Presenta 10 items o preguntas de respuesta tipo Likert de cinco anclajes.

-98-
En nuestro caso disponemos de una muestra de más de seiscientos
adolescentes que contestan al cuestionario.

6.1. PASOS PREVIOS AL ANÁLISIS FACTORIAL

Existen requisitos previos a un análisis de varianza. Uno de ellos tiene que


ver con el tamaño de muestra necesario para realizarlo. Se aconseja no
menos de 10 participantes por cada variable observable que se quiera
factorizar. Adicionalmente hay un requisito de escala de medida, en
principio el análisis factorial debe realizarse sobre variables observables
cuantitativas, o al menos semi-cuantitativas con un número razonable de
categorías de respuesta.

En cualquier caso, y a nivel estadístico, existe el requisito previo de


variables correlacionadas. Como se asume que las variables están altamente
correlacionadas entre sí, ya que de otra forma no pueden tener nada en
común, el primer paso para hacer un análisis factorial es comprobar que
efectivamente esa es la situación. Tiene, por tanto, que ponerse a prueba,
previo al análisis factorial que los datos son susceptibles de ser
factorizados.

Las pruebas más utilizadas para evaluar si unas determinadas variables son
adecuadas para ser factorizadas, para aplicarles un análisis factorial son la
prueba de esfericidad de Bartlett y la medida de adecuación muestral de
Kaiser-Meyer-Olkin (KMO). Ambas pueden obtenerse en SPSS. Para
obtenerlas en SPSS hay que entrar en analizar, dentro de este menú en
reducción de datos y análisis factorial. En la ventana que se abre en el
botón de descriptivos están ambas opciones (Bartlett y KMO) y son
seleccionables.

-99-
Los resultados de ambas pruebas, para la factorización de las 10 variables
del cuestionario de Rosenberg, se pueden ver en las siguiente tabla extraída
de SPSS.

-100-
KMO y prueba de Bartlett
Medida de adecuación muestral de
Kaiser-Meyer-Olkin. ,856

Prueba de esfericidad Chi-cuadrado


1873,479
de Bartlett aproximado
gl 45
Sig. ,000

En el caso de la medida de KMO se espera que los valores sean elevados


para que se acepte que las variables son factorizables. Kaiser (1974)
plantea la siguiente escala para interpretar los resultados de índice KMO:

• Próximas a 0.9 valores “maravillosos”

• Cercanas a 0.8 “meritorios”

• A 0.7 como “medianas”

• En torno a 0.6 son “mediocres”

• Y 0.5 o menores “inaceptables”

En el caso de la prueba de esfericidad de Bartlett, el estadístico se


distribuye aproximadamente como una chi-cuadrado, y si su resultado
resulta estadísticamente significativo para un determinado valor de alfa se
considera que puede realizarse el análisis factorial.

Para nuestros casos, el valor de KMO es de 0.856, lo que sitúa nuestra


“evaluación” de los datos como entre meritorios y maravillosos para
realizar un análisis factorial, y el valor de la prueba de esfericidad de
Bartlett es estadísticamente significativo (p< 0.05), lo que también indica
que las 10 preguntas del cuestionario de Rosenberg son factorizables.

-101-
6.2. TIPOS DE ANÁLISIS FACTORIAL

Existen diversos tipos de análisis factorial. Una primera división divide el


análisis factorial en exploratorio frente a confirmatorio. El último de ellos
no se realiza en la aplicación SPSS, por lo que no lo trataremos, nos
centraremos en análisis factorial exploratorio. No obstante, y como breve
descripción de ambos, mientras en el caso del análisis factorial
confirmatorio se parte de una idea teórica de cómo se estructuran las
variables, y a partir de esto se pone a prueba si es cierto o no para los datos
observados, en el caso del exploratorio es al contrario, sin tener una idea a
priori se pide a los datos que nos “muestren” su estructura.

Una vez dentro de análisis factorial exploratorio existe una diversidad de


técnicas ligeramente diferentes, en función de qué métodos se escojan para
extraer los factores o componentes comunes a las variables. Tres de entre
los principales métodos para extraer factores o componentes son:
componentes principales, máxima verosimilitud y método alfa. Todos ellos
están montados en SPSS, en reducción de datos análisis factorial. El
defecto del programa es obtener un análisis de componentes principales,
como puede verse en el siguiente pantallazo del programa. Nos
centraremos en este tipo de extracción por diversos motivos:

Con suficientes variables y sujetos suele ofrecer resultados similares


a los otros métodos,

Es matemáticamente más simple

No presenta el problema de indeterminación de la escala

Es el más empleado

-102-
6.3. ¿CUÁNTOS COMPONENTES RETENEMOS?

Por defecto el análisis de componentes principales calcula tantos


componentes como variables observables hay, porque así explica el 100%
de la varianza. No obstante esto no presenta lógica, porque precisamente se
realiza el análisis para reducir el número de variables originales a un
número menor que tengan mayor peso teórico. Así pues, es necesario tener
algunos criterios para saber dónde cortar y decidir que las 10 variables
originales quedarán razonablemente representadas en p componentes.
Existen diversos criterios, todos ellos parcialmente subjetivos y que no
pueden aplicarse a ciegas, sino en cuidadosa interacción con la teoría, para
que el resultado tenga sentido.

De entre los criterios más utilizados tenemos:

-103-
1. Escoger solamente componentes que tengan valores propios mayores
que uno. Esto es tanto como decir que no se aceptarán componentes
salvo que sean, a menos, igual de importantes que una variable
observable. Este criterio, propuesto por Kaiser se conoce como criterio
de Kaiser.

2. El gráfico de sedimentación. Básicamente ordena en un gráfico los


componentes en función de cuánta varianza explican y donde se
produce un salto abrupto dejan de cogerse componentes adicionales a
los más explicativos. También se conoce como Scree-test de Cattell.

3. Un test estadístico propuesto por Lawley, bastante afectado por el


tamaño muestral.

4. Retener componentes hasta que se explique un porcentaje dado de la


varianza (típicamente en torno a un 70%).

De todos estos métodos es la combinación de los dos primeros la que


ofrece mejores resultados a nivel práctico, siempre buscando que la
interpretación de los factores retenidos y los no retenidos se sostenga
teóricamente.

Para pedirle a SPSS el gráfico de sedimentación y autovalores mayores de


1 hay que seleccionar lo oportuno en la ventana de extracción de análisis
factorial en el SPSS, cuya forma se presenta, con las oportunas
especificaciones debajo.

-104-
6.4. ROTACIONES

Los factores o componentes resumen un número elevado de variables en


unos pocos componentes, pero a menudo éstos componentes son difíciles
de explicar, resulta difícil interpretar lo que representan, ya que mezclan
muchas aportaciones diferentes. Las rotaciones, que presentan aspectos
técnicos en los que no entraremos, sirven para hacer más fácilmente
interpretables los factores o componentes, y las hay de dos tipos:

• Ortogonales: Los factores resultantes tras la rotación


son independientes entre sí.

• Oblícuas: Los factores resultantes pueden correlacionar


entre sí.

De entre las rotaciones ortogonales las más utilizadas son la quartimax y la


varimax, y ésta última es la que SPSS realiza por defecto. Cuando se quiere
resumir las variables observables de forma que los factores resultantes no
se solapen, por ejemplo al predecir un criterio, las rotaciones ortogonales
son adecuadas. Cuando, por contra se sospecha que los factores puede
guardar relaciones entre sí, como al buscar factores en un cuestionario de
un constructo, conviene realizar rotaciones oblícuas, de entre las que

-105-
oblimin es una opción razonable en SPSS. Cuando se realiza una rotación
oblicua, para interpretar los factores se debe mirar dos matrices, la matriz
patrón y la matriz de estructura. La primera dice la relación de la variable
con el factor controlando por el resto de variables observables, la segunda
es simplemente la saturación factorial, o sea, la correlación del factor y la
variable.

6.5. ¿QUÉ SATURACIONES INTERPRETAR?

Solamente las variables observables quee saturan (se relacionan) de forma


elevada con el componente sirven para definirlo, en otras palabras, pesan
mucho más en la interpretación. Por ello, hay que poner ciertos límites a
qué saturaciones considerar como representativas del factor. Hay ciertas
reglas evidentes:

• Que sean estadísticamente significativos. El error


estándar es 1/ N − 1
• Que los sean al 0.01, no al 0.05 por la capitalización del
azar
• Que tengan valores absolutos iguales o superiores a 0.4

6.6. EJEMPLO INTEGRADOR

Realizaremos un análisis factorial sobre los 10 items del cuestionario de


Rosenberg, que se supone unifactorial. Realizaremos un análisis de
componentes principales con rotación varimax, pidiendo que extraiga los
factores con valores propios mayores de 1. Adicionalmente en opciones
pediremos que no nos muestre las saturaciones que sean menores de 0.10,
mediante la orden que aparece en el siguiente pantallazo:

-106-
Los resultados del análisis factorial se presentan en una serie de tablas. La
primera de éstas nos ofrece el porcentaje de varianza explicada de cada uno
de los componentes retenidos, antes y después de la rotación. En este caso,
como en todos, el primer componente es el que más explica. Especialmente
antes de la rotación es cuatro veces más importante que el segundo.

Varianza total explicada

Sumas de las saturaciones al cuadrado Suma de las saturaciones al cuadrado


Autovalores iniciales de la extracción de la rotación
% de la % de la % de la
Componente Total varianza % acumulado Total varianza % acumulado Total varianza % acumulado
1 4,002 40,018 40,018 4,002 40,018 40,018 3,069 30,691 30,691
2 1,193 11,933 51,950 1,193 11,933 51,950 2,126 21,260 51,950
3 ,861 8,612 60,563
4 ,817 8,172 68,734
5 ,760 7,604 76,338
6 ,614 6,142 82,480
7 ,569 5,690 88,171
8 ,498 4,982 93,153
9 ,445 4,447 97,600
10 ,240 2,400 100,000
Método de extracción: Análisis de Componentes principales.

El gráfico de sedimentación nos ofrece alguna duda sobre que la solución


de dos componentes sea la mejor, ya que parece que el factor más
importante es el primero:

-107-
Gráfico de sedimentación

3
Autovalor

1 2 3 4 5 6 7 8 9 10
Número de componente

La siguiente tabla muestra las saturaciones factoriales, que nos permitirían


interpretar los componentes. La mayor parte de los ítems del cuestionario
saturan de forma elevada solamente en uno de los componentes, pero hay al
menos tres ítems que claramente saturan elevado en ambos componentes.

-108-
Matriz de componentes rotadosa

Componente
1 2
ros1 ,665
ros2 ,741
ros3 ,502 ,545
ros4 ,280 ,614
ros5 ,475 ,152
ros6 ,531 ,465
ros7 ,571 ,432
ros8 ,730
ros9 ,824 ,110
ros10 ,830 ,138
Método de extracción: Análisis de componentes principales.

Método de rotación: Normalización Varimax con Kaiser.


a. La rotación ha convergido en 3 iteraciones.

A la vista de lo anterior hemos optado por realizar un nuevo análisis de


componentes principales pero forzando a que se extraiga un solo
componente, con lo que no es necesaria la rotación. Los resultados de este
nuevo análisis, que pueden verse en las tablas a continuación muestran que
aunque el porcentaje de varianza explicado es relativamente bajo, todos los
ítems, quizá con la excepción del primero, saturan de forma elevada en un
único componente, que dada la teoría y resultados previos de Rosenberg
interpretamos como autoestima global.

-109-
Varianza total explicada

Sumas de las saturaciones al cuadrado


Autovalores iniciales de la extracción
% de la % de la
Componente Total varianza % acumulado Total varianza % acumulado
1 4,002 40,018 40,018 4,002 40,018 40,018
2 1,193 11,933 51,950
3 ,861 8,612 60,563
4 ,817 8,172 68,734
5 ,760 7,604 76,338
6 ,614 6,142 82,480
7 ,569 5,690 88,171
8 ,498 4,982 93,153
9 ,445 4,447 97,600
10 ,240 2,400 100,000
Método de extracción: Análisis de Componentes principales.

Matriz de componentesa

Compone
nte
1
ros1 ,394
ros2 ,492
ros3 ,724
ros4 ,583
ros5 ,476
ros6 ,702
ros7 ,715
ros8 ,626
ros9 ,736
ros10 ,757
Método de extracción: Análisis de componentes principales.
a. 1 componentes extraídos

-110-
-111-

Вам также может понравиться