Академический Документы
Профессиональный Документы
Культура Документы
Como ya aclaramos en el tema anterior la COLINEALIDAD con un ser un requisitos (supuesto) esencial en la
regresión hay que entendarla y no tomarlo como un todo a nada. La realidad no es siempre tal cual la
matemática exige y, de hecho, en neustro caso la mayoria de las veces las variable predicoras estan
realcionadas entre si, sin que ello suponga necesariamente que haya que rechazar el modelo, más bien lo que
hay que hacer es estudiar a fondo, y desde nuestro contexto teórico que es lo que esta ocurriendo.
Lo primero cuando hay colinealidad lo que ocurre es que R2 es significativo (el modelo tiene capacidad
explicativa) pero las t correspondientes a la b no lo son, o alguna presenta un signo absolutamente disparatado
en relación a lo esperado. Esto ocurre por que el determiannate de la matriz de correlaciones es cero o muy
próximo a cero.
Cuando el determínante es nulo quiere decir que la correlación entre las variables es 1 (o sea que son la misma
medida con dos procedimientos diferentes y las hemos especificado mal). La solución en este caso es simple,
eliminamos una de las dos, aquella que teóricamente sea más débil. En los otros casos (el valor del determínate
es pequeño pero suficiente para resolver el sistema de ecuaciones, (el ordenador es capaz de todo), pero lo
estimadores (b) son muy inestables) ya que la estimación por MCO (mínimos cuadrados ordinarios) no funciona
bien. hay otros procedimientos de estimación que pueden encajar más o menso pero tampoco son infalibles y no
están implementados generalmente).
1.- Estudiar los coeficientes de correlación simple o correlaciones de orden 0 (los de la matriz de correlaciones).
-2-
2.- Analizar el valor del determínate de la matriz de correlaciones: si es 0 hay multicolinealidad perfecta; si es 1
ausencia total. Este procedimientos es mejor ya que contempla la correlación conjunta (múltiple) y no dos a dos
como el método 1.
3.- Estudiar el coeficiente de determinación de las regresiones en las que figura como VD cada una de las
iniciales VI. En otras palabras el coeficiente de correlaciçon parcial de cada variable dependiente y su
cuadrado que se llama coeficiente de determinanción parcial e indica la varianza explicada por unicamente esa
variables (ya que están controladas las otras). Sí R2 es elevado hay multicolinealidad. Para resolverla y decidir
que variables se eliminan hay que estudiar los diferentes modelos de regresión eliminando cada vez una V.I. Si
R2 no cambia sustancialmente al eliminar esa V.I. indica que la aportación de esa variable a la explicación ya
esta contemplada por otra u otras en el modelos. (Idea que subyace a la Tolerancia que se defina T= 1- Rp 2 ).
5.- Calcular el FIV de cada V.I,, cuando FIV > 5 eso implica que la R2 de esa variables es <.8 supone problemas
de colinealidad;.
SOLUCIONES
1.- Si el modelo se emplea son fines predictivos (como la multicolinealida detectada se da también a l nivel
poblacional) no pasa nada. Esto es se puede quedar el modelo como esta sin hacer nada para evitarla (eso si de
debe advertir en el informe o esta justificación u otra mejor con cita del autor para evitar problemas).
Si el modelo es con fines explicativos (es decir queremos analizar el significado de cambio implícito en la
relación modelizada, cambio en Y por cada unidad de cambio en X) es vital evitar la colinealidad.
Aumentar el tamaño maestral o imponer restricciones a los parámetros (difícil y complicado tanto por gastos
como por qué las restricciones deben tener una base teórica y normalmente el investigador no es capaz de
tenerlo claro).
Reespecificar el modelo:
a.- Eliminar V.I: (cuidando de que R2 no cambie demasiado) Equivale a estudiar la Tolerancia.
Todo lo anterior es cierto pero, en cierto sentido, nos aleja de la realidad, es decir, lo normal es que entre las
variable predictoras existan relaciones y no por ello multicolinealidad, la multicolinealidad es un problema
serío cuando supone redundancia, pero entes de decidir sobre abandonar el modelo teórico propuesto en la
regresión o mantenerlo es absolutamente imprescindible estudiar a fondo “EL AJUSTE DEL MODELO A LOS
DATOS”.
Esto nos lleva a plantear este tema, poco tratado en los manuales al uso. Vamos a revisar aquí diversas
cuestiones relativas a:
Coeficiente de determinación y los coeficientes semiparciales que son la base para el estudio de los PATRONES
DE ASOCIACIÓN ENTRE VARIABLES DEL MODELO. Estos patrones son: Independecia; Redundancia
(ayuda a comprender la multicolinealidad y a la valorarla); Supresión. Este tipo de patrones se fundamentan
en las relaciones entre las variables,
Además de estas realciones es importante estudiar también otro tipo de combinaciones que pueden
presentarse entre las variables implicadas en el modelo, se trata de estudiar los efectos de una tercera (o más)
variables en la realicón ente la V.I. y una V.D., estos efectos se conocen como MEDIACIÓN Y MODERACIÓN y
son de gran importancia en el contexto de las Ciencias Sociales y en Salud.
A todas esta cuestiones y a su análisis con el SPSS dedicaremos las páginas siguientes.
Sus valores oscilan entre 0 y 1, por tanto, cuanto más se acerque a uno, mayor relación de las variables
independientes, en conjunto, con la variable dependiente.
-4-
Sin embargo, para poder hablar en términos de varianza explicada, debemos recurrir al cuadrado del
coeficiente de correlación, llamado coeficiente de determinación, R2, que no es otra cosa que la proporción de
varianza de la variable dependiente explicada por el conjunto de las variables independientes:
R 2 R 2Y12
Sus valores también se encuentran en el rango 0 y 1 y, multiplicado por cien, nos permite hablar en
términos de porcentaje:
K 1 R2
El coeficiente de alienación es lo que habitualmente se llama la varianza de error, ya que se trata del
error que cometemos en la explicación y predicción. A su vez, multiplicado por cien, nos hablaría del porcentaje
de varianza de error o no explicada por las variables independientes.
En la Figura 1 podemos ver los conceptos que acabamos de presentar. La varianza de la variable
dependiente viene representada por el círculo Y y cada una de las variables predictoras son 1 y 2. En las áreas
de los círculos, los coeficientes son:
R 2 ≠rY21 + rY2 2
rY1 - rY 2 r12 Como en casos anteriores, multiplicados por cien, nos indicarían el porcentaje de varianza que explican o
pr1 =
(
1 - rY2 2 )( 2
1 - r12 ) aportan cada uno de ellas.
Veamos el siguiente ejemplo. Queremos tratar de explicar el consumismo patológico de un grupo de
De nuevo, si elevamos al cuadrado la pacientes. De las variables que creemos importantes en esta enfermedad (falta de control, necesidad de
fórmula anterior, hablaremos en aceptación y estima, horas de televisión, adicción a Internet, ingresos, edad, etc.) seleccionamos sólo dos
términos de varianza explicada.
predictoras: la necesidad de aceptación y estima (X1) y la edad (X2). Los datos que tenemos son:
Además, también podemos obtenerlo
a partir de la siguiente expresión: ry21 = 0,65 ry22 = 0,35 2
r12 = 0,35
R2 - rY2 2 sr12
pr12 = = Z y' = 0,601 Z 1 + 0,139 Z 2
1 - rY2 2 1 - rY2 2
En nuestra opinión, para la La ecuación en puntuaciones típicas nos dice que la variable predictora necesidad de aceptación y
explicación y predicción de una estima tiene más peso al explicar el consumismo que la edad.
variable, lo interesante es saber qué
A partir de los coeficientes de correlación de orden cero, podemos comprobar que:
aporta por sí sola cada una de las
predictoras, lo que viene determinado
por su semiparcial, dejando el ry1 = 0,65 → ry21 = 0,652 = 0,4225
fenómeno de interés tal cual se nos
presenta en la naturaleza. Restarle
varianza de otras variables ry2 = 0,35 → ry22 = 0,352 = 0,1225
independientes para determinar su
relación pura con una de ellas de poco Es decir, si hubiésemos estudiado el consumismo teniendo en cuenta sólo la necesidad de aceptación y
nos sirve, ni analíticamente, ni desde estima, esta variable explicaría un 42,25 por ciento de la conducta, quedando el 57,75 por ciento sin explicar.
un punto de vista de la predicción. Por su parte, si sólo hubiésemos estudiado la edad, el error que se cometería en los pronósticos cuando
aplicásemos la ecuación de regresión se elevaría al 87,75 por ciento (100 – 12,25). En cambio, esta situación
Ajuste del modelo a los datos - 7 -
mejora cuando estudiamos las variables conjuntamente. Así, el coeficiente de correlación múltiple y su
cuadrado, el coeficiente de determinación, son iguales a:
Nos indican que el 43,9 por ciento del consumismo se puede explicar mediante la combinación de las dos
variables predictoras. Sin embargo, aunque la situación ha mejorado, no es mucho puesto que aún queda
bastante varianza sin explicar. Efectivamente, al calcular el coeficiente de alineación nos encontramos con un
valor que se eleva al 56,1 por ciento:
K = 1 - R 2 = 1 - 0,6632 = 0,561
Lo que nos interesa en este momento es determinar el aporte específico de cada variable. Esto lo
realizamos con los coeficientes de correlación semiparciales al cuadrado para cada una de las variables Obsérvese la suma de los
predictoras: coeficientes semiparciales:
0,3165 + 0,0165 = 0,333
sr12 = R 2 - rY2 2 = 0,439 - 0,352 = 0,3165 → 31,65%
No es igual al coeficiente de
determinación múltiple: 0,439.
sr22 = R 2 - rY21 = 0,439 - 0,652 = 0,0165 → 1,65%
Si nos fijamos en la expresión del estadístico de contraste para el coeficiente de determinación múltiple,
en realidad comprobamos si la varianza ponderada que explican las variables independientes en conjunto es
significativamente mayor que la no explicada, que el error que cometemos en la predicción, también ponderada.
Cabe decir que la significación de Además, dado que el coeficiente de determinación obtenido en la muestra está sesgado, suele ajustarse para
cada uno de estos estadísticos obtener una estimación más real. Se denomina coeficiente de determinación ajustado:
implica la significación de sus
correspondientes coeficientes de
regresión (y parciales), y
R̂ 2 1 - 1 - R 2 n -1
n - k - 1
viceversa (mírense la similitud
de las fórmulas de obtención).
Con respecto a los semiparciales, de forma similar al contraste anterior, comprueban si la proporción de
varianza que explica cada variable predictora es significativamente mayor que la que deja de explicar.
Además de la explicación conjunta de las variables independientes y de su aporte específico, siempre que
trabajemos con una variable criterio y más de una predictora conviene explorar las relaciones que existen entre
Ajuste del modelo a los datos - 9 -
todas ellas para poder interpretar adecuadamente los coeficientes de regresión y tomar decisiones. En los
siguientes apartados veremos con más detenimiento a qué nos referimos.
a. Independencia
Se trata de una situación muy simple, en la que la variable dependiente se correlaciona con cada una de las
independientes, pero entre éstas no existe relación. De este modo, la suma de los coeficientes de determinación
de orden cero coincide con la de los semiparciales y, a su vez, con el coeficiente de determinación múltiple. Esto
quiere decir que cada variable predictora contribuye de forma independiente al coeficiente de determinación
(véase Figura 2).
Por lo tanto:
Además, los coeficientes de regresión, los semiparciales y los de orden cero, para cada variable, serán
iguales:
β1 = srY1 = rY1
β 2 = srY 2 = rY 2
Se trata de un escenario entre las variables muy básico y que no veremos en la realidad cuando llevemos
a cabo una investigación, entre otras cosas, porque las variables, en la medida en que presentan variabilidad,
mantienen siempre una correlación. No obstante, lo hemos presentado porque nos sirve como modelo de
referencia para los demás patrones de asociación.
b. Redundancia
Éste constituye el caso más frecuente y ocurre cuando existe una relación entre todas las variables implicadas
en el modelo de regresión y todas ellas son mayores que cero. Como se observa en la Figura 3, la intersección de
de los diagramas de Euler correspondientes a X1, X2 e Y es precisamente la parte de Y que explican ambas
predictoras de forma redundante. Como resultado, los semiparciales y los coeficientes de regresión son menores
que sus respectivos coeficientes de determinación de orden cero y su suma menor que el coeficiente de
determinación múltiple:
Un ejemplo: Queremos explicar el trastorno obsesivo compulsivo (TOC) en adolescentes a partir de las
obsesiones (pensamientos intrusivos recurrentes y que generan ansiedad) y de las compulsiones (acciones
mentales o conductas repetitivas, realizadas con el fin de neutralizar la ansiedad producida por la aparición de
las obsesiones). Aunque el TOC se caracteriza también por otras variables, como su inicio en edades
tempranas, un curso crónico y una comorbilidad significativa, vamos a utilizar las dos primeras independientes
para ilustrar este patrón. Tras medir todas las variables encontramos los siguientes resultados:
Por tanto,
Podemos comprobar que nos hallamos ante un caso de redundancia al explicar el TOC a partir de las
obsesiones y de las compulsiones debido a la varianza que ambas comparten:
- 12 -
Un caso especial de redundancia (Figura 5) ocurre cuando la varianza de la variable criterio que explica
una de las variables predictoras, por ejemplo X2, ya lo está por la otra, siendo su aportación nula a la ecuación
de regresión (y no aparece en la ecuación):
De hecho:
Ajuste del modelo a los datos - 13 -
sr 22 R 2 - s 2Y1 0 sr2
y β2 0
2
1 r12
En definitiva, para este caso especial de redundancia, el patrón de asociación queda como sigue:
c. Supresión
En este patrón, al contrario de lo que sucedía anteriormente, el coeficiente de determinación múltiple será
mayor que la suma de los coeficientes de determinación de orden cero. Esto ocurre porque las variables
predictoras suprimen varianza irrelevante de la variable dependiente y aumentan su poder explicativo. Se
distinguen tres casos: la supresión clásica, supresión neta y la supresión cooperativa
- 14 -
Partimos de una relación de Y con X1 mayor que cero y una relación con X2 nula, aunque las dos predictoras sí
están relacionadas. Pues bien, si tenemos en cuenta a X2 a la hora de construir el modelo, resulta que actuará
eliminando de X1 la varianza irrelevante para explicar Y, reduciendo así, por tanto, los errores de predicción
(Figura 6).
En efecto:
2
r -r r rY21
sr12 Y1 Y 2 12 2
2
1 - r12 1 - r12
Ajuste del modelo a los datos - 15 -
2
Por tanto, puesto que 1 - r12
1:
¿Por qué sucede que la inclusión de la variable X2 mejora la predicción de Y? Si nos fijamos en la
Figura 6, vemos que esta variable suprime parte del error de X1 (la intersección entre X1 y X2). En
consecuencia, no predecimos con las puntuaciones netas de Y, sino con una transformación de las mismas,
resultado de eliminar la parte de X1 que correlaciona con X2. Matemáticamente, tenemos entonces que:
donde rY2 (1.2) es el coeficiente de determinación entre Y y los residuales (X1 – X1.2) y su valor es mayor con
respecto a rY21. eliminando de X1 la varianza irrelevante debida a X2.
Veamos el siguiente ejemplo. Supongamos que hemos medido la aptitud espacial y deseamos averiguar si
puede ser explicada a partir de las puntuaciones en un test sobre destreza manual (X1) y una prueba de
velocidad de lectura (X2). Las relaciones entre las variables son:
Al ver que X2 no tiene relación con Y, podríamos plantearnos un modelo de regresión simple con la
variable X1 y, en este caso, el coeficiente de determinación R .2 = rY21 = 0,14 . Si incluimos la variable X2, resulta
- 16 -
que asciende hasta R .2 = 0,18 (mayor que rY21 = 0,14 ). De hecho, sr22 = 0,04 y β 2 0,21 . En otras palabras,
tener en cuenta la velocidad de lectura aumenta el poder predictivo de la destreza manual para explicar la
aptitud espacial, tal y como podemos ver en el patrón:
Por otro lado, también es cierto que, en la realidad, el caso de la supresión clásica no es lo habitual. Lo normal
es que entre X2 e Y exista algo de relación, por pequeña que sea (Figura 7). Por lo tanto, partimos de
correlaciones positivas entre todas las variables. Sin embargo, si bien X2 tiene una relación positiva con Y, su
coeficiente de regresión es negativo, siendo su cometido, más que explicar Y, el de suprimir varianza de error de
X1. De hecho, como se ve en la Figura 6, tiene más que ver con X1 que con Y (véanse las zonas de intersección).
Analíticamente:
Se trata de la situación más favorable: las variables independientes suprimen cooperativamente una parte
de la varianza de la otra que no está relacionada con la variable dependiente, con lo que cada variable
explica una mayor proporción de la varianza de Y en presencia de la otra que la que explicaría si se
predijese con ella sola. En este caso, partimos de una relación negativa entre las predictoras:
En resumen, podemos decir que en los patrones de supresión, cada predictor es más útil en presencia del
otro que por sí mismo, aumentando su poder explicativo.
momento nos vamos a referir a los posibles efectos de una tercera variable en la relación entre una
independiente y otra dependiente conocidos como mediación y moderación.
Mediadoras y moderadoras son variables intervinientes en la relación de la dependiente y la
independiente. En el primer caso, una tercera variable, la mediadora, actúa entre las dos, mientras que, en el
segundo, dos variables, la independiente y la moderadora, que se encuentran al mismo nivel, influyen sobre la
dependiente. El investigador aplicado debe analizar el posible efecto de variables mediadoras cuando la
relación entre la variable dependiente e independiente es inesperadamente débil o inconsistente (justo al revés
de lo que ocurría en el patrón de supresión); por el contrario, cuando existe una fuerte relación entre la variable
independiente y dependiente y no puede explicar por qué sucede así, entonces debe plantearse un análisis de
moderadoras (esta situación nos recordará al efecto de interacción del ANOVA de dos factores). Baron y Kenny
(1986) añaden que las investigaciones sobre mediadoras se centran más en los mecanismos de acción que en la
variable independiente en sí misma, mientras que, en el caso de moderación, el interés está en la variable
independiente per se.
regresión múltiple para estudiarlas. Dedicamos las siguientes páginas a estudiar más detenidamente estos
efectos.
a. Efecto de mediación
La mediación hace referencia a la influencia indirecta que una variable independiente ejerce sobre una
dependiente. Las variables mediadoras operan durante el período de actuación de las variables dependiente e
independiente, explicando el cómo y por qué se da la relación entre esas dos variables. El análisis de variables
mediadoras nos permite identificar los mecanismos de acción a través de los cuales un tratamiento, por
ejemplo, logra sus efectos. Imaginemos que estamos utilizando un programa de intervención con una
psicoterapia y una farmacoterapia. Saber aquí cuáles son los mecanismos de cambio a través de un análisis de
las mediadoras nos permitirá crear programas de tratamiento combinados más eficaces. Veamos cómo puede
ser la mediación.
Frente al modelo de mediación
En la Figura 9 observamos, en los tres cuadrantes, que c da cuenta del efecto de X sobre Y. Si no existiese
simple, que es el que vemos con
la influencia de una tercera variable (primer cuadrante), c tendría el mismo valor en todos los casos. Sin más detenimiento, cuando son
embargo, cuando la mediadora actúa entre la variable dependiente e independiente, pueden suceder dos cosas: más las variables implicadas, nos
que la mediación sea completa o que sea parcial. Si nos fijamos en la Figura 9, la mediación completa sucede encontramos ante un modelo de
cuando, teniendo en cuenta X y M en la ecuación de regresión, X no tiene ningún efecto sobre Y, por eso, c es mediación múltiple y suele
igual a cero (no es relevante). En cambio, si efectuando el mismo control de ambas variables X y M, c es distinto recurrirse al análisis de
de cero (sí es relevante), entonces la mediación es parcial, pero su magnitud es menor que en el caso de no ecuaciones estructurales, como en
tener en cuenta a la mediadora. el siguiente ejemplo:
M
Figura 9. Mediación simple total y parcial
a b
d e
H
- 20 -
Para analizar si M es un mediador Baron y Kenny (1986) proponen los siguientes pasos:
Los cuatro pasos son conocidos 1. Comprobar que X correlaciona con Y mediante una ecuación de regresión simple, donde Y es la
como el procedimiento B-K,
variable dependiente:
propuesto por Baron y Kenny
(1986). Aunque se puede analizar
la mediación mediante otros Y = B 0 + cX
métodos (prueba de efectos
indirectos, bootstrap, etc.), éste es 2. Comprobar que X correlaciona con M mediante una ecuación de regresión simple, donde M es la
sin duda el más utilizado; tanto variable dependiente:
es así, que su publicación ha
constituido el artículo más citado M = B 0 + aX
en la historia del Journal of
Personality and Social Psychology 3. Comprobar que M correlaciona con Y mediante una ecuación de regresión múltiple, donde Y es la
(Ato y Vallejo, 2011). variable dependiente y X y M las independientes:
Y = B0 + cX + bM
En los pasos anteriores, no debemos olvidar que hemos propuesto un análisis para el caso más simple, en
el que sólo hemos analizado el efecto de una sola variable moderadora. Puede ocurrir que, además de existir
más de una (la realidad es más compleja), no necesariamente el efecto sea lineal. Por otro lado, aunque en los
manuales se presentan estos pasos en los que las decisiones se toman en función de la significación estadística,
no olvidemos que es la relevancia clínica (el tamaño del efecto) y no la significación la que debe dirigir esas
decisiones.
Además del método propuesto, para el análisis de mediadoras, hay otras alternativas (más detalle en Ato
y Vallejo, 2011):
La prueba del efecto indirecto, con la que se puede obtener un intervalo de confianza en torno al
efecto indirecto:
Ajuste del modelo a los datos - 21 -
Sin embargo, los límites del intervalo son imprecisos y, además, el efecto indirecto a x b no
necesariamente debe seguir una distribución normal aunque a y b sí lo hagan.
Como ejemplo de este análisis presentamos la investigación realizada por Quiles y cols. (2006) en la que
estudiaron algunas de las variables que intervienen en las tensiones que surgen en situaciones intergrupales.
Concretamente, analizaron el efecto mediador de las variables actitud de los inmigrantes hacia los autóctonos
(primer cuadrante de la Figura 10) y sentimientos de paranoia (segundo cuadrante de la Figura 10) en la
relación entre percepción de las diferencias (variable independiente) y la ansiedad intergrupal (variable
dependiente). En la figura 10 se puede observar que el efecto de la percepción de las diferencias sobre la
ansiedad intergrupo (c = 0,37) se reduce en presencia de las mediadoras (c = 0,18).
b. Efecto de moderación
A diferencia del estudio de variables mediadoras, analizar las moderadoras nos posibilita identificar, por
ejemplo, qué pacientes responderán mejor a un tratamiento y para cuales sería mejor otro, de modo que
podríamos asociar variables, como tipo de terapeuta, tipo de tratamiento, sexo, etc., para una intervención más
exitosa. Démonos cuenta de que las variables moderadoras siempre funcionan como variables independientes,
se encuentran a su mismo nivel (véase la figura 11), lo que no ocurría en la mediación, en la que la mediadora
se situaba entre la variable independiente y dependiente (véase la figura 9).
Una variable moderadora es una variable cualitativa o cuantitativa que afecta a la magnitud y/o sentido
de una relación entre una variable independiente y una variable dependiente. Las variables moderadoras
intervienen de forma previa a la actuación entre esas variables, explicando en qué sujetos y en qué condiciones
tendrá lugar la relación entre la dependiente y la independiente. Por ello, a los efectos moderadores también
suele llamarse efectos de interacción.
También aquí podemos diferenciar entre una moderación completa y parcial. En el primer caso, el efecto
de la variable independiente X queda reducido a cero en presencia del moderador M (véase primer cuadrante de
la Figura 12); en cambio, en la moderación parcial, aunque se reduce el efecto de X, éste no desaparece
(segundo cuadrante de la Figura 12).
Ajuste del modelo a los datos - 23 -
X a=0 X a0
Y Y
M M
b b
El estudio de la influencia de una variable moderadora, cuando X y M son cualitativas, no es más que un
análisis de interacción tal y como se hace en el marco del ANOVA de dos factores. Dado que M puede ser
cualitativa o cuantitativa, realmente los efectos de interacción en el ANOVA constituyen un caso particular de
la moderación con variables cualitativas. Así, decimos que M es un moderador de la relación entre X e Y si su
grado de relación se ve afectado por los niveles de M (se trata de un análisis de efectos simples de X para cada
uno de los niveles de M).
Para otros casos (X cuantitativa y M cualitativa; X cualitativa y M cuantitativa o X y M cuantitativas),
podemos analizar el efecto de moderación mediante un análisis de regresión lineal múltiple, resolviendo una
ecuación en la que se introducen las siguientes variables: X como predictora, M como moderadora y XM como el
producto de ambas variables:
Y = B 0 + aX + bM + cXM
Como ejemplo de moderadoras, nos remitimos al mimo estudio anterior de Quiles y cols. (2006) en el que
además de las mediadoras, estudiaron la percepción de presión para cambiar, la actitud global, la paranoia
social y la percepción de xenofobia para averiguar si moderaban la relación entre la percepción de diferencias
(variable independiente) y la ansiedad intergrupal (variable dependiente). Los resultados se muestran en la
Figura 13, en la aparece un análisis de regresión jerárquico en tres pasos para cada moderador. Los autores
concluyeron que sólo la percepción de presión para el cambio y la percepción de xenofobia podían ser
consideradas moderadoras, ya que la inclusión de los efectos de interacción producía un aumento
estadísticamente significativo de la varianza explicada de la ansiedad intergrupal (7,5 y 5,21, respectivamente).
Además, los autores proponen un modelo hipotético de las variables moderadoras y mediadoras de la
relación entre la percepción de diferencias y la ansiedad intergrupal que sintetiza los resultados de los distintos
análisis realizados (Figura 14).
Ajuste del modelo a los datos - 25 -
M
N
d
a b
c
X Y
Mediación moderada
e
d
5. Análisis en el SPSS N
A continuación vamos a presentar los pasos para analizar las relaciones entre tres variables con el SPSS. En Moderación mediada
primer lugar, expondremos el estudio de los patrones de asociación entre ellas; en segundo, un caso de
mediación y, por último, uno de moderación.
a. Patrones de asociación
Del fichero de datos, nuestra variable dependiente es la Responsabilidad (Y) y como independientes escogemos
Estabilidad emocional (X1) y Sinceridad (X2). Lo primero que vamos a pedir es un análisis de correlaciones
entre las variables (PANTALLA 1). Se nos abre un cuadro de diálogo (PANTALLA 2), en el que las
seleccionamos y pulsamos Aceptar.
- 26 -
PANTALLA 1
Ajuste del modelo a los datos - 27 -
PANTALLA 2
Los resultados se pueden ver en la Tabla 2. La responsabilidad tiene una relación positiva con cada una
de las variables independientes, siendo mayor con la estabilidad emocional ( rY1 = 0,422 ) que con la sinceridad
( rY2 = 0,186 ). Además, la relación entre las predictoras es tan baja ( r12 = 0,092 ), que casi podríamos hablar de
un patrón de independencia. Partimos, por tanto, de las siguiente correlaciones y coeficientes de determinación
parciales:
TABLA 2
Volvemos a nuestra matriz de datos y vamos a pedir un análisis de regresión, tal como se muestra en la
PANTALLA 3.
PANTALLA 3
Ajuste del modelo a los datos - 29 -
Una vez lo hemos seleccionado, indicamos cuáles son las variables dependiente e independientes
(PANTALLA 4). Además, vamos a pedir, en la opción Estadísticos, que nos devuelva los valores de los
coeficientes de regresión, el coeficiente de determinación múltiple y las correlaciones semiparciales
(PANTALLA 5) . Pulsamos Continuar, lo que nos lleva a la PANTALLA 4 y, en ella, Aceptar.
PANTALLA 4
- 30 -
PANTALLA 5
Veamos los resultados más interesantes en las siguienes tablas: en la TABLA 3 aparece el coeficiente de
determinación múltiple como R cuadrado y en la TABLA 4 los coeficientes semiparciales en la columna
Correlaciones semiparciales.
Ajuste del modelo a los datos - 31 -
TABLA 3
TABLA 4
Téngase en cuenta que estos no vienen al cuadrado, por tanto, tenemos que hacer los cálculos a mano
para establecer nuestro patrón de asociación. Así pues, tenemos que:
Diríamos que nos encontramos ante un patrón de redundancia. Ahora bien, la diferencia es muy pequeña
y debemos tener en cuenta dos cuestiones: por un lado, el redondeo en los cálculos y, por otro, la escasa relación
de orden cero entre las dos predictoras. Por lo tanto, bien podríamos hablar de un patrón de independencia.
Por otra parte, si nos centramos exclusivamente en los aportes específicos de las variables predictoras,
podemos darnos cuenta, sin necesidad de hablar de su significación estadística (véase en la TABLA 4 la
columna Sig., en la que comprobamos que ambos son estadísticamente significativos a un nivel de confianza del
95 por ciento), que el aporte de la variable sinceridad es mucho menor que el de la estabilidad emocional.
¿Podríamos plantearnos eliminarla de la ecuación para la predicción de la responsabilidad? La respuesta está,
en primer lugar, en nuestro modelo teórico, que es quien debe determinar la inclusión o no de variables
independientes. Si nos encontráramos en un momento de exploración de las variables, dentro del modelo teórico
propuesto, podríamos decidir llevar a cabo el análisis sólo con la estabilidad emocional. Los resultados se
pueden observar en la TABLA 5. Con las dos variables predictoras, el coeficiente de determinación múltiple
ajustado era igual a 0,191 mientras que ahora es 0,174: justo se reduce el valor del aporte específico de
sinceridad, es decir, su coeficiente semiparcial al cuadrado. Quizás nos hallamos ante un dilema: por una parte,
el aporte específico de sinceridad (0,022) es mucho más bajo que el de estabilidad emocional (0,165), pero, por
otra parte, pensamos que la sinceridad es un predictor que se debe tener en cuenta para explicar y predecir la
responsabilidad. En otras palabras, desde el punto de vista del análisis de datos, sería conveniente eliminarla;
sin embargo, desde una perspectiva investigadora, queremos mantenerla. Pues bien, dado que nos encontramos
aún en una etapa exploratoria y, dado que un único análisis no es suficiente y debemos seguir explorando con
otras muestras y otras situaciones, la decisión correcta sería seguir trabajando con la variable sinceridad, ver
qué obtienen otros investigadores y, solo cuando tengamos un conocimiento realmente cabal de la
responsabilidad, resolver qué hacer con la sinceridad. Además, un aporte, por pequeño que sea, puede resultar
muy importante. Una vez más, advertimos que el análisis de datos nos puede ayudar, pero de ninguna manera
es determinante, ni debe suplantar al sentido común.
TABLA 5
Ajuste del modelo a los datos - 33 -
b. Mediación
En esta ocasión, vamos a poner como ejemplo de mediación la sospecha de que entre Responsabilidad (Y) y
Estabilidad emocional (X), puede estar actuando la variable Extraversión (M). Según el método B-K, debemos
comprobar los siguientes pasos:
Para ello, en la matriz de datos, como ya sabemos, debemos pulsar Analizar – Regresión – Lineal y
selecciónar ambas variables, tal y como se muestra en la PANTALLA 6. Los resultados los podemos ver en la
TABLA 6, extraída del archivo de salida del SPSS. El coeficiente c es igual a 0,397.
PANTALLA 5
- 34 -
TABLA 6
Realizamos la misma operación que en el paso 1, sólo que ahora cambia nuestra variable dependiente
(PANTALLA 7). En el fichero de salida comprobamos que a = 0,342 (véase TABLA 7).
PANTALLA 7
Ajuste del modelo a los datos - 35 -
TABLA 7
De forma similar a los pasos 1 y 2, pedimos un análisis de regresión lineal, solo que ahora introducimos X
y M como variables independientes (PANTALLA 8). Los resultados se muestran en la TABLA 8.
PANTALLA 8
- 36 -
TABLA 8
4. Podemos comprobar que la Extraversión es una mediadora parcial, ya que el efecto de la Estabilidad
emocional se ha reducido con respecto al paso 1: si antes era igual a 0,397 ahora es 0,264.
c. Moderación
Por último, si se tratara de un estudio de moderación entre las variables Responsabilidad (Y) y Sinceridad (X).
con Sexo (M) como moderadora, en primer lugar, debemos centrar X por ser una variable cuantitativa. Para
ello, en la pestaña Transformar, pulsamos Calcular variable y nos aparece una pantalla en la que tenemos
que especificar cómo se va a llamar la nueva variable y cómo se debe calcular (PANTALLA 9). Previamente,
observemos en la misma pantalla que hemos obtenido la media de Sinceridad con el comando Estadísticos
descriptivos. Nuestra variable centrada se llamará csincer y es el resultado de restar a Sinceridad su media.
Debemos tener cuidado: aunque estamos habituados a escribir con coma los decimales, en el SPSS debemos
poner punto. La nueva variable la encontramos en la matriz de datos (PANTALLA 10).
Ajuste del modelo a los datos - 37 -
PANTALLA 9
- 38 -
PANTALLA 10
Ahora debemos crear la variable producto csincer x Sexo, para lo que procedemos de forma similar al paso
anterior (véase PANTALLA 11).
Ajuste del modelo a los datos - 39 -
PANTALLA 11
Una vez tenemos las variables preparadas, podemos estimar los parámetros de la regresión para
comprobar si el Sexo modera la relación entre la Responsabilidad (Y) y la Sinceridad (X). Por lo tanto,
realizaremos un análisis de regresión en el menú Analizar – Regresión lineal, en el que especificaremos
como variable dependiente Responsabilidad y como independientes Sexo, csincer y csincerxsexo. Cuando se
utiliza el modelo de regresión con términos de interacción se recomienda un análisis jerárquico en el que se
introducen la independiente y la moderadora en una primera etapa y la interacción en una segunda. En la
PANTALLA 12 mostramos cómo especificamos, en primer lugar, las variables csincer y sexo como predictoras.
A continuación pulsamos Siguiente y es entonces cuando introducimos la interacción (PANTALLA 13).
- 40 -
PANTALLA 12
PANTALLA 13
Ajuste del modelo a los datos - 41 -
Los resultados se pueden ver en las tablas 9, 10 y 11, en las que comprobamos los dos pasos del modelo
jerárquico (TABLA 9) y el cambio que se produce en la explicación del modelo (TABLA 10). Es en la TABLA 11
en la que constatamos que no hemos encontrado un efecto significativo de la variable moderadora Sexo.
TABLA 9
TABLA 10
- 42 -
TABLA 11
Ajuste del modelo a los datos - 43 -
Ato, M. y Vallejo, G. (2011). Los efectos de terceras variables en la investigación psicológica. Anales de
Psicología, 27 (2), pp. 550-561.
Baron, R.M. y Kenny, D. (1986). The moderador mediator variable distinction in social psychological research:
conceptual, strategic and statistical considerations. Journal of Personality and Social Psychology, 51, pp.
1173-1182.
Smith, L., Ager, W. y Williams, (1992). Suppressor variables in multiple regression/correlation. Educational
and Psychological Measurement, 52, 17-29.
Quiles, M.N., Rodríguez, A., Navas, M., Rodríguez, R., Betancor, V. y Coello, E. (2006). Variables moderadoras
y mediadoras de la relación percepción de diferencias-ansiedad intergrupal. Psichotema, 18 (1), pp.105-
111.
Miles, J. y Sheulin, M. (2001). Applaying Regression & Correlation. London. Sage. ISBN: 0761962298.