Вы находитесь на странице: 1из 43

EL Ajuste del modelo a los datos

Como ya aclaramos en el tema anterior la COLINEALIDAD con un ser un requisitos (supuesto) esencial en la
regresión hay que entendarla y no tomarlo como un todo a nada. La realidad no es siempre tal cual la
matemática exige y, de hecho, en neustro caso la mayoria de las veces las variable predicoras estan
realcionadas entre si, sin que ello suponga necesariamente que haya que rechazar el modelo, más bien lo que
hay que hacer es estudiar a fondo, y desde nuestro contexto teórico que es lo que esta ocurriendo.

Lo primero cuando hay colinealidad lo que ocurre es que R2 es significativo (el modelo tiene capacidad
explicativa) pero las t correspondientes a la b no lo son, o alguna presenta un signo absolutamente disparatado
en relación a lo esperado. Esto ocurre por que el determiannate de la matriz de correlaciones es cero o muy
próximo a cero.

Cuando el determínante es nulo quiere decir que la correlación entre las variables es 1 (o sea que son la misma
medida con dos procedimientos diferentes y las hemos especificado mal). La solución en este caso es simple,
eliminamos una de las dos, aquella que teóricamente sea más débil. En los otros casos (el valor del determínate
es pequeño pero suficiente para resolver el sistema de ecuaciones, (el ordenador es capaz de todo), pero lo
estimadores (b) son muy inestables) ya que la estimación por MCO (mínimos cuadrados ordinarios) no funciona
bien. hay otros procedimientos de estimación que pueden encajar más o menso pero tampoco son infalibles y no
están implementados generalmente).

Para analizar si hay colinealidad hay varios procedimientos:

1.- Estudiar los coeficientes de correlación simple o correlaciones de orden 0 (los de la matriz de correlaciones).
-2-

2.- Analizar el valor del determínate de la matriz de correlaciones: si es 0 hay multicolinealidad perfecta; si es 1
ausencia total. Este procedimientos es mejor ya que contempla la correlación conjunta (múltiple) y no dos a dos
como el método 1.

3.- Estudiar el coeficiente de determinación de las regresiones en las que figura como VD cada una de las
iniciales VI. En otras palabras el coeficiente de correlaciçon parcial de cada variable dependiente y su
cuadrado que se llama coeficiente de determinanción parcial e indica la varianza explicada por unicamente esa
variables (ya que están controladas las otras). Sí R2 es elevado hay multicolinealidad. Para resolverla y decidir
que variables se eliminan hay que estudiar los diferentes modelos de regresión eliminando cada vez una V.I. Si
R2 no cambia sustancialmente al eliminar esa V.I. indica que la aportación de esa variable a la explicación ya
esta contemplada por otra u otras en el modelos. (Idea que subyace a la Tolerancia que se defina T= 1- Rp 2 ).

5.- Calcular el FIV de cada V.I,, cuando FIV > 5 eso implica que la R2 de esa variables es <.8 supone problemas
de colinealidad;.

SOLUCIONES

1.- Si el modelo se emplea son fines predictivos (como la multicolinealida detectada se da también a l nivel
poblacional) no pasa nada. Esto es se puede quedar el modelo como esta sin hacer nada para evitarla (eso si de
debe advertir en el informe o esta justificación u otra mejor con cita del autor para evitar problemas).

Si el modelo es con fines explicativos (es decir queremos analizar el significado de cambio implícito en la
relación modelizada, cambio en Y por cada unidad de cambio en X) es vital evitar la colinealidad.

Las soluciones son:

Aumentar el tamaño maestral o imponer restricciones a los parámetros (difícil y complicado tanto por gastos
como por qué las restricciones deben tener una base teórica y normalmente el investigador no es capaz de
tenerlo claro).

Reespecificar el modelo:

a.- Eliminar V.I: (cuidando de que R2 no cambie demasiado) Equivale a estudiar la Tolerancia.

b .- Transformas las variables. Exige buena fundamentación teórica.

Utilizar el método Ridge de estimación de parámetros en lugar de MCO.


Ajuste del modelo a los datos - 3 -

Todo lo anterior es cierto pero, en cierto sentido, nos aleja de la realidad, es decir, lo normal es que entre las
variable predictoras existan relaciones y no por ello multicolinealidad, la multicolinealidad es un problema
serío cuando supone redundancia, pero entes de decidir sobre abandonar el modelo teórico propuesto en la
regresión o mantenerlo es absolutamente imprescindible estudiar a fondo “EL AJUSTE DEL MODELO A LOS
DATOS”.

Esto nos lleva a plantear este tema, poco tratado en los manuales al uso. Vamos a revisar aquí diversas
cuestiones relativas a:

Coeficiente de determinación y los coeficientes semiparciales que son la base para el estudio de los PATRONES
DE ASOCIACIÓN ENTRE VARIABLES DEL MODELO. Estos patrones son: Independecia; Redundancia
(ayuda a comprender la multicolinealidad y a la valorarla); Supresión. Este tipo de patrones se fundamentan
en las relaciones entre las variables,

Además de estas realciones es importante estudiar también otro tipo de combinaciones que pueden
presentarse entre las variables implicadas en el modelo, se trata de estudiar los efectos de una tercera (o más)
variables en la realicón ente la V.I. y una V.D., estos efectos se conocen como MEDIACIÓN Y MODERACIÓN y
son de gran importancia en el contexto de las Ciencias Sociales y en Salud.

A todas esta cuestiones y a su análisis con el SPSS dedicaremos las páginas siguientes.

1. Coeficiente de determinación y coeficientes semiparciales


En principio podemos plantearnos cuál es la relación entre la variable dependiente y el conjunto de las
variables independientes. Para ello debemos calcular el coeficiente de correlación múltiple, que puede obtenerse
desde los coeficientes de correlación simples, o bien desde los coeficientes de regresión mediante:

rY21  rY2 2 - 2rY1 rY 2 r12


R Y12  2
R Y12  β1 rY1  β 2 rY2
1 - r12

Sus valores oscilan entre 0 y 1, por tanto, cuanto más se acerque a uno, mayor relación de las variables
independientes, en conjunto, con la variable dependiente.
-4-

Sin embargo, para poder hablar en términos de varianza explicada, debemos recurrir al cuadrado del
coeficiente de correlación, llamado coeficiente de determinación, R2, que no es otra cosa que la proporción de
varianza de la variable dependiente explicada por el conjunto de las variables independientes:

R 2  R 2Y12

Sus valores también se encuentran en el rango 0 y 1 y, multiplicado por cien, nos permite hablar en
términos de porcentaje:

R2  100 = porcentaje de varianza de la variable dependiente explicada por las independientes

En consecuencia, la proporción de varianza de la variable dependiente no explicada por las variables


predictoras, denominada coeficiente de alineación, viene dada por:

K  1  R2

El coeficiente de alienación es lo que habitualmente se llama la varianza de error, ya que se trata del
error que cometemos en la explicación y predicción. A su vez, multiplicado por cien, nos hablaría del porcentaje
de varianza de error o no explicada por las variables independientes.
En la Figura 1 podemos ver los conceptos que acabamos de presentar. La varianza de la variable
dependiente viene representada por el círculo Y y cada una de las variables predictoras son 1 y 2. En las áreas
de los círculos, los coeficientes son:

 Coeficiente de determinación de X1 ( rY21 ): a + b

 Coeficiente de determinación de X2 ( rY2 2 ): b + c

 Coeficiente de determinación múltiple (R2): a + b + c


 Coeficiente de alienación (K): d
Ajuste del modelo a los datos - 5 -

Figura 1. Representación de los coeficientes en la regresión múltiple

Podemos inferir que el coeficiente de determinación múltiple no es la suma de los coeficientes de


determinación simples:

R 2 ≠rY21 + rY2 2

En efecto: En el siguiente apartado


hablaremos con más
detenimiento de la
a + b + c ≠(a + b) + ( b + c)
redundancia de las variables
predictoras.
Esto se debe a que las variables predictoras explican de forma redundante la varianza de Y, que es la
parte del círculo que viene representada por b.
Un aspecto muy importante en la regresión múltiple es preguntarnos qué nos aporta cada variable a la
explicación del fenómeno que estamos estudiando, representado por la variable dependiente. La pregunta
crucial es: ¿Merece la pena introducir una variable independiente en la ecuación? Es cierto que, a medida que
aumenta el número de variables predictoras, la varianza de error será menor; sin embargo, el modelo podría
llegar a ser demasiado complejo y, además, nos surgiría la duda de cuándo dejar de añadir variables
independientes. Atendiendo al principio de parsimonia del que ya hemos hablado, debemos encontrar un
equilibrio entre el número de predictoras y varianza sin explicar. Quien nos puede ayudar a tomar decisiones,
en este sentido, es el coeficiente semiparcial de la variable predictora en cuestión. Para cada una de las
variables independientes se calcula de la siguiente manera:
-6-

rY1 - rY 2  r12 rY 2 - rY1  r12


sr1  sr2 
2 2
En muchos manuales de análisis de 1 - r12 1 - r12
datos, además del coeficiente de
correlación semiparcial, podemos Para la variable predictora X1, por ejemplo, se interpreta como su relación con Y, una vez se le ha
encontrarnos con el coeficiente de eliminado el influjo de X2 (aunque éste no se suprima de Y). De forma similar se interpreta para la predictora
correlación parcial, que nos permite X2. En la Figura 1, para X1 es el área representada por a y para X2 es b.
saber saber cuál es la relación pura
entre una variable predictora y la Más interesante resulta el cuadrado de estos coeficientes ya que, como se observa en las siguientes
criterio, eliminando el influjo, en expresiones para su obtención, pueden interpretarse como la proporción de varianza de la variable dependiente
ambas variables, de la otra que viene explicada exclusivamente por cada predictora:
predictora. La fórmula para su
obtención, por ejemplo para X1 (para
X2 es similar), es:
sr12  R 2 - ry22 sr22  R 2 - ry21

rY1 - rY 2 r12 Como en casos anteriores, multiplicados por cien, nos indicarían el porcentaje de varianza que explican o
pr1 =
(
1 - rY2 2 )( 2
1 - r12 ) aportan cada uno de ellas.
Veamos el siguiente ejemplo. Queremos tratar de explicar el consumismo patológico de un grupo de
De nuevo, si elevamos al cuadrado la pacientes. De las variables que creemos importantes en esta enfermedad (falta de control, necesidad de
fórmula anterior, hablaremos en aceptación y estima, horas de televisión, adicción a Internet, ingresos, edad, etc.) seleccionamos sólo dos
términos de varianza explicada.
predictoras: la necesidad de aceptación y estima (X1) y la edad (X2). Los datos que tenemos son:
Además, también podemos obtenerlo
a partir de la siguiente expresión: ry21 = 0,65 ry22 = 0,35 2
r12 = 0,35
R2 - rY2 2 sr12
pr12 = = Z y' = 0,601 Z 1 + 0,139 Z 2
1 - rY2 2 1 - rY2 2

En nuestra opinión, para la La ecuación en puntuaciones típicas nos dice que la variable predictora necesidad de aceptación y
explicación y predicción de una estima tiene más peso al explicar el consumismo que la edad.
variable, lo interesante es saber qué
A partir de los coeficientes de correlación de orden cero, podemos comprobar que:
aporta por sí sola cada una de las
predictoras, lo que viene determinado
por su semiparcial, dejando el ry1 = 0,65 → ry21 = 0,652 = 0,4225
fenómeno de interés tal cual se nos
presenta en la naturaleza. Restarle
varianza de otras variables ry2 = 0,35 → ry22 = 0,352 = 0,1225
independientes para determinar su
relación pura con una de ellas de poco Es decir, si hubiésemos estudiado el consumismo teniendo en cuenta sólo la necesidad de aceptación y
nos sirve, ni analíticamente, ni desde estima, esta variable explicaría un 42,25 por ciento de la conducta, quedando el 57,75 por ciento sin explicar.
un punto de vista de la predicción. Por su parte, si sólo hubiésemos estudiado la edad, el error que se cometería en los pronósticos cuando
aplicásemos la ecuación de regresión se elevaría al 87,75 por ciento (100 – 12,25). En cambio, esta situación
Ajuste del modelo a los datos - 7 -

mejora cuando estudiamos las variables conjuntamente. Así, el coeficiente de correlación múltiple y su
cuadrado, el coeficiente de determinación, son iguales a:

rY21  rY2 2 - 2rY1 rY 2 r12 0,652  0,352 - 2  0,65  0,35  0,35


R Y12  2
  0,663
1 - r12 1 - 0,352

R 2 = R 2Y12 = 0,6632 = 0,439 → 43,9%

Nos indican que el 43,9 por ciento del consumismo se puede explicar mediante la combinación de las dos
variables predictoras. Sin embargo, aunque la situación ha mejorado, no es mucho puesto que aún queda
bastante varianza sin explicar. Efectivamente, al calcular el coeficiente de alineación nos encontramos con un
valor que se eleva al 56,1 por ciento:

K = 1 - R 2 = 1 - 0,6632 = 0,561

Lo que nos interesa en este momento es determinar el aporte específico de cada variable. Esto lo
realizamos con los coeficientes de correlación semiparciales al cuadrado para cada una de las variables Obsérvese la suma de los
predictoras: coeficientes semiparciales:
0,3165 + 0,0165 = 0,333
sr12 = R 2 - rY2 2 = 0,439 - 0,352 = 0,3165 → 31,65%
No es igual al coeficiente de
determinación múltiple: 0,439.
sr22 = R 2 - rY21 = 0,439 - 0,652 = 0,0165 → 1,65%

Fijémonos en que la aportación específica de la edad en la explicación de la conducta consumista es


francamente pésima en relación con la otra predictora, puesto que se limita a tan sólo un 1,65 por ciento. Así
pues, cabría plantearse utilizar sólo la necesidad de aceptación y estima para explicar la variable dependiente.
Sólo si el aporte de la edad es clínicamente relevante, decidiremos mantener esta variable en la ecuación.
Démonos cuenta que no hemos hablado hasta ahora de la significación estadística de los coeficientes
vistos. Por supuesto, como estadísticos que son, tienen su propia distribución muestral, a partir de la cual,
podemos determinar si son estadísticamente significativos o no. Aunque vamos a presentar las ecuaciones, no
debemos olvidar que es el tamaño del efecto el que debe dirigirnos las decisiones de inclusión o no de las
variables en el modelo y éste viene determinado, precisamente, por los coeficientes semiparciales al cuadrado
que acabamos de ver.
-8-

Tabla 1. Pruebas de significación estadística

Hipótesis nula Estadístico de contraste Distribución muestral


Coeficiente de
determinación
H0: R2 = 0 R2 / k
múltiple F= F ;k; n-k-1
El aporte conjunto (1 - R 2 ) /(n - k - 1)
de las predictoras no  = nivel de significación
es estadísticamente k = número de variables independientes
n = número de sujetos de la muestra k = gl del numerador
significativo.
n – k – 1 = gl del denominador
Coeficientes
semiparciales H01: sr12 = 0 sr12 / 1
F= F ;1; n-k-1
H02: sr22 = 0 (1 - R 2 ) /(n - k - 1)

El aporte específico sr22 / 1  = nivel de significación


F= 2
de cada una de las (1 - R ) /(n - k - 1) 1 = gl del numerador
predictoras no es n – k – 1 = gl del denominador
estadísticamente k = número de variables independientes
significativo. n = número de sujetos de la muestra

Si nos fijamos en la expresión del estadístico de contraste para el coeficiente de determinación múltiple,
en realidad comprobamos si la varianza ponderada que explican las variables independientes en conjunto es
significativamente mayor que la no explicada, que el error que cometemos en la predicción, también ponderada.
Cabe decir que la significación de Además, dado que el coeficiente de determinación obtenido en la muestra está sesgado, suele ajustarse para
cada uno de estos estadísticos obtener una estimación más real. Se denomina coeficiente de determinación ajustado:
implica la significación de sus
correspondientes coeficientes de
regresión (y parciales), y 

R̂ 2  1 -  1 - R 2 n -1 
n - k - 1 
viceversa (mírense la similitud 
de las fórmulas de obtención).
Con respecto a los semiparciales, de forma similar al contraste anterior, comprueban si la proporción de
varianza que explica cada variable predictora es significativamente mayor que la que deja de explicar.
Además de la explicación conjunta de las variables independientes y de su aporte específico, siempre que
trabajemos con una variable criterio y más de una predictora conviene explorar las relaciones que existen entre
Ajuste del modelo a los datos - 9 -

todas ellas para poder interpretar adecuadamente los coeficientes de regresión y tomar decisiones. En los
siguientes apartados veremos con más detenimiento a qué nos referimos.

2. Patrones de asociación entre las variables


En efecto, en un modelo de regresión múltiple en el que están involucradas dos o más variables podemos
encontrarnos en ocasiones con que la entrada de otra variable independiente puede mejorar la explicación de la
Para la presentación de los
dependiente o, justo al revés, aportar información tan redundante que su introducción en la ecuación puede
patrones de asociación
desestabilizar los coeficientes de regresión. En los apartados siguientes vamos a presentar diferentes conviene distinguir entre
situaciones en la relación de tres variables, una dependiente y dos independientes. Cabe señalar dos cosas: en coeficientes de correlación de
primer lugar, vamos a presentar el caso de tres variables, el más sencillo, ya que las ecuaciones nos permiten orden cero rY1, rY2 y r12 y los
comprender el aparato matemático que subyace al patrón de que se trate; en segundo lugar, y precisamente por coeficientes semiparciales sr1
lo anterior, no debemos caer en la tentación de introducir variables para mejorar un modelo sin un sustento y sr2 a fin de evitar
teórico a la base o, cómo no, sin sentido común. confusiones.

a. Independencia
Se trata de una situación muy simple, en la que la variable dependiente se correlaciona con cada una de las
independientes, pero entre éstas no existe relación. De este modo, la suma de los coeficientes de determinación
de orden cero coincide con la de los semiparciales y, a su vez, con el coeficiente de determinación múltiple. Esto
quiere decir que cada variable predictora contribuye de forma independiente al coeficiente de determinación
(véase Figura 2).

Figura 2. Independencia al estimar Y


- 10 -

En efecto, tenemos que:

r Y1 ≠0 r Y21 > 0 sr12  0


r Y 2 ≠0 r Y2 2 > 0 sr22  0
r12 = 0 2
r12 =0

Por lo tanto:

rY21 + rY2 2 = R 2 = sr12 + sr22

Además, los coeficientes de regresión, los semiparciales y los de orden cero, para cada variable, serán
iguales:

β1 = srY1 = rY1
β 2 = srY 2 = rY 2

Se trata de un escenario entre las variables muy básico y que no veremos en la realidad cuando llevemos
a cabo una investigación, entre otras cosas, porque las variables, en la medida en que presentan variabilidad,
mantienen siempre una correlación. No obstante, lo hemos presentado porque nos sirve como modelo de
referencia para los demás patrones de asociación.

b. Redundancia
Éste constituye el caso más frecuente y ocurre cuando existe una relación entre todas las variables implicadas
en el modelo de regresión y todas ellas son mayores que cero. Como se observa en la Figura 3, la intersección de
de los diagramas de Euler correspondientes a X1, X2 e Y es precisamente la parte de Y que explican ambas
predictoras de forma redundante. Como resultado, los semiparciales y los coeficientes de regresión son menores
que sus respectivos coeficientes de determinación de orden cero y su suma menor que el coeficiente de
determinación múltiple:

r Y1 > 0 r Y21 > 0 sr12 < rY21 β1 < r Y1


rY 2 > 0 r Y2 2 > 0 sr22 < rY2 2 β 2 < rY 2
r12 > 0 r122
>0

Por tanto, el patrón de asociación es:


Ajuste del modelo a los datos - 11 -

rY21 + rY2 2 > R 2 > sr12 + sr22

Figura 3. Redundancia al estimar Y

Un ejemplo: Queremos explicar el trastorno obsesivo compulsivo (TOC) en adolescentes a partir de las
obsesiones (pensamientos intrusivos recurrentes y que generan ansiedad) y de las compulsiones (acciones
mentales o conductas repetitivas, realizadas con el fin de neutralizar la ansiedad producida por la aparición de
las obsesiones). Aunque el TOC se caracteriza también por otras variables, como su inicio en edades
tempranas, un curso crónico y una comorbilidad significativa, vamos a utilizar las dos primeras independientes
para ilustrar este patrón. Tras medir todas las variables encontramos los siguientes resultados:

rY1  0,45 rY2  0,63 r12  0,25

Por tanto,

rY21  0,20 R 2  0,49 sr12  0,09


rY2 2  0,40 sr22  0,29
2
r12  0,06

Podemos comprobar que nos hallamos ante un caso de redundancia al explicar el TOC a partir de las
obsesiones y de las compulsiones debido a la varianza que ambas comparten:
- 12 -

También es interesante observar,


0,20  0,40  0,49  0,09  0,29
en este ejemplo, que el aporte de
la variable obsesiones Puede ocurrir que las variables predictoras son tan redundantes que, mientras que el coeficiente de
( sr12  0,09 ) es mucho menor que determinación múltiple R2 es relevante, en cambio, los coeficientes semiparciales no lo son, de modo que el
el de la variable compulsiones
aporte específico de cada una es demasiado pequeño para que pueda ser tenido en cuenta (Figura 4). Aquí
tendríamos prácticamente la misma varianza explicada (el mismo poder predictivo) utilizando una sola de las
( sr22  0,29 ). En ocasiones
variables independientes. Esta situación debe hacernos sospechar, además, de la presencia de un posible caso
sucede que no sabemos si un de multicolinealidad entre las predictoras.
semiparcial es elevado o no y no
nos decidimos a introducir o
descartar la variable en cuestión. Figura 4. Redundancia y multicolinealidad
Podemos hacernos las siguientes
preguntas para ayudarnos: ¿Qué
dice la literatura científica acerca
de la importancia de la variable?
¿Nuestra investigación es
metodológicamente correcta?
¿Qué han encontrado otros
investigadores? ¿Cómo es su
valor en relación con los demás
semiparciales?

Un caso especial de redundancia (Figura 5) ocurre cuando la varianza de la variable criterio que explica
una de las variables predictoras, por ejemplo X2, ya lo está por la otra, siendo su aportación nula a la ecuación
de regresión (y no aparece en la ecuación):

r Y1 > 0 r Y21 > 0 sr12 = rY21


rY 2 > 0 r Y2 2 > 0 sr22 = 0
r12 > 0 2
r12 >0

De hecho:
Ajuste del modelo a los datos - 13 -

sr 22  R 2 - s 2Y1  0 sr2
y β2  0
2
1  r12

En definitiva, para este caso especial de redundancia, el patrón de asociación queda como sigue:

rY21 = R 2 = sr12 Un trabajo sobre fibromialgia en


que se utilizaron como variables
predictoras el manejo del dolor, el
Figura 5. Caso especial de redundancia funcionamiento físico, el manejo de
los síntomas y la intensidad del
dolor y como dependiente el estado
de salud (Martín y cols., 2009), los
autores encontraron que la variable
manejo del dolor desaparecía de la
ecuación de regresión (sus
coeficientes semiparcial y de
regresión eran iguales a cero),
concluyendo que el manejo de los
síntomas ya explicaba la varianza
del estado de salud, de modo que el
manejo del dolor nada aportaba a la
explicación. He aquí un ejemplo de
caso especial de redundancia.

c. Supresión
En este patrón, al contrario de lo que sucedía anteriormente, el coeficiente de determinación múltiple será
mayor que la suma de los coeficientes de determinación de orden cero. Esto ocurre porque las variables
predictoras suprimen varianza irrelevante de la variable dependiente y aumentan su poder explicativo. Se
distinguen tres casos: la supresión clásica, supresión neta y la supresión cooperativa
- 14 -

 Supresión clásica o tradicional

Partimos de una relación de Y con X1 mayor que cero y una relación con X2 nula, aunque las dos predictoras sí
están relacionadas. Pues bien, si tenemos en cuenta a X2 a la hora de construir el modelo, resulta que actuará
eliminando de X1 la varianza irrelevante para explicar Y, reduciendo así, por tanto, los errores de predicción
(Figura 6).

Figura 6. Supresión clásica

En efecto:

r Y1 > 0 r Y21 > 0 sr12 > rY21


rY 2 = 0 r Y2 2 = 0 sr22 > rY2 2
r12 ≠0 2
r12 >0

2
 
r -r r  rY21
sr12   Y1 Y 2 12   2
 2
1 - r12  1 - r12
 
Ajuste del modelo a los datos - 15 -

 2
Por tanto, puesto que 1 - r12 
1:

sr12 > rY21 Hay que señalar, que los


signos sr2 y de 2 serán
De hecho: siempre opuestos al
coeficiente de correlación
rY 2  rY1  r12 de orden cero r12, lo que
sr2  0 significa que, si éste
2
1  r12 último es positivo, los
coeficientes semiparcial y
Y además aparecerá en la ecuación: de regresión de X2 serán
negativos, como en el
sr2 caso que hemos
β2  0 presentado.
2
1 - r12

¿Por qué sucede que la inclusión de la variable X2 mejora la predicción de Y? Si nos fijamos en la
Figura 6, vemos que esta variable suprime parte del error de X1 (la intersección entre X1 y X2). En
consecuencia, no predecimos con las puntuaciones netas de Y, sino con una transformación de las mismas,
resultado de eliminar la parte de X1 que correlaciona con X2. Matemáticamente, tenemos entonces que:

R 2 = rY2 2 + rY2 (1.2) = 0 + rY2 (1.2)

donde rY2 (1.2) es el coeficiente de determinación entre Y y los residuales (X1 – X1.2) y su valor es mayor con
respecto a rY21. eliminando de X1 la varianza irrelevante debida a X2.

Por tanto, el patrón de asociación entre las variables es el siguiente:

rY21 < R 2 < sr12 + sr22

Veamos el siguiente ejemplo. Supongamos que hemos medido la aptitud espacial y deseamos averiguar si
puede ser explicada a partir de las puntuaciones en un test sobre destreza manual (X1) y una prueba de
velocidad de lectura (X2). Las relaciones entre las variables son:

rY1 = 0,38 rY2 = 0,00 r12 = 0,45

Al ver que X2 no tiene relación con Y, podríamos plantearnos un modelo de regresión simple con la
variable X1 y, en este caso, el coeficiente de determinación R .2 = rY21 = 0,14 . Si incluimos la variable X2, resulta
- 16 -

que asciende hasta R .2 = 0,18 (mayor que rY21 = 0,14 ). De hecho, sr22 = 0,04 y β 2  0,21 . En otras palabras,
tener en cuenta la velocidad de lectura aumenta el poder predictivo de la destreza manual para explicar la
aptitud espacial, tal y como podemos ver en el patrón:

0,14  0,18  0,18  0,04


Smith, Ager Williams (1992) afirman que existe supresión cuando la utilidad de un predictor es mayor
que su correlación de orden cero al cuadrado. Utilidad sería la correlación semiparcial cuadrado del predictor.
Sin embargo, es importante señalar que este patrón de supresión clásico, tan atractivo matemáticamente, no
debe dirigir la inclusión de variables en el modelo sin un fundamento. En el ejemplo, de hecho, mejorar la
predicción de la aptitud espacial introduciendo la velocidad de lectura debe tener un apoyo teórico importante
para que no resulte burlesco.

 Supresión neta o negativa

Por otro lado, también es cierto que, en la realidad, el caso de la supresión clásica no es lo habitual. Lo normal
es que entre X2 e Y exista algo de relación, por pequeña que sea (Figura 7). Por lo tanto, partimos de
correlaciones positivas entre todas las variables. Sin embargo, si bien X2 tiene una relación positiva con Y, su
coeficiente de regresión es negativo, siendo su cometido, más que explicar Y, el de suprimir varianza de error de
X1. De hecho, como se ve en la Figura 6, tiene más que ver con X1 que con Y (véanse las zonas de intersección).

Figura 7. Supresión neta


Ajuste del modelo a los datos - 17 -

Analíticamente:

r Y1 > 0 sr12 > rY21 β1 > r Y1


rY 2 > 0 sr22 > rY2 2 β2 < 0
r12 > 0

Por lo tanto, el patrón de asociación de la supresión neta es:

rY21 + rY2 2 < R 2 < sr12 + sr22

 Supresión cooperativa o recíproca

Se trata de la situación más favorable: las variables independientes suprimen cooperativamente una parte
de la varianza de la otra que no está relacionada con la variable dependiente, con lo que cada variable
explica una mayor proporción de la varianza de Y en presencia de la otra que la que explicaría si se
predijese con ella sola. En este caso, partimos de una relación negativa entre las predictoras:

rY1 > 0 sr12 > rY21


rY 2 > 0 sr22 > rY2 2
r12 < 0

De manera que el patrón de asociación es:

rY21 + rY2 2 < R 2 < sr12 + sr22

En resumen, podemos decir que en los patrones de supresión, cada predictor es más útil en presencia del
otro que por sí mismo, aumentando su poder explicativo.

4. Análisis de variables mediadoras y moderadoras


Además del estudio de las relaciones entre las tres variables que hemos visto en el apartado anterior, es muy
interesante para el investigador aplicado tener en cuenta otro tipo de combinaciones entre ellas. En este
- 18 -

momento nos vamos a referir a los posibles efectos de una tercera variable en la relación entre una
independiente y otra dependiente conocidos como mediación y moderación.
Mediadoras y moderadoras son variables intervinientes en la relación de la dependiente y la
independiente. En el primer caso, una tercera variable, la mediadora, actúa entre las dos, mientras que, en el
segundo, dos variables, la independiente y la moderadora, que se encuentran al mismo nivel, influyen sobre la
dependiente. El investigador aplicado debe analizar el posible efecto de variables mediadoras cuando la
relación entre la variable dependiente e independiente es inesperadamente débil o inconsistente (justo al revés
de lo que ocurría en el patrón de supresión); por el contrario, cuando existe una fuerte relación entre la variable
independiente y dependiente y no puede explicar por qué sucede así, entonces debe plantearse un análisis de
moderadoras (esta situación nos recordará al efecto de interacción del ANOVA de dos factores). Baron y Kenny
(1986) añaden que las investigaciones sobre mediadoras se centran más en los mecanismos de acción que en la
variable independiente en sí misma, mientras que, en el caso de moderación, el interés está en la variable
independiente per se.

Figura 8. Efecto de una tercera variable M

No se tiene en cuenta M Mediación Moderación

En la Figura 8 mostramos tres situaciones. En el primer cuadrante, cuando no introducimos ninguna


variable en la relación entre la independiente X y la dependiente Y, un modelo de regresión simple nos dará
cuenta del efecto de la primera sobre la segunda. Sin embargo, en los dos siguientes cuadrantes, en los que sí
tenemos en cuenta el influjo de una tercera variable, que llamamos M, podemos observar que su efecto puede
ser indirecto, caso de la mediación, o directo, caso de la moderación. Cabe señalar que a menudo se confunden
ambos efectos, cuando en realidad son muy distintos, tal y como se puede apreciar en la figura, pero avanzamos
que la diferenciación se encuentra directamente relacionada con el diseño que plantee el investigador. De los
distintos métodos posibles para analizar la moderación y la mediación, el más sencillo utiliza el análisis de
Ajuste del modelo a los datos - 19 -

regresión múltiple para estudiarlas. Dedicamos las siguientes páginas a estudiar más detenidamente estos
efectos.

a. Efecto de mediación
La mediación hace referencia a la influencia indirecta que una variable independiente ejerce sobre una
dependiente. Las variables mediadoras operan durante el período de actuación de las variables dependiente e
independiente, explicando el cómo y por qué se da la relación entre esas dos variables. El análisis de variables
mediadoras nos permite identificar los mecanismos de acción a través de los cuales un tratamiento, por
ejemplo, logra sus efectos. Imaginemos que estamos utilizando un programa de intervención con una
psicoterapia y una farmacoterapia. Saber aquí cuáles son los mecanismos de cambio a través de un análisis de
las mediadoras nos permitirá crear programas de tratamiento combinados más eficaces. Veamos cómo puede
ser la mediación.
Frente al modelo de mediación
En la Figura 9 observamos, en los tres cuadrantes, que c da cuenta del efecto de X sobre Y. Si no existiese
simple, que es el que vemos con
la influencia de una tercera variable (primer cuadrante), c tendría el mismo valor en todos los casos. Sin más detenimiento, cuando son
embargo, cuando la mediadora actúa entre la variable dependiente e independiente, pueden suceder dos cosas: más las variables implicadas, nos
que la mediación sea completa o que sea parcial. Si nos fijamos en la Figura 9, la mediación completa sucede encontramos ante un modelo de
cuando, teniendo en cuenta X y M en la ecuación de regresión, X no tiene ningún efecto sobre Y, por eso, c es mediación múltiple y suele
igual a cero (no es relevante). En cambio, si efectuando el mismo control de ambas variables X y M, c es distinto recurrirse al análisis de
de cero (sí es relevante), entonces la mediación es parcial, pero su magnitud es menor que en el caso de no ecuaciones estructurales, como en
tener en cuenta a la mediadora. el siguiente ejemplo:

M
Figura 9. Mediación simple total y parcial
a b

Sin mediación Mediación completa Mediación parcial


X Y
c

d e

H
- 20 -

Para analizar si M es un mediador Baron y Kenny (1986) proponen los siguientes pasos:
Los cuatro pasos son conocidos 1. Comprobar que X correlaciona con Y mediante una ecuación de regresión simple, donde Y es la
como el procedimiento B-K,
variable dependiente:
propuesto por Baron y Kenny
(1986). Aunque se puede analizar
la mediación mediante otros Y = B 0 + cX
métodos (prueba de efectos
indirectos, bootstrap, etc.), éste es 2. Comprobar que X correlaciona con M mediante una ecuación de regresión simple, donde M es la
sin duda el más utilizado; tanto variable dependiente:
es así, que su publicación ha
constituido el artículo más citado M = B 0 + aX
en la historia del Journal of
Personality and Social Psychology 3. Comprobar que M correlaciona con Y mediante una ecuación de regresión múltiple, donde Y es la
(Ato y Vallejo, 2011). variable dependiente y X y M las independientes:

Y = B0 + cX + bM

4. Si M no es un mediador, b no será estadísticamente significativo:


b = 0 (o no es estadísticamente significativo)
Nótese que c representa a B1 en
la ecuación de regresión múltiple Si M es un mediador completo, el efecto de X será nulo:
y b a B2.
c = 0 (o no es estadísticamente significativo)

Si M es un mediador parcial, el efecto de X no se eliminará:


c ≠ 0 (es estadísticamente significativo pero se reduce con respecto al paso 1)

En los pasos anteriores, no debemos olvidar que hemos propuesto un análisis para el caso más simple, en
el que sólo hemos analizado el efecto de una sola variable moderadora. Puede ocurrir que, además de existir
más de una (la realidad es más compleja), no necesariamente el efecto sea lineal. Por otro lado, aunque en los
manuales se presentan estos pasos en los que las decisiones se toman en función de la significación estadística,
no olvidemos que es la relevancia clínica (el tamaño del efecto) y no la significación la que debe dirigir esas
decisiones.

Además del método propuesto, para el análisis de mediadoras, hay otras alternativas (más detalle en Ato
y Vallejo, 2011):

 La prueba del efecto indirecto, con la que se puede obtener un intervalo de confianza en torno al
efecto indirecto:
Ajuste del modelo a los datos - 21 -

a  b  z1 / 2  S ab Siendo el error típico igual a: S ab  a 2 S b2  b 2 S a2

Sin embargo, los límites del intervalo son imprecisos y, además, el efecto indirecto a x b no
necesariamente debe seguir una distribución normal aunque a y b sí lo hagan.

 El procedimiento boostrap, que no necesita del supuesto de normalidad en el que se basa el


intervalo anterior, sino que obtiene la distribución muestral del efecto indirecto a partir de la SEM
extracción de muestras aleatorias en las que se calcula.
Variables observables y latentes
 El enfoque SEM (análisis de ecuaciones estructurales), muy útil con muchas variables, y no sólo
con variables observables sino también latentes, prueba diferentes modelos sobre el efecto total y
mediado para evaluar la existencia o no de mediación.

Como ejemplo de este análisis presentamos la investigación realizada por Quiles y cols. (2006) en la que
estudiaron algunas de las variables que intervienen en las tensiones que surgen en situaciones intergrupales.
Concretamente, analizaron el efecto mediador de las variables actitud de los inmigrantes hacia los autóctonos
(primer cuadrante de la Figura 10) y sentimientos de paranoia (segundo cuadrante de la Figura 10) en la
relación entre percepción de las diferencias (variable independiente) y la ansiedad intergrupal (variable
dependiente). En la figura 10 se puede observar que el efecto de la percepción de las diferencias sobre la
ansiedad intergrupo (c = 0,37) se reduce en presencia de las mediadoras (c = 0,18).

Figura 10. Efecto de mediación en la ansiedad intergrupo


- 22 -

b. Efecto de moderación
A diferencia del estudio de variables mediadoras, analizar las moderadoras nos posibilita identificar, por
ejemplo, qué pacientes responderán mejor a un tratamiento y para cuales sería mejor otro, de modo que
podríamos asociar variables, como tipo de terapeuta, tipo de tratamiento, sexo, etc., para una intervención más
exitosa. Démonos cuenta de que las variables moderadoras siempre funcionan como variables independientes,
se encuentran a su mismo nivel (véase la figura 11), lo que no ocurría en la mediación, en la que la mediadora
se situaba entre la variable independiente y dependiente (véase la figura 9).
Una variable moderadora es una variable cualitativa o cuantitativa que afecta a la magnitud y/o sentido
de una relación entre una variable independiente y una variable dependiente. Las variables moderadoras
intervienen de forma previa a la actuación entre esas variables, explicando en qué sujetos y en qué condiciones
tendrá lugar la relación entre la dependiente y la independiente. Por ello, a los efectos moderadores también
suele llamarse efectos de interacción.

Figura 11. Efecto de moderación de M

También aquí podemos diferenciar entre una moderación completa y parcial. En el primer caso, el efecto
de la variable independiente X queda reducido a cero en presencia del moderador M (véase primer cuadrante de
la Figura 12); en cambio, en la moderación parcial, aunque se reduce el efecto de X, éste no desaparece
(segundo cuadrante de la Figura 12).
Ajuste del modelo a los datos - 23 -

Figura 12. Moderación total y parcial

X a=0 X a0

Y Y

M M
b b

El estudio de la influencia de una variable moderadora, cuando X y M son cualitativas, no es más que un
análisis de interacción tal y como se hace en el marco del ANOVA de dos factores. Dado que M puede ser
cualitativa o cuantitativa, realmente los efectos de interacción en el ANOVA constituyen un caso particular de
la moderación con variables cualitativas. Así, decimos que M es un moderador de la relación entre X e Y si su
grado de relación se ve afectado por los niveles de M (se trata de un análisis de efectos simples de X para cada
uno de los niveles de M).
Para otros casos (X cuantitativa y M cualitativa; X cualitativa y M cuantitativa o X y M cuantitativas),
podemos analizar el efecto de moderación mediante un análisis de regresión lineal múltiple, resolviendo una
ecuación en la que se introducen las siguientes variables: X como predictora, M como moderadora y XM como el
producto de ambas variables:

Y = B 0 + aX + bM + cXM

Los pasos a seguir serían: Como en el caso de las


mediadoras, también podemos
1. Codificación de las variables cualitativas (si las hay). recurrir al enfoque SEM para el
análisis de moderadoras cuando
2. Centralización de las variables cuantitativas.
nos encontramos con muchas
3. Creación de la variable producto. variable y éstas son observables
y latentes.
4. Estimación de los parámetros de la regresión jerárquica.
5. Interpretación de los resultados y representación de la interacción.
6. Significación de las pendientes simples.
- 24 -

Como ejemplo de moderadoras, nos remitimos al mimo estudio anterior de Quiles y cols. (2006) en el que
además de las mediadoras, estudiaron la percepción de presión para cambiar, la actitud global, la paranoia
social y la percepción de xenofobia para averiguar si moderaban la relación entre la percepción de diferencias
(variable independiente) y la ansiedad intergrupal (variable dependiente). Los resultados se muestran en la
Figura 13, en la aparece un análisis de regresión jerárquico en tres pasos para cada moderador. Los autores
concluyeron que sólo la percepción de presión para el cambio y la percepción de xenofobia podían ser
consideradas moderadoras, ya que la inclusión de los efectos de interacción producía un aumento
estadísticamente significativo de la varianza explicada de la ansiedad intergrupal (7,5 y 5,21, respectivamente).

Figura 13. Análisis de regresión jerárquica para los moderadores

Además, los autores proponen un modelo hipotético de las variables moderadoras y mediadoras de la
relación entre la percepción de diferencias y la ansiedad intergrupal que sintetiza los resultados de los distintos
análisis realizados (Figura 14).
Ajuste del modelo a los datos - 25 -

Figura 14. Modelo hipotético de variables moderadoras y mediadoras


Mediación y moderación combinadas.
Teniendo en cuenta que la realidad es
más compleja que el caso de tres
variables, también puede suceder
que, habiendo cuatro o más variables,
los efectos de mediación y moderación
se combinen, como en los siguientes
ejemplos:

M
N
d

a b
c
X Y

Mediación moderada

e
d

5. Análisis en el SPSS N

A continuación vamos a presentar los pasos para analizar las relaciones entre tres variables con el SPSS. En Moderación mediada
primer lugar, expondremos el estudio de los patrones de asociación entre ellas; en segundo, un caso de
mediación y, por último, uno de moderación.

a. Patrones de asociación
Del fichero de datos, nuestra variable dependiente es la Responsabilidad (Y) y como independientes escogemos
Estabilidad emocional (X1) y Sinceridad (X2). Lo primero que vamos a pedir es un análisis de correlaciones
entre las variables (PANTALLA 1). Se nos abre un cuadro de diálogo (PANTALLA 2), en el que las
seleccionamos y pulsamos Aceptar.
- 26 -

PANTALLA 1
Ajuste del modelo a los datos - 27 -

PANTALLA 2

Los resultados se pueden ver en la Tabla 2. La responsabilidad tiene una relación positiva con cada una
de las variables independientes, siendo mayor con la estabilidad emocional ( rY1 = 0,422 ) que con la sinceridad
( rY2 = 0,186 ). Además, la relación entre las predictoras es tan baja ( r12 = 0,092 ), que casi podríamos hablar de
un patrón de independencia. Partimos, por tanto, de las siguiente correlaciones y coeficientes de determinación
parciales:

rY1 = 0,422 → rY21 = 0,178


rY 2 = 0,186 → rY2 2 = 0,034
2
r12 = 0,092 → r12 = 0,008
- 28 -

TABLA 2

Volvemos a nuestra matriz de datos y vamos a pedir un análisis de regresión, tal como se muestra en la
PANTALLA 3.
PANTALLA 3
Ajuste del modelo a los datos - 29 -

Una vez lo hemos seleccionado, indicamos cuáles son las variables dependiente e independientes
(PANTALLA 4). Además, vamos a pedir, en la opción Estadísticos, que nos devuelva los valores de los
coeficientes de regresión, el coeficiente de determinación múltiple y las correlaciones semiparciales
(PANTALLA 5) . Pulsamos Continuar, lo que nos lleva a la PANTALLA 4 y, en ella, Aceptar.

PANTALLA 4
- 30 -

PANTALLA 5

Veamos los resultados más interesantes en las siguienes tablas: en la TABLA 3 aparece el coeficiente de
determinación múltiple como R cuadrado y en la TABLA 4 los coeficientes semiparciales en la columna
Correlaciones semiparciales.
Ajuste del modelo a los datos - 31 -

TABLA 3

TABLA 4

Téngase en cuenta que estos no vienen al cuadrado, por tanto, tenemos que hacer los cálculos a mano
para establecer nuestro patrón de asociación. Así pues, tenemos que:

rY21 = 0,178 sr12 = 0,165


rY2 2 = 0,034 sr22 = 0,022
2
r12 = 0,008

Por tanto, comprobemos de qué patrón de asociación se trata:

rY21 + rY2 2 > R 2 > sr12 + sr22

0,178 + 0,034 > 0,191 > 0,165 + 0,022


- 32 -

0,212 > 0,200 > 0,187

Diríamos que nos encontramos ante un patrón de redundancia. Ahora bien, la diferencia es muy pequeña
y debemos tener en cuenta dos cuestiones: por un lado, el redondeo en los cálculos y, por otro, la escasa relación
de orden cero entre las dos predictoras. Por lo tanto, bien podríamos hablar de un patrón de independencia.
Por otra parte, si nos centramos exclusivamente en los aportes específicos de las variables predictoras,
podemos darnos cuenta, sin necesidad de hablar de su significación estadística (véase en la TABLA 4 la
columna Sig., en la que comprobamos que ambos son estadísticamente significativos a un nivel de confianza del
95 por ciento), que el aporte de la variable sinceridad es mucho menor que el de la estabilidad emocional.
¿Podríamos plantearnos eliminarla de la ecuación para la predicción de la responsabilidad? La respuesta está,
en primer lugar, en nuestro modelo teórico, que es quien debe determinar la inclusión o no de variables
independientes. Si nos encontráramos en un momento de exploración de las variables, dentro del modelo teórico
propuesto, podríamos decidir llevar a cabo el análisis sólo con la estabilidad emocional. Los resultados se
pueden observar en la TABLA 5. Con las dos variables predictoras, el coeficiente de determinación múltiple
ajustado era igual a 0,191 mientras que ahora es 0,174: justo se reduce el valor del aporte específico de
sinceridad, es decir, su coeficiente semiparcial al cuadrado. Quizás nos hallamos ante un dilema: por una parte,
el aporte específico de sinceridad (0,022) es mucho más bajo que el de estabilidad emocional (0,165), pero, por
otra parte, pensamos que la sinceridad es un predictor que se debe tener en cuenta para explicar y predecir la
responsabilidad. En otras palabras, desde el punto de vista del análisis de datos, sería conveniente eliminarla;
sin embargo, desde una perspectiva investigadora, queremos mantenerla. Pues bien, dado que nos encontramos
aún en una etapa exploratoria y, dado que un único análisis no es suficiente y debemos seguir explorando con
otras muestras y otras situaciones, la decisión correcta sería seguir trabajando con la variable sinceridad, ver
qué obtienen otros investigadores y, solo cuando tengamos un conocimiento realmente cabal de la
responsabilidad, resolver qué hacer con la sinceridad. Además, un aporte, por pequeño que sea, puede resultar
muy importante. Una vez más, advertimos que el análisis de datos nos puede ayudar, pero de ninguna manera
es determinante, ni debe suplantar al sentido común.

TABLA 5
Ajuste del modelo a los datos - 33 -

b. Mediación
En esta ocasión, vamos a poner como ejemplo de mediación la sospecha de que entre Responsabilidad (Y) y
Estabilidad emocional (X), puede estar actuando la variable Extraversión (M). Según el método B-K, debemos
comprobar los siguientes pasos:

1. Estabilidad emocional (X) correlaciona con Responsabilidad (Y): Y = B 0 + cX

Para ello, en la matriz de datos, como ya sabemos, debemos pulsar Analizar – Regresión – Lineal y
selecciónar ambas variables, tal y como se muestra en la PANTALLA 6. Los resultados los podemos ver en la
TABLA 6, extraída del archivo de salida del SPSS. El coeficiente c es igual a 0,397.

PANTALLA 5
- 34 -

TABLA 6

2. Comprobar Estabilidad emocional (X) correlaciona con Extraversión (M): M = B 0 + aX

Realizamos la misma operación que en el paso 1, sólo que ahora cambia nuestra variable dependiente
(PANTALLA 7). En el fichero de salida comprobamos que a = 0,342 (véase TABLA 7).

PANTALLA 7
Ajuste del modelo a los datos - 35 -

TABLA 7

3. Extraversión (M) correlaciona con Responsabilidad (Y): Y = B0 + cX + bM

De forma similar a los pasos 1 y 2, pedimos un análisis de regresión lineal, solo que ahora introducimos X
y M como variables independientes (PANTALLA 8). Los resultados se muestran en la TABLA 8.

PANTALLA 8
- 36 -

TABLA 8

4. Podemos comprobar que la Extraversión es una mediadora parcial, ya que el efecto de la Estabilidad
emocional se ha reducido con respecto al paso 1: si antes era igual a 0,397 ahora es 0,264.

c. Moderación
Por último, si se tratara de un estudio de moderación entre las variables Responsabilidad (Y) y Sinceridad (X).
con Sexo (M) como moderadora, en primer lugar, debemos centrar X por ser una variable cuantitativa. Para
ello, en la pestaña Transformar, pulsamos Calcular variable y nos aparece una pantalla en la que tenemos
que especificar cómo se va a llamar la nueva variable y cómo se debe calcular (PANTALLA 9). Previamente,
observemos en la misma pantalla que hemos obtenido la media de Sinceridad con el comando Estadísticos
descriptivos. Nuestra variable centrada se llamará csincer y es el resultado de restar a Sinceridad su media.
Debemos tener cuidado: aunque estamos habituados a escribir con coma los decimales, en el SPSS debemos
poner punto. La nueva variable la encontramos en la matriz de datos (PANTALLA 10).
Ajuste del modelo a los datos - 37 -

PANTALLA 9
- 38 -

PANTALLA 10

Ahora debemos crear la variable producto csincer x Sexo, para lo que procedemos de forma similar al paso
anterior (véase PANTALLA 11).
Ajuste del modelo a los datos - 39 -

PANTALLA 11

Una vez tenemos las variables preparadas, podemos estimar los parámetros de la regresión para
comprobar si el Sexo modera la relación entre la Responsabilidad (Y) y la Sinceridad (X). Por lo tanto,
realizaremos un análisis de regresión en el menú Analizar – Regresión lineal, en el que especificaremos
como variable dependiente Responsabilidad y como independientes Sexo, csincer y csincerxsexo. Cuando se
utiliza el modelo de regresión con términos de interacción se recomienda un análisis jerárquico en el que se
introducen la independiente y la moderadora en una primera etapa y la interacción en una segunda. En la
PANTALLA 12 mostramos cómo especificamos, en primer lugar, las variables csincer y sexo como predictoras.
A continuación pulsamos Siguiente y es entonces cuando introducimos la interacción (PANTALLA 13).
- 40 -

PANTALLA 12

PANTALLA 13
Ajuste del modelo a los datos - 41 -

Los resultados se pueden ver en las tablas 9, 10 y 11, en las que comprobamos los dos pasos del modelo
jerárquico (TABLA 9) y el cambio que se produce en la explicación del modelo (TABLA 10). Es en la TABLA 11
en la que constatamos que no hemos encontrado un efecto significativo de la variable moderadora Sexo.

TABLA 9

TABLA 10
- 42 -

TABLA 11
Ajuste del modelo a los datos - 43 -

Ato, M. y Vallejo, G. (2011). Los efectos de terceras variables en la investigación psicológica. Anales de
Psicología, 27 (2), pp. 550-561.

Baron, R.M. y Kenny, D. (1986). The moderador mediator variable distinction in social psychological research:
conceptual, strategic and statistical considerations. Journal of Personality and Social Psychology, 51, pp.
1173-1182.

Smith, L., Ager, W. y Williams, (1992). Suppressor variables in multiple regression/correlation. Educational
and Psychological Measurement, 52, 17-29.

Quiles, M.N., Rodríguez, A., Navas, M., Rodríguez, R., Betancor, V. y Coello, E. (2006). Variables moderadoras
y mediadoras de la relación percepción de diferencias-ansiedad intergrupal. Psichotema, 18 (1), pp.105-
111.

Miles, J. y Sheulin, M. (2001). Applaying Regression & Correlation. London. Sage. ISBN: 0761962298.

Вам также может понравиться