Вы находитесь на странице: 1из 34

Anlisis estadstico con el SPSS M Dolores Paz Caballero

MDULO 3: TCNICAS DE ANLISIS MULTIVARIADO

En la investigacin de cualquier fenmeno, tanto en ciencias sociales como


naturales, hay que tener en cuenta una considerable cantidad de variables que
pueden influir en el mismo. As, la estadstica bivariada resulta a menudo
insuficiente, e incluso puede conducir a conclusiones errneas.
Supngase que se intenta averiguar qu factores pueden predecir la
ocurrencia del infarto de miocardio. Podemos considerar una serie de variables que
pueden guardar alguna relacin con el infarto, como la edad, el sexo, el ser
fumador, el nivel de colesterol, etc. Si slo disponemos de tcnicas bivariadas
tendramos que considerar por separado la relacin entre cada una de ellas y la
ocurrencia de infarto. As, podramos llegar a la conclusin de que el ser fumador
incrementa la probabilidad de padecer infarto y de que esta probabilidad es
tambin mayor en hombres que en mujeres, que aumenta con la edad y que guarda
relacin con el nivel de colesterol en sangre. Sin embargo, si hubiramos utilizado
una tcnica multivariada que tuviera en cuenta las relaciones del infarto de
miocardio con el conjunto de variables consideradas, quiz habramos llegado, con
los mismos datos, a la conclusin de que es el nivel alto de colesterol la nica
variable que predice el infarto y que lo que ocurre es que en este nivel de
colesterol influye el sexo, la edad y el ser fumador.
As pues, las tcnicas multivariadas no slo nos permiten ahorrar tiempo al
considerar las relaciones entre todas las variables en un mismo anlisis, sino que
tambin nos permiten ver si la importancia relativa que tiene cada variable en la
prediccin o explicacin de un fenmeno.

En un sentido amplio, podemos denominar tcnicas de anlisis multivariado


(multivariable o multivariante) a todas aquellas que analizan las relaciones entre
ms de dos variables. Las variables pueden estar todas al mismo nivel o dividirse en
dos grupos : independientes y dependientes.
Las tcnicas que se utilizan en el primer caso, tambin llamadas tcnicas
reductivas, analizan las relaciones de interdependencia entre un conjunto de
variables. Entre ellas podemos considerar :

9 El Anlisis Factorial, que permite determinar las dimensiones


subyacentes a un conjunto de variables cuantitativas
9 El Anlisis de Homogeneidad, que sera el equivalente no paramtrico
del Anlisis Factorial para el caso de variables categricas.
9 El Anlisis de Clusters, que se utiliza generalmente para formar
grupos de elementos a partir de sus puntuaciones en variables de
cualquier tipo.
9 Los Modelos Logartmico-lineales que analizan la asociacin entre
distintas variables categricas y seran el equivalente multivariado
de Chi-cuadrado.

142
Anlisis estadstico con el SPSS 10 M Dolores Paz Caballero

Las tcnicas que analizan las relaciones de dependencia de un conjunto de


variables respecto de otras se denominan tcnicas predictivas y difieren entre s
en funcin del nmero y nivel de medida de las variables que consideran.

Otra clasificacin que podemos hacer de las tcnicas multivariadas es en


tcnicas paramtricas y tcnicas no paramtricas. Las tcnicas paramtricas
requieren para su aplicacin el cumplimiento de una serie de supuestos
paramtricos (en todas las variables si son tcnicas de interdependencia y al menos
en un grupo si se trata de tcnicas de dependencia). Entre estos supuestos
paramtricos estn el de normalidad multivariable y, en caso de considerar dos o
ms grupos de sujetos, el de igualdad de matrices de varianzas-covarianzas entre
los grupos (homocedasticidad multivariable). Para que se cumplan los supuestos
paramtricos es condicin necesaria, aunque no suficiente, que las variables (o, al
menos, un grupo de ellas) sean cuantitativas.

De entre la gran cantidad de tcnicas multivariadas, aqu vamos a exponer


nueve. Puesto que por razones de espacio era imposible considerarlas todas, se han
seleccionado aquellas que, seguramente, son utilizadas en mayor medida en
distintos mbitos de investigacin. Se ofrece a continuacin una clasificacin de las
mismas, considerando por separado las tcnicas reductivas y las predictivas. Las
tcnicas paramtricas dentro de cada grupo aparecen sealadas con un asterisco.

TCNICAS REDUCTIVAS :

VARIABLES
Nmero Nivel de medida

ANLISIS FACTORIAL (*) Varias Cuantitativas

ANLISIS DE Varias Categricas


HOMOGENEIDAD

ANLISIS DE CLUSTERS Varias De cualquier tipo

MODELOS LOG-LINEALES Varias Categricas

143
Anlisis estadstico con el SPSS 10 M Dolores Paz Caballero

TCNICAS PREDICTIVAS :

V. INDEPENDIENTE V. DEPENDIENTE
Nmero Nivel de Nmero Nivel de
medida medida
REGRESIN MLTIPLE (*) Varias Cuantitativas Una Cuantitativa

ANLISIS DISCRIMINANTE (*) Varias Cuantitativas Una Categrica

REGRESIN LOGSTICA Varias De cualquier Una Dicotmica


tipo

MODELOS LOGIT Varias Categricas Una Categrica

ANOVA FACTORIAL (*) Varias Categricas Una Cuantitativa

MANOVA (*) Una o Categricas Varias Cuantitativas


varias

Se presentan a continuacin unos cuantos ejemplos para que el alumna


decida qu tcnica sera ms conveniente utilizar en cada caso.

Qu tcnica utilizaras para ...

1. Determinar el efecto del tipo de antidepresivo y la dosis del mismo (10 o 20 mg) en la
reduccin de la depresin (medida con un test).
2. Determinar cuntos tipos de neurosis hay a partir de la presencia o no en una muestra
de sujetos de una serie de sntomas neurticos.
3. Determinar cuntos tipos de inteligencia miden los tests de una batera.
4. Determinar el efecto del mtodo de aprendizaje (la mitad de los alumnos aprenden con
un mtodo y la mitad con otro) en las notas de las asignaturas de un curso.
5. Ver qu variables predicen el rendimiento laboral en un determinado puesto de trabajo.
6. Analizar qu variables de personalidad (medidas por distintos tests) permiten predecir
una determinada enfermedad.
7. Determinar si el ser fumador depende de variables como el sexo, el nivel de ansiedad y
la depresin.
8. Elaborar una tipologa de pacientes de una determinada enfermedad en funcin de los
sntomas que presentan.

144
Anlisis estadstico con el SPSS 10 M Dolores Paz Caballero

SOLUCIONES

1. Puesto que las variables independientes (tipo de antidepresivo y dosis) son categricas y
la variable dependiente (depresin) se mide supuestamente en una escala de intervalos
(es cuantitativa) la tcnica a utilizar, siempre que se cumplan los supuestos
paramtricos, es el ANOVA factorial.
2. En este caso tenemos varias variables dicotmicas y queremos ver en cuntas
dimensiones se agrupan. Para ello utilizaramos el Anlisis de Homogeneidad.
3. Si consideramos que las puntuaciones de los tests estn en una escala de intervalos (son
cuantitativas) y se cumplen los supuestos necesarios para su aplicacin, utilizaramos la
tcnica del Anlisis Factorial.
4. Tenemos una variable independientes (mtodo de aprendizaje) categrica y varias
variables dependientes. La tcnica que se debe aplicar en este caso es el MANOVA.
5. Dependera del nivel de medida de las variables predictoras y de la forma en que se
mida el rendimiento laboral. Si todas las variables predictoras son cuantitativas y el
rendimiento se mide en una escala cuantitativa se podra aplicar la Regresin Mltiple
(siempre que se cumplan los supuestos paramtricos). Si el rendimiento es una variable
dicotomizada (eficiente o no eficiente), se aplicara el Anlisis Discriminante, si las
variables independientes son todas cuantitativas, o la Regresin Logstica si alguna o
todas las variables predictoras son categricas.
6. Puesto que la variable que queremos predecir es dicotmica (presencia o ausencia de la
enfermedad) y las variables predictoras cuantitativas, la tcnica estadstica a utilizar,
si se cumplen los supuestos paramtricos, es el Anlisis Discriminante. Caso de no
cumplirse los supuestos paramtricos se aplicara la Regresin Logstica.
7. La variable que se intenta predecir (ser fumador) se considera dicotmica. Las variables
predictoras son, unas cuantitativas (ansiedad y depresin) y otra dicotmica (sexo). Por
consiguiente, la tcnica estadstica apropiada en este caso sera la Regresin logstica.
8. Cuando lo que queremos agrupar son los sujetos, no las variables, se utiliza el Anlisis de
Clusters.

145
Anlisis de datos con SPSS M Dolores Paz Caballero

Tema 6: ANLISIS FACTORIAL

El Anlisis Factorial (AF) es una tcnica multivariada que analiza las


relaciones de interdependencia entre varias variables cuantitativas. Se incluira,
pues, dentro de las tcnicas reductivas. Partiendo de las correlaciones entre un
conjunto de variables, el AF nos permite obtener subconjuntos de variables que
estn mximamente relacionadas entre s y mnimamente con las variables de otros
subconjuntos. Cada uno de estos agrupamientos constituira un factor.

El AF puede utilizarse con dos objetivos :

Determinar las dimensiones subyacentes a un conjunto de datos. Por ejemplo,


podemos aplicar la tcnica a las puntuaciones obtenidas por un grupo de sujetos
en diversos tests de inteligencia y ver en cuntos factores se agrupan estos
tests. As, en funcin de que obtengamos un solo factor o varios, podremos
determinar si la inteligencia constituye una nica dimensin o si, por el
contrario, podemos hablar de distintas dimensiones o tipos de inteligencia. En
este ltimo caso, para definir cada dimensin o factor tendremos que tener en
cuenta las caractersticas de los tests que la constituyen.

El segundo objetivo con el que podemos aplicar el AF es el de reducir datos. Si


podemos reducir las variables iniciales a un nmero menor de factores, eso
simplifica bastante los anlisis posteriores. Sera el caso de que quisiramos
analizar las diferencias entre distintos grupos, por ejemplo, entre hombres y
mujeres en una serie de tests de inteligencia. El AF nos permite comparar las
puntuaciones en los factores de inteligencia obtenidos en lugar de tener que
comparar las puntuaciones en cada uno de los tests.

Algunos autores hablan indistintamente de Anlisis Factorial y Anlisis de


Componentes Principales (ACP), considerando que solamente difieren en el
procedimiento utilizado para extraer los factores o los componentes, mientras que
otros consideran por separado ambas tcnicas. Aqu seguiremos la primera
tendencia.

Ejemplo: Aplicamos a una muestra amplia de sujetos 5 tests de inteligencia y


obtenemos la siguiente matriz de correlaciones 1:

Test 1 Test 2 Test 3 Test 4 Test 5


Test 1 --
Test 2 .86 --
Test 3 .93 .90 --
Test 4 .01 .00 .07 --
Test 5 .00 .05 .05 .97 --

1
Se han marcado en negrita las correlaciones ms altas.

Anlisis Multivariado 146


Anlisis de datos con SPSS 14 M Dolores Paz Caballero

Podemos observar que los tests 1, 2 y 3 presentan correlaciones elevadas


entre s y cercanas a cero con los tests 4 y 5, que, a su vez, estn estrechamente
relacionados. As pues, podemos decir que existen dos agrupamientos o factores.
Para interpretarlos, tenemos que tener en cuenta qu caractersticas tienen en
comn los tests de cada factor. Supongamos que, los tres primeros utilizan
material verbal, mientras que los dos ltimos exigen operar con material simblico.
Podramos hablar, entonces, de dos dimensiones dentro de la inteligencia: una
verbal y otra no verbal. Adems, podemos calcular a cada sujeto una puntuacin en
cada dimensin, que resultara de la combinacin adecuada de las puntuaciones en
los tests que forman dicha dimensin.

6.1. Condiciones necesarias para la aplicacin de la tcnica

9 El AF parte de la matriz de correlaciones (Pearson) entre todas las


variables. Recordemos que el clculo de la correlacin de Pearson exige que las
variables tengan una distribucin normal. La normalidad de todas las variables, que
puede evaluarse con la prueba de Kolmogorov-Smirnov, es, por tanto, un supuesto
requerido para la aplicacin del AF. La prctica ampliamente extendida de someter
a AF las puntuaciones en los items dicotmicos de un test no estara, pues,
justificada.

9 Otra condicin que se requiere para la aplicacin de la tcnica es que las


variables estn intercorrelacionadas, de otro modo no tendra sentido intentar
agruparlas en factores. Para comprobarlo se utiliza el test de esfericidad de
Bartlett que somete a prueba la hiptesis nula de que las correlaciones entre las
variables son cero. Solamente si se rechaza la hiptesis nula tiene sentido
continuar el AF.
Adems del test de Bartlett, otra medida de la fuerza de las relaciones
entre las variables es el ndice KMO de Kaiser-Meyer-Olkin. Este ndice es tanto
mayor cuanto menores sean las correlaciones parciales entre pares de variables ; la
razn es que cuanto ms tengan en comn las dos variables consideradas con las
restantes menor ser su correlacin al eliminarlas (parcializarlas). Cuanto ms se
aproxime a 1 este ndice ms aconsejable resulta la aplicacin del AF. Por debajo
de 0.50 el ndice KMO se considera inaceptable.

o Respecto al tamao de la muestra, se aconseja que haya, al menos, 10


sujetos por variable. Con menos de 5 sujetos por variable, o con menos de 100
sujetos, el AF no dara resultados muy fiables. Tambin es conveniente que haya
muchas variables por cada factor esperado.

Anlisis Multivariado 147


Anlisis de datos con SPSS 14 M Dolores Paz Caballero

6.2. Pasos en la realizacin de un AF

Para realizar un AF los pasos a seguir son los siguientes :

Se seleccionan las variables y la muestra en la que se van a medir


intentando que el nmero de sujetos no sea inferior a 100 y que haya, al
menos, 10 sujetos por variable.
Se comprueba el cumplimiento de los supuestos requeridos para la
aplicacin de la tcnica.
Se elige algn mtodo de extraccin de factores. En caso de elegir el
mtodo de Componentes Principales, en lugar de factores se habla de
componentes.
Se fija algn criterio para determinar cuntos factores (o componentes)
van a ser extrados.
Se interpretan los componentes o factores obtenidos. Para ello, a veces
es necesario utilizar algn mtodo de rotacin de la matriz de
componentes o factores.

6.3. Un ejemplo de AF utilizando el mtodo de extraccin de Componentes


Principales

Vamos a describir las distintas etapas en la realizacin de un AF a partir de


los datos del ejemplo contenido en el archivo factor.sav. En dicho archivo aparecen
las puntuaciones dadas por los alumnos a 50 profesores en una escala de evaluacin
del profesorado de 6 tems puntuados en una escala Likert de 1 a 5. Los tems
hacen referencia a :

La preparacin de las clases (Prepar)


Los conocimientos que tiene sobre la asignatura (Dominio)
La claridad con que explica (Comprens)
La accesibilidad (Accesib)
La idoneidad del mtodo de evaluacin que utiliza (Evalua)
Consideracin global de su labor (Global)
La ltima variable, Categori, especifica la categora de cada profesor (titular o
catedrtico)

Lo que nos interesa es determinar las dimensiones subyacentes a los 6


tems, es decir, analizar si los alumnos evalan a los profesores en funcin de una
nica dimensin o de varias y, en el segundo caso, qu dimensiones son. Para ello
vamos a utilizar la tcnica del AF, aun teniendo en cuenta que el bajo tamao de la
muestra puede disminuir la fiabilidad de los resultados que obtengamos.

Anlisis Multivariado 148


Anlisis de datos con SPSS 14 M Dolores Paz Caballero

El primer paso es comprobar la normalidad de la distribucin de cada


variable mediante la prueba de Kolmogorov-Smirnov (K-S de una muestra, en
Pruebas no paramtricas). Como puede observarse en la tabla, todas las variables
se ajustan a la distribucin normal.

Prueba de Kolmogorov-Smirnov para una muestra


PREPAR DOMINIO COMPRENS ACCESIB EVALUA GLOBAL
N 50 50 50 50 50 50
Parmetros normalesa,b Media 3,0132 4,1360 2,7960 3,9200 3,5920 3,0874
Desviacin tpica 1,1278 ,5594 ,5059 ,4638 ,3854 ,7200
Diferencias ms extremas Absoluta ,187 ,122 ,181 ,068 ,128 ,088
Positiva ,187 ,086 ,181 ,062 ,075 ,088
Negativa -,158 -,122 -,084 -,068 -,128 -,062
Z de Kolmogorov-Smirnov
1,320 ,865 1,278 ,484 ,907 ,624
Sig. asintt. (bilateral)
,061 ,442 ,076 ,973 ,383 ,830

a. La distribucin de contraste es la Normal.


b. Se han calculado a partir de los datos.

A continuacin comienza el AF propiamente dicho. Esta tcnica estadstica


se encuentra dentro de las Tcnicas de reduccin de datos del SPSS.

Anlisis Multivariado 149


Anlisis de datos con SPSS 14 M Dolores Paz Caballero

Para comprobar que se cumplen las condiciones necesarias para poder


realizar el AF, en Descriptivos pedimos el ndice KMO y prueba de esfericidad de
Bartlett. Aqu podemos solicitar tambin los estadsticos univariados (media y
desviacin tpica de cada variable).

A continuacin debemos especificar en Extraccin el mtodo de extraccin


que queremos utilizar y el criterio para extraer factores. Por defecto, el SPSS
utiliza el mtodo de extraccin de Componentes Principales y, como criterio para
retener un nmero determinado de factores, el criterio de Kaiser que consiste en
seleccionar todos los factores que tengan autovalores superiores a uno.

El mtodo de extraccin de Componentes principales tiene como objetivo


obtener un nmero de componentes (combinaciones lineales de las variables
originales) que expliquen el mximo porcentaje posible de la varianza total. Por
qu podemos tener el extrao capricho de explicar el mximo posible de la varianza
total y no cualquier otra cosa? Supongamos que lo que tenemos son las puntuaciones
de los sujetos en varios tests de personalidad. Si todos los sujetos tuvieran la
misma puntuacin no habra nada que explicar, estaramos midiendo una constante.
Pero no ocurre as, en cada uno de los tests los sujetos varan en sus puntuaciones
y lo que nos interesa saber es qu es lo que provoca esa variacin. Como la
variabilidad de los sujetos en una variable viene reflejada por la varianza de dicha

Anlisis Multivariado 150


Anlisis de datos con SPSS 14 M Dolores Paz Caballero

variable, lo que queremos es explicar al mximo esa varianza , en este caso la de


todas las variables: la varianza total.
Un componente es una variable nueva que se crea para cada sujeto,
multiplicando su puntuacin tpica en cada variable (zj) por el peso que tiene esa
variable en el componente (akj).
Por ejemplo, supongamos que tenemos 4 variables. Estas 4 variables las
podemos convertir en otras 4 nuevas variables que son los componentes. Cada
componente es una combinacin lineal de las variables iniciales. As, para obtener la
puntuacin de un sujeto en el primer componente la frmula sera:

C1 = 0.9 z1 + 0.8 z2 + 0.7 z3 + 0.5 z4

Variables C1 C2 C3 C4
V1 0.9 (0.81) 0.3 (0.09) 0.3 (0.09) 0.1 (0.01) (1)
V2 0.8 (0.64) 0.4 (0.16) 0.4 (0.16) 0.2 (0.04) (1)
V3 0.7 (0.49) 0.5 (0.25) 0.5 (0.25) 0,1 (0.01) (1)
V4 0.5 (0.25) 0.7 (0.49) 0.5 (0.25) 0,1 (0.01) (1)
(2.19) (0.99) (0.75) (0.07) (4)
2

La asignacin de los pesos de cada variable en cada componente se hace de


forma que los componentes:
a) Expliquen el mximo posible de la varianza total
b) No estn correlacionados entre s
c) Cada uno de ellos vaya explicando menos varianza que el anterior.

La varianza de cada componente, tambin llamada autovalor, es la suma de


los pesos al cuadrado. As, la varianza del componente 1 (o primer autovalor) = 0.81
+ 0.64 + 0.49 + 0.25 = 2.19. La varianza total se calcula en puntuaciones tpicas.
Puesto que, en tpicas, la varianza de cada variable es 1, la varianza total es la suma
de varianzas de las variables, es decir, el nmero de variables, en este caso 4. As,
el primer componente explica el 54.7% de la varianza total (2.19/4= 0.547).
El anlisis de Componentes Principales extrae tantos componentes como
variables tengamos. Puesto que el nmero de componentes que se obtiene coincide
con el nmero de variables, si queremos reducir la informacin, hay que determinar
algn criterio para desechar algunos de ellos. Como antes se ha dicho, el criterio
que el SPSS utiliza por defecto es el de retener slo los componentes que tengan
autovalores superiores a 1. Hacindolo as, en nuestro ejemplo nos quedaremos con
un componente que explica el 54.7% de la varianza total. Si hubiramos retenido
dos componentes, el % de varianza total explicada sera [(2.19 + 0.99)/4] x 100 =
79.5%.

2
Entre parntesis van los pesos al cuadrado. Los sumatorios de las filas y de las columnas se refieren a
estos valores.

Anlisis Multivariado 151


Anlisis de datos con SPSS 14 M Dolores Paz Caballero

Variables C1
V1 0.9 (0.81) (0.81)
V2 0.8 (0.64) (0.64)
V3 0.7 (0.49) (0.49)
V4 0.5 (0.25) (0.25)
(2.19) (2.19)

Otro concepto importante en el Anlisis Factorial es el de comunalidad.


Cada variable tiene una comunalidad (suma de los cuadrados de los pesos en los
componentes). Esta comunalidad refleja la proporcin de la varianza de la variable
que se explica a partir de los componentes extrados. Puesto que en un principio se
extraen tantos componentes como variables, la comunalidad de cada una de ellas
queda perfectamente explicada (en un 100%). Al suprimir componentes y quedarnos
slo con los que tienen autovalores mayores que 1, disminuye la comunalidad de cada
variable. En nuestro ejemplo puede verse que, tras extraer 1 componente, la
comunalidad de la V4 es muy baja: slo un 25% de las diferencias en esa variable se
explican a partir de las diferencias que presentan los sujetos en el componente
extrado.

Otro procedimiento utilizado para determinar el nmero de componentes a


retener es el examen del grfico de sedimentacin. Ms tarde nos referiremos a
l.

Los resultados son los siguientes:

Anlisis Multivariado 152


Anlisis de datos con SPSS 14 M Dolores Paz Caballero

Estadsticos descriptivos
D esviacin N del
M edia tpica anlisis
AC C ESIB 3,9200 ,4638 50
C O M PR EN S 2,7960 ,5059 50
D O M IN IO 4,1360 ,5594 50
EVALU A 3,5920 ,3854 50
G LO BAL 3,0874 ,7200 50
PR EPAR 3,0132 1,1278 50

KMO y prueba de Bartlett


Medida de adecuacin muestral de Kaiser-Meyer-Olkin.
,721

Prueba de esfericidad de Bartlett Chi-cuadrado


aproximado 118,806
gl 15
Sig. ,000

Como podemos ver, tanto el valor del ndice KMO (.721) como la prueba de
Bartlett (donde se rechaza la Ho de no correlacin con una significacin de .000),
nos indican que se cumplen las condiciones para la aplicacin del AF.

En la siguiente tabla aparecen las comunalidades, es decir, la proporcin de


varianza de cada variable que es explicada por los componentes. El Anlisis de
Componentes Principales, que es el que ahora estamos realizando, considera las
comunalidades iniciales con valor 1, puesto que, al extraer tantos componentes
como variables, la varianza de cada una de ellas queda perfectamente explicada.
Las comunalidades finales seran la proporcin de varianza de cada variable que
queda explicada con los componentes retenidos.

Comunalidades
Inicial Extraccin
ACCESIB 1,000 ,791
COMPRENS 1,000 ,690
DOMINIO 1,000 ,653
EVALUA 1,000 ,795
GLOBAL 1,000 ,837
PREPAR 1,000 ,705
Mtodo de extraccin: Anlisis de
Componentes principales.

A continuacin se muestran los autovalores de cada componente y el


porcentaje de varianza total que explica cada uno de ellos. Ntese como la suma de
autovalores es igual a 6 (el nmero de variables) y el cociente de cada autovalor y
el nmero de variables (6) nos da la proporcin de varianza que explica cada

Anlisis Multivariado 153


Anlisis de datos con SPSS 14 M Dolores Paz Caballero

componente. Siguiendo la regla de Kaiser, slo se retienen los dos primero


componentes (con autovalores mayores que 1), el primero explica el 48,296% de la
varianza total, y el segundo el 26.219%. As pues, con estos dos componentes se
explicara el 74.516% de la varianza total de las 6 variables.

Varianza total explicada


Sumas de las saturaciones al
Autovalores iniciales cuadrado de la extraccin
% de la % % de la %
Componente Total varianza acumulado Total varianza acumulado
1 2,898 48,296 48,296 2,898 48,296 48,296
2 1,573 26,219 74,516 1,573 26,219 74,516
3 ,541 9,016 83,532
4 ,411 6,851 90,382
5 ,378 6,300 96,682
6 ,199 3,318 100,000
Mtodo de extraccin: Anlisis de Componentes principales.

Para determinar con cuntos componentes vamos a quedarnos, examinamos


tambin el grfico de sedimentacin. En el eje horizontal de dicho grfico estn los
componentes (del 1 al 6), y en el eje vertical los valores propios de cada uno de
ellos. El criterio para decidir cuntos componentes se deben retener es examinar
el grfico desde la derecha (ltimo componente), comprobar en qu punto cambia
de forma brusca su pendiente y retener los componentes a partir de ese punto. En
este caso, el cambio brusco de pendiente se produce entre los componentes 3 y 2,
por lo que retendramos, coincidiendo con la regla de Kaiser, dos componentes.

Grfico de sedimentacin
3,5

3,0

2,5

2,0

1,5

1,0

,5

Autovalor
0,0
1 2 3 4 5 6

Nmero de componente

Anlisis Multivariado 154


Anlisis de datos con SPSS 14 M Dolores Paz Caballero

En la siguiente tabla (Matriz de componentes) aparecen los pesos de las


variables en cada componente (akj) que tambin son las correlaciones de cada
variable con cada componente (coeficientes estructura). Esta correlacin puede
variar entre -1 y 1. La comunalidad final de cada variable (que apareca en una tabla
anterior) se obtiene sumando sus coeficientes estructura al cuadrado en los dos
componentes retenidos. Por ejemplo, la comunalidad final de la variable
Accesibilidad es (-0.188)2 + (0.869)2 = 0.791. Por otra parte, para obtener el
autovalor de un componente se suman los coeficientes estructura al cuadrado de
todas las variables en dicho componente. De este modo, el primer autovalor = ( -
0.188)2 + (0.831)2 + ........+ (0.831)2 = 2.898
a
Matriz de componentes
Componente
1 2
ACCESIB -,188 ,869
COMPRENS ,831 -2,3E-02
DOMINIO ,805 -6,6E-02
EVALUA 6,56E-02 ,889
GLOBAL ,911 8,46E-02
PREPAR ,831 ,122
Mtodo de extraccin: Anlisis de
componentes principales.
a. 2 componentes extrados

Una vez obtenidos los componentes se pasara a la interpretacin de los


mismos teniendo en cuenta los coeficientes estructura. Podemos ver que, en el
primer componente tienen coeficientes altos las variables Global, Prepar, Comprens
y Dominio ; parece tratarse, por tanto, de un componente aptitudinal. Las variables
que correlacionan alto con el segundo componente son Accesib y Evalua. Sera,
pues, un componente ms de tipo actitudinal. Puesto que el item global tiene una
correlacin mucho ms alta con el primer componente, parece que, en nuestro
ejemplo, la evaluacin global del profesor se hace teniendo en cuenta su aptitud,
mucho ms que su actitud.

6.4. Rotacin de la matriz factorial (o la matriz de componentes)

En ocasiones, sobre todo cuando se obtienen ms de dos componentes,


resulta muy difcil la interpretacin de los mismos a partir de la matriz de
componentes inicial. Esta dificultad se debe a que algunas variables pueden tener
pesos importantes (mayores que 0.30 en valor absoluto) en varios componentes.
Conviene entonces utilizar algn mtodo de rotacin y habra que especificarlo al
SPSS porque, por defecto, no utiliza ninguno.

Anlisis Multivariado 155


Anlisis de datos con SPSS 14 M Dolores Paz Caballero

Existen diversos mtodos de Rotacin. Los ms utilizados son la rotacin


ortogonal Varimax y la rotacin oblicua Oblimin.

Si se utiliza el mtodo Varimax, lo que se persigue es, respetando la


ortogonalidad (independencia o no correlacin) de los componentes, hacer ms
simple la estructura factorial. Es decir, se tratara de conseguir que cada variable
tuviera un coeficiente estructura lo ms alto posible en un componente y lo ms
bajo posible en los otros

El mtodo de rotacin oblicua (Oblimin) persigue, como el anterior,


simplificar la estructura factorial pero, a diferencia de la rotacin ortogonal,
ahora los componentes que obtiene no son independientes sino que tienen una
determinada relacin entre ellos.

Cul utilizar?

En general, a no ser que nos interese obtener componentes independientes


porque vayamos despus a utilizarlos en algn anlisis que as lo exija, es ms
aconsejable realizar la rotacin oblimin. La razn es que este procedimiento
respeta la posible relacin que exista entre los componentes y, caso de no estar
relacionados, nos dara un resultado similar a la rotacin ortogonal.

Vamos a realizar a continuacin una rotacin con los datos del archivo
Factor2.sav, donde se han considerado las mismas variables pero en otra muestra
de sujetos.

Aunque seguimos obteniendo dos componentes, ahora cambia algo el


porcentaje de varianza que explican. Como puede verse en la tabla, pasa a ser el
76.245%.

Anlisis Multivariado 156


Anlisis de datos con SPSS 14 M Dolores Paz Caballero

Varianza total explicada


Sumas de las saturaciones al
Autovalores iniciales cuadrado de la extraccin
% de la % % de la %
Componente Total varianza acumulado Total varianza acumulado
1 3,395 56,585 56,585 3,395 56,585 56,585
2 1,180 19,661 76,245 1,180 19,661 76,245
3 ,570 9,503 85,748
4 ,521 8,676 94,424
5 ,204 3,394 97,817
6 ,131 2,183 100,000
Mtodo de extraccin: Anlisis de Componentes principales.

La interpretacin de los componentes obtenidos es bastante complicada: hay


3 variables que tienen pesos superiores a 0.30 en los dos componentes.

a
Matriz de componentes
Componente
1 2
ACCESIB ,404 ,848
COMPRENS ,786 -,325
DOMINIO ,755 -,177
EVALUA ,733 ,497
GLOBAL ,924 -,133
PREPAR ,808 -,242
Mtodo de extraccin: Anlisis de
componentes principales.
a. 2 componentes extrados

Pedimos, pues, una rotacin para poder interpretar los componentes. Por las
razones antes expuesta, vamos a utilizar el procedimiento Oblimin.

Cuando se realiza una rotacin ortogonal, la matriz de componentes rotados


nos da el peso de cada variable en cada componente, que es a la vez su correlacin
con ese componente, es decir, los coeficientes estructura coinciden con los pesos o
ponderaciones en cada componente. Sin embargo, cuando se realiza una rotacin
oblicua se obtienen dos matrices : la matriz de coeficientes estructura, o
correlaciones entre las variables y los componentes, y la matriz de configuracin,
que expresa la importancia, el peso, que tiene cada variable en cada componente, y
es la que ahora hay que interpretar. Como puede observarse en la matriz de
configuracin, igual que ocurra en el caso anterior, el primer componente viene
definido por las variables Global, Comprens, Prepar y Dominio. El segundo
componente viene definido por la variable Accesib, y tambin por Evalua, aunque
esta ltima tiene tambin algn peso en el primer componente.

Anlisis Multivariado 157


Anlisis de datos con SPSS 14 M Dolores Paz Caballero

a
Matriz de configuracin. Matriz de estructura
Componente Componente
1 2 1 2
ACCESIB -,134 ,971 ACCESIB ,161 ,931
COMPRENS ,877 -,107 COMPRENS ,844 ,160
DOMINIO ,764 3,38E-02 DOMINIO ,775 ,266
EVALUA ,357 ,710 EVALUA ,573 ,818
GLOBAL ,888 ,126 GLOBAL ,926 ,396
PREPAR ,848 -1,7E-02 PREPAR ,843 ,241
Mtodo de extraccin: Anlisis de Mtodo de extraccin: Anlisis de
componentes principales. componentes principales.
Metodo de rotacin: Normalizacin Metodo de rotacin: Normalizacin
Oblimin con Kaiser. Oblimin con Kaiser.
a. La rotacin ha convergido en 4
iteraciones.

La interpretacin de los componentes es ms clara a partir de la matriz de


configuracin que teniendo en cuenta la matriz de componentes sin rotar. Antes las
variables Accesib y Comprens aparecan repartidas entre los dos componentes,
mientras que ahora la primera satura claramente en el segundo (componente
actitudinal) y la segunda en el primero (componente aptitudinal). Otra diferencia
respecto a la matriz sin rotar es que la variable Evalua estaba antes repartida
entre los dos componentes, aunque con un peso algo mayor en el primero
(aptitudinal). Ahora, sin embargo, tiene un peso mayor en el segundo componente, lo
que parece ms coherente con la interpretacin que estamos dando de los
componentes obtenidos.

La correlacin entre los 2 componentes es, como puede verse en la tabla


siguiente, 0.304.

Matriz de correlaciones de
componentes
Componente 1 2
1 1,000 ,304
2 ,304 1,000
Mtodo de extraccin: Anlisis de
componentes principales.
Metodo de rotacin: Normalizacin
Oblimin con Kaiser.

6.5. Las puntuaciones factoriales

En ocasiones el AF se utiliza para reducir el nmero de variables a manejar


en anlisis posteriores. Supongamos que, de los 50 sujetos de nuestro ejemplo
(factor2.sav), 25 son catedrticos y 25 titulares, y nos interesa ver si la calidad
docente difiere significativamente entre los dos grupos. Una forma de hacerlo

Anlisis Multivariado 158


Anlisis de datos con SPSS 14 M Dolores Paz Caballero

sera comparar las medias de los dos grupos en todos los items. Sin embargo,
puesto que a partir del AF parece claro que la escala mide un componente de
aptitud y otro actitudinal, se podra reducir el problema calculando para cada
sujeto su puntuacin en cada componente (puntuacin factorial), con lo que
quedaran solamente dos variables a comparar. Hacindolo as, adems de ahorrar
tiempo en los anlisis, evitamos en gran medida el problema del aumento de error
tipo I que ocurre cuando hacemos mltiples comparaciones, y, por otra parte,
aumentamos la fiabilidad de los resultados, puesto que, al utilizar varias medidas
de una misma variable, el error de medida es menor que si utilizramos slo una.

Hay que tener en cuenta que las puntuaciones factoriales varan en funcin
de si hemos pedido o no rotacin y del tipo de rotacin realizado. Cuando es
necesaria la rotacin para interpretar los componentes tambin es necesaria
pedirla para obtener puntuaciones factoriales si queremos que stas sean
interpretables. Por otra parte, si se van a utilizar en posteriores anlisis, conviene,
siempre que sea posible, realizar una rotacin ortogonal. En este caso concreto, si
vamos a comparar titulares y catedrticos en los dos componentes, es preferible
que stos sean independientes para asegurarnos de que las diferencias entre los
grupos en una variable (puntuacin factorial) no se deben a lo que tiene en comn
con la otra.

Para obtener las puntuaciones de cada sujeto en cada uno de los


componentes (o factores) retenidos, en la opcin Puntuaciones del men del
Anlisis Factorial, tenemos que especificar Guardar como variables. En Rotacin
pedimos "Varimax".

En la matriz de datos aparecen dos nuevas columnas con las puntuaciones en


el primer y segundo componente Estas puntuaciones son puntuaciones tpicas, con
media cero y con un rango que, en general, va de -2.5 a +2.5. As pues, nos sirven
para describir la posicin de cada sujeto en cada componente. Por ejemplo,
podemos decir que el profesor 1 est por debajo de la media en los dos
componentes, o que el profesor 12 est por debajo de la media en el componente
aptitudinal, pero que su actitud es mejor que la de la media.

Anlisis Multivariado 159


Anlisis de datos con SPSS 14 M Dolores Paz Caballero

Adems de servirnos para resumir los datos de cada sujeto, las


puntuaciones factoriales pueden ser utilizadas en diversos anlisis estadsticos.
En este caso, tomando como variable de agrupacin la categora (Titular o
Catedrtico), hemos pedido una diferencia de medias. Como variables
dependientes, adems de las puntuaciones en los dos componentes, hemos
considerado tambin los 6 tems de la escala al objeto de comparar los resultados
obtenidos con ambos procedimientos.

En la tabla siguiente aparecen las medias y desviaciones tpicas de ambos


grupos en cada una de las variables. Puede verse que las diferencias entre titulares
y catedrticos son bastante pequeas, la mayor es la que aparece en la variable
dominio, a favor de los segundos.

Anlisis Multivariado 160


Anlisis de datos con SPSS 14 M Dolores Paz Caballero

E s ta d s tic o s d e l g ru p o

E rro r tp .
D e s via c i n d e la
CATEGORI N M e d ia tp . m e d ia
R E G R fa c to r s c o re T itu la r 24 -,1 6 9 1 6 2 6 1 ,0 6 1 4 5 8 7 ,2 1 6 6 6 9 3
1 fo r a n a lys is 1 C a te d r tic o 26 ,1 5 6 1 5 0 1 ,9 3 3 0 6 5 7 ,1 8 2 9 8 9 2
R E G R fa c to r s c o re T itu la r 24 9 ,3 7 E -0 2 1 ,0 6 3 1 5 3 9 ,2 1 7 0 1 5 4
2 fo r a n a lys is 1 C a te d r tic o 26 -8 ,7 E -0 2 ,9 5 0 7 4 4 0 ,1 8 6 4 5 6 2
A C C E S IB T itu la r 24 4 ,0 5 7 1 ,8 2 6 9 ,1 6 8 8
C a te d r tic o 26 4 ,0 3 0 8 ,7 7 2 4 ,1 5 1 5
COMPRENS T itu la r 24 2 ,7 7 9 2 ,5 1 6 7 ,1 0 5 5
C a te d r tic o 26 2 ,8 1 1 5 ,5 0 5 4 9 ,9 1 E -0 2
D O M IN IO T itu la r 24 3 ,9 4 5 8 ,5 8 0 8 ,1 1 8 6
C a te d r tic o 26 4 ,3 1 1 5 ,4 8 6 1 9 ,5 3 E -0 2
EVALUA T itu la r 24 3 ,5 2 8 8 ,8 1 2 4 ,1 6 5 8
C a te d r tic o 26 3 ,3 5 9 6 ,7 0 0 9 ,1 3 7 4
PREPAR T itu la r 24 2 ,8 8 0 4 1 ,0 4 7 2 ,2 1 3 8
C a te d r tic o 26 3 ,1 3 5 8 1 ,2 0 4 9 ,2 3 6 3
G LO BAL T itu la r 24 2 ,9 8 6 3 ,8 0 5 1 ,1 6 4 3
C a te d r tic o 26 3 ,1 3 0 8 ,6 6 0 8 ,1 2 9 6

A continuacin, se muestra la significacin estadstica de cada una de las


diferencias. Podemos observar que no existen diferencias significativas en ninguno
de los dos componentes. Al comparar las medias de los 6 tems nos encontramos,
sin embargo, con una superioridad significativa de los catedrticos en la variable
dominio, que era una de las variables del factor aptitudinal. La razn de que la
diferencia en esta variable no se refleje en diferencias en el componente
aptitudinal es que dicha variable es la que tena un menor coeficiente estructura en
este componente. Adems, si corregimos el aumento de error tipo I para las 6
comparaciones realizadas, la diferencia dejara de ser significativa.

Prueba de muestras independientes

Prueba de Levene
para la igualdad de
varianzas Prueba T para la igualdad de medias
95% Intervalo de
confianza para la
Diferencia Error tp. de diferencia
F Sig. t gl Sig. (bilateral) de medias la diferencia Inferior Superior
REGR factor scor Se han asumido
1,522 ,223 -1,153 48 ,255 -,3253126 ,2821219 -,8925568 ,2419315
1 for analysis 1 varianzas iguales
No se han asumido
-1,147 45,987 ,257 -,3253126 ,2836030 -,8961801 ,2455549
varianzas iguales
REGR factor scor Se han asumido
,852 ,361 ,633 48 ,530 ,1802174 ,2848173 -,3924462 ,7528810
2 for analysis 1 varianzas iguales
No se han asumido
,630 46,286 ,532 ,1802174 ,2861147 -,3956056 ,7560405
varianzas iguales

Anlisis Multivariado 161


Anlisis de datos con SPSS 14 M Dolores Paz Caballero

Prueba de muestras independientes

Prueba de Levene
para la igualdad de
varianzas Prueba T para la igualdad de medias
95% Intervalo de
confianza para la
Diferencia Error tp. de diferencia
F Sig. t gl Sig. (bilateral) de medias la diferencia Inferior Superior
PREPAR Se han asumido
1,639 ,207 -,797 48 ,429 -,2554 ,3205 -,8997 ,3890
varianzas iguales
No se han asumido
-,801 47,838 ,427 -,2554 ,3186 -,8961 ,3854
varianzas iguales
DOMINIO Se han asumido
1,246 ,270 -2,421 48 ,019 -,3657 ,1510 -,6694 -6,20E-02
varianzas iguales
No se han asumido
-2,404 45,034 ,020 -,3657 ,1521 -,6721 -5,93E-02
varianzas iguales
COMPRENS Se han asumido
,031 ,861 -,224 48 ,824 -3,2372E-02 ,1446 -,3231 ,2584
varianzas iguales
No se han asumido
-,224 47,490 ,824 -3,2372E-02 ,1447 -,3235 ,2587
varianzas iguales
ACCESIB Se han asumido
,703 ,406 ,116 48 ,908 2,631E-02 ,2262 -,4284 ,4811
varianzas iguales
No se han asumido
,116 46,950 ,908 2,631E-02 ,2268 -,4300 ,4826
varianzas iguales
EVALUA Se han asumido
1,418 ,240 ,790 48 ,433 ,1691 ,2141 -,2613 ,5996
varianzas iguales
No se han asumido
,785 45,640 ,436 ,1691 ,2154 -,2645 ,6028
varianzas iguales
GLOBAL Se han asumido
1,958 ,168 -,696 48 ,490 -,1445 ,2076 -,5620 ,2729
varianzas iguales
No se han asumido
-,691 44,623 ,493 -,1445 ,2093 -,5661 ,2771
varianzas iguales

6.6. Otros mtodos para extraer los coeficientes estructura

Adems del mtodo de los componentes principales, pueden utilizarse


distintos mtodos de extraccin de los coeficientes estructura. Mientras que el
objetivo del ACP es explicar el mximo porcentaje de la varianza total con cada uno
de los componentes, el objetivo de los dems mtodos de extraccin (que se
incluyen dentro del trmino genrico Anlisis Factorial) es explicar el mximo
porcentaje de la varianza comn de las variables, es decir, de las correlaciones
entre ellas. Por tanto, lo que intentan dichos mtodos es minimizar la matriz
residual : la matriz de diferencias entre las correlaciones iniciales entre las
variables y las correlaciones que resultan despus de retener un nmero
determinado de factores. La correlacin entre dos variables despus de extraer un
determinado nmero de factores es la suma de los productos cruzados de los
coeficientes estructura en cada uno de los factores extrados.

Respecto al procedimiento utilizado, la diferencia es la siguiente :

En el ACP la obtencin de los coeficientes estructura se realiza partiendo de la


matriz de correlaciones entre todas las variables considerando 1 los valores de
la diagonal principal. Para obtener los coeficientes estructura a partir de esta
matriz se aplica un determinado algoritmo de forma que el ACP ofrece una
solucin matemtica nica.

Anlisis Multivariado 162


Anlisis de datos con SPSS 14 M Dolores Paz Caballero

El resto de los mtodos de extraccin parten tambin de la matriz de


correlaciones, pero los valores que incluyen en la diagonal son los cuadrados de
las correlaciones mltiples de cada variable con las dems (que es lo que ahora
se intenta explicar). Esto es lo que provoca que los coeficientes estructura
obtenidos sean menores que los obtenidos con el ACP para unos mismos datos. Al
ser menores estos coeficientes tambin van a ser menores los autovalores y las
comunalidades finales de cada variable. Por otra parte, la estimacin de los
coeficientes estructura se realiza mediante un proceso iterativo que se detiene
cuando se reduce al mximo la matriz residual. Esto explica que estos mtodos
de extraccin no den una solucin nica, distintos valores de los coeficientes
estructura pueden reproducir igualmente bien la matriz de correlaciones
observada. Entre los mtodos de estimacin ms utilizados est el de mxima
verosimilitud.

Vamos a analizar los datos del ejemplo factor2.sav utilizando el mtodo de


extraccin de Mxima verosimilitud (conviene aumentar a 100 el nmero de
iteraciones, porque con 25, que es el valor que aparece por defecto, muchas veces
no se llega a alcanzar una solucin ptima). En Descriptivos pedimos la matriz de
correlaciones reproducida, y, como criterio para extraer factores empezamos
utilizando el de Kaiser (autovalores mayores que 1). Tngase en cuenta, sin
embargo, que el criterio final para decidir cuntos factores deben extraerse es el
de quedarse con el mnimo nmero de factores siempre que el modelo ajuste a los
datos.

Anlisis Multivariado 163


Anlisis de datos con SPSS 14 M Dolores Paz Caballero

Antes de pasar a examinar los resultados del AF, debemos examinar el


ndice KMO y la significacin estadstica de la prueba de Bartlett (Tabla 16).
Vemos que esta ltima est por debajo de 0.05, requisito para continuar con el
anlisis. El ndice KMO est muy prximo a 0,7, lmite por encima del cual ya se
considera bueno.

Tabla 4.16. KMO y prueba de Bartlett


Medida de adecuacin muestral de Kaiser-Meyer-Olkin.
,697

Prueba de esfericidad de Bartlett Chi-cuadrado


159,349
aproximado
gl 15
Sig. ,000

A continuacin aparecen las comunalidades iniciales (correlaciones mltiples


al cuadrado) y las comunalidades estimadas. El hecho de que algunas comunalidades
estimadas sean mayores que uno nos pone sobre aviso acerca de la fiabilidad de los
resultados. Esto es lo que se conoce como soluciones impropias , y uno de los
motivos por los que puede ocurrir es cuando la razn variable por factor es muy
pequea, como ocurre en nuestro caso donde el factor 2 viene definido solamente
por dos variables.

Anlisis Multivariado 164


Anlisis de datos con SPSS 14 M Dolores Paz Caballero

a
Comunalidades
Inicial Extraccin
ACCESIB ,444 ,326
COMPRENS ,679 ,717
DOMINIO ,463 ,420
EVALUA ,623 ,999
GLOBAL ,809 ,950
PREPAR ,631 ,543
Mtodo de extraccin: Mxima
verosimilitud.
a. Se han encontrado una o ms
estimaciones de la comunalidad
mayores que 1,0 durante las
iteraciones. La solucin
resultante debe interpretarse
con precaucin.

En la siguiente tabla puede observarse que, si bien el nmero de factores


retenidos es el mismo que en el ACP (se ha utilizado el mismo criterio), los
autovalores y el porcentaje total de varianza explicado (que aparecen en la parte
derecha de la tabla) cambian respecto a los obtenidos antes. La varianza total
explicada es algo menor y est ms repartida entre los dos factores.

Varianza total explicada


Sumas de las saturaciones al
Autovalores iniciales cuadrado de la extraccin
% de la % % de la %
Factor Total varianza acumulado Total varianza acumulado
1 3,395 56,585 56,585 2,236 37,262 37,262
2 1,180 19,661 76,245 1,719 28,645 65,906
3 ,570 9,503 85,748
4 ,521 8,676 94,424
5 ,204 3,394 97,817
6 ,131 2,183 100,000
Mtodo de extraccin: Mxima verosimilitud.

A continuacin (Matriz factorial) se muestran los coeficientes estructura,


las correlaciones entre cada variable y cada factor. Puede verse que, exceptuando
las variables Evalua y Accesib, el resto de las variables tienen ahora coeficientes
estructura menores que los obtenidos en el ACP. A partir de esta matriz factorial
se obtienen las correlaciones reproducidas entre las variables, que son las que se
comparan con las correlaciones iniciales para determinar si las diferencias son o no
significativas. Por ejemplo, la correlacin reproducida entre las variables Global y
Preparacion sera : (.597)(.554) + (.770)(.486) = .705.

Anlisis Multivariado 165


Anlisis de datos con SPSS 14 M Dolores Paz Caballero

a
Matriz factorial
Factor
1 2
ACCESIB ,561 -,102
COMPRENS ,359 ,766
DOMINIO ,358 ,540
EVALUA ,999 -1,1E-02
GLOBAL ,597 ,770
PREPAR ,554 ,486
Mtodo de extraccin: Mxima
verosimilitud.
a. 2 factores extrados.
Requeridas 9 iteraciones.

En la siguiente tabla se pone a prueba el ajuste del modelo a los datos. Este
ajuste se calcula teniendo en cuenta la matriz residual que aparece despus de la
prueba de ajuste. Ntese como en la matriz residual hay valores altos (el 20% de
las diferencias entre las correlaciones iniciales y las reproducidas es superior a
0.05). Este es el motivo de que no se produzca un buen ajuste, la significacin
menor que 0.05 nos lleva a rechazar la Ho de que no existe diferencia entre la
matriz de correlaciones observada y la matriz de correlaciones reproducida. Puesto
que el modelo no ajusta a los datos, todos los resultados deben ser interpretados
con precaucin. En un caso as se recomienda la utilizacin del ACP.
En otros casos en los que se trabaja con ms variables, para mejorar el
ajuste es necesario aumentar el nmero de factores a extraer (cambiaramos la
opcin autovalores mayores que uno por la de nmero de factores = k). Con los
datos que tenemos es imposible pedir tres factores, pues los grados de libertad en
ese caso seran 0 y no podramos analizar el ajuste. La frmula para calcular los
grados de libertad del estadstico chi-cuadrado de bondad de ajuste es la
siguiente :

g.l. = 0.5 [(n-k)2 - n - k]


donde n es el nmero de variables y k el nmero de factores.

Prueba de la bondad de ajuste

C hi-cuadrado gl Sig.
11,676 4 ,020

Anlisis Multivariado 166


Anlisis de datos con SPSS 14 M Dolores Paz Caballero

Correlaciones reproducidas
PREPAR DOMINIO COMPRENS ACCESIB EVALUA GLOBAL
Correlacin reproducida PREPAR ,543b ,461 ,571 ,261 ,549 ,705
DOMINIO ,461 ,420b ,543 ,146 ,352 ,630
COMPRENS ,571 ,543 ,717b ,123 ,351 ,805
ACCESIB ,261 ,146 ,123 ,326b ,562 ,256
EVALUA ,549 ,352 ,351 ,562 ,999b ,588
GLOBAL ,705 ,630 ,805 ,256 ,588 ,950b
Residuala PREPAR ,118 -3,541E-02 -,199 1,703E-04 -2,75E-03
DOMINIO ,118 -1,512E-02 7,543E-02 -1,29E-04 -4,83E-03
COMPRENS -3,54E-02 -1,51E-02 -7,90E-03 1,956E-05 3,303E-03
ACCESIB -,199 7,543E-02 -7,896E-03 7,804E-05 1,063E-02
EVALUA 1,703E-04 -1,29E-04 1,956E-05 7,804E-05 -6,74E-06
GLOBAL -2,75E-03 -4,83E-03 3,303E-03 1,063E-02 -6,74E-06
Mtodo de extraccin: Mxima verosimilitud.
a. Los residuos se calculan entre las correlaciones observadas y reproducidas. Hay 3 (20,0%) residuos no
redundantes con valores absolutos > 0,05.
b. Comunalidades reproducidas

Aparecen a continuacin las matrices que resultan de realizar una rotacin


Oblimin. Recurdese que, en este caso, la matriz a interpretar es la matriz de
configuracin. En dicha matriz, a diferencia de lo que reflejaba la matriz de
factores, cada variable aparece claramente en un factor. La estructura factorial
es la misma que la encontrada con el mtodos de los componentes principales.
Aparecen, aunque con distinta importancia relativa, un factor aptitudinal (en el que
tienen pesos elevados las variables Comprens, Dominio, Global y Prepar) y otro
actitudinal (representado por las variables Evalua y, en menor medida, Accesib).

a
Matriz de configuracin.
Factor
1 2
ACCESIB ,586 -3,7E-02
COMPRENS -,138 ,899
DOMINIO 4,44E-04 ,648
EVALUA ,938 ,125
GLOBAL 8,11E-02 ,936
PREPAR ,217 ,614
Mtodo de extraccin: Mxima
verosimilitud.
Metodo de rotacin: Normalizacin
Oblimin con Kaiser.
a. La rotacin ha convergido en 4
iteraciones.

Anlisis Multivariado 167


Anlisis de datos con SPSS 14 M Dolores Paz Caballero

Matriz de estructura
Factor
1 2
ACCESIB ,570 ,225
COMPRENS ,263 ,837
DOMINIO ,289 ,648
EVALUA ,993 ,543
GLOBAL ,498 ,972
PREPAR ,491 ,711
Mtodo de extraccin: Mxima
verosimilitud.
Metodo de rotacin: Normalizacin
Oblimin con Kaiser.

Por ltimo, y como se ha realizado una rotacin oblicua, se da el valor de la


correlacin entre los dos factores .

M a triz de c o rre la c io ne s e ntre lo s


fa c to re s

F a c tor 1 2
1 1 ,00 0 ,4 4 6
2 ,4 4 6 1 ,0 0 0
M to d o d e ex trac c i n : M x im a
ve ros im ilitu d .
M e to d o d e ro tac i n : N o rm a lizac i n
O b lim in c o n K a is e r.

Para los datos de este ejemplo, sin embargo, debemos quedarnos con los
resultados del anlisis de Componentes Principales, puesto que el anlisis de
Mxima Verosimilitud no nos ofrece un ajuste satisfactorio. En general, el mtodo
de extraccin de Componentes Principales es el que debemos utilizar si nos
interesa explorar la dimensionalidad de un conjunto de variables o si queremos
obtener las puntuaciones factoriales para reducir datos. Cuando partimos de alguna
hiptesis acerca del nmero de dimensiones resulta ms adecuado el mtodo de
extraccin de Mxima Verosimilitud, que nos da la probabilidad de ajuste de
nuestro modelo hipotetizado a los datos empricos. Veamos un ejemplo :

En el archivo androginia.sav estn las puntuaciones de 42 sujetos en cinco


escalas de personalidad : Agresividad, Liderazgo, Control, Sensibilidad y
Dependencia emocional. Las tres primeras intentan medir el constructo
Masculinidad y las dos ltimas Feminidad. La hiptesis que queremos poner a
prueba es que Masculinidad y Feminidad son dos dimensiones independientes y
no los dos polos de una misma dimensin. Para ello, una vez comprobada la
normalidad de las 5 variables, pedimos un Anlisis Factorial con el mtodo de

Anlisis Multivariado 168


Anlisis de datos con SPSS 14 M Dolores Paz Caballero

Mxima Verosimilitud y cambiamos la opcin Autovalores mayores que uno por


Nmero de factores = 2. Los resultados son los siguientes :

KMO y prueba de Bartlett


Medida de adecuacin muestral de Kaiser-Meyer-Olkin.
,691

Prueba de esfericidad de Bartlett Chi-cuadrado aproximado


57,643
gl 10
Sig. ,000

a
Comunalidades
Inicial Extraccin
AGRESIV ,559 ,722
LIDERAZ ,472 ,582
CONTROL ,495 ,611
SENSIBIL ,245 ,999
DEPENDEN ,166 ,157
Mtodo de extraccin: Mxima verosimilitud.
a. Se han encontrado una o ms estimaciones de la
comunalidad mayores que 1,0 durante las iteraciones.
La solucin resultante debe interpretarse con
precaucin.

Varianza total explicada


Sumas de las saturaciones al
Autovalores iniciales cuadrado de la extraccin
% de la % % de la %
Factor Total varianza acumulado Total varianza acumulado
1 2,415 48,294 48,294 1,332 26,634 26,634
2 1,291 25,818 74,112 1,740 34,793 61,426 a
3 ,596 11,929 86,041
4 ,387 7,738 93,779
5 ,311 6,221 100,000
Mtodo de extraccin: Mxima verosimilitud.
a. Cuando los factores estn correlacionados, no se pueden sumar las sumas de los cuadrados
de las saturaciones para obtener una varianza total.

a
Matriz factorial
Factor
1 2
AGRESIV -,306 ,793
LIDERAZ -,198 ,736
CONTROL -,275 ,732
SENSIBIL ,999 1,666E-03
DEPENDEN ,352 ,182
Mtodo de extraccin: Mxima verosimilitud.
a. 2 factores extrados. Requeridas 5 iteraciones.

Anlisis Multivariado 169


Anlisis de datos con SPSS 14 M Dolores Paz Caballero

P ru e b a d e la b o n d a d d e a ju s te

C h i-c u a d ra d o gl S ig .
,6 6 8 1 ,4 1 4

Como vemos por la prueba de bondad de ajuste, el modelo de dos factores


ajusta a los datos. La cuestin es ver si tambin ajusta el modelo de un factor.
Como antes se dijo, el criterio para determinar cuntos factores deben retenerse
cuando se utiliza el mtodo de Mxima Verosimilitud es el mnimo nmero de
factores siempre que haya ajuste. As pues, repetimos el anlisis anterior pidiendo
ahora Nmero de factores = 1.

M atriz factorial a

Factor
1
AG R ESIV ,849
LID ER AZ ,756
CONTROL ,785
SEN SIBIL -,330
D EPEN D EN 3,109E-02
M todo de extraccin: M xim a verosim ilitud.
a. 1 factores extrados. R equeridas 5 iteraciones.

P r u e b a d e la b o n d a d d e a ju s t e

C h i- c u a d r a d o gl S ig .
7 ,2 7 2 5 ,2 0 1

Puesto que con un factor no podemos rechazar la hiptesis nula de ajuste


del modelo, los resultados nos llevan a concluir que Masculinidad y Feminidad
son dos polos de la misma dimensin. Agresividad, Liderazgo y Control estaran
positivamente relacionados con Masculinidad, mientras que Sensibilidad
correlacionara negativamente. La variable Dependencia, como puede verse en la
matriz factorial, no parece relacionada con la dimensin Masculinidad-Feminidad.

Anlisis Multivariado 170


Anlisis de datos con SPSS 14 M Dolores Paz Caballero

6.7. Alternativas no paramtricas al AF

El AF slo puede aplicarse cuando las variables son cuantitativas y cumplen,


adems, una serie de supuestos. Ahora bien, muchas veces, las variables cuyas
interrelaciones queremos explorar son variables categricas, como la presencia o
ausencia de determinados sntomas, la respuesta a los tems de un test, etc. En
esta situacin la aplicacin del AF no estara justificada y tenemos que usar una
tcnica no paramtrica alternativa, como es el "Anlisis de Homogeneidad"
(HOMALS), tambin llamado "Escalamiento ptimo". Veamos un ejemplo:

Treinta pacientes con edades superiores a los 55 aos han acudido a una
consulta psiquitrica. Se les ha aplicado un cuestionario para que contesten si
presentan o no cada uno de los 7 sntomas que aparecen a continuacin:

- Prdida de atencin
- Insomnio
- Sopor diurno
- Prdida de memoria
- Cambios en las relaciones afectivas
- Torpeza motora
- Depresin

Los datos obtenidos estn en el archivo homals.sav. Se ha puntuado con un 1


la ausencia del sntoma y con un 2 la presencia. Caso de haber codificado de otro
modo los valores, por ejemplo 0 y 1, tendramos que recodificarlos pues el
escalamiento ptimo considera los valores 0 como valores perdidos.

Anlisis Multivariado 171


Anlisis de datos con SPSS 14 M Dolores Paz Caballero

Lo que nos interesa es ver qu relacin hay entre estos sntomas, es decir,
si todos forman parte del mismo sndrome o si se agrupan en distintos
subconjuntos cada uno de ellos indicativo de un trastorno distinto.
Para ello, y teniendo en cuenta que el tamao de la muestra es pequeo y que
las variables son todas categricas, utilizamos el "Anlisis de homogeneidad". Esta
tcnica est incluida en Reduccin de datos - Escalamiento ptimo.

En el cuadro de dilogo que nos aparece dejamos las opciones marcadas por
defecto.

Pulsando "Definir" entramos en el siguiente cuadro, donde especificamos las


variables cuyas relaciones queremos analizar. En este caso todas. Tambin hay que
indicar el nmero de dimensiones que queremos obtener. Por defecto se obtendran
2 dimensiones.

Anlisis Multivariado 172


Anlisis de datos con SPSS 14 M Dolores Paz Caballero

En Resultados pedimos Medidas discriminantes para obtener el peso de


cada variable en cada dimensin. Tambin podemos pedir los estadsticos
descriptivos (distribucin de frecuencias de cada variable) y las Cuantificaciones
y contribuciones de las categoras si queremos saber si el peso de cada variable
en cada dimensin es positivo o negativo.

Anlisis Multivariado 173


Anlisis de datos con SPSS 14 M Dolores Paz Caballero

De los resultados que nos ofrece el SPSS nos interesan fundamentalmente


las siguientes tablas:

Resumen del procesamiento de los casos


Casos usados
30
en el anlisis

Resumen del modelo

Varianza explicada
Alfa de Total % de la
Dimensin Cronbach (Autovalores) Inercia varianza
1 ,780 3,019 ,431 43,125
2 ,745 2,764 ,395 39,490
Total 5,783 ,826
Media ,763(a) 2,892 ,413 41,308

Medidas de discriminacin

Dimensin
1 2
Atencin disminuida ,997 ,001
Insomnio ,009 ,520
Sopor diurno ,001 ,781
Prdida de memoria ,016 ,678
Cambio en las relaciones ,997 ,001
Torpeza motora ,001 ,781
Tristeza ,997 ,001

La tabla de Resumen del modelo nos indica la proporcin de varianza


explicada por cada dimensin: 0.431 por la primera y 0.395 por la segunda. Con dos
dimensiones, por tanto, explicamos el 0.826 (82.6%) de la varianza total. Como este
porcentaje es bastante alto no hace falta que repitamos el anlisis pidiendo tres
dimensiones.
En lo que respecta a las medidas de discriminacin, son, como en el AF, los
pesos de cada variable en cada componente, slo que en este caso elevados al
cuadrado. As, para interpretar cada dimensin tenemos que ver cules son las
variables que tienen altas medidas de discriminacin en la misma.

Vemos que, la primera dimensin viene definida por:


- Atencin disminuida
- Cambio en las relaciones afectivas
- Tristeza
Podra tratarse de una dimensin de depresin.

Anlisis Multivariado 174


Anlisis de datos con SPSS 14 M Dolores Paz Caballero

En cuanto a la segunda dimensin, los sntomas que la definen son:


- Sopor diurno
- Torpeza motora
- Prdida de memoria
- Insomnio.
Todos ellos son sntomas que podran indicar el principio de una demencia
senil.

Ambas dimensiones, como en el AF si no se realiza ningn tipo de rotacin,


son ortogonales, es decir, independientes. Eso quiere decir que cada una de
ellas se corresponde con una enfermedad o trastorno distinto.

RESUMEN

El Anlisis Factorial (AF) es una de las tcnicas multivariadas que analizan las
relaciones de interdependencia entre varias variables. Estas variables deben:

9 Ser cuantitativas
9 Tener distribucin normal
9 Estar correlacionadas entre s

En cuanto a la muestra necesaria para aplicar la tcnica, se aconseja que haya al


menos 10 sujetos por variable.

Podemos utilizar el AF con dos objetivos importantes:

9 Determinar cuntas dimensiones subyacen a un conjunto de variables.


9 Reducir las puntuaciones en una serie de variables a un nmero menor de
puntuaciones factoriales.

Existen diversos procedimientos para realizar un AF, uno de los ms utilizados es


el mtodo de Componentes Principales y es el que se aconseja utilizar cuando
queremos explorar la dimensionalidad de un conjunto de variables o cuando
queremos reducir el nmero inicial de variables. Si nos interesa comprobar una
hiptesis sobre un determinado nmero de factores resulta ms adecuado el uso de
otros procedimientos de AF, como el mtodo de Mxima Verosimilitud.

Por ltimo, cuando las variables cuya interrelacin queremos analizar son
categricas, se debe utilizar alguna alternativa no paramtrica al AF, como es el
Escalamiento ptimo.

Anlisis Multivariado 175

Вам также может понравиться