Вы находитесь на странице: 1из 9

Análisis Factorial

Introducción
El análisis de componentes principales y el análisis factorial tienen en
común que son técnicas para examinar la interdependencia de variables.
Difieren en su objetivo, sus características y su grado de formalización.
Mientras que el objetivo del análisis de componentes principales es
explicar la mayor variabilidad total de un conjunto de variables con el
menor número de componentes posibles, en el análisis factorial, los
factores son seleccionados para explicar las interrelaciones entre
variables.
En componentes principales se determinan los pesos o ponderaciones que
tienen cada una de las variables en cada componente; es decir, las
componentes principales se explican en función de las variables
observables. Sin embargo, en el análisis factorial las variables originales
juegan el papel de variables dependientes que se explican por factores
comunes y únicos, que no son observables.
Por otra parte el análisis de componentes principales es una técnica
estadística de reducción de datos que puede situarse en el dominio de la
estadística descriptiva, , mientras que el análisis factorial implica la
elaboración de un modelo que requiere la formulación de hipótesis
estadísticas y la aplicación de métodos de inferencia.
Existen dos formas fundamentales de análisis factorial: exploratorio y
confirmatorio. El análisis factorial exploratorio (AFE) se realiza cuando el
investigador no tiene hipótesis a priori sobre cuáles pueden ser los
factores que influyan en las variables medidas. Suele realizarse en las
etapas iniciales de un proyecto de investigación. Permite identificar
factores que pueden luego contrastarse en un análisis confirmatorio. El
análisis factorial confirmatorio (AFC) se realiza, por tanto, cuando se
tienen una idea clara de qué factores pueden extraerse. En general se le
considera como un caso particular de los modelos de ecuaciones
estructurales.
El análisis factorial consta de cuatro fases características: el cálculo de una
matriz capaz de expresar la variabilidad conjunta de todas las variables,
la extracción del número óptimo de factores, la rotación de la solución
para facilitar su interpretación y la estimación de las puntuaciones de los
sujetos en las nuevas dimensiones.
Matriz de Correlaciones.
El primer paso del análisis consiste en la obtención de una matriz que
contienen las correlaciones entre todos los pares de variables superficiales
medidas, llamada matriz de correlaciones observada. Cuando el número
de variables medidas es muy elevado, que es lo frecuente, se hace
necesario tener índices que permitan saber si hay correlaciones altas en la
matriz que permitan extraer factores. Hay varias pruebas utilizables en
este sentido: el determinante de la matriz, el test de esfericidad de
Bartlett, la prueba de Kaiser – Meyer – Olkin y la correlación anti imagen.
Determinante de la Matriz de Correlaciones.
El determinante de la matriz se emplea como índice del tamaño de las
correlaciones. Cuando su valor es elevado, las correlaciones dentro de la
matriz son bajas. Por el contrario, un determinante bajo indica que hay
algunas correlaciones altas en la matriz.
La prueba de esfericidad de Bartlett
Esta prueba está diseñada para contrastar la hipótesis de que los
elementos de fuera de la diagonal positiva de la matriz de correlaciones
son cero (las diagonales son siempre 1). Una matriz que cumple siempre
esta propiedad se llama matriz identidad. Dicho de otra forma, contrasta
la hipótesis nula de que la matriz de correlaciones es una matriz
identidad, en cuyo caso no existiría correlaciones significativas entre las
variables y el modelo factorial no sería pertinente.
KMO
Es una medida de adecuación muestral, que contrasta si las correlaciones
parciales entre las variables son suficientemente pequeñas. Permite
comparar la magnitud de los coeficientes de correlación observados con
la magnitud de los coeficientes de correlación parcial. Sus valores se
encuentran entre 0 y 1. Valores pequeños indican que el análisis factorial
puede no ser una buena idea, dado que las correlaciones entre los pares
de variables no pueden ser explicadas por otras variables. Los menores
que 0,5 indican que no debe utilizarse el análisis factorial con los datos
muestrales que se están analizando.
Matriz Anti imagen
Muestra la Matriz de covarianzas anti imagen y la matriz de correlaciones
anti imagen. La matriz de covarianzas anti imagen contienen los
negativos de las covarianzas parciales y la matriz de correlaciones anti
imagen contiene los coeficientes de correlación parcial cambiados de
signo. En la diagonal de la matriz de correlaciones anti imagen se
encuentran las medidas de adecuación muestral para cada variable. Si el
modelo factorial elegido es adecuado para explicar los datos, los
elementos de la diagonal de la matriz de correlaciones anti imagen deben
tener un valor próximo a la unidad y el resto de elementos deben ser
pequeños.
Extracción de Factores
La extracción de factores es un aspecto fundamental del análisis, puesto
que es precisamente donde se trata de reducir la información contenida
en las variables superficiales a un número pequeño de variables latentes.
Escuela Nacional de Estadística e Informática
a. Componentes principales: Método de Extracción en que los factores
obtenidos son los autovalores de la matriz de correlaciones re escalados.
Curso: Estadística Aplicada Docente: Willer David Chanduvi Puicon
b. Mínimos cuadrados no ponderados: Método de extracción que
minimiza la suma de los cuadrados de las diferencias entre las matrices
de correlaciones observada y reproducida, ignorando los elementos de la
diagonal.
c. Mínimos Cuadrados Generalizados: Método de extracción que
minimiza la suma de los cuadrados de las diferencias entre las matrices
de correlaciones observada y reproducida. Este método genera un
estadístico de bondad de ajuste chi cuadrado que permite contrastar la
hipótesis nula de que la matriz residual es una matriz nula.
d. Máxima Verosimilitud: Proporciona las estimaciones de los parámetros
que con mayor probabilidad han producido la matriz de correlaciones
observada, asumiendo que la muestra procede de una distribución
normal multivariada.
e. Ejes principales: Método de estimación iteractivo en el que, como
estimación inicial de la comunalidad, la matriz de correlaciones original
se reduce sustituyendo los unos de su diagonal por las estimaciones de la
correlación múltiple al cuadrado entre cada variable y todas las demás.
f. Alfa: Método que considera las variables incluidas en el análisis como
una muestra del universo de las variables posibles.
g. Imagen: Método en el que se auto descompone la matriz de
correlaciones imagen. Se asume que la comunalidad es igual al cuadrado
de la correlación múltiple entre una variable y todas las demás.
Comunalidad
La comunalidad de una variable es la proporción de su varianza que
puede ser explicada por el modelo factorial obtenido. Estudiando las
comunalidades de la extracción podemos valorar cuales de las variables
son peor explicadas por el modelo. Con el método de extracción de
componentes principales se asume que es posible explicar el 100% de la
varianza observada y, por ello, todas las comunalidades iniciales son
iguales a la unidad.
Rotación de Factores
Las soluciones factoriales no rotadas son muchas veces difíciles de
interpretar más allá de meras soluciones algebraicas. Esto debido a que
los métodos de extracción de factores están orientados a extraer la
máxima cantidad de varianza en cada paso, de manera que a los últimos
factores les queda muy poca varianza por explicar.
La rotación consiste en una transformación de la matriz de cargas
factoriales original de forma que los ejes factoriales se aproximen lo
máximo posible a las variables en las que tienen alta saturación (alto
peso). A la matriz resultante se le denomina matriz factorial rotada. Los
métodos con que se dispone son:
Escuela Nacional de Estadística e Informática
Curso: Estadística Aplicada
Docente: Willer David Chanduvi Puicon
Varimax: Es un método de rotación ortogonal. Minimiza el número de
variables que tienen saturaciones altas en cada factor.
Quartimax: Es un método de rotación ortogonal. Minimiza el número de
factores necesarios para explicar cada variable.
Equamax: Es una combinación del método varimax y el método
quartimax. Se minimizan tanto el número de variables que saturan alto en
un factor como el número de factores necesarios para explicar una
variable.
Oblimin directo. Método para la rotación oblicua.
Ejemplo
Este ejemplo muestra como ejecutar el procedimiento Análisis factorial
con las especificaciones tienen establecidas por defecto. Comprobemos si
es posible resumir, mediante un número reducido de dimensiones o
factores, la información disponible sobre las características laborales de
un conjunto de datos de banca (archivo Empleados.sav). Para ello:
Analizar Þ Reducción de datos Þ Análisis factorial Seleccionar las
variableseduc, catlab, salario, salini, tiempemp, expprev y edad y
trasladarla a la vista Variables.
Extracción Þ Método Þ Componentes principales Analizar Þ matriz de
correlaciones.
Extraer Þ autovalores mayores que 1 Mostrar Þ solución factorial sin rotar
Þ gráfico de sedimentación Þ continuar Rotación Þ Método varimax Þ
Mostrar Þ Solución factorial rotada Þ Gráfico de saturaciones Þ Continuar
Þ Aceptar

Los índices de ajuste del modelo manejados han sido elegidos según dos criterios.
Por un lado, presentar los índices más habituales en la investigación del área. Por
otro lado, presentar índices de las principales familias o grupos de índices: ajuste
absoluto global del modelo, ajuste ponderado por grado de parsimonia. De esta
manera, tenemos el Chi-Cuadrado como prueba de contraste de hipótesis, el RMR
como promedio de residuales cuadráticos, el GFI como índice absoluto global de
ajuste y el PGFI como índice de ajuste relativo a la parsimonia del modelo.

En estos índices, los resultados pueden considerarse suficientes de acuerdo con


los criterios recomendados por autoras tales como Byrne (1998) para la cual
niveles en GFI superiores a .90, en PGFI superiores a .50 y en RMR inferiores a
.05 serían aceptables incluso en modelos con chi-cuadrado no-significativo. En
nuestras datos, nos encontramos dentro de estos niveles o muy cercanos a ellos.

EL CONCEPTO DE CAUSALIDAD
Una potencialidad interesante de estos modelos es la posibilidad de representar el
efecto causal entre sus variables. Aunque resulte muy atractivo el hecho de poder
representar gráficamente la influencia causal de una variable sobre otra y aunque
también seamos capaces de estimar el parámetro correspondiente a ese efecto,
debemos tener claro que la estimación del parámetro no “demuestra” la existencia
de causalidad. La existencia de una relación causal entre las variables debe venir
sustentada por la articulación teórica del modelo y no por su estimación con datos
de tipo transversal. Para demostrar científicamente la existencia de una relación
causal deberemos recurrir al diseño de un experimento controlado con asignación
aleatoria de los sujetos a las condiciones del estudio.
 Dirección: Calle Santa Hortensia 26-28 (Madrid)
 Tipo de Curso: Curso
 Modalidad: Presencial
 Fecha inicio: Matrícula Abierta
 Fecha fin: Matrícula Abierta
 Precio: Consultar más información
 Lugar: Madrid (Madrid)

En el curso se usará modelización gráfica e interactiva con AMOS, así como los últimos avances en
ecuaciones estructurales, conjuntamente con demostraciones de ejemplos prácticos y ejercicios.
AMOS ofrece técnicas de ecuaciones estructurales en un entorno amigable, con lo que el asistente
no tendrá que invertir la mayor parte de su tiempo en aprender el software sino en analizar y
modelizar sus datos

Audiencia
Este curso está dirigido a cualquiera con interés en los modelos de ecuaciones estructurales y, en
especial, en la herramienta AMOS para su configuración y utilización.

Requisitos Conocimientos estadísticos básicos son recomendables, así como los principios y
metodología del Análisis de Regresión Múltiple o del Análisis Factorial

Temas clave
Introducción a los Modelos de Ecuaciones Estructurales. Causalidad y Ajuste
Notación y Formulación de un modelo. Modelo de medida y de variables latentes
Tipos de Relaciones. Covariación vs. Causalidad. Relación espúrea vs. causal directa e indirecta.
Relación causal recíproca y condicionda. Efectos totales.
Identificación, estimación y contraste de hipótesis. Método de Máxima verosimilitud
Otros métodos de estimación
Estadísticos de bondad de ajuste. Chi-cuadrado, GFI, AGFI.
AMOS en profundidad
Ejemplos y Ejercicios

Вам также может понравиться