Вы находитесь на странице: 1из 5

Análisis Factorial.

El análisis factorial es una técnica multivariante de interdependencia, se realiza para diferentes


objetivos o finalidades, entre ellos hay objetivos en los cuales se aplica esta técnica con mayor
frecuencia, estos son: Reducir el número de variables de un grupo grande de variables de tal forma que
este nuevo grupo contenga menos variables y estas recojan la mayor variabilidad del conjunto de
variables originales. El otro objetivo por el cual se aplica el análisis factorial es la obtención de
dimensiones subyacentes o latentes no observables directamente.

Formulación del Modelo Factorial:

El análisis factorial se presenta en forma matricial según la siguiente expresión:

X px 1 = A pxm F mx 1 + D pxp V px 1 (1)

A es la matriz de patrón factorial donde cada uno de los componentes a ij se denomina “carga factorial”,
X, F y V son vectores columnas respectivamente. D es una matriz diagonal cuyos componentes son las
saturaciones de los factores únicos.

x 1 = a11 F1 + a12 F 2 + ⋯ + a1 m F m + d1 V 1
x 2 = a21 F 1 + a22 F 2 + ⋯ + a2 m F m + d2 V 2
(2)
⋮ ⋮ ⋮ ⋯ ⋮ ⋮
x p = ap1 F1 + ap2 Fm + ⋯ + a pm F m + dpV p

Si pasamos del espacio ℜp al espacio ℜm se expresa el modelo factorial con cada uno de los factores
comunes en función de las variables originales, en este caso como combinación lineal de cada una de
ellas, según se muestra en la expresión No. 3

F1 = β11 x 1 + β21 x 2 + ⋯ + β p1 x p + μ1
F 2 = β12 x 1 + β22 x 2 + ⋯ + β p2 x p + μ2
(3)
⋮ ⋮ ⋮ ⋯ ⋮ ⋮
Fm = β1m x 1 + β2 m x m + ⋯ + βpm x m + μm

Ahora debemos determinar las puntuaciones de los factores βij del modelo estimado, que en notación
matricial tiene la siguiente forma:

Fmx 1 = X mp β^ px1 (4)

Es decir se calcularan m factores que son función de las variables originales y están incorrelacionados
entre ellos, estos factores absorben el máximo de la variación de las variables Xs.

Para esto partimos de que la variabilidad total para cada variable se puede descomponer en dos partes:
Una variabilidad explicada por los factores comunes o Comunalidad (h i2) y una parte explicada por su
factor único o Unicidad (di2).
2 2
Var ( X i ) = hi + d i = 1 (5)

La variación para cualquier factor Fi, se expresa como:

Fi ' Fi = βi ' S βi (6)

Con:

S = X' X (7)

Para el primer componente F1 se plantea:

Max L = β1 ' S β1 (8)

Sujeto a la restricción:

β^1 ' β^1 = 1 (9)

Luego se utiliza un multiplicador de Lagrange:

Max L = β1 ' S β1 − λ^ 1 (β^1 ' β^1 − 1) (10)

Se deriva con respecto a β^1

∂L
= 2 S β^1 − 2 λ^1 β^1 = 0 (11)
∂ β^1

Que pasamos a resolver:

S β^1 − λ^1 β^1 = 0 (12)

Si factorizamos β^1 , obtenemos:

(S − λ^1 I ) β^1 = 0 (13)

Que se denomina función o ecuación característica.

A partir de la ecuación característica, planteamos:


|S − λ^1 I| = 0 (14)

Esta ecuación nos permitiría calcular λ^ 1 , que al sustituirla en la ecuación No. 13, nos permite obtener
el valor de β^1 y de esta forma se obtiene el primer componente o factor F 1. De forma similar se procede
para obtener el segundo componente o factor y con el mismo procedimiento, en forma sucesiva, los
restantes componentes o factores.

Pasos para aplicar el Análisis Factorial:

1. Contraste de Idoneidad:
 Prueba de esfericidad de Bartlett: Se debe aceptar la hipótesis alterna para que el análisis
factorial resulte adecuado.
 Medida de adecuación muestral KMO (Kaiser-Meyer-Olkin):
▪ 0,90 < KMO < 1 Valores excelentes.
▪ 0,80 < KMO < 90 Valores buenos.
▪ 0,70 < KMO < 80 Valores aceptables.
▪ 0,60 < KMO < 70 Valores regulares.
▪ 0,50 < KMO < 60 Valores malos.
▪ KMO < 50 Valores inaceptables.
2. Extracción de Factores:
 Matriz de correlaciones: en caso que las variables estén expresadas en diferentes unidades
de medida, en este caso las variables se estandarizan.
 Matriz de varianzas: Cuando las variables están todas en una misma unidad de medida, en
este caso las variables no se estandarizan.
3. Selección o número de factores:
 Si las variables están estandarizadas, entonces se escogen aquellos factores cuyos valores
propios o eingenvalores sean mayores que uno.
 Hasta aquellos factores para los cuales el porcentaje de varianza explicada este alrededor de
60%
4. Evaluación del Modelo:
Consiste en dar una explicación o nombre a cada factor. Para esto es conveniente, en la mayoría
de los casos, rotar los ejes factoriales, las rotaciones más usadas son:
 Rotación Varimax: Rotación de tipo ortogonal desarrollado por Kaiser (1958), donde se
minimiza el número de variables que tienen saturaciones altas en cada factor. Se utiliza para
simplificar la interpretación de cada uno de los factores.
 Rotación Quartimax: Método de rotación que consiste en minimizar el número de factores
necesarios para explicar cada variable. Este método también se utiliza para facilitar la
interpretación de las variables observadas.
 Rotación Oblimin Directa: Rotación de tipo oblicua (no ortogonal). Si delta es igual a cero
(el valor predeterminado) las soluciones son las más oblicuas. A medida que delta se va
haciendo más negativo, los factores son menos oblicuos. Para anular el valor
predeterminado 0 para delta, introduzca un número menor o igual que 0,8.
 Rotación Promax: Método de rotación oblicua que consiste en lograr que los factores estén
correlacionados. Esta rotación tiene la ventaja que se puede calcular de forma más rápida
que la rotación oblimin directa, esto hace que este tipo de rotación sea útil cuando nos
encontramos con un conjuntos grande de datos.

Ejemplo en R:

Variables métricas o cuantitativas para análisis factorial.

library(psych)

KMO

KMO(Dataset)

Bartlett

R = cor(Dataset)
R
B = cortest.bartlett(R, n=nrow(Dataset))
B

Copiamos .PC de la ventana Rscript del R commander

.PC <- princomp(~V1+V2+V3+V4+V5+V6+V7+Vn, cor=TRUE, data=Dataset)

V1, V2, …, Vn son las variables utilizadas.

Le quitamos el punto.

PC <- princomp(~V1+V2+V3+V4+V5+V6+V7+V8, cor=TRUE, data=Dataset)

Luego graficamos los componentes o factores, dos a la vez. Los primeros dos:

biplot(PC)
abline(h = 0, v = 0, lty = 1, col = 4)

Para graficar otros componentes o factores:


biplot(PC, choices = c(4,3))
abline(h = 0, v = 0, lty = 1, col = 4)

La comunalidad: Valor que muestra la varianza común y se obtiene en el análisis factorial, para cada
una de las variables originales. Las comunalidades se calculan sumando los cuadrados de las
correlaciones (acumulación de correlaciones al cuadrado) o cargas de cada uno de los factores retenidos
para cada variable original. La comunalidad expresa la proporción de varianza de la variable extraída o
explicada con los factores extraídos o retenidos. Si el número de factores extraídos es igual al número
total de variables, entonces la comunalidad será igual a 1.

Los cosenos: Nos muestran el cuadrado de las correlaciones entre variables, la acumulación de los
respectivos cosenos son las comunalidades.

SS Loadings: Representan a los autovalores o eigenvalores, estos debe ser mayor a uno, ya que en este
caso el componente o factor explicaría mayor variabilidad que la variable original por si sola.

Component loadings o Loadings factors: Son los autovectores o eigenvectores. Son las cargas
factoriales o puntuaciones factoriales. Representan los coeficientes de las ecuaciones de cada
componente principal o factor.

Component Variances o (SS loadings)2: Son los autovalores o eigenvalores, si los datos están
estandarizados su suma es igual a número de componentes o factores.

Matriz de Varianzas o Matriz de Correlaciones: Si las variables presentan distintas unidades de


medida es mejor usar matriz de correlaciones, en este caso se estandarizan a uno las varianzas de las
variables.

Вам также может понравиться