Академический Документы
Профессиональный Документы
Культура Документы
ALTIPLANO
UNA PUNO
ESCUELA DE POST GRADO
DOCTORADO EN CONTABILIDAD
CURSO:
TEMA:
Resumen de Análisis correspondencia simple Spss, Análisis factorial y Analisis
discriminante
DOCENTE:
PRESENTADO POR:
I SEMESTRE- 2019
RESUMEN
En el video nos muestra el análisis de la correspondencia simple el cual nos mide las posibles
relaciones que existe entre dos variables nominales o cualitativas, en una tabla de correspondencia.
En principio, las debemos hacer una tabla de contingencia con las dos variables cualitativas. Debemos
luego calcular una medida de homogenización, en estadística se utiliza chi-cuadrado, que no es otra
cosa que la diferencia elevada al cuadrado de la frecuencia observada menos la frecuencia esperada
dividida sobre el total de datos observados.Ahora toca la parte más importante, definir el número de
Como estamos trabajando con una tabla cruzada, cada fila puede ser considerada como un punto
dotado de masa, en un espacio de f dimensiones. De igual manera, cada columna puede ser
considerada como un punto dotado de masa, en un espacio de c dimensiones. Con esto obtendremos
C = min (f,c) – 1
Teniendo en cuenta que cada punto tiene un peso o ponderación igual a su masa, un estadístico
adecuado para medir la dispersión de la nube de puntos será la inercia. La inercia es el promedio de
las distancias de los distintos puntos a su centro de gravedad, estando cada distancia ponderada por
la masa del punto correspondiente. La inercia total será la misma tanto si la nube de puntos
Luego obtenemos los cuadros de pesos, distancia al origen e inercia de los puntos-filas y de los
puntos-columnas. En estos cuadros identificamos que factores son los más determinantes.
UTILIDAD DEL ANALISIS DE CORRESPONDENCIAS
Con la prueba de chi-cuadrado de independencia, se podía ver si dos variables eran independientes
o no, hasta se podría saber el grado de dependencia de las mismas. Pero, dichas medidas no
permitían detectar en que consistían las similitudes entre las categorías de cualquiera de las dos
Lo primero que conviene recordar es que la hoja de datos de SPSS mantiene la estructura de filas,
que representan a los individuos, y columnas, que representan a las variables. En consecuencia, no se
puede situar en la hoja de datos una tabla de contingencia donde las filas sean las categorías de una
variable, y las columnas las categorías de la otra variable. La estructura de individuos por variables,
obligaría a introducir tantas filas como individuos, pero eso se puede evitar haciendo uso de
Una vez situados los datos en la hoja, y efectuada la ponderación (lo cual deja una leyenda en el
margen inferior, en la zona derecha), para obtener un Análisis de correspondencias se pincha en,
Indica que el fichero está ponderado, tras ejecutar las orden anterior, se accede a un cuadro de
diálogo en el que, como es costumbre en SPSS, las variables del fichero de datos figuran en un
cuadro a la izquierda. Seleccionamos la variable que deseamos que figure en las filas de la tabla de
contingencia, indicamos el rango de valores de la variables (de 1 a 18), y hacemos lo mismo con la
variable de columna.
Aparecen cinco botones a la derecha (Aceptar, Pegar, Restablecer, Cancelar, Ayuda), comunes a
cualquier procedimiento de SPSS. En la parte inferior figuran tres botones específicos del
procedimiento. En el caso del “Análisis de correspondencias” estos botones son Modelo, Estadísticos y
Gráficos. Cada uno de ellos permite configurar cierto conjunto de características del método que se
desea aplicar.
Al pinchar en “Modelo...” se abre un nuevo cuadro de diálogo, en el que vamos a dejar las opciones
1. Tabla de correspondencias
4. Perfiles de fila
5. Perfiles de columna
En el submenú de “Gráficos...” solicitamos las opciones por defecto, que son:
Una vez realizadas las selecciones que hemos indicado, se puede ejecutar el procedimiento. Se
La mayor parte de los resultados proporcionados por SPSS se entienden a la luz de los contenidos
expuestos en los apuntes, y coinciden con los que se obtienen con el programa R.
La principal diferencia consiste en que el SPSS aplica un enfoque basado en el análisis de correlación
canónica, lo cual da lugar a un valor propio, que coincide con la raíz cuadrada del valor propio de los
Las puntuaciones en la dimensión se corresponden con las matrices A y B, en cada caso, con la
diferencia de que mientras las puntuaciones de las matrices A y B están estandarizadas de modo que
la suma ponderada de cuadrados sea el autovalor (en términos de inercia), las puntuaciones están
estandarizadas para que dicha suma sea el autovalor (de la correlación canónica).
Las tablas de contribuciones consisten en proporciones de inercia por filas, por columnas o por
componentes, donde la inercia bruta coincide con lo que figura en los apuntes.
Nótese que el enfoque de correlación canónica también es aplicado por el comando “corresp” de R,
Nos indican que es una técnica de análisis estadístico de interdependencia cuyo propósito
Existen dos formas fundamentales de análisis factorial: exploratorio y confirmatorio. El análisis factorial
exploratorio (AFE) se realiza cuando el investigador no tiene hipótesis a priori sobre cuáles pueden ser
los factores que influyan en las variables medidas. Suele realizarse en las etapas iniciales de un
proyecto de investigación. Permite identificar factores que pueden luego contrastarse en un análisis
confirmatorio. El análisis factorial confirmatorio (AFC) se realiza, por tanto, cuando se tienen una idea
clara de qué factores pueden extraerse. En general se le considera como un caso particular de los
El análisis factorial consta de cuatro fases características: el cálculo de una matriz capaz de expresar
la variabilidad conjunta de todas las variables, la extracción del número óptimo de factores, la rotación
de la solución para facilitar su interpretación y la estimación de las puntuaciones de los sujetos en las
nuevas dimensiones.
Matriz de Correlaciones.
El primer paso del análisis consiste en la obtención de una matriz que contienen las correlaciones
entre todos los pares de variables superficiales medidas, llamada matriz de correlaciones observada.
Cuando el número de variables medidas es muy elevado, que es lo frecuente, se hace necesario tener
índices que permitan saber si hay correlaciones altas en la matriz que permitan extraer factores. Hay
El determinante de la matriz se emplea como índice del tamaño de las correlaciones. Cuando su valor
es elevado, las correlaciones dentro de la matriz son bajas. Por el contrario, un determinante bajo
Esta prueba está diseñada para contrastar la hipótesis de que los elementos de fuera de la diagonal
positiva de la matriz de correlaciones son cero (las diagonales son siempre 1). Una matriz que cumple
siempre esta propiedad se llama matriz identidad. Dicho de otra forma, contrasta la hipótesis nula de
que la matriz de correlaciones es una matriz identidad, en cuyo caso no existiría correlaciones
KMO
Es una medida de adecuación muestral, que contrasta si las correlaciones parciales entre las
correlación observados con la magnitud de los coeficientes de correlación parcial. Sus valores se
encuentran entre 0 y 1. Valores pequeños indican que el análisis factorial puede no ser una buena
idea, dado que las correlaciones entre los pares de variables no pueden ser explicadas por otras
variables. Los menores que 0,5 indican que no debe utilizarse el análisis factorial con los datos
Muestra la Matriz de covarianzas anti imagen y la matriz de correlaciones anti imagen. La matriz de
covarianzas anti imagen contienen los negativos de las covarianzas parciales y la matriz de
correlaciones anti imagen contiene los coeficientes de correlación parcial cambiados de signo. En la
diagonal de la matriz de correlaciones anti imagen se encuentran las medidas de adecuación muestral
para cada variable. Si el modelo factorial elegido es adecuado para explicar los datos, los elementos
de la diagonal de la matriz de correlaciones anti imagen deben tener un valor próximo a la unidad y el
Extracción de Factores
La extracción de factores es un aspecto fundamental del análisis, puesto que es precisamente donde
variables latentes.
a. Componentes principales: Método de Extracción en que los factores obtenidos son los
cuadrados de las diferencias entre las matrices de correlaciones observada y reproducida. Este
método genera un estadístico de bondad de ajuste chi cuadrado que permite contrastar la
d. Máxima Verosimilitud: Proporciona las estimaciones de los parámetros que con mayor
por las estimaciones de la correlación múltiple al cuadrado entre cada variable y todas las
demás.
f. Alfa: Método que considera las variables incluidas en el análisis como una muestra del
que la comunalidad es igual al cuadrado de la correlación múltiple entre una variable y todas
las demás.
Representación gráfica.
Figura 1
La secuencia de opciones de la Figura 1 nos lleva al cuadro de diálogo “Análisis Factorial” (Ver
Figura 2)
Figura 2. Cuadro de Diálogo "Análisis factorial".
factorial con las opciones por defecto que tiene seleccionadas SPSS. Esas opciones y otras vamos a ir
cualitativa que condicione el AF a cualquiera de sus valores. Por ejemplo, si tenemos en el archivo de
datos la variable género podemos seleccionar para el análisis solamente a las mujeres o a los hombre.
La opción Variable de selección especifica el valor de la variable de selección que tienen que cumplir
Pulsando en el botón descriptivos (Ver Figura 3) accedemos, entre otra información a las medidas de
adecuación del análisis factorial. Todos estos índices y/o matrices evalúan el grado de asociación entre
las variables, requisito imprescindible para que el análisis factorial tenga sentido. De todos ellos
Pulsando el botón Extracción accedemos a los diferentes métodos que para determinar la matriz
El cuadro de la Figura 4 permite elegir el método de extracción (por defecto utiliza Componentes
principales), obtener el gráfico de sedimentación para decidir el número de factores a utilizar (Gráfico
de sedimentación), o modificar el criterio de Kaiser fijando una autovalor mayor o menor que 1 para
seleccionar el número de factores (Autovalores mayores que:). Se podría también fijar a priori un
Por defecto, SPSS no rota. De los métodos de rotación disponibles tres: Varimax, Quartimax y
Equamax conservan la ortogonalidad de los factores. Los métodos Oblimin directo y Promax dan
Con las opciones marcadas en el cuadro de la Figura 5 obtenemos la matriz factorial rotada (Solución
los factores seleccionados. Las puntuaciones factoriales las incluye al final del archivo de datos como
nuevas variables (fac1_1, fac2_1). De los tres métodos sólo el de Anderson-Rubin garantiza que las
mismo cuadro podemos seleccionar Mostrar matriz de coeficientes de las punt. factoriales. Esta
matriz nos proporciona los coeficientes de la combinación lineal de cada factor en el conjunto de
variables observadas lo que nos permite obtener puntuaciones factoriales para sujetos que no han
sido incluidos en el análisis pero para los que suponemos que son aplicables los resultados obtenidos
en el AF.
Análisis factorial
Medida de ,729
adecuación muestral
de Kaiser-Meyer-
Olkin.
Prueba deChi-cuadrado 558,258
esfericidad de Bartlett aproximado
gl 28
Sig. ,000
El Análisis Discriminante es una técnica estadística que se utiliza para clasificar a distintos
sobre los individuos a los que se pretende clasificar. Cada individuo puede pertenecer a un solo
grupo.
La pertenencia de un individuo a uno u otro grupo se introduce en el análisis mediante una variable
categórica que toma tantos valores como grupos existentes. En el análisis discriminante esta
funciones discriminantes, que son las que finalmente se utilizan en el proceso de clasificación.
El análisis discriminante persigue explicar la pertenencia de cada individuo original a uno u otro
grupo preestablecido, en función de las variables de su perfil, y a la vez que cuantificar el peso de
cada una de ellas en la discriminación. De ora parte, el análisis discriminante persigue predecir a
qué grupo más probable habrá de pertenecer un nuevo individuo del que únicamente se conoce su
El análisis discriminante está muy relacionado con el análisis multivariante de la varianza con un
factor, aunque el papel que juegan los distintos tipos de variables está invertido en uno y otro
método. Así, en el análisis de la varianza la variable categórica (el factor) es la variable explicativa,
dependiente.
ANÁLISIS: El análisis parte de una tabla de datos de n individuos en que se han medido p
Una variable cualitativa adicional (dependiente o clasificadora) con dos (o más) categorías, ha
A partir de la variable cualitativa se obtendrá un modelo matemático discriminante contra el cual será
construido el perfil de un nuevo individuo cuyo grupo se desconoce par, en función de un resultado
El primer enfoque es el más común y su fundamento matemático está en conseguir, a partir de las
variables explicativas, unas funciones lineales de éstas con capacidad para clasificar otros individuos.
A cada nuevo caso se aplican dichas ecuaciones, y la función de mayor valor define el grupo a que
pertenece.
D= u1 X1 + u2 X2 + + uk Xk
Como variable de agrupación se elige a la variable dependiente Préstamo. En el botón Definir rango
es necesario especificar cuáles son los valores Mínimo y Máximo de esta variable. Se introduce
Mínimo: 1 y Máximo: 2.
Las otras dos variables: X1 = Patrimonio_ Neto y X2 = Deuda_Pendiente, se eligen como variables
Para obtener los coeficientes u1, u2 se recurre a las funciones discriminantes de Fisher: