Вы находитесь на странице: 1из 18

UNIVERSIDAD NACIONAL DEL

ALTIPLANO
UNA PUNO
ESCUELA DE POST GRADO

DOCTORADO EN CONTABILIDAD

MENCION: CONTABILIDAD Y FINANZAS

CURSO:

ESTADISTICA APLICADA A LA INVESTIGACION

TEMA:
Resumen de Análisis correspondencia simple Spss, Análisis factorial y Analisis
discriminante

DOCENTE:

Dr. SAMUEL PEREZ QUISPE

PRESENTADO POR:

RUDY DANIEL CHINO YAPURASI

I SEMESTRE- 2019
RESUMEN

I.- ANÁLISIS CORRESPONDENCIA SIMPLE SPSS

En el video nos muestra el análisis de la correspondencia simple el cual nos mide las posibles

relaciones que existe entre dos variables nominales o cualitativas, en una tabla de correspondencia.

En principio, las debemos hacer una tabla de contingencia con las dos variables cualitativas. Debemos

luego calcular una medida de homogenización, en estadística se utiliza chi-cuadrado, que no es otra

cosa que la diferencia elevada al cuadrado de la frecuencia observada menos la frecuencia esperada

dividida sobre el total de datos observados.Ahora toca la parte más importante, definir el número de

dimensiones a utilizar. Como estamos estudiando el análisis de correspondencia simple, el numero de

dimensiones es dos (k = 2).

Como estamos trabajando con una tabla cruzada, cada fila puede ser considerada como un punto

dotado de masa, en un espacio de f dimensiones. De igual manera, cada columna puede ser

considerada como un punto dotado de masa, en un espacio de c dimensiones. Con esto obtendremos

un nuevo espacio conformado por C dimensiones:

C = min (f,c) – 1

Teniendo en cuenta que cada punto tiene un peso o ponderación igual a su masa, un estadístico

adecuado para medir la dispersión de la nube de puntos será la inercia. La inercia es el promedio de

las distancias de los distintos puntos a su centro de gravedad, estando cada distancia ponderada por

la masa del punto correspondiente. La inercia total será la misma tanto si la nube de puntos

corresponde a la representación de la filas como si corresponde a las columnas.

Luego obtenemos los cuadros de pesos, distancia al origen e inercia de los puntos-filas y de los

puntos-columnas. En estos cuadros identificamos que factores son los más determinantes.
 UTILIDAD DEL ANALISIS DE CORRESPONDENCIAS

Como lo decimos en la definición: el análisis de correspondencia es una técnica para analizar la

homogeneidad entre las categorías de cada una de las variables.

Con la prueba de chi-cuadrado de independencia, se podía ver si dos variables eran independientes

o no, hasta se podría saber el grado de dependencia de las mismas. Pero, dichas medidas no

permitían detectar en que consistían las similitudes entre las categorías de cualquiera de las dos

variables o la dependencia entre ellas.

El análisis de correspondencia, si me permite identificar esta similitud.

 APLICACIÓN PRÁCTICA DEL ANALISIS DE CORRESPONDENCIA CON EL SPSS

Vamos a realizar el Análisis de correspondencias empleando el paquete estadístico SPSS.

Lo primero que conviene recordar es que la hoja de datos de SPSS mantiene la estructura de filas,

que representan a los individuos, y columnas, que representan a las variables. En consecuencia, no se

puede situar en la hoja de datos una tabla de contingencia donde las filas sean las categorías de una

variable, y las columnas las categorías de la otra variable. La estructura de individuos por variables,

obligaría a introducir tantas filas como individuos, pero eso se puede evitar haciendo uso de

Datos – Ponderar casos


En el menú de diálogo que se abre tras efectuar la selección anterior, se escogería la variable que

contiene las frecuencias de cada combinación de niveles de las variables categóricas.

Una vez situados los datos en la hoja, y efectuada la ponderación (lo cual deja una leyenda en el

margen inferior, en la zona derecha), para obtener un Análisis de correspondencias se pincha en,

Analizar – Reducción de datos – Análisis de correspondencias...

Indica que el fichero está ponderado, tras ejecutar las orden anterior, se accede a un cuadro de

diálogo en el que, como es costumbre en SPSS, las variables del fichero de datos figuran en un

cuadro a la izquierda. Seleccionamos la variable que deseamos que figure en las filas de la tabla de

contingencia, indicamos el rango de valores de la variables (de 1 a 18), y hacemos lo mismo con la

variable de columna.
Aparecen cinco botones a la derecha (Aceptar, Pegar, Restablecer, Cancelar, Ayuda), comunes a

cualquier procedimiento de SPSS. En la parte inferior figuran tres botones específicos del

procedimiento. En el caso del “Análisis de correspondencias” estos botones son Modelo, Estadísticos y

Gráficos. Cada uno de ellos permite configurar cierto conjunto de características del método que se

desea aplicar.

Al pinchar en “Modelo...” se abre un nuevo cuadro de diálogo, en el que vamos a dejar las opciones

por defecto, que son:

1. Dos dimensiones en la solución

2. Se centra restando las medias de fila y columna

3. El método de normalización es simétrico, que es el que permite la representación simultánea y

se corresponde con los apuntes.


En el submenú de “Estadísticos...” solicitamos:

1. Tabla de correspondencias

2. Inspección de los puntos de fila

3. Inspección de los puntos de columna

4. Perfiles de fila

5. Perfiles de columna
En el submenú de “Gráficos...” solicitamos las opciones por defecto, que son:

1. El diagrama de dispersión biespacial

2. Que muestre todas las dimensiones de la solución

Una vez realizadas las selecciones que hemos indicado, se puede ejecutar el procedimiento. Se

proporcionarán los resultados del análisis en la hoja de resultados de SPSS.

La mayor parte de los resultados proporcionados por SPSS se entienden a la luz de los contenidos

expuestos en los apuntes, y coinciden con los que se obtienen con el programa R.

La principal diferencia consiste en que el SPSS aplica un enfoque basado en el análisis de correlación

canónica, lo cual da lugar a un valor propio, que coincide con la raíz cuadrada del valor propio de los

apuntes, que SPSS denomina Inercia (igual que en los apuntes).

Las puntuaciones en la dimensión se corresponden con las matrices A y B, en cada caso, con la

diferencia de que mientras las puntuaciones de las matrices A y B están estandarizadas de modo que

la suma ponderada de cuadrados sea el autovalor (en términos de inercia), las puntuaciones están

estandarizadas para que dicha suma sea el autovalor (de la correlación canónica).

Las tablas de contribuciones consisten en proporciones de inercia por filas, por columnas o por

componentes, donde la inercia bruta coincide con lo que figura en los apuntes.

Nótese que el enfoque de correlación canónica también es aplicado por el comando “corresp” de R,

que por este motivo, da los mismos resultados que SPSS.


II.- ANÁLISIS FACTORIAL

Nos indican que es una técnica de análisis estadístico de interdependencia cuyo propósito

fundamental es reducir la dimensionalidad de un conjunto de variables observadas.

Existen dos formas fundamentales de análisis factorial: exploratorio y confirmatorio. El análisis factorial

exploratorio (AFE) se realiza cuando el investigador no tiene hipótesis a priori sobre cuáles pueden ser

los factores que influyan en las variables medidas. Suele realizarse en las etapas iniciales de un

proyecto de investigación. Permite identificar factores que pueden luego contrastarse en un análisis

confirmatorio. El análisis factorial confirmatorio (AFC) se realiza, por tanto, cuando se tienen una idea

clara de qué factores pueden extraerse. En general se le considera como un caso particular de los

modelos de ecuaciones estructurales.

El análisis factorial consta de cuatro fases características: el cálculo de una matriz capaz de expresar

la variabilidad conjunta de todas las variables, la extracción del número óptimo de factores, la rotación

de la solución para facilitar su interpretación y la estimación de las puntuaciones de los sujetos en las

nuevas dimensiones.

Matriz de Correlaciones.

El primer paso del análisis consiste en la obtención de una matriz que contienen las correlaciones

entre todos los pares de variables superficiales medidas, llamada matriz de correlaciones observada.

Cuando el número de variables medidas es muy elevado, que es lo frecuente, se hace necesario tener

índices que permitan saber si hay correlaciones altas en la matriz que permitan extraer factores. Hay

varias pruebas utilizables en este sentido: el determinante de la matriz, el test de esfericidad de

Bartlett, la prueba de Kaiser – Meyer – Olkin y la correlación anti imagen.


Determinante de la Matriz de Correlaciones.

El determinante de la matriz se emplea como índice del tamaño de las correlaciones. Cuando su valor

es elevado, las correlaciones dentro de la matriz son bajas. Por el contrario, un determinante bajo

indica que hay algunas correlaciones altas en la matriz.

La prueba de esfericidad de Bartlett

Esta prueba está diseñada para contrastar la hipótesis de que los elementos de fuera de la diagonal

positiva de la matriz de correlaciones son cero (las diagonales son siempre 1). Una matriz que cumple

siempre esta propiedad se llama matriz identidad. Dicho de otra forma, contrasta la hipótesis nula de

que la matriz de correlaciones es una matriz identidad, en cuyo caso no existiría correlaciones

significativas entre las variables y el modelo factorial no sería pertinente.

KMO

Es una medida de adecuación muestral, que contrasta si las correlaciones parciales entre las

variables son suficientemente pequeñas. Permite comparar la magnitud de los coeficientes de

correlación observados con la magnitud de los coeficientes de correlación parcial. Sus valores se

encuentran entre 0 y 1. Valores pequeños indican que el análisis factorial puede no ser una buena

idea, dado que las correlaciones entre los pares de variables no pueden ser explicadas por otras

variables. Los menores que 0,5 indican que no debe utilizarse el análisis factorial con los datos

muestrales que se están analizando.

Matriz Anti imagen

Muestra la Matriz de covarianzas anti imagen y la matriz de correlaciones anti imagen. La matriz de

covarianzas anti imagen contienen los negativos de las covarianzas parciales y la matriz de

correlaciones anti imagen contiene los coeficientes de correlación parcial cambiados de signo. En la

diagonal de la matriz de correlaciones anti imagen se encuentran las medidas de adecuación muestral

para cada variable. Si el modelo factorial elegido es adecuado para explicar los datos, los elementos
de la diagonal de la matriz de correlaciones anti imagen deben tener un valor próximo a la unidad y el

resto de elementos deben ser pequeños.

Extracción de Factores

La extracción de factores es un aspecto fundamental del análisis, puesto que es precisamente donde

se trata de reducir la información contenida en las variables superficiales a un número pequeño de

variables latentes.

a. Componentes principales: Método de Extracción en que los factores obtenidos son los

autovalores de la matriz de correlaciones re escalados.

b. Mínimos cuadrados no ponderados: Método de extracción que minimiza la suma de los

cuadrados de las diferencias entre las matrices de correlaciones observada y reproducida,

ignorando los elementos de la diagonal.

c. Mínimos Cuadrados Generalizados: Método de extracción que minimiza la suma de los

cuadrados de las diferencias entre las matrices de correlaciones observada y reproducida. Este

método genera un estadístico de bondad de ajuste chi cuadrado que permite contrastar la

hipótesis nula de que la matriz residual es una matriz nula.

d. Máxima Verosimilitud: Proporciona las estimaciones de los parámetros que con mayor

probabilidad han producido la matriz de correlaciones observada, asumiendo que la muestra

procede de una distribución normal multivariada.

e. Ejes principales: Método de estimación iteractivo en el que, como estimación inicial de la

comunalidad, la matriz de correlaciones original se reduce sustituyendo los unos de su diagonal

por las estimaciones de la correlación múltiple al cuadrado entre cada variable y todas las

demás.
f. Alfa: Método que considera las variables incluidas en el análisis como una muestra del

universo de las variables posibles.

g. Imagen: Método en el que se auto descompone la matriz de correlaciones imagen. Se asume

que la comunalidad es igual al cuadrado de la correlación múltiple entre una variable y todas

las demás.

 PASOS DEL ANÁLISIS FACTORIAL

Los pasos a seguir en el AF son:

 Cálculo y examen de la matriz de correlaciones entre las variables a analizar.

 Extracción de los factores necesarios para representar los datos.

 Rotación de los factores, con el objeto de facilitar su interpretación.

 Representación gráfica.

Para la consecución de los pasos anteriores seleccionamos en la barra de menú: Analizar/Reducción

de datos/Análisis factorial como aparece en la Figura 1.

Figura 1

i. Indicadores de la Calidad del Análisis Factorial

Figura 1: Selección del comando “Análisis Factorial de SPSS (v. 13.0)

La secuencia de opciones de la Figura 1 nos lleva al cuadro de diálogo “Análisis Factorial” (Ver

Figura 2)
Figura 2. Cuadro de Diálogo "Análisis factorial".

En el cuadro de la Figura 2, seleccionamos el conjunto de variables que vamos a analizar y las

incluimos en el cuadro de Variables. La selección de variables nos permite ya realizar el análisis

factorial con las opciones por defecto que tiene seleccionadas SPSS. Esas opciones y otras vamos a ir

describiéndolas abriendo los diferentes botones (Descriptivos, Extracción, Rotación, Puntuaciones

y Opciones) que aparecen al final del cuadro de la Figura 2.

En la operación de selección de variables, podemos incluir en Variable de selección una variable

cualitativa que condicione el AF a cualquiera de sus valores. Por ejemplo, si tenemos en el archivo de

datos la variable género podemos seleccionar para el análisis solamente a las mujeres o a los hombre.

La opción Variable de selección especifica el valor de la variable de selección que tienen que cumplir

los casos para ser incluidos en el AF.

Pulsando en el botón descriptivos (Ver Figura 3) accedemos, entre otra información a las medidas de

adecuación del análisis factorial. Todos estos índices y/o matrices evalúan el grado de asociación entre

las variables, requisito imprescindible para que el análisis factorial tenga sentido. De todos ellos

utilizaremos el índice KMO (Kaiser-Meyer-Olkin) sobre el que existe el siguiente baremo:

0.9  KMO  1 muy bueno 0.6  KMO  0.7 mediocre


0.8  KMO  0.9 meritorio 0.5  KMO  0.6 bajo
0.7  KMO  0.8 mediano KMO  0.5 inaceptable

Figura 3. Cuadro de diálogo "Análisis


factorial: Descriptivos"

Pulsando el botón Extracción accedemos a los diferentes métodos que para determinar la matriz

factorial directa tiene implementados SPSS (Ver Figura 4).

Figura 4. Cuadro de diálogo "Análisis Factorial: Extracción"

El cuadro de la Figura 4 permite elegir el método de extracción (por defecto utiliza Componentes

principales), obtener el gráfico de sedimentación para decidir el número de factores a utilizar (Gráfico

de sedimentación), o modificar el criterio de Kaiser fijando una autovalor mayor o menor que 1 para

seleccionar el número de factores (Autovalores mayores que:). Se podría también fijar a priori un

número de factores seleccionando la opción Número de factores: y escribiendo un valor. Pulsando en

el botón Rotación podemos especificar el método de rotación y obtener el gráfico de saturaciones

factoriales (Ver Figura 5).


Figura 5. Cuadro de diálogo "Análisis factorial:
Rotación"

Por defecto, SPSS no rota. De los métodos de rotación disponibles tres: Varimax, Quartimax y

Equamax conservan la ortogonalidad de los factores. Los métodos Oblimin directo y Promax dan

lugar a factores correlacionados (modelo de factores oblicuos).

Con las opciones marcadas en el cuadro de la Figura 5 obtenemos la matriz factorial rotada (Solución

rotada) y el Gráfico de saturaciones.

Pulsando en el botón Puntuaciones aparece el cuadro de diálogo Análisis factorial: Puntuaciones

factoriales (Ver Figura 6).

Figura 6. Cuadro de diálogo "Análisis


factorial : Puntuaciones factoriales"
El cuadro anterior nos permite seleccionar el método para estimar las puntuaciones de los sujetos en

los factores seleccionados. Las puntuaciones factoriales las incluye al final del archivo de datos como

nuevas variables (fac1_1, fac2_1). De los tres métodos sólo el de Anderson-Rubin garantiza que las

puntuaciones factoriales estén incorrelacionadas en el modelo de análisis factorial ortogonal. En el

mismo cuadro podemos seleccionar Mostrar matriz de coeficientes de las punt. factoriales. Esta

matriz nos proporciona los coeficientes de la combinación lineal de cada factor en el conjunto de

variables observadas lo que nos permite obtener puntuaciones factoriales para sujetos que no han

sido incluidos en el análisis pero para los que suponemos que son aplicables los resultados obtenidos

en el AF.

Con el conjunto de opciones marcadas se obtiene la siguiente salida:

Análisis factorial

KMO y prueba de Bartlett

Medida de ,729
adecuación muestral
de Kaiser-Meyer-
Olkin.
Prueba deChi-cuadrado 558,258
esfericidad de Bartlett aproximado
gl 28
Sig. ,000

III.- ANÁLISIS DISCRIMINANTE

El Análisis Discriminante es una técnica estadística que se utiliza para clasificar a distintos

individuos en grupos, o poblaciones, alternativos a partir de los valores de un conjunto de variables

sobre los individuos a los que se pretende clasificar. Cada individuo puede pertenecer a un solo

grupo.

La pertenencia de un individuo a uno u otro grupo se introduce en el análisis mediante una variable

categórica que toma tantos valores como grupos existentes. En el análisis discriminante esta

variable categórica juega el papel de variable dependiente.


Las variables que se utilizan para realizar la clasificación de los individuos se denominan

variables clasificadoras, También se emplean las denominaciones de variables criterio o variables

predictoras, o la denominación genérica de variables explicativas.

La información de las variables clasificadoras se sintetiza en unas funciones, denominadas

funciones discriminantes, que son las que finalmente se utilizan en el proceso de clasificación.

El análisis discriminante persigue explicar la pertenencia de cada individuo original a uno u otro

grupo preestablecido, en función de las variables de su perfil, y a la vez que cuantificar el peso de

cada una de ellas en la discriminación. De ora parte, el análisis discriminante persigue predecir a

qué grupo más probable habrá de pertenecer un nuevo individuo del que únicamente se conoce su

perfil de variables. La variable categórica grupo es lo que se explica y lo que predice.

El análisis discriminante está muy relacionado con el análisis multivariante de la varianza con un

factor, aunque el papel que juegan los distintos tipos de variables está invertido en uno y otro

método. Así, en el análisis de la varianza la variable categórica (el factor) es la variable explicativa,

mientras que en el análisis discriminante la variable categórica es precisamente la variable

dependiente.

ANÁLISIS: El análisis parte de una tabla de datos de n individuos en que se han medido p

variables cuantitativas independientes o explicativas, como perfil de cada uno de ellos.

Una variable cualitativa adicional (dependiente o clasificadora) con dos (o más) categorías, ha

definido por otros medios el grupo a que cada individuo pertenece.

A partir de la variable cualitativa se obtendrá un modelo matemático discriminante contra el cual será

construido el perfil de un nuevo individuo cuyo grupo se desconoce par, en función de un resultado

numérico, ser asignado al grupo más probable.

En la clasificación discriminante hay dos enfoques:

 Basado en la obtención de funciones discriminantes de cálculo, similar a las ecuaciones de

regresión lineal múltiple.

 Empleando técnicas de correlación canónica y de componentes principales,


denominado análisis discriminante canónico.

El primer enfoque es el más común y su fundamento matemático está en conseguir, a partir de las

variables explicativas, unas funciones lineales de éstas con capacidad para clasificar otros individuos.

A cada nuevo caso se aplican dichas ecuaciones, y la función de mayor valor define el grupo a que

pertenece.

FUNCIÓN DISCRIMINANTE DE FISHER

La función discriminante de Fisher D se obtiene como función lineal de k variables


explicativas X, es decir:

D= u1 X1 + u2 X2 +  + uk Xk

Para realizar el análisis discriminante, se elige Analizar/Clasificar/Discriminante

Como variable de agrupación se elige a la variable dependiente Préstamo. En el botón Definir rango

es necesario especificar cuáles son los valores Mínimo y Máximo de esta variable. Se introduce

Mínimo: 1 y Máximo: 2.

Las otras dos variables: X1 = Patrimonio_ Neto y X2 = Deuda_Pendiente, se eligen como variables

independientes, cuyos valores se utilizan para construir la función discriminante.


SPSS ofrece activados los botones: Estadísticos, Clasificar y Guardar. El botón Método sólo se activa

si previamente se ha elegido Introducir las variables con un Método por pasos.

En la salida del Visor aparecen los coeficientes de la función de clasificación de Fisher:

u1 = 1, 036 u2 = ‐0,932 C = ‐3, 52 4

Para obtener los coeficientes u1, u2 se recurre a las funciones discriminantes de Fisher:

FII  FI  (aII,1  aI,1 ) X1  (aII,2  aI,2 ) X2  (CII  CI )  u1 X1 + u2 X2 - C = D - C.

Вам также может понравиться