Академический Документы
Профессиональный Документы
Культура Документы
Estructura de la clase:
• Introducción.
• Definición del AM.
• Diseños y conceptos básicos del AM.
• Tratamientos previos de los datos.
• Supuestos del AM.
• Clasificación de los métodos del AM.
• Programas informáticos.
• Introducción.
En primer lugar, cuando queremos examinar un sistema complejo de actividades comerciales, muchas veces
no es suficiente utilizar técnicas univariantes y hay que ir al empleo del AM. Cuando el número de variables
que influyen simultáneamente y de forma importante en el problema que queremos tratar es elevado (no
solamente una o dos, sino un número elevado de variables), entonces tenemos que utilizar el AM.
Debemos reflexionar que sería mejor emplear: análisis univariante, análisis bivariante o análisis multivariante.
Si queremos analizar por separado variables utilizaremos el anáilisis univariante y bivariante. En el caso de
necesitar un análisis en conjunto, emplearemos técnicas multivariantes. Con esta técnica determinaremos si
las variables están influyendo en los grupos que estudiamos y por lo tanto nos sirve para analizar las
relaciones múltiples. Si queremos utilizar /analizar múltiples variables simultáneamente, tenemos que utilizar
técnicas multivariantes.
Las técnicas estadísticas utilizadas para tratar múltiples variables que se deben analizar
simultáneamente, y cuyos efectos no tienen sentido si se interpretan por separado.
Son las técnicas estadísticas que miden, explican y predicen relaciones entre más de dos variables
cuando sus efectos no tienen sentido si se interpretan por separado.
Valor teórico: Es el elemento esencial del AM. Combinación de todas las variables. Debemos sintetizar
todas las variables en un solo valor teórico. (Muchas veces hay que ponderar múltiples variables de
modo empírico).
Los pasos a seguir al realizar una investigación se pueden resumir como sigue:
1
• Definir el objetivo a través de un estudio previo.
• Establecer las hipótesis.
• Seleccionar variables y escalas.
• Establecer la metodología (instrumentos, muestreo, etc.)
• Seleccionar la técnica multivariante más apropiada.
• Determinar el nivel de significación (alpha).
• Coleccionar datos.
• Evaluar los supuestos básicos de la técnica multivariante.
• Estimación del modelo multivariante y valoración del ajuste del modelo.
• Interpretar el valor teórico (rechazar o no las hipótesis).
• Validación e interpretación de los resultados.
Primeramente, tenemos que determinar el objetivo del estudio. A continuación, investigaremos la literatura
existente para establecer el estado del arte.
Definir para qué queremos realizar el trabajo: objetivos. Para ello analizamos los estudios realizados
anteriormente sobre el tema. Determinamos así qué queremos realizar en el trabajo, es decir, justificar la
pretensión del trabajo.
Hay dos cosas importantes Conocimiento y creatividad. Hay que establecer un objetivo pero justificarlo a
través de la revisión bibliográfica.
Después, tenemos que determinar el tipo de variables y escalas a emplear. La palabra variable se refiere a una
magnitud cuyos valores son objeto de estudio. Estos valores pueden tomar dos tipos básicos de datos, no
métricos (cualitativos) o métricos (cuantitativos). Según el tipo de datos, tendremos que determinar el tipo de
escalas que queremos utilizar para el estudio. Hay cuatro tipos de escalas.
Escalas Características
A la hora de determinar las preguntas del cuestionario, tener en cuenta los cuatro tipos de escalas porque cada
técnica multivariante requiere un determinado tipo de variables (métricas y no métricas). Respecto al primer
2
trabajo, es aconsejable incluir entre 15−20 "atributos" que se puedan medir en una escala de intervalo que
tenga 5 o 7 grados, para de esta manera poder utilizar el ACP o el AC. También, os conviene incluir variables
que se puedan medir en una escala nominal para poder utilizar el AFC. Finalmente, si incluimos variables
métricas con una escala de razón, tales como gastos mensuales (de una determinada marca, etc.), ingresos,
tiempo, etc., podremos utilizar algunas técnicas de dependencia, por ejemplo, regresión múltiple y análisis
discriminante, para el segundo trabajo.
Escala de Linkert: Con 5 grados, también lo hay con 7 grados. Siempre es mejor tener más grados.
Completamente en desacuerdo −2
No sabe, no contesta 0
Completamente de acuerdo −2
El nivel de significación está fuertemente relacionado con el llamado error de medida. Debemos aumentar el
nivel de significación para aumentar el valor del estudio y para ello hay que disminuir el error de medida.
Cuanto mayor nivel de significación mejor.
El error de medida es el grado en que los valores observados no son representativos de los valores verdaderos.
(Se pueden cometer errores, no coincidiendo x con X). El error de medida es importante porque cuando
calculamos correlaciones o medias, normalmente el efecto verdadero está parcialmente camuflado por este
error de medida, causando la perdida de precisión. Es decir, la presencia del error de medida produce
distorsiones en las relaciones observadas y debilita el poder de las técnicas multivariantes.
Para valorar el grado de error de medida, hay que considerar dos factores importantes, que son la fiabilidad y
la validez. (conceptos que hay que incluir en trabajo)
• La fiabilidad es el grado en que la variable observada mide el valor verdadero y está libre de error. Si
la misma medida se realiza muchas veces, las medidas fiables llegarán a los mismos resultados. La
fiabilidad puede verse perjudicada por el error aleatorio. El error aleatorio es el sesgo transitorio que
no es necesariamente idéntico en todas las mediciones. Ejemplos de este tipo de error son errores de
codificación, sesgos de entrevistadores, caracteres de los entrevistados, etc.
3
• La validez se define como el grado en que la medida representa con precisión lo que se supone que
representa. Por ejemplo, si queremos medir los gastos en actividades de ocio, no preguntaremos por
los gastos totales de las economías domésticas. La validez puede verse perjudicada tanto por el error
aleatorio como por el error sistemático. El error sistemático es el sesgo permanente en todas las
mediciones. Por ejemplo, errores en los ítems de la escala, ausencia de claridad en el cuestionario, etc.
Por ello, el investigador debe minimizar el error de medida maximizando tanto la fiabilidad como la
validez del instrumento de investigación.
Todas las técnicas multivariantes, excepto el análisis cluster y el análisis multidimensional, se basan en la
inferencia estadística de los valores de una población o la relación entre variables de una muestra. Si estamos
realizando un censo de toda la población, entonces no tenemos que preocuparnos de la inferencia estadística
por que lo que medimos es la media verdadera. Pero muchas veces no podemos utilizar la población total, y
por lo tanto, nos vemos obligados a hacer inferencias de una muestra y aceptar el nivel de error estadístico
Para interpretar las inferencias estadísticas, tenemos que determinar el nivel aceptable de error estadístico. Se
tienen que establecer hipótesis nula Ho. Se suelen comparar las medias determinando que una o dos medias
sean iguales o distintas.
El modo de aproximación más común es determinar el nivel de error de Tipo I, que también se llama alfa. El
error de Tipo I es la probabilidad de rechazar la hipótesis nula cuando es cierta. O dicho de otra manera, la
probabilidad de que la prueba estadística muestre significación estadística cuando en realidad no está presente.
Al determinar el nivel de error de Tipo I, tenemos que fijar también el segundo tipo de error, que es el error de
Tipo II o beta. El error de Tipo II es la probabilidad de fallar en rechazar la hipótesis nula cuando es realmente
falsa. Dicho de otra manera, nuestro objetivo es minimizar estos dos tipos de errores, el error de Tipo I y Tipo
II, y maximizar el nivel de confianza (1−alfa) y la potencia (1−beta).
Realidad
Cierta Falsa
Decisión
Error Tipo I Nivel de Confianza
Rechazar H0
1−
No rechazar H0 Potencia Error Tipo II
Aceptar H0 1−
Error tipo 1 : Probabilidad de rechazar la Ho cuando a es cierta al tener que rechazarse cuando es falsa
Error tipo 2: Probabilidad en fallar en rechazar la Ho cuando es realmente falsa, es decir, no rechazar la Ho
cuando es falsa.
Debemos minimizar estos dos tipos de errores y al mismo tiempo estamos maximizando el nivel de confianza
y potencia. Si no tenemos el suficiente nivel de confianza y potencia, el estudio no tiene valor.
Establecer el nivel de significación es importante y por ello, tenemos que seguir determinados pasos para
poder determinarlo:
4
7) Recopilar datos
11) Validación e interpretación de los resultados: (en el trabajo esta última parte debe tener implicaciones
para el mundo real. Ej: ¿ para qué sirven los resultados para la empresa, para la vida real −−−−lo valorará
mucho en el trabajo)
Antes de procesar los datos es importante saber que hemos conseguido cumplir una serie de supuestos.
Existen dos razones que explican la importancia de realizar un buen análisis de los datos:
• Cuanto más cuidado tengamos en analizar los datos, mejor será la predicción y podremos determinar
más fácilmente las relaciones entre las variables.
• Las técnicas multivariantes requieren muchos más datos y supuestos más complejos que las técnicas
univariante o bivariantes. Hay que ver si cumplen una serie de supuestos. Muchas veces los efectos
del incumplimiento de los supuestos no se representan directamente en los resultados, sino que tienen
un efecto importante sobre la naturaleza e interpretación de los datos.
Es fundamental observar las variables individualmente, pero también hay que ver las relaciones entre las
variables conjuntamente. Para ello. Hacemos los siguientes tratamientos:
• Examinar gráficamente los datos para saber la forma de la distribución, analizar las relaciones entre
variables, y analizar las diferencias entre grupos.
• Tratar datos ausentes mediante métodos de imputación
• Detectar casos atípicos y eliminarlos si no son aleatorios.
Examinar gráficamente: Hay que examinar la forma de la distribución y para ello podemos utilizar:
Histograma: Representación gráfica de los datos que muestra la frecuencia de los datos en categorías. Es una
forma muy útil de averiguar si existe una distribución normal, si los datos siguen una distribución normal.
Gráfico de dispersión: Se analizan las relaciones bivariantes. Es un conjunto o representación gráfica de los
puntos de datos basados en dos variables. Se investiga si la relación entre las dos variables es
aproximadamente lineal.
Gráfico de cajas y bigotes: Se analiza las diferencias entre grupos, es el análisis para detectar casos atípicos.
Se transforma la distribución normal en cajas y bigotes.
La línea de fuera de la caja se llama bigote y representa un cuartil. Con este podemos distinguir diferencias
entre grupos.
Es una forma útil de identificar casos atípicos porque, al transformar la distribución, los datos que queden
5
fuera de un cuartil serán los casos atípicos. Se representan con asteriscos o círculos.
Datos ausentes: Hay que determinar si existen datos ausentes, ya que son una molestia para nosotros.
Tenemos dos opciones:
• Eliminar casos para evitar el sesgo. Por lo que eliminamos y no utilizamos esos datos. Hay que
averiguar si los datos son decisorios o no.
A veces, el eliminar datos no es bueno porque tendríamos menos datos, y no conseguimos un nivel de
significación aceptable.
Casos atípicos: Hay que decidir si emplearlos o eliminarlos. Hay que eliminarlos si no son aleatorios.
Podemos emplear:
Para evitar los sesgos más importantes, por qué debemos saber si los datos cumplen los supuestos.
Hay dos razones principales:
• Las relaciones entre una gran cantidad de variables son muy complejas, hablamos de muchos datos, y
para estudiar estas relaciones utilizamos las técnicas multivariantes. Y cuando no cumplen los
supuestos, los sesgos serán más potentes, al igual que las distorsiones.
• Los procedimientos multivariantes estiman el modelo multivariante y producen resultados estadísticos
aún cuando no cumplen los supuestos. Podemos estar analizando cosas que no tienen que ver con la
realidad.
Las técnicas multivariantes tienen que cumplir los supuestos doblemente: tienen que cumplir los
supuestos como variables aisladas, y tienen que cumplir los supuestos de las variables multivariantes.
Entonces, para poder aplicar las técnicas multivariantes, se suponen las siguientes condiciones o
6
supuestos:
TÉCNICAS DE DEPENDENCIA
TÉCNICAS DE INDEPENDENCIA
Para realizar una investigación comercial multivariante hay que realizar los siguientes preguntas:
• Programas Informáticos.
• Ejercicio 1
• Define el análisis multivariante con sus propias palabras.
• ¿Por qué es importante el conocimiento de las escalas de medida para planificar una investigación de
datos multivariante?
• Relaciona, distingue, y explica los siguientes términos: nivel de significación, potencia, error de Tipo
I y error de Tipo II.
• ¿Cuáles son los métodos básicos para examinar las características de los datos en el análisis
multivariante? ¿Por qué son necesarios e importantes?
• Discute la siguiente afirmación: para utilizar la mayoría de las técnicas multivariantes no es necesario
que se cumplan todos los supuestos de normalidad, linealidad, homocedasticidad y ausencia de
errores correlacionados.
• Define el análisis multivariante con sus propias palabras.
Son aquellas técnicas estadísticas que nos van a ayudar a analizar al mismo tiempo un conjunto de
variables. El efecto de cada una de estas variables independiente de las otras no tiene sentido, pero
analizadas simultáneamente su efecto tiene interpretación.
7
• ¿Por qué es importante el conocimiento de las escalas de medida para planificar una
investigación de datos multivariante?
Existen dos tipos de escalas: métricas y no métricas. Si los datos son no métricos, no dan valores
matemáticos, sin embargo, si son métricos si que dan valores matemáticos. Por tanto, es crucial
conocer que escala para determinar que técnica multivariante es más apropiada en función de la
escala.
• Relaciona, distingue, y explica los siguientes términos: nivel de significación, potencia, error de
Tipo I y error de Tipo II.
Error tipo I: se define como la probabilidad de que se rechace la hipótesis de un posible valor
cuándo este es cierto.
Error tipo II: se define como la probabilidad de que se acepte la hipótesis de un posible valor
cuándo este es falso.
• ¿Cuáles son los métodos básicos para examinar las características de los datos en el análisis
multivariante? ¿Por qué son necesarios e importantes?
♦ Primero hay que saber la forma de la distribución, para ello hacemos un histograma que
nos va a indicar la frecuencia de los datos, esto nos indicará si existe una distribución
normal.
♦ El segundo método es el gráfico de dispersión, este nos va a servir para indicar si la
relación entre dos variables es lineal.
♦ El tercer método son los gráficos de cajas y bigotes. Este gráfico está dividido en cuartiles y
nos sirve para detectar casos atípicos.
• Discute la siguiente afirmación: para utilizar la mayoría de las técnicas multivariantes no es
necesario que se cumplan todos los supuestos de normalidad, linealidad, homocedasticidad y
ausencia de errores correlacionados.
Las técnicas multivariantes nos sirven para estudiar la relación simultánea entre el
comportamiento de más de dos variables. La afirmación es falsa ya que esta relación debe cumplir
todos los supuestos:
♦ el supuesto de normalidad nos servirá para poder usarse los estadísticos de la t− Student y
de la f− Snedecor.
♦ Linealidad: nos indica la relación existente entre las variables y nos permitirá hallar
correlaciones.
♦ Homocedasticidad: las variables dependientes deben exhibir igual nivel de dispersión de la
varianza en todas las variables independientes.
♦ El último supuesto que debe cumplir es que cualquier error de predicción sea
independiente del resto.
TEMA 2: EL ANALISIS FACTORIAL
Estructura de la clase:
8
• Conceptos básicos del AF.
• Distinción entre el AFC y ACP.
• Supuestos del ACP.
• Diseño del ACP.
♦ Estimación del número de factores a ser extraídos.
♦ Métodos de rotación de los factores.
♦ Criterios para determinar el nivel de significación de las cargas factoriales.
• Caso práctico.
• Tratamiento de los datos con DYANE y SPSS.
• Definición y objetivo del AF.
El análisis factorial (AF) se puede definir como la técnica estadística multivariante (de
interdependencia) cuyo objetivo principal es resumir las variables y extraer información (los factores
más importantes) de grandes bases de datos, procurando una mejor comprensión de la estructura de
los mismos.
−−>[Author:RGM]
Imagen de marca, imagen del establecimiento, imagen de los consumidores sobre una bebida, etc. En
definitiva, se enmarca dentro de la segmentación, factores principales y diferenciación de nuestro
producto, estudio de aptitudes, etc
Para el AF buscaremos los índices de correlación entre variables, e identificaremos las correlaciones
altas.
Lo que haremos es juntar aquellas que tengan una correlación alta entre ellas y formar un factor con
ellas.
−−>[Author:RGM]
• Conceptos básicos.
Conceptos Definición
Factor Es el valor teórico que se extrae con el AF. Es una combinación lineal
(Y=X1+ X2+...+ nXn)de las variables originales. Los factores
representan las dimensiones subyacentes (extracción del Factor1) que
resumen la serie original de variables.
9
El factor es una relación lineal. Calcularemos , , ..., n para hallar el
factor (Y=X1+ X2+...+ nXn). Los factores no son directamente
observables. Por ello usamos la técnica del AF.
Es la correlación entre las variables originales (el peso de cada variable en el
factor) y los factores, y la clave para entender la naturaleza de un factor
específico. Las cargas de los factores al cuadrado indican qué porcentaje de
la varianza en una variable original se atribuye a un determinado factor.
Cargas
Dicho de un modo mejor, Las cargas son el peso de cada variable en el
Factor.
En investigación comercial se suelen utilizar métodos o modelos básicos para obtener soluciones
factoriales: análisis factorial común (AFC) y análisis de componentes principales (ACP). La
diferencia entre estos dos métodos consiste en el tipo de varianza que analizan. En el AFC los factores
se basan solamente en la varianza común. En el ACP los factores se basan en la varianza total (que
incluye la varianza común y la varianza específica y error).
Nota: En Investigación de Mercados (IM), cuando se menciona AF, se está refiriendo en realidad al
ACP.
1.− Varianza Común: es aquella varianza donde una variable se comparte con todas las demás
variables.
2.− Varianza Específica: es aquella varianza asociada únicamente con una variable específica.
10
En este curso, nos centramos sólo en el ACP.
En AFC no se usa la Varianza Específica y la Varianza de Error porque se supone que distorsiona.
Pero se supone que tiene varios inconvenientes:
Seleccionamos las correlaciones altas. Para considerar una correlación alta, esta tiene que ser >
0,30.
Esta prueba es más objetiva y eficaz. Es una prueba estadística para examinar la existencia de
correlaciones significativas. El resultado a esta prueba sería Significativo o No significativo.
La prueba de Bartlett sólo prueba la presencia de relaciones significativas, pero no indica el nivel de
correlación. Esto se consigue con el tercer análisis: Índice KMO
♦ Tamaño muestral
El criterio a seguir para determinar el tamaño muestral óptimo a utilizar con ACP, la muestra no
11
debe ser inferior a 50 observaciones. Lo aconsejable es que sea >= 100.
♦ Matriz de correlaciones
Como ya se ha comentado, se considera que existen correlaciones altas cuando éstas son > 0,30.
♦ Test de Bartlett
Aplicamos el test de Bartlett y el índice KMO.
♦ Rotación de factores
Ver gráfico.
♦ Validación
Un método para efectuar una validación a nuestro ACP es dividir la muestra en dos partes
independientes y aplicar a cada una de ellas el ACP. Si obtenemos los mismos factores/dimensiones,
es decir: si coinciden ambas la muestra sería representativa y por tanto, el ACP sería válido.
12
Se identifica el número óptimo de factores que contienen una
proporción de la varianza común sustancialmente alta.
♦ QUARTIMAX
♦ VARIMAX!DYANE (utilizada en el curso)
♦ EQUIMAX
13
♦ Rotación oblicua: Cuando nos es una rotación con un ángulo de referencia de 90º
♦ Criterios para determinar el nivel de significación de las cargas factoriales.
(Interpretación de los factores)
Al interpretar los factores, se debe determinar qué cargas factoriales merece la pena considerar. Para
ello hay dos criterios importantes.
14
Muestra < 100 observaciones, seleccionamos cargas factoriales>0,75
• Caso practico.
El caso TeleSake
X1 : Velocidad de entrega
X2 : Nivel de precios
X3 : Presentación de la comida
X6 : Atención al cliente
X7 : Calidad de la comida
El punto 6, Caso práctico, lo realizaremos con el SPSS y el Dyane, con lo que el punto 7 quedará
cubierto. El punto 7 lo trataremos primero, pero sólo con el Dyane y simplemente para ver los
criterios a utilizar y la interpretación y el análisis de los datos.
Hay que tener en cuenta que el programa Dyane ofrece tres opciones de aplicación del AFC:
• Con Dyane.
−−>[Author:RGM]
ANÁLISISDECOMPONENTESPRINCIPALES
=====================================================================
15
IDENTIFICACIÓN DE LAS VARIABLES
−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
VARIABLE 1 : X1 − X1
VARIABLE 2 : X2 − X2
VARIABLE 3 : X3 − X3
VARIABLE 4 : X4 − X4
VARIABLE 5 : X5 − X5
VARIABLE 6 : X6 − X6
VARIABLE 7 : X7 − X7
−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
X1 X2 X3 X4 X5 X6 X7
Test de Bartlett
−−−−−−−−−−−−−−−−
16
−−−−−−−− −−−−−−−− −−−−−−−− −−−−−−−− −−−−−−−− −−−−−−−− −−−−−−−−
CARGAS DE
−−−−−−−−−−−
También tenemos 7 factores con valores propios. En esta matriz consideramos todos los factores, por
lo que tenemos la Comunalidad igual a 1
COEFICIENTES DE
PUNTUACIÓN DE
LOS FACTORES:
17
Cargas de los factores retenidos:
−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
Hemos obtenido 3 factores más importantes. Ahora la Comunalidad es menor que 1, pero bastante
alta. Pero con esta matriz es difícil distinguir que variable es más importante que las otras.
Lo que podremos saber es cuanto varianza está explicada con el análisis de componentes principales.
Podemos ver que es muy elevada, y se pueden explicar casi todos los factores.
ROTACIÓN VARIMAX:
−−−−−−−−−−−−−−−−−
−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
18
X4 0,1167 0,9210* 0,1525 0,8851
COEFICIENTES DE
PUNTUACIÓN DE
LOS FACTORES:
Ahora tendremos que interpretar los factores. Tendremos que poner nombre o etiqueta a cada factor.
Esto dependerá. Hay una regla general para atribuir significado a cada factor:
−−>[Author:RGM]
−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
VARIABLES:
19
Código Significado
−−−−−− −−−−−−−−−−−−−−−−
A X1
B X2
C X3
D X4
E X5
F X6
G X7
FACTORES 1 y 2:
FACTOR 2
1,0 + + |
| |F |
0,9 + + D |
|||
0,8 + + |
|||
0,7 + + |
|||
0,6 + + |
|||
0,5 + + |
|||
0,4 + + |
|||
20
0,3 + + |
|||
0,2 + E + G |
|||
0,1 + + B |
|A||
0,0
+−−−−+−−−C−−−+−−−+−−−+−−−+−−−+−−−+−−−+−−−+−−−+−−−+−−−+−−−+−−−+−−−+−−−+−−−+−−−+−
1
|||
−0,1 + + |
|||
−0,2 + + |
|||
−0,3 + + |
|||
−0,4 + + |
|||
−0,5 + + |
|||
−0,6 + + |
|||
−0,7 + + |
|||
−0,8 + + |
|||
−0,9 + + |
21
|||
−1,0 + + |
|+++++++++++++++++++
−1,0 −0,8 −0,6 −0,4 −0,2 0,0 0,2 0,4 0,6 0,8 1,0
• Con SPSS.
Ahora veremos las opciones en el SPSS. Usaremos los mismos datos que antes, para el análisis con el
SPSS.
22
Y nos aparecerá una ventana como la siguiente:
23
−−>[Author:RGM]
24
−−>[Author:RGM]
También podemos cambiar el criterio a Número de factores, porque sepamos el número de factores
que queremos extraer. −−>[Author:RGM]
Nos interesa seleccionar también el Gráfico de sedimentación, y la Solución factorial sin rotar.
25
En botón opciones:
Para ACP podemos seleccionar varios métodos para sustituir o tratar los valores ausentes. Nosotros
usaremos Reemplazar por la media ya que es el valor teóricamente mas representativo.
Suprimir valores absolutos menores que: Opción muy importante a seleccionar. −−>[Author:RGM]
A. factorial
Notas
26
usuario son
considerados como
perdidos.
MEAN
SUBSTITUTION: Para
cada variable utilizada,
Casos utilizados.
los valores perdidos
son sustituidos por la
media de las variables.
FACTOR /VARIABLES x1 x2 x3 x4 x5 x6
x7 /MISSING MEANSUB /ANALYSIS x1
x2 x3 x4 x5 x6 x7 /PRINT INITIAL KMO
EXTRACTION ROTATION /FORMAT
Sintaxis SORT BLANK(.50) /PLOT EIGEN
/CRITERIA MINEIGEN(1) ITERATE(25)
/EXTRACTION PC /CRITERIA
ITERATE(25) /ROTATION VARIMAX
/METHOD=CORRELATION .
Tiempo
0:00:00,16
Recursos transcurrido
Memoria máxima necesaria 7204 (7,035K) bytes
Vemos que es inaceptable: según KMO sale 0,446. Según nuestro criterio, si KMO < 0,5 es
inaceptable.
−−>[Author:RGM]
Para un estudio exploratorio, podemos aceptar este test, puesto que ha salido significativo para el
test de Bartlett.
Comunalidades
Inicial Extracción
Velocidad de entrega 1,000 ,884
Nivel de precios 1,000 ,895
Presentación de la
1,000 ,649
comida
Imagen del logotipo 1,000 ,885
27
Eficacia del servicio 1,000 ,995
Atención al cliente 1,000 ,901
Calidad de la comida 1,000 ,618
Este cuadro muestra cuanta varianza esta explicada con este modelo. Inicialmente está a 1, porque
tiene todos los factores. Después de la extracción, baja; pero podemos ver que estamos con niveles
muy altos.
28