Академический Документы
Профессиональный Документы
Культура Документы
Primer paso
Segundo paso
Tercer paso
Supuestos en la regresin mltiple Cumplen las variables individuales los supuestos de: normalidad linealidad homoscedasticidad?
Si
Cuarto paso
Especificacin del investigador
Procedimiento de seleccin
Mtodo de estimacin secuencial Estimacin progresiva/regresiva Estimacin por etapas Mtodo de combinacin Examinar todas las combinaciones posibles para identificar la que mejor se ajusta Cumple el valor terico de regresin los supuestos del anlisis de regresin? Si Examinar significacin estadstica del modelo Coeficiente de determinacin (R2) Coeficiente de determinacin ajustado Significacin de los coeficientes de regresin No A segundo paso: Creacin de variables adicionales
Quinto paso
Interpretacin del valor terico de la regresin Evaluar importancia relativa de las variables independientes con los coeficientes beta Valoracin de la multicolinealidad
Sexto paso
Validacin de los resultados Contraste del modelo de regresin en una nueva muestra de la poblacin
Dividir la muestra en dos partes y utilizar una submuestra para crear el modelo y otra para contrastarlo
Prediccin de la variable criterio con un conjunto de variables independientes, de forma que se maximice el valor terico de la regresin. La prediccin del modelo elegido debe demostrar tanto significacin prctica como estadstica
Explicacin objetiva del grado y carcter de la relacin entre las variables independientes y la variable dependiente. Concretamente:
Se pueden sustituir por variables ficticias. Cualquier variable no mtrica con k categoras puede representarse con k-1 variables ficticias
La normalidad univariante ayuda a obtener normalidad multivariante, pero no la garantiza. La normalidad multivariante implica que las variables individuales son normales.
cmo evaluarla? 1. Grfico de probabilidad normal de los residuos 2. Test de Kolmogorov-Smirnov sobre los residuos estandarizados LINEALIDAD Supuesto implcito en todas las tcnicas multivariantes basadas en medidas de correlacin. Resulta necesario identificar cualquier desplazamiento de la linealidad que pueda impactar la correlacin. cmo evaluarla? Examen visual de los residuos y Grfico de regresin parcial HOMOSCEDASTICIDAD Varianza constante del trmino de error. Se refiere al supuesto de que las variables dependientes exhiban iguales niveles de varianza a lo largo del rango de los valores de las variables independientes. cmo evaluarla? 1. Examen visual de los residuos 2. Test de Levene
EVALUACIN DE LA MULTICOLINEALIDAD
Situacin ideal: Tener una cantidad de variables independientes altamente correlacionadas con la variable dependiente, pero con poca correlacin entre s Multicolinealidad: correlacin entre tres o ms variables independientes Efecto La multicolinealidad reduce el poder predictivo de cualquier variable independiente individual, en la medida en que est asociado con las otras variables independientes A mayor colinealidad, la varianza nica explicada por cada variable independiente se reduce y el porcentaje de prediccin compartida aumenta
Anlisis bivariante
TABULACIN CRUZADA Mtodo de anlisis comnmente usado para clasificar variables categricas. A travs de una tabla de contingencia, se cruzan dos variables y se interpretan los porcentajes.
Proporciona un valor chi-cuadrado, que permite contrastar si existe relacin entre las variables que se cruzan. Valores significativos del estadstico indican que existe relacin.
EL ANLISIS DE LA VARIANZA (ANOVA) Procedimiento para valorar las diferencias de grupo. Se utiliza para constrastar la hiptesis de que varias medias muestrales son iguales. Las variables dependientes son mtricas, mientras que el factor (variable independiente) es una variable categrica. Proporciona un estadstico F. Valores significativos de F indican que existen diferencias significativas entres las muestras.
REGRESIN SIMPLE Mtodo univariante que analiza la relacin entre una variable dependiente (criterio) y una nica variable independiente (predictor). El objetivo es predecir cambios en la variable dependiente en respuesta a cambios en la variable independiente.