Вы находитесь на странице: 1из 16

CORRELACIÓN Y REGRESIÓN

LINEAL MÚLTIPLE
El estudio de la influencia de dos o
más variables independientes
sobre la variable dependiente se le
llama análisis de regresión y
correlación múltiple.
Ecuación de regresión múltiple

y´ a  b1 x1  b2 x2  ...  bk xk
donde: x1 , x 2 , x k son variables independientes,
b1 , b1 , bk son los coeficientes de regresión.
Para encontrar las valores de los coeficientes de la
ecuación de regresión ( a, b1, b2, ... bk ) se utiliza el
método de mínimos cuadrados que consiste en
resolver el siguiente sistema de ecuaciones
simultaneas.
Error Estándar de Regresión Múltiple

donde
• y es el valor observado,
• y´ es el valor estimado con la ecuación de
regresión,
• n es el número de observaciones en la muestra,
• k es el número de variables independientes.

S y ,12... k 
 ( y  y´) 2

n  (k  1)
Coeficiente de Correlación
Múltiple
• Es una medida de la fuerza de la asociación
entre la variable dependiente y dos o mas
variables independientes.
R
 ( y  y´) 2

donde
 ( y  y ) 2

• y es el valor observado,
• y´ es el valor estimado con la ecuación de
regresión,
• es el promedio de los valores observados.
Coeficiente de Determinación
Múltiple
• Mide el porcentaje de la variación en la
variable dependiente debido a la variación
en las variables independientes.

R 2

 ( y  y´) 2

 ( y  y) 2
Evaluación del modelo de
regresión Múltiple
• Prueba Global:
Para ver si el modelo de regresión múltiple
es válido
• Se plantea la hipótesis:
H 0 : 1   2  ...   k
H 1 Al menos una de las betas diferente de 0
• Para probar la hipótesis nula de que
todos los coeficientes de regresión
múltiple son cero, se emplea la
distribución F de Ficher que tiene las
siguientes características:
Es positivamente sesgada y el valor crítico
para el nivel de significancia 0.05 está
situado en la cola derecha.
Depende de número de grados de libertad
en el numerador y del número de grados de
libertad en el denominador.
Para calcular estadística de la prueba F
realizamos el cuadro de ANOVA
Fuente de SS (suma de g. l. MS (cuadrado Fcal
Variación cuadrados) medio)

Regresión SSR k MSR = SSR / k MSR/MSE

Error SSE n - (k+1) MSE =


SSE / (n-k+1))

Total SS n-1
SSE   ( y  y´) 2

SS   ( y  y) 2

SSR  SS  SSE
Región Crítica:
Decisión y Conclusión
• Si no se rechaza la hipótesis nula , por
lo tanto no habrá el modelo de
regresión entre la variable dependiente
y las variables independientes.
• Si se rechaza la hipótesis nula
podemos afirmar con nivel de
significación que al menos una de las
betas son diferentes de cero. En este
caso debemos de determinar que
variables independientes deben de
entrar en el modelo de regresión.
Matriz de Coeficientes de
Correlación
y x1 x2 ... xk
y 1 R yx1 R yx2 ... R yxk
x1 R yx1 1 Rx1x2 ... Rx1xk
x2 R yx2 Rx1x2 1 ... Rx2 xk
... ... ... ... ... ..
xk R yxk Rx1xk Rx2 xk ... 1

La variable dependiente y debe tener relación


con cada una de las variables independientes.
La correlación entre las variables
independientes no debe ser muy alta para no
causar problemas de multicolinealidad.
Multicolinealidad:
Correlación entre
las variables independientes.
La milticolinealidad puede distorsionar el
Error Estándar de Estimación y puede
llevar a conclusiones erróneas acerca de
cuales variables independientes son
estadísticamente significantes. El remedio
usual de la multicolinealidad es omitir una
de las variables independientes que estén
fuertemente relacionadas y volver a
calcular la ecuación de regresión y los
coeficiente de correlación.
Los Supuestos acerca de la Regresión y de la
Correlación múltiple.
 Las variables independientes y la dependiente
tienen una relación lineal.
 La variable dependiente es continua.
 Los Errores (las diferencias entre los valores
observados y estimados por la ecuación de
regresión) deben ser aproximadamente igual para
todos los valores de y´. Cuando esto ocurre decimos
que las diferencias muestran homocedasticidad.
 Los Errores o Residuales(las diferencias entre los
valores observados y estimados por la ecuación de
regresión) están distribuidos normalmente con una
media de 0.
 Observaciones sucesivas de la variable dependiente
no están correlacionadas. La violación de esta
suposición se le llama autocorrelación. La
autocorrelación se presenta cuando los datos se
recolectan en los periodos sucesivos.

Вам также может понравиться