Вы находитесь на странице: 1из 15

SUPUESTOS DEL MODELO

DE REGRESIÓN LÍNEAL
FEBRERO 2019
LINEALIDAD
• EL primer significado de linealidad es aquel en el que la
eseranza condicional de “Y” es una función lineal de “x”.
Geométricamente la curva de regresión en este caso es
una recta. En esta interpretación una función de regresión
como E(Y|Xi)=β1+β2 , no es una función lineal porque la
variable x aparece elevada a una potencia.
LINEALIDAD
• La segunda interpretación de linealidad se presenta
cuando la esperanza condicional de Y, E(Y|Xi), es una
función lineal de los parámetros, los β; puede ser o no
lineal en las variables X. De acuerdo con esta
interpretación, E(Y|Xi)=β1+β2, es un modelo de regresión
lineal:
LINEALIDAD
• Supongamos que X tiene un valor de 3, por tanto, E(Y|
X=3)=β1+92β2 (lineal en β1 y β2.
• Pero si consideramos el modelo: E(Y|Xi)=β1+β2 2Xi
HOMOSCEDASTICIDAD
• Homo = Igual
• Cedasticidad = dispersión
• La palabra proviene del verbo griego skedanime, que
significa dispersar o esparcir.
• Significa que las poblaciones Y correspondientes a
diversos valores de X tienen la misma varianza .
HOMOSCEDASTICIDAD
• En otros términos, la variación alrededor de la línea de
regresión (la línea de relación promedio entre X y Y), es
la misma para todos los valores de X; no aumenta ni
disminuye conforme varía la X.
• En contraste, donde la varianza condicional de la
población Y varía con X, se le conoce como
heteroscedasticidad.
NO AUTOCORRELACIÓN
• Dado Xi, las desviaciones de dos valores cualesquiera de
Y de sus valores promedio no muestran los siguientes
patrones:
NORMALIDAD
El modelo clásico de regresión lineal normal supone que
cada ui, está normalmente distribuida con:
Media: E(ui) = 0
Varianza: E[ui –E (ui 2)=σ2
Cov (ui , uj): E{[ui –E (ui )[ui –E (uj)]} = (ui uj) = 0

i≠ j
NORMALIDAD
• Por consiguiente, la normalidad significa que ui , uj no sólo
o están correlacionadas, sino que también están
independientemente distribuidas
CONTROL DE SUPUESTOS
 MULTICOLINEALIDAD: a través de matrices de
correlación simple entre las variables independientes.
Solución: Seleccionar variables independiente con baja
correlación entre sí y/o transformar en variables dummy
no colineales.

 NORMALIDAD DE LOS RESIDUOS: a través de un


gráfico de distribución de los residuos. Solución:
eliminación de datos outliers.
CONTROL DE SUPUESTOS
 HETEROSCEDASTICIDAD: a través de gráficos de
residuos є para cada valor de ŷ. Solución:
Estandarización de la variable dependiente Y.

 AUTOCORRELACIÓN DE ERRORES: a través de la


prueba Durbin-Watson / el valor 2 indica no
autocorrelación. Solución: Corrección de
observaciones o eliminación de datos.
¿Cómo ajustar la regresión lineal cuando la función es
no lineal?
• La regresión lineal no siempre da buenos resultados,
porque a veces la relación entre Y y X no es lineal sino
que exhibe algún grado de curvatura. La estimación
directa de los parámetros de funciones no-lineales es un
proceso complicado. No obstante, a veces se pueden
aplicar las técnicas de regresión lineal por medio de
transformaciones de las variables originales.
AJUSTES DE VARIABLES A FUNCIONES NO
VARIABLES
• Hacer el diagrama de dispersión de las dos variables y
evaluar si el patrón resultante sigue la forma lineal o
alguna otra función.

• Identificada dicha función, substituir los valores de una


variable con sus valores cuadrados, raíz cuadrada,
logarítmicos o con alguna otra modificación, y hacer de
nuevo la matriz de correlación.
AJUSTES DE VARIABLES A FUNCIONES NO
VARIABLES

• Identificar la función que mejor ajuste por medio de un


paquete estadístico y determinar los coeficientes para la
construcción de esa ecuación.

FUNCIONES NO LINEALES

Exponencial: Logarítmica: Polinómica:


y = a + bx y = a + log b x y = a + b x + c x2
FUNCIONES NO LINEALES

EXPONENCIALES
LOGARÍTMICAS

Вам также может понравиться