Вы находитесь на странице: 1из 27

Facultad de Ingeniera Econmica, Estadstica y Ciencias Sociales

Escuela Profesional de Ingeniera Estadstica

Curso: Mtodos Economtricos I


Prof: Richard F. Fernndez Vsquez
Email: rffv.uni@gmail.com / Twitter: @ricfer85

MODELO DE REGRESIN LINEAL


CLASICO - SUPUESTOS

Ejemplo
Una empresa se dedica a la produccin y comercializacin de textiles.
De acuerdo con los resultados histricos, las condiciones favorables de
la economa han permitido un buen desempeo de las ventas. Sin
embargo, el Gerente de Ventas de la compaa conoce que ese
incremento no solo se debe a la situacin econmica, sino tambin al
esfuerzo realizado por el rea de marketing, en cuanto a la promocin
del producto en diversos medios de comunicacin.
Y= Ventas (miles de soles)
X1=Inversin en Radio (miles de soles)
X2=Inversin en TV (miles de soles)
X3=Inversin en diarios (miles de soles)

1. Anlisis de residuos

2. Independencia
Cov( i, j | Xi, Xj ) 0
Cov( i, j ) 0

Si en un grfico de residuales y los valores estimados se observa una


tendencia cclica es posible que los errores no cumplan con este supuesto.

2. Independencia: errores no correlacionados

El estadstico de Durbin Watson

El estadstico de Durbin Watson proporciona informacin sobre el grado de


independencia existente entre los residuos.
Toma el valor aproximado de 2 cuando los residuos son independientes.
Mide el grado de correlacin de un error con el anterior y el posterior a l.

Podemos asumir independencia de errores cuando DW est entre 1.5 y 2.5.

2. Independencia

3. Homocedasticidad: homogeneidad de varianzas


Es necesario contrastar la hiptesis de homocedasticidad, esto es, la varianza de
los residuos es constante.

Hiptesis

H 0 : 12 22 k2
H1 : al menos una varianza difiere

Test
Estadstico Distribucin bajo Ho

F de Fisher
con (k-1, n-k)
gl

Si valor-p > 0,05 no podemos rechazar la hiptesis nula y concluimos que se


cumple el supuesto de homocedasticidad.

3. Homocedasticidad
- Dependent: Variable dependiente de la ecuacin de regresin

- ZPRED: Pronsticos tipificados


- ZRESID: Residuos tipificados
- DRESID: Residuos obtenidos al efectuar el pronstico eliminando el caso. Muy til
para detectar valores atpicos.
- ADJPRED: Pronsticos efectuados con una ecuacin de regresin en la que no se
incluye el caso pronosticado. Diferencias entre PRED Y ADJPRED, delatan presencia
de puntos de influencia.
- SRESID: Residuos divididos por su desviacin tpica. Para muestras grandes el 95%
de estos deben estar entre -2 y 2.
- SDRESID: Residuos corregidos divididos por su desviacin tpica. tiles para
detectar puntos de influencia.

3. Homocedasticidad

3. Homocedasticidad
El grfico no muestra
relaciones de ningn tipo
entre los residuos y los
valores predichos.

Cuando un diagrama de
dispersin delata la
presencia de varianzas
heterogneas, puede
utilizarse una transformacin
de la variable dependiente
para resolver el problema
(transformacin logartmica
o raz cuadrada).

4. Normalidad
El modelo clsico de regresin lineal normal supone que cada ui est
normalmente distribuida con:

Media

E ( i ) 0

Varianza

E ( i E ( i ))2

Covarianza

E ([i E ( i )][ j E ( j )]) E ( ij ) 0

i j

Estos supuestos se expresan en forma ms compacta como

i N (0, 2 )

4. Normalidad

4. Normalidad

4. Normalidad

5. Multicolinealidad
Cov( Xi, Xj ) 0
Uno de los supuestos bsicos del modelo lineal general

y X
establece que las variables explicativas son linealmente independientes,
es decir:

1 X 1 2 X 2 ... k X k 0

Cuando existe multicolienalidad algunos i no son nulos. Entonces el


rango de la matriz X es menor que k, la matriz XX es singular, su
determinante es cero y el estimador de mnimos cuadrados queda
indeterminado. Esto funciona muy bien cuando se trata de
multicolinealidad perfecta.

5. Multicolinealidad
Deteccin de multicolinealidad
El factor incremento de varianza se define como el cociente de la varianza de la
estimacin de una pendiente en regresin mltiple y la varianza de la misma
pendiente en regresin simple.

V ( i )
1
FIVi

V (bi ) 1 Ri2

La principal consecuencia de una multicolinealidad alta, Ri 1, es que las


varianzas de las estimaciones asociadas a las variables colineales son muy
grandes.
2

Si FIV>10, entonces la variable Xi est altamente relacionada con el resto de las


explicativas

5. Multicolinealidad
Deteccin de multicolinealidad
La medida ms satisfactoria de multicolinealidad se basa en los autovalores de la
matriz XX. Recordemos que una matriz simtrica y definida positiva puede
escribir como:

X X CC
1

Donde C es una matriz ortogonal, C C y es una matriz diagonal que


contiene los autovalores, diag 1 ,..., k . Se cumple que el determinante
de una matriz es el producto de sus autovalores

X X CC C C 1 * 2 * ... * k
Por lo tanto, podemos pensar que existe multicolinealidad alta cuando alguno de
los autovalores sea pequeo. Para no tener en cuenta la magnitud, se analiza el
cociente de los autovalores que es adimensional. Esto se define como ndice de
condicin.

max
min

5. Colinealidad
Existe colinealidad perfecta cuando una de las variables independientes se
relaciona de forma perfectamente lineal con una o ms del resto de variables
independientes de la ecuacin.
El nivel de tolerancia de una variable se obtiene restando a 1 el coeficiente de
determinacin R2 que resulta al regresar esa variable sobre el resto de
variables independientes.
Valores de tolerancia muy pequeos indican que esa variable puede ser
explicada por una combinacin lineal del resto de variables, lo cual significa
que existe colinealidad.
Los factores de inflacin de la varianza (FIV), son los inversos de los valores de
tolerancia. Cuanto mayor es el FIV de una variable, mayor es la varianza del
correspondiente coeficiente de regresin.

5. Colinealidad

5. Colinealidad

Los autovalores informan sobre cuantas dimensiones o factores diferentes


subyacen en el conjunto de variables independientes utilizadas. La presencia de
varios autovalores prximos a cero indica que las variables independientes estn
muy relacionadas entre s.

5. Colinealidad

Los ndices de condicin son las raz cuadrada del cociente entre el autovalor ms
grande y cada uno del resto de autovalores. En condiciones de no-colinealidad,
estos ndices no deben superar el valor de 15. ndices mayores que 15 indican un
posible problema y mayores que 30 un serio problema de colinealidad.

5. Colinealidad

Las proporciones de varianza, recogen la proporcin de la varianza de cada


coeficiente de regresin parcial que est explicada por cada dimensin o factor. En
condiciones de no-colinealidad, cada dimensin suele explicar gran cantidad de
varianza en un solo coeficiente.

5. Colinealidad
Si hay colinealidad se hace lo siguiente:

Aumentar el tamao de muestra.


Crear indicadores mltiples resumiendo variables o haciendo
componentes principales.
Excluir variables redundantes.

Puntos de influencia
Distancia de mahalanobis
Mide el grado de distanciamiento de cada caso respecto de los promedios del
conjunto del conjunto de variables independientes.
Distancia de cook

Mide el cambio que se produce en las estimaciones de los coeficientes de


regresin al ir eliminando cada caso en la ecuacin de regresin. En general, un
caso con una distancia de Cook superior a 1 debe ser revisado.
Valores de influencia
Representan una medida de la influencia potencial de cada caso. Los puntos
muy alejados pueden influir de forma muy importante en la ecuacin de
regresin. Con ms de 6 variables y al menos 20 casos, se considera que un
valor de influencia debe ser revisado si es mayor que 3p/n (p variable y n casos).
En la prctica los valores menores que 0.2 son poco problemticos, de 0.2 a 0.5
arriesgados y los mayores a 0.5 deberan evitarse.

Puntos de influencia

Lecturas
[GU]: Captulos 4, 5, 6, 7 y 8 - Apndices B, C.1-C.5 y apndice 7A
[GR]: Captulo 2 y 3 secciones 3.1-3.3, 3.5 - Captulo 4 secciones 4.3, 4.6,
4.8 - Captulo 6 secciones 6.1-6.3
[JD]: Captulo 3 apndice 3.2 y 3.4
[GU] Gujarati, Damodar y Dawn Porter. Econometra. Quinta Edicin.
Mxico: McGraw Hill. 2010.
[JD] Johnston, J. y J. DiNardo. Mtodos de Econometra. Traduccin de la 4ta
edicin (Murillo C. F.). Barcelona: Vicens Vives. 2001
[GR] Greene, William. Econometric Analysis. Quinta Edicin. New Jersey:
Prentice Hall. 2003.
[SW] Stock J. H. y Watson M.W. Introduction to Econometrics. Primera
Edicin. Boston: Addison Wesley. 2003.

Вам также может понравиться