Вы находитесь на странице: 1из 21

Facultad de Ciencias Económicas

7. Heterocedasticidad
HETEROCEDASTICIDAD
• El MLG considera el supuesto de homocedasticidad, es decir, que el modelo presenta
varianza constante de las perturbaciones: Var (ut ) =  2

• La heterocedasticidad se define como cambios de la varianza del término de error de la


ecuación estimada. Si la varianza de los errores no es constante se presume que es una
función de las variables explicativas del modelo: Var (ut ) = h(x )
CAUSAS QUE GENERAN HETEROCEDASTICIDAD

1. Problemas de especificación: forma funcional.


2. Presencia de factores atípicos.
3. Problemas de técnicas de gestión de datos de la
muestra.
4. Omisión de variables relevantes.
CONSECUENCIAS DE LA HETEROCEDASTICIDAD

1. La varianza de las perturbaciones ya no es mínima, pero el uso de


los MCO sigue siendo válido al menos en muestras grandes no
obstante que no representa un uso eficiente de la información.
2. La varianza y covarianza estimadas de los estimadores MCO son
sesgados e inconsistentes.
3. Las pruebas de la significancia basadas en los t disminuyen su
efectividad.
PRUEBAS DE HETEROSCEDASTICIDAD

Gráfico de los residuos


PRUEBAS DE HETEROSCEDASTICIDAD

La prueba de White
En econometría la prueba de White es la prueba más general
para detectar la heteroscedasticidad en los modelos
de regresión lineal. No precisa de una especificación concreta
de la heteroscedasticidad.
PRUEBAS DE HETEROCEDASTICIDAD
Esta prueba asume que la heterocedasticidad es función de la variables
independientes de la ecuación inicial y utiliza una ecuación auxiliar. Esta
prueba se distribuye como una Chi cuadrada con el número de grados de
libertad dados por el número de variables incluidas en la regresión auxiliar.

White: Términos no Cruzados White: Términos Cruzados

=  0 + 1 X t +  2 X 2 t +  3 Z t +  4 Z 2 t + wt
2
u t
2
=  + 
ut 0 1 t 2X +  X 2
t +  X Z
3 t t +  Z
4 t +  5 t + wt
Z 2

H 0 : 1 =  2 =  3 =  4 = 0 H 0 : 1 =  2 =  3 =  4 =  5 = 0
H1 :  0  0, 1  0,  2  0,  3  0 4  0 H1 :  0  0, 1  0,  2  0,  3  0,  4  0,  5  0
PRUEBAS DE HETEROSCEDASTICIDAD
En resumen…
• Test de Prueba: White

• Estadístico de Prueba: TW
• H0: “No existe heterocedasticidad” Si RESET
(1)
• Tabla de distribución: Chi cuadrado (χ2) Si RESET (2)

• Grados de libertad: k donde k = número de regresores del modelo auxiliar


• Regla de decisión:
Si TW ˃ χ2(k) se rechaza la H0

Si nivel de confianza 95% también usamos p ˂ 0,05 se rechaza la H0


CORRECCIÓN DE LA HETEROCEDASTICIDAD

1. Si la causa es error de especificación (forma funcional). La solución


correcta es especificar un nuevo modelo.

2. Corrección de White, que utiliza las estimaciones de los errores por


MCO para luego utilizar el método de estimación llamado “mínimos
cuadrados generalizados (MCG)”
8. Multicolineadlidad
Taller de Econometría

MULTICOLINEALIDAD

• El problema de multicolinealidad consiste en la existencia de


relaciones lineales entre dos o mas variables independientes del
modelo lineal uniecuacional múltiple.

• Dependiendo de cómo sea dicha relación lineal hablaremos de


Esta prueba perfecta
multicolinealidad se distribuye como una Chi cuadrada
o aproximada.
con el número de grados de libertad dados por el
• Es un hecho real
número de que al tratar con
variables variables
incluidas eneconómicas, la gran
la regresión
mayoría tenga
auxiliar sinunincluir
cierto la
grado de relación lineal.
constante

Horacio Catalán Alonso


Taller de Econometría

TIPOS DE MULTICOLINEALIDAD

Multicolinealidad perfecta

La multicolinealidad exacta o perfecta hace referencia a la existencia de una relación lineal


exacta entre dos o más variables independientes. En esta situación, los programas “se
quejarán” de que no podemos invertir matriz (X’X) y aparecerá el mensaje “near singular
matrix”. Ejemplo:

Esta prueba se distribuye como una Chi cuadrada


con el número
Multicolinealidad d grados de libertad dados por el
aproximada.
número de variables incluidas en la regresión
La multicolinealidad aproximada hace referencia a la existencia de una relación
linealauxiliar
aproximadasin incluir
entre la variables
dos o más constante independientes. Ejemplo:
Taller de Econometría

INTERPRETACIÓN Y GRADOS DE
MULTICOLINEALIDAD

No existe multicolinealidad Diferentes grados de multicolinealidad


CAUSAS QUE GENERAN MULTICOLINEALIDAD

1. Relación causal entre variables explicativas del modelo.


2. Incorrecta especificación del modelo (variables
redundantes.
3. Las variables en el modelo comparten una tendencia en
común.
4. Reducido tamaño de la muestra.
CONSECUENCIAS DE LA MULTICOLINEALIDAD

1. Los modelos siguen siendo MELI, pero las varianzas y covarianzas


de los estimadores MCO son altas.
2. La varianza y covarianza estimadas de los estimadores MCO son
sesgados e inconsistentes.
3. Se obtienen coeficientes estimados con errores estándar elevados.
4. El R2 es alto con coeficientes no significativos.
5. Los intervalos de confianza tienden a ser mucho mas amplios, lo que
hace más posible aceptar una hipótesis nula.
Taller de Econometría

PRUEBAS DE MULTICOLINEALIDAD

Matriz de correlación de las variables independientes

Variable X1t X2t X3t X4t X5t


X1t 1 -0.27 0,78 -0,83 0,65
X2t -0.27 1 -0.63 0.47 -0.46 Correlación fuerte
Esta
X3t
prueba
0,78
se distribuye
-0.63
como
1
una Chi
-0.89
cuadrada
0.17
entre variables
explicativas, por
con el número de grados de libertad dados por el lo tanto, el modelo
presenta
X4t -0,83 0.47 -0.89 1 -0.21
número de variables incluidas en la regresión multicolinealidad
X5t 0,65 -0.46 0.17 -0.21 1
auxiliar sin incluir la constante

𝑟𝑥𝑖𝑡 𝑥𝑗𝑡 > 0,8


Taller de Econometría

PRUEBAS DE MULTICOLINEALIDAD

Factor inflador de varianza (FIV)


El factor inflador de varianza se define para cada
uno de los coeficientes como:

FIV

Donde 𝑅 2 𝑖 es el coeficiente de determinación obtenido


No multicolinealidad
al efectuar la regresión de Xi sobre el resto de las
variables independientes del modelo. Multicolinealidad moderada
El FAV se interpreta como la razón entre la varianza Multicolinealidad alta
observada y la que habría sido en caso de que Xi
estuviera no correlacionada con el resto de variables
independientes del modelo, es decir, muestra en qué
medida se agranda la varianza del estimador como
consecuencia de la relación entre los regresores.
Taller de Econometría
CORRECCIÓN DE LA MULTICOLINEALIDAD

• Eliminación de las variables que se sospechan son causantes de la


multicolinealidad. Quedarse con las variables más significativas o
que expliquen mejor el comportamiento de la variable
dependiente de manera individual.

• En caso de disponer de pocas observaciones, aumentar el tamaño


de laEsta
muestra.
prueba se distribuye como una Chi cuadrada
con el número de grados de libertad dados por el
• Transformación
número dedevariables
variables. Por ejemplo, en
incluidas aplicando logaritmos,
la regresión
estimando el modelo en primeras diferencias, etc.
auxiliar sin incluir la constante
Desarrolle en grupos de 3 integrantes

1)

¿Cuál de los dos modelos


presenta
heterocedasticidad?

2)
De acuerdo a la matriz de
correlación, ¿Cuáles son los
pares de variables que
indicarían la presencia de
multicolinealidad en el
modelo?

Вам также может понравиться