Вы находитесь на странице: 1из 8

Guía para el segundo parcial

1. ¿Porque razón debe formularse el supuesto de normalidad?


2. ¿Qué propiedades presentan los estimadores de mínimos
cuadrados bajo el supuesto de normalidad?
3. Explique en qué consiste el estadístico Jarque Bera, que
parámetros utiliza, contra que valor de tablas es comparado para
tomar una decisión.
4. Explique la prueba de Kolmogorov
5. Comente la prueba Anderson Darling
6. Defina que es la heteroscedasticidad.
7. Explique cuáles son las causas por las que las varianzas de µ i no
son constantes.
8. Qué ocurre con los estimadores en presencia de
heteroscedasticidad.
9. En qué consiste el método de mínimos cuadrados generalizados.
10.Cómo se detecta la heteroscedasticidad
11.Explique los métodos informales para detectar la
heteroscedasticidad.
12.Explique la prueba de Park, la de Glejser, la se Spearman,
Goldfeld-Quant, Breusch-Pagan-Godfrey, Whithe.
13.Cómo se corrige la heteroscedasticidad.
14.Defina que es autocorrelación.
15.Qué diferencia existe entre autocorrelación y correlación serial.
16.¿Por qué existe la correlación serial?
17.Qué le ocurre a los estimadores mínimo cuadráticos en presencia
de autocorrelación.
18.Defina que es un esquema autorregresivo.
19.Qué es el coeficinete de autocovarianza.
20.Qué ocurre con los estimadores en presencia de autocorrelación.
21.Explique los métodos para detectar la autocorrelación.
22.Cuáles son los supuestos en los que se basa el estadístico Durbin
Watson.
23.En qué consiste la prueba Breusch-Godfrey.
24.Explique el método de las primeras diferencias.
25.Explique el método de Cochrane-Orcutt.
26.Cuál es el papel del tiempo o los rezagos en la economía.
27.Qué es el multiplicador de corto plazo.
28.Qué es el multiplicador de rezagos distribuidos de largo plazo.
29.Porque es necesario usar rezagos.
30.Explique el método de Koyck para los modelos de rezagos
distribuidos.
31.¿Qué es una variable dummy?
32.¿Qué escalas son las más utilizadas?

33.¿Cuál es la trampa de las variables dummy´s?

34.¿Qué implica la mezcla de variables cuantitativas y cualitativas?

35.¿Qué es el análisis de regresión por secciones?

36.Explique los efectos de interacción de las variables dummy


(aditivo y multiplicativo).

1
37.¿Qué es la multicolinealidad?

38.¿Qué ocurre a los estimadores MELI en presencia de


multicolinealidad?

39.¿Qué pruebas se aplican para detectar la multicolinealidad?

40.Explique al menos cinco pruebas para detectar la


multicolinealidad.

41.¿Qué medidas se toman para corregir la multicolinealidad?

42.La naturaleza de la multicolinealidad, ¿qué consecuencias trae al


modelo?

43.¿Que implica el supuesto “no hacer nada” en presencia de


multicolinealidad?

44.El supuesto de multicolinealidad perfecta, ¿qué consecuencia


implica?

45.¿Por qué usar una variable dummy?

46.La normalidad en qué supuestos tiene su origen

47.¿Qué ocurre si los residuales no se comportan de manera normal?

48.Explique las pruebas para detectar que un modelo es normal

49.¿Qué ocurre con los estimadores en presencia de son normalidad?

50.¿Qué implica el teorema central del límite en el análisis de la


regresión?

Contraste h de Durbin
Considere la forma:

Yt = β1Yt −1 + β2Yt −2 +... +βr Yt −r + βr +1 X 1t + βr +2 X 2 t +... +βs X st + µt

con

ut = ρ • ut − 1 + ε t

donde εt es una variable aleatoria “Ruido Blanco”

La formulación de la hipótesis será:

H0 : ρ =0 No existe autocorrelación

H1 : 0 < ρ <1 Existe autocorrelación AR(1)

2
Y si la hipótesis nula es cierta, el estadístico:

n
h=r• → N (0,1)
1 − n •Var (b1 )

donde:

n Es el tamaño de la muestra
Var ( b1 ) Varianza muestral estimada del coeficiente de Yt-1 en la regresión del modelo
original.

r es el coeficiente de autocorrelación muestral, o sea:

∑e e
t =2
t t −1
r= n

∑e 2
t −1
t =2

El coeficiente de correlación puede obtenerse por medio de una regresión auxiliar, estimando el
parámetro por MCO, en un modelo como:

et = ρ • et −1 + µt

Una forma alternativa de obtener este valor es a través del estadístico de Durbin-Watson
desarrollando las sumatorias que forman el estadístico. De esta manera se obtiene que:
d
r = 1−
2

Cuadro

Regresión del consumo en función del PIB y del consumo con un rezago

LS // Dependent Variable is CP
Sample: 1988 1999
Included observations: 12 after adjusting endpoints

Variable Coefficient Std. Error T-Statistic Prob.

C 780.6843 466.1902 1.674605 0.1283


PIB -0.002714 0.010880 -0.249441 0.8086
CP(-1) 0.934178 0.169258 5.519250 0.0004

R-squared 0.984426 Mean dependent var 6333.763


Adjusted R-squared 0.980965 S.D. dependent var 864.0075
S.E. of regression 119.2059 Akaike info criterion 9.774022
Sum squared resid 127890.3 Schwartz criterion 9.895248
Log likelihood -72.67139 F-statistic 284.4366
Durbin-Watson stat 1.618970 Prob(F-statistic) 0.000000

Se debe contrastar el posible incumplimiento de la hipótesis de no autocorrelación antes de


comprobar si las variables son significativas o no.

3
Contraste de la h de Durbin.

Bajo la hipótesis nula el estadístico.

La obtención de los valores necesarios para construir el estadístico se realiza con el cuadro 31
(salida de la regresión) del modelo estimado por MCO.

d 1.618970
r =1− =1− = 0.190515
2 2

Var (b3 ) = (0.16925 ) 2 = 0.028648

12
hcalculada = 0.19051 • = 0.80836
1 − (12 * 0.028648 )

El estadístico teórico sigue una distribución normal (0, 1), que al 95% de nivel de confianza, en
contraste de una sola cola, es:

ht = 1.645

por lo tanto, como:

hcalculada = 0.808436 < ht = 1.645

No se rechaza la hipótesis nula.

Es decir, con un 95% de confianza las perturbaciones de esta especificación son esféricas1.

51.- Evalué la regresión e intérprete los coeficientes


Donde PIB= Producto Interno
T = Tiempo
Dependent Variable: PIB
Method: Least Squares
Sample: 1970 2001
Included observations: 32

Variable Coefficient Std. Error t-Statistic Prob.

C 515872.6 21391.92 24.11530 0.0000


T 31756.17 1131.389 28.06832 0.0000

R-squared 0.963318 Mean dependent var 1039849.


Adjusted R-squared 0.962095 S.D. dependent var 303518.2
S.E. of regression 59092.72 Akaike info criterion 24.87206
Sum squared resid 1.05E+11 Schwarz criterion 24.96367
Log likelihood -395.9530 F-statistic 787.8304
Durbin-Watson stat 0.499410 Prob(F-statistic) 0.000000

52.- Evalué la regresión e interprete los coeficientes


Donde PIB= Producto Interno
INVPUB = Inversión Publica
1
Las perturbaciones que satisfacen los supuestos de homocedasticidad y no autocorrelación son, conocidas como
perturbaciones esféricas.

4
INVPRIV = Inversión Privada
AR(1) = Proceso Autorregresivo de orden 1

Dependent Variable: PIB


Method: Least Squares
Sample (adjusted): 1971 2001
Included observations: 31 after adjustments
Convergence achieved after 15 iterations

Variable Coefficient Std. Error t-Statistic Prob.

C -1327869. 4645961. -0.285811 0.7772


INVPUB 1.112902 1.297271 0.857879 0.3985
INVPRIV -0.820408 4.935580 -0.166223 0.8692
AR(1) 1.015212 0.030426 33.36690 0.0000

R-squared 0.981802 Mean dependent var 1056614.


Adjusted R-squared 0.979780 S.D. dependent var 293088.0
S.E. of regression 41676.50 Akaike info criterion 24.23318
Sum squared resid 4.69E+10 Schwarz criterion 24.41821
Log likelihood -371.6142 F-statistic 485.5539
Durbin-Watson stat 1.955977 Prob(F-statistic) 0.000000

Inverted AR Roots 1.02


Estimated AR process is nonstationary

53.- Evalué la regresión e intérprete los coeficientes


Donde PIB= Producto Interno
INVPUB = Inversión Publica
INVPRIV = Inversión Privada
PIB(-1) = Producto Interno Rezagado

Prueba la presencia de no autocorrelación con el estadístico h de Durbin


Dependent Variable: PIB
Method: Least Squares
Sample (adjusted): 1971 2001
Included observations: 31 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

C 60131.74 24777.09 2.426908 0.0222


INVPUB 0.702911 0.610299 1.151750 0.2595
INVPRIV 4.232676 2.246385 1.884217 0.0703
PIB(-1) 0.935416 0.028422 32.91207 0.0000

R-squared 0.987025 Mean dependent var 1056614.


Adjusted R-squared 0.985583 S.D. dependent var 293088.0
S.E. of regression 35190.76 Akaike info criterion 23.89487
Sum squared resid 3.34E+10 Schwarz criterion 24.07990
Log likelihood -366.3705 F-statistic 684.6474
Durbin-Watson stat 2.157423 Prob(F-statistic) 0.000000

5
54.- De la regresión intérprete los coeficientes

Dependent Variable: PIB


Method: Least Squares
Sample (adjusted): 1970 2000
Included observations: 31 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

C 670443.0 141474.3 4.738974 0.0001


PUB 4.289711 1.238005 3.465020 0.0018
LOG(PRIV) -24507.01 20279.90 -1.208438 0.2374
T 25247.45 1969.161 12.82142 0.0000

R-squared 0.973803 Mean dependent var 1021624.


Adjusted R-squared 0.970892 S.D. dependent var 290191.2
S.E. of regression 49509.61 Akaike info criterion 24.57764
Sum squared resid 6.62E+10 Schwarz criterion 24.76267
Log likelihood -376.9533 F-statistic 334.5496
Durbin-Watson stat 0.657549 Prob(F-statistic) 0.000000

55.- Elabore los resúmenes de los supuestos de:

Resumen de Multicolinealidad

Es la existencia de una relación lineal perfecta o exacta entre algunas o todas las variables
explicativas de un modelo de regresión.

Causas
Síntomas
Pruebas para detectar

Consecuencias

Corrección

Resumen de Autocorrelación
La correlación existente entre los miembros de una serie de observaciones ordenadas en el
tiempo o en el espacio

Causas

Síntomas

Pruebas para detectar

6
Consecuencias

Corrección

Resumen de Heteroscedasticidad

La varianza de las perturbaciones no es constante a lo largo de las observaciones

Causas

Síntomas

Pruebas para detectar

Consecuencias

Corrección

56.- Complete el siguiente cuadro

Hipótesis Propiedades deseables de los estimadores Contraste de


Predicción
incumplidas Insesgados Eficientes Consistentes Suficientes Lineal significación

Multicolinealidad

Heterocedasticidad

Autocorrelación

Normalidad

7
8

Вам также может понравиться