Лутошкин
ЭКОНОМЕТРИЧЕСКОЕ МОДЕЛИРОВАНИЕ
Часть 2
Ульяновск
Издательство Ульяновского государственного университета
2008
УЛЬЯНОВСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ
c
°Ульяновский государственный университет, 2008
c
°Лутошкин И.В., 2008
Оглавление
Введение . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1. Линейная регрессия среднего и МНК . . . . . . . . . . . . . . . . . . . . 5
1.1. Метод наименьших квадратов . . . . . . . . . . . . . . . . . . . . 5
1.2. Асимптотические свойства МНК-оценки . . . . . . . . . . . . . . 5
1.3. Свойства МНК-оценки в конечных выборках . . . . . . . . . . . 7
1.4. Обобщенный метод наименьших квадратов . . . . . . . . . . . . 8
1.5. Асимптотические свойства ОМНК-оценок . . . . . . . . . . . . . 9
1.6. Доступная ОМНК-оценка . . . . . . . . . . . . . . . . . . . . . . . 10
2. Метод максимального правдоподобия в эконометрии . . . . . . . . . . . 13
2.1. Базовые понятия . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2. Характеристика ММП. . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3. Связь гессиана и матрицы вкладов в градиент с информацион-
ной матрицей . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3.1. Гессиан и информационная матрица . . . . . . . . . . . 18
2.3.2. Матрица вкладов в градиент и информационная матрица 19
2.3.3. Вычисление информационной матрицы . . . . . . . . . 20
2.4. Распределение градиента и оценок максимального правдоподобия 21
2.5. Численные методы нахождения оценок максимального правдо-
подобия . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.6. Асимптотическое распределение и аcимптотическая эквива-
лентность трех классических статистик . . . . . . . . . . . . . . 24
2.6.1. Соотношения между статистиками. . . . . . . . . . . . . 28
3. Форма регрессионной модели . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.1. Тестирование правильности спецификации регрессионной модели 31
3.2. Линейные и нелинейные модели . . . . . . . . . . . . . . . . . . 33
3.3. Выбор между альтернативными функциональными формами . 36
4. Фиктивные переменные как регрессоры . . . . . . . . . . . . . . . . . . 37
4.1. Использование фиктивных переменных для проверки однород-
ности наблюдений и прогнозирования . . . . . . . . . . . . . . . . 39
4.2. Использование фиктивных переменных в моделях с временны-
ми рядами . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
5. Организационно-методический раздел . . . . . . . . . . . . . . . . . . . 43
5.1. Цель, место и задачи курса . . . . . . . . . . . . . . . . . . . . . . 43
5.2. Содержание курса . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2
3
Введение
"Существует две вещи, процесс изготовления которых лучше не видеть: со-
сиски и эконометрические оценки" [8]. Эти слова Э. Лимера, с одной стороны, можно
принимать с юмором, с другой, они достаточно четко отражают сущность экономет-
рики: качество получаемых оценок в определяющей мере зависит от квалификации
исследователя, от целей, поставленных им, таким образом, эконометрические оценки
в большой степени субъективны.
При этом стоит отметить, что некоторые специалисты из смежных областей
(математики, экономики) не до конца четко понимают суть эконометрики. Наибо-
лее точно объяснил ee сущность один из основателей Р.Фриш, который и ввел этот
название в 1926 г.: "Эконометрика - это не то же самое, что экономическая ста-
тистика. Она не идентична и тому, что мы называем экономической теорией,
хотя значительная часть этой теории носит количественный характер. Эконо-
метрика не является синонимом приложений математики к экономике. Как по-
казывает опыт, каждая из трех отправных точек – статистика, экономическая
теория и математика – необходимое, но не достаточное условие для понимания
количественных соотношений в современной экономической жизни. Это единство
всех трех составляющих. И это единство образует эконометрику"[9].
Эконометрика – это самостоятельная научная дисциплина, объединяющая со-
вокупность теоретических результатов, приемов, методов и моделей, предназначен-
ных для того, чтобы на базе экономической теории, экономической статистики и эко-
номических измерений, математико-статистического инструментария придавать кон-
кретное количественное выражение общим (качественным) закономерностям, обу-
словленным экономической теорией.
Для описания сущности эконометрической модели удобно разбить весь про-
цесс моделирования на шесть основных этапов:
1-й этап (постановочный) – определение конечных целей моделирования, на-
бора участвующих в модели факторов и показателей, их роли;
2-й этап (априорный) – предмодельный анализ экономической сущности изу-
чаемого явления, формирование и формализация априорной информации, в частно-
сти, относящейся к природе и генезису исходных статистических данных и случайных
остаточных составляющих;
3-й этап (параметризация) – собственно моделирование, т.е. выбор общего вида
модели, в том числе состава и формы входящих в нее связей;
4-й этап (информационный) – сбор необходимой статистической информации,
т.е. регистрация значений участвующих в модели факторов и показателей на различ-
ных временных или пространственных тактах функционирования изучаемого явле-
ния;
5-й этап (идентификация модели) – статистический анализ модели и в первую
очередь статистическое оценивание неизвестных параметров модели;
6-й этап (верификация модели) – сопоставление реальных и модельных дан-
ных, проверка адекватности модели, оценка точности модельных данных.
Эконометрическое моделирование реальных социально-экономических про-
цессов и систем обычно преследует два типа конечных прикладных целей (или одну
из них):
1) прогноз экономических и социально-экономических показателей, характе-
4
y = hx, βi + e, E[x|e] = 0,
здесь e ∈ < играет роль случайной ошибки.
Если матрица E[xxT ] невырожденная, то параметр β, минимизирующий
среднеквадратичную ошибку, будет единственным решением задачи
1 X³ ´2
N
2 p
σ̂ = yi − hxi , β̂i −→ σ 2 ,
N i=1
N
1 X p
Q̂xx = xi xTi −→ Qxx .
N i=1
Состоятельность первой оценки следует из ЗБЧ. Состоятельность последней
довольно легко показать:
1 X³ ´2
N
yi − hxi , β̂i = | используем прием прибавить и отнять hxi , βi| =
N i=1
1 XD E2
N N N
1 X 2 2 X
= (yi − hxi , βi) + xi , β − β̂ + (yi − hxi , βi) hxi , β − β̂i =
N i=1 N i=1 N i=1
N
à N
! N
1 X 2 T 1 X
T 2 X
= (yi − hxi , βi) + (β − β̂) xi xi (β − β̂) + (yi − hxi , βi) hxi , β − β̂i.
N i=1 N i=1 N i=1
à N
!
1 X p
(β − β̂)T xi xTi (β − β̂) −→ 0,
N i=1
N
2 X p
(yi − hxi , βi)hxi , β − β̂i −→ 0.
N i=1
Все вместе влечет состоятельность оценки условной дисперсии регрессионной
ошибки:
1 X³ ´2
N
p
yi − hxi , β̂i −→ σ 2 .
N i=1
Теперь рассмотрим общий случай условной гетероскедастичности. В этом слу-
чае нам нужно состоятельно оценить матрицу Qe2 xx . Можно показать, что состоя-
тельной оценкой этой матрицы будет следующая:
N
1 X p
Q̂e2 xx = xi xTi (yi − hxi , β̂i)2 −→ Qe2 xx .
N i=1
V̂β = Q̂−1 −1
xx Q̂e2 xx Q̂xx .
βˆj − βj d
tj = −→ N (0, 1).
se(βˆj )
Y = Xβ + ε, E[ε|X] = 0.
β̂ = (X T X)−1 X T Y = β + (X T X)−1 X T ε.
8
– Условная несмещенность:
МНК ОМНК
Гомоскедастичность σ (X T X)−1
2
σ (X T X)−1
2
МНК ОМНК
Гомоскедастичность σ 2 Q−1
xx Q−1
xx/σ 2 = σ 2 Q−1
xx
Гетероскедастичность Q−1
xx e xx Qxx
Q 2
−1
Q−1
xx/σ 2
где Qzx = E[zxT ], а Qe2 zz = E[zz T e2 ] = E[zz T σ 2 (x)]. Зная, что асимптотическая
дисперсия ОМНК-оценки равна Q−1 xx/σ 2 , рассмотрим разность
µ · ¸¶−1
xxT
Vzz − Q−1
xx/σ 2
T −1 T 2
= (E[zx ]) E[zz σ (x)](E[xz ]) T −1
− E 2 =
σ (x)
∂ 2`
Hij (Y, θ) = (Y, θ) , i, j = 1, . . . , m.
∂θi ∂θj
Z
I (θ) = g (Y, θ)g T (Y, θ) L (Y, θ) dY.
Y
Y = Xβ + ε,
Yi ∼ N (hxi , βi, σ 2 ).
N
N 1 X
`=− ln(2πσ 2 ) − 2 (Yi − hxi , βi)2 =
2 2σ i=1
N 1
= − ln(2πσ 2 ) − 2 (Y − Xβ)T (Y − Xβ).
2 2σ
Если обозначить через e вектор остатков e = Y − Xβ, то можно получить
другое представление логарифмической функции
N 1
`=− ln(2πσ 2 ) − 2 eT e.
2 2σ
В данном случае вектор неизвестных параметров состоит из двух компонент:
µ ¶
β
θ= .
σ2
Соответственно, градиент логарифмической функции правдоподобия тоже со-
стоит из двух частей:
∂` 1 1
gβ = = 2 X T (Y − Xβ) = 2 X T e.
∂β σ σ
∂` N eT e 1 ¡ ¢
gσ2 = 2
= − 2
+ 4
= 4 he, ei − N σ 2 .
∂σ 2σ 2σ 2σ
Оценка максимального правдоподобия θ̂ должна удовлетворять равенству
g(θ̂) = 0, откуда получим
¡ ¢−1 T hê, êi hY − X β̂, Y − X β̂i
β̂ = X T X X Y и σ̂ 2 = = .
N N
Из полученного видно, что в случае линейной регрессии ММП дает ту же
оценку вектора коэффициентов регрессии β, что и МНК. Как известно, оценка
дисперсии σ̂ 2 является смещенной:
N −m 2
E(σ̂ 2 ) =σ .
N
Покажем, каким образом связаны ММП и МНК. Для этого выразим, исполь-
зуя равенство gσ2 = 0, дисперсию через β :
hY − Xβ, Y − Xβi
σ 2 (β) = .
N
Если подставить ее в функцию правдоподобия, то получится концентрирован-
ная функция правдоподобия:
µ ¶
c N 2 he, ei N hY − Xβ, Y − Xβi N
` = − ln(2πσ (β)) − 2 = − ln 2π − .
2 2σ (β) 2 N 2
Максимизация концентрированной функции правдоподобия эквивалентна миними-
зации суммы квадратов остатков RSS(β) = hY − Xβ, Y − Xβi по β.
Гессиан логарифмической функции правдоподобия состоит из следующих ком-
понент:
17
∂ 2` 1 ∂2` 1
Hββ = T
= − 2 X T X, Hβσ2 = 2
= − 4 eT X,
∂β∂β σ ∂β∂σ σ
∂ 2` 1 ∂ 2` N eT e
Hσ2 β = = − 4 X T e, Hσ 2 σ 2 = = − .
2
∂σ ∂β T σ (∂σ 2 )2 2σ 4 σ6
В точке истинных значений параметров θ0 остатки совпадают с погрешно-
стями e = ε. Используя это, получим, что компоненты информационной матрицы,
вычисленной в точке θ0 равны:
³ ´ µ ¶
T 1 T T 1 T ¡ T¢
Iββ (θ0 ) = E gβ (θ0 ) gβ (θ0 ) = E X εε X = X E εε X =
σ4 σ4
1 1
= 4 σ 2 X T IX = 2 X T X,
σ σ µ ¶
T 1 T
Iβσ2 (θ0 ) = E(gσ2 (θ0 )gβ (θ0 ) ) = E (ε ε − N σ )ε X = 0T ,
2 T
σ6
Iσ2 β (θ0 ) = 0 (аналогично),µ ¶
¡ 2¢ 1 ¡ T ¢
2 2
Iσ2 σ2 (θ0 ) = E gσ2 (θ0 ) = E ε ε − Nσ =
³ ´ 4σ 8
1 ¡ ¢2 1 ¡ ¢ 1
= 8 E εT ε − 2N 6 E εT ε + N 2 4 =
4σ Ã 4σ ! 4σ
XN XN X N N
1 4 N X N2
= 8 E(εi ) + 2 E(εi εj ) − 6 E(ε2i ) + 4 =
4σ i=1 i=1 j=i+1
2σ i=1 4σ
4 2 4 2
3N σ + (N − N ) σ N 2 N N
= − N σ + = .
4σ 8 2σ 6 4σ 4 2σ 4
∂2` 1 ∂ 2L ∂` ∂`
H=
T
= T
− T .
∂θ∂θ L ∂θ∂θ ∂θ ∂θ
Найдем теперь математическое ожидание обеих частей в точке θ0 (при ис-
тинных параметрах распределения):
µ ¶ Z µ ¶
∂ 2` 1 ∂ 2 L (θ0 , Y ) ∂` (θ0 ) ∂` (θ0 )
E(H(Y, θ0 )) = E (θ0 ) = L(θ0 , Y ) dY −E .
∂θ∂θT L (θ0 , Y ) ∂θ∂θT ∂θT ∂θ
Y
Таким образом,
−E (H(Y, θ0 )) = I(θ0 ),
т.е. информационная матрица равна математическому ожиданию гессиана функции
правдоподобия со знаком минус. То же самое свойство верно асимптотически:
1
− lim E (H(Y, θ0 )) = I ∞ (θ0 ).
N →∞ N
При этом
N
X XN N
∂`i ∂ X ∂`
Gij (Y, θ) = (Y, θ) = `i (Y, θ) = (Y, θ) = gj (Y, θ) .
i=1 i=1
∂θj ∂θj i=1 ∂θj
¡ ¢ ¡ ¡ ¢¢
E Gi (Y, θ0 )Gj (Y, θ0 )T = E E Gi (Y, θ0 )Gj (Y, θ0 )T |Ωi =
¡ ¡ ¢¢
= E Gi (Y, θ0 )E Gj (Y, θ0 )T |Ωi = 0.
¡ ¢
Равенство E Gj (Y, θ0 )T |Ωi = 0 доказывается по той же схеме, что и доказанное
выше E(g(Y, θ0 )) = 0. Используя это свойство, получим
à N ! à !T à N !
³ ´ X N
X X ¡ ¢
T T
E G0 G0 = E G0i G0i =E G0i G0i = E g(Y, θ0 )g T (Y, θ0 ) .
i=1 i=1 i=1
µ ¶
1 ε2i 1
G0i = 2
x ε
i i , 4
− 2 .
σ 2σ 2σ
Вклад в информационную матрицу i-го наблюдения в точке истинных пара-
метров равен
1 T
³ ´
T 2 Xi Xi 0
Ii (θ0 ) = E G0i G0i = σ 1 .
0T
2σ 4
Таким образом,
T
N X X
X 0
I(θ0 ) = Ii (θ0 ) = σ 2 .
N
i=1 0T
2σ 4
Все три способа, как и следовало ожидать, привели к одному и тому же ре-
зультату.
Заметим, что Ii (θ0 ) – положительно определенная матрица, I(θ0 ) при лю-
бом количестве наблюдений – положительно определенная матрица (в предположе-
нии, что матрица регрессоров имеет полный ранг). Из этого можно сделать вывод,
что информация в некотором смысле увеличивается с ростом количества наблюде-
ний. Это одно из объяснений названия "информационная матрица". В частности,
определитель информационной матрицы увеличивается с ростом количества наблю-
дений:
|I N +1 (θ0 )| > |I N (θ0 )|.
√ ³ ´
a
N θ̃ − θ0 = (I ∞ (θ0 ))−1 ×
³ ¡ ¢−1 ´µ 1 ¶
T ∞ −1 T ∞ −1
× I − R (θ0 ) R(θ0 ) (I (θ0 )) R (θ0 ) R(θ0 ) (I (θ0 )) √ g(θ0 ) ,
µ ¶ N
1 a ¡ ¢ −1 1
√ λ̃ = R(θ0 ) (I ∞ (θ0 ))−1 R(θ0 )T R(θ0 ) (I ∞ (θ0 ))−1 √ g(θ0 ) .
N N
1 a
Вспомним, что √ g(θ0 ) ∼ N (0, I ∞ (θ0 )) , отсюда получим асимптотическое
N
распределение вектора множителей Лагранжа:
1 ³ ¡ ¢−1
a
√ λ̃ ∼ N 0, R(θ0 ) (I ∞ (θ0 ))−1 RT (θ0 ) ) ×
N ¡ ¢−1 ´
× (R(θ0 ) (I ∞ (θ0 ))−1 I ∞ (θ0 ) (I ∞ (θ0 ))−1 R(θ0 )T R(θ0 ) (I ∞ (θ0 ))−1 R(θ0 )T
1 ³ ¡ ¢−1 ´
a
√ λ̃ ∼ N 0, R(θ0 ) (I ∞ (θ0 ))−1 RT (θ0 ) .
N
Определение 2.8. Статистикой множителя Лагранжа называют следую-
щую величину:
LM ≡ λ̃T R(θ̃)Ĩ −1 RT (θ̃)λ̃
a 1 T ¡ ¢−1
LR = g (θ0 )(I(θ0 )∞ )−1 RT (θ0 ) R(θ0 ) (I ∞ (θ0 ))−1 RT (θ0 ) R(θ0 ) (I ∞ (θ0 ))−1 g(θ0 ).
N
Это означает, что статистика отношения правдоподобия также имеет асимптотиче-
ское распределение χ2 с p степенями свободы.
Третья классическая статистика основана на распределении r(θ̂). Так как
θ̂ – оценка, полученная без учета ограничений, то в общем случае r(θ̂) 6= 0, од-
a
нако, если верна нулевая гипотеза, то r(θ̂) = 0. Разложим r(θ̂) в ряд Тейлора в
окрестности точки θ0 , учитывая, что r(θ0 ) = 0 :
a
Как и в случае двух других тестов W ∼ χ2 (p) . В пределе
³ ´ 1
a a
r(θ̂) = R(θ0 ) θ̃ − θ0 = R(θ0 ) (I ∞ (θ0 ))−1 g(θ0 ).
N
Значит,
a 1 T ¡ ¢−1
LR = g (θ0 )(I ∞ (θ0 ))−1 RT (θ0 ) R(θ0 ) (I ∞ (θ0 ))−1 RT (θ0 ) R(θ0 ) (I ∞ (θ0 ))−1 g(θ0 ).
N
27
Тем самым мы показали, что с ростом количества наблюдений все три стати-
стики стремятся к одной и той же случайной переменной, которая имеет распреде-
ление χ2 (p) . Другими словами, три классических теста асимптотически экви-
валентны.
Все три статистики совпадают, если логарифмическая функция правдоподо-
бия является квадратичной. Это верно, в частности, для линейной регрессии с из-
вестной дисперсией, например,
Y = Xβ + ε, где εi ∼ N ID(0, 1).
Рассмотрим, к примеру, логарифмическую функцию правдоподобия с единственным
(скалярным) параметром θ :
`(θ) = − (a − bθ)2 + const.
∂ 2`
Гессиан H(θ) = = −2b2 является постоянной величиной, информационная
∂θ2
матрица, таким образом, равна I = 2b2 при всех θ.
a 1
Возьмем ограничение вида r(θ) = 3θ − 1, тогда получим θ̂ = , θ̃ = ,
µ ¶2 b 3
b
откуда `(θ̂) = 0 + const, `(θ̃) = − a − + const.
3
³ ´ µ ¶2
b
LR = 2 `(θ̂) − `(θ̃) = 2 a − .
3
µ ¶
1
Градиент равен g(θ) = 2b(a − bθ), таким образом, g(θ̃) = 2b a − b .
3
µ ¶ µ ¶ µ ¶2
T −1 1 1 1 b
LM = g (θ̃)I (θ̃)g(θ̃) = 2b a − b 2b a − b = 2 a − .
3 2b2 3 3
Найдем ту же статистику через множитель Лагранжа
L(θ) = −(a − bθ)2 − λ(3θ − 1) → max .
θ
По теореме Лагранжа
∂L 2³ ´ 2µ b
¶
= 2 (a − bθ) − 3λ = 0, ⇒ λ̃ = a − bθ̃ = a− .
∂θ 3 3 3
Заметим, что
∂r
R(θ) = = 3, ⇒ R(θ̃) = 3.
∂θ
µ ¶ µ ¶ µ ¶2
T −1 T 2 b 1 2 b b
LM = λ̃ R(θ̃)I (θ̃)R (θ̃)λ̃ = a− 3 23 a− =2 a− .
3 3 2b 3 3 3
Теперь найдем статистику Вальда, вначале определим следующее
a
r(θ̂) = 3θ̂ − 1 = 3 − 1, R(θ̂) = 3.
b
³ ´−1 ³ a ´ µ 1 ¶−1 ³ a ´ µ
b
¶2
T −1 T
W = r (θ̂) R(θ̂)I (θ̂)R (θ̂) r(θ̂) = 3 − 1 3 23 3 −1 =2 a− .
b 2b b 3
28
∂L ³ ´ 2
]
RSS ]
Из условия θ̃, λ̃ = 0 несложно получить, что σ̃ = , где RSS
∂β T N
[
RSS
– сумма квадратов остатков в регрессии с ограничениями (так же как σ̂ 2 = в
N
регрессии без ограничений).
29
] − RSS
RSS [ ] − RSS
RSS [
LM = N , W =N .
]
RSS [
RSS
Логарифмическая
à ! функция правдоподобия в максимуме равна
N ]
RSS N
`(θ̃) = − ln 2π − , в регрессии без ограничений
2 N 2
à !
N [
RSS N
`(θ̂) = − ln 2π − .
2 N 2
Отсюда найдем статистику отношения правдоподобия:
³ ´ ³ ³ ´ ³ ´´
] − ln RSS
LR = 2 `(θ̃) − `(θ̂) = N ln RSS [ .
] − RSS
RSS [ N −m
F = .
[
RSS p
Yi = hXi , βi + εi , εi ∈ <.
Рис. 1.
Рис. 2.
33
Y = αK β L1−β ⇒
ln Y − ln L = ln α + β(ln K − ln L),
ln C = ln α + ln I +ε/αI .
ln C = α + β ln I + ε.
Yi = α + βDi + εi .
Qt4 не нужно вводить в эту регрессию, так как есть константа, а Qt4 t не нужно
вводить в регрессию, так как есть временной тренд t. Если все γj 6= 0, то это
означает, что структура сезонности линейно изменяется со временем.
Комбинация рассмотренных фиктивных переменных позволяет моделировать
еще один эффект — изменение наклона тренда с определенного момента. Помимо
тренда в регрессию следует тогда ввести следующую переменную: в начале выборки
до некоторого момента времени она равна 0, а вторая ее часть представляет собой
временной тренд (1, 2, 3 и т. д. в случае одинаковых интервалов между наблюдени-
ями).
Регрессионные модели с фиктивными переменными являются альтернативой
ARIM A− моделям и регрессионным моделям с AR− или M A− процессом в
ошибке. В первом случае изменение мат. ожидания во времени можно назвать детер-
минированным трендом, во втором — стохастическим (строго говоря термин „стоха-
стический тренд“ употребляют только по отношению к нестационарным процессам).
Решить, какой вид модели применять, сложно. Дело в том, что трудно отличить (в
случае малых выборок), когда случайная величина имеет линейный детерминиро-
ванный тренд со стационарными отклонениями от него, а когда она формируется
нестационарным авторегрессионным процессом. То же самое верно для выбора спо-
соба моделирования сезонности.
Использование фиктивных переменных имеет следующие преимущества:
5. Организационно-методический раздел
5.1. Цель, место и задачи курса
Цель курса
Задачи курса
Итого 126 30 30 66
Содержание курса
ВАРИАНТ 1
Лаг(τ ) 1 2 3 4 5 6 7
rτ (A) 0,68 0,23 -0,055 -0,145 -0,106 -0,052 -0,135
rτ (В) -0,03 0,15 0,17 -0,08 -0,05 0,20 -0,01
ВАРИАНТ 2
ВАРИАНТ 3
Годы (X) 0 1 2 3 4
Доля хронических больных на 1000 жителей в % (Y ) 10 8 5 3 4
ВАРИАНТ 4
СТРАНЫ У Х
Япония 3,5 4,3
США 3,1 4,6
Германия 2,2 2,0
Франция 2,7 3,1
Италия 2,7 3,0
Великобритания 1,6 1,4
Канада 3,1 3,4
Австралия 1,8 2,6
Бельгия 2,3 2,6
Нидерланды 2,3 2,4
[3] Анатольев С. Эконометрика для продолжающих: Курс лекций. - М.: РЭШ, 2002.
- 60 с.
Дополнительная литература
[5] Айвазян С.А., Енюков И.С., Мешалкин Л.Д. Прикладная статистика: Исследо-
вание зависимостей: Справ. Изд. - М.: Финансы и статистика, 1985. - 487 с.
[7] Макаров В.Л., Айвазян С.А., Борисова С.В., Лакалин Э.А. Эконометрическое
моделирование. Выпуск 2: Модель экономики России для целей краткосрочного
прогноза и сценарного анализа (учебное пособие). - М.: МЭСИ, 2002. - 34 с.
[8] E.E.Leamer, "Let’s Take the Con out of Econometrics", American Economic Review,
73 (1983), 31-43 c.
53