Вы находитесь на странице: 1из 9

Эконометрика

Эконометрика — это раздел экономики, занимающийся разработкой и применением статистических


методов для измерений взаимосвязей между экономическими переменными
Основная задача эконометрики — наполнить эмпирическим содержанием априорные
экономические рассуждения
Цель эконометрики — эмпирический вывод экономических законов

Обычно выделяют шесть основных этапов эконометрического моделирования: постановочный, априорный,


этап параметризации, информационный, этапы идентификации и верификации модели.
I этап (постановочный). Формируется цель исследования, определяется набор участвующих в
модели экономических переменных.
При выборе экономических переменных необходимо теоретическое обоснование каждой переменной (при
этом рекомендуется, чтобы число их было не очень большим и, как минимум, в несколько раз меньше
числа наблюдений). Объясняющие переменные не должны быть связаны функциональной или тесной
корреляционной зависимостью, так как это может привести к невозможности оценки параметров модели
или к получению неустойчивых, не имеющим реального смысла оценок, т. е. к
явлению мультиколлинеарности.
II этап (априорный). Проводится анализ сущности изучаемого объекта, формирование и формализация
априорной (известной до начала моделирования) информации.
III этап (параметризация). Осуществляется непосредственно моделирование, т.е. выбор
общего видамодели, выявление входящих в нее связей.
Основная задача, решаемая на этом этапе, — выбор вида функции f(X) в эконометрической модели (1.1), в
частности, возможность использования линейной модели как наиболее простой и надежной. От того,
насколько удачно решена проблема спецификации модели, в значительной степени зависит успех всего
эконометрического моделирования.
IV этап (информационный). Осуществляется сбор необходимой статистической информации —
наблюдаемых значений экономических переменных.
Здесь могут быть наблюдения, полученные как с участием исследователя, так и без его участия (в
условиях активного или пассивного эксперимента).
Vэтап (идентификация модели). Осуществляется статистический анализ модели и оценка ее
параметров.
С проблемой идентификации модели не следует путать проблему ее идентифицируемости, т. е. проблему
возможности получения однозначно определенных параметров модели, заданной системой одновременных
уравнений (точнее, параметров структурной формы модели, раскрывающей механизм формирования
значений эндогенных переменных, по параметрам приведенной формы модели, в которой эндогенные
переменные непосредственно выражаются через предопределенные переменные).
VI этап (верификация модели). Проводится проверка истинности, адекватности модели. Выясняется,
насколько удачно решены проблемы спецификации, идентификации и идентифицируемости модели,
какова точность расчетов по данной модели, в конечном счете, насколько соответствует построенная
модель моделируемому реальному экономическому объекту или процессу.
Следует заметить, что если имеются статистические данные, характеризующие моделируемый
экономический объект в данный и предшествующие моменты времени, то для верификации модели,
построенной для прогноза, достаточно сравнить реальные значения переменных в последующие моменты
времени с соответствующими их значениями, полученными на основе рассматриваемой модели по данным
предшествующих моментов.

Типы данных:
1) Пространственные данные - набор сведений в один момент времени (затраты, объем
производства и т.д)
2) Временные ряды –помесячные/годовые данные (инфляция по месяцам)
3) Панельные данные – наблюдения одних и тех же единиц в последовательные промежутки
времени. то есть один и тот же объект наблюдается многократно (например, ежегодно).

Типы моделей:
1) Регрессионные модели с одним уравнением - В регрессионных моделях зависимая
переменная у представляется в виде функции: f ( x , β ) =f ( x 1 ,… , x k , β 1 , … , β p ) , где
x 1 , … , x k −независимые переменные , а β 1 , … , β p−параметры. В зависимости о вид функции f(x, β )
модели делятся на линейные и нелинейные.
2) Модели временных рядов
К этому классу относятся модели:
 тренда: y(t) = T(t) + et, где T(t) — временной тренд заданного параметрического вид (на
пример, линейны Т(t) = a + bt), et — случайная (стохастическая) компонента;
 сезонности: y(t) = S(t) + et, где S(t) — периодическая (сезонная) компонента, et — случайная
компонента;
К моделям временных рядов относится множество более сложных моделей, таких, как модель
адаптивного прогноза, модель авторегрессии и скользящего среднего (ARIMA) и др. И обще
чертой является то, что они объясняют поведение временного ряда, исходя только из его
предыдущих значений. Такие модели могут применяться, например, для изучения и
прогнозирования объёма продаж авиабилетов, спроса на мороженое, краткосрочного прогноза
процентных ставок и т. п.
 тренда и сезонности: y(t) = T(t) + S(t) + et (аддитивная) или y(t)=T(t)S(t) +et
мультипликативная), где T(t) — временной тренд заданного параметрического вида, S(t) — периодическая
(сезонная) компонента, et — случайная (стохастическая) компонента.
3) Системы одновременных уравнений - набор объясняемых переменных, связанных через
уравнения системы. Систем могу состоят и тождеств и регрессионных уравнений, каждое и которых может,
кроме объясняющих переменных, включат в себя также объясняемые переменные и другие уравнения
системы. Таки образом, мы имеем здесь набор объясняемых переменных, связанны через уравнения
системы. Системы одновременных уравнений требуют относительно более сложный математический
аппарат. Он могут использоваться для моделей страновой экономики и др

Нормальная линейная регрессионная модель


Предположим, что значения некоторой величины Y зависят от значений независимых переменных
Х1, …, Хk. Мы хотим оценить эту зависимость по результатам n наблюдений. Нам известны значения
зависимой переменной Y и значения m-го регрессора в i-ом наблюдении Хm для всех i = 1, …, n, m =1, …, k.

Модель является классической регрессионной, если выполняются следующие предпосылки:


1) Y i=β 1 X i 1+ β2 X i 2 +…+ β k X ik +ε i , i=1 ,… , n - линейная спецификация модели. Здесь
β 1 , … , β k - фиксированные неизвестные коэффициенты, ε 1 , … , ε n - случайные величины, которые
называются ошибками.
X 11 ⋯ X 1 k
2) Матрица
(
X=
)
⋮ ⋱ ⋮ , где k≤n, детерминирована и имеет ранг k.
X n 1 ⋯ X nk
3) Eε i=0, то есть математическое ожидание ошибок равно нулю.
E( ε ¿¿i)2=D ε i=σ 2 ¿, то есть дисперсии ошибок не зависят от номера наблюдения.
4) E( ε i ε j )=0, i≠j, то есть ошибки для разных наблюдений не коррелированны.
Если к этому добавляется дополнительное условие
Если к этому добавляется условие:
5) ε i N (0 , σ 2)- ошибки имеют нормальное распределение, то говорят о нормальной линейной
регрессионной модели.

То модель называется нормальной линейной регрессионной.

Метод МНК
Необходимо найти оценки ^β 1 , … , ^β k неизвестных параметров β 1 , … , β k . Если у нас есть какой-
нибудь набор ^β 1 , … , ^β k , то прогнозное значение Y ^ i величины Y i вычисляется как
Y^ i= β^ 1 + ^β 2 X i2 + …+ ^β k X ik + ε i. Разность e i=Y i−Y^ i называется остатком (как я понимаю, тут не учитывается
стохастическая часть, то есть формально мы смотрим на E(Y ¿¿ i−Y^ i )¿ или же считается, что ε i−¿одни и
те же, а не независимые копии. Дима). Метод наименьших квадратов (МНК) состоит в таком выборе чисел
n
^β 1 , … , ^β k , что сумма квадратов остатков ∑ ei2 была бы минимальна. Его достоинства:
i=1
дифференцируемость функции квадратов разности, вычислительная простота, единственность решения.
Теорема Гаусса-Маркова: при выполнении предпосылок 1-4 теорема Гаусса-Маркова гарантирует,
что МНК-оценки имеют наименьшую дисперсию в классе всех линейных несмещенных оценок.

Геометрическая интерпретация
Из всего множества линий, которые можно провести через экспериментальные точки на
корреляционном поле, линия регрессии ^y =b0 +b1 x выбирается так, чтобы сумма квадратов расстояний по
вертикали между экспериментальными точками и этой линией была наименьшей. Расстояния между
экспериментальными точками и линией регрессии есть отклонения ei
Суть: Пуст у нас есть набор значений двух переменных Xt, Yt, t = 1,...,n; можно отобразить пары (Xt,Yt)
точками на плоскости X-Y.

Соответственно, наша задача выбрать прямую f так, чтобы отклонение было в каком-то смысле
«минимальным». МНК предлагает такой вариант: минимизация квадратов вертикального отклонения.

Коэффициент детерминации. Скорректированный коэффициент детерминации.


n
2
Вариацию ∑ ( y i− ý ) (где ý - среднее значение, а y i- фактическое значение, установленное при iтом
i=1
наблюдении) можно разбить на две части – объясненную регрессией и связанную с ошибками. При
наличии в уравнении константы верно следующее тождество:
n n n
2 2 2
∑ ( y i− ý ) =∑ ( y i−^y ) +∑ ( ^y i −ý ) или TSS = ESS + RSS,  
i=1 i =1 i=1

 — фактические и расчётные (то есть когда мы получаем игрек не из наблюдений, а из формулы


регрессии, примененной к наблюдениям для иксов) значения объясняемой переменной,
где TSS – общая сумма квадратов (Total Sum of Squares),
ESS – сумма квадратов, обусловленная ошибками (Error Sum of Squares),
RSS – сумма квадратов, обусловленная регрессией (Regression Sum of Squares).

Качество подобранной регрессионной модели к наблюденным значениям Y i показывает доля объясненной


вариации RSS / TSS. Эта величина называется коэффициентом детерминации и обозначается R2. С
помощью коэффициента детерминации можно сравнивать регрессии с одинаковыми зависимыми
переменными. Значение R2 растет с ростом количества переменных. Поэтому, сравнивая модели с разным
числом регрессоров, лучше использовать скорректированный на число степеней свободы коэффициент
2 ESS /(n−k )
детерминации Radj =1− .
TSS /(n−1)
Коэффициент детерминации - это доля дисперсии зависимой переменной, которая объясняется регрессией,
чем значительней доля объясненной вариации, тем меньше роль прочих факторов, значит, данная модель
хорошо аппроксимирует исходные данные и ею можно пользоваться для прогноза значений зависимой
переменной.

Интерпретация коэффициентов:
1) Y i=β 1 +…+ β m X ℑ + …+ β k X ik + ε i, X m- непрерывно изменяющийся фактор. Нас интересует как
малое увеличение X m повлияет на Y. Очевидно, предельный эффект от изменения Х есть
∆Y ∂Y
lim = =β m. Поэтому при прочих равных условиях увеличение X m на одну единицу
∆ x→ 0 ∆ X m ∂ Xm
влечет изменение Y на β m единиц.
2) log Y i=β 0 +…+ βm logX ℑ+ …+ β k logX ik + ε i, X m - непрерывно изменяющийся фактор. В этом
% изменение Y ∆ Y /Y ∂logY
случае эластичность Y по X m равна = ≈ =β m, откуда
% изменение X ∆ X / X ∂ log X m
увеличение X m на 1% влечет изменение Y на β m % при прочих неизменных факторах.
3) Пусть Y i=β 1 +…+ β k X ik +γ D i + ε i, где фиктивная переменная Di равна 0 для группы А
(базовая группа) и 1 для группы B.
Для истолкования коэффициента γ при фиктивной переменной Di рассуждаем следующим образом: если
для некоторого наблюдения из группы А мы имеем Y =Y ¿, то для соответствующего (с теми же значения
¿ ¿
регрессоров) наблюдения из группы В получим Y =Y +γ∗1=Y + γ . Таким образом, при переходе из
группы А в группу В при прочих равных условиях Y в среднем изменяется на γ единиц.

Метод максимального правдоподобия


в учебнике написано так себе, поэтому я написал своими словами на основе того, чему нас учили на
статистике. У тебя есть наблюдения иксов и наблюдения игреков. ты знаешь, что ошибки распределены
нормально с параметрами α и σ 2. Ты рассматриваешь произведение вероятностей того, что верны события
Y i при условии, что выполнены события Х i 1 , … , X ¿. Это произведение называется функцией
правдоподобия L. Эта функция имеет α и σ 2 в качестве параметров и может иметь еще какие-то параметры.
Задача: найти такие значения этих параметров, при которых функция правдоподобия максимальна (то есть
ты ищешь такие параметры, что вероятность тех событий, что ты увидел на практике максимальна –
отсюда и название метода). Делают это так: L и lnL имеют одинаковую точку максимума, поэтому берут
lnL (это уже сумма вероятностей, а не произведение), дифференцируют по каждому параметру.
Необходимое условие максимума: чтобы производные были равны 0. Получаешь пару-тройку точек,
удовлетворяющих этому условию и дальше из них выбираешь те, где L максимальна.

Мультиколлинеарность: природа, признаки, последствия, способы


коррекции
Одним из условий классической регрессионной модели является предположение о линейной
независимости объясняющих переменных, что означает линейную независимость столбцов матрицы
1
регрессоров Х или что матрица ( X ' X ) имеет полный ранг k. При нарушении этого условия, когда один
из столбцов матрицы Х есть линейная комбинация остальных столбцов (один регрессор может быть
выражен через другие), говорят, имеет место полная коллинеарность. В этой ситуации нельзя построить
МНК-оценку параметра  .
В общем случае можно показать, что если rank (X' X )  l  k , то оценивать можно только l (это буква л, а
не 1) линейных комбинаций исходных коэффициентов. Иными словами, нужно выделить в матрице
максимальную линейно независимую систему столбцов, удалив остальные столбцы, провести новую
регрессию.
Наличие мультиколлинеарности: матрица регрессоров X имеет полный ранг (то есть регрессоры линейно
независимы), но между регрессорами имеется высокая степень корреляции: матрица (X’X) близка к
вырожденной.
Причины возникновения мультиколлинеарности (одна из причин): несколько независимых переменных
имеют одинаковый временной тренд, относительно которого совершают малые колебания.
Последствия: МНК-оценка формально существует, но обладает «плохими» свойствами.
Наиболее характерные признаки:
1. Небольшое изменение данных приводит к существенному изменению оценок коэффициентов
модели
2. Оценки имеют большие стандартные ошибки, малую значимость, в то время как модель в целом
является значимой
3. Оценки коэффициентов имеют неправильные с точки зрения теории знаки или неоправданно
большие значения
4. Правило Кляйна: Рассмотрим регрессию J-го фактора на все остальные:
X j  1 X 1  ...   j 1 X j 1   j 1 X j 1  ...   n X n R2  R2
. Если j - плохо, связь между регрессорами
более тесная, чем между зависимой переменной и регрессорам, есть подозрение на
мультиколлинеарность.
Способы коррекции:
Различные методы, которые могут быть использованы для смягчения мультиколлинеарности, делятся на
две категории: к первой категории относятся попытки повысить степень выполнения четырех условий,
обеспечивающих надежность оценок регрессии; ко второй категории относится использование внешней
информации.
1. Увеличить число наблюдений в выборке (потенциальная проблема: можно привнести или усилить
автокорреляцию, можно привнести или усилить смещение, вызванное ошибками измерения)
2. Сократить ошибки модели, добавив новые объясняющие переменные (можно усугубить проблему
мультиколлинеарности, добавив линейно зависимый регрессор)
3. При наличии возможности собрать дополнительные данные нужно постараться получить выборку,
в которой независимые переменные слабо связаны между собой
Существуют два типа внешней информации, которая может оказаться полезной: теоретические
ограничения и внешние эмпирические оценки. Теоретическое ограничение представляет собой
допущение, касающееся величины коэффициента или некоторой связи между коэффициентами. Внешние
эмпирические оценки: результаты «хороших» регрессий (оценки коэффициентов) используются в других
регрессиях, в которые есть подозрение на мультиколлинеарность.

Гетероскедастичность: природа, признаки, тесты, последствия.


Пусть регрессионное уравнение имеет вид:
Y = Xβ+ε
Тогда случайный член должен удовлетворять четырем условиям Гаусса-Маркова:
1. E(ε i ¿=0 для всех наблюдений
2. Дисперсия D(ε i ¿ одинакова для всех наблюдений
3. Eε s ε t =0 при i≠j (отсутствие автокорреляции)
4. Объясняющая переменная является неслучайной
Второе условие утверждает, что дисперсия случайного члена в каждом наблюдении должна быть
постоянной. Это условие называется гомоскедастичностью. Поскольку ошибки некоррелированы и имеют
постоянную дисперсию, матрица ковариаций ошибок имеет диагональный вид, где элементы на главной
диагонали одинаковы, а вокруг главной диагонали – нули.
Однако иногда можно предположить, что теоретическое распределение случайного члена не только
является разным для различных наблюдений в выборке, но и имеет различную дисперсию (например, при
рассмотрении затрат на еду в семьях у богатых семей дисперсия затрат будет больше). Если ошибки в
модели некоррелированы, но имеют непостоянную дисперсию, можно говорить о гетероскедастичности. В
этом случае матрица ковариаций ошибок по-прежнему имеет диагональный вид и вокруг главной
диагонали находятся нули, но элементы главной диагонали, вообще говоря, различны.
Причины возникновения гетероскедастичности:
1. Анализируемые объекты неоднородны
2. Наличие выбросов
3. Ошибки измерения
4. Существенные различия в качестве исходных данных
5. Группированные данные
Часто появление проблемы гетероскедастичности можно предвидеть заранее, основываясь на знании
характера данных, что позволяет устранить эффект на этапе спецификации модели регрессии.
Последствия гетероскедастичности:
- МНК-оценка вектора β остается несмещенной и состоятельной, но перестает быть эффективной ( т.к
эффективная оценка обладает минимальной дисперсией среди всех возможных несмещенных точечных
оценок, что невозможно при наличии гетероскедастичности)
- МНК – оценка матрицы ковариаций вектора β – смещенная и несостоятельная ( с ростом числа
наблюдений оценка не становится точнее)
-Применение стандартных тестов некорректно, так как сделанные оценки стандартных ошибок
коэффициентов регрессии будут неверны (следовательно, неверна и t-статистика)
В первом приближении наличие гетероскедастичности можно заметить на графиках остатков регрессии
(или их квадратов) по некоторым переменным, по оцененной зависимой переменной или по номеру
наблюдения. На этих графиках разброс точек может меняться в зависимости от значения этих переменных.
Для более строгой проверки применяют, например, статистические тесты Уайта, Голдфелда —
Куандта, Бройша — Пагана, Парка, Глейзера, Спирмена.
Поскольку МНК-оценки параметров моделей остаются несмещёнными состоятельными даже при
гетероскедастичности, то при достаточном количестве наблюдений возможно применение обычного МНК.
Однако, для более точных и правильных статистических выводов необходимо использовать стандартные
ошибки в форме Уайта.

Способы снижения гетероскедастичности:

1. Использование взвешенного метода наименьших квадратов (ВМНК, WLS). В этом методе каждое


наблюдение взвешивается обратно пропорционально предполагаемому стандартному отклонению
случайной ошибки в этом наблюдении. Такой подход позволяет сделать случайные ошибки модели
гомоскедастичными. В частности, если предполагается, что стандартное отклонение ошибок
пропорционально некоторой переменной Z, то данные делятся на эту переменную, включая
константу.
2. Замена исходных данных их производными, например, логарифмом, относительным изменением
или другой нелинейной функцией. Этот подход часто используется в случае увеличения дисперсии
ошибки с ростом значения независимой переменной и приводит к стабилизации дисперсии в более
широком диапазоне входных данных.
3. Определение «областей компетенции» моделей, внутри которых дисперсия ошибки сравнительно
стабильна, и использование комбинации моделей. Таким образом, каждая модель работает только в
области своей компетенции, и дисперсия ошибки не превышает заданное граничное значение. Этот
подход распространен в области распознавания образов, где часто используются сложные
нелинейные модели и эвристики.

Автокорреляция

Автокорреляция – это нарушение третьего условия теоремы Гаусса-Маркова, а именно, это означает, что в
случае автокорреляции cov ( ε i , ε j ) ≠ 0 ,при i ≠ j.
Последствия автокорреляции в некоторой степени сходны с последствиями гетероскедастичности.
Коэффициенты регрессии остаются несмещенными, но становятся неэффективными, и их стандартные
ошибки оцениваются неправильно (вероятно, они смещаются вниз, т. е. занижаются), из-за чего
применение стандартных тестов невозможно.
Автокорреляция обычно встречается только в регрессионном анализе при использовании данных
временных рядов. Случайный член ε в уравнении регрессии подвергается воздействию тех переменных,
влияющих на зависимую переменную, которые не включены в уравнение регрессии. Если значение ε в
любом наблюдении должно быть независимым от его значения в предыдущем наблюдении, то и значение
любой переменной, «скрытой» в ε , должно быть некоррелированным с ее значением в предыдущем
наблюдении. Постоянная направленность воздействия не включенных в уравнение переменных является
наиболее частой причиной положительной автокорреляции – ее обычного для экономического анализа
типа. Например, она может проявляться, если не учитывается сезонность временных рядов.
Отрицательная автокорреляция в экономике проявляется крайне редко и заключается в том, что ошибки
часто меняют свой знак, в отличие от положительной автокорреляции. Но иногда она появляется при
преобразовании первоначальной спецификации модели в форму, подходящую для регрессионного анализа.

Поскольку обычно проблема автокорреляции встречается во временных рядах, то в данном разделе и будем
их рассматривать. Базовая модель тогда будет выглядеть следующим образом:
y t =α + β x t +ε t
Или в векторном обозначении:
Y = X ' β+ ε
Автокорреляция первого порядка:
ε t= ρ ε t +ut ,
где ut – независимые и одинаково распределенные случайные величины с дисперсией σ u2 и нулевым
математическим ожиданием.
Свойства ошибок:
1. E ε t =0
σ 2u
2
2. σ ε =
1−ρ2
m 2
3. cov ( ε t , ε t −m )=ρ σ ε
В тех случаях, когда ρ известно, можно применять обобщенный метод наименьших квадратов.

Большинство тестов на наличие корреляции по времени в ошибках указанной выше системы используют
следующую идею: если корреляция есть у ошибок ε , то она присутствует и в остатках е, получаемых после
применения к системе обычного метода наименьших квадратов.

Тест Дарбина-Уотсона (Darbin-Watson)


Данный тест обнаруживает только автокорреляцию 1 порядка. Для его проведения необходимо оценить
регрессию Y = Xβ+ ε и получить остатки e . При этом должны выполняться следующие условия:
1. В регрессии присутствует константа;
2. Нет пропущенных наблюдений;
3. Нет лагов зависимой переменной;
4. Стационарные временные ряды.
На основании полученных остатков оценивается статистика Дарбина-Уотсона:
n

∑ ( e t −e t−1 )2
DW = t=2 n

∑ e2t
t =1
Можно показать, что DW ≈2(1− ^ρ ). Основными гипотезами данного теста являются:
H 0 : ρ=0 , т . е . автокорреляцияотсутствует
H 1 : ρ≠ 0
Проблема статистики DW состоит в том, что она зависит не только от числа наблюдений n и количества
регрессоров k, но и от всей матрицы X, что делает проблематичным применение данной процедуры
напрямую. Однако Дарбин и Уотсон доказали, что существуют две границы ( d u и d l), которые зависят
только от n, k и уровня значимости. Единственной трудностью при использовании данных границ является
то, что возникают две области неопределенности, про которые мы не можем сказать точно – отвергается
там нулевая гипотеза или нет.
Значение статистики DW Вывод
4−d l< DW < 4 Гипотеза H 0 отвергается, есть отрицательная
корреляция
4−d u< DW < 4−d l Неопределенность
d u < DW <4−d u Гипотеза H 0 не отвергается
d l < DW <d u Неопределенность
0< DW < dl Гипотеза H 0 отвергается, есть положительная
корреляция

h-тест
H 0 : ρ=0 , т . е . автокорреляцияотсутствует
H 1 : ρ≠ 0
Необходимо оценить регрессию y t =α + β x t + γ y t−1 +ε t и рассчитать h-статистику:
n
h= ^ρ
√ 1−nDγ
N ( 0,1 ) если H 0
Асимптотический тест – 1
H 0 : ρ=0 , т . е . автокорреляцияотсутствует
H 1 : ρ≠ 0
Особенностью данного теста является то, что для его проведения необходимо большое число наблюдений
(что очевидно из названия). Для его использования необходимо оценить статистику:
√ n ^ρ N ( 0,1 ) если верна H 0.
Асимптотический тест – 2 (Breusch-Godfrey)
H 0 : ρ=0 , т . е . автокорреляцияотсутствует
H 1 : ρ≠ 0
Оценивается интересуемая система, после чего оценивается регрессия на остатки:
p
e t =X ' β+ ∑ ai et −i+ ut
i=1
На основании полученного уравнения оцениваем значение R2 и рассчитываем статистику:
( n−p ) R 2 ❑2 ( p ) если верна нулевая гипотеза
Оценивание в условиях автокорреляции
Проблему оценивания системы Y = X ' β+ ε рассмотрим для двух случаев: когда ρ известен и когда
неизвестен.
Значение ρ известно
В этом случае для оценивания системы можно применить обобщенный метод наименьших квадратов
(ОМНК). Данный метод можно применять по следующим причинам: вообще говоря, чтобы оценивать на
основании ОМНК, необходимо знать ковариационную матрицу, но т.к. мы знаем, что у нас есть
автокорреляция и мы знаем ρ , то мы можем записать ковариационную матрицу. В частности, если
предположить, что ошибки представляют авторегрессионный процесс первого порядка ε t= ρ ε t−1 +ut ,
матрицу ковариации можно записать следующим образом:
n−1
1 ρ ρ2 ρ

¿
2
σu
1−ρ2
ρ
[n−1
ρ 1
2
ρ ρ

ρn−2
ρ
1

ρ n −3
⋯ ρn−2



]
ρn−3

1
Проведем преобразование системы Y = X ' β+ ε , чтобы получить классическую модель. Рассмотрим период
t−1(t ≥ 2):
Y t −1 =X 't −1 β+ ε t −1
Умножим правую и левую части на ρ и вычтем из аналогичного уравнения для период t . Получим:
Y t −ρ Y t−1=( X t −ρ X t−1 )' β+ ε t −ρ ε t −1
Мы знаем, что ε t= ρ ε t−1 +ut , откуда ε t− ρ ε t−1=u t. Тогда:
Y t −ρ Y t−1=( X t −ρ X t−1 )' β+u t
Таким образом, мы получили процесс без автокорреляции, т.к. ut – независимые и одинаково
распределенные случайные величины с дисперсией σ u2. Если мы не хотим отбрасывать значение t=1 (т.к.,
например, у нас может быть очень мало значений), то достаточно просто умножить обе части уравнения на
√ 1−ρ2:
√ 1−ρ2 Y 1=√ 1−ρ2 X 1 β+ √1− ρ2 ε 1 .
При этом полученная ошибка √ 1−ρ2 ε 1 не зависит от ut и, можно показать, что она имеет дисперсию
равную σ u2.
Методы поиска значения ρ
Процедура Кохрейна-Оркатта
Начальным шагом этой процедуры является применение обычного метода наименьших квадратов к
исходной системе Y = X ' β+ ε и получение соответствующих остатков e. Далее,
1) в качестве приближенного значения ρ берется его МНК-оценка ^ρ в регрессии: e t =ρ et −1+u t
2) проводится преобразование y t −ρy t−1=( x t −ρ xt −1 ) β +ut при ρ=^ρ и находятся оценки ^β
3) строится новый вектор остатков e= y −X ' ^β ;
4) процедура повторяется, начиная с п. 1).

Процесс обычно заканчивается, когда очередное приближение ρ мало отличается от предыдущего.


Процедура Хилдрета-Лу (Hildreth-Lu).
Суть процедуры достаточно проста. Из интервала (-1,1) возможного изменения коэффициента ρ берутся
последовательно некоторые значения (например, числа с постоянным шагом 0.1 или 0.05) и для каждого из
них проводится оценивание преобразованной системы y t −ρy t−1=( x t −ρ xt −1 ) β +ut . Определяется то
значение этого параметра, для которого сумма квадратов отклонений минимальна. Затем в некоторой
окрестности этого значения устраивается более мелкая сетка и процесс повторяется. Итерации
заканчиваются, когда будет достигнута желаемая точность.
Процедура Дарбина
Находим МНК-оценки следующей регрессии:

y t =β 1 ( 1− ρ )+ ρ y t −1+ β2 x t 2−ρ β 2 x t−1 2 +…+ β k xtk − ρ β k xt −1 k + ut

т.е. y t −1 включается в число регрессоров, а ρ – в число оцениваемых параметров. В результате оценки


получаем оценки ^ρ и θ^ j параметров ρ и ρ β j соответственно. В качестве оценки ^β j берут θ^ j / ^ρ. Качество
оценок можно улучшить, подставив полученное значение ^ρ в систему y t −ρy t−1=( x t −ρ xt −1 ) β +ut и найдя
новые МНК оценки.
Оценка ковариационной матрицы по Newey-West
Стандартные ошибки в форме Ньюи-Уеста применяются при гетероскедастичности и автокорреляции, т.к.
они даже в этих случаях остаются состоятельными.
Истинная ковариационная матрица МНК-оценок параметров линейной модели в общем случае, как
известно, равна:
^ ( ^β OLS ) =( X ' X )−1 ( X ' VX ) ( X ' X )−1 ,
V
где V – ковариационная матрица случайных ошибок. Если нет ни гетероскедастичности, ни
автокорреляции, то матрица намного упрощается:
^ ( ^β OLS ) =σ 2 ( X ' X )−1
V
Т.е. для ее оценки необходимо знать только дисперсию случайных ошибок σ^ 2.
Однако, как было показано ранее, наличие автокорреляции или гетероскедастичности, или и того и другого
сразу значительно усложняют оценку ковариационной матрицы. В следствии этого Ньюи и Уест
предложили оценивать ее следующим образом:
^ ( ^β OLS ) =( X ' X )−1 TS ( X ' X )−1
V
T H −1 T
1 1
S= ∑ e 2t x t x 't + ∑ ∑ w j e t e t− j (x t x 't− j+ xt − j x't),
T t=1 T j=1 t= j+1
где w j – весовые коэффициенты, а H – «ширина окна».
n 29
Рекомендуется брать H=[4 ( )
100
]. Для выбора весов существует множество рекомендаций. Простейший
вариант – взять их равными единице.