Вы находитесь на странице: 1из 59

1. Парная линейная регрессия.

Взаимосвязи экономических
переменных.
В модели парной линейной регрессии одна из величин Х выделяется как
независимая (объясняющая), а другая Y как зависимая (объясняемая).
Например, рост дохода ведет к увеличению потребления; рост цены ведет к
снижению спроса; снижение процентной ставки ведет к увеличению
инвестиций.
Независимая переменная Х называется также входной, экзогенной,
предикторной (предсказывающей), фактором, регрессом, факторной
переменной.
Зависимая переменная Y называется также выходной, результирующей,
эндогенной, результативным признаком, функцией отклика.
Определение: Зависимость среднего значения переменной Y, т.е.
условного математического ожидания Y при данном значении Х = х
𝑀 (𝑌/𝑋 = 𝑥) = 𝑓(𝑥),
называется функцией парной регрессии Y на Х.
Реальные значения Y могут быть различными при одном и том же значении
Х = х, поэтому фактическая зависимость имеет вид:
Y = M(Y│x) +ε,
где величина ε называется случайным отклонением.
2. Суть регрессионного анализа.
Регрессионный анализ заключается в определении аналитической
формы связи, в которой изменение результативного признака обусловлено
влиянием одного или нескольких факторных признаков, а множество всех
прочих факторов, также оказывающих влияние на результативный
признак, принимается за постоянные и средние значения.
Целью регрессионного анализа является оценка функциональной
зависимости условного среднего значения результативного признака от
факторных признаков.
Уравнение регрессии или модель связи социально-экономических
явлений выражается функцией. Различают парную (y=f(x)) и
множественную (Ŷ=f(𝑥1 ,𝑥2 ,…𝑥𝑛 ) ) регрессии.
Парная регрессий описывает связь между двумя признаками
(результативным и факторным). Множественная регрессия описывает
связь между результативным признаком и двумя и более факторными
признаками.
3. Классическая линейная регрессионная модель.
Если функция регрессии линейна: M(Y│x) = 𝛽0 + 𝛽1𝑥, то регрессия
называется линейной.
Теоретическая модель парной линейной регрессии (зависимость между
переменными в генеральной совокупности) имеет вид: 𝑌 = 𝛽0 + 𝛽1𝑋 + 𝜀, где Х
рассматривается как неслучайная переменная, а Y и ε как случайные
величины; 𝛽0 и 𝛽1 - теоретические коэффициенты (параметры) регрессии.
Индивидуальные значения yi выражаются: yi = 𝑏0 + 𝑏1 xi + ε. Для
определения 𝛽0 и β необходимо знать и использовать все значения
переменных Х и Y генеральной совокупности, что практически невозможно.
Методами регрессионного анализа возможно лишь получить их оценки на
основании выборочных данных: b0 𝛽0 b1 𝛽1
4. Предпосылки метода наименьших квадратов.

Условия Гаусса-Маркова:
1) Математическое ожидание случайных отклонений 𝜀𝑖 равно нулю:
𝑀 (𝜀𝑖) = 0 для всех наблюдений. Это означает, что случайное отклонение не
должно иметь систематического смещения.
2) Дисперсия случайных отклонений постоянна для всех наблюдений:
𝐷 (𝜀𝑖)= 𝑀 (εi2 ) =σ2 , 𝑖 = 1, 2,…,𝑛. Выполнимость данной предпосылки
называется гомоскедастичностью, а невыполнимость ее называется
гетероскедастичнстью.
3) Случайные отклонения 𝜀𝑖 и 𝜀j (𝑖 ≠ j) не коррелируют (отсутствует
автокорреляция): 𝑀(𝜀𝑖,𝜀j) =0, 𝑖 ≠ j.
4) Случайные отклонения должны быть статистически независимы
(некоррелированы) от объясняющих переменных.

5. Анализ точности определения оценок коэффициентов регрессии.


В силу случайного отбора элементов в выборку случайными являются
также оценки а и b истинных коэффициентов регрессии и теоретического
уравнения регрессии. При этом оценки тем надежнее, чем меньше их разброс
вокруг и , то есть чем меньше дисперсия D(a) и D(b) оценок. Надежность
получаемых оценок тесно связана с дисперсией случайных отклонений .
Фактически является дисперсией переменной Y относительно линии
регрессии .
Корень квадратный из необъясненной дисперсии
называется стандартной ошибкой оценки (стандартной

ошибкой). .
и называются стандартными ошибками коэффициентов
регрессии.
Объяснение данных соотношений имеет наглядную графическую
интерпретацию. Коэффициент b определяет наклон прямой регрессии.
Чем больше разброс Y вокруг линии регрессии, тем больше ошибка
определения наклона прямой регрессии.

Дисперсия свободного члена уравнения регрессии


пропорциональна . Действительно, чем сильнее меняется наклон
прямой, тем больше разброс значений свободного члена,
характеризующего точку пересечения этой прямой с осью Oy.
6. Проверка гипотез относительно коэффициентов линейного
уравнения регрессии.
При проведении статистического анализа перед исследователем
зачастую возникает необходимость сравнения эмпирических коэффициентов
регрессии 𝑎 и 𝑏 с некоторыми теоретически ожидаемыми значениями A и B
этих коэффициентов.
Данный анализ производится в рамках статистической проверки
параметрических гипотез.
Показано, что в предположении нормальности распределения y при
данном значении x , оценки a и b являются несмещенными оценками A и
B соответственно. Их выборочные распределения связаны с t 
распределением (Стьюдента), которое имеет 𝜈 = 𝑛 − 2 степени свободы.
На первом этапе анализа наиболее важной является задача установления
линейной зависимости между переменными 𝑌 и 𝑋. С этой целью
сформулируем гипотезы:
𝐻0 : 𝑏 = 0, − линейная зависимость отсутствует, коэффициент угла наклона
прямой незначимо отличается от нуля;
𝐻1 : 𝑏 ≠ 0, − линейная зависимость значительная и коэффициент угла
наклона не равен нулю.
При проверке гипотезы воспользуемся 𝑡 − статистикой:
𝑏−𝐵 𝑏
𝑡= =
𝑆𝑏 √𝑆𝑏2
Аналогичным образом проверяется гипотеза о статистической
значимости нулю коэффициента регрессии 𝑎 (свободный член линейного
уравнения равен нулю):
𝑎−𝐴 𝑎
𝑡= =
𝑆𝑎 √𝑆𝑎2
7. Интервальные оценки коэффициентов линейного уравнения
регрессии.
Rоэффициенты регрессии a и b являются нормально распределенными
СВ, с соответствующими дисперсиями, т.е. 𝑎~𝑁(𝐴, 𝐷[𝐴]), 𝑏~𝑁(𝐵, 𝐷[𝐵]).
Тогда следующие статистики
𝑎−𝐴 𝑏−𝐵
𝑡𝑎 = , 𝑡𝑏 =
𝑆𝑎 𝑆𝑏
имеют распределение Стьюдента с числом степеней свободы 𝜈 = 𝑛 − 2.
Тогда, для построения доверительного интервала с заданной доверительной
вероятностью 𝛽 найдем по статистическим таблицам критические значения:
𝑃 (|𝑡| < 𝑡1−𝛼;𝑛−2 ) = 𝛽 = 1 − 𝛼 (1)
2
Получим:
𝑎−𝐴
𝑃 (𝑡𝛼;𝑛−2 < < 𝑡1−𝛼;𝑛−2 ) = 𝛽 = 1 − 𝛼,
2 𝑆𝑎 2
𝑏−𝐵
𝑃 (𝑡𝛼;𝑛−2 < < 𝑡1−𝛼;𝑛−2 ) = 𝛽 = 1 − 𝛼. (2)
2 𝑆𝑎 2
Если разрешить неравенства в формулах (2) относительно неизвестных
коэффициентов регрессии 𝐴 и 𝐵, то получим соответствующие
доверительные интервалы
𝐼𝛽 (𝐴) = (𝑎 − 𝑡1−𝛼;𝑛−2 ∙ 𝑆𝑎 ; 𝑎 + 𝑡1−𝛼;𝑛−2 ∙ 𝑆(𝑎)),
2 2

𝐼𝛽 (𝐵) = (𝑏 − 𝑡1−𝛼;𝑛−2 ∙ 𝑆𝑏 ; 𝑏 + 𝑡1−𝛼;𝑛−2 ∙ 𝑆(𝑏)), (3)


2 2

Которые с доверительной вероятностью 1 − 𝛼 накрывают


определяемые параметры (теоретические коэффициенты регрессии).
Особый интерес представляет выборочное распределение 𝑦̂ при
конкретном значении x  x0 . Так как 𝑦̂ ведет себя как СВ, распределенная по
нормальному закону, для нее тоже можно построить доверительный
интервал. Соответствующая статистика имеет вид:
𝑦̂ − 𝑦̃
𝑡𝑦̃ = . (4)
1 (𝑥0 − 𝑥̅ )2 1
𝑆𝑦|𝑥 ( + )2
𝑛 ∑(𝑥0 − 𝑥̅ )2
В выражении (4) величина S y | x  это выборочное стандартное
отклонение наблюденного значения yi от предсказанного 𝑦̂ = 𝑎 + 𝑏𝑥𝑖 ,
равное
1 1
∑(𝑦𝑖 −𝑦̂𝑖 )2 2 𝑛−1 2
𝑆𝑦|𝑥 = [ ] = [ − ∙ 𝑆𝑦2 (1 2
𝑟𝑥𝑦 )] .
(5)
𝑛−2 𝑛−2
Т.о. формулы (3 – 5) дают возможность построить доверительные интервалы
для неизвестных параметров A , B и ~ y , по оценкам a, b и 𝑦̂.
8. Доверительные интервалы для зависимой переменной в уравнении
регрессии.
Базовой предпосылкой МНК является предположение о нормальном
распределении отклонений 𝜀𝑖 с нулевым математическим ожиданием и
постоянной дисперсией σ2 , которое является теоретически и практически
обоснованным: 𝜀𝑖~𝑁(0; σ2 ).
Согласно модельному уравнению линейной парной регрессии 𝑦𝑖 = 𝛽0 +
𝛽1 𝑥𝑖 + 𝜀𝑖 , коэффициенты 𝑏0 и 𝑏1 через 𝑦𝑖 являются линейными
комбинациями 𝜀𝑖 . Следовательно, 𝑏0 и 𝑏1 также имеют нормальное
распределение: 𝑏1~𝑁(𝛽1 ; 𝑆𝑏1 2 ), 𝑏0~𝑁(𝛽0 ; 𝑆𝑏0 2 ).
b1−β1 b0−β0
Тогда случайные величины tb1 = и 𝑡𝑏0 = имеют распределение
Sb1 Sb0
Стьюдента с числом степеней свободы 𝜈 = 𝑛 − 2. По заданной доверительной
вероятности γ можно найти интервал:
−𝑡кр < 𝑡 < 𝑡кр или 𝑡 < 𝑡кр внутри которого находятся значения 𝑡 с
вероятностью γ: 𝑃(|𝑡| < 𝑡кр) = 𝛾.
Критическое значение 𝑡кр при доверительной вероятности 𝛾 = 1 − 𝛼
находятся по таблицам двусторонних квантилей распределения Стьюдента
𝑡кр =𝑡𝑎;т−2 .
b1−β1 b0−β0
Таким образом: 𝑃(−𝑡кр < < 𝑡кр) = 𝛾, 𝑃(−𝑡кр < < 𝑡кр) = 𝛾
Sb1 Sb0
Доверительные интервалы для коэффициентов парной линейной
регрессии с доверительной вероятностью 𝛾 = 1 − 𝛼 имеют вид:
𝑏1 − 𝑡кр 𝑆𝑏1 < 𝛽1 < 𝑏1 + 𝑡кр 𝑆𝑏1 ,
𝑏0 − t кр 𝑆𝑏0 < 𝛽0 < 𝑏0 + t кр 𝑆𝑏0 .

9. Проверка общего качества уравнения регрессии. Коэффициент


детерминации R2.
Коэффициент детерминации (R2)— это доля дисперсии отклонений
зависимой переменной от её среднего значения, объясняемая
рассматриваемой моделью связи. Модель связи обычно задается как явная

функция от объясняющих переменных.


Коэффициент детерминации является случайной переменной. Он
характеризует долю результативного признака у, объясняемую регрессией, в

общей дисперсии результативного признака: 0≤ R2≤1. причем


если R2= 1 то переменная yt полностью объясняется регрессором xt. В
множественной регрессионной модели добавление дополнительных
регрессоров увеличивает значение коэффициента детерминации, поэтому его
корректируют с учетом числа независимых переменных:

10. Множественная линейная регрессия. Определение параметров


уравнения регрессии.
Обычно на любой экономический показатель влияет не один, а
несколько факторов. Например, спрос на некоторый товар определяется не
только его ценой, но и ценами на замещающие и дополняющие товары,
доходом потребителей и другими факторами. В этом случае вместо функции
парной регрессии 𝑀(𝑌|𝑋 = 𝑥) = 𝑓(𝑥) рассматривается функция
множественной регрессии: 𝑀(𝑌|𝑋1 = 𝑥1 ; 𝑋2 = 𝑥2 ; … ; 𝑋𝑚 = 𝑥𝑚 ) = 𝑓(𝑥1 ;
𝑥2 ; … ; 𝑥𝑚 ).
Теоретическая модель множественной линейной регрессии имеет вид:
𝑌 = 𝛽0 + 𝛽1𝑋1 + 𝛽2𝑋2 + ⋯ + 𝛽𝑚 𝑋𝑚 + 𝜀 (5.2) или для индивидуальных
наблюдений: 𝑦𝑖 = 𝛽0 + 𝛽1 𝑥𝑖1 + 𝛽2 𝑥𝑖2 + ⋯ + 𝛽𝑚 𝑥𝑖𝑚 + 𝜀, (5.3) 𝑖 = 1, 2, … 𝑁,
где N – объем генеральной совокупности.
После выбора в качестве модели линейной функции множественной
регрессии необходимо оценить коэффициенты регрессии.
Пусть имеется n наблюдений вектора объясняющих переменных 𝑋 =
(𝑋1 ; 𝑋2 ; . . 𝑋𝑚 ) и зависимой переменной Y: (𝑥𝑖1 ; 𝑥𝑖2 ; … ; 𝑥𝑖𝑚 ; 𝑦𝑖 ), 𝑖 = 1,
2, … , 𝑛. Если 𝑛 = 𝑚 + 1, то оценки коэффициентов рассчитываются
единственным образом. Здесь 𝑚 – число объясняющих переменных. Если 𝑛 <
𝑚 + 1, то система будет иметь бесконечное множество решений. Если 𝑛 > 𝑚
+ 1, то нельзя подобрать линейную функцию, точно удовлетворяющую всем
наблюдениям, и возникает необходимость оптимизации, т.е. нахождения
оценок параметров модели, при которых линейная функция дает наилучшее
приближение для имеющихся наблюдений.
Самым распространенным методом оценки параметров модели
множественной линейной регрессии является метод наименьших
квадратов (МНК). Для применения МНК необходима выполнимость ряда
предпосылок, которые позволят проводить анализ в рамках классической
линейной модели множественной регрессии (КЛММР).

Предпосылки МНК
1) Математическое ожидание случайных отклонений 𝜀𝑖 равно нулю: 𝑀
𝜀𝑖 = 0 для всех наблюдений. Это означает, что случайное отклонение не
должно иметь систематического смещения.
2) Дисперсия случайных отклонений постоянна для всех наблюдений:
𝐷 𝜀𝑖 = 𝑀 𝜀𝑖 2 = 𝜎 2 , 𝑖 = 1, 2, … , 𝑛. Выполнимость данной предпосылки
называется гомоскедастичностью, а невыполнимость ее называется
гетероскедастичнстью.
3) Случайные отклонения 𝜀𝑖 и 𝜀𝑗 ( i ≠ j ) не коррелируют (отсутствует
автокорреляция ): 𝑀 𝜀𝑖 , 𝜀𝑗 = 0, 𝑖 ≠ 𝑗 .
4) Случайные отклонения должны быть статистически независимы
(некоррелированы) от объясняющих переменных.
5) Отсутствие мультиколлинеарности. Между объясняющими
переменными отсутствует строгая (сильная) линейная зависимость.
6) Отклонения 𝜀𝑖 , 𝑖 = 1, 2, … , 𝑛 имеют нормальные распределения 𝜀𝑖 ≅
𝑁(0; 𝜎 2 )Выполнимость данной предпосылки важна для проверки
статистических гипотез и построения интервальных оценок. Замечание: При
построении классических линейных регрессионных моделей считается также,
что объясняющие переменные не являются случайными величинами.
(Расчет см в вопросе 11!)

11. Расчет коэффициентов уравнения множественной линейной


регрессии.
Истинные значения коэффициентов bj по выборке получить
невозможно. Вместо теоретического уравнения оценивается эмпирическое
уравнение регрессии для индивидуальных наблюдений: 𝑦𝑖 = 𝑏0 + 𝑏1 𝑥𝑖1 + 𝑏2
𝑥𝑖2 + ⋯ + 𝑏𝑚 𝑥𝑖𝑚 + 𝑒𝑖 . Здесь 𝑏0 , 𝑏1 , 𝑏2 , … , 𝑏𝑚 - эмпирические
коэффициенты регрессии (оценки теоретических коэффициентов (𝛽0 , 𝛽1 , 𝛽2
, … , 𝛽𝑚 ). 𝑒𝑖 - остатки (оценки отклонений 𝜀𝑖 ).
Согласно МНК, для нахождения оценок 𝑏0 ; 𝑏1 ; … ; 𝑏𝑚
минимизируется сумма квадратов остатков:
Данная функция является квадратичной относительно неизвестных
коэффициентов. Она ограничена снизу, следовательно, имеет минимум.
Необходимым условием минимума Qe является равенство нулю частных
производных

Приравнивая их к нулю, получаем систему m + 1 линейных уравнений


с m + 1 неизвестными:

Эта система называется системой нормальных уравнений. Данные


реальных статистических наблюдений всегда приводят к единственному
решению этой системы. В случае множественной линейной регрессии
удобнее искать коэффициенты уравнения регрессии, используя матричный
метод решения.
Представим данные наблюдений и соответствующие
коэффициенты в
матричной форме:

Х – матрица объясняющих переменных размера n × (m+1), в которой


xij – значение переменной Xj в i-м наблюдении; 1 (единица в первом столбце)
соответствует переменной при b0.

Здесь Y – матрица размера n × 1 наблюдаемых значений зависимой


переменной Y; B - матрица размера (m+1) × 1 оценок коэффициентов
модели; е – матрица остатков размера n × 1 (отклонений наблюдаемых
значений 𝑦𝑖 от расчетных значений 𝑦 𝑖 = 𝑏0 + ∑𝑏𝑗 *𝑥𝑖𝑗, получаемых по линии
регрессии).
Уравнение регрессии в матричной форме: 𝑌 = 𝑋𝐵 + 𝑒. ; 𝑒 = 𝑌 − 𝑋𝐵.
Функция, которая минимизируется 𝑄𝑒 = ∑𝑒𝑖^2.
Общая формула вычисления вектора B оценок коэффициентов
модели множественной линейной регрессии: 𝐵 = ((𝑿𝑻 ∗ 𝑿)^ (−1)) *𝑿𝑻 *Y
ПОЛЕСЛЕ ЭТОГО ПОЛУЧЕННАЯ МАТРИЦА «В» И ЕСТЬ
КОЭФФИЦИЕНТЫ Т.Е. ЭТО 𝑦𝑖 = 𝑏0 + 𝑏1 𝑥𝑖1 + 𝑏2 𝑥𝑖2 + ⋯ + 𝑏𝑚 𝑥𝑖𝑚
Здесь 𝑋 𝑇 – транспонированная матрица 𝑋; 𝑋 𝑇 ∗ 𝑋 - произведение
матриц, матрица (𝑋 𝑇 ∗ 𝑋)^ (−1) - обратная к матрице 𝑋 𝑇 ∗ 𝑋.
Вывод: Полученные общие соотношения справедливы для уравнений
регрессии с произвольным количеством m объясняющих переменных.
12. Множественная линейная регрессия. Дисперсии и стандартные
ошибки коэффициентов. Коэффициенты R2 и Ṝ2.
Обычно на любой экономический показатель влияет не один, а
несколько факторов. В этом случае вместо функции парной регрессии 𝑀(𝑌|𝑋
= 𝑥) = 𝑓(𝑥) рассматривается функция множественной регрессии: 𝑀(𝑌|𝑋1 =
𝑥1 ; 𝑋2 = 𝑥2 ; … ; 𝑋𝑚 = 𝑥𝑚 ) = 𝑓(𝑥1 ; 𝑥2 ; … ; 𝑥𝑚 ).
Теоретическая модель множественной линейной регрессии имеет вид:
𝑌 = 𝛽0 + 𝛽1𝑋1 + 𝛽2𝑋2 + ⋯ + 𝛽𝑚 𝑋𝑚 + 𝜀 (5.2) или для индивидуальных
наблюдений: 𝑦𝑖 = 𝛽0 + 𝛽1 𝑥𝑖1 + 𝛽2 𝑥𝑖2 + ⋯ + 𝛽𝑚 𝑥𝑖𝑚 + 𝜀, (5.3) 𝑖 = 1, 2, … 𝑁,
где N – объем генеральной совокупности. (ИЛИ 𝑦𝑖 = 𝑏0 + 𝑏1 𝑥𝑖1 + 𝑏2 𝑥𝑖2 + ⋯
+ 𝑏𝑚 𝑥𝑖𝑚)

Для проверки качества уравнения регрессии в целом используется


коэффициент детерминации R^2 , который в общем случае рассчитывается
по формуле:

Величина R^2 является мерой объясняющего качества уравнения регрессии


по сравнению с горизонтальной линией y= 𝑦̅ .
Справедливо соотношение 0<=R2<=1. Чем ближе этот коэффициент к
единице, тем больше уравнение множественной регрессии объясняет
поведение Y.
Длямножественной регрессии коэффициент детерминации является
неубывающей функциейчисла объясняющих переменных. Добавление новой
объясняющей переменной никогда не уменьшает значение R2, так как каждая
последующая переменная может лишь дополнить, но никак не сократить
информацию, объясняющую поведение зависимой переменной.
Иногда при расчете коэффициента детерминации для получения
несмещенных оценок в числителе и знаменателе вычитаемой из единицы
дроби делается поправка на число степеней свободы, т.е. вводится так
называемый скорректированный (исправленный) коэффициент
детерминации:

Соотношение может быть представлено в следующем виде:


13. Множественная линейная регрессия. Предпосылки метода наименьших
квадратов.
Обычно на любой экономический показатель влияет не один, а
несколько факторов. В этом случае вместо функции парной регрессии 𝑀(𝑌|𝑋
= 𝑥) = 𝑓(𝑥) рассматривается функция множественной регрессии: 𝑀(𝑌|𝑋1 =
𝑥1 ; 𝑋2 = 𝑥2 ; … ; 𝑋𝑚 = 𝑥𝑚 ) = 𝑓(𝑥1 ; 𝑥2 ; … ; 𝑥𝑚 ).
Теоретическая модель множественной линейной регрессии имеет вид:
𝑌 = 𝛽0 + 𝛽1𝑋1 + 𝛽2𝑋2 + ⋯ + 𝛽𝑚 𝑋𝑚 + 𝜀 (5.2) или для индивидуальных
наблюдений: 𝑦𝑖 = 𝛽0 + 𝛽1 𝑥𝑖1 + 𝛽2 𝑥𝑖2 + ⋯ + 𝛽𝑚 𝑥𝑖𝑚 + 𝜀, (5.3) 𝑖 = 1, 2, … 𝑁,
где N – объем генеральной совокупности. (ИЛИ 𝑦𝑖 = 𝑏0 + 𝑏1 𝑥𝑖1 + 𝑏2 𝑥𝑖2 + ⋯
+ 𝑏𝑚 𝑥𝑖𝑚)
Предпосылки МНК
1) Математическое ожидание случайных отклонений 𝜀𝑖 равно нулю: 𝑀 𝜀𝑖 = 0
для всех наблюдений. Это означает, что случайное отклонение не должно
иметь систематического смещения.
2) Дисперсия случайных отклонений постоянна для всех наблюдений: 𝐷 𝜀𝑖 =
𝑀 𝜀𝑖 2 = 𝜎 2 , 𝑖 = 1, 2, … , 𝑛. Выполнимость данной предпосылки называется
гомоскедастичностью, а невыполнимость ее называется
гетероскедастичнстью.
3) Случайные отклонения 𝜀𝑖 и 𝜀𝑗 ( i ≠ j ) не коррелируют (отсутствует
автокорреляция ): 𝑀 𝜀𝑖 , 𝜀𝑗 = 0, 𝑖 ≠ 𝑗 . 4 3) Случайные отклонения должны
быть статистически независимы (некоррелированы) от объясняющих
переменных.
4) Отсутствие мультиколлинеарности. Между объясняющими переменными
отсутствует строгая (сильная) линейная зависимость.
5) Отклонения 𝜀𝑖 , 𝑖 = 1, 2, … , 𝑛 имеют нормальные распределения 𝜀𝑖 ≅ 𝑁(0;
𝜎 2 )Выполнимость данной предпосылки важна для проверки статистических
гипотез и построения интервальных оценок.
Замечание: При построении классических линейных регрессионных моделей
считается также, что объясняющие переменные не являются случайными
величинами.

14. Множественная линейная модель. Проблема мультиколлинеарности.


Мультиколлинеарностью называется высокая степень
коррелированности двух или нескольких объясняющих переменных в
уравнении множественной регрессии. Крайним случаем
мультиколлинеарности является линейная зависимость между
объясняющими переменными. Считается, что две переменные 𝑋𝑖 и 𝑋𝑗 сильно
коррелированны, если выборочный коэффициент корреляции двух
объясняющих переменных 𝑟𝑥𝑖 𝑥𝑗 > 0,7
Поясним. Пусть имеется m объясняющих факторов:𝑋1 , 𝑋2 , … . , 𝑋𝑚 .
Матрица межфакторной корреляции состоит из парных коэффициентов
корреляции и имеет вид:

Наличие мультиколлинеарности можно подтвердить, найдя


определитель матрицы межфакторной корреляции. Если 𝑅𝑥𝑥 ≈ 1, то
мультиколлинеарность отсутствует, а если 𝑅𝑥𝑥 ≈ 0, то - присутствует.
Совершенная мультиколлинеарность является скорее в теории, а практически
между некоторыми объясняющими переменными существует очень сильная
коореляционная зависимость 𝑟𝑥𝑖 𝑥𝑗 > 0,7, а не функциональная 𝑟𝑥𝑖 𝑥𝑗 = 1.
Последствия мультиколлинеарности:
1. Большие дисперсии (стандартные ошибки) оценок коэффициентов
уравнения множественной регрессии. Это расширяет интервальные оценки,
ухудшая их точность. Последнее затрудняет нахождение истинных значений
оценок коэффициентов.
2. Уменьшаются t-статистики оценок. Оценки имеют малую статистическую
значимость, в то время как модель в целом является значимой (имеет
высокое значение коэффициент детерминации 𝑅^2).
3. Оценки коэффициентов уравнения по МНК и их стандартные ошибки
становятся очень чувствительными к малейшим изменениям данных. Оценки
коэффициентов становятся неустойчивыми.
4. Затрудняется определение доли вклада каждой из объясняющих
переменных в объясняемую уравнением регрессии дисперсию зависимой
переменной.
5. Возможно получение неверного знака у коэффициента регрессии.

15. Множественная линейная модель. Методы определения


мультиколлинеарности.
Уравнение линейной множественной регрессии имеет вид 𝑦 = 𝑏0 + 𝑏1 𝑥1 + 𝑏n
𝑥n
Существует несколько признаков, по которым может быть
установлено наличие мультиколлинеарности.
1. Коэффициент детерминации R^2 достаточно высок, но некоторые из
коэффициентов уравнения множественной линейной регрессии
статистически незначимы (имеют низкие t-статистики).
2. Высокая корреляция в уравнении регрессии с двумя объясняющими
переменными. Если объясняющих переменных больше двух целесообразнее
использовать частные коэффициенты корреляции.
Частным коэффициентом корреляции называется коэффициент корреляции
между двумя объясняющими переменными, очищенный от влияния других
переменных. Например, при трех объясняющих переменных Х1, Х2, Х3
частный коэффициент корреляции между Х1 и Х3, очищенный от Х2,
рассчитывается по формуле:

Замечание: частный коэффициент корреляции может существенно


отличаться от «обычного» коэффициента корреляции. Для более
обоснованного вывода о корреляции между парами объясняющих
переменных необходимо рассчитывать все частные коэффициенты
корреляции.
Парные коэффициенты корреляции, рассчитанные по формуле:

3. Сильная регрессия между объясняющими переменными. Какая- либо из


объясняющих переменных является комбинацией других объясняющих
переменных (линейной или близкой к линейной).

16. Множественная линейная модель. Методы уменьшения


мультиколлинеарности.
Мультиколлинеарность является серьезной проблемой если целью
исследования является определение степени влияния каждой из
объясняющих переменных на зависимую переменную. Наличие
мультиколлинеарности, приводит к увеличению стандартных ошибок,
искажая истинные зависимости между переменными. При прогнозировании
будущих значений зависимой переменной при высоком коэффициенте
детерминации (R 2 >0,9) наличие мультиколлинеарности обычно не
сказывается на прогнозных качествах модели.
Единого метода устранения мультиколлинеарности не
существует. Это связано с тем, что причины и последствия
мультиколлинеарности неоднозначны и во многом зависят от результатов
выборки. Перечислим наиболее употребительные методы.
1) Исключение переменной из модели. Простейшим методом устранения
мультиколлинеарности является исключение из модели одной или ряда
коррелированных переменных. Однако необходима определенная
осмотрительность при применении данного метода. В этой ситуации
возможны ошибки спецификации. В эконометрических моделях,
применяемых в прикладных целях, желательно не исключать объясняющую
переменную до тех пор, пока мультиколлинеарность не станет серьезной
проблемой.
2) Получение дополнительных данных или новой выборки. Возможно,
для уменьшения мультиколлинеарности достаточно увеличить объем
выборки. Это сократит дисперсии коэффициентов регрессии и тем самым
увеличит их статистическую значимость.
3) Изменение спецификации модели. Иногда проблема
мультиколлинеарности может быть решена путем изменения спецификации
модели.
4) Использование предварительной информации о некоторых
параметрах. Возможно, что значения коэффициентов, рассчитанные для
каких- либо предварительных моделей, или для аналогичной модели по ранее
полученной выборке, могут быть использованы для исследуемой в данный
момент модели.
5) Преобразование переменных. Иногда минимизировать либо вообще
устранить проблему мультиколлинеарности можно с помощью
преобразования переменных: разделив все переменные уравнения
множественной регрессии на одну из коррелирующих переменных.
17. Нелинейная регрессия. Виды моделей. Примеры.
Нелинейная регрессия – моделирование экономических зависимостей
линейными уравнениями во многих практических случаях дает вполне
удовлетворительный результат и может использоваться для анализа и
прогнозирования. Из-за многообразия и сложности экономических процессов
ограничиться рассмотрением одних лишь линейных регрессионных моделей
невозможно. Большинство экономических процессов и, следовательно,
отражающих их экономических зависимостей, не являются линейными по
своей сути. Моделирование таких процессов линейными уравнениями
регрессии не дает положительного результата.
Например, при рассмотрении производственных функций линейная модель
не является реалистичной. Обычно при моделировании таких процессов
используются степенные модели. Наиболее широкую известность имеет
производственная функция Кобба-Дугласа
𝛼 𝛽
𝑌 = 𝐴 ∙ 𝐾 ∙ 𝐿 
 (здесь 𝑌 — объем выпуска; К и L — затраты капитала и
труда
соответственно; А, 𝛼 и 𝛽 — параметры модели).
 В современном
эконометрическом анализе применяются и многие
другие нелинейные модели.
Построение и анализ нелинейных моделей имеют свою специфику. Мы
ограничимся рассмотрением нелинейных моделей, допускающих сведение их
к линейным. Это так называемые линейные относительно параметров
модели. Далее будут рассмотрены модели парной регрессии в силу их
простоты, а также примеры применения нелинейных уравнений с
несколькими объясняющими переменными.
Виды моделей:
1. Логарифмические модели
2. Полулогарифмические модели
3. Лог-линейная модель
4. Линейно-логарифмическая модель
5. Обратная модель
6. Степенная модель
7. Показательная модель

18. Нелинейная регрессия. Выбор формы модели.


Нелинейная регрессия – моделирование экономических зависимостей
линейными уравнениями во многих практических случаях дает вполне
удовлетворительный результат и может использоваться для анализа и
прогнозирования. Из-за многообразия и сложности экономических процессов
ограничиться рассмотрением одних лишь линейных регрессионных моделей
невозможно. Большинство экономических процессов и, следовательно,
отражающих их экономических зависимостей, не являются линейными по
своей сути. Моделирование таких процессов линейными уравнениями
регрессии не дает положительного результата.
Выбор формы модели:
Многообразие и сложность экономических процессов предопределяет
многообразие моделей, используемых для эконометрического анализа. С
другой стороны, это существенно усложняет процесс нахождения
максимально адекватной формулы зависимости. Для случая парной
регрессии подбор модели обычно осуществляется по виду расположения
наблюдаемых точек на корреляционном поле. Однако нередки ситуации,
когда расположение точек приблизительно соответствует нескольким
функциям и необходимо из них выявить наилучшую. Например,
криволинейные зависимости могут аппроксимироваться полиномиальной,
показательной, степенной, логарифмической функциями. Еще более
неоднозначна ситуация для множественной регрессии, так как наглядное
представление статистических данных в этом случае невозможно.
Правильный выбор вида экономической модели является отправной точкой
для качественного ее анализа. На практике неизвестно, какая модель является
верной, и зачастую подбирают такую модель, которая наиболее точно
соответствует реальным данным. Поэтому, чтобы выбрать качественную
модель, необходимо ответить на ряд вопросов, возникающих при ее анализе:
1. Каковы признаки «хорошей» (качественной) модели?
2. Какие ошибки спецификации встречаются, и каковы последствия данных
ошибок?
3. Как обнаружить ошибку спецификации?
4. Каким образом можно исправить ошибку спецификации и перейти к
лучшей (качественной) модели?

19. Нелинейная регрессия. Проблемы спецификации.


Нелинейная регрессия – моделирование экономических зависимостей
линейными уравнениями во многих практических случаях дает вполне
удовлетворительный результат и может использоваться для анализа и
прогнозирования. Из-за многообразия и сложности экономических процессов
ограничиться рассмотрением одних лишь линейных регрессионных моделей
невозможно. Большинство экономических процессов и, следовательно,
отражающих их экономических зависимостей, не являются линейными по
своей сути. Моделирование таких процессов линейными уравнениями
регрессии не дает положительного результата.
Проблемы спецификации:
Стандартная схема анализа функциональных зависимостей состоит в
осуществлении ряда последовательных процедур.
Подбор начальной модели. Он осуществляется на основе
экономической теории, предыдущих знаний об объекте исследования, опыта
исследователя и его интуиции. 

Оценка параметров модели на основе имеющихся статистических
данных. 

Осуществление тестов проверки качества модели (обычно
используются t-статистики для коэффициентов регрессии, F- статистика для
коэффициента детерминации, статистика Дарвина- Уотсона для анализа
отклонений и ряд других тестов). 

При наличии хотя бы одного неудовлетворительного ответа по
какому-либо тесту модель совершенствуется с целью устранения
выявленного недостатка. 

При положительных ответах по всем проведенным тестам модель
считается качественной. Она используется для анализа и прогноза
объясняемой переменной. 

Несколько важных замечаний.
1. Необходимо предостеречь от абсолютизации полученного результата,
поскольку даже качественная модель является подгонкой спецификации
модели под имеющийся набор данных. Реальна картина, когда
исследователи, обладающие разными наборами данных, строят разные
модели для объяснения одной и той же переменной.
2. Проблематичным является и использование модели для прогнозирования
значений объясняемой переменной. Иногда хорошие с точки зрения
диагностических тестов модели обладают весьма низкими прогнозными
качествами.
3. Достаточно спорным является вопрос, как строить модели:
 а) начинать с
самой простой и постоянно усложнять ее;
 б) начинать с максимально
сложной модели и упрощать ее на основе
проводимых исследований.
 Оба подхода имеют как достоинства, так и
недостатки. Например, если следовать схеме а), то происходит обыкновенная
подгонка модели под эмпирические данные. При теоретически более
оправданном подходе б) поиск возможных направлений совершенствования
модели зачастую сводится к полному перебору, что делает проводимый
анализ неэффективным. На этапах упрощения модели возможно также
отбрасыва- ние объясняющих переменных, которые были бы весьма полезны
в упрощенной модели.
Вывод: построение модели является индивидуальным в каждой конкретной
ситуации и опирается на серьезные знания экономической теории и
статистического анализа.

20. Суть гетероскедастичности.


Одной из ключевых предпосылок МНК является условие постоянства
дисперсий случайных отклонений: дисперсия случайных

отклонений постоянна. для любых наблюдений i иj.


Выполнимость данной предпосылки называется гомоскедастичностъю
(постоянством дисперсии отклонений). Невыполнимость данной
предпосылки называется гетероскедастичностъю (непостоянством
дисперсий отклонений).
Наличие гетероскедастичности можно наглядно видеть из поля корреляции
(рис. 1).

а б
в
Рис. 1 Примеры гетероскедастичности.
На рис. 1 изображено: а – дисперсия остатков растет по мере увеличения ;
б – дисперсия остатков достигает максимальной величины при средних
значениях переменной и уменьшается при минимальных и максимальных
значениях ; в – максимальная дисперсия остатков при малых значениях и
дисперсия остатков однородна по мере увеличения значений .

21. Последствия гетероскедастичности.


Последствия гетероскедастичности:
– Оценки коэффициентов по-прежнему останутся несмещёнными и
линейными.
– Оценки не будут эффективными (т. е, они не будут иметь наименьшую
дисперсию по сравнению с другими оценками данного параметра), Они не
будут даже асимптотически эффективными. Увеличение дисперсии оценок
снижает вероятность получения максимально точных оценок.
– Дисперсии оценок будут рассчитываться со смещением.
Поэтому выводы, получаемые на основе соответствующих t- и F- статистик, а
также интервальные оценки коэффициентов регрессии будут ненадежными.
Следовательно, статистические выводы, могут быть ошибочными и
приводить к неверным заключениям по построенной модели.

22. Обнаружение гетероскедастичности.


Обнаружение гетероскедастичности в каждом конкретном случае является
сложной задачей. Для знания дисперсий отклонений необходимо знать
распределение случайной величины Y, соответствующее выбранному
значению 𝑥𝑖. Практически, для каждого конкретного значения 𝑥𝑖
определяется единственное значение 𝑦𝑖 , что не позволяет оценить
дисперсию случайной величины Y. Поэтому, не существует какого-либо
однозначного метода определения гетероскедастичности.
Наиболее популярным является тест Голдфелда-Квандта.
Данный тест используется для проверки следующего типа
гетероскедастичности: когда среднее квадратическое отклонение случайной
составляющей пропорционально значению признака-фактора в
-м наблюдении. При этом делается предположение, что случайная
составляющая распределена нормально.
Алгоритм-тест Голдфелда-Квандта приведен ниже.
Все наблюдения ; упорядочиваются по значению .
Оценивается регрессия: для
первых наблюдений.
Оценивается регрессия: для
последних наблюдений .
Рассчитывают суммы квадратов отклонений фактических значений признака-
результата от его расчетных значений для обеих регрессий:

и .
Находят отношение сумм квадратов отклонений: (или ). В
числителе должна быть наибольшая из сумм квадратов отклонений. Данное
отношение имеет распределение со степенями
свободы: и , где - число оцениваемых параметров в
уравнении регрессии.

Если , то гетероскедастичность имеет место.


Если в модели более одного фактора, то наблюдения должны
упорядочиваться по тому фактору, который, как предполагается, теснее
связан с , и должно быть больше, чем .

23. Методы смягчения проблемы гетероскедастичности.

При наличии гетероскедастичности и величина Ki может


меняться от одного значения фактора к другому. При наличии
гетороскедастичности вместо обычного МНК используют обобщенный МНК
(взвешенный). Суть метода заключается в уменьшении вклада данных
наблюдений, имеющих большую дисперсию в результате расчета.

1 случай. Если дисперсии возмущений известны , то


гетероскедастичность легко устраняется. Вводят новые

переменные: ; ; , . Регрессионная
модель в векторной форме

(*) /:
, .

При этом , т.е. модель


гомоскедастична.

2 случай. Если дисперсии возмущений неизвестны, то делают


реалистические предположения о значениях .
Например:

а) дисперсии пропорциональны xi: . Уравнение регрессии (*)


делят

- на - в случае одной переменной; - на - в случае множественной


регрессии.

б) дисперсии пропорциональны , т.е.

,
Уравнение регрессии (*) делят на хi.

24. Временные ряды. Основные составляющие временного ряда.

Временной ряд– это набор чисел, привязанный к последовательным, обычно


равноотстоящим моментам времени. Числа, составляющие временной ряд и
получающиеся в результате наблюдения за ходом некоторого процесса,
называютсяуровнямивременного ряда илиэлементами.Под длиной
временного ряда понимают количество входящих в него уровнейn.
Временной ряд обычно обозначаютY(t), или Yt, гдеt=1,2,…,n.
В общем случае каждый уровень временного можно представить как
функцию четырех компонент: f(t), S(t), U(t), E(t) , отражающих
закономерность и случайность развития.
Где f(t) – тренд (долговременная тенденция) развития;S(t) – сезонная
компонента;U(t) –циклическая компонента; E(t)– остаточная компонента.
В модели временного ряда принято выделять две основные составляющие:
детерминированную (систематическую) и случайную. Под
детерминированной составляющей временного ряда y1,y2 …yn понимают
числовую последовательность, элементы которой вычисляются по
определенному правилу как функция времениt. Исключив
детерминированную составляющую из данных, мы получим колеблющийся
вокруг нуля ряд, который может в одном предельном случае представлять
случайные скачки, а в другом – плавное колебательное движение.
В анализе случайного компонента экономических временных рядов важную
роль играет сравнение случайной величины Et c хорошо изученной формой
случайных процессов - стационарными случайными процессами.
Стационарным процессомв узком смысле называется такой слу­чайный
процесс, вероятностные свойства которого с течением вре­мени не
изменяются. Он протекает в приблизительно одно­родных условиях и имеет
вид непрерывных случайных колебаний вокруг некоторого среднего
значения. Причем ни средняя ампли­туда, ни его частота не обнаруживают с
течением времени суще­ственных изменений.
Однако на практике чаще встречаются процессы, вероятностные
характеристики которых подчиняются определенным закономерно­стям и не
являются постоянными величинами. Поэтому в прикладном
эконометрическом анализе используется понятие слабой стационарности
(или стационарности в широком смысле), которое предполагает
неизменность во времени среднего значения, дисперсии и ковариации
временного ряда. Случайный процесс называется стационарным в широком
смысле, если его математическое ожидание постоянно и
авто­корреляционная функция r(t) зависит только от длины временного
интервала t.
В зависимости от вида связи между этими компонентами может быть
построена либо аддитивная модель:
Y(t) =f(t)+ S(t)+U(t)+E(t);
либо мультипликативная модель:
Y(t) =f(t) S(t) U(t)+e (t)
временного ряда.
В процессе формирования значений временных рядов не всегда участвуют
все четыре компоненты. Однако во всех случаях предполагается наличие
случайной составляющей.
Основная цель статистического анализа временных рядов – изучение
соотношения между закономерностью и случайностью в формировании
значений уровней ряда, оценка количественной меры их влияния.
Закономерности, объясняющие динамику показателя в прошлом,
используются для прогнозирования его значений в будущем, а учет
случайности позволяет определить вероятность отклонения от
закономерного развития и его возможную величину.
25.Методы сглаживания временного ряда.
Для выявления основной тенденции в уровнях ряда используются различные
методы; – методы механического выравнивания; – метод аналитического
выравнивания.
Метод механического выравнивания (сглаживания) временного ряда - метод
скользящих средних. Основан на переходе от начальных значений членов
ряда к их средним значениям на интервале времени, длина которого
определена заранее. При этом сам выбранный интервал времени «скользит»
вдоль ряда. Анализ временных рядов методом скользящей средней обычно
используется в краткосрочном планировании.
В эконометрике основное внимание уделяется методу аналитического
выравнивания, т.е. построению уравнения регрессии, характеризующей
зависимость уровней ряда от временной переменной f(t).
1). Вначале необходимо выбрать вид функции выравнивания f(t): линейная,
полиномиальная, экспоненциальная. При выборе вида функции тренда
можно воспользоваться методом конечных разностей.
a). Конечными разностями первого порядка являются разности между
последовательными уровнями ряда: Δ1t=𝑦𝑡−𝑦𝑡−1, 𝑡=2,…,𝑛 .
б). Конечными разностями второго порядка: Δ2t=Δ1t−Δ1𝑡−1= (𝑦𝑡−𝑦𝑡−1) –
(𝑦𝑡−1−𝑦𝑡−2 )=𝑦𝑡−2𝑦𝑡−1+𝑦𝑡−2, (t = 3, …, n).
в). Конечными разностями j-го порядка: Δj𝑡=Δ𝑗−1t−Δ𝑗−1t-1, 𝑡=𝑗+1,…,𝑛 .
2). Если общая тенденция выражается линейным уравнением 𝑓 (𝑡) =𝑎+𝑏𝑡, то
конечные разности первого порядка постоянны Δ12=Δ13=⋯=Δ1n, а разности
второго порядка равны нулю.
3). Если общая тенденция выражается параболой второго порядка 𝑓 (𝑡)
=𝑎+𝑏𝑡+𝑐𝑡2, то постоянными являются конечные разности второго порядка Δ23
=Δ24=⋯=Δ2n, а нулевыми - разности третьего порядка.
4). Порядок конечных разностей j, остающихся примерно равными друг
другу, принимается за степень выравнивающего многочлена:
Для расчета параметров уравнения тренда чаще всего используется метод
наименьших квадратов.
26. Анализ аддитивной составляющей временного ряда.
1). Рассмотрим расчет значений сезонной компоненты и построение
аддитивной модели временного ряда на примере моделирования сезонных
колебаний, учитывая, что циклические колебания моделируются аналогично
Строится график зависимости 𝑦=𝑓(𝑡). По графику колебаний значений ряда
можно приблизительно установить тип используемой модели. В случае,
когда амплитуда сезонных колебаний со временем не меняется, применяют
аддитивную модель: X = T + S + ε, где Т — трендовая, S — сезонная, а ε -
случайная компоненты.

Пусть имеется временной ряд Хij, где i - номер сезона (периода внутри года,
например месяца, квартала; i = l,...,L; L - число сезонов в году); j - номер года,
j = 1, …, m, m - всего лет. Тогда количество исходных уровней ряда равно Lm
= n.
2). Построение модели начинается с расчета сезонной компоненты. Только
потом рассчитывается трендовая компонента. В качестве сезонной
компоненты для аддитивной модели применяют абсолютное отклонение -
Sai,
– в случае аддитивной модели сумма всех сезонных компонент должна быть
равна нулю;
Перед расчетом сезонных компонент временной ряд выравнивают. Чаще
всего используют механическое выравнивание. В результате применения
скользящей средней получают выровненный ряд 𝐗𝑖𝑗в, который не содержит
сезонной компоненты. Абсолютное отклонение в i-м сезоне определяется как
среднее арифметическое из отклонений фактического и выровненного
уровней ряда: . Индекс сезонности в i-м сезоне определяется
как среднее арифметическое из отношений фактического уровня ряда к

выровненному:
При построении трендовой компоненты модели временного ряда используют
аналитическое выравнивание. Данный метод выравнивания применяют не к
фактическому ряду динамики, а к ряду, в котором исключена сезонная
компонента. Это означает, что исходные уровни ряда корректируются на
величину сезонной компоненты. В случае аддитивной модели из исходных
уровней вычитают Sai

27.Анализ мультипликативной составляющей временного ряда.


Рассмотрим расчет значений сезонной компоненты и построение аддитивной
или мультипликативной модели временного ряда на примере моделирования
сезонных колебаний, учитывая, что циклические колебания моделируются
аналогично
Строится график зависимости 𝑦=𝑓(𝑡). По графику колебаний значений ряда
можно приблизительно установить тип используемой модели. В случае,
когда амплитуда сезонных колебаний со временем сезонных колебаний
возрастает, применяют мультипликативную модель X = T·S·ε.
где Т — трендовая, S — сезонная, а ε - случайная компоненты.

Пусть имеется временной ряд Хij, где i - номер сезона (периода внутри года,
например месяца, квартала; i = l,...,L; L - число сезонов в году); j - номер года,
j = 1, …, m, m - всего лет. Тогда количество исходных уровней ряда равно Lm
= n.
2). Построение модели начинается с расчета сезонной компоненты. Только
потом рассчитывается трендовая компонента. В качестве сезонной
компоненты для мультипликативной модели - индекс сезонности Isi.
–– в случае мультипликативной модели произведение всех сезонных
компонент должно быть равно единице.
Перед расчетом сезонных компонент временной ряд выравнивают. Чаще
всего используют механическое выравнивание. В результате применения
скользящей средней получают выровненный ряд 𝐗𝑖𝑗в, который не содержит
сезонной компоненты. Абсолютное отклонение в i-м сезоне определяется как
среднее арифметическое из отклонений фактического и выровненного
уровней ряда: . Индекс сезонности в i-м сезоне определяется
как среднее арифметическое из отношений фактического уровня ряда к

выровненному:
При построении трендовой компоненты модели временного ряда используют
аналитическое выравнивание. Данный метод выравнивания применяют не к
фактическому ряду динамики, а к ряду, в котором исключена сезонная
компонента. Это означает, что исходные уровни ряда корректируются на
величину сезонной компоненты. В случае мультипликативной модели
исходные уровни ряда делят на Isi.
28.Суть и причины автокорреляции.
Автокорреляция — корреляционная зависимость между текущими
уровнями некоторой переменной и уровнями этой же переменной,
сдвинутыми на несколько периодов времени назад.
Среди основных причин, вызывающих появление автокорреляции, можно
выделить ошибки спецификации, инерцию в изменении экономических
показателей, эффект паутины, сглаживание данных.
Положительная автокорреляция означает постоянное в одном направлении
действие неучтенных факторов на результат. Отрицательная автокорреляция
означает разнонаправленное действие неучтенных в модели факторов на
результат, что приводит к отрицательной корреляции между
последовательными значениями случайной составляющей. То есть за
положительными значениями случайной составляющей 𝜀𝑖 в одном
наблюдении следуют отрицательные значения 𝜀𝑗 и в следующем, и наоборот.
Отрицательная автокорреляция в экономике встречается относительно редко.
29.Последствия автокорреляции.
Последствия автокорреляции в определенной степени сходны с
последствиями гетероскедастичности. Среди них при применении МНК
выделяют следующие. 1. Оценки параметров, оставаясь несмещенными и
линейными, перестают быть эффективными. Поэтому, они перестают
обладать свойствами наилучших линейных несмещенных оценок. 2.
Дисперсии оценок коэффициентов являются смещенными. Дисперсии часто,
являются заниженными, что влечет за собой увеличение t-статистик. 3.
Оценка дисперсии регрессии S2 является смещенной оценкой истинного
значения σ2, во многих случаях занижая его. 4. Выводы по t- и F-
статистикам, определяющим значимость коэффициентов регрессии
уравнения и коэффициента детерминации R2, возможно, будут неверными.
Вследствие этого ухудшаются прогнозные качества модели.
30.Обнаружение автокорреляции.
Автокорреляция — корреляционная зависимость между текущими уровнями
некоторой переменной и уровнями этой же переменной, сдвинутыми на
несколько периодов времени назад. Автокорреляция случайной составляющей
ε — корреляционная зависимость текущих 𝜀𝑖 и предыдущих и 𝜀𝑖−𝐿 значений
случайной составляющей. Величина L называется запаздыванием, сдвигом во
времени или лагом. Лаг определяет порядок автокорреляции. Автокорреляция
случайной составляющей нарушает 3-ю предпосылку нормальной линейной
модели регрессии: случайные отклонения 𝜀𝑖 и 𝜀𝑗 (i ≠ j) не коррелируют
(отсутствует автокорреляция): 𝑀 𝜀𝑖 , 𝜀𝑗 = 0, 𝑖 ≠ 𝑗 .Обычно автокорреляция
встречается при использовании данных временных рядов. Допустим, что
случайная составляющая обусловлена только невключением в модель
объясняющих переменных. Тогда, если значение 𝜀𝑖 в i-м наблюдении должно
быть независимым от его значения в предыдущем (i - L)-oм наблюдении 𝜀𝑖−𝐿 ,
то и значение любой факторной переменной, «скрытой» в ε, должно быть
некоррелированным с ее значением в предыдущем наблюдении. Среди
основных причин, вызывающих появление автокорреляции, можно выделить
ошибки спецификации, инерцию в изменении экономических показателей,
эффект паутины, сглаживание данных. Автокорреляция может быть как
положительной, так и отрицательной. Положительная автокорреляция
означает постоянное в одном направлении действие неучтенных факторов на
результат. Отрицательная автокорреляция означает разнонаправленное
действие неучтенных в модели факторов на результат, что приводит к
отрицательной корреляции между последовательными значениями случайной
составляющей. Выводы по t- и F-статистикам, определяющим значимость
коэффициентов регрессии уравнения и коэффициента детерминации R 2 ,
возможно, будут неверными. Вследствие этого ухудшаются прогнозные
качества модели.
31.Методы устранения автокорреляции.
Чаще всего автокорреляция вызывается неправильной спецификацией
модели, поэтому необходимо прежде всего скорректировать саму модель.
Если все разумные процедуры изменения спецификации модели исчерпаны, а
автокорреляция имеет место, то можно предположить, что она обусловлена
какими-то внутренними свойствами ряда остатков {еt}. В этом случае можно
воспользоваться авторегрессионным преобразованием. Обычно наиболее
целесообразным и простым преобразованием является авторегрессионная
схема первого порядка AR(1). Рассмотрим модель парной линейной регрессии
𝑌 = 𝛽0 + 𝛽1𝑋 + 𝜀. (4.5) Тогда наблюдениям t; и (t - 1) соответствуют формулы:
𝑦𝑡 = 𝛽0 + 𝛽1 𝑥𝑡 + 𝑒𝑡 , (4.6) и 𝑦𝑡−1 = 𝛽0 + 𝛽1 𝑥𝑡−1 + 𝑒𝑡−1 . (4.7) Пусть
случайные отклонения подвержены воздействию авторегрессии первого
порядка 𝜀𝑡 = 𝜌𝜀𝑡−1 + 𝑣𝑡 , где 𝑣𝑡 -случайные отклонения, удовлетворяющие
всем предпосылкам МНК, а коэффициент 𝜌 известен. Вычтем из (4.6)
соотношение (4.7), умноженное на 𝜌: 𝑦𝑡 ∗ = 𝛽0 ∗ + 𝛽1 𝑥𝑡 ∗ + 𝑣𝑡 , (4.8) где: 𝑦𝑡 ∗
= 𝑦𝑡 − 𝜌𝑦𝑡−1 ; 𝑥𝑡 ∗ = 𝑥𝑡 − 𝜌𝑥𝑡−1 ; 𝛽0 ∗ = 𝛽0 ∗ (1 − 𝜌). Так как по
предположению коэффициент 𝜌 известен, то очевидно, 𝑦𝑡 ∗ , 𝑥𝑡 ∗ , 𝛽0 ∗ , 𝑣𝑡
вычисляются достаточно просто. В силу того, что случайные отклонения 𝑣𝑡
удовлетворяют предпосылкам МНК, оценки 𝛽0 ∗ и 𝛽1 будут обладать
свойствами наилучших линейных несмещенных оценок. На практике
значение коэффициента 𝜌 обычно неизвестно и его необходимо оценивать.
32.Фиктивные переменные в уравнении регрессии.
Термин “фиктивные переменные” используется как противоположность
“значащим” переменным, показывающим уровень количественного
показателя, принимающего значения из непрерывного интервала. Как
правило, фиктивная переменная — это индикаторная переменная,
отражающая качественную характеристику. Чаще всего применяются
бинарные фиктивные переменные, принимающие два значения, 0 и 1, в
зависимости от определенного условия. Например, в результате опроса
группы людей 1 может означать, что опрашиваемый — мужчина, а 0 —
женщина. К фиктивным переменным иногда относят регрессор, состоящий из
одних единиц, а также временной тренд. Фиктивные переменные, будучи
экзогенными, не создают каких-либо трудностей при применении МНК.
Фиктивные переменные являются эффективным инструментом построения
регрессионных моделей и проверки гипотез. В общем случае, когда
качественный признак имеет более двух значений, вводится несколько
бинарных переменных. При использовании нескольких бинарных переменных
необходимо исключить линейную зависимость между переменными, так как в
противном случае, при оценке параметров, это приведет к совершенной
мультиколлинеарности. Поэтому применяется следующее правило: если
качественная переменная имеет k альтернативных значений, то при
моделировании используются только k -1 фиктивная переменная. В
регрессионных моделях применяются фиктивные переменные двух типов:
переменные сдвига и переменные наклона.
33. Фиктивные переменные сдвига. Пример.
Фиктивная переменная – это качественная переменная, принимающая
значения 0 и 1, включаемая в эконометрическую модель для учёта влияния
качественных признаков и событий на объясняемую переменную. При этом
фиктивные переменные позволяют учесть влияние не только качественных
признаков, принимающих два значения, но и несколько возможных. В этом
случае добавляются несколько фиктивных переменных.
Фиктивная переменная сдвига – это фиктивная переменная, которая
меняет точку пересечения линии регрессии с осью ординат в случае
применения качественной переменной.
К примеру, если рассматривается модель затрат на обучение в зависимости
от количества учащихся и типа школы: общеобразовательной и
специализированной.
0 − общеобразовательная
𝑑𝑖 = {
1 − специализированная
В таком случае спецификационную модель можно записать как:
yi=b0+b1xi+b2di+ei, где x – непрерывная переменная (количество учащихся), а
d – фиктивная (тип школы). В таком случае у нас получится уравнение
регрессии, из которого получается две отдельные модели (путем присвоения
переменной d значений 1 и 0):
yi=b0+b1xi+ei – для обычных школ
yi=(b0+b2)+b1xi+ei – для специализированных школ.
Таким образом, в зависимости от типа школы график моделей сместиться
вверх или вниз относительно оси ординат.
34. Фиктивные переменные наклона. Пример.
Фиктивная переменная – это качественная переменная, принимающая
значения 0 и 1, включаемая в эконометрическую модель для учёта влияния
качественных признаков и событий на объясняемую переменную. При этом
фиктивные переменные позволяют учесть влияние не только качественных
признаков, принимающих два значения, но и несколько возможных. В этом
случае добавляются несколько фиктивных переменных.
Фиктивная переменная наклона – это фиктивная переменная, которая
изменяет наклон линии регрессии в случае использования качественной
переменной. Фиктивные переменные сдвига оказываются полезными при
моделировании процессов, в которых при достижении некоторого
определенного значения количественной переменной (например, времени)
изменяется угол наклона прямой.
К примеру, приобретение дополнительного электроприбора изменяет
интенсивность потребления электроэнергии, но не скачкообразно, а
непрерыво. Предположим, что электроприбор был приобретен в третий год
измерений, тогда необходимо ввести фиктивную переменную d и
перекрестную (фиктивную наклона) q=d*t.
0 − если 𝑡 < 2
𝑑𝑖 = {
1 − если 𝑡 ≥ 2
Тогда спецификационную модель можно записать в виде:
yi=b0+b1ti+b2di+b3q+ei. Соответственно, график такой модели будет выглядеть
следующим образом: дорисовать график, где прямая от 0 до 2 идет под углом
вверх, а с 2 и дальше под более крутым углом вверх.

35. Какие существуют способы построения одновременных систем


уравнений? Чем они отличаются друг от друга?
В различных классах систем эконометрических уравнений структура
матрицы коэффициентов при зависимых переменных различна. Система
эконометрических уравнений в матричном виде: BY+AX=E, где: В – матрица
коэффициентов при зависимых переменных; Y – вектор зависимых
переменных; A – матрица коэффициентов при объясняющих переменных; X-
вектор объясняющих переменных; Е – вектор ошибок.
В том случае, если матрица В диагональная, то рассматриваемая модель
является системой независимых уравнений:

В том случае, если матрица В треугольная (или может быть приведена к


такому виду), то модель представляет собой систему рекурсивных
уравнений:

В том случае, если матрица В не является ни диагональной, ни треугольной,


то модель представляет собой систему взаимозависимых одновременных
уравнений:

36. Как связаны друг с другом структурная и приведенная формы


модели?
Структурная форма – это та модель, при которой одни и те же зависимые
переменные в одних уравнениях входят в левую часть, а в других уравнениях
в правую часть системы:

Структурная форма модели позволяет увидеть влияние изменений любой


экзогенной переменной на значения эндогенной переменной. Следует в
качестве экзогенных переменных выбирать такие переменные, которые могут
быть объектом регулирования. Меняя их и управляя ими, можно заранее
иметь целевые значения эндогенных переменных. Структурная форма
содержит структурные коэффициенты модели. Использование МНК для
оценивания структурных коэффициентов дает смещенные и несостоятельные
оценки. Поэтому обычно для определения структурных коэффициентов
структурная форма модели преобразуется в приведенную форму модели.
Приведенной формой модели называется система уравнений, в каждом из
которых эндогенные переменные выражены только через экзогенные
переменные и случайные отклонения:
37. В чем состоит проблема идентификации модели?
Нахождение коэффициентов структурной формы модели после численного
нахождения коэффициентов приведенной формы модели не всегда
однозначно. При переходе от приведенной формы модели к структурной
возникает проблема идентификации модели.
Все типы структурных моделей можно подразделить на три вида: 1)
Идентифицируемые (если все структурные коэффициенты однозначно
определяются по коэффициентам приведенной формы модели, D = H – 1); 2)
Неидентифицируемые (если число приведенных коэффициентов меньше
числа структурных коэффициентов, D < H - 1); 3) Сверхидентифицируемые
(если число приведенных коэффициентов больше числа структурных
коэффициентов, D > H - 1).
Структурное уравнение является идентифицируемым, если
идентифицируемы все его коэффициенты. Если хотя бы один из них
неидентифицируем, то и все уравнение является неидентифицируемым.
Структурная модель является идентифицируемой, если каждое ее уравнение
идентифицируемо. Если хотя бы одно из уравнений системы
неидентифицируемо, то и вся модель является неидентифицируемой.
38. Необходимое и достаточное условия идентификации модели.
Пусть H - число эндогенных переменных в данном уравнении (𝑦𝑘); D - число
экзогенных переменных (𝑥𝑙), отсутствующих в этом уравнении, но
присутствующих в системе уравнений.
Если: D = H – 1, уравнение точно индефицировано; D > H - 1 уравнение
сверхидентифицируемо; D < H - 1 уравнение неидентифицируемо. Данное
условие является необходимым. Если необходимое условие выполнено, то
проверяется достаточное условие идентифицируемости.
Какое-либо структурное уравнение является идентифицируемым, если
идентифицируемы все его коэффициенты. Если хотя бы один структурный
коэффициент неидентифицируем, то и все уравнение является
неидентифицируемым.
Достаточное условие: Если определитель матрицы, составленной из
коэффициентов при переменных, отсутствующих в рассматриваемом
структурном уравнении, не равен нулю и ранг этой матрицы не меньше числа
эндогенных переменных системы без единицы (n-1, где n – общее число
эндогенных переменных в системе уравнений), то это уравнение
идентифицируемо.
39. В чем суть косвенного метода наименьших квадратов?
В системе одновременных уравнений каждое уравнение не может
рассматриваться как самостоятельная часть системы, поэтому оценки
неизвестных коэффициентов данных уравнений нельзя определить с
помощью классического метода наименьших квадратов, т. к. нарушаются
условия применения этого метода.
Косвенный метод наименьших квадратов используется для получения оценок
неизвестных коэффициентов системы одновременных уравнений,
удовлетворяющих свойствам эффективности, несмещенности и
состоятельности.
Алгоритм метода наименьших квадратов реализуется в три этапа:
1) на основе структурной формы системы одновременных уравнений
составляется её приведённая форма, все параметры которой выражены через
структурные коэффициенты;
2) приведённые коэффициенты каждого уравнения оцениваются обычным
методом наименьших квадратов;
3) на основе оценок приведённых коэффициентов системы одновременных
уравнений определяются оценки структурных коэффициентов через
приведённые уравнения.
40. Каково содержание двухшагового метода наименьших квадратов?
Уравнение называется сверхидентифицированным, если по оценкам
коэффициентов приведённой формы системы одновременных уравнений
можно получить более одного значения для коэффициентов структурной
формы системы одновременных уравнений.
Оценки неизвестных параметров сверхидентифицированного уравнения
нельзя рассчитать традиционным и косвенным методом наименьших
квадратов. В данном случае для определения неизвестных оценок
используется двухшаговый метод наименьших квадратов.
Алгоритм двухшагового метода наименьших квадратов реализуется в четыре
этапа:
1) на основе структурной формы системы одновременных уравнений
составляется её приведённая форма;
2) оценки неизвестных коэффициентов приведённой формы системы
одновременных уравнений рассчитываются с помощью традиционного
метода наименьших квадратов;
3) рассчитываются значения эндогенных переменных, выступающих в
качестве факторных в сверхидентифицированном уравнении;
4) все структурные коэффициенты уравнений системы рассчитываются
традиционным методом наименьших квадратов через предопределённые
переменные, входящие в это уравнение в качестве факторов, и значения
эндогенных переменных, полученных на предыдущем шаге.
41. Временные ряды. Основные составляющие временного ряда.
Временной ряд (динамический ряд) - последовательность наблюдений
некоторого признака (случайной величины) Y в последовательные моменты
времени. Отдельные наблюдения называются уровнями ряда yt. В общем
виде при исследовании временного ряда yt выделяются следующие
составляющие: 𝑦𝑡=𝑢𝑡+𝜐𝑡+𝑐𝑡+𝜀𝑡, (𝑡=1,2,…,𝑛) , где 𝑢𝑡 — тренд, плавно
меняющаяся компонента, описывающая чистое влияние долговременных
факторов, т. е. длительную тенденцию изменения признака;
𝜐𝑡 — сезонная компонента, отражающая повторяемость экономических
процессов в течение не очень длительного периода (года, иногда месяца,
недели);
𝑐𝑡 — циклическая компонента, отражающая повторяемость экономических
процессов в течение длительных периодов;
𝜀𝑡 — случайная компонента, отражающая влияние не поддающихся учету и
регистрации случайных факторов.
42. Методы сглаживания временного ряда.
Для выявления основной тенденции в уровнях ряда используются различные
методы; – методы механического выравнивания; – метод аналитического
выравнивания.
Метод механического выравнивания (сглаживания) временного ряда - метод
скользящих средних. Основан на переходе от начальных значений членов
ряда к их средним значениям на интервале времени, длина которого
определена заранее. При этом сам выбранный интервал времени «скользит»
вдоль ряда. Анализ временных рядов методом скользящей средней обычно
используется в краткосрочном планировании.
В эконометрике основное внимание уделяется методу аналитического
выравнивания, т.е. построению уравнения регрессии, характеризующей
зависимость уровней ряда от временной переменной f(t).
1). Вначале необходимо выбрать вид функции выравнивания f(t): линейная,
полиномиальная, экспоненциальная. При выборе вида функции тренда
можно воспользоваться методом конечных разностей. a). Конечными
разностями первого порядка являются разности между последовательными
уровнями ряда: Δ1t=𝑦𝑡−𝑦𝑡−1, 𝑡=2,…,𝑛 . б). Конечными разностями второго
порядка: Δ2t=Δ1t−Δ1𝑡−1= (𝑦𝑡−𝑦𝑡−1) – (𝑦𝑡−1−𝑦𝑡−2 )=𝑦𝑡−2𝑦𝑡−1+𝑦𝑡−2, (t = 3, …, n). в).
Конечными разностями j-го порядка: Δj𝑡=Δ𝑗−1t−Δ𝑗−1t-1, 𝑡=𝑗+1,…,𝑛 . 2). Если
общая тенденция выражается линейным уравнением 𝑓 (𝑡) =𝑎+𝑏𝑡, то конечные
разности первого порядка постоянны Δ12=Δ13=⋯=Δ1n, а разности второго
порядка равны нулю. 3). Если общая тенденция выражается параболой
второго порядка 𝑓 (𝑡) =𝑎+𝑏𝑡+𝑐𝑡2, то постоянными являются конечные
разности второго порядка Δ23 =Δ24=⋯=Δ2n, а нулевыми - разности третьего
порядка. 4). Порядок конечных разностей j, остающихся примерно равными
друг другу, принимается за степень выравнивающего многочлена:
Для расчета параметров уравнения тренда чаще всего
используется метод наименьших квадратов.

43. Классическая линейная регрессионная модель.


Если функция регрессии линейна: M(Y│x) = 𝛽0+𝛽1𝑥, то регрессия
называется линейной. Теоретическая модель парной линейной регрессии
(зависимость между переменными в генеральной совокупности) имеет вид:
𝑌=𝛽0+𝛽1𝑋+𝜀, где Х рассматривается как неслучайная переменная, а Y и ε
как случайные величины; 𝛽0 и 𝛽1 - теоретические коэффициенты
(параметры) регрессии. Индивидуальные значения yi выражаются: yi = 𝑏0 +
𝑏1 xi + ε. Для определения 𝛽0 и β необходимо знать и использовать все
значения переменных Х и Y генеральной совокупности, что практически
невозможно. Методами регрессионного анализа возможно лишь получить их
оценки на основании выборочных (экспериментальных) данных: b0 → 𝛽0 и
b1→𝛽1.
44. Анализ аддитивной составляющей временного ряда.
1). Рассмотрим расчет значений сезонной компоненты и построение
аддитивной или мультипликативной модели временного ряда на примере
моделирования сезонных колебаний, учитывая, что циклические колебания
моделируются аналогично
Строится график зависимости 𝑦=𝑓(𝑡). По графику колебаний значений ряда
можно приблизительно установить тип используемой модели. В случае,
когда амплитуда сезонных колебаний со временем не меняется, применяют
аддитивную модель: X = T + S + ε, где Т — трендовая, S — сезонная, а ε -
случайная компоненты. В противном случае, когда амплитуда сезонных
колебаний возрастает, используют мультипликативную модель: X = T·S·ε.

Пусть имеется временной ряд Хij, где i - номер сезона (периода внутри года,
например месяца, квартала; i = l,...,L; L - число сезонов в году); j - номер года,
j = 1, …, m, m - всего лет. Тогда количество исходных уровней ряда равно Lm
= n.
2). Построение модели начинается с расчета сезонной компоненты. Только
потом рассчитывается трендовая компонента. В качестве сезонной
компоненты для аддитивной модели применяют абсолютное отклонение -
Sai, для мультипликативной модели - индекс сезонности Isi.
– в случае аддитивной модели сумма всех сезонных компонент должна быть
равна нулю; – в случае мультипликативной модели произведение всех
сезонных компонент должно быть равно единице.
Перед расчетом сезонных компонент временной ряд выравнивают. Чаще
всего используют механическое выравнивание. В результате применения
скользящей средней получают выровненный ряд 𝐗𝑖𝑗в, который не содержит
сезонной компоненты. Абсолютное отклонение в i-м сезоне определяется как
среднее арифметическое из отклонений фактического и выровненного
уровней ряда: . Индекс сезонности в i-м сезоне определяется
как среднее арифметическое из отношений фактического уровня ряда к

выровненному:
При построении трендовой компоненты модели временного ряда используют
аналитическое выравнивание. Данный метод выравнивания применяют не к
фактическому ряду динамики, а к ряду, в котором исключена сезонная
компонента. Это означает, что исходные уровни ряда корректируются на
величину сезонной компоненты. В случае аддитивной модели из исходных
уровней вычитают Sai В случае мультипликативной модели исходные уровни
ряда делят на Isi.

45. Анализ мультипликативной составляющей временного ряда. (из


44)
46. Последствия автокорреляции в регрессионных моделях.
Последствия автокорреляции в определенной степени сходны с
последствиями гетероскедастичности. Среди них при применении МНК
выделяют следующие. 1. Оценки параметров, оставаясь несмещенными и
линейными, перестают быть эффективными. Поэтому, они перестают
обладать свойствами наилучших линейных несмещенных оценок. 2.
Дисперсии оценок коэффициентов являются смещенными. Дисперсии часто,
являются заниженными, что влечет за собой увеличение t-статистик. 3.
Оценка дисперсии регрессии S2 является смещенной оценкой истинного
значения σ2, во многих случаях занижая его. 4. Выводы по t- и F-
статистикам, определяющим значимость коэффициентов регрессии
уравнения и коэффициента детерминации R2, возможно, будут неверными.
Вследствие этого ухудшаются прогнозные качества модели.
47. Анализ точности определения оценок коэффициентов регрессии.

48. Суть и причины автокорреляции.


Автокорреляция — корреляционная зависимость между текущими
уровнями некоторой переменной и уровнями этой же переменной,
сдвинутыми на несколько периодов времени назад.
Среди основных причин, вызывающих появление автокорреляции, можно
выделить ошибки спецификации, инерцию в изменении экономических
показателей, эффект паутины, сглаживание данных.
Положительная автокорреляция означает постоянное в одном направлении
действие неучтенных факторов на результат. Отрицательная автокорреляция
означает разнонаправленное действие неучтенных в модели факторов на
результат, что приводит к отрицательной корреляции между
последовательными значениями случайной составляющей. То есть за
положительными значениями случайной составляющей 𝜀𝑖 в одном
наблюдении следуют отрицательные значения 𝜀𝑗 и в следующем, и наоборот.
Отрицательная автокорреляция в экономике встречается относительно редко.
49. Обнаружение автокорреляции в регрессионных моделях.

Автокорреляция — корреляционная зависимость между текущими уровнями


некоторой переменной и уровнями этой же переменной, сдвинутыми на
несколько периодов времени назад. Автокорреляция случайной составляющей
ε — корреляционная зависимость текущих 𝜀𝑖 и предыдущих и 𝜀𝑖−𝐿 значений
случайной составляющей. Величина L называется запаздыванием, сдвигом во
времени или лагом. Лаг определяет порядок автокорреляции. Автокорреляция
случайной составляющей нарушает 3-ю предпосылку нормальной линейной
модели регрессии: случайные отклонения 𝜀𝑖 и 𝜀𝑗 (i ≠ j) не коррелируют
(отсутствует автокорреляция): 𝑀 𝜀𝑖 , 𝜀𝑗 = 0, 𝑖 ≠ 𝑗 .Обычно автокорреляция
встречается при использовании данных временных рядов. Допустим, что
случайная составляющая обусловлена только невключением в модель
объясняющих переменных. Тогда, если значение 𝜀𝑖 в i-м наблюдении должно
быть независимым от его значения в предыдущем (i - L)-oм наблюдении 𝜀𝑖−𝐿 ,
то и значение любой факторной переменной, «скрытой» в ε, должно быть
некоррелированным с ее значением в предыдущем наблюдении. Среди
основных причин, вызывающих появление автокорреляции, можно выделить
ошибки спецификации, инерцию в изменении экономических показателей,
эффект паутины, сглаживание данных. Автокорреляция может быть как
положительной, так и отрицательной. Положительная автокорреляция
означает постоянное в одном направлении действие неучтенных факторов на
результат. Отрицательная автокорреляция означает разнонаправленное
действие неучтенных в модели факторов на результат, что приводит к
отрицательной корреляции между последовательными значениями случайной
составляющей. Выводы по t- и F-статистикам, определяющим значимость
коэффициентов регрессии уравнения и коэффициента детерминации R 2 ,
возможно, будут неверными. Вследствие этого ухудшаются прогнозные
качества модели.

50. Доверительные интервалы для зависимой переменной в


уравнении парной линейной регрессии. (15 баллов)
Базовой предпосылкой МНК является предположение о нормальном
распределении отклонений 𝜀𝑖 с нулевым математическим ожиданием и
постоянной дисперсией 𝜎 2 , которое является теоретически и практически
обоснованным: 𝜀𝑖~𝑁(0; 𝜎 2 ). Согласно модельному уравнению линейной
парной регрессии 𝑦𝑖 = 𝛽0 + 𝛽1 𝑥𝑖 + 𝜀𝑖 , коэффициенты 𝑏0 и 𝑏1 через 𝑦𝑖
являются линейными комбинациями 𝜀𝑖 . Следовательно, 𝑏0 и 𝑏1 также имеют
нормальное распределение: 𝑏1~𝑁(𝛽1 ; 𝑆𝑏1 2 ), 𝑏0~𝑁(𝛽0 ; 𝑆𝑏0 2 ). Тогда
случайные величины 𝑡𝑏1 = 𝑏1−𝛽1 𝑆𝑏1 и 𝑡𝑏0 = 𝑏0−𝛽0 𝑆𝑏0 (2.29) имеют
распределение Стьюдента с числом степеней свободы 𝜈 = 𝑛 − 2. По заданной
доверительной вероятности γ можно найти интервал: −𝑡кр < 𝑡 < 𝑡кр или 𝑡 <
𝑡кр внутри которого находятся значения 𝑡 с вероятностью γ: 𝑃(|𝑡| < 𝑡кр) = 𝛾.
Критическое значение 𝑡кр при доверительной вероятности 𝛾 = 1 − 𝛼 находятся
по таблицам двусторонних квантилей распределения Стьюдента 𝑡кр = 𝑡𝛼;𝑛−2 .
Таким образом: 𝑃(−𝑡кр < 𝑏1−𝛽1 𝑆𝑏1 < 𝑡кр) = 𝛾, 𝑃(−𝑡кр < 𝑏0−𝛽0 𝑆𝑏0 < 𝑡кр) = 𝛾
(2.31) После преобразований получим: 𝑃(𝑏1 − 𝑡кр𝑆𝑏1 < 𝛽1 < 𝑏1 + 𝑡кр𝑆𝑏1 ) = 𝛾,
𝑃(𝑏0 − 𝑡кр𝑆𝑏0 < 𝛽0 < 𝑏0 + 𝑡кр𝑆𝑏0 ) = 𝛾. Доверительные интервалы для
коэффициентов парной линейной регрессии с доверительной вероятностью 𝛾
= 1 − 𝛼 имеют вид: 𝑏1 − 𝑡кр𝑆𝑏1 < 𝛽1 < 𝑏1 + 𝑡кр𝑆𝑏1 , 𝑏0 − 𝑡кр𝑆𝑏0 < 𝛽0 < 𝑏0 +
𝑡кр𝑆𝑏0 .

51. Методы устранения автокорреляции в регрессионных моделях.


(15 баллов)

Чаще всего автокорреляция вызывается неправильной спецификацией


модели, поэтому необходимо прежде всего скорректировать саму модель.
Если все разумные процедуры изменения спецификации модели исчерпаны, а
автокорреляция имеет место, то можно предположить, что она обусловлена
какими-то внутренними свойствами ряда остатков {еt}. В этом случае можно
воспользоваться авторегрессионным преобразованием. Обычно наиболее
целесообразным и простым преобразованием является авторегрессионная
схема первого порядка AR(1). Рассмотрим модель парной линейной регрессии
𝑌 = 𝛽0 + 𝛽1𝑋 + 𝜀. (4.5) Тогда наблюдениям t; и (t - 1) соответствуют формулы:
𝑦𝑡 = 𝛽0 + 𝛽1 𝑥𝑡 + 𝑒𝑡 , (4.6) и 𝑦𝑡−1 = 𝛽0 + 𝛽1 𝑥𝑡−1 + 𝑒𝑡−1 . (4.7) Пусть
случайные отклонения подвержены воздействию авторегрессии первого
порядка 𝜀𝑡 = 𝜌𝜀𝑡−1 + 𝑣𝑡 , где 𝑣𝑡 -случайные отклонения, удовлетворяющие
всем предпосылкам МНК, а коэффициент 𝜌 известен. Вычтем из (4.6)
соотношение (4.7), умноженное на 𝜌: 𝑦𝑡 ∗ = 𝛽0 ∗ + 𝛽1 𝑥𝑡 ∗ + 𝑣𝑡 , (4.8) где: 𝑦𝑡 ∗
= 𝑦𝑡 − 𝜌𝑦𝑡−1 ; 𝑥𝑡 ∗ = 𝑥𝑡 − 𝜌𝑥𝑡−1 ; 𝛽0 ∗ = 𝛽0 ∗ (1 − 𝜌). Так как по
предположению коэффициент 𝜌 известен, то очевидно, 𝑦𝑡 ∗ , 𝑥𝑡 ∗ , 𝛽0 ∗ , 𝑣𝑡
вычисляются достаточно просто. В силу того, что случайные отклонения 𝑣𝑡
удовлетворяют предпосылкам МНК, оценки 𝛽0 ∗ и 𝛽1 будут обладать
свойствами наилучших линейных несмещенных оценок. На практике
значение коэффициента 𝜌 обычно неизвестно и его необходимо оценивать.

52. Проверка общего качества уравнения регрессии. (15 баллов)


Для такой проверки используется коэффициент детерминации R 2 , который в
общем случае рассчитывается по формуле: 𝑅 2 = (𝑦 𝑖−𝑦 ) 𝑛 2 𝑖=1 (𝑦𝑖−𝑦 ) 𝑛 2
𝑖=1 . (5.15) Величина R 2 является мерой объясняющего качества уравнения
регрессии по сравнению с горизонтальной линией y y  . 𝑄𝑦 = (𝑦𝑖 − 𝑦 ) 𝑛 2 𝑖=1
- полная сумма квадратов отклонений – мера разброса (рассеивания)
наблюдаемых значений объясняемой переменной y относительно ее среднего
значения y . 𝑄𝑅 = (𝑦 𝑖 − 𝑦 ) 𝑛 2 𝑖=1 - объясненная сумма квадратов отклонений
– мера разброса, объясненного уравнением регрессии. 𝑄𝑒 = 𝑒𝑖 2 = 𝑛 𝑖=1 (𝑦𝑖 − 𝑦
𝑖 ) 𝑛 2 𝑖=1 - остаточная (необъясненная) сумма квадратов отклонений – мера
разброса точек вокруг линии регрессии. Как было показано ранее (Лекция 1):
𝑄𝑦 = 𝑄𝑅 + 𝑄𝑒 (5.16) Следовательно: 𝑅 2 = 𝑄𝑅 𝑄𝑦 = 1 − 𝑄𝑒 𝑄𝑦 . (5.17)
Справедливо соотношение:0 ≤ 𝑅 2 ≤ 1. Чем ближе R 2 к 1, тем больше
уравнение регрессии объясняет поведение Y. В отличии от случая парной
регрессии, для множественной регрессии R 2 является неубывающей
функцией числа объясняющих переменных. Каждая следующая добавленная
объясняющая переменная может лишь дополнить информацию,
объясняющую поведение Y, и увеличить R 2 . Для множественной регрессии
используется скорректированный (исправленный) коэффициент
детерминации для получения несмещенных оценок: 𝑅 2 = 1 − 𝑄𝑒 /(𝑛−𝑚−1) 𝑄𝑦
/(𝑛−1) , (5.18) где: 𝑄𝑦 /(𝑛 − 1) - несмещенная оценка общей дисперсии. Число
ее степеней свободы равно (n – 1). 𝑄𝑒 /(𝑛 − 𝑚 − 1) - несмещенная оценка
остаточной дисперсии. Ее число степеней свободы равно (n – m – 1). Потеря
(m+1) степени свободы связана с необходимостью решения системы (m+1)
линейного уравнения при определении коэффициентов эмпирического
уравнения регрессии. Скорректированный (исправленный) коэффициент
детерминации 𝑅 2 можно представить в виде: 𝑅 2 = 1 − (1 − 𝑅 2 ) ∙ 𝑛−1 𝑛−𝑚−1
. (5.19) Видно, что 𝑅 2 < 𝑅 2 для m > 1. С увеличением числа объясняющих
переменных m скорректированный коэффициент детерминации 𝑅 2 растет
медленнее, чем 𝑅 2 ; он корректируется в сторону уменьшения с ростом числа
объясняющих переменных. Отметим: 1). 𝑅 2 = 𝑅 2 только при 𝑅 2 = 1
(функциональная зависимость). При полном отсутствии корреляции (𝑅 2 = 0)
скорректированный коэффициент детерминации может принимать
отрицательные значения. 2). 𝑅 2 увеличивается при добавлении новой
объясняющей переменной только тогда, когда t - статистика для этой
переменной по модулю больше единицы. Поэтому новые переменные можно
добавлять в модель до тех пор, пока растет 𝑅 2 . 3). 𝑅 2 рассматривается лишь
как один из ряда показателей, который нужно анализировать, чтобы уточнить
построенную модель регрессии.

53. Фиктивные переменные в уравнении регрессии. (15 баллов)

Термин “фиктивные переменные” используется как противоположность


“значащим” переменным, показывающим уровень количественного
показателя, принимающего значения из непрерывного интервала. Как
правило, фиктивная переменная — это индикаторная переменная,
отражающая качественную характеристику. Чаще всего применяются
бинарные фиктивные переменные, принимающие два значения, 0 и 1, в
зависимости от определенного условия. Например, в результате опроса
группы людей 1 может означать, что опрашиваемый — мужчина, а 0 —
женщина. К фиктивным переменным иногда относят регрессор, состоящий из
одних единиц, а также временной тренд. Фиктивные переменные, будучи
экзогенными, не создают каких-либо трудностей при применении МНК.
Фиктивные переменные являются эффективным инструментом построения
регрессионных моделей и проверки гипотез. В общем случае, когда
качественный признак имеет более двух значений, вводится несколько
бинарных переменных. При использовании нескольких бинарных переменных
необходимо исключить линейную зависимость между переменными, так как в
противном случае, при оценке параметров, это приведет к совершенной
мультиколлинеарности. Поэтому применяется следующее правило: если
качественная переменная имеет k альтернативных значений, то при
моделировании используются только k -1 фиктивная переменная. В
регрессионных моделях применяются фиктивные переменные двух типов:
переменные сдвига и переменные наклона.

54. Множественная линейная регрессия. Определение параметров


уравнения регрессии. (15 баллов)
Обычно на любой экономический показатель влияет не один, а несколько
факторов. Например, спрос на некоторый товар определяется не только его
ценой, но и ценами на замещающие и дополняющие товары, доходом
потребителей и другими факторами. В этом случае вместо функции парной
регрессии 𝑀(𝑌|𝑋 = 𝑥) = 𝑓(𝑥) рассматривается функция множественной
регрессии: 𝑀(𝑌|𝑋1 = 𝑥1 ; 𝑋2 = 𝑥2 ; … ; 𝑋𝑚 = 𝑥𝑚 ) = 𝑓(𝑥1 ; 𝑥2 ; … ; 𝑥𝑚 ). (5.1) 3
Теоретическая модель множественной линейной регрессии имеет вид: 𝑌 = 𝛽0
+ 𝛽1𝑋1 + 𝛽2𝑋2 + ⋯ + 𝛽𝑚 𝑋𝑚 + 𝜀 (5.2) или для индивидуальных наблюдений:
𝑦𝑖 = 𝛽0 + 𝛽1 𝑥𝑖1 + 𝛽2 𝑥𝑖2 + ⋯ + 𝛽𝑚 𝑥𝑖𝑚 + 𝜀, (5.3) 𝑖 = 1, 2, … 𝑁, где N – объем
генеральной совокупности. После выбора в качестве модели линейной
функции множественной регрессии необходимо оценить коэффициенты
регрессии. 4 Пусть имеется n наблюдений вектора объясняющих переменных
𝑋 = (𝑋1 ; 𝑋2 ; . . 𝑋𝑚 ) и зависимой переменной Y: (𝑥𝑖1 ; 𝑥𝑖2 ; … ; 𝑥𝑖𝑚 ; 𝑦𝑖 ), 𝑖 =
1, 2, … , 𝑛. (5.4) Если 𝑛 = 𝑚 + 1, то оценки коэффициентов рассчитываются
единственным образом. Здесь 𝑚 – число объясняющих переменных. Если 𝑛 <
𝑚 + 1, то система будет иметь бесконечное множество решений. Если 𝑛 > 𝑚 +
1, то нельзя подобрать линейную функцию (5.2), точно удовлетворяющую
всем наблюдениям, и возникает необходимость оптимизации, т.е. нахождения
оценок параметров модели (5.3), при которых линейная функция дает
наилучшее приближение для имеющихся наблюдений. 5 Самым
распространенным методом оценки параметров модели множественной
линейной регрессии является метод наименьших квадратов (МНК). Для
применения МНК необходима выполнимость ряда предпосылок, которые
позволят проводить анализ в рамках классической линейной модели
множественной регрессии (КЛММР). Для случая множественной линейной
регрессии необходимо выполнение дополнительных предпосылок.

55. Фиктивные переменные сдвига в уравнении регрессии. Пример.


(15 баллов)

Рассмотрим применение фиктивных переменных для функции спроса.


Предположим, что по группе лиц мужского и женского пола изучается
линейная зависимость потребления кофе от цены. В общем виде для
совокупности обследуемых лиц уравнение регрессии имеет вид: 𝒚 = 𝒃𝟎 + 𝒃𝟏 ∗
𝒙 + 𝜺, (8.1) где y - количество потребляемого кофе; x - цена. Аналогичные
уравнения могут быть найдены отдельно для лиц мужского пола: 𝑦1 = 𝑏0 +
𝑏11 ∗ 𝑥1 + 𝜀1 и женского - 𝑦2 = 𝑏0 + 𝑏12 ∗ 𝑥2 + 𝜀2 . Различия в потреблении
кофе проявятся в различии средних у 1 и 𝑦 2. 42 Вместе с тем сила влияния x
на y может быть одинаковой, т.е. 𝑏1 ≈ 𝑏11 ≈ 𝑏12. В этом случае возможно
построение общего уравнения регрессии с включением в него фактора «пол» в
виде фиктивной переменной. Объединяя уравнения у1 и у2 и, вводя
фиктивные переменные, можно прийти к следующему выражению: 𝑦 = 𝑎1 ∙ 𝑧1
+ 𝑎2 ∙ 𝑧2 + 𝑏1 ∙ 𝑥 + 𝜀, (8.2) где 𝑧1 и 𝑧2 - фиктивные переменные, принимающие
значения: 𝑧1 = 1 – мужской пол, 0 − женский пол; 𝑧2 = 0 – мужской пол, 1 −
женский пол. (8.3) 43 В общем уравнении регрессии зависимая переменная у
рассматривается не только как функция цены 𝑥, но и пола (𝑧1 ; 𝑧2 ).
Переменная z рассматривается как двоичная переменная, принимающая всего
два значения: 1 и 0. При этом когда 𝑧1 = 1, то 𝑧2 = 0, и наоборот. Для лиц
мужского пола, когда 𝑧1 = 1 и 𝑧2 = 0, объединенное уравнение регрессии
составит: у = а1 + 𝑏1 ∙ 𝑥, а для лиц женского пола, когда 𝑧1 = 0 и 𝑧2 = 1
уравнение регрессии у = а2 + 𝑏1 ∙ 𝑥. Иными словами, различия в потреблении
кофе для лиц мужского и женского пола вызваны различиями свободных
членов уравнения регрессии: 𝑎1 ≠ 𝑎2 . Параметр 𝑏1 является общим для всей
совокупности лиц, как для мужчин, так и для женщин. 44 Однако при
введении двух фиктивных переменных 𝑧1 и 𝑧2 в модель у = а1∙ 𝑧1 + а2∙ 𝑧2 +
𝑏1 ∙ 𝑥 +𝜀 (8.4) применение МНК для оценивания параметров а1 и а2 приведет
к вырожденной матрице исходных данных, и невозможности получения
оценок коэффициентов уравнения регрессии. Объясняется это тем, что при
использовании МНК в данном уравнении появляется свободный член, т.е.
уравнение примет вид у = 𝑏0 + а1∙ 𝑧1 + а2∙ 𝑧2 + 𝑏1 ∙ 𝑥 +𝜀 (8.5) 45 Предполагая
при параметре 𝑏0 независимую переменную, равную 1, имеем следующую
матрицу исходных данных (объясняющих переменных): 1 1 1 1 0 𝑥1 0 𝑥2 1 0 1
𝑥3 1 ⋯ 1 1 ⋯ 0 0 𝑥4 … … 1 𝑥𝑛 В рассматриваемой матрице существует
линейная зависимость между первым, вторым и третьим столбцами: первый
равен сумме второго и третьего столбцов. Поэтому матрица исходных
факторов вырождена. 46 Выходом из создавшегося затруднения может
явиться переход к уравнениям y = 𝑏0 + 𝑏1 𝑥 + 𝑏2 𝑧1 + 𝜀, или y = 𝑏0 + 𝑏1 𝑥 + 𝑏2
𝑧2 + 𝜀, т.е. каждое уравнение включает только одну фиктивную переменную
𝒛𝟏 или 𝒛𝟐. 47 Предположим, что определено уравнение 𝑦 = 𝑏0 + 𝑏1 ∙ 𝑥 + 𝑏2 ∙ 𝑧
+ 𝜀, где z принимает значения 1 для мужчин и 0 для женщин. Теоретические
значения размера потребления кофе для мужчин будут получены из
уравнения 𝑦 = 𝑏0 + 𝑏1 ∙ 𝑥 + 𝑏2 . Для женщин соответствующие значения
получим из уравнения 𝑦 = 𝑏0 + 𝑏1 ∙ 𝑥. Сопоставляя эти результаты, видим, что
различия в уровне потребления мужчин и женщин состоят в различии
свободных членов данных уравнений: 𝑏0 - для женщин и 𝑏0 + 𝑏2 - для
мужчин. 48 Теперь качественный фактор принимает только два состояния,
которым соответствуют значения 1 и 0. Если же число градаций
качественного признака-фактора превышает два, то в модель вводится
несколько фиктивных переменных, число которых должно быть меньше числа
качественных градаций. Вывод: Только при соблюдении этого положения
матрица исходных фиктивных переменных не будет линейно зависима и
возможна оценка параметров модели.
Пример 8.1. Проанализируем зависимость цены двухкомнатной квартиры от
ее полезной площади. При этом в модель могут быть введены фиктивные
переменные, отражающие тип дома: «хрущевка», панельный, кирпичный. При
использовании трех категорий домов вводятся две фиктивные переменные: z1
и z2. Пусть переменная z1 принимает значение 1 для панельного дома и 0 для
всех остальных типов домов; переменная z2 принимает значение 1 для
кирпичных домов и 0 для остальных; тогда переменные z1 и z2 принимают
значения 0 для домов типа «хрущевки». 50 Предположим, что уравнение
регрессии с фиктивными переменными имеет вид: у = 320 + 500x+2200z1
+1600z2. Частные уравнения регрессии для отдельных типов домов,
свидетельствуя о наиболее высоких ценах квартир в панельных домах, будут
иметь следующий вид: «хрущевки» - у = 320 + 500x; панельные - у = 2520 +
500x; кирпичные - у = 1920 + 500x. Параметры при фиктивных переменных z1
и z2 представляют собой разность между средним уровнем результативного
признака для соответствующей группы и базовой группы. В рассматриваемом
примере за базу сравнения цены взяты дома «хрущевки», для которых z1 = z2
= 0. 51 Параметр при z1, равный 2200, означает, что при одной и той же
полезной площади квартиры цена ее в панельных домах в среднем на 2200
ден.ед. выше, чем в «хрущевках». Соответственно параметр при z2
показывает, что в кирпичных домах цена выше в среднем на 1600 ден.ед. при
неизменной величине полезной площади по сравнению с указанным типом
домов.

56. Расчет коэффициентов уравнения множественной линейной


регрессии. Система нормальных уравнений. (15 баллов)

Истинные значения коэффициентов bj по выборке получить невозможно.


Вместо теоретического уравнения оценивается эмпирическое уравнение
регрессии для индивидуальных наблюдений: 𝑦𝑖 = 𝑏0 + 𝑏1 𝑥𝑖1 + 𝑏2 𝑥𝑖2 + ⋯ +
𝑏𝑚 𝑥𝑖𝑚 + 𝑒𝑖 . (5.5) Здесь 𝑏0 , 𝑏1 , 𝑏2 , … , 𝑏𝑚 - эмпирические коэффициенты
регрессии (оценки теоретических коэффициентов (𝛽0 , 𝛽1 , 𝛽2 , … , 𝛽𝑚 ). 𝑒𝑖 -
остатки (оценки отклонений 𝜀𝑖 ). Согласно МНК, для нахождения оценок 𝑏0 ;
𝑏1 ; … ; 𝑏𝑚 минимизируется сумма квадратов остатков: 𝑄𝑒 = 𝑒𝑖 𝑛 2 𝑖=1 = 𝑦𝑖 −
𝑏0 + 𝑏𝑗 𝑥𝑖𝑗 𝑚 𝑗=1 2 𝑛 𝑖=1 . (5.6) Данная функция является квадратичной
относительно неизвестных коэффициентов. Она ограничена снизу,
следовательно, имеет минимум. Необходимым условием минимума Qe
является равенство нулю частных производных 𝜕𝑄𝑒 𝜕𝑏𝑗 = 0, 𝑗 = 0, 1, 2, … , 𝑚.
(5.7) Приравнивая их к нулю, получаем систему m + 1 линейных уравнений с
m + 1 неизвестными: 𝑦𝑖 − 𝑏0 + 𝑏𝑗 𝑥𝑖𝑗 𝑚 𝑗=1 𝑛 𝑖=1 = 0 𝑦𝑖 − 𝑏0 + 𝑏𝑗 𝑥𝑖𝑗 𝑚 𝑗=1 𝑥𝑖𝑗
𝑛 𝑖=1 = 0 𝑗 = 1, 2, … , 𝑚. (5.8) Эта система называется системой нормальных
уравнений. Представим данные наблюдений и соответствующие
коэффициенты в матричной форме: 𝑋 = 1 𝑥11 𝑥12 1 𝑥21 𝑥22 1 𝑥31 𝑥32 ⋯ ⋯ ⋯
𝑥1𝑚 𝑥2𝑚 𝑥3𝑚 ⋯ ⋯ ⋯ ⋯ ⋯ 1 𝑥𝑛1 𝑥𝑛2 ⋯ 𝑥𝑛𝑚 . (5.9) Х – матрица
объясняющих переменных размера n × (m+1), в которой xij – значение
переменной Xj в i-м наблюдении; 1 соответствует переменной при b0. 𝑌 = 𝑦1
𝑦2 … 𝑦𝑛 ; 𝐵 = 𝑏0 𝑏1 … 𝑏𝑚 ; 𝑒 = 𝑒1 𝑒2 … 𝑒𝑛 . (5.10) Здесь Y – матрица
размера n × 1 наблюдаемых значений зависимой переменной Y; B - матрица
размера (m+1) × 1 оценок коэффициентов модели; е – матрица остатков
размера n × 1 (отклонений наблюдаемых значений 𝑦𝑖 от расчетных значений
𝑦 𝑖 = 𝑏0 + 𝑏𝑗 𝑥𝑖𝑗 𝑚 𝑗=1 , получаемых по линии регрессии). Уравнение
регрессии в матричной форме: 𝑌 = 𝑋𝐵 + 𝑒. (5.11) 𝑒 = 𝑌 − 𝑋𝐵. (5.12) Функция,
которая минимизируется 𝑄𝑒 = 𝑒𝑖 𝑛 2 𝑖=1 . (5.13). Общая формула вычисления
вектора B оценок коэффициентов модели множественной линейной
регрессии: 𝐵 = (𝑋 𝑇 𝑋) −1 𝑋 𝑇 𝑌, (5.14) здесь X T – транспонированная
матрица 𝑋, 𝑋 𝑇 ∙ 𝑋 - произведение матриц, (𝑋 𝑇 ∙ 𝑋) −1 матрица обратная к
матрице 𝑋 𝑇 ∙ 𝑋. Вывод: Полученные общие соотношения (5.14) справедливы
для уравнений регрессии с произвольным количеством m объясняющих
переменных.
57. Фиктивные переменные наклона в уравнении регрессии. Пример

Любые примеры обеспечивали интерпретацию сдвига графиков (вверх, вниз)


при изменении качественного признака. При этом предполагалось, что
наклон графика не зависит от качественного признака, что не всегда верно. В
связи с этим введем фиктивную переменную для коэффициента наклона,
называемый иногда фиктивной переменной взаимодействия. В любом ранее
примере с рождением первенца/не первенца уравнение регрессии имело вид:
D=0- если первенец; D=1-если не первенец

Введем дополнительную фиктивную переменную для коэффициента наклона


графика:

D1=0,D2=0, если первенец


D1=0,D2=0, если первенец
D1=1,D2=1, если не первенец

Доугерти провел исслед-ие и получил:

Если первенец=(3363-4х)гр. Если матери курят, (график)


Если не перв.=(3410-12х)гр. то вес меньше
58. Какие существуют способы построения систем линейных
одновременных уровнений? Чем они отличаются друг от друга?
Наибольшее распространение в эконометрических исследованиях получила
система одновременных (взаимозависимых) уравнений. В ней одни и те же
зависимые (исследуемые) переменные в одних уравнениях входят в левую
часть, а других – в правую часть системы. Даже в простейшем случае
системы одновременных линейных уравнений (eё также называют
структурной формой модели – СФМ) :

определение параметров модели сталкивается с большими трудностями и не


всегда возможно в принципе. Для нахождения параметров модели исходная
система одновременных линейных уравнений сводится к приведённой форме
модели (ПФМ), которая имеет вид системы независимых переменных:

Такое сведение всегда возможно произвести с помощью алгебраических


преобразований исходной системы уравнений. Параметры приведённой
системы δij можно находить с помощью МНК. Основная трудность
заключается в том, что не всегда возможно по коэффициентам приведённой
системы восстановить коэффициенты исходной системы уравнений, то есть
осуществить обратный переход (подобно тому, как мы это делали, сводя
нелинейное уравнение к линейному, находя параметры линейной модели, а
затем производя обратный пересчёт параметров нелинейной модели).
Проблема перехода от приведённой формы (ПФМ) системы уравнений к
исходной СФМ называется проблемой идентификации. Различаются
идентифицируемые, неидентифицируемые и сверхидентифицируемые
модели.
Модель идентифицируема, если все коэффициенты исходной модели
определяются однозначно, единственным образом по коэффициентам
приведённой модели. Это возможно когда число параметров исходной
модели равно числу параметров приведённой формы (здесь и далее не
учитывается число свободных коэффициентов в уравнениях). Процедура
нахождения коэффициентов идентифицируемой модели носит название
косвенного метода наименьших квадратов (КМНК) и содержит следующие
этапы:
а) исходная модель преобразуется в приведённую форму модели;

б) для каждого уравнения приведённой формы модели применяется обычный


МНК;
в) коэффициенты приведённой модели трансформируются в коэффициенты
исходной модели.
2. Модель неидентифицируема, если число параметров приведённой системы
меньше чем, число параметров исходной модели, и в результате
коэффициенты исходной модели не могут быть оценены через
коэффициенты приведённой формы.
3. Модель сверхидентифицируема, если число приведённых коэффициентов
больше числа коэффициентов в исходной модели. В этом случае на основе
коэффициентов приведённой формы можно получить два и более значений
одного коэффициента исходной модели. Сверхидентифицируемая модель в
отличие от неидентифицируемой модели практически разрешима, но требует
специальных методов исчисления параметров. Наиболее распространённым
является двух шаговый метод наименьших квадратов (ДНМК). Основная
идея ДНМК – на основе приведённой формы модели получить для
сверхидентифицируемого уравнения (имеются критерии для определения
идентифицируемости каждого уравнения исходной системы) теоретические
значения исследуемых переменных, содержащегося в правой части
уравнения. Далее, подставив эти значения вместо фактических значений
(результатов наблюдений), применяется МНК к сверхидентифицируемому
уравнению исходной системы.
59. Множественная линейная регрессия. Дисперсия и стандартные
ошибки коэффициентов.
Модель множественной линейной регрессии Y=Xβ+ε, удовлетворяющая
условиям Гаусса-Маркова, называется классической нормальной линейной
моделью множественной регрессии, в предположении, что ε — нормально
распределенный случайный вектор.
Коэффициент детерминации (множественный) является мерой адекватности
регрессионной модели и определяется по формуле ,

где
- сумма квадратов отклонений, обусловленная регрессией,
- остаточная сумма квадратов,

представляет собой общую сумму квадратов отклонений


зависимой переменной от средней.

60. Как связаны друг с другом структурная и приведенная формы модели


линейных одновременных уравнений?

Структурная форма модели в правой части содержит при эндогенных


переменных коэффициенты и экзогенных переменных – коэффициенты
, которые называются Структурными коэффициентами модели. Все
переменные в модели выражены в отклонениях от среднего уровня, т. е. под
подразумевается , а под – соответственно . Поэтому
свободный член в каждом уравнении системы (3.3) отсутствует.

Использование МНК для оценивания структурных коэффициентов модели


дает, как принято считать в теории, смещенные и несостоятельные оценки.
Поэтому обычно для определения структурных коэффициентов модели
структурная форма модели преобразуется в Приведенную форму модели.
Приведенная форма модели представляет собой систему линейных функций
эндогенных переменных от экзогенных:

По своему виду приведенная форма модели ничем не отличается от системы


независимых уравнений, параметры которой оцениваются традиционным
МНК. Применяя МНК, можно оценить , а затем оценить значения
эндогенных переменных через экзогенные.

Коэффициенты приведенной формы модели представляют собой нелинейные


функции коэффициентов структурной формы модели. Рассмотрим это
положение на примере простейшей структурной модели, выразив
коэффициенты приведенной формы модели через коэффициенты
структурной модели.

Для структурной модели вида

Таким образом, можно сделать вывод о том, что коэффициенты приведенной


формы модели будут выражаться через коэффициенты структурной формы
следующим образом:
61. Множественная линейная регрессия. Предпосылки метода
наименьших квадратов.
При оценке параметров уравнения регрессии применяется МНК. При
этом делаются определенные предпосылки относительно составляющей
, которая представляет собой в уравнении
ненаблюдаемую величину.

Исследования остатков предполагают проверку наличия следующих


пяти предпосылок МНК:

1) случайный характер остатков. С этой целью строится график


отклонения остатков от теоретических значений признака. Если на
графике получена горизонтальная полоса, то остатки представляют
собой случайные величины и применение МНК оправдано. В
других случаях необходимо применить либо другую функцию, либо
вводить дополнительную информацию и заново строить уравнение
регрессии до тех пор, пока остатки не будут случайными
величинами.
2) нулевая средняя величина остатков, т.е. , не зависящая
от хi. Это выполнимо для линейных моделей и моделей,
нелинейных относительно включаемых переменных. С этой целью
наряду с изложенным графиком зависимости остатков от
теоретических значений результативного признака ухстроится
график зависимости случайных остатков от факторов,
включенных в регрессию хi . Если остатки на графике расположены
в виде горизонтальной полосы, то они независимы от значений xj.
Если же график показывает наличие зависимости и хj то модель
неадекватна. Причины неадекватности могут быть разные.
3) Гомоскедастичность — дисперсия каждого отклонения
одинакова для всех значений хj. Если это условие применения МНК
не соблюдается, то имеет место гетероскедастичность. Наличие
гетероскедастичности можно наглядно видеть из поля корреляции.
4) Отсутствие автокорреляции остатков. Значения остатков
распределены независимо друг от друга. Автокорреляция остатков
означает наличие корреляции между остатками текущих и
предыдущих (последующих) наблюдений. Отсутствие
автокорреляции остаточных величин обеспечивает состоятельность
и эффективность оценок коэффициентов регрессии.
5) Остатки подчиняются нормальному распределению
62. В чем состоит проблема идентификации модели линейных
одновременных уравнений?
Нахождение коэффициентов структурной формы модели после численного
нахождения коэффициентов приведенной формы модели не всегда
однозначно. При переходе от приведенной формы модели к структурной
возникает проблема идентификации модели.
Все типы структурных моделей можно подразделить на три вида:
1) Идентифицируемые (если все структурные коэффициенты однозначно
определяются по коэффициентам приведенной формы модели, D = H –
1);
2) Неидентифицируемые (если число приведенных коэффициентов
меньше числа структурных коэффициентов, D < H - 1);
3) Сверхидентифицируемые (если число приведенных коэффициентов
больше числа структурных коэффициентов, D > H - 1).
Структурное уравнение является идентифицируемым, если
идентифицируемы все его коэффициенты. Если хотя бы один из них
неидентифицируем, то и все уравнение является неидентифицируемым.
Структурная модель является идентифицируемой, если каждое ее уравнение
идентифицируемо. Если хотя бы одно из уравнений системы
неидентифицируемо, то и вся модель является неидентифицируемой.
63. Множественная линейная регрессия. Проблема
мультиколлинеарности.
При вычислении параметров уравнения множественной регрессии по
формулам (3.9), (3.17) и (3.21) необходимо находить матрицу обратную
ковариационной S-1, корреляционной R-1 или произведению матрицы
плана (D'D) -1, вычисляемых для независимых признаков. Однако, как
следует из теории, операция обращения матрицы возможна только если ее
определитель не равен нулю. В частности, если среди набора признаков,
для которых вычислены матрицы S, R или D'D имеется хотя бы одна пара
показателей, для которой коэффициент корреляции равен +1 или -1, их
определители будут равны нулю, и операция обращения этих матриц
окажется невозможной. Напротив, для набора нескоррелированных
признаков определитель корреляционной матрицы достигнет своего
максимального значения ½R½ = 1. В реальных случаях, когда все
признаки имеют коэффициенты корреляции 0 < ½r½ < 1, обычно будет
наблюдаться ситуация 0 < ½R½ < 1.
Однако, если среди набора независимых переменных X имеются признаки,
связанные друг с другом высокой корреляцией с абсолютной величиной ее
коэффициента близкой к 1, определители матриц S, R или D'D будут
иметь малую величину. Хотя при этом нахождение S-1, R-1 или D'D-1 будет
возможным, точность всех вычислений в регрессионном анализе резко
уменьшится. Эта ситуация называется явлением мультиколлинеарности.
Наличие мультиколлинеарности приводит к резкой неустойчивости
получаемых оценок параметров уравнений регрессии. Добавление или
исключение какого-то отдельного наблюдения может приводить к
сильному изменению всех регрессионных параметров. Очень сильно при
этом могут также увеличиваться квадратические ошибки коэффициентов
множественной регрессии, что приведет к невозможности доказать
неслучайность.
64. Необходимое условие идентификации модели линейных
одновременных уравнений.
Счетное правило – необходимое условие

Если обозначить число эндогенных переменных в j–м уравнении системы


через H, а число экзогенных (предопределенных) переменных, которые
содержатся в системе, но не входят в данное уравнение, – через D, то условие
идентифицируемости модели может быть записано в виде следующего
счетного правила:

Если D + 1 = H, то уравнение скорее всего идентифицируемо,

если D + 1 < H, то уравнение неидентифицируемо,

если D + 1 > H, то уравнение сверхидентифицируемо.

Предположим, рассматривается следующая система одновременных


уравнений:

y1 =b12∙y2+b13∙y3+a11∙x1+a12∙x2,

y2=b21∙y1+a21∙x1+a22∙x2+a23∙x3,

y3=b31∙y1+b32∙y2+a33∙x3+a34∙x4.

Первое уравнение скорее всего точно идентифицируемо, ибо в нем


присутствуют три эндогенные переменные – y1, y2, y3, т.е. H = 3 и две
экзогенные переменные – x1и x2, число отсутствующих экзогенных
переменных равно двум – x3и x4, D = 2. Тогда имеем равенство: D+1 = H, (так
как 2+1 = 3), что означает, что это уравнение является подозрительным на то,
что оно точно (просто) идентифицируемого уравнения. Для окончательного
вывода нужно проверить достаточное условие.

Во втором уравнении системы H = 2 (y1и y2) и D = 1 (x4). Выполняется


равенство D+1 = H, т.е. 1+1=2. Уравнение скорее всего идентифицируемо.

В третьем уравнении системы H = 3 (y1, y2, y3), а D=2 (x1и x2). Следовательно,
по счетному правилу D+1 = H, и это уравнение скорее всего
идентифицируемо. Таким образом, система в целом удовлетворяет
необходимому условию идентифицируемости.
65. Множественная линейная регрессия. Методы определения
мультиколлинеарности.
Существует несколько признаков, по которым может быть установлено
наличие мультиколлинеарности.
1. Коэффициент детерминации R2 достаточно высок, но некоторые из
коэффициентов уравнения множественной линейной регрессии
статистически незначимы (имеют низкие t-статистики).
2. Высокая корреляция в уравнении регрессии с двумя объясняющими
переменными. Если объясняющих переменных больше двух целесообразнее
использовать частные коэффициенты корреляции.
3. Сильная регрессия между объясняющими переменными. Какая-либо из
объясняющих переменных является комбинацией других объясняющих
переменных (линейной или близкой к линейной).

66. Достаточное условие идентификации модели линейных


одновременных уравнений.
Какое-либо структурное уравнение является идентифицируемым, если
идентифицируемы все его коэффициенты. Если хотя бы один структурный
коэффициент неидентифицируем, то и все уравнение является
неидентифицируемым.
Достаточное условие:
Если определитель матрицы, составленной из коэффициентов при
переменных, отсутствующих в рассматриваемом структурном уравнении, не
равен нулю и ранг этой матрицы не меньше числа эндогенных переменных
системы без единицы, то это уравнение идентифицируемо.

67. В чем суть косвенного метода наименьших квадратов? (15 баллов)


В системе одновременных уравнений каждое уравнение не может
рассматриваться как самостоятельная часть системы, поэтому оценки
неизвестных коэффициентов данных уравнений нельзя определить с
помощью классического метода наименьших квадратов, т. к. нарушаются
условия применения этого метода.
Косвенный метод наименьших квадратов используется для получения
оценок неизвестных коэффициентов системы одновременных уравнений,
удовлетворяющих свойствам эффективности, несмещённости и
состоятельности.
Алгоритм метода наименьших квадратов реализуется в три этапа:
1) на основе структурной формы системы одновременных уравнений
составляется её приведённая форма, все параметры которой выражены через
структурные коэффициенты;
2) приведённые коэффициенты каждого уравнения оцениваются обычным
методом наименьших квадратов;
3) на основе оценок приведённых коэффициентов системы одновременных
уравнений определяются оценки структурных коэффициентов через
приведённые уравнения.

68. Каково содержание двухшагового метода наименьших квадратов?


(15 баллов)
Уравнениеназываетсясверхидентифицированным, если по оценкам
коэффициентов приведённой формы системы одновременных уравнений
можно получить более одного значения для коэффициентов структурной
формы системы одновременных уравнений.
Оценки неизвестных параметров сверхидентифицированного уравнения
нельзя рассчитать традиционным и косвенным методом наименьших
квадратов. В данном случае для определения неизвестных оценок
используется двухшаговый метод наименьших квадратов.
Алгоритм двухшагового метода наименьших квадратов реализуетсяв четыре
этапа:
1) на основе структурной формы системы одновременных уравнений
составляется её приведённая форма;
2) оценки неизвестных коэффициентов приведённой формы системы
одновременных уравнений рассчитываются с помощью традиционного
метода наименьших квадратов;
3) рассчитываются значения эндогенных переменных, выступающих в
качестве факторных в сверхидентифицированном уравнении;
4) все структурные коэффициенты уравнений системы рассчитываются
традиционным методом наименьших квадратов через предопределённые
переменные, входящие в это уравнение в качестве факторов, и значения
эндогенных переменных, полученных на предыдущем шаге.

69. Понятие о главных компонентах. Цель их использования. (15


баллов)
Главные компоненты оказываются полезным статистическим
инструментарием в задачах прогноза большого числа анализируемых
показателей по сравнительно малому числу вспомогательных переменных;
визуализации многомерных данных, при предварительном анализе
геометрической и вероятностной природы массива исходных данных.
Главные компоненты применяются в методе главных компонент,
позволяющем оценить коэффициенты эконометрической модели при плохой
обусловленности матрицы.
Суть метода главных компонент: переход от первоначальных Х1, Х2,… к
новым координатам Z1, Z2,…:
𝑍1=𝑓 𝑥1,𝑥2,…𝑥𝑘 ,
𝑍2=𝑓 𝑥1,𝑥2,…𝑥𝑘 ,
………………
𝑍𝑙=𝑓 𝑥1,𝑥2,…𝑥𝑘 , здесь 𝑙≤𝑘.
Компоненты Zi подбираются таким образом, чтобы матрица Z была хорошо
обусловленной. Определитель матрицы корреляции компонентов Zi близок к
единице.

70. Парная линейная регрессия. Взаимосвязи экономических


переменных. (15 баллов)
В эконометрике при рассмотрении взаимосвязей между двумя переменными
X и Y выделяют одну из величин как независимую (объясняющую), а
другую ‒ как зависимую (объясняемую). В этом случае изменение первой из
них может служить причиной для изменения другой. К примеру, рост дохода
ведет, как правило, к увеличению потребления, рост цены ‒ к снижению
спроса и т.д
ругими словами, каждому конкретному значению объясняющей переменной
(набору объясняющих переменных) соответствует неĸᴏᴛᴏᴩᴏᴇ вероятностное
распределение зависимой переменной (рассматриваемой как случайная
величина). По этой причине анализируют, как объясняющая переменная
влияет на зависимую переменную «в среднем». Зависимость такого типа,
выражаемая соотношением M(Y|x)=f(x), принято называть регрессией Y на
X. При рассмотрении зависимости двух случайных величин говорят о
парной регрессии.
Для отражения того факта͵ что реальные значения зависимой переменной не
всегда совпадают с ее условными математическими ожиданиями и бывают
различными при одном и том же значении объясняющей переменной (наборе
объясняющих переменных), фактическая зависимость должна быть
дополнена слагаемым E , ĸᴏᴛᴏᴩᴏᴇ, по существу, является случайной
величиной и указывает на статистическую суть зависимости. Из этого
следует, что связи между зависимой и объясняющей переменными
выражается соотношением Y=M(Y|x)+ E и,
называемой регрессионной моделью (уравнением).

71. Суть регрессионного анализа. (15 баллов)


Рассмотрим некоторый экономический объект (процесс, явление, систему) и
выделим только две переменные, характеризующие объект. Обозначим
переменные буквами у и x. Будем предполагать, что фактор x оказывает
воздействие на отклик y, т.е. имеет место зависимостьy=f(x)
Эту зависимость можно рассматривать с целью установления самого факта
наличия или отсутствия значимой связи между y и x, можно преследовать
цель прогнозирования неизвестных значений y по известным значениям x,
наконец, возможно выявление причинно-следственных связей между х и у.
Регрессионный анализ – статистический метод, с помощью которого можно
построить модель с одной зависимой переменной (откликом) и несколькими
независимыми переменными (факторами).
Регрессионный анализ позволяет решить три задачи:
1. Выявить, какие факторы действуют на отклик.
2. Ранжировать факторы по степени влияния на отклик.
3. Спрогнозировать значение отклика при определенных значениях
факторов.
72. Классическая линейная регрессионная модель.
Если функция регрессии линейна: M(Y|x) = 𝛽0+𝛽1𝑥, то регрессия называется
линейной. Теоретическая модель парной линейной регрессии (зависимость
между переменными в генеральной совокупности) имеет вид: 𝑌=𝛽0+𝛽1𝑋+𝜀,
где Х рассматривается как неслучайная переменная, а Y и ε как случайные
величины; 𝛽0 и 𝛽1 - теоретические коэффициенты (параметры) регрессии.
Индивидуальные значения yi выражаются: yi = 𝑏0 + 𝑏1 xi + ε.
Для определения 𝛽0 и β1 необходимо знать и использовать все значения
переменных Х и Y генеральной совокупности, что практически невозможно.
Методами регрессионного анализа возможно лишь получить их оценки на
основании выборочных (экспериментальных) данных (b0---> 𝛽0; b1---> β1).
73. Предпосылки метода наименьших квадратов.
Для того чтобы полученные по МНК оценки обладали некоторым полезными
статистическими свойствами необходимо выполнение ряда предпосылок
относительно оцениваемой модели, называемыми условиями Гаусса-
Маркова:
1. Математическое ожидание случайных отклонений 𝜀𝑖 равно нулю:
𝑀(𝜀𝑖)=0 для всех наблюдений. Это означает, что случайное отклонение
не должно иметь систематического смещения.
2. Дисперсия случайных отклонений постоянна для всех наблюдений:
𝐷(𝜀𝑖)=𝑀(𝜀𝑖2) =𝜎2, 𝑖=1, 2, …, 𝑛.
3. Случайные отклонения 𝜀𝑖 и 𝜀j (i ≠ j) не коррелируют (отсутствует
автокорреляция): 𝑀(𝜀𝑖,𝜀j)=0, i ≠ j.
4. Случайные отклонения должны быть статистически независимы
(некоррелированы) от объясняющих переменных.
Наряду с этими условиями также обычно предполагается, что случайное
отклонение имеет нормальный закон распределения 𝜀𝑖 ~N(0,𝜎2).
74. Временные ряды. Основные составляющие временного ряда.
Временной ряд (динамический ряд) - последовательность наблюдений
некоторого признака (случайной величины) Y в последовательные моменты
времени. Отдельные наблюдения называются уровнями ряда yt.
Важнейшей классической задачей при исследовании экономических
временных рядов является выявление и статистическая оценка основной
тенденции развития изучаемого процесса и отклонений от нее.
В общем виде при исследовании временного ряда yt выделяются следующие
составляющие: 𝑦𝑡=𝑢𝑡+𝜐𝑡+𝑐𝑡+𝜀𝑡, 𝑡=1,2,…,𝑛 , где 𝑢𝑡 – тренд, плавно меняющаяся
компонента, описывающая чистое влияние долговременных факторов, т. е.
длительную («вековую») тенденцию изменения признака (например, рост
населения, экономическое развитие, изменение структуры потребления и т.
п.); 𝜐𝑡 – сезонная компонента, отражающая повторяемость экономических
процессов в течение не очень длительного периода (года, иногда месяца,
недели и т. д., например, объем продаж товаров или перевозок пассажиров в
различные времена года); 𝑐𝑡 – циклическая компонента отражающая
повторяемость экономических процессов в течение длительных периодов
(например, влияние волн экономической активности Кондратьева,
демографических «ям», циклов солнечной активности и т. п.); 𝜀𝑡 – случайная
компонента, отражающая влияние не поддающихся учету и регистрации
случайных факторов.
75. Проверка гипотез относительно значимости коэффициентов
линейного уравнения регрессии.
Проверка значимости коэффициентов линейного уравнения регрессии b0 и
b1 заключается в проверки гипотезы H0: 𝛽j=0, j=0, 1. Альтернативная
гипотеза: H1: 𝛽j≠0, j=0, 1.
Если 𝐻0 принимается, то делается вывод о том, что коэффициент 𝑏𝑗
статистически незначим и линейная зависимость между Y и Х отсутствует.
Если 𝐻0 отклоняется, то коэффициент 𝑏𝑗 считается статистически значимым,
что указывает на наличие определенной линейной зависимости между Y и Х.
Если 𝛽=0, то соответствующая t-статистика имеет вид: t=(bj-0)/Sbj=bj/Sbj.
Для коэффициента b1 Sb12=(Qe/(n-2))*(1/Qx), для b0: Sb02=1/n* Sb12*∑xi2.
Соответственно, Sbj=√Sbj2.
Далее сравнивается полученное значение t (tнабл) с полученным по таблице
распределения Стьюдента критическим значением tкр=ta;n-2. В случае, если |
tнабл |>tкр, то гипотеза H0 отклоняется, значит коэффициент 𝑏𝑗 считается
статистически значимым.
76. Интервальные оценки коэффициентов линейного уравнения
регрессии.
Базовой предпосылкой МНК является предположение о нормальном
распределении отклонений 𝜀𝑖 с нулевым математическим ожиданием и
постоянной дисперсией 𝜎2, которое является теоретически и практически
обоснованным: 𝜀𝑖~𝑁(0;𝜎2)
Согласно модельному уравнению линейной парной регрессии 𝑦𝑖=𝛽0+𝛽1𝑥𝑖+𝜀𝑖,
коэффициенты 𝑏0 и 𝑏1 через 𝑦𝑖 являются линейными комбинациями 𝜀𝑖.
Следовательно, 𝑏0 и 𝑏1 также имеют нормальное распределение:
𝑏1~𝑁(𝛽1;𝑆𝑏12), 𝑏0~𝑁(𝛽0;𝑆𝑏02).
Тогда случайные величины tb1=(𝑏1-𝛽1)/ 𝑆𝑏1 и tb0=(𝑏0-𝛽0)/ 𝑆𝑏0 имеют
распределение Стьюдента с числом степеней свободы 𝜈=𝑛−2.
По заданной доверительной вероятности γ можно найти интервал: -tкр<t<tкр,
внутри которого находятся значения 𝑡 с вероятностью γ. Критическое
значение 𝑡кр при доверительной вероятности 𝛾=1−𝛼 находятся по таблицам
двусторонних квантилей распределения Стьюдента 𝑡кр=𝑡𝛼;𝑛−2.
Таким образом: 𝑃(𝑏1−𝑡кр𝑆𝑏1<𝛽1<𝑏1+𝑡кр𝑆𝑏1)=𝛾, 𝑃(𝑏0−𝑡кр𝑆𝑏0<𝛽0<𝑏0+𝑡кр𝑆𝑏0)=𝛾.
Доверительные интервалы для коэффициентов парной линейной регрессии с
доверительной вероятностью 𝛾=1−𝛼 имеют вид:
𝑏1−𝑡кр𝑆𝑏1<𝛽1<𝑏1+𝑡кр𝑆𝑏1
𝑏0−𝑡кр𝑆𝑏0<𝛽0<𝑏0+𝑡кр𝑆𝑏0
Аналогичным образом строятся доверительные интервалы коэффициентов
линейного уравнения множественной регрессии.
77. Анализ аддитивной составляющей временного ряда.
Аддитивная модель имеет вид: X=T+S+ ε, где T – трендовая компонента, S –
сезонная, ε – случайная. Анализ аддитивной составляющей временного ряда
заключается в следующем:
1) Исключается сезонная компонента (методом скользящей средней).
2) Рассчитывается значение сезонной компоненты (абсолютное
отклонение Sai, сумма всех сезонных компонент должна быть равна
нулю). Для этого находим оценку вариации (из первоначального
значения X вычитаем соответствующую центрированную скользящую
среднюю) после чего находим их среднее значение в каждый из
сезонов. Корректируем их, чтобы сумма была равна 0.
3) Проводится десезонизация данных (из соответствующих значений X
вычитаем оценку скорректированных сезонных вариаций).
4) На основе десезонализированных данных строится уравнение
регрессии вида 𝑇𝑡=𝑏0+𝑏1𝑡.
78. Доверительные интервалы для зависимой переменной в уравнении
парной линейной регрессии.
Доверительный интервал для среднего значения зависимой переменной Y
задается формулой:
𝑦̂(𝑥0 ) − ∆𝑀 ≤ 𝑀⌊𝑦|𝑥 = 𝑥0 ⌋ ≤ 𝑦̂(𝑥0 ) + ∆𝑀 ,
2 𝑄𝑒 1 (𝑥0 −𝑥̅ )2
где ∆𝑀 = 𝑆𝑀 ∗ 𝑡𝑎;𝑛−2 ; 𝑆𝑀 = ∗( + ).
𝑛−2 𝑛 𝑄𝑥
Доверительный интервал для индивидуального значения зависимой
переменной Y задается формулой:

𝑦̂(𝑥0 ) − ∆𝑀 ≤ 𝑦𝑥0 ≤ 𝑦̂(𝑥0 ) + ∆𝑀
2 𝑄𝑒 1 (𝑥0 −𝑥̅ )2
где ∆𝑀 = 𝑆𝑀 ∗ 𝑡𝑎;𝑛−2 ; 𝑆𝑀 = ∗ (1 + + ).
𝑛−2 𝑛 𝑄𝑥
Аналогичным образом находятся доверительные интервалы зависимой
переменной уравнения множественной регрессии.
79. Проверка общего качества уравнения регрессии.
Коэффициент детерминации R2 является суммарной мерой общего качества
уравнения регрессии.
Проверка общего качества уравнения регрессии заключается в следующем:
Пусть уравнение регрессии имеет вид: 𝑦𝑖=𝑏0+𝑏1𝑥𝑖, тогда рассчитанные по
модели значения ŷ𝑖 для наблюдаемых значений 𝑥𝑖 равны ŷ𝑖=𝑏0+𝑏1𝑥𝑖.
Наблюдаемые значения 𝑦𝑖 отличаются от рассчитанных по модели значений
ŷ𝑖 на величину 𝑒𝑖: 𝑦𝑖= ŷ𝑖+𝑒𝑖.
Представим это равенство в виде 𝑦𝑖−ȳ=(ŷ𝑖−𝑦)+𝑒𝑖. Qy=∑(𝑦𝑖−ȳ)2; Qr=∑(ŷ𝑖−ȳ)2;
Qe=∑𝑒𝑖2. Тогда: Qy=Qr+Qe, где Qy – мера разброса наблюдаемых значений
результирующего признака Y относительно среднего значения ȳ; Qr –
объясненная сумма квадратов отклонений; Qe – остаточная (необъясненная)
сумма квадратов отклонений.
Коэффициент детерминации R2 определяется как доля разброса переменной
Y, объясняемая регрессией Y на X: R2=Qr/Qy=1-(Qe-Qy).
R2 лежит в пределах от 0 до 1. Если Qe=0 (то есть, наблюдаемое значение 𝑦𝑖
полностью совпадает со значением ŷ𝑖), тогда R2=1, значит между Y и Х
имеется строгая функциональная зависимость. При R2=0 регрессия ничего не
объясняет. То есть, чем ближе R2 к единице, тем лучше уравнение регрессии
объясняет наблюдаемые значения.
80. Суть и причины автокорреляции.
Автокорреляция — корреляционная зависимость между текущими уровнями
некоторой переменной и уровнями этой же переменной, сдвинутыми на
несколько периодов времени назад. Автокорреляция случайной
составляющей нарушает 3-ю предпосылку нормальной линейной модели
регрессии: случайные отклонения 𝜀𝑖 и 𝜀𝑗 (i ≠ j) не коррелируют (отсутствует
автокорреляция): 𝑀(𝜀𝑖,𝜀𝑗)=0, (𝑖≠𝑗).
Среди основных причин, вызывающих появление автокорреляции, можно
выделить ошибки спецификации, инерцию в изменении экономических
показателей, эффект паутины, сглаживание данных.
Положительная автокорреляция означает постоянное в одном направлении
действие неучтенных факторов на результат. Отрицательная автокорреляция
означает разнонаправленное действие неучтенных в модели факторов на
результат, что приводит к отрицательной корреляции между
последовательными значениями случайной составляющей. То есть за
положительными значениями случайной составляющей 𝜀𝑖 в одном
наблюдении следуют отрицательные значения 𝜀𝑗 и в следующем, и наоборот.
Отрицательная автокорреляция в экономике встречается относительно редко.
81. Множественная линейная регрессия. Определение параметров
уравнения регрессии.
На любой экономический показатель чаще всего оказывают влияние не один,
а несколько факторов. В этом случае вместо парной регрессии M(Y|x)=f(x)
рассматривается множественная регрессия M(Y|x1,x2,…,xm)=f(x1,x2,…,xm).
Теоретическое линейное уравнение регрессии имеет вид: Y=
𝛽0+X1𝛽0+X2𝛽1+…+Xm𝛽m+ε, или для индивидуальных наблюдений:
𝑦𝑖=𝛽0+𝛽1𝑥𝑖1+ 𝛽2𝑥𝑖2+…+𝛽m𝑥𝑖m+𝜀, i=1,2,…,N, где N – объем генеральной
совокупности.
После выбора в качестве модели линейной функции множественной
регрессии необходимо оценить коэффициенты регрессии.
Пусть имеется n наблюдений вектора объясняющих переменных 𝑋=(𝑋1;
𝑋2;..𝑋𝑚) и зависимой переменной Y: (𝑥𝑖1;𝑥𝑖2;…;𝑥𝑖m;𝑦𝑖), i=1,2,…,n.
Если 𝑛=𝑚+1, то оценки коэффициентов рассчитываются единственным
образом. Здесь 𝑚 – число объясняющих переменных.
Если 𝑛<𝑚+1, то система будет иметь бесконечное множество решений. Если
𝑛>𝑚+1, то нельзя подобрать линейную функцию, точно удовлетворяющую
всем наблюдениям, и возникает необходимость оптимизации, т.е.
нахождения оценок параметров модели, при которых линейная функция дает
наилучшее приближение для имеющихся наблюдений.

82. Расчет коэффициентов уравнения множественной линейной


регрессии. Система нормальных уравнений

Истинные значения коэффициентов bj по выборке получить невозможно.


Вместо теоретического уравнения оценивается эмпирическое уравнение
регрессии для индивидуальных наблюдений: 𝑦𝑖 = 𝑏0 + 𝑏1 𝑥𝑖1 + 𝑏2 𝑥𝑖2 + ⋯ +
𝑏𝑚 𝑥𝑖𝑚 + 𝑒𝑖 . (5.5) Здесь 𝑏0 , 𝑏1 , 𝑏2 , … , 𝑏𝑚 - эмпирические коэффициенты
регрессии (оценки теоретических коэффициентов (𝛽0 , 𝛽1 , 𝛽2 , … , 𝛽𝑚 ). 𝑒𝑖 -
остатки (оценки отклонений 𝜀𝑖 ). Согласно МНК, для нахождения оценок 𝑏0 ;
𝑏1 ; … ; 𝑏𝑚 минимизируется сумма квадратов остатков: 𝑄𝑒 = 𝑒𝑖 𝑛 2 𝑖=1 = 𝑦𝑖 −
𝑏0 + 𝑏𝑗 𝑥𝑖𝑗 𝑚 𝑗=1 2 𝑛 𝑖=1 . (5.6) Данная функция является квадратичной
относительно неизвестных коэффициентов. Она ограничена снизу,
следовательно, имеет минимум. Необходимым условием минимума Qe
является равенство нулю частных производных 𝜕𝑄𝑒 𝜕𝑏𝑗 = 0, 𝑗 = 0, 1, 2, … , 𝑚.
(5.7) Приравнивая их к нулю, получаем систему m + 1 линейных уравнений с
m + 1 неизвестными: 𝑦𝑖 − 𝑏0 + 𝑏𝑗 𝑥𝑖𝑗 𝑚 𝑗=1 𝑛 𝑖=1 = 0 𝑦𝑖 − 𝑏0 + 𝑏𝑗 𝑥𝑖𝑗 𝑚 𝑗=1 𝑥𝑖𝑗
𝑛 𝑖=1 = 0 𝑗 = 1, 2, … , 𝑚. (5.8) Эта система называется системой нормальных
уравнений. Представим данные наблюдений и соответствующие
коэффициенты в матричной форме: 𝑋 = 1 𝑥11 𝑥12 1 𝑥21 𝑥22 1 𝑥31 𝑥32 ⋯ ⋯ ⋯
𝑥1𝑚 𝑥2𝑚 𝑥3𝑚 ⋯ ⋯ ⋯ ⋯ ⋯ 1 𝑥𝑛1 𝑥𝑛2 ⋯ 𝑥𝑛𝑚 . (5.9) Х – матрица
объясняющих переменных размера n × (m+1), в которой xij – значение
переменной Xj в i-м наблюдении; 1 соответствует переменной при b0. 𝑌 = 𝑦1
𝑦2 … 𝑦𝑛 ; 𝐵 = 𝑏0 𝑏1 … 𝑏𝑚 ; 𝑒 = 𝑒1 𝑒2 … 𝑒𝑛 . (5.10) Здесь Y – матрица
размера n × 1 наблюдаемых значений зависимой переменной Y; B - матрица
размера (m+1) × 1 оценок коэффициентов модели; е – матрица остатков
размера n × 1 (отклонений наблюдаемых значений 𝑦𝑖 от расчетных значений
𝑦 𝑖 = 𝑏0 + 𝑏𝑗 𝑥𝑖𝑗 𝑚 𝑗=1 , получаемых по линии регрессии). Уравнение
регрессии в матричной форме: 𝑌 = 𝑋𝐵 + 𝑒. (5.11) 𝑒 = 𝑌 − 𝑋𝐵. (5.12) Функция,
которая минимизируется 𝑄𝑒 = 𝑒𝑖 𝑛 2 𝑖=1 . (5.13). Общая формула вычисления
вектора B оценок коэффициентов модели множественной линейной
регрессии: 𝐵 = (𝑋 𝑇 𝑋) −1 𝑋 𝑇 𝑌, (5.14) здесь X T – транспонированная
матрица 𝑋, 𝑋 𝑇 ∙ 𝑋 - произведение матриц, (𝑋 𝑇 ∙ 𝑋) −1 матрица обратная к
матрице 𝑋 𝑇 ∙ 𝑋. Вывод: Полученные общие соотношения (5.14) справедливы
для уравнений регрессии с произвольным количеством m объясняющих
переменных.

83. Множественная линейная регрессия. Коэффициенты R2 и Ṝ2

Обычно на любой экономический показатель влияет не один, а несколько


факторов. В этом случае вместо функции парной регрессии 𝑀(𝑌|𝑋 = 𝑥) = 𝑓(𝑥)
рассматривается функция множественной регрессии: 𝑀(𝑌|𝑋1 = 𝑥1 ; 𝑋2 = 𝑥2 ;
… ; 𝑋𝑚 = 𝑥𝑚 ) = 𝑓(𝑥1 ; 𝑥2 ; … ; 𝑥𝑚 ).

Теоретическая модель множественной линейной регрессии имеет вид: 𝑌 =


𝛽0 + 𝛽1𝑋1 + 𝛽2𝑋2 + ⋯ + 𝛽𝑚 𝑋𝑚 + 𝜀 (5.2) или для индивидуальных
наблюдений: 𝑦𝑖 = 𝛽0 + 𝛽1 𝑥𝑖1 + 𝛽2 𝑥𝑖2 + ⋯ + 𝛽𝑚 𝑥𝑖𝑚 + 𝜀, (5.3) 𝑖 = 1, 2, … 𝑁,
где N – объем генеральной совокупности. (ИЛИ 𝑦𝑖 = 𝑏0 + 𝑏1 𝑥𝑖1 + 𝑏2 𝑥𝑖2 + ⋯
+ 𝑏𝑚 𝑥𝑖𝑚)

Для проверки качества уравнения регрессии в целом используется


коэффициент детерминации R^2 , который в общем случае рассчитывается
по формуле:

Величина R^2 является мерой объясняющего качества уравнения регрессии


по сравнению с горизонтальной линией y= 𝑦̅ .

Справедливо соотношение 0<=R2<=1. Чем ближе этот коэффициент к


единице, тем больше уравнение множественной регрессии объясняет
поведение Y.
Длямножественной регрессии коэффициент детерминации является
неубывающей функциейчисла объясняющих переменных. Добавление новой
объясняющей переменной никогда не уменьшает значение R2, так как каждая
последующая переменная может лишь дополнить, но никак не сократить
информацию, объясняющую поведение зависимой переменной.
Иногда при расчете коэффициента детерминации для получения
несмещенных оценок в числителе и знаменателе вычитаемой из единицы
дроби делается поправка на число степеней свободы, т.е. вводится так
называемый скорректированный (исправленный) коэффициент
детерминации:

Соотношение может быть представлено в следующем виде:


84. Методы устранения автокорреляции в регрессионных моделях.

Чаще всего автокорреляция вызывается неправильной спецификацией


модели, поэтому необходимо прежде всего скорректировать саму модель.
Если все разумные процедуры изменения спецификации модели исчерпаны, а
автокорреляция имеет место, то можно предположить, что она обусловлена
какими-то внутренними свойствами ряда остатков {еt}. В этом случае можно
воспользоваться авторегрессионным преобразованием. Обычно наиболее
целесообразным и простым преобразованием является авторегрессионная
схема первого порядка AR(1). Рассмотрим модель парной линейной регрессии
𝑌 = 𝛽0 + 𝛽1𝑋 + 𝜀. (4.5) Тогда наблюдениям t; и (t - 1) соответствуют формулы:
𝑦𝑡 = 𝛽0 + 𝛽1 𝑥𝑡 + 𝑒𝑡 , (4.6) и 𝑦𝑡−1 = 𝛽0 + 𝛽1 𝑥𝑡−1 + 𝑒𝑡−1 . (4.7) Пусть
случайные отклонения подвержены воздействию авторегрессии первого
порядка 𝜀𝑡 = 𝜌𝜀𝑡−1 + 𝑣𝑡 , где 𝑣𝑡 -случайные отклонения, удовлетворяющие
всем предпосылкам МНК, а коэффициент 𝜌 известен. Вычтем из (4.6)
соотношение (4.7), умноженное на 𝜌: 𝑦𝑡 ∗ = 𝛽0 ∗ + 𝛽1 𝑥𝑡 ∗ + 𝑣𝑡 , (4.8) где: 𝑦𝑡 ∗
= 𝑦𝑡 − 𝜌𝑦𝑡−1 ; 𝑥𝑡 ∗ = 𝑥𝑡 − 𝜌𝑥𝑡−1 ; 𝛽0 ∗ = 𝛽0 ∗ (1 − 𝜌). Так как по
предположению коэффициент 𝜌 известен, то очевидно, 𝑦𝑡 ∗ , 𝑥𝑡 ∗ , 𝛽0 ∗ , 𝑣𝑡
вычисляются достаточно просто. В силу того, что случайные отклонения 𝑣𝑡
удовлетворяют предпосылкам МНК, оценки 𝛽0 ∗ и 𝛽1 будут обладать
свойствами наилучших линейных несмещенных оценок. На практике
значение коэффициента 𝜌 обычно неизвестно и его необходимо оценивать.

85. Множественная линейная регрессия. Дисперсии и стандартные


ошибки коэффициентов

Обычно на любой экономический показатель влияет не один, а несколько


факторов. В этом случае вместо функции парной регрессии 𝑀(𝑌|𝑋 = 𝑥) = 𝑓(𝑥)
рассматривается функция множественной регрессии: 𝑀(𝑌|𝑋1 = 𝑥1 ; 𝑋2 = 𝑥2 ;
… ; 𝑋𝑚 = 𝑥𝑚 ) = 𝑓(𝑥1 ; 𝑥2 ; … ; 𝑥𝑚 ).

Теоретическая модель множественной линейной регрессии имеет вид: 𝑌 =


𝛽0 + 𝛽1𝑋1 + 𝛽2𝑋2 + ⋯ + 𝛽𝑚 𝑋𝑚 + 𝜀 (5.2) или для индивидуальных
наблюдений: 𝑦𝑖 = 𝛽0 + 𝛽1 𝑥𝑖1 + 𝛽2 𝑥𝑖2 + ⋯ + 𝛽𝑚 𝑥𝑖𝑚 + 𝜀, (5.3) 𝑖 = 1, 2, … 𝑁,
где N – объем генеральной совокупности. (ИЛИ 𝑦𝑖 = 𝑏0 + 𝑏1 𝑥𝑖1 + 𝑏2 𝑥𝑖2 + ⋯
+ 𝑏𝑚 𝑥𝑖𝑚)

Для проверки качества уравнения регрессии в целом используется


коэффициент детерминации R^2 , который в общем случае рассчитывается
по формуле:

Величина R^2 является мерой объясняющего качества уравнения регрессии


по сравнению с горизонтальной линией y= 𝑦̅ .

Справедливо соотношение 0<=R2<=1. Чем ближе этот коэффициент к


единице, тем больше уравнение множественной регрессии объясняет
поведение Y.
Длямножественной регрессии коэффициент детерминации является
неубывающей функциейчисла объясняющих переменных. Добавление новой
объясняющей переменной никогда не уменьшает значение R2, так как каждая
последующая переменная может лишь дополнить, но никак не сократить
информацию, объясняющую поведение зависимой переменной.
Иногда при расчете коэффициента детерминации для получения
несмещенных оценок в числителе и знаменателе вычитаемой из единицы
дроби делается поправка на число степеней свободы, т.е. вводится так
называемый скорректированный (исправленный) коэффициент
детерминации:

86. Какие существуют способы построения систем линейных


одновременных уравнений? Чем они отличаются друг от друга

Для получения качественных оценок параметров системы одновременных


уравнений пользуются специальными методами. Выбор метода определяется
условиями системы. Существенна также относительная простота алгоритма
самого метода. Сегодня классическими для решения систем одновременных
уравнений являются косвенный МНК и двухшаговый МНК.

Косвенный метод наименьших квадратов


Косвенный МНК основан на получении состоятельных и несмещенных
оценок параметров структурной формы модели по оценкам параметров
приведенной формы. Последние являются состоятельными и несмещенными
в силу применения к каждому уравнению приведенной формы МНК.

Алгоритм применения косвенного метода наименьших квадратов.

Оценим параметры системы одновременных уравнений, которая задана


структурной формой модели.

1.Структурная форма модели преобразуется в приведённую форму

2. С помощью МНК оцениваются параметры приведённой формы

3. Приведённая форма преобразуется в структурную форму

Несмещённые и состоятельные оценки параметров структурной формы


получены

Важно! Область применения косвенного МНК ограничивается


идентифицируемыми системами одновременных уравнений

Двухшаговый метод наименьших квадратов

Двухшаговый МНК применяется как для идентифицируемых, так и для


сверхидентифицируемых систем одновременных уравнений. В этом смысле
метод является общим по отношению к косвенному МНК.

Алгоритм применения двухшагового метода наименьших квадратов

Оценим параметры сверхидентифицируемой системы одновременных


уравнений, которая задана структурной формой модели.

1.Структурная форма преобразуется в приведенную форму.

2.С помощью МНК оценивается параметры приведенной формы

3.В правой части сверхидентифицируемого уравнения структурной модели


выбираются эндогенные переменные и рассчитываются их теоретические
значения по соответствующим приведенным уравнениям.

4.С помощью МНК на базе фактических значений предопредел𝑒енных и


теоретических значений эндогенных переменных оцениваются параметры
сверхидентифицируемого уравнения структурной модели.
87. Множественная линейная регрессия. Методы уменьшения
мультиколлинеарности

Обычно на любой экономический показатель влияет не один, а несколько


факторов. В этом случае вместо функции парной регрессии 𝑀(𝑌|𝑋 = 𝑥) = 𝑓(𝑥)
рассматривается функция множественной регрессии: 𝑀(𝑌|𝑋1 = 𝑥1 ; 𝑋2 = 𝑥2 ;
… ; 𝑋𝑚 = 𝑥𝑚 ) = 𝑓(𝑥1 ; 𝑥2 ; … ; 𝑥𝑚 ).

Теоретическая модель множественной линейной регрессии имеет вид: 𝑌 = 𝛽0


+ 𝛽1𝑋1 + 𝛽2𝑋2 + ⋯ + 𝛽𝑚 𝑋𝑚 + 𝜀 (5.2) или для индивидуальных наблюдений:
𝑦𝑖 = 𝛽0 + 𝛽1 𝑥𝑖1 + 𝛽2 𝑥𝑖2 + ⋯ + 𝛽𝑚 𝑥𝑖𝑚 + 𝜀, (5.3) 𝑖 = 1, 2, … 𝑁, где N – объем
генеральной совокупности. (ИЛИ 𝑦𝑖 = 𝑏0 + 𝑏1 𝑥𝑖1 + 𝑏2 𝑥𝑖2 + ⋯ + 𝑏𝑚 𝑥𝑖𝑚)

Метод дополнительных регрессий

 Строятся уравнения регрессии, которые связывают каждый из регрессоров


со всеми остальными

 Вычисляются коэффициенты детерминации для каждого уравнения


регрессии

 Проверяется статистическая гипотеза с помощью F-теста

Вывод: если гипотеза не отвергается, то данный регрессор не приводит к


мультиколлинеарности.

Метод последовательного присоединения

 Строится регрессионная модель с учетом всех предполагаемых


регрессоров. По признакам делается вывод о возможном присутствии
мультиколлинеарности

 Расчитывается матрица корреляций и выбирается регрессор, имеющий


наибольшую корреляцию с выходной переменной

 К выбранному регрессору последовательно добавляются каждый из


оставшихся регрессоров и вычисляются скорректированные
коэффициенты детерминации для каждой из моделей. К модели
присоединяется тот регрессор, который обеспечивает наибольшее
значение скорректированного

Процесс присоединения регрессоров прекращается, когда значение


скорректированного становится меньше достигнутого на предыдущем
шаге.
Каким бы образом не осуществлялся отбор факторов, уменьшение их числа
приводит к улучшению обусловленности матрицы , а, следовательно, и
к повышению качества оценок параметров модели.

Помимо перечисленных методов существует ещё один, более простой,


дающий достаточно хорошие результаты — это метод предварительного
центрирования. Суть метода сводится к тому, что перед нахождением
параметров математической модели проводится центрирование исходных
данных: из каждого значения в ряде данных вычитается среднее по
ряду: . Эта процедура позволяет так развести гиперплоскости
условий МНК, чтобы углы между ними были перпендикулярны. В результате
этого оценки модели становятся устойчивыми