∑ ( y − ^y x )2 ∙ ∑ x2 = ∑ x2
m a=
√ n−2 n ∙ ∑ ( x−x́ )2 √ 2
s ∙
n ∙ ∑ ( x−x́ )2
1−r 2
mr =
√ n−2
∑ ( y− ý )2=∑ ( ^y x − ý)2 + ∑ ( y− ^y x )2
Общая сумма Сумма квадратов Остаточная сумма
квадратов отклонений, квадратов
отклонений объясненная отклонений
регрессией
Общая сумма квадратов отклонений индивидуальных значений результативного
признака у от среднего значения у́ условно делится на две группы: влияние изучаемого
фактора х и влияние прочих факторов.
Если фактор не оказывает влияния на результат, то линия регрессии на
графике параллельна оси ох и у = у́. Тогда вся дисперсия результативного признака
обусловлена воздействием прочих факторов и общая сумма квадратов отклонений
совпадет с остаточной.
Если же прочие факторы не влияют на результат, то у связан с х
функционально и остаточная сумма квадратов равна нулю. В этом случае сумма квадратов
отклонений, объясненная регрессией, совпадает с общей суммой квадратов.
Поскольку не все точки поля корреляции лежат на линии регрессии, то всегда
имеет место их разброс, как обусловленный влиянием фактора х, т. е. регрессией у по х,
так и вызванный действием прочих причин (необъясненная вариация).
Пригодность линии регрессии для прогноза зависит от того, какая часть общей
вариации признака у приходится на объясненную вариацию. Очевидно, что если сумма
квадратов отклонений, обусловленная регрессией, будет больше остаточной суммы
квадратов, то уравнение регрессии статистически значимо и фактор х оказывает
существенное влияние на результат у. Это равносильно тому, что коэффициент
детерминации r2 будет приближаться к единице.
Любая сумма квадратов отклонений связана с числом степеней свободы df
(degrees of freedom), т.е. с числом свободы независимого варьирования признака. Число
степеней свободы связано с числом единиц совокупности п и с числом определяемых по
ней констант. Применительно к исследуемой проблеме число степеней свободы должно
показать, сколько независимых отклонений из п возможных [ ( y 1 −ý ) , ( y2 − ý ) , ⋯ , ( y n− ý ) ]
требуется для образования данной суммы квадратов.
Для общей суммы квадратов ∑ ( y− ý )2необходимо (n−1) независимых
отклонений, ибо по совокупности из п единиц после расчета среднего уровня свободно
варьируют лишь (n−1) число отклонений.
Например, имеем ряд значений у: 1,2, 3, 4, 5. Среднее из них равно 3, и тогда п
отклонений от среднего составят: - 2; - 1; 0; 1; 2.
Поскольку ∑ ( y − ý )=0 , то свободно варьируют лишь четыре отклонения, а пятое
отклонение может быть определено, если четыре предыдущие известны.
Для объясненной или факторной, суммы квадратов ∑ ( ^y x − ý)2 используются
теоретические (расчетные) значения результативного признака ^y x, найденные по линии
регрессии: ^y x =a+b ∙ x . В линейной регрессии сумма квадратов отклонений,
обусловленных линейной регрессией, составит:
∑ ( ^y x − ý)2=b2 ∙ ∑ ( x− x́)2.
Поскольку при заданном объеме наблюдений по х и у факторная сумма квадратов
при линейной регрессии зависит только от одной константы коэффициента регрессии b, то
данная сумма квадратов имеет одну степень свободы.
Отсюда видно, что при заданном наборе переменных у и х расчетное значение ^y x
является функцией лишь одного параметра — коэффициента регрессии. Соответственно и
факторная сумма квадратов отклонений имеет число степеней свободы, равное 1.
Существует равенство между числом степеней свободы общей, факторной и
остаточной суммами квадратов. Число степеней свободы остаточной суммы квадратов
при линейной регрессии составляет (n−2). Итак, имеем два равенства:
1 ¿ ∑ ( y − ý)2=∑ ( ^y x − ý)2 + ∑ ( y− ^y x )2
2) n−1=1+(n−2).
Разделив каждую сумму квадратов на соответствующее ей число степеней
свободы, получим средний квадрат отклонений или дисперсию на одну степень свободы
D.
Dобщ=
∑ ( y− ý )2
n−1
Dфакт =∑ ¿ ¿ ¿
D ост =
∑ ( y− ^y x )2
n−2
Определение дисперсии на одну степень свободы приводит дисперсии к
сравнимому виду. Сопоставляя факторную и остаточную дисперсии в расчете на одну
степень свободы, получим величину F-отношения, т. е. критерий F.
D
F= факт
Dост
F-статистика используется для проверки нулевой гипотезы об отсутствии связи
признаков H0: Dфакт =Dост
Если нулевая гипотеза Н0 справедлива, то факторная и остаточная дисперсии не
отличаются друг от друга. Если Н0 несправедлива, то факторная дисперсия превышает
остаточную в несколько раз. Английским статистиком Снедекором разработаны таблицы
критических значений F - отношений при разных уровнях значимости нулевой гипотезы и
различном числе степеней свободы. Табличное значение F-критерия - это максимальная
величина отношения дисперсий, которая может иметь место при случайном расхождении
их для данного уровня вероятности наличия нулевой гипотезы. Вычисленное значение F-
отношения признается достоверным (отличным от единицы), если оно больше
табличного. В этом случае нулевая гипотеза об отсутствии связи признаков отклоняется и
делается вывод о существенности этой связи:
F факт > Fтабл , Но отклоняется и уравнение регрессии статистически значимо.
Если же величина F окажется меньше табличной, то вероятность нулевой гипотезы
выше заданного уровня (например, 0,05) и она не может быть отклонена без риска сделать
неправильный вывод о наличии связи. В этом случае уравнение регрессии считается
статистически незначимым:
F факт < Fтабл , Ho не отклоняется.
По МНК:
Условие минимума функции - равенство нулю всех ее частных производных по bj.
Частные производные квадратичной функции являются линейными функциями.
Система нормальных уравнений МНК:
Матричная форма:
Итак, оценки параметров модели парной регрессии согласно МНК будем искать из
условия: n 2
S=∑
2
ui = ∑ ( yi −
~
a0 − ~
a 1 x i ) ⇒ min
i=1
¿
∂S
=∑ 2 ( y i −~
a 0 −~
a 1 x i ) (−1 )=0
∂~
a0
∂S
= 2 y −~
a −~
a x i −x =0
a 1 ∑ ( i 0 1 )( i )
∂~
∂2 S
2
x >0
{n~a0+~a1 ∑ xi=∑ yi ¿¿¿¿
∂2 S ∑
=n> 0 = i
a 20
∂~ a 21
∂~
n ∑ x i y i−∑ x i ∑ y i
~
a 1=
( n ∑ x 2i −∑ xi ∑ x i )
~ Cov( x , y )
a 1= 2
σ ( x)
Проверим выполнение условия несмещенности для оценки. Для этого вычислим
~ Cov( x, u)
a1 a1
( x)
2
числитель выражения .Получаем:
2∑ ( ~y t − ȳ )2 ∑ e2t
R= =1−
∑ ( y t − ȳ ) 2 ∑ ( y t − ȳ ) 2 .
Справедливость правой части формулы основана на тождестве (Равенство
дисперсионного анализа):
2
а) если R =1 , то говорят, что ПЛР полностью отражает зависимость x от y
2
б) если R =0, то делают вывод о том, что информация о значениях переменной x не
влияет на изменение результирующего показателя y:
1) модель абсолютно адекватна,2) следует вывод о непригодности ПЛР
в) чем ближе R2 к 1, тем точнее пр-з
Однако, значение возрастает с ростом числа переменных в регрессии, что не означает
улучшения качества предсказания, и потому вводится скорректированный коэффициент
детерминации
Скорректированный коэффициент детерминации (с учётом степеней свободы):
2 ∑ (~y t − ȳ )2 /m
R̄ = .
∑ ( y t − ȳ )2 / ( T −m−1 )
ESS R SS
R 2= = 1-
TSS TSS
где m – число экзогенных переменных, T – число наблюдений.
По модели регрессии можно осуществить прогноз зависимой переменной вида:
~
y T + K =~
a 0 ( МНК ) + ~
a 1 ( МНК ) x T +K , где k ≥1 – параметр, указывающий на
глубину прогноза,
x
T+ K – планируемое в будущем моменте времени T + k
значение факторной переменной.
Критерий Фишера отражает, насколько хорошо эта модель объясняет общую дисперсию
зависимой переменной:
x 2T +K x 2T +K
√ √
~ 1 1
y T + K −t γ ⋅ S ⋅ + T
< y T +K <~
y T +K +t γ ⋅ S ⋅ + T
T 2
T
∑ ( x t − x̄ ) ∑ ( x t − x̄ )2
t=1 t=1
2 2
S ^y =S e ∙
∑ x 2i + n∙ x 2 .
2
n ∙ ∑ x 2i −( ∑ x i )
Отсюда перейдем среднеквадратической ошибке модели парной линейной
регрессии:
∑ x 2i +n ∙ x2 =S ∙
x́ 2+ x 2
S ^y =S e ∙
√ 2 e
√
n ∙ x́ 2−x́ ∙ ∑ x i
n ∙ ∑ x2i −( ∑ x i )
.
• показательная − y=a0 ∙a x1 ∙ ε;
• экспоненциальная − y=ea +a x ∙ ε .
0 1
∑ y i=n ∙ a0 +a 1 ∙ ∑ x i+ a2 ∙ ∑ x 2i
∑ y i ∙ x i=a0 ∙ ∑ x i +a1 ∙ ∑ x 2i +a2 ∙ ∑ x3i
∑ y i ∙ x 2i =a 0 ∙ ∑ x 2i + a1 ∙ ∑ x 3i + a2 ∙ ∑ x 4i } .
Решают эту систему тем или другим способами получают числовые значения
неизвестных параметров ( a 0 ,a 1 , a2 ).
14.Индекс корреляции и индекс детерминации для
нелинейных регрессионных моделей
2 *2 2 *2 2
∑ ( y i− y )2
R =δ / ==(1- / )= i=1 ; R=(δ*2/2)1/2,
где - общая дисперсия результативного признака y;
2
Квартал D2 D3 D4
1 0 0 0
2 1 0 0
3 0 1 0
4 0 0 1
Y t =β 0+ β1 ¿ X t + δ∗d t ¿ X t + ε t , где
dt = 0 – до структурных изменений
1 – после структурных изменений,
dt - бинарная переменная
зависимости
y a b x b x
1 1 2 2 может привести к нежелательным последствиям –
система нормальных уравнений может оказаться плохо обусловленной и повлечь за собой
неустойчивость и ненадежность оценок коэффициентов регрессии.
Если между факторами существует высокая корреляция, то нельзя определить их
изолированное влияние на результативный показатель и параметры уравнения регрессии
y a b1 x1 b2 x2 b3 x3
Если же, наоборот, между факторами существует полная линейная зависимость и все
коэффициенты корреляции равны единице, то определитель такой матрицы равен нулю:
1 1 1
Det R 1 1 1 0
1 1 1
.
2 2
S yx S yx1 x2
ryx2 x1 1
2
S yx1
[ y 1 ¿ ] [ y2 ¿ ] [ ...¿ ] ¿
y=¿ ¿¿
¿
3. Исключаются потенциальные объясняющие переменные, характеризующиеся
слишком низким уровнем вариабельности.
4. Рассчитываются коэффициенты корреляции между всеми рассматриваемыми
переменными.
5. Множество потенциальных объясняющих переменных редуцируется с помощью
выбранной статистической процедуры.
Речь идет о том, чтобы объясняющие переменные хорошо представляли те
переменные, которые не были включены в модель.
Идея метода показателей информационной емкости сводится к выбору таких
объясняющих переменных, которые сильно коррелированы с объясняемой переменной, и
одновременно, слабо коррелированы между собой. В качестве исходных точек этого
метода рассматриваются вектор R0 и матрица R.
Рассматриваются все комбинации потенциальных объясняющих переменных,
общее количество которых составляет I = 2W-1. Для каждой
комбинации потенциальных объясняющих переменных рассчитываются индивидуальные
и интегральные показатели информационной емкости.
Индивидуальные показатели информационной емкости в рамках конкретной
комбинации рассчитываются по формуле
r 2j
hlj = m i
m m
1+ r ; (l=1,2,…,L; j=1,2,… l), где l – номер переменной, l – количество
∑| ij|
i=1
i≠ j
переменных в рассматриваемой комбинации.
Интегральные рассчитываются по формуле
ml
H l=∑ hlj, (l=1,2,…,L). В качестве объясняющих выбирается такая комбинация
j=1
переменных, которой соответствует максимальное значение интегрального показателя и
формационной емкости.
21.Мультиколлинеарность, ее последствия, признаки,
причины появления.
где
где
Второе условие
значение
^у
p как точечный прогноз ^у при
xp , то есть путем подстановки
xp
в уравнение регрессии.
прогнозное значение
^у p =^a 0 + a^ 1 x p .
a^ 0= у−^a 1 x ,
m2^у =D ( ^у ) ,
^у = a^ 0 + a^ 1 x= у −^a 1 x + a^ 1 x= у + a^ 1 ( x− x ) .
m 2=D
у
( )∑ уi ∑ D ( уi)
i=1
k
2
=
i=1
k2
σ 2⋅k σ 2
= 2 =
k k .
ma a^ 1
Для нахождения дисперсии 1 представим коэффициент регрессии в
k
∑ ( x i− x )⋅( у i − у ) 2
a^ 1 =
i=1 2 σ
k ma = k
1
2
∑ ( xi −x ) ∑ ( x i −x )2
виде i=1 . Тогда i=1 (вывод смотри
ранее в разделе проверка качества уравнения регрессии).
2
Используем в качестве оценки σ остаточную дисперсию на одну степень
2
свободы s . Тогда из (2) получим следующую формулу расчета стандартной ошибки
предсказываемого по линии регрессии значения:
2
s 2
s 2
2 1 ( x p −x )
m2^у =
( )
2
+ k
x
( p ) ⋅ k+
−x =s k
k 2
∑ ( x i −x ) ∑ ( x i −x )2
i=1 i =1
.
(3)
Основываясь на предпосылках регрессионного анализа, можно показать, что
^у −Μ ( у )
t=
статистика
m ^у
имеет t–распределение Стьюдента с ( k −2 )
степенями свободы и можно построить доверительный интервал для условного
математического ожидания Μ ( у) :
^у −m ^у⋅t табл ≤Μ ( у )≤ ^у + m ^у⋅t табл , (4)
t табл=t
где ( 1−α , k−2) ,
неизвестное значение Μ ( у ) .
Прогноз значений зависимой переменной у по уравнению регрессии оправдан, если
значение х объясняющей переменной не выходит за диапазон ее значений по выборке.
Другими словами, экстраполяция кривой регрессии, то есть ее использование вне
пределов обследованного диапазона значений объясняющей переменной может привести
к значительным погрешностям.
при
x =x
p и возрастает по мере того, как
xp удаляется от x в любом
направлении.
33.Модели систем эконометрических уравнений.
Классификация моделей. Проблема идентифицируемости
моделей
2) уравнение спроса:
3) тождество равновесия:
QSt = Qdt
С учётом тождества равновесия, модель спроса-предложения может быть записана
в виде:
Количество эндогенных переменных данной модели M равно двум (Pt и Qt), т.е.
M=2. Количество предопределённых переменных данной модели N равно двум (Pt–1 и It),
т.е. N=2.
Проверим выполнение первого необходимого условия идентифицируемости.
Для функции спроса выполняются равенства m=2 и n=1. Отсюда
(N–n)+(M–m)=(2–1)+(2–2)+(2–2)=1=(N–1)=1,
следовательно, уравнение спроса является точно идентифицированным.
Для функции предложения выполняются равенства m=2 и n=1. Отсюда
(N–n)+(M–m)=(2–1)+(2–2)+(2–2)=1=(N–1)=1,
следовательно, уравнение предложения является точно идентифицированным.
Проверим выполнение второго необходимого условия идентифицируемости.
Для функции спроса выполняются равенства m=2 и n=1. Отсюда
N–n=2–1=1=m–1=2–1=1,
следовательно, уравнение спроса является точно идентифицированным.
Для функции предложения выполняются равенства m=2 и n=1. Отсюда
N–n=2–1=1=m–1=2–1=1,
следовательно, уравнение предложения является точно идентифицированным.
Проверим выполнение достаточного условия идентифицируемости,
заключающееся в том, чтобы хотя бы один из коэффициентов матрицы K не был равен
нулю, т.к. M–1=1.
В первом уравнении модели исключена переменная It и матрица K=[b2]. Т.к.
определитель данной матрицы не равен нулю, следовательно, rank=1=M–1 и уравнение
является идентифицированным.
Во втором уравнении исключена переменная Pt–1 и матрица К=[a2]. Т.к.
определитель данной матрицы не равен нулю, следовательно, rank=1=M–1 и уравнение
является идентифицированным.
Т.к. уравнения спроса и предложения являются точно идентифицированными, то и
система уравнений в целом точно идентифицирована.
Приведённая форма системы уравнений модели спроса-предложения:
36. Оценка структурных коэффициентов эконометрической
модели. КМНК, ДМНК.
{5,2δ11+4,2δ12=6, ¿ ¿¿¿
Отсюда получаем первое уравнение (и аналогично второе):
{ y1=0,852х1+0,373х2+и1 ¿ ¿¿¿
Перейдем к структурной форме следующим образом: исключим из первого
уравнения приведенной формы x2 , выразив его из второго уравнения приведенной формы
и подставив в первое уравнение:
−0 , 072 х1 − у 2
x 2=
0 , 00557 .
Первое уравнение структурной формы:
−0 , 072 х1 − у 2
(
^у 1 =0 , 852 х 1 +0 , 373
0 ,00557 ) =−66 ,966 у 2 −3 , 97 х 1
.
Аналогично исключим из второго уравнения x1, выразив его через первое
уравнение и подставив во второе:
у 1−0 ,373 х 2 у 1−0 ,373 х 2
х 1=
0 , 852 (
;⇒ ^у 2 =−0 ,072
0 , 852) −0 ,00557 х2
,
^у 2 =−0 , 085 у 1 +0 , 026 х 2− второе уравнение структурной формы.
{ y1=−1,09+0,364у2+1,192х1+ε1, ¿ ¿¿¿
Двухшаговый МНК. ДМНК используется для сверхидентифицируемых систем.
Основная идея ДМНК: на основе приведенной формы модели получить для
сверхидентифицируемого уравнения теоретические значения эндогенных переменных,
содержащихся в правой части уравнения. Далее, подставив их вместо фактических
значений, можно применить обычный МНК к структурной форме
сверхидентифицируемого уравнения. Здесь дважды используется МНК: на первом шаге
при определении приведенной формы модели и нахождении на ее основе оценок
Рассмотрим модель:
{ y1=0,852x1+0,373х2+и1, ¿ ¿¿¿
На основе второго уравнения этой системы можно найти теоретические значения
фактические значения
y2 их оценками
^y 2, найдем значения новой переменной
z= ^y 2 +x 1 . Применим МНК к уравнению:
у 1=b12 z .
Получим:
b12=
∑ y1 z = 5,512 =1,243.
∑ z2 4,434
В целом рассматриваемая система будет иметь вид:
{ у1=1,243( у2+х2) ¿ ¿¿¿
Второе уравнение не изменилось по сравнению с предыдущим примером.
37.Временные ряды. Анализ автокорреляции.
выровненных данных
T E T E в мультипликативной модели.
в аддитивной или
выровненных данных
T E T E в мультипликативной модели.
в аддитивной или
yt=a + bxt+ t .
Для периода времени (t -1) справедливо равенство
yt-1=a + bxt-1+ t 1 .
Если имеет место автокорреляция в остатках, т.е. последующие по времени остатки
зависят от предыдущих, то регрессия остатков может быть представлена как
t c d t 1 V t ,
где V t — случайная ошибка для линейной регрессии остатков.
Но так как
y y t t t то t
0
иt
0
. Полагая, что t 1
t имеем
c d 0.
t t 1 Тогда регрессия остатков примет вид
t
d V t ,
t 1
d
cov , ,
t t 1
2
t 1
где
cov ,
t t 1 t t 1 t t 1 t t 1
d
t t 1
2 2
2
d
t t 1
2
, t
V
t t t 1
;
a a 1 a .
у* =а +bx*+ t , V
где Vt — независимые случайные величины, имеющие нормальное распределение.
Так как ошибки Vt удовлетворяют предпосылкам МНК (они не содержат
x1 1 x1 ; 1 y .
2 2
y
(5.30)
1 1
2
y1 1 2
1x 1
y 2 y1 x 2 x1
x x 3 x 2 .
y y3 y2
yn y n 1 x n x n 1
К преобразованным переменным
y иx
a1
параметр a как
a a / 1 .
b p x pt
x pt 1 t
t 1
.
Или, исходя из прежней символики, строим модель вида
y a b x b x
1 1t 2 2t
b p x pt V t .
t
y , x ,x
1t 2t
, , x pt
Применяя к переменным t традиционный МНК, найдем оценки
a a / 1 .
параметров b1 b 2
, , , b p
l
сглаживания и . При этом исследователь должен иметь в виду, что чем шире интервал
сглаживания, тем в большей степени поглощаются колебания, и тенденция развития носит
более плавный, сглаженный характер. Чем сильнее колебания, тем шире должен быть
интервал сглаживания.
Схема сглаживания временного ряда по простой скользящей средней заключается в
следующем:
- определение длины интервала сглаживания, включающего в себя
(l n)
последовательных уровней ряда и ;
- разделение исходного временного ряда на участки, каждый из которых содержит
l
уровней и уровней;
- вычисление средних значений для уровней ряда, образующих каждый участок;
-замена центральных значений на каждом участке на соответствующие средние
значения.
При этом удобно брать длину интервала сглаживания l и в виде нечетного числа:
y
где t — центральный уровень активного участка; t p t p 1 t 1
—
y ,y ,..., y ,
y
i t p
i y t p
,y ,..., y , y ,..., y
t p 1 t 1 t 1 t p 1
,y
t p
y t
2 p 1
2 p 1
,
y
где i — фактическое значение i-го уровня; t — значение скользящейсредней в
y
момент t; 2р + 1 — длина интервала сглаживания.
При реализации простой скользящей средней выравнивание накаждом активном
участке производится по прямой (по полиномупервого порядка). Таким образом,
осуществляется аппроксимация неслучайной составляющей с помощью линейной
функции времени:
y a a t
t 0 1
.
70
60
50
40
30
20
10
0
-4 -3 -2 -1 0 1 2 3 4
Моменты времени
y t
7a 0 a1 t
t 3 . 3
t
3 =0, а сглаженное значение в центральной точке активного участка
определяется коэффициентом а0. Из уравнения (5.2) получается выражение для
этого коэффициента:
3
y t
a 0 t 37 .
Таким образом, в качестве сглаженного значения в центральной точке активного
участка следует брать среднее арифметическое из уровней ряда, образующих этот
участок. Полученный вывод является обоснованием ранее рассмотренного алгоритма
сглаживания
45.Метод наименьших квадратов для оценки параметров
уравнения регрессии и его модификации
2
yi y xi min
i . Как известно
из курса математического анализа, для того чтобы найти экстремум функции нескольких
переменных, надо вычислить частные производные первого порядка по каждому из
параметров и приравнять их к нулю.
Итак. Имеем функцию m 1 аргумента:
S a, b1 , b2 , ..., bm y a b1 x1 b2 x2 ... bm xm
2
.
Находим частные производные первого порядка:
S
a 2 y a b1 x1 b2 x2 ... bm xm 0;
S 2 x y a b x b x ... b x 0;
b 1 1 1 2 2 m m
1
........................................................
S 2 x y a b x b x ... b x 0.
bm m 1 1 2 2 m m
................................................................
a x b x x b
m 1 1 m 2 x2 xm ... bm xm yxm .
2
a x2 b1 x1 x2 b2 x2 yx2 .
2
Метод наименьших квадратов применим и к уравнению множественной регрессии
в стандартизированном масштабе:
t y 1t x1 2t x2 ... mt xm ,
(2.4)
y y
ty
t y , t x1 , ..., t xm y
где – стандартизированные переменные: ,
xi xi
t xi
xi ty txi 0
, для которых среднее значение равно нулю: , а среднее
y xi
t t 1
квадратическое отклонение равно единице: ; i – стандартизированные
коэффициенты регрессии.
Стандартизованные коэффициенты регрессии показывают, на сколько единиц
ryxi rxi x j
где и – коэффициенты парной и межфакторной корреляции.
коэффициентами регрессии
i следующим образом:
y
bi i
xi
.
Поэтому можно переходить от уравнения регрессии в стандартизованном масштабе
(2.4) к уравнению регрессии в натуральном масштабе переменных (2.1), при этом
значением i .
На основе линейного уравнения множественной регрессии
y a b1 x1 b2 x2 ... bm xm
могут быть найдены частные уравнения регрессии:
y x x , x ,..., x f x1 ,
1 2 3 m
y x x , x ,..., x f x2 ,
2 1 3 m
.............................
y xm x1 , x2 ,..., xm1 f xm ,
т.е. уравнения регрессии, которые связывают результативный признак с
x
соответствующим фактором i при закреплении остальных факторов на среднем уровне.
В развернутом виде систему (2.8) можно переписать в виде:
y x1x2 , x3 ,..., xm a b1 x1 b2 x2 b3 x3 ... bm xm ,
y x2 x1 , x3 ,..., xm a b1 x1 b2 x2 b3 x3 ... bm xm ,
........................................................................
y x x , x ,..., x a b1 x1 b2 x2 b3 x3 ... bm xm .
m 1 2 m1
При подстановке в эти уравнения средних значений соответствующих факторов
они принимают вид парных уравнений линейной регрессии, т.е. имеем
y x1x2 , x3 ,..., xm A1 b1 x1 ,
y x2 x1 , x3 ,..., xm A2 b2 x2 ,
................................
y x x , x ,..., x Am bm xm ,
m 1 2 m1
где
A1 a b2 x2 b3 x3 ... bm xm ,
A a b x b x ... b x ,
2 1 1 3 3 m m
..............................................
Am a b1 x1 b2 x2 b3 x3 ... bm1 xm1 .
В отличие от парной регрессии частные уравнения регрессии характеризуют
изолированное влияние фактора на результат, ибо другие факторы закреплены на
неизменном уровне. Эффекты влияния других факторов присоединены в них к
свободному члену уравнения множественной регрессии. Это позволяет на основе частных
уравнений регрессии определять частные коэффициенты эластичности:
xi
Эyx bi
i y bi
xi x1 , x2 ,... xi 1 , xi 1 ,..., xm , где –
3. исходный ряд динамики должен иметь достаточное число уровней, с тем, чтобы
отчетливо проявилась тенденция.
t 1
2
t
d t 2
n
t 1
t
2
.
Т.е. величина d есть отношение суммы квадратов разностей последовательных
значений остатков к остаточной сумме квадратов по модели регрессии.
Можно показать, что при больших значениях n существует следующее
Т.е. 0 d 4 .
Алгоритм выявления автокорреляции остатков на основе критерия Дарбина-
Альтернативные гипотезы
H1 и H1* состоят, соответственно, в наличии положительной
или отрицательной автокорреляции в остатках. Далее по специальным таблицам (см.
вероятностью P 1 принимается
H1 ;
d L d dU – зона неопределенности;
4 dU d 4 d L – зона неопределенности;
и отклоняют гипотезу
H0 .