Академический Документы
Профессиональный Документы
Культура Документы
Грешилов А.А. - Математические Методы Принятия Решений (2-е Издание) - 2014
Грешилов А.А. - Математические Методы Принятия Решений (2-е Издание) - 2014
Грешилов
Математические
методь1
принятия решении
~ ИЗДАТЕЛЬСТВО
t-'
.J МГТУ им. Н.Э. БАУМАНА
Москва
2014
УДК 519.24+519.81
ББК 22.18
Г81
Рецензент
д-р физ.-мат. наук, профессор А. Ф. Кушнир
Грешилов А. А.
Г81 Математические методы принятия решений : учеб. посо-
бие (с рассчетными программами на оптическом диске) /
А. А. Грешилов. - 2-е изд., испр. и доп. - М. : Изд-во
МГТУ им. Н. Э. Баумана, 2014.- 647, [1] с. : ил.
ISBN 978-5-7038-3910-2
Изложены методы решений задач математического программи
рования и статистических задач принятия решений (задачи распо
знавания образов). Рассмотрены алгоритмы, позволяющие учиты
вать влияние погрешностей всех случайных величин, фигурирую
щих в задаче (конфлюэнтный анализ).
Рассматриваются реальные примеры, например, идентификации
землетрясений и слабых взрывов по результатам сейсмических на
блюдений, идентификации летательных аппаратов, задачи о назна
чениях, о максимизации вьmуска продукции и т. п.
УДК 519.24+519.81
ББК 22.18
Предисловие
~
наилучшего варианта деиствии
~·.
бый процесс человеческой деятельности, направленный на выбор
ит. п .
исходных данных.
методами.
тематическим словарем.
Математическое
программирование
Шарль Монтескье
Глава 1
ВВЕДЕНИЕ В МАТЕМАТИЧЕСКОЕ
ПРОГРАММИРОВАНИЕ
5
С1Х1 + С2Х2 + С3Х3 + С4Х4 + С5Х5 = L,CiXi • mш.
i=I XJ , ...,Х5
5
ai2x1 + а22х2 + аз2хз + а42х4 + as2xs = I, ai2Xi г fu,
i= I
5
Щ3Х1 + а23Х2 + а33Х3 + а43Х4 + а53Х5 = L, ai3Xi г hз.
i= l
х1 г О, х2 г О, хз г О, х4 г О, xs г О.
программирование.
3
с1х1 + с2х2 + сзхз = LCiXi • max.
i=l х1,х2,хз
программирования .
личных уровнях.
2 3
С11Х11 + С12Х12 + С13Х1 3 + С21Х21 + С22Х22 + С23Х23 = L L CijXij • min.
i=l j = \
3
х11 +х12 +хв = LXIJ =s1,
j=l
3
Х21 + Х22 + Х23 = L X2j = S2.
j=l
позволяют:
(1.1)
при ограничениях
hp(X1,X2, ...,Xn) = О .
Используем понятие вектора как упорядоченную совокупность
действительных чисел х = (х1 ,х1 , ..., хп) (в отличие от свободного
вектора, известного в геометрии, - направленного отрезка, кото
ния от 1 до соответственно т и р.
26 Часть I Математическое программирование
Х1
Х2
(х1,Х2, •.. ,Хп)т =
Хп
f(x) = L L aijXiXj
i=l j = I
п п
= Laii xl +
i= l
2r L aijXiXj,
п п
i=I } =2
j>i
где aiJ - элементы симметрической матрицы А =11aiJ 11 порядка
п х п , aiJ = аJi (квадратной таблицы чисел), называют квадратич
ной формой переменных.
Глава 1. Введение в математическое программирование 29
дf
вводится понятие частных производных Частные производ-
дхi
_ ,lf'(
grad f = ) _ дf l. + -дf J· + ... + -дf k ,
vJ Х1, Х2, ..., Хп - -
дх1 дх2 дхп
где v' - знак градиента, i,j, ... ,k - единичные векторы (орты),
i = (1, 0, ... ,0), j = (0,1, ... ,0), ... , k = (0,0, ... ,1).
Иногда применяется обозначение градиента в виде v' xf;
индекс х показывает переменные, по которым определяется гра
заданной функции.
Скорость изменения скалярной функции f(х1,х2, ...,хп) в
произвольном направлении, задаваемом единичным вектором
ними:
-----
(а,Ь) =1а 1·1 Ь I cos(a,b).
-- --
cos(Vf ,и)= О, (Vf,u) 7t
=- , Vf J_ и.
2
Нам понадобятся понятия линейной зависимости и независи
мости векторов. Векторы а1, а2 , ..., ат называют линейно зависи
мыми, если найдутся такие действительные числа а1,а2, ...,ат, не
все равные нулю, что линейная комбинация векторов ai , а2, ..., ат
равна нулю: а1а1 + а2а2 + ... + атат =О. Если это равенство
выполнено только тогда, когда все числа а 1 , а 2 , ...,ат равны нулю,
g1 ( Х) = XJ - Xi ~ 0,
g2(x) = l - xf-x1 ~О.
Область допустимых значений пере Х2
менных х1 и х2 в этой задаче есть пере
сечение области, лежащей «внутри» па
раболы х1 = х1, с кругом единичного
радиуса, уравнение окружности которо
-1
го имеет вид xf + х1 = 1 (рис. 1.4).
Пересечение цилиндра, направляю
щей которого является граница полу-
ченной области D, с поверхностью р пс. 1.4. Область допу-
z z
LM
1
1
1
1
1
1
1 1 I
1 Xz
а
1
1 ~ 1 ~:
D
z
м
в
ния х
*
и в точке
-
х, не яв- Vf (х*), если он отличен от нуля, со
ляющейся решением задачи ставляет нетупой угол <р с вектором,
математического програм направленным из х* в любую точку
мирования (знаками «+» и х1 Е D. Другими словами, скаляр
«-» указано направление ное произведение (Vf (х* ), х1 - х*) ~ О
возрастания значений ли (рис. 1. 7). Для точки х, не являю-
ний уровня)
щейся решением задачи, всегда
найдется такая точка х2, что угол (J)1 будет больше тr12.
дf(х*) __ *
0 если ai < xi < bi ,
дхi '
дf(х*) О *
--- > , если Xi = ai '::f- -=,
дхi
дхi
Здесь градиент направлен внутрь области D.
Чтобы определить координаты возможной оптимальной точки,
составим из необходимых условий соответствующие системы
уравнений и решим их.
Глава 1. Введение в математическое программирование 37
Соотношения
'"\ *) , х - Х * ) >
(V xL(x* , и * , 11, _ О (1.8)
при всех хЕ Р,
Xk* -дL (X * ,И * , л
,.. * ) = 0, k = 1,2, ...,s, (1.10)
дхk
дL '\ > дL _
- -(x,u,A)- О, Хk -- (х,и , л) - О, k = 1,2, ...,s,
дхk дхk
дL
- (х, и,л) = О, k = s + 1, ...,п,
дхk
f *
-5, f(x)- ~ *
L..Иi gi(x) +
fL.. л1h1(х)
1*
= L(x,y *).
i=I j =I
где
<Р(У) = xED
inf L(х,и,л) = inf (t(x)- fщgi(x) + I, Ajhj(x)),
xED i=\ j=I
LCjXj -нnin
j =l
при
п п
L(x,y) = I,cjXj +
j =l
f yi (ьi - ±aijXj) = ±(cj - f aijyi)Xj + fьiYi,
i= l j =l j =l i= l i= l
где
.
шf L(x,y) =
{±ьiYi, если
i= l
уЕ У,
ХЕР
-оо, если уЕ Q\Y,
где
У-{уЕ Qifiaчy, <с1, j = 1,2, ... ,s, fi=\ aijyi = Cj, j = s + 1, ...,п}.
'f,ayyi = с1 , j = s + 1, ...,п,
i= I
Yi ~ О, i = 1,2, ...,k.
xj (f
1= ]
ayy; -с1) = О, j = 1, 2, ...,s,
~п .
ти п х п ; d , а1 , ..., ат - заданные векторы из Ь~ , ...,Ьт - за-
'
данные числа.
1 т
L(x,y) = (Сх,х)+ (d,x)+ ~Yi((ai,x)-bi) =
2
1 1
= - (Сх,х) + (d,x)+ (у, Ах-Ь) = - (Сх, х) + (d + уА, х)-(у, Ь).
2 2
Задачей, двойственной к исходной задаче квадратичного про
граммирования, будет следующая:
<:р(у) • max, уЕ У,
где
(1.12)
Таким образом,
1
f(xk) = f(xk+l)+ - a; Gak, (1.13)
2
В силу равенств (1 .11) и (1 .13) имеем
vт _rkak = -a;Gak
или
(1.14)
- -2(/(xi+I )- f(xi)) .-
gi+l,i+l - л} , z - 0,1, ...,п -1. (1.15)
хjп -
-
xij ' 1· -- 1' 2' . .., z·'· xi.] = х]0 ' 1· -- z· + 1
' . . .,
п.
Следовательно,
(1 .17)
(1.18)
Глава 1. Введение в математическое программирование 51
1
f(x) = (1 , l)х+ -хт
2
(21 1) х • min.
1
Определим диагональные элементы матрицы G.
0 0
Положим х = (0,0); тогда /(х ) = О. Пусть so = (1, 0). Тогда
л 0 = - 1/2, cr0 = (-1 /2,О)Т, х 1 = (- 1/2,0), f(x 1 ) = - 1/4. По формуле
(1.15) имеем g11 = 2.
Пусть s1 = (1,0). Тогда получим л 1 = -1/2, cr1 = (0, -1/2)\
х = (-1/2,-1 /2), /(х 2 ) = -3/8. Поформуле(1 . 15)имеем g22 =1 .
2
2 1
хз -о-IV/(хз) = 5 ( 1 -1)
2 - -1 2
5 -( о)
1 - -1 .
5 5
Задача решена.
52 Часть I. Математическое программирование
i+1 -_
Х Х
i 1 дf(xi)
- Ai - - - ,
· - о , 1, 2, •••,
l -
(1.19)
дх
f(
xi -л· дf(xi)) = minf(xi -л дf(xi)) i= О12
z дх л>о дх ' ' ' ' ...
В этой процедуре соседние градиенты ортогональны, т. е.
1
f(х) = Ьтх+
2
хтGх, (1 .20)
k-1
xk=x 0 +LAiSi, k = I,2, ...,n-1.
i=O
Положим
X i+l = Xi -
1
·S·+1,
/1, 1 1
1· -- 0' 1' 2' •••,
ло = -1 cro = ( --1 О )т
2' 2' '
'А1=½, сr1=(0,-½)т,
oJ+( _ ~]s(l.
О _!_ 4'
_ =( 1-1)
_!_)
2 -1 2 .
2
Решение получено.
Если известна какая-нибудь квадратная подматрица порядка
п- r матрицы вторых частных производных порядка п функ
ции f (х) , то для минимизации положительно определенной
квадратичной формы потребуется только п + 1 шагов алгоритма
переменной метрики (при выполнении предыдущих предполо
жений).
Пусть, например, известны вторые частные производные
i , j = 1,2, ...,п- r.
G = V' f - ( ~ :}
Имеем
~ -1
G-1 = GO
(
ло = -
1
5'
<Jo =(-1.5' __!_)т
5 '
1 1 )т ( 4 11 )т , V/1 = (5,-5,
2 2 )т
х1 = (1,-2У+-5,-5
( = 5 , -5
1
Yo =-
so·
н1 =[½ J+(
О
0
О
1~] 50 (_!_,
_1_ 10
_2)
10
=( 1 -1)
-1 2 .
10
Отсюда видно, что уже после первой итерации мы получили иско
мую обратную матрицу.
60 Часть I. Математическое программирование
(1.22)
2) если все собственные значения матрицы G(xi) больше или
равны нулю, то выбираем s так, чтобы было либо
(1.23)
либо
(1 .24)
Одновременно условия (1.23) и (1.24) выполняться не могут.
Единственным случаем, когда с помощью правил 1) и 2) нельзя
указать ненулевой направляющий вектор s, является тот, когда
G(xi) - положительная полуопределенная матрица и V/(xi) = О,
т. е. когда мы находимся в точке, удовлетворяющей необходимым
условиям первого и второго порядка безусловного локального ми
нимума функции / ( х).
Для невыпуклой функции несколько итераций по направлению
вектора, удовлетворяющего условию (1.22), могут привести к зна
чительному ускорению сходимости процесса минимизации.
G(xi) = L1-Dl-П1 ,
где ~ - невырожденная нижняя треугольная матрица, Di - диа
гональная матрица.
ЛИНЕЙНОЕ ПРОГРАММИРОВАНИЕ
LЩJXj - Xi = bi ,
}=1
L, aiJXJ 5' bi
} =1
I, aiJXJ + xi = bi.
j =1
двумя неравенствами:
п п
"а··х·
L, lj ] > i...
-Ui, L, aiJ хJ 5, bi .
j =I )=1
дачи.
при условиях
f(x)=3-x4+xs
при ограничениях
х2 + 2х4 + Зхs - 7 = О,
хз - Х4 - Зхs - 2 = О,
Х\ + Х4 + Х5 - 2 = 0,
Х\ ~ О, Х2 ~ О, Х3 ~ О, Х4 ~ О, Х5 ~ о.
68 Часть I Математическое программирование
О 1 О
О О 1
1 О О
XI =2- Х4 - Х5,
Х2 = 3 + 2Х1 - Х5,
хз = 4- хI - 2xs ,
.f( х) = 3 - 2 + Х1 + Х5 + Х5 = 1+ Х1 + 2xs .
Глава 2. Лин,ейн,ое программирован,ие 69
Х\ = 0, Х5 = 0, Х2 = 3, Х3 = 4, Х4 = 2,
/min(x) =1.
Какие выводы можно сделать из этого примера? Во-первых,
необходимо так разделить базисные и свободные переменные,
чтобы получить допустимое базисное решение, а затем выразить
базисные переменные и целевую функцию через свободные пере
менные. Во-вторых, по знаку коэффициентов при неизвестных в
целевой функции следует определить:
а) достигнуто ли уже оптимальное решение (т. е. нет отрица
тельных коэффициентов);
б) значение какой переменной надо увеличить, т. е. какую пе
ременную следует перевести в свободные.
Другими словами, определяя минимальное положительное
отношение элементов столбца свободных членов к коэффициентам
при новой свободной переменной, находим базисную переменную,
которую необходимо перевести из базисных в свободные . После
этого выражаем условия-ограничения и целевую функцию через
новые свободные переменные.
Процесс повторяют до тех пор, пока не будет получено опти
мальное решение. Если среди коэффициентов при неизвестных в
целевой функции существует положительный, а все коэффициенты
в условиях-ограничениях в соответствующем столбце неположи
тельны, то задача линейного программирования не имеет оптималь
ного решения, минимальное значение целевой функции равно - 00 •
Полученные результаты можно сформулировать в виде следу
ющих теорем:
~
шении, конечно и не превышает
ciN = и,
L!(N-L)!
Теорема 5. Если в некоторой точке множества допустимых
решений задачи линейного программирования ее целевая функ
ция достигает оптимума, то она будет принимать оптимальное
значение хотя бы в одной крайней точке множества допустимых
решений.
Если целевая функция достигает оптимума в нескольких край
них точках множества допустимых решений, то она достигает оп
тимума и в любой их выпуклой комбинации.
Выпуклой комбинацией векторов Хк, К = 1, ... , т, называется
линейная комбинация Л1Х1 + ... + Л.тХт этих векторов, коэффици
енты Л.к которой удовлетворяют условиям Л.к ~ О, К= 1, ... , т,
т
Z: л.к =1.
K=l
Доказательства этих теорем приведены в учебнике: Вол
ков И.К., Загоруйко Е.А. Исследование операций / Учебник для
студентов высших технических учебных заведений. Под ред.
В.С. Зарубина и А.П. Крищенко. М.: Изд. МГТУ им Н.Э. Баумана,
2009. 435 с.
В симплекс-методе несовместность (пустая допустимая об
ласть) выражается в том, что в оптимальной таблице среди базис
ных переменных присутствует слабая переменная, имеющая по
ложительное значение.
XJ + Х2 + Х3 = Ь~, Х\ ~ о, Х2 ~ о, Х3 ~ О.
72 Часть I Математическое программирование
Х3
где bi ~ О, i = 1, 2, ..., т.
74 Часть I Математическое программирование
~i = bi - L aijXJ, (2.2)
j =l
z=cx
при условиях
Ах=Ь, х> О
или
z =сьхь
при условии
Вхь = Ь,
где сь - коэффициенты целевой функции (элементы вектора с),
хь о в ь о в- 1 ь в- 1 ь
о в- 1 о А х о в- 1 ь
а - -------------- а
,.ls,,--
:
е
............ -,,,,,,,.,,,.
,,~ , 1 /11
1
п
аzп 1
1
.,,~-
,,,,,,.,,,. \С' ...........
:
1
г-1....--1.,,..... ~ 1
1 а . г------------ а .
:__ !~r т
:
1 8><®
,,,,,,. ........ :
ais 1 ,,,' - ~ 1
а' -------------- Ь
тs т
XI + 3,5Х2 S 350,
2х1 + О, 5х2 s 240,
Х1 +х2 S150,
Х1 +Х2 ~110,
l0x1 + 20х2 ~ 1400,
XI ~ О, Х2 ~О.
Глава 2. Лин,ейн,ое программирован,ие 79
Столбец
Базисные
свободных -х1 -х2 -хз -х4 -Х5 -Хб -х1 Контроль
переменные
членов Ь;
Х3 700 2 7 1 о о о о 710
Х4 480 4 1 о 1 о о о 486
Х5 150 1 1 о о 1 о о 153
Х6 -110 -1 -1 о о о 1 о -111
Х7 -140 -1 ~ о о о о 1 -142
f(x ) о -10 -20 о о о о о -30
q>(x) -250 -2 -3 о о о 1 1 -253
О= 700 - 2х1 - 7 х2 - хз ,
0 = 480-4х1 -х3 -Х4,
столбца - х2: 700 = 100 480 = 480 150 = 150 -110 = 110
7 ' 1 ' 1 ' -1 '
-140
- - = 70. Минимальное значение, равное 70, указывает, что пе-
-2
ременную Х7 надо перевести в свободные переменные, а генераль
ным (разрешающим) элементом является -2 (обведен). Для полу
чения следующей симплекс-таблицы применим метод полного ис
ключения Жордана (табл. 2.2).
Таблица 2.2
Первая итерация
Базисные
Ь; -xi -х2 -хз -Х4 -Х5 -Хб -Х7 Контроль
переменные
Таблица 2.3
Вторая итерация
Базисные
Ь; -Х1 -Х2 -хз -Х4 -Х5 -Хб -Х7 Контроль
переменные
Х3 330 о о 1 о о -3 ~ 333
Х4 130 о о о 1 о 7 -3 135
Х5 40 о о о о 1 1 о 42
Х\ 80 1 о о о о -2 1 80
Х2 30 о 1 о о о 1 -1 31
f(x) 1400 о о о о о о -10 1390
<р(х) о о о о о о о о о
Базисные
Ь; -х1 - xz -хз -Х4 -xs -Хб -Х7 Контроль
переменные
Х7 66 о о 115 о о -3 /5 1 333/5
Х4 328 о о 3/5 1 о 26/5 о 1674/ 5
Х5 40 о о о о 1 ш о 42
Х1 14 1 о - 115 о о - 7/5 о 67/5
х2 96 о 1 115 о о -2/5 о 488/5
f (x) 2060 о о 2 о о -6 о 2056
Глава 2. Лин,ейн,ое программирование 83
Таблица 2.5
Оптимальное решение
Базисные
Ь; -xi -xz -хз -х4 -xs -Хб -Х7 Контроль
переменные
коэффициенты.
Рассмотрим графическое решение этой задачи. Поскольку за
дача двумерная, то решим ее графически. Система неравенств
ограничений определяет многоугольник допустимых решений
(рис. 2.3).
Сначала определим полуплоскости, задаваемые неравенства
ми-ограничениями задачи. Для этого построим прямые, заменив в
84 Часть I. Математическое программирование
...... ......
......
...... ......
......
...... ......
Vf
L aiJXJ = ~, i = k + 1, .. ., т, Yi ~О, i = k + 1, .. ., т,
J=I
т
п т
х1 ~ О , j = 1, 2, ..., п. Yi ~ О , i = 1, 2, ..., т.
Канонический вид
п т
х j ~ о, j = 1 , 2 , .. ., п. Yi ~ О, i = 1 , 2, . .., т.
А=
min.f(x) = max<p(y);
88 Часть I. Математическое программирование
у(Ах-Ь)=О, (2.5)
(с- уА)х= О. (2.6)
Условие (2.5) равносильно условиям:
п
f(x) = I,c1x1
j =I
при условиях
Пункт В1 В2 Вз В4 Запасы
3 2 4 1
А1 Xt 1 Х12 Х13 Х14 а1 = 50
2 3 1 5
А2 Х21 Х22 Х23 Х24 а2 = 40
3 2 4 4
Аз Хз1 ХЗ2 Хзз Хз4 аз= 20
Потребности Ь~ = 30 ЬJ. = 25 Ьз = 35 Ь4 = 20 110
функцию
3 4
f(x) = L,L,CijXij
i= lj= l
4
I,xif = ai, i = l , 2,3,
j =I
3
L Xij = Ьj , j = 1, .. ., 4.
i= l
Пункт В1 В2 Вз В4 а; Пункт В2 Вз В4 а;
А1 30 50* 20 А1 20 20*
А2 40 А2 5 40* 35
Аз 20 Аз 20 20
Ь; 30* 25 35 20 110 Ь; 25* 35 20 80
Таблица 2.9 Таблица 2.10
Третья итерация Четвертая итерация
Пункт Вз В4 а; Пункт В1 В2 Вз В4 а;
3 2 4 1
А2 35 35* А1 30 20 50
Аз 20 20 А2
2 3 5 1
35 5
40
3 2 4 4
ь1 35 20 55 Аз 20 20
Ь; 30 25 35 20 110
<р( а, 13) = 50а1 + 40а2 + 20аз + 30131 + 25132 + 3513з + 20l34 • max
3 2 4 4
аз =3 20
Глава 2. Лин,ейн,ое программирован,ие 97
а1 + 13з s 4, 0s4,
а2 + 131 s 2, 4s2,
а2 + /34 s 5, 2 s 5,
(2.8)
аз + 131 s 3, 6 s3,
аз+ 132 s 2, 5 s 2,
аз+ 13з s 4, 4s4.
Второе, четвертое и пятое неравенства являются неверными,
поэтому решение не является оптимальным. Необходимо провести
улучшение плана.
а2 =1 5 35
+ -
аз =3 20
Таблица 2.13
Второе допустимое решение
Потенциал В1 =3 В2 =2 Вз =О в4=1
.J -
30 2+ 4 l
а1 =О о 20
2+ 3- 1 5
а2 =1 5 35
аз
3 2 4 4
=3 20
Таблица 2.14
Оптимальное решение
Потенциал В1 = з В2 = 2 Вз = О в4 = 1 а;
а1 =О 3
25 2 5 4 1
20 50
а2 = -1 2 5 3 1
35 5 40
аз= О
3 2 20 4 4 20
bi 30 25 35 20 110
Цикл пересчета для клетки (2, 1) показан в табл. 2.13. Третье
допустимое решение приведено в табл. 2.14. Здесь же указаны
значения рассчитанных для данной итерации потенциалов. Не
трудно убедиться в том, что для всех свободных клеток сумма по
тенциалов меньше cij, т. е. получено оптимальное решение. Оно
означает, что от первого поставщика к первому потребителю тре
буется перевезти 25 т груза, ко второму - 5 т, к четвертому -
20 т; от второго поставщика надо перевезти к первому потребите
лю 5 т груза, к третьему - 35 т; от третьего поставщика необхо
димо перевезти 20 т груза только ко второму потребителю. Вы
числим минимальное значение целевой функции:
Пункт В1 В2 Вз Запасы
3 4 7
А1 20
6 3 2
А2 10
Потребности 10 12 8 30
2 3
I: ai = I: ь1 = 3 о,
i= I ) =1
ков и источников:
Таблица 2.16
Модифицированная транспортная задача
Исходные
Исходные стоки
источники Запасы
Пункт
- -
В1 В2 Вз /4 А2
3 4 7 о 5
А1 20+30 = 50
6 3 2 3 о
А2 10+30 = 40
- о 5 4 2 5
В1 30
- 9 о 1 3 2
В2 30
- 2 4 о 2 6
Вз 30
Потреб-
10+30 = 40 12+30 = 42 8+30 = 38 30 30 180
ности
при условиях
D ' ... . • •
OEFGH, которую можно рассмат
ривать как область допустимых ре
н
шений некоторой другой задачи ЛП.
Действительно, если к задаче линей
ного программирования , определяю
Таблица 2.17
Запись задачи целочисленного
программирования
Х\ о -1 ... о
... ... ... ... ...
Хп о о ... - 1
Хп+I an+l,O an+l ,I ... а,нl ,п
ленными.
LYiJXj ~ f(bi),
j
имеем
значения, имеем
s = - fю - L/i1(-x1 ), (2.10)
j
1 1 7
х2 + -хз - -х4 =-.
2 2 2
Дополнительное ограничение (2.1 О) в данном случае будет иметь
следующий вид:
или
Т. е. Х3 + Х4 ;?; 1 .
В симплекс-таблицу вносим хз + Х4 - xs = 1, xs ;?; О - свобод
ная переменная, которую ввели, чтобы неравенство превратить в
равенство.
1 1 4
- XI + Х2 + - Х4 = -
3 3 3
ограничение (2.10) имеет вид
Глава 2. Лин,ейн,ое программирование 107
или
Т. е. XI + Х421 .
Переменную s называют слабой переменной Гомори, а урав
нение (2.10) - отсечением Гомори. Выполним одну итерацию
двойственного симплекс-метода, используя в качестве ведущей
строки отсечение Гомори (2.1О). При этом таблица останется двой
ственно допустимой. Повторяем шаг 2 до тех пор, пока все aio ,
i = 1, 2 , ..., п + т, не станут целыми неотрицательными. Если aiO
на некотором шаге остаются отрицательными, следующий шаг
(двойственного) симплекс-метода выполняется без введения от
сечения Гомори. (Если аоо становится отрицательным, нулевую
строку не выбирают в качестве производящей. Если аоо стано
вится нецелым, следует выбрать нулевую строку в качестве про
изводящей.)
В приведенном ниже числовом примере все дополнительные
ограничения сохраняются на протяжении вычислений. Это сдела
но для того, чтобы показать, что эти дополнительные ограничения
представляют собой неравенства. Причем, если эти неравенства
выразить через исходные небазисные переменные, они будут
иметь целые коэффициенты.
Если сохранять все строки, соответствующие слабым перемен
ным Гомори, то эти слабые переменные могут стать базисными.
Если слабая переменная Гомори вошла в базис с неотрицательным
значением, то соответствующая строка представляет собой нера
венство , справедливое при текущем решении, и эта строка может
Зх1 + 2х2::; 1 О ,
XI + 4Х2 ::; 1 1,
Х1 о -1 о о
Х2 о о -1 о
Х3 о о о -1
Х4 10 3 2 о
Х5 11 1 @] о
Хб 13 3 3 1
f (x ) о -4 -5 -1
Х1 о -1 о о
Х2 11 /4 1/4 1/4 о
Х3 о о о -1
Х4 18/4 110/41 -2/4 о
Х5 о о -1 о
Таблица 2.20
Вторая итерация
Х5 о о -1 о
Таблица 2.21
Оптимальное решение задачи JП1
Ведущий столбец
J,
Переменные 1 -х4 - xs -Хб
Х4 о -1 о о дящая строка
Xs о о -1 о
Хб о о о - 1
S1 -7/10 -1/10 l- 111 ol о
18 23 7
f(x) = 1:04 ' x1 = - х2 = - хз= - .
l О' 1О ' 10
Данное решение нецелочисленное. Согласно шагу 2 дописыва
ем в табл. 2.21 строку s1, содержащую коэффициенты уравнения
отсечения и назначаем в таблице производящую строку и ведущий
столбец.
Проводя замену базисных переменных, получим оптимальное
целочисленное решение (табл. 2.22).
110 Часть I. Математическое программирование
Таблица 2.22
Оптимальное целочисленное решение
Х/ 2 3/7 -2/7 о
Х2 2 -1/7 3/7 о
Х3 1 - 6/7 - 3/7 1
Х4 о - 1 о о
Х5 1 1/7 -10/7 о
Хб о о о -1
S1 о о -1 о
7 1 7
s1 =- + (1 О - Зх1 - 2х2) + (11- х1 - 4х2 );:::: О,
10 10 10
или х1 + Зх2 ~8 .
Чтобы получить матрицу, полностью целочисленную, продол
жим введение отсечений и решение задачи, результаты этого за
пишем в виде табл. 2.23, 2.24.
Таблица 2.23
Введение отсечения s2
Ведущий столбец
J,
Переменные 1 -х4 -s1 -Хб
х, 2 3/7 -2/7 о
Х2 2 -1/7 3/7 о
Х4 о -1 о о дящая строка
Х5 1 1/7 -10/7 о
Хб о о о -1
s1 о о -1 о
s2 о 1-1171 -4/7 о
Таблица 2.24
Полностью целочисленная матрица
XJ 2 3 -2 о
Х2 2 -1 1 о
Х3 1 -6 3 1
Х4 о -7 4 о
Х5 1 1 -2 о
Х6 о о о -1
s1 о о -1 о
s2 о -1 о о
f(x) 19 1 о 1
f (х) = L LCijXij,
i = 1j = 1
Узел В1 В2 Вз
А1 1 2 3
А2 2 4 1
Аз 3 1 5
f(x) = х11 + 2х12 + Зхв + 2х21 + 4х22 + Х2з + Зхз1 + Хз2 + 5хзз
при условиях-ограничениях
Х11 +х12 + х1 з = 1,
Х21 + Х22 + Х23 = 1,
Х31 + Х32 + Х33 = 1,
Х11 + Х21 + Х31 = 1,
Х12 + Х22 + Х32 = 1,
х1з +х2з +хзз = 1.
Необходимо найти максимум функции /(х) при этих ограни
чениях.
Глава 2. Лин,ейн,ое программирование 113
Переменные -х,, -х,2 -х,з -Х21 -Х22 -Х23 -Х3 1 -Х32 -Х33 1
о ш 1 1 о о о о о о 1
о о о о 1 1 1 о о о 1
о о о о о о о 1 1 1 1
о 1 о о 1 о о 1 о о 1
о о 1 о о 1 о о 1 о 1
о о о 1 о о 1 о о 1 1
f(x) -1 -2 -3 -2 -4 -1 -3 -1 -5 о
Х1 1 8] -1 -1 -1 -1
Х2 1 1 1 о о 1
Х3 1 о о 1 1 1
Х12 1 о 1 о 1
Х13 о 1 о 1 1
f(x ) 1 3 3 о 9
Таблица 2.27
Допустимое базисное решение
Х22 -1 1 1 1 1
Х21 ш о -1 -1 о
Х31 о о 1 1 1
Х12 1 -1 о -1 о
Х13 о 1 о 1 1
f(x) -1 4 4 1 10
Таблица 2.28
Оптимальное решение
Х13 1
f(x) 1 4 3 о 10
при ограничении
~ т
f(x) = LmaxaiJXi • max, j = 1, 2, ..., п,
i= l
п
(2.12)
LXj 5'К, XjE {0;1}, 1,2, ...,п,
j =l
стх+а
z =---
dт х + 13'
где а и 13 - скалярные константы, с и d - векторы, х - век
тор искомых переменных, х Е D,
D = {xE lRnlAx = b, х2::О, bElRm}.
Таким образом, в качестве целевой функции используется от
ношение двух линейных функций; условия-ограничения задачи
остаются линейными: линейные равенства и неравенства.
Обычно предполагают, что знаменатель целевой функции по
ложителен и не обращается в нуль в допустимой области D.
Задачи ДЛП решают в тех приложениях, когда оптимизируют
ся относительные показатели. Особенно часто такие задачи встре
чаются в области финансовой деятельности : планировании дохо
дов корпораций, управлении статьями банковского баланса и т. п.
118 Часть I. Математическое программирование
стх = -а,
dтх=-~.
ст у+ ар ➔ max
при условиях
Ау = Ь
р '
Глава 2. Лин,ейн,ое программирование 119
(dтх + f})p = 1,
программирования
при условиях
Ау-Ьр= О,
dту + f)p = 1,
Х2 -5
z = -----• max
-х1 -х2 +9
при условиях
у2 - 5р • max
при условиях
-у1 + У2 - 2р ~ о,
-у1 - У2 + 9р = 1,
YI,Y2,P ~ О.
Решая эту задачу симплекс-методом, получим У1 = 2/3 ,
у2 = 4/3 , р = 1/3 , или оптимальное решение х1 = 2, х2 =4 .
120 Часть I. Математическое программирование
( dт х + J))c - (ст х + а )d
z =----------
(dт х + J3)2
детерминированными величинами.
А1х ~ Ь~ , (2.14)
А2х=~ , (2.15)
х~О,
z=cтx ➔ max
при условиях
Ах = Ь, х 2:: О, (2.16)
где х - вектор, включающий в себя исходные и дополнительные
(слабые) переменные; А - прямоугольная матрица размерности
тхп , расширенная за счет столбцов дополнительных перемен
ных, преобразующих неравенства (2.14) в равенства; Ь - вектор
правых частей условий ( объединяет векторы 'Ь~_ и ~) ; с - вектор
Система неравенств
следующий вид:
z = 10х1 + 20х2 • max (2.19)
при условиях
+ 3,5Х2 5: 350,
Xl
Х1 + Х2 5: 150,
Xl + Х2 ~ 110,
Х1,Х2 ~ О .
124 Часть I. Математическое программирование
Х7 90 о о 1/5 о 3/5 о 1
Х4 120 о о 3/5 1 -26/5 о о
Хб 40 о о о о 1 1 о
Х1 70 1 о -1 /5 о 7/5 о о
Xz 80 о 1 1/5 о -2/5 о о
z 2300 о о 2 о 6 о о
1 1
Лз =-Лс1 - -Лс2 1· = 3,
5 5 '
7 2
Лs = - -Лс1 + -Лс2 1· = 5.
5 5 '
Таким образом, на выбор оптимальной точки в данном случае
оказывают влияние только коэффициенты при j =3 и j = 5. Точка
оптимума не изменится для тех значений Лс1 и Лс2 , при которых
согласно (2.18) имеем
1 1
-2+-Лс1 --Лс2 ~ О
5 5 '
7 2
-6 --Лс1 + -Лс2 ~О.
5 5
Глава 2. Лин,ейн,ое программирование 125
ах+ Ьу + си + d = О;
нормальное уравнение этой плоскости имеет вид
а Ь с
cosa =----;::===== , cos~ =----;::===== , cosy =----;::===== .
✓ а2 + ь2 + с2 ✓ а2 + ь2 + с2 ✓ а2 + ь2 + с2
Для плоскости, соответствующей целевой функции с парамет
рами с, , с2, сз , получим
с, Cz
cosao =----;::=====, COS~o = --;:::==== ,
Jcf +ci +ci ,Jc21 +с22 +с23
С3
cosy0 =----;::===== .
1
,Jc2
+с22 +с23
126 Часть I. Математическое программирование
3, 5 ~ с2 + Лс2 ~ l .
с1 + Лс1
Таким образом, если отношение коэффициентов целевой
функции лежит в пределах от 1 до 3,5, то координаты оптимальной
точки не изменятся.
Глава 2. Лин,ейн,ое программирование 127
2. Н е о пр ед ел е н н о ст ь то ль к о в к о орд и н ат ах
в е кт о р а пр а в о й ч а с т и. При изменении значений правой
части исходной системы (2.14), (2.15) в процессе решения изменя
ется только столбец свободных членов Ь и значение целевой
функции z. В точке оптимума столбец свободных членов не со
держит отрицательных элементов. Таким образом, неопределен
ность в координатах вектора правой части до тех пор не влияет на
оптимальное решение, пока не появятся отрицательные элементы
NxN +Вхв = Ь ,
в- 1 NxN + в- 1 вхв = в- 1 ь,
хв = в- 1 ь,
так как X N =О. Отсюда следует, что столбец свободных членов
Ь + ЛЬ на любой итерации может быть получен умножением мат
у . =
J в -1 а·J '
хв + в- 1 ль ~ о.
Пример 3. Рассмотрим описанную в примере 1 задачу, предпо
лагая, что исходный вектор правой части Ь={350;240;150;-110;
3
90 + ЛЬ~ + - Лfu ~ О,
5
26
120+ ЛЬ2 --ЛЬз ~ О,
5
40+ЛЬз ~ О,
7
70+ ЛЬ4 + -Лfu ~ О,
5
2
80 + ЛЬs - -Лfu ~ О .
5
Глава 2. Лин,ейн,ое программирование 129
n ( ±aiJx1
j =1
J= I,x;D(aiJ),
j =1
-v если j = s,
L Xij - L хjk = d, если j '# s, j '# t, (3.1)
i k {
v, если j = t,
с(Х,Х)::;: с(Х,Х).
Ясно, что в силу ограничений (3.1), (3.2) максимальный поток
меньше или равен пропускной способности любого разреза, разде
ляющего Ns и N1:
V::;; L X ij - L Xji•
N;E X N;EX
NjE X NjE X
А=
сурсов и т. д .
Глава 3. Сетевые и потоковые задачи 137
о<
- z.. <
lj - Х·.
lj <
- Ь-lj. •
V
--------------
11 .--------,
11
а Искусственный Искусственный
сток источник
6
Рис. 3.2. Исходная (а) и расширенная (6) сети
Пусть в сети имеется только одна ориентированная дуга Аи с
ограниченным снизу дуговым потоком lii. Расширим сеть, добавив
два новых узла - искусственный источник N1 с предложением
lu и искусственный сток Ni с таким же спросом lu. Пропускную
способность дуги /41 при этом изменим: если она была равна biJ ,
то в новой сети она станет равной bii - lu. Добавим, кроме того,
ориентированную дугу из Nt в Ns с бесконечной пропускной
способностью. Будем искать в расширенной сети максимальный
поток из источника N1 в сток Ni . Если величина этого потока в
расширенной сети больше или равна liJ, а поток по дуге /4s равен
Xts, то в исходной сети существует такой поток из Ns в Nt вели
чиной v = Xts, что lu :::; xu. Исходная и расширенная сети приведе
ны на рис. 3.2, а, б. Если в сети имеется несколько дуг, обладаю
щих нижними границами для дуговых потоков, то следует:
j -\
Cij =R+ L mk - s J,
k =\
140 Часть I Математическое программирование
Шаг 2 3 4 5 6 7 8 9
1 1450 2750 3850 4750
2 1700 3200 4450 5450
3 1850 3425 4750 5800
4 1950 3650 5050 6150
5 2075 3875 5350 6500
6 2200 4100 5650
7 2325 4325
8 2450
Таблица 3.2
Результаты вычислений по алгоритму Дейкстры
Шаг 1 2 3 4 5 6 7 8 9
о [О] 00 00 00 00 00 00 00 00
.= {j,
rl
если d ikj-1 > dj-1
ij + dj-1
jk ,
ik j -l
1fk - в противном случае.
146 Часть I Математическое программирование
о 9 00 3 00 00 00 00 1 2 3 4 5 6 7 8
9 о 2 00 7 00 00 00 1 2 3 4 5 6 7 8
00 2 о 2 4 8 6 00 1 2 3 4 5 6 7 8
Do= 3
00 2 о 00 00 5 00
Ro= 1 2 3 4 5 6 7 8
00 7 4 00 о 10 00 00 1 2 3 4 5 6 7 8
00 00 8 00 10 о 7 00 1 2 3 4 5 6 7 8
00 00 6 5 00 7 о 00 1 2 3 4 5 6 7 8
00 00 00 00 9 12 10 о 1 2 3 4 5 6 7 8
о 3 009 00 00 00 00 1 2 3 4 5 6 7 8
9 о 2 12 7 00 00 00 1 2 3 1 5 6 7 8
00 2 о 2 4 8 6 00 1 2 3 4 5 6 7 8
Dl = 3 12 2 о
00 00 5 00
Rl= 1 1 3 4 5 6 7 8
00 7 4 00 о 10 00 00 1 2 3 4 5 6 7 8
00 00 8 00 10 о 7 00 1 2 3 4 5 6 7 8
00 00 6 5 00 7 о 00 1 2 3 4 5 6 7 8
00 00 00 00 9 12 10 О 1 2 3 4 5 6 7 8
О 9 11 3 16 00 00 00 1 2 2 4 2 6 7 8
9 О 2 12 7 00
00 00 1 2 3 1 5 6 7 8
11 2 О 2 4 8
00 6 2 2 3 4 5 6 7 8
3 12 2 о 19 00
00 5
R2 = 1 1 3 4 2 6 7 8
D2=
16 7 4 19 о 00 '
10 00 2 2 3 2 5 6 7 8
00 00 8 00 10 о 00 7 1 2 3 4 5 6 7 8
00006 5оо7 о 00 1 2 3 4 5 6 7 8
00 00 00 00 9 12 10 о 1 2 3 4 5 6 7 8
И тер а ц и я 3. Определяем, приведет ли использование узла 3
к более коротким цепям. Берем узел3 в качестве базового и выде
ляем 3-ю строку и 3-й столбец в матрице D 2 • Исключаем диаго
нальные элементы, элементы 8-го столбца и 8-й строки, исследуем
оставшиеся элементы матрицы D 2 , получаем новые матрицы D 3
и R 3.
Аналогично получаем матрицы D 1 и R 1 , j = 4, ..., 8. Матри
цы Di, Ri, j = 5, ..., 8, остаются без изменений. Следовательно,
оптимальное решение соответствует матрицам D 5 и R 5 , опреде
ляющим и оптимальное расстояние для передачи между объекта
ми, и последовательность передачи информации:
о 7 5 3 9 13 8 00 1 4 4 4 4 4 4 8
7 о 2 4 6 10 8 00 4 2 3 3 3 3 3 8
5 2 о 2 4 8 6 00 4 2 3 4 5 6 7 8
3 4 2 о 6 10 5 00 R5 = 1 3 3 4 3 3 7 8
9 6 4 6 о 10 10 00 ' 4 3 3 3 5 6 7 8
13 10 8 10 10 о 7 00 4 3 3 3 5 6 7 8
8 8 6 5 10 7 о 00 4 3 3 4 3 6 7 8
18 5 13 15 9 12 10 О 5 5 5 5 5 6 7 8
п п-1 . 3п(п - 2)
L3(n-m) = 3 L(n-m) = 3[(n-l)+(n-2)+ ... +1] = - - -.
m= I m= I 2
В алгоритме Флойда на каждой итерации суммарное число
элементов, значение которых должно быть оценено с помощью
трехместной операции, можно вычислить с учетом того, что:
1) общее число элементов матрицы равно п 2 ;
2) суммарное число элементов в базовой строке и базовом
столбце равно 2n -1;
3) число нулевых элементов на главной диагонали равно п и
для них не надо получать оценку;
150 Часть I Математическое программирование
- в противном случае.
.f(x) = L L CijXij
i= l j = l
при ограничениях:
L Xij = 1, i = 1, 2, ..., т;
j =l
L Xij = 1, j = 1, 2, ..., т.
i= l
210 9 7
4 14 8
С= 11 Cij 11 = ~;
14 16 11
4 15 13 19
о 8 7 5
11 о 10 4
l lcЬII= 2 3 5 о
о 11 9 15
Шаг 2 (редукция столбцов). В каждом столбце вычитают ми
нимальные элементы соответствующего столбца:
[о] 8 2 5
11 со 11 =
11
3
[о]4 5
о
4
о
[QJ 11 4 15
Шаг 3 (определение назначений). Если в полученной матрице
стоимостей можно выбрать по одному нулевому элементу так, что
соответствующее этим элементам решение будет допустимым, то
данное назначение оптимально.
[Q] 8 2 5
11 [Q] 5 4
llct 11=
2 3 [Q] о
о 11 4 15
8 2 5
11 4 15
6 О 3
9 2 13
Прибавляя значение 2 ко всем элементам матрицы 11 cl 11, рас
положенными на пересечении вертикальной и двух горизонталь
ных штриховых линий (столбца 1 со строками 2 и 3), т. е. к эле
ментам ci 1 и с] 1 , получаем новую редуцированную матрицу сто
имостей:
о 6 О 3
1 О 5 4
llcu 11 = ;
3 О О '
о 9 2 13
оставив остальные элементы матрицы стоимости 11 ct 11 без изме
нений.
Объяснение последней операции следующее. Если значение
этого минимального элемента вычесть из всех остальных элемен
о 6 о 3 о о 1 о
13 о 5 4 о 1 о о
C=llcl 11= 4 3 о о ' X =llxl 11= о о о 1
о 9 2 13 1 о о о
Вид Предприятие
продукции
1 2 3 4 5
1 20 23 38 15 35
2 8 29 6 35 35
3 5 8 3 4 7
156 Часть I Математическое программирование
Таблица 3.4
Издержки сбыта на единицу продукции (усл. ед.)
Вид Предприятие
продукции
1 2 3 4 5
1 20 50 20 10 13
2 7 90 8 35 60
3 5 5 4 15 6
Вид Предприятие
продукции
l 2 3 4 5
1 15 -18 -3 30 7
2 35 -69 36 -20 -45
3 20 17 23 11 17
Вид Предприятие
продукции
1 2 3 4 5
1 525 - 630 - 105 1050 245
2 5600 - 11 040 5760 - 3200 - 7200
3 1080 918 1242 594 918
Вид Предприятие
продукции 1 2 3 4 5
1 5235 6390 5865 4710 5515
2 160 16 800 о 8960 12 960
3 4680 4842 4518 5166 4842
4 о о о о о
5 о о о о о
Таблица 3.8
Оптимальное решение
Вид Предприятие
продукции 1 2 3 4 5
1 365 1520 1155 [О] 645
2 [О] 16 640 о 8960 12 800
3 2 164 [О] 648 164
4 о [О] 160 160 о
И тер а ц и я
2. Теперь просматриваем остаточные пропускные
способности uij - fij (на. рис. 3.6 выделены жирным шрифтом).
Источнику s приписываем пометку [00; - ]. Из источника s пред
почтительнее двигаться в узел 1; узлу 1 приписываем пометку
[+2; s ]. Из узла 1 идем в узел 2; узлу 2 приписываем пометку
[+2; 1], так как q2 = rnin{q1;u12 - Ji2} = 2. Из узла 2 идем в узел 3.
Для узла 3 qз = rnin{q2; и2з - f2з} = rnin{2; 1} = 1, узлу 3 приписыва
ем пометку [+ 1; 2]. Из узла 3 идем в сток. Стоку приписываем по
метку [+1; 3]. Минимальное изменение дуговых потоков равно 1,
т. е. /з1 = 1, /i2 = 1, /2з = 1, /з1 = 1. Максимальный поток F ра
вен 2 + 1 = 3 (ед.). Дуги получают пометки, представленные на
рис. 3.7.
И т ер а ц и я 3. Приписываем узлу s пометку [= ; - ]. Из уз
ла s движемся в узел 1: q1 = rnin{qs; Иs1 - .fs1} = rnin{00; 1} = + 1. Уз
лу 1 приписываем пометку [+1; s ]. Из узла 1 идем в сток t: q1 =
= rnin {q1; U1t - fi 1 } = rnin{1; 3} = 1. Стоку t приписываем пометку
[ +1; 1]. Изменение дуговых потоков для .fs1 равно 1; для .!it рав
но 1, изменятся только значения потоков на дугах (s, 1) и (1, t).
Полные потоки станут равными: fs1 = 2, fit = 1. Дуги получат по
метки, представленные на рис. 3.8. Максимальный поток F станет
равным 3 + 1 = 4 (ед.) .
F=Зед.
./i.2 равно 1, для .fi.t равно 1. Потоки по этим дугам будут соответ
ственно ls2 = 2, .fi2 = О, .fit = 2; максимальный поток F из s в t
равен 4+ 1 = 5 (ед.). Дуги получают пометки (изменяют пометки
только на дугах (s,2), (1, 2) и (1, t) ), представленные на рис. 3.9.
И тер а ц и я 5. Приписываем источнику s пометку [00 ; - ]. Из
узла s мы можем попасть только в узел 3. Для узла 3 имеем
qз = min {qs; Иsз - fsз} = min {00; + 1} = + 1; узел 3 получает пометку
[+ 1; s ]. Из узла 3 попадаем в сток t: q1 = min {qз; Изt - ht} =
= min{ 1; 1} = + 1. Сток t получает пометку [+ 1; 3]. Изменение ду
говых потоков для fs 3 и fзt равно 1; соответственно получим
fsз = 1, ht = 2 (на второй итерации ht = 1). Максимальный по
ток F равен 5 + 1 = 6 (ед.). Дуги получают пометки, представлен
ные на рис. 3.10.
F=5ед. F= бед.
r
Ci.X = CiJI + С½ + ... + Cijr = L,CiJm.
m= l
13
ду узлами N 3 и N1
(табл. 3.9).
168 Часть I Математическое программирование
Узел 1 2 3 4 5 6
1 00 18 13 13 13 17
2 18 00 в 13 13 17
3 13 13 00 14 16 13
4 13 13 14 00 14 13
5 13 13 16 14 00 13
6 17 17 13 13 13 00
при
Таблица 3.1 О
Матрица стоимости проезда (усл. ед.)
1 2 3 4 5 6
1 Исходный - 270 430 160 300 260
2 Токио 70 - 160 10 300 300
3 Гонконг 200 130 - 350 50 о
4 Лондон 210 160 250 - 180 180
5 Сидней 120 460 270 480 - 50
6 Рим 230 50 50 90 50 -
Примечание. В процессе проведения расчетов все стоимости будут уменьше-
ныв 10 раз.
z(T) = L Cij ,
i, j ET
Таблица 3.11
Редукция строк
Узел 1 2 3 4 5 6 С;
1 00 11 27 о 14 10 16
2 6 00 15 о 29 29 1
3 20 13 00 35 5 о о
4 5 о 9 00 2 2 16
5 7 41 22 43 00 о 5
6 18 о о 4 о 00 5
Узел 1 2 3 4 5 6 С;
1 00 11 27 о 14 10 16
2 1 00 15 о 29 29 1
3 15 13 00 35 5 о о
4 о о 9 00 2 2 16
5 2 41 22 43 00 о 5
6 13 о о 4 о 00 5
Qi 5 о о о о о Н = 48
6 6
H = I,ci + L,QJ = 48.
i =I j =I
1 00 11 27 о 14 10 16 10
2 1 00 15 о 29 29 1 1
3 15 13 00 35 5 о о 5
4 о о 9 00 2 2 16 о
5 2 41 22 43 00 о 5 2
6 13 о о 4 о 00 5 о
Q; 5 о о о о о Н=48
В; 1 о 9 о 2 о
Таблица 3.14
Значения Фij
Звено (i,j) (1, 4) (2, 4) (3, 6) (4, 1) (4, 2) (5, 6) (6, 2) (6, 3) (6, 5)
Ф;; =А; + В; 10 1 5 1 о 2 о 9 2
Узел 1 2 3 5 6
2 1 00 15 29 29
3 15 13 00 5 о
4 00 о 9 2 2
5 2 41 22 00 о
6 13 о о о 00
Таблица 3.16
Вторая матрица решений
Узел 1 2 3 5 6 С; А;
2 о 00 14 28 28 1 14
3 15 13 00 5 о о 5
4 00 о 9 2 2 о 2
5 2 41 22 00 о о 2
6 13 о о о 00 о о
Q; о о о о о Н1 =1 -
В; 2 о 9 2 о -
Таблица 3.17
Третья матрица решений
Узел 2 3 5 6 С; А;
3 13 00 5 о о 5
4 00 7 о о 2 о
5 41 22 00 о о 22
6 о о о 00 о о
Qi о о о о Н1=2 -
В; 13 7 о о - -
осуществляться от звена
решение.
8. Построенный полный
маршрут будет оптимальным,
если его длина не превосходит
Узел 1 2 3 4 5 б
1 00 27 43 00 30 26
2 7 00 16 1 30 30
3 20 13 00 35 5 о
4 21 16 25 00 18 18
5 12 46 27 48 00 5
6 23 5 5 9 5 00
180 Часть I Математическое программирование
Таблица 3.19
Транспортировка крупноrабаритного груза
5 - 2 - 11 о - -
6 - - 4 9 о -
7 - - - 20 1 1 о
Глава 3. Сетевые и потоковые задачи 183
О 12 30 19 11 9 -оо 1 4 3 3 4 4 7
12 О 12 12 11 9 -оо 4 2 4 4 4 4 7
30 12 О 19 11 9 -оо 1 4 3 4 4 4 7
lld*II = 19 12 19 О 11 9 3 2 3 4 5 6 7
11 11 11 11 О 9 -оо 4 4 4 4 5 4 7
9 9 9 9 9 О -оо 4 4 4 4 4 6 7
19 12 19 20 11 9 о 4 4 4 4 4 4 7
184 Часть I Математическое программирование
ОСНОВЫ ДИНАМИЧЕСКОГО
ПРОГРАММИРОВАНИЯ И ТЕОРИИ ИГР
f(x) = I:f;,(x).
i= l
lg/(x) = I:lgf;,(x).
i= I
Si = Si(Sн,хi)-
.f(x) = Lfi(Sн,xi ),
i=l
= fi(So,x1)+ ~J;(Sн,xi)
i=2
4
f(x) = LXivi = x1vi + x2v2 + хзvз + X4V4 • max.
i= I
4
~~R=~R+~~+~Pз+~RS~
i=l
Ji (w) = max{x1v1}
XJ
при условии х1
= О, 1, 2, ... Поскольку х1 S w/P1, то для
x1R S w,
нахождения максимума Ji (w) необходимо взять х1 возможно
большим, т. е. х1 = [w/P1] - наибольшее целое число, не
превосходящее w/P1, и, таким образом, fi(w) = [w/P1]v1.
Зададим некоторые значения w и найдем для них х1 и Ji(w).
Очевидно, если грузоподъемность самолета меньше 24 ед., то ни
одного предмета первого вида погрузить нельзя. При грузоподъ
емности от 24 до 47 ед. можно погрузить 1 ед. предмета первого
вида и т. д. Результаты представим в виде таблиц. Значения w,
./i(w) и х1 приведены в табл. 4.1. В таблицах принят более широ
кий предел значений для w - от О до 87 ед.
Глава 4. Основы динамического программирования и теории игр 191
Таблица 4.1
Первый шаг оптимизации
w fi(w) XJ w fi(w) Х1
w-x2~
fi(w-x2~) = max{xivi}, х1=
XJ
Таблица 4.2
Второй шаr оптимизации
w /2(w) Х2 w /2(w) Х2
0- 21 о о 48-65 192 о
Из табл.
4.2 следует, что при грузоподъемности транспортного
средства до 21 ед. ничего в него погрузить нельзя, при грузоподъ
емности 22 ... 23 ед. можно погрузить только один предмет второго
вида, при грузоподъемности 24 .. .43 ед. - либо один предмет пер
вого вида, либо один предмет второго вида. Максимальной стои
мость груза будет при погрузке предмета первого вида. При грузо
подъемности 44 .. .45 ед. можно погрузить либо один предмет пер
вого вида, либо два предмета второго вида. Большая стоимость
груза будет в последнем случае: /2 (w) = 170. При грузоподъемно
сти 46 .. .47 ед. можно погрузить один предмет первого вида, два
предмета второго вида или по одному предмету первого и второго
Таблица 4.3
Третий шаг оптимизации
Таблица 4.4
Четвертый шаг оптимизации
w f4(w) Х4 w f4(w) Х4
56-57 201 1
194 Часть I Математическое программирование
,
отрезка будет в точке х; которую находим из условия
* 1
xs(z4)=-(2z4 -ln2).
3
При z4 ~ (ln2)/2 максимум будет в точке x;(z4) = О. Итак,
условное оптимальное управление на пятом шаге можно записать
в следующем виде:
ln2
о при Z4 ~--,
2
х; (z4) = (4.2)
1 ln2
-(2z4 -ln2) при Z4 >--.
3 2
Построим (рис. 4.1) зависимости х; = x;(z4) и fs* = fs*(z4).
При построении зависимости fs* (z4) пользуемся соотношением
(4.2).
196 Часть I Математическое программирование
*
Х5 Перейдем к оптимизации на
Zзmin = z · О, 33 = О, 054.
Будем рассматривать теперь набор значений z3 от 0,1 до 0,8
с шагом О, 1. Для каждого значения zз найдем условное оптималь-
/4,5 z3 =0,8
1,2
1,0
0,8
J4:5 Х4
0,6 1,6 0,4
0,4 1,2 0,3
0,8 0,2
0,2
0,4 0,1
о
0 0,2 0,4 0,6 0,8 Х4 о 0,2 0,4 0,6 0,8 Z3
/з,4,5
0 0,1 0,3 0,5 0,7 0,9 Х3 0 0,2 0,4 0,6 0,8 1,0 1,2 Z2
2 0,6
0,4
0,2
1
0,5 1,0 1,5 Х2 0 0,2 0,4 0,6 0,8 1,0 1,2 1,4 ZJ
х* = (xt; х;; х;; х:; х;) = (1,60; 1, 02; 0,62; 0,30; О).
vi=l-e-a;N\ i=l,2,3,4,
где Ni - среднее число орудий, сохранивших боеспособность на
Qi = Ni (1-e(-vj / N;)P; ),
4
f(x) = "L/i(x),
i=l
х;(zз ) = zз.
На четвертом рубеже установлено N4 орудий, этот рубеж не
подвергался бомбежке, т. е.
N4 = N4 .
Подлетевшие z3 самолетов поразят на четвертом рубеже
1:сzз) орудий:
Q4 (х;) = J; (zз ) = N4 (1- e<- v4 / N4)P4 ),
где v4(zз) = zз (1- щ) ; щ - вероятность поражения одного само
них шагах. 0 10 20 30 40 Z3
zз = (z2 - хз)е-азNз,
fз,4 * ХЗ*
f 3,4,
8
8
z2=40 6
6
30
4 25 4
20
15
2 10 2
О 5 10 20 30 Х3 о 10 20 30 Zz
Рис. 4.10. Зависимости h ,4 от Рис. 4.11. Зависимости h:4 и х;
аргумента хз и параметра z2 от аргумента z2
Здесь
Q2(x2) = N2(1-eC-v 2 /N2 Щ ), V2 = x2e-a2 N2 ,
f2,З,4
Xz* f2:з,4
10 30
8 40 10
6 30 20
4 20 5
10
2 10
о
о 10 20 30 40 50 Xz о 20 40 60 z
(4.3)
Получили z;
= 37, и на первом рубеже поражено Qi(x:) = 5, 6
орудий. При z;
= 37 по значениям, приведенным на рис. 4.13, по
лучили оптимальное управление на втором шаге: х; = 23, т. е.
дальше следует направить 14 самолетов. Пользуясь формулами,
аналогичными формулам (3), получим
Q2(x;) = 5,4, z; = 10, 7, х; = О,
Qз(х;) = О, z; = 5,9, х: = 5,9, Q4(x;) = 3,1.
Итак, в первую волну вылетов войдут 34 самолета: n1 = 34. Ко
второму рубежу подойдут 37 самолетов, из них полетят дальше
только 14, а так как всего самолетов осталось 46, то во вторую
волну следует включить n2 = 46(14/23) = 28 самолетов, nз = О (так
как х; = О) и в четвертую волну - оставшиеся 18 самолетов.
Анализ полученных результатов показывает, что эффективнее
осуществлять планирование на подступах к каждому рубежу, т. е .
каждый раз решать задачу, аналогичную рассмотренной.
Продолжая решение, убеждаемся, что эта задача является вы
рожденной задачей динамического программирования - плани
ровать нужно каждый шаг отдельно, распределяя самолеты перед
рубежом так, чтобы получать максимальное число самолетов, пре
одолевающих данный рубеж.
204 Часть I Математическое программирование
ленные решения.
Принцип минимакса
Таблица 4.5
Платежная матрица игры
а;= minaij
Стратегия В1 Bz .. . Вп
J
~i = mахщ; ~l ~2 .. . ~п
l
Стратегия в, В2 Вз Стратегия в, В2 Вз а;
А1 2 -3 4 А1 8 3 10 3
А2 -3 4 -5 А2 3 10 1 1
Аз 4 -5 6 Аз 10 1 12 1
~; 10 10 12
Таблица 4.8
Платежная матрица с седловой точкой
Стратегия В1 В2 Вз а;
А1 2 3 7 2
А2 5 4 6 4
Аз 6 2 1 1
~i 6 4 7
При этом
т
т 1
2.,Xi = - . (4.8)
i=l V
п *
I,aijqj~V, i=1,2, ...,m,
j =I
т п
при I, Pi = 1, I, qj = 1.
i= l j=l
LYJ • max;
j =I
z: aij у1 ~ 1,
п
j =I
i = 1, 2, ..., т, у1 ~ о , J = 1, 2, ..., п.
216 Часть I Математическое программирование
-\
L aiJ Pi ~ v, j = 1, 2, ..., п,
i= l
т
L,Xi • min;
i= I
т
4 2 2]
М=
[ 25
2
О
5 О .
f (у) = YI + У2 + Уз
при условиях
3 1 88
* 35
Ymax = ~ Yi = , v=--=-
1=1 88 Ymax 35'
* ( 9 14 12]
q = 35' 35' 35 .
f (Х) = XI + Х2 + Х3
при ограничениях
4х1 + 2х2 ~ 1,
Х1 ~ О, Х2 ~ О, Х3 ~ О.
~
Решением этои задачи является точка р
(1935 , -356, -10]
*= -
35
.
r s s r s
v = L L aiJ р;qj = L qj ""LaiJ Pi* ~ L qjv.
i=l j =l j =l i= l j =l
Стратегия В1 В2
А1 2 3
А2 5 4
а22а11
v =--------
- а12а21
= ~na2 1 , j = 1, 2, ..., п.
}
В1
K1---------==~E:::-------;~L
V
А1 -----------~
Р2 S1 Р1
о
В4
Вз г-----:::;;;~;:;;;::::::а...,=-----1 В2
Вз
В4 v В1
А1 ~-----~----~ А2
О 1
Рис. 4.17. Диаграмма матричной игры
размерностью 2 х п
Таблица 4.1 О
Платежная матрица
Стратегии В1 В2 Вз а;
А1 о 5/6 1/2 о
5 1 1 3
Х2 ~ 1, - х1 + -х2 ~ 1 - х1 + - х2 ~1 (4.9)
6 2 ' 2 4 '
1
XI +х2 = - . (4.10)
V
1 3
-х1 +-х2 =1
2 4
не принадлежит области допустимых значений D системы (4.9).
Для определения вероятностей, с которыми должны применяться
224 Часть I Математическое программирование
х= f(x,u), (4.11)
y=g(y,v) (4.12)
ческих приложениях .
нейных задач.
Особое место в практике занимают многокритериальные зада
чи и задачи целевого программирования, которые более адекватно
описывают реальные явления.
t - параметр, t Е IR.1.
Зависимость коэффициентов этой функции от параметра t
можно понимать как зависимость цены единицы продукта от вре
Х\ , ..., Хп ~ 0, t Е JR. l.
при ограничениях
(а11 + Cll 1t1 + ... + C11sfs )х1 + ...+ (а1п + С1п1t1 + ... + C\пsfs )хп S
1
Х\, ..., Хп ~ О, t1, ...,ts Е JR. .
Х\ + Х2 S 5, (5.1)
2х1 -х2 s 8,
Х1~О, Х2~О, tEIR.1.
230 Часть I Математическое программирование
-1 2]
А=
[1
2 -1
1 .
сверху .
arOj I bjr }
r -
m_l -max -
{
ь; ,- 00 > О,
.-
;- 1, 2, ...,п+т ,
r - rmn.
т+ 1 -
arо j
ь; ,+оо Iьr < о, }
]. -- 1, 2 , ..., n + m .
{- j
Таблица 5.1
Симплекс-таблицы для линейной задачи
параметрического программирования
Номер
х, Х2 Х2 Х2 Х2 а.о Базис
итерации
r= 1 -1 [l] 1 о о 4 Х3
1 1 о 1 о 5 Х4
2 -1 о о 1 8 Х5
-2 -3 о о о о -а1
О·
-t t о о о t - b~t
r= 2 1/2 1 1/2 о о 2 Х2
13121 о - 1/2 1 о 3 Х4
3/2 о 1/2 о 1 10 Х5
- 7/2 о 3/2 о о 6 -а 2
О·
- t/2 о - t/ 2 о о -t -b7t
r=3 о 1 1/3 1/3 о 3 х2
1 о - 1/3 12 131 о 2 XJ
о о ш -1 1 7 Х5
3
о о 1/3 7/3 о 13 -ао.
о о - 2t / 3 t/3 о о - bft
п= -1
r= 4 1/2 1 1/2 о о 2 Х2
3/2 о -1/2 1 о 3 Х4
3/2 о 1/2 о 1 10 Х5
о о 1 - 1 1 7 Х3
5
о о о 8/3 -1/3 32/3 -ао.
1 -1/2 о о 1/2 4 Х2
о 1 1 о 1/2 8 Х3
о -8/2 о о 1 8 -а6
О•
5
о t/2 о о t/2 5t -b 1 t
Глава 5. О развитии методов решения задач 233
= тз = max{-
713
t-1
-]
·-ooj\ = -7.
1/3 '
"
Из табл. 5.1 для r=3 следует, что при t=7 получим f (t) = 13,
х1 = 2(1-л), х2 = 2л + 3(1- л), О~ л ~ 1. Это критическое значе
ние может быть превзойдено. В табл. 5.1 при r = 3 выбран разре
шающий элемент, равный 2/3 при j = 4. Общее условие для выбо-
ра этой небазисной переменной имеет вид
Здесь 't = 4.
Получим новые значения элементов табл. 5 .1 при 1t = -1 и
r = 4, которые совпали с элементами этой таблицы при r = 2. По-
чим новое значение f+1 при -7 < t < 112, f(t) = 13, .х1 = 2, х2 = 3:
1
= 8.
л 1 л 13"! л 2л
f(t) = (32 + 14·8) = 48, л + 4(1- л),
1
3
XJ = х2 =-
3 3 '
1
при - <t<8 имеем
2
t f(t) Х1 Х2
t < -7 6-t о 2
t = -7 13 2(1-л) 2л + 3(I-л)
1
- 7 < t <- 13 2 3
2
t =-
1
13 2л+ I 3(1 - л) 3л+ 2с1 - л)
2 3 3
1 32 + 14t 13 2
-<t < 8 - -
2 3 3 3
X,c:t
Xz
6 X,c:t 1
1
1
4 1
1
1
2 л 1
.f(t)
48
40 1
о 1
8 х, 1
20 1
1
1 1 1
1/2 о
-7-5 l/2 5 8 t
а 6
Рис. 5.1. Решение задачи параметрического линейного програм
мирования:
Перевозимый продукт
Город
АпельСШIЫ Лимоны Лаймы
Таблица 5.4
Величина спроса (ящики в неделю)
Перевозимый продукт
Город
Апельсины Лимоны Лаймы
Таблица 5.5
Пропускная способность железных дорог
(ящики в неделю)
В город
Из города
Денвер Сиэтл Канзас-Сити
В город
Из города
Денвер Сиэтл Канзас-Сити
Санта-Барбара
Апельсины 3,2 2,5 5,6
Лимоны 2,4 1,9 4,3
Лаймы 2,3 1,7 4,0
Бейкерсфилд
Апельсины 3,0 2,1 5,5
Лимоны 2,3 1,7 4,4
Лаймы 2,0 1,4 4,3
Сакраменто
Апельсины 3,1 2,0 5,7
Лимоны 2,2 1,6 4,8
Лаймы 2,0 1,5 4,3
"L,;Xijk -bk
- j' j,k Е N,
xt ~ О, i,j,k Е N.
Как и в однопродуктовой транспортной задаче, предполагает
ся, что для каждого продукта суммарное предложение равно сум
r
'°' '°'
L, L, k k •
ciJxiJ mш
·
k =I (i,j)EA
дукта;
а1 а2
l l
2 2
2 2
2 2
Таблица 5.7
Оптимальное решение задачи
линейного программирования
(1 , 1) 3/2 1/2
(1 , 2) о 3/2
(1, 3) 1/2 о
(2, 1) о 3/2
(2, 2) 2 о
(2, 3) о 1/2
(3, 1) 1/2 о
(3, 2) о 1/2
(3, 3) 3/2 3/2
решения .
242 Часть I. Математическое программирование
дит двух.
L L Ictxj • min
k= I i =I j =I
(5.3)
Глава 5. О развитии методов решения задач 243
S2 J· + S1 ] · = И2 J· + И1 J· - "bk
LJ ] ' (5.8)
k
Yk S ··
"'ij,1)-'
>0 i,j,k Е N. (5.9)
Нетрудно заметить, что в равенствах (5.4)-(5.6) каждая из пе
ременных x}j и S2j появляется дважды: один раз со знаком плюс
п r
П= L u2j - L а} .
j =I k= I
Предложение Спрос
1 c<:S
И21 а2
~
§
~
о..
i=
о
t ~
Е--
2 ~
~ И22 а2
~
t
Е--
~
(!)
tf--
19о (!)
о
u 19
о
о
~ u
~ ,. ~
а2 ~
разом:
а/ = L af, l = 1, 2,
iES1
ванными узлами:
•i = min{az: }, i Е Sz .
k ai
п
'°'r '°'2
~ ~ '°' - k k ➔ mш
~cljxlj ·
k=l / =1 j = I
'°'k _ - k
~Ylj - Gz , Yljk ->О .
j
i Е Sz,
Таблица 5.8
Параметры агрегированной задачи
Предложение
Стоимость
В город
Из города
Денвер Сиэтл Канзас-Сити
Санта-Барбара
В город
Из города
Денвер Сиэтл Канзас-Сити
движения судов.
i= Sk
. k
'
1 =/:. S , t, (5.12)
i = t,
(5.13)
Здесь через ci обозначен коэффициент полезности, соответствую
щий отдельному судну, перевозимому грузу и маршруту; Av -
множество допустимых маршрутов для данного груза; rj - гру
зоподъемность судна k-го типа на маршруте (i, j). Суммарный пе
ревозимый груз не может превышать спроса на него bv.
Ограничения (5.12) описывают условие сохранения потока по
числу судов dk, а величины равны О или xt
в зависимости от 00
того, может быть использовано на дуге (i, j) судно k-го типа или
не может.
Таблица 5.9
Исходные данные к задаче составления
расписания движения судов
1 о 4,5
2 2 6, 7, 8
3 3 7,8
~
Источник Срок доставки
0J:::::::----i4
2,2
Fu = 1и(1/t) •
(5. 14)
уlJ.. ->о •
Глава 5. О развитии методов решения задач 251
уlJ-- ->о •
задачи.
j к вершине i.
Конкретный вид функции стоимости не имеет принципиально
го значения и может быть произвольным. В дальнейшем предпо
лагается, что функция стоимости возрастает с ростом расстояния и
не убывает с ростом суммарного потока. Известно, что оптималь
ная сеть при различных минимизируемых величинах может быть
получена по одному и тому же алгоритму при соответствующем
определяемый формулой
N 2
Qu = L LP/(xf +х~1),
k=l l =l (5.15)
i=l,2, ...,N, j=2,3, ...,N+1, i<j.
Глава 5. О развитии методов решения задач 255
ниях:
N
LX~ = О, (5.17)
i=I
i*k
N
LXi~+I = 1, k = 1,2, ..., N, l = 1,2, (5.18)
i=l
N N+l
"x fk. = "xr'
L.., 11
k _<1 , rk=12
L.., 7 ' ' ' ...,
N' !=12
' '
(5.19)
i =I J=I
i':icr }#
2 N
L Lxf: ~1, r, k=1,2, ...,N. (5.20)
l = I i=l
i'#r
Slk _-.;;;''°'
N N+I
'P,k lk
- L, L, Cij l Xij (5.21)
i= I j = i+I
по дуге ( i,j ).
Последняя задача ( при фиксированном k) может быть сфор
мулирована достаточно просто: найти два пути от вершины k к
вершине N + 1, не имеющих общих вершин, кроме k и N +1, и
движение по которым обеспечивает минимум суммарной стоимо
сти путей. При этом стоимость пути равна стоимости входящих в
него дуг, а стоимость дуги ( i, j) равна c[jP/ для l-го пути, l = 1,2.
Математическую постановку задачи с двумя независимыми
путями к центральному узлу и одним путем к дополнительному
( i, N + 1 ), i = 1, 2, ...,N,
Для дуг суммарный поток, как и ранее,
вычисляют по формуле (5.15).
Рассматриваемую задачу можно сформулировать следующим
образом. Найти значения булевых переменных x&k, l = 1, 2, 3, ми
нимизирующих общую стоимость сети, вычисляемую по форму
ле (5.16) при ограничениях (5.17)-(5.20) и ограничениях
Глава 5. О развитии методов решения задач 257
N N -1
I:Xt/ = 1, '°'L.
j=l i=I
X~k
1k = 0, k = 1,2, ..., N -1 , (5.23)
j,i'k i"-F-k
N- 1
Ixl,j = 1, k = 1,2, ...,N -1, (5.24)
i=l
N-1 N-1
Ix!rk = Ix~k ~ 1, r,k = 1,2, ..., N -1, r * k. (5.25)
i=! j =2
шения.
µf = (k ,N + 1),
ВЫЧИСЛЯЮТ ЭКОНОМИЮ СТОИМОСТИ Т{ ' которая будет получена при
выбирают максимальную.
На рис . 5.6 приведен пример такой замены. Экономия достша
ется за счет ликвидации дуги (k,N + 1), но при этом может увели-
µ 2k,\(r)-(k
- , r , µr)
1 , µk2,2(r) = (k,r,µr2),
т. е. новый путь идет от вершины k к вершине r, а затем либо по
первому, либо по второму пути от вершины r к стоку (конечно,
при этом второй путь µ 2 должен быть «реальным»).
Обозначим через V (k) множество вершин, вторые пути кото
рых проходят по дуге(k, N + 1), при этом k Е V(k). Тогда путь µ
можно заменить на путь µ~· 1 или µ ~·2 только в том случае, если
для любого j Е V(k)
дугами.
µ{' 1 = (j, ...,k , r,µr) или путь µ{' 2 = (j, ...,k , r ,µ 2), т. е. новый путь
идет, как и раньше, до вершины k, а далее через вершину r и по
первому или второму пути от вершины r к стоку. Такую замену
можно осуществить лишь в том случае, когда:
µ 1п V(k,m) = 0 .
Экономии стоимости пути при этом достигают за счет ликви
дации дуги (k,m), а также за счет уменьшения потока на величину
~,т для остальных дуг пути µ 1. Однако при этом может произой
ти увеличение стоимости сети от включения в нее дуги (k, r) или
от возрастания стоимости на величину ~,т потока по дуге (k, r) и
по дугам путей µr или µ; .
Глава 5. О развитии методов решения задач 263
Построение путей к ДУ
(аналог этапа I)
нет
Конец
отношения величин min {Pf, Pf} и Pt. Чем ближе эти значения,
тем больше требуется итераций (но их число, например, не пре
восходило 5 при N = 25). Если же необходимое число путей к за
пасному узлу существенно меньше необходимого числа путей к
центральному узлу, то лучший результат, как правило, достигается
на первой итерации.
A1(k)+B1(r)<'t.
Если от вершины k, которая соединена с центром фиктивной
дугой, нет маршрута, удовлетворяющего ограничению по транзи
там, то путь от вершины k строят без ограничения по транзитам
после того, как построены все маршруты прямых путей, удовле
творяющие ограничению по транзитам.
дят, если при этом есть выгода (если экономия стоимости пути по
ложительна);
2) транзитность пути от вершины j превышает транзитность
пути от вершины k ;
3) если ранее построенный путь от вершины i не удовлетворял
ограничению по транзитам, то замена происходит в том случае,
транзитности маршрутов .
54 I<М
70км
(84)
Таблица 5.10
Исходные данные для задачи синтеза сети
ПутькДУ о 24 24 12 12 12 12 12 12 24 12 12 36 12 48
Vf(x) - LИiVgi(x) = О.
i= l
т r
Vf(x(r))- L - - V gi(x(r)) = О.
i= l gi(x(r))
L(x,r) = f(x)-rLlngi(x),
i= l
т r2
Vf(x(r))- L Vgi(x(r)) = О,
i= l gi2 (x(r))
Глава 5. О развитии методов решения задач 271
f(x)=x1 +х2
при ограничениях
g1 (х) = -xf + х2 ~ О,
g2(x)=x1~0.
272 Часть I. Математическое программирование
дL =
1+ r· 2x1 _~= 0
дХ1 -Х\
2
+ Х2 Х1
'
дL r
- = 1- =О.
дх2 -х 12 + х2
Отсюда найдем
-1 ± ✓1+8r
х~(r)= ----
4
(здесь оставим только знак + , так как х1 ~ О),
2
x2(r) = (-l ±Ji+Sr) + r.
16
Заметим, что значения х1 (r) и х2 (r) удовлетворяют условию
положительной определенности матрицы V 2 L. Пусть r последо
вательно принимает значения 1,0; 0,5; 0,25; 0,1. Соответственно
получим последовательности значений
L(x, r) = x1 -rlnx1.
Для существования минимума должно выполняться необходимое
условие
dL дL r
-=-= 1- -= О.
dx1 дх1 х1
т 1
T(x(r)) = f(x) + L-(min {O;gi(x(r))} ) 2 •
i=12r
Это и есть функция, минимизируемая методом внешней точки.
В нее могут входить ограничения и в виде неравенств, и в виде
равенств. Можно доказать, что все необходимые условия
Глава 5. О развитии методов решения задач 275
но записать
2 2
-l{[g·1-lg·11]
J J + [-g·1-l-g·11]
J J } =-}-=
g~, h~(x(r))
J •
r 2 2 r r
f(x) = -х1х2
при ограничениях
g1 ( Х) =-Х1 - Xi + 1 ~ 0, g2 ( Х) = XJ + Х2 ~ 0.
Р еше ни е. Составим функцию штрафа для метода внешней
точки:
(-х1 -х; +l- l-x1 -х; +1 1)2 (х1 +x2- lx1 +х2 1)2
Т ( x,r ) = -х1х2 + - - - ~ - - - - ~ - - + - - - - - - - -
4r 4r
~ дТ дТ
Из необходимых условии экстремума - = О, - =О опреде-
дх1 дх2
лим последовательности значений х1 и х2, сходящиеся к реше
нию.
f xl
1
х4 j x2
.,. .....3
х
мирования .
g(x)=xi-12:::0,
h(x) = xf + xi - 4 = О, или xi = 4- xf .
Глава 5. О развитии методов решения задач 277
-- --
функции V(x,r,t) имеем о
/
дV 1 r _ 2 2 /
- = - - - - +4x1r 1 (х1 +х2 -4) = О, /
о 2
дх1 Х\ Х\ -1 1 / Х\
дV -1 2 2 хг l~О
-д =-1+4x2r (х1 +х2 - 4) =0.
Х2
Рис. 5.16. Графическое
Отсюда получаем решение задачи матема
тического программиро
1 1
4r- 1(xf +xi-4) =-=----;:::==. вания с помощью ком-
ренцируемая функция на D.
Проекцией точки а на множество D называется точка апр ,
ближайшая к а среди всех точек D, т. е. апр является решением
задачи проектирования:
(q>'(x*), x- х* ) 2=: О, х Е D.
Производная q>'(x) равна 2(х- а) , т. е. 2(х* - а,а - х* ) 2=: О.
3) В силу утверждения 2) имеем
(а~пр - а1,а2пр - а1пр) 2:: О, (а2пр - а2,а1пр - а2пр) 2:: О.
Суммируя эти неравенства, получим
х* =(х* - аf'(х*))пр
С'
если а· < Ь-J '
J
а пр
1 = а ,
1 если Ь·
J -<а-
J -<с-
j,
Cj , если а1 > с1 .
3) Если D - неотрицательный ортант:
max{c{x = z1},
max{clx = z2},
max {с; х = Zk }
max{Cx = z Iх Е D} .
ния. Пусть z , z Е JR k
1 2
- критериальные векторы.
Вектор z доминирует вектор z 2 тогда и только тогда, когда
1
*
z 1 2 z 2 и z 1 z 2 (т. е. z} 2 zr для всех i и zl > zr по крайней мере
ДЛЯ ОДНОГО i).
Таким образом, никакой компонент вектора z 1 не меньше со
ответствующего компонента вектора z 2 , и, одновременно, по
крайней мере один компонент вектора z 1 больше соответствую
щего компонента вектора z 2 .
Вектор z 1 сильно доминирует вектор z 2 тогда и только тогда,
когда z 1 > z 2 (т. е. zJ > zr для всех i).
Критериальный вектор считается недоминируемым, если он не
доминируется ни одним из допустимых критериальных векторов .
точек);
3) эффективное множество Е может оказаться невыпукльтм;
4) оптимальная точка не обязательно является граничной (мно
гое зависит от вида функции полезности);
5) при сведении задачи МКЛП к однокритериальной задаче с
помощью функции полезности могут существовать локальные оп
тимумы, не являющиеся глобальными;
6) оптимальное множество 8 может быть пусто в том случае,
когда не пусто эффективное множество Е.
286 Часть I. Математическое программирование
max {Л т Сх Iх Е D},
которая будет иметь оптимальное или достаточно близкое к нему
решение не известной нам функции полезности. Основная труд
ность заключается в нахождении подходящего весового вектора.
эффективной.
Один из способов задать весовые коэффициенты - назначить
разным критериям их так, чтобы градиент взвешенной суммы
л тех совпадал по направлению с градиентом функции полезности
и = u(cJ х, с;х, ..., с[х). Пусть функция полезности и дифференци
руема. Градиент сложной функции и в точке х имеет вид
k дu
V хИ = I - V xZi,
i=l дzi
где частные производные ди/дzi вычисляются в точке х, V xZi -
градиент i-го критерия:
ди/ дzi
Wi = ди/дz1'
вычисленные в точке х. Тогда направление градиента V хИ в
точке х можно задать в виде
k
V хИ = LWiCi.
i= I
288 Часть I. Математическое программирование
k
VхИ = L)"iCi, где
i=1
- ди с-Zl - С1Х
т ) +--
ди с-z2 -С2Х
т ) + ... +--
ди с-Zk - ckx
т ) = о,
дz1 дz2 дzk
-
с!х = Разделив это уравнение на ди/дz1 > О,
т
где zi =cix, zi.
получим
векторов.
Глава 5. О развитии методов решения задач 289
max {c!x=zi}
при
и определим величину z *.
2. Выбрав некоторое z1 < z *, решим задачу ЛП для сжатой об
ласти допустимых решений.
3. Вычислим все критериальные векторы zi <Е JR п , соответ
ствующие граничным точкам xi сжатой области.
4. Выберем точку xi, соответствующую самому предпочти
тельному вектору, в качестве окончательного решения М:КЛП.
290 Часть I. Математическое программирование
1) взвешенных сумм;
2) взвешенных сумм с использованием подзадачи-теста;
3) лексикографической максимизации;
4) лексикографической максимизации с использованием под-
задачи-теста;
Do = D,
max {етs}
при условиях
при условиях
min {с!х = Zj I ХЕ Е} .
Поскольку эффективное множество Е неизвестно в явном ви
де, то нельзя непосредственно решить эту задачу. Для большин
ства задач МКЛП множество Е не является выпуклым.
Один из способов решения поставленной задачи базируется на
использовании таблицы выигрышей (табл. 5.12). Строки таблицы
выигрышей представляют собой критериальные векторы, полу
ченные в результате максимизации отдельных критериев. В том
случае, когда оптимум не единственный, необходимо принять спе
циальные меры, чтобы все критериальные векторы, стоящие в
строках, были недоминируемыми. Величины z;, стоящие на глав
ной диагонали, образуют вектор максимальных значений критери
ев на множестве эффективных точек. Минимальное значение в j-м
столбце таблицы выигрышей - это некоторая оценка минималь
ного значения j-го критерия на множестве Е. Если минимальное
по столбцу значение находится в строке, в которой стоит домини
руемый критериальный вектор, то оно может оказаться меньше
искомого минимума на множестве Е. Если строка, содержащая
минимальное значение, является недоминируемым критериальным
вектором, то минимальное значение либо определяет минимальное
значение критерия на множестве Е , либо является его оценкой
сверху. В целом, этот подход не всегда приводит к оптимальному
решению.
Глава 5. О развитии методов решения задач 293
Таблица 5.12
Таблица выигрышей
Критерий z, z2 ... Zk
с+= с1 + Рс2,
где РЕ [О, Ртах]. Отсюда находится последовательность парамет
ния РЕ [O,Pmax].
При использовании метода взвешенных сумм вводится выпук
лая комбинация векторов
Р = 'А2
1-Л.2 '
1
так как с1 + Рс2 = -(л1с1 + л2с2 ).
л1
Однако в первом подходе вектор с+ не достигает вектора с2
(только стремится к нему), во втором - с+ = Л.2с2 при Л.1 = О.
В поставленной задаче требуется определить критические зна
чения Р или л1 и Л2, при которых новые базисы (крайние точки)
становятся параметрически оптимальными (т. е. происходит смена
базиса). Задача решается в три этапа.
1. Находим допустимую крайнюю точку из области D для ре
шения симплекс-методом задачи ЛП
max {c[xlxE D}
ДОПОЛНИМ строкой /
/
Zj --ст
ьУj, -з ,
/
-2 - 1 О
С\
~ -1
где сь - часть координат вектора Ci,
Л2 = min {- 1-(-3)
-
3
; - -} = _!. при
1
2+1 3
j = 2; л1 =-.
2
3
296 Часть I. Математическое программирование
S3 3 о ш 1 о
S4 6 3 -1 о 1
С1 -3 -1 о о
С2 1 2 о о
CJj - Zl j -3 -1 о о
C2j - Z2j 1 2 о о
Л, - min { 1 ~ 3} - ~ и Л1 - :
Таблица 5.14
Вторая итерация
Х2 3 о 1 1 о
S4 9 @] о 1 1
Ct j - Z1j -3 о 1 о
C2j - Z 2j 1 о -2 о
Х2 3 о 1 1 о
Х1 3 1 о 1/3 1/3
C\j -Z1 j о о 2 1
C2j - Z2j о о -7/3 -1/3
Лу(-<',х') - { АЕ AIA1 - : , л, - : },
л.,, - {АЕ AIA1 Е [ О, а А, Е [ ~ , 1]}
Задача 2. С помощью метода взвешенных сумм провести ана
лиз задачи МКЛП:
Р е ш е ни е. Параметризованный
х2
4 ~x_l_ _...... (суммарный) градиент целевой функции
имеет вид
\:1
где
с+ = А1с1 + А2с2 + Азсз ,
х4 А= (А1,А2,Аз)Е Л =
0 2 3 4 Х1
Таблица 5.16
Оптимальное решение задачи ЛП
Свободный
Базис XJ Х2 S3 S4 S5
член
Х2 4 о 1 1 о о
S4 2 ш о -2 1 о
S5 6 2 о 1 о 1
C1j - Zlj -1 о 2 о о
C2j - Z2j 3 о -3 о о
Сзj -zзj 1 о -2 о о
Таблица 5.17
Вторая итерация
Х2 4 о 1 1 о о
Х1 2 1 о -2 1 о
S5 2 2 о ~ -2 1
CJj -Z1 j о о -5 1 о
C2j -Z2j о о 3 -3 о
сзj -zзj о о о -1 о
-5А1 + 3А2 s О,
А1 - 3А2 -Аз s О,
А1 +А2 +Аз = 1, АЕ Л,
А1 +А2
sl, А1,А2 ~О .
Отсюда получаем А1 = (1/2, О, 1/2), А 2 = (3/4, 1/4, О), Аз = (О, О, 1),
А 4 = (3 / 8, 5 / 8,0). Подмножество Лх2 изображено на рис. 5.22.
300 Часть I. Математическое программирование
А-2
0,75
0,75
0,50
0,50
0,25
0,25
).,3 ~~-~~-~- ).,3 ,._____.___ _._______,'---___,._•
о 0,25 0,50 о, 75 А-1
О 0,25 0,50 0,75 А-1
Рис. 5.22. Подмножество Лх2 Рис. 5.23. Подмножество Лх3
Таблица 5.18
Последняя итерация
7 5
--л1 -л2 -лз
3
$; О, -л1
3
- л2 $; О,
или
4 5
-- л1 $;1, -л1 - л2 $;0,
3 3
л1 + л2 $; 1, л1, л2 ~ О .
цель { cf х = z1} , z1 г t1 ,
цель {с;х = z2}, z2 = t2,
цель {с]х = zз}, zз Е [tf ,t;],
при хЕ D.
Архимедова модель этой задачи записывается следующим об
разом:
т -
С3Х 3 -< tв
d+ 3, ХЕ D, dГ, d;, di, d;, di г О.
зателей ti.
Рассмотрим задачу ЦП с приоритетами. В приоритетном (лек
сикографическом) ЦП цели группируются по приоритетам. Цели с
высшим уровнем приоритета считаются «бесконечно важными» по
сравнению с целями со следующим уровнем приоритета, т . е. если
цель{с;х=z2}, ~(z2гt2),
при условиях
min {d(}
при условиях
с[ х - d( ::;; t1, хЕ D d( г О.
min {d:2}
при условиях
min{d{ +dз}
при условиях
С3т Х - d+
3 + d-
3 -- tз ,
этапе.
при условиях-ограничениях
Таблица 5.19
Симплекс-таблица первого этапа
d1- 3 -1 -1
d2 6 -1 -1
dз 3 1 -1
Х1 2 -1
S5 3 ш
C\j - Z\j 3 1 1
C2j -Z2j 6 1 1 -1
сзj -zзj 3 -1 1
Таблица 5.20
Заключительная симплекс-таблица
d1- 3 -1 -1
di. 6 -1 -1 1
dз о -1 -1
Xt 2 1
Х3 3 1
Р, 3 1 1
Р2 6 1 1 -1
Рз о 1 1
Статистические методы
~
принятия решении
Герберт Спенсер
Глава 6
ных средств .
Р(е х) =
I {P(w1 1 х), если принимается решение w2 ,
P(w2 1 х), если принимается решение w1•
Пусть liJ - потери вследствие принятия решения Wi при ис
тинном состоянии природы (истинной гипотезе) w1 . Ожидаемые
потери называются риском, решение принимается по значению
условного риска
s
R(wi lx)= 2)iJP(w1 lx), i=l,2, ...,s,
j =l
где s - число состояний природы (гипотез), х - наблюдаемые
значения признаков, хЕ Х.
Если окажется, что R(щ \ х) < R(w1 \ х), то выбирается гипотеза
щ. Для случая двух состояний природы w1 и w2 последнее нера
венство имеет вид
f
В= p(xl W2)P(w2)dx.
R1
определяются по формуле
Ро(со) = М {L(co,8(x)) },
M 00 {L(co, 8(x)) 1 х}
называется апостериорной потерей при заданных наблюдениях х.
Она соответствует среднему значению потерь, связанному с при
нятием решения 8(х). Усреднение проводится по апостериорной
ПЛОТНОСТИ р( СО I Х).
Классический подход к выбору правила решения 8 основан на
использовании функции риска Ро (со). Наилучшим правилом реше
ния является решение 8, которое минимизирует функцию риска
для всех со . Правило решения 8' называется допустимым, если не
существует правила 8 такого, что неравенство Ро (со) < Ро' (со)
справедливо для всех значений со.
Байесовский подход к выбору правила решения 8 для извест
ной априорной плотности п(со) основан на использовании функ
ции апостериорного риска Рп(8). Наилучшим правилом решения в
таком случае является то правило 8, которое дает наименьший
апостериорный риск, т. е. Рп (8) 5 Рп (8') для любого 8'. При до
вольно общих предположениях можно доказать, что все допусти
мые решения являются байесовскими решениями, т. е. если 8 -
допустимое правило решения, то существует некоторая априорная
316 Часть II. Статистические методы принятия решений
f
M{иlPcz} = u(r)dPd(r) = u(щd)dP(w). f
R Q
f
p(P,d) = L(щd)dP(w).
Q
Глава 6. Анализ методов принятия решений 317
р( щ
1
_
х - хо
) - Р(щ)р(хо I щ)
--------.
т
Z:Р(щ)р(хо I щ)
i= l
определяется по формуле
J
р = P(mi)c12 р(х I mi)dx + [1-P(w1)]c21 р(х I W2)dx. f
R2 Ri
Глава 6. Анализ методов принятия решений 319
др
Приравнивая производную ---- нулю, в некоторой точке
д[Р(ы1)]
Хо получим
min В =
х
min
х
f p(z I Ы2)dz
при ограничении вида
+=
а= f p(zlw1)dz < A.
х
ло = c12P(ro1).
c21P(ro2)
Ордината этой точки определяет условную вероятность правиль
ного решения, а абсцисса - условную вероятность ошибки перво
го рода. Причем надо учесть, что производная от среднего риска р
по априорной вероятности P(ro1) в точке его максимума равна ну
лю, т. е.
1-
А_ С11 - CJ2
1--' - ( ] , , . - - - +l
С21 - С22
с угловым коэффициентом
k= С11 - С12 .
С21 - С22
Решение Решение
Гшютеза Гшютеза
Но Н1 Но Н1
Но 1-а(8) а(8) Но о lo
Н1 ~(8) 1-~(8) Н1 /1 о
р(~,8) = М {L(w,8(x))} =
f
p(~, d) = L(w,d)~(w) dv(m),
Q
f
p(w,8) = L(w,8(x))f (х Iw) dµ(x). (6.2)
s
Из соотношений (6.1) и (6.2) имеем
f
р(~,8) = p(w,8)~(w) dv(w).
Q
fL(ro,d)[f(xfi(x)
Q
I ro)~(ro)] dv(ro),
f
где fi(x) = f(x I ro)~(ro) dv(ro).
Q
3 1
Р(О) = , P(l) = .
4 4
Тогда для любого решения dЕD
3 1 1 1
p(P,d) = L(0,d)P(0) + L(l,d)P(l) =-d + - (1-d) =-d +- .
4 4 2 4
Отсюда получаем
3 1 D
P(x = lJco1) = , Р(х = 0 J СО1) = , Q
d1 d2
4 4
2 1 ro1 о 5
Р( х = О I со2 ) = З, Р( х = 1 1 Ф2) = - .
3 ro2 10 о
Р(СО1) = р, Р(СО2) = 1- р, 0$ р$ 1;
326 Часть II. Статистические методы принятия решений
~(х) = P(ro1 1 х) .
Пусть х = 1 ; тогда
3
-р
~(1) = 4
3 1
-р+-(1 - р)
4 3
Для х =О имеем
1
-р
~(О) = 4
1 2
4р+з(l-р)
р*(р)
2 2
о ~ 16 1 р о ~ 1 16 1 р
17 19 17 3 19
Рис. 6.2. Байесовская ре Рис. 6.3. Зависимость ми
шающая функция нимального риска от р
гипотезе х ~ w1 , или
Px(P,d*) ~ Px(P,d),
330 Часть II. Статистические методы принятия решений
т. е.
т т
л= p(x l щ).
р(х I ffiJ)
Тогда неравенство (6.9) примет вид d * = di, если "л ~ Р(О)1 ) для
P(ffii)
всех j = 1, 2, ..., т.
Если информация об априорных вероятностях Р( О)1 ) отсут
1n Р(ffii) _ _!_ 1n I Ki 1 _
Р(ffi j) 2 1Кj 1
При Ki = К1 = К имеем
2
1
p(xlmi) = ~ехр {--
1 (x-Mi ) }
,
.
i=l,2.
2
-v 2ncri 2 cri
В общем случае (при cr1-::/:- cr2) согласно соотношению (6.10)
решающая граница определяется из условия
2 2
1n P(m1) + ln cr2 _ (х- ~1) + (х- ~2) = О.
P(m2) cr1 2cr1 2cr2
При cr1 = cr2 = cr получим
образом:
cr2 ln P(m1)
P(w2) М1 +М2
х = - - - - - + - - - -.
М2-М1 2
Пример 3. Найти решающую границу для плотности двумер
ного гауссова распределения р( х IWi ) , i = 1, 2, со средними векто-
или
N
Di(x) = L WkiXk + Wi,N+I, i = 1, 2, ..., т.
k= l
N
Di(x)-D1 (x) = L WkXk + WN+l = О, (6.12)
k=l
1
где l =- N(N +З).
2
В общем случае границей для квадратичных разделяющих
функций является поверхность второго порядка. В частных случа
ях это будет гиперсфера, гиперэллипсоид и гиперэллипсоидаль
ный цилиндр.
Глава 6. Анализ методов npu1tЯmuя решений 335
(6.13)
Ап = А. (6.14)
Это указывает на окончательное решение о принятии гипотезы
Но. Из условий (6.13) и (6.14) получим
р(х I Но) = Ар(х I Н1),
1-а
А< -- в~_!!:._.
-
в ' 1-В
Рассмотрим пример того, как изменяются решающие границы
при п замерах признаков.
(J2 1
х1 >---lnA+-(m1 +т2),
т1 -т2 2
то х rvW1. Если
то х rv W2 . Если
1
ln /\,2
-1np(x1lw1)
- ----+ -----
lnp(x2 IW1)_m1-m2[ х1 +х2- ( т1 +т2 )] .
2
р(х1 1 W2) p(x2 IW2) <J
Если
(J2
х1 + х2 > - - -lnA+m1 +т2,
т1 -m2
то х rv W1. Если
(J2
XI +х2 s---lnB+m1 +т2,
т1 -т2
то х rv W2. Если
(J2 (J2
- - -lnB+m1 +т2 <х1 +х2 < - - -lnA+m1 +т2,
~-~ ~-~
1
ln Лп _~ln p(xi lro1) -_ т1 -т2 L,
- L,
~[ Xi - -1 (m1 + m2 )] .
2
i=l p(Xi Iffi2) <J i=l 2
Процедура классификации образов ffi1 и ffi2 будет следующей.
Если
п (J2 п
LXi > ---lnA+-(m1 +т2), (6.16)
i=l т1 -т2 2
то х ~со1 • Если
(6.17)
то х ~ ffi2 . Если
(J2 n п (J2 n
---lnB+-(m1 +m2)<LXi < ---lnA+-(m1 +т2),
т1 - т2 2 i=l т1 - т2 2
то измеряется Xn+ I •
Решающие границы, определяемые формулами (6.16), (6.17),
при знаках равенства представляют собой две параллельные ги
перплоскости в пространстве признаков. Ширина области неопре-
~ А ~
деленности равна - - -ln- т. е. пропорциональна
т1 - т2 В' т1 - т2
При заданных вероятностях ошибок а и ~ среднее число измере-
Mi(n) = (1-a)lnA+alnB ,
M1(z)
когда НO истинно, и
априорных данных.
ип (Х 1
Н) =
I
Рп(х l Hi)
l /m, i = 1, 2, ..., т.
[!}•<xl Hq) ]
Решающее правило о. п. к. о. в . состоит в следующем. Отношение
Ип (х IHi) сравнивается с останавливающей границей A(Hi) для
гипотезы Hi. Гипотеза Hi исключается из рассмотрения, если
А(н ·) =1
1-eii
l!m , i = 1, 2 , ..., т,
[ П(1-eiq )]
q= I
p(P,d) = 'I,P(Hi)p(Hi,d),
i=I
p(P,d*) = minp(P,di)-
i
При
{'
о, если i = j,
L(H·1, d·)=l-8··
J lj
= 1
если i=f:. j,
байесовским решением будет d* = di, если выполнены условия
342 Часть II Cmamucmuчecкue методы принятия решений
i= l
f
p(Hi,d) = }:P(Hi)}: [cj(x) + L(Hi,dj(x))]p(x I Hi)dx,
j =l 51
л 1+А2
р
I
и р
11 удовлетворяют уравнениям
t(
~ Х1, . . . , Хп
)=[l + l-pf2(x1)...f2(xп)] -l
р Ji. (x1) ...Ji. (хп)
Введем постоянные А и В :
А= p(l- р11) В= p(l- р'~.
(1- p)pll' (1- р)р
Поскольку р' < р < р , то А < 1, В> 1. Дальнейшие наблюдения
11
п п
В-1
P(d1 1W1) = l-P(d2 1W1) :::: - -,
В-А
А(В-1)
P(d1 lro2) = l-P(d2 lro2):::: - - -. Рис. 6.5. Вероятности при
В-А
нятия решений d 1 и d2
Эти приближенные значения являются
координатами точки K(P(d2 1 w1), P(d1 1 w2)) (см. рис. 6.5).
Введем случайную величину
/2(xi) .
Zi = 1ll -'----- , l = 1, 2, ..., n,
Ji (xi)
и положим 1n А = а < О, 1n В = Ь > О; тогда согласно последова
тельному критерию отношения вероятностей необходимо продол-
п
м(t,z; ) - тМ(N).
В общем случае границы а и Ь можно найти, минимизируя
функцию риска р(р , 8). Как правило, это сделать сложно. Прима
лой цене с оптимальная процедура обычно предписывает прове
дение большого числа наблюдений, величины границ а и Ь яв
ляются большими числами. Тогда получают следующие прибли
жения:
а ь
M(N Iffi1) z -M-(z_ l_ro_1) ' М (N Iffi2)::::; -M-(z_l_ro2- ),
Обучение с поощрением
f
= р(Хп+I I XI , ..., Хп,Щ , 8)р(8 1 XI, ..., Хп,Щ)d8, n = 1,2, ...,
где член р(хп+1 1 х1, ..., Xn,Wi,8) известен, а р(81 х1 , ..., Хп) получа
ется из соотношения (6.18). Известно, что в среднем апосте
риорная функция плотности улучшает оценку параметра, которая
сходится к истинному значению, если только оно не исключено из
= -1 ----==--
1
2 ,J2ir, •cr
( ехр { - - - -1 -
2cr2
(х-т ) }
2
+ехр (x-m
{- - --
2cr2
2)
-
2
}J.
Тогда оптимальная решающая граница определяется условием
1 п
тп =- I,xi.
п i= I
р
_
(8 1Xi, ..•, Хп ) -
р(Хп l 8, x1, .. ., Хп-1)р(8 I XI, ..., Хп-1) . (6.20)
р(Хп I XI, ..., Хп-1)
Пусть обучающие наблюдения условно независимы, т. е.
р(Хп+Il 8,x1, ..., Хп) = р(Хп+I 18). Тогда
р(хп l 8,x1, ..., Хп-1) = Р(со1)р(хп l 8,ro1) + Р(со2)р(хп l 8,ro2). (6.21)
Если р(01 Х1, ..., Хп-1), р(хп Ie,m1), р(хп Ie,m2), P(m1), Р(Ю2) из
вестны, то можно получить р(0 1 Х1, ..., Хп ). Пусть Р(ffi1) и Р(ffi2)
известны. Тогда для нахождения р(хп 10,mi) и p(0lx1, ...,xn) при
всех значениях 0 следует предположить, что к величине 0 можно
применить конечное квантование, чтобы объем вычислений был
конечным.
Р(щ )р(хп Iei ,ffii) + I,P(О) j )р(хп IО)j ,XI' ..., Хп-1)
= p(0i IХ1, ..., Хп-1 ) - - - - - m - - - - -j =-l - - ' - - - - - - - - - - - -
"f,P(ro1 )p(Xn Jm1 ,x1, ...,Xn-1)
j =l
i = l , 2, ..., m.
В общем случае начальные оценки либо Po(0i), либо Po(mi ),
i = 1, 2, ..., т, должны быть различны, иначе для всех 0i будет оце
ниваться одно и то же значение (так как вычисляется одна величи
на) и система в целом ничему не будет обучена.
Обучение с поощрением
ni
Лc+1(mi)=Лc(mi)+yk+1 -;;-Лc(mi) ] , k=0, 1, 2, ...
[
р(х) = Lci<pi(x),
i=l
{1
о при i-:;:. j,
J <pi(x)<p1(x)dx =
при i = j,
ров 8i;
3) обучающие наблюдения взяты из совместного распределе
ния, построенного из составляющих распределений :
т
раметров 0 и Р1 .
Из равенств F(H,0,p1) = О и G(0,p1) = О получают оценки 0
и р1 ; F(-) может быть найдено из последовательных оценок
{Н(х)}, а G(·) задано априори или с помощью вспомогательных
процедур оценки.
М(х 3 )
т 2 -3М(х)т +3М(х 2 )- --=0.
i t М(х)
М(х)
равен нулю. В других случаях решение будет не единственно.
решений.
354 Часть II Cmamucmuчecкue методы принятия решений
ni
p(~,01ro)
п
.",., -
/
/
л
/
/
p(x,0lro)
~---г-;::;=::::::~____
~ признаков
Вектор p(xlroj)
х
Функция
потерь
L(dlro) Решающее
правило
D(x)
Этап 1
- - - - - - - - - - - - - - - - - - - - - -_____________
- - - - - - - - - ~! - - - -
1
1
1
1
Измеренный Идентифи
Измерение вектор кация
признаков Хн (J)j
Ошибки
l и [[ рода
/\ /\
а, р
Этап2
онным подходом.
Измеренный л л л л л
Вектор p(;lro) p(;нlro) а,~
5}• признаков
;
..j Измерение ~ вектор
приз наков х
НдК] Интервальная
л
Интервальная
л л
Интервальные
л л
Дисперсия D(x) оценка Лp(;lro) оценка Лр(;н lw) оценки а,~
Помеха
Функция
да
1
81
потерь
Нулевая зона 1
r
:
Измеренный
Вектор rl и зме- вектор
-fпк 1
+ признаков
; рение признаков ~н 1
н
Хн
Помеха
82
р(щd(~)) = М {L(co,d(~))} =
МЕТОДЫ РЕГРЕССИОННОГО
И КОНФЛЮЭНТНОГО АНАЛИЗА
КАК ИНСТРУМЕНТ В ПРОЦЕДУРАХ
ПРИНЯТИЯ РЕШЕНИЙ
~2
а=-
s ,
n-p
п ~
f (у I х) = f(x,y) = f(x,y)
Ji(x) +J f(x , y)dy
где fi(x) - плотность вероятности частного распределения
случайной величины ~ .
Можно найти числовые характеристики условного распределе-
ния вероятностей переменной У] : среднее значение, моду, медиану
и другие, которые будут зависеть
от х. Обозначим через Ух выбран
ную числовую характеристику. Если
х изменяется, то точки (х, ух ) опи
шут некоторую кривую (рис. 7.1). По
виду этой кривой можно судить о
поведении условного У] -распределе
отношением
+=
f у f(x,y) dy
Ух =M(YJ l~=x)=--:----
f f(x,y) dy
Получим кривую регрессии для условного среднего значения У] •
Если рассматривать У] как независимую переменную, то
+=+=
М {[11- g(~)] } = 2
f f [у- g(x)] f(x,y)dxdy =
2
+= +=
= fJi (x)dx f [у- g(x)]2 f (у I x)dy, (7.1)
L(y,a) = : 12
(2n) cr 2cr J= I i=I
(7.3)
пределения Лапласа
L(y,a) -
2
}/j. ~ ехр{- ~ yj - ~а, (J),(xj) },
а функционал, аналогичный функционалу (7.3), - вид
Ух =01 +02х.
л О'у л л
02 = р-, 01 = у -02х,
О'х
Р = n(Jxa
1
y
(LLXiYJ -п.ху),
i j
л л
Ух = 81 + 82х.
В случае регрессии ~ на Т], т. е. Ху = а+ Bri, необходимо
найти оценки параметров а и В , при которых можно решить за
дачу
M[(~-a-Bri)2] • min,
а,/3
или задачу
х -х у-у
у = р-- . (7.7)
ах ау
" ах 2 2
В = р- , Фmш = nax(l-p ).
ау
368 Часть II. Статистические методы принятия решений
Ух= у, Ху =Х
двух взаимно перпендикулярных прямых.
у Ух - у_ Х-Х
--- р - , IPl~l.
О'у О'х
Положим cr у = ах = 1 и перенесем
парадокс х = у = О . Получим
Ух= рх~х.
х -х у -у
у = р -- ,
О'х О'у
У1
------t
--~
1
1
1
1
1
Линия регрессии должна возможно 1 1 1
«лучшим» образом пройти по I 1 1
I 1 1
областям неопределенности. 1 1 1
Пусть результаты наблюдений 1 1 1
1
Xj = ~ j +8 j и Yi = Yli + tj, YJ = о Х] Х2 Х3 ~
= /(~,8), подчиняются нормаль
Рис. 7.4. Области неопреде-
ному закону распределения соот
ленности
ветственно с математическими
2 2
F=_!_f _ 1_ [(xi -~i) _
2 p_(xi-~i)(yi-YJi)+(yi-YJi) ] (
7.9)
1
2i=1l-pr cr2 (xi) cr(xi)cr(yi) cr2 (yi) .
дF п у·-11· д11·
--= I, i2 i i =О, j=l,2, ...,m, (7 .11)
д0j i= l (J (yi)д0j 0- =0 -
J J
нальности векторов {(xi - ~i ); (Yi - fii)} и {1; д11i / д~}, причем по-
следний вектор направлен по касатель
ной к кривой 11 = /(~, 0) или вдоль пря-
мой при линейной регрессии (рис. 7.5).
Условия (7.11), (7.12) определяют тре
тью линию регрессии - ортогональ
у = Х8+ Е,
А. Простейший 2
случай: cr =1. Используя метод
наименьших квадратов, найдем точку минимума квадратичной
формы
2хту+2хтхе=О.
Отсюда имеем
0 = (Хт Х)- 1 хту.
Минимальное значение S квадратичной формы Q(0) при
л
s = уту - у т хе.
оценок 0:
М(0) =М[(Хтх)- 1 Хту] =(Хтх)- 1 хтМ(у).
Глава 7. Методы регрессионного и конфлюэнтного анализа 373
= (Хт Х)- 1
хта 2 I Х(Хт Х)- 1 =
= сr 2
(Хт Х)- 1 хт I Х(Хт Х)- 1 = а2 (Хт Х)-1 •
компонентов вектора 0.
Замечание. Приведенными формулами для вычисления
дисперсии можно пользоваться, несколько их изменив, если
(J2
D(Е j) = D(Еi ,jm;) = ffii D(Еi) = roi - = а2 ,
(Oj
S=I(Ej)2 = Iro1EJ.
j =I j =I
М(Е7)=а7 =D(y1),
i, j = 1, 2, ..., п,
уравнений
1 W л
п- 1 (у) =-Н- 1 = - , D(8) = cr 2 (xтwx)- 1 ,
(J2 (J2
х = (3 2 3Jт
1 1 2 '
4 2 о]
D(y) = cr2 N , N = 2 4 О .
[
О О 4
Решение. Найдем матрицу п- 1 = W / cr2 , предварительно
обратив матрицу N:
0,333 -0,167
0,000]
1
W = N- = -0,167 0,333 0,000 .
[
0,000 0,000 0, 250
8 = (1,00;0,75?, е= y-X8=(0,25;I,25;-0,50y.
Тогда имеем
л = &2 (ХтWХ)- 1 =
D(8) ( 1' ООО -1 ' 750] .
-1,750 3,437
л л
1,00 -0,94]
pij = ( -0,94 1,00
координат.
02
л л
02+k~cr(02) -- т,; - - - - - - - -l
в 1
1
л 1
02 --+ 1
1
1
1
л
0z-k~cr(02)
л
--,----- 1
1 1
1
--j
1
1 1 1
1
1 1
lл
1
1 01
1
л л л л л
о 0 гk~cr(0 1 ) 01 0 1+k~cr(01)
л
Q(0, 8) = (0 - 8У D(0)(0 - 8)
" 2
P{Q(8,8) ~ k~} = В,
где В - доверительная вероятность, kJ - квантиль для х2 ( N) -
распределения.
Jx2(N) Jx2(2N)
0,8 0,8
0,6 0,6
0,4 0,4
0,2 0,2
о 4 8 12 16 k2 о 10 20 30 40 k2
~ ~
а б
2N = 14,16, .. .,40
х2
2 2
ехр { - -I ( + 2у
P(k) =
П 2по(х)о(у) I
2 о (х) о (у) )} dxdy
P(k) = 1- e - k 212 ,
т. е. если каждая полуось эллипса равна одному среднему квадра
k13=3,0
~ 1====~2=;5============iiii!
0,9 2,0
1,5____ _
0 ,7 --------
1,36
l ,O
0,5 ~ - - - - -
0,3
0,5
о, 1 .___.......__ ___.__ _.___....___ __. Рис. 7.9. Доверительные облас-
о 0,2 0,4 0,6 0,8 р л
горизонтальной полосы
Глава 7. Методы регрессионного и конфлюэнтного анализа 379
L(x1,x2, ...,xп;8)dx1dx2 ... dxn = /(x1,8)/(x2 ,8) ... /(xn,8)dx1dx2 ... dxn.
п
дL(х,8) = О
} = 1,2, ..., т.
ае.
1
,
л
д8/дхi во всех точках х = (х1 ,х2 , ...,хп)Е IRn , при этом операции
вычисления частных производных и интегрирования коммути
руют;
Доказательств о. Имеем
+=
fL(8 l 0)d8 = 1.
Дифференцируя это выражение по 0, получим следующие со
отношения:
+=
f дL d0 =О= +f= д InL L(0 l 0)d0
---00
де ---00
де '
дlnL 1 дL
так как--=--.
де L де
Имеем
+=
М (8) = f8L(8 l 0)d8 = 0 + Ь(0).
_i_ +=
f 0L(0 l 0)d0 = 1 + db(e). (7.13)
де ---00
d0
л
J (0 +
+= Ь(0)) д InL L(0 i 0)d8 = О. (7.14)
---00
де
+=
f (0-0-Ь(0)) дlnL L(010)d0 = 1 + db(e). (7.15)
---00
де d0
Глава 7. Методы регрессионного и конфлюэнтного анализа 381
(Iлx)g(x)d< J"I1'(x)d<Ig'(x)d<,
преобразуем интеграл (7 .15) к следующему виду:
дlnL(0 1 0)=0.
де
л
1
D(0) = 12
I(д:eL) L(x,0)dx
л
д 2 lnL
---11, i,j = 1, 2, ..., k.
деiдеj
п 1 { (х·z - т)
2
}
L(т,а2)=П~~ехр 2 .
i= l ili<J 2<J
Тогда
lnL=---
1 ~
L,(xi-m) - -ln<J +const. 2 п 2
2<J 2 i= l 2
Используя метод максимума правдоподобия, получим уравнения
дlnL 1 п
- - = - L(xi -m) =O,
2
дm О' i= l
д InL 1 п п
- -2 = - L(xi-m)2 - -= О.
д<J 4
2<J i= l 2<J2
л 1 Ln Х· - л2 = -1 ~ ( -)2 •
т=- =х (J L, Xi - Х
1 '
n i= l n i=l
м[дlnL(x,0)] = 0
a0i
и существует матрица
lnL(x,µ) = lnC _ _!_ I,(xi -µ) 2 = lnC _ _!_ I,(xi -х)2 - п (µ-х)2
2 i= I 2 i= l 2
с точкой максимума при µ = х. Смещаем параболу так, чтобы
lnL(x) = О .
Пусть lnL = -112 и п= 1. Тогда
(µ-х) 2 1
2 2
Отсюда получим доверительный интервал х -1 s µ s х + 1. Однако
Р{(х-µ) 2 sl}=0,683,
т.е. P{x-lsµsx+l}=0,683 (см.рис. 7.10).
Пусть lnL = -2; тогда (µ- х) 2 / 2 = 2. Отсюда получаем дове
рительный интервал 1 µ- х I s 2, или х - 2 s µ s х + 2.
Из условия нормального распределения имеем
Р{(х - µ) 2 s 2} = 0,955,
или Р{х -2 sµsx + 2} = О,955.
Общий случай. Если L(x,8) является непрерывной функ
цией и имеет один максимум, можно найти оператор g(8, х), кото
рый преобразует кривую ln.цэ(х,8) в параболу вблизи функции
G(x) наблюдений:
1
lnLg (x,g(8)) = -(g - G(x ))2 .
2
В асимптотическом случае доказывается, что g можно вы
брать независимо от х. Тогда G является оценкой максимального
правдоподобия для g.
Используя свойство инвариантности ММП, можно сделать та
кие же выводы о параметре g, какие делались о параметре нор
ln.цэ(х,8) = lnLg(x,g(8)),
Глава 7. Методы регрессионного и конфлюэнтного анализа 385
п(8 1 х)
[[(f(xi 18)]п(8)
= _1-_1_ _ _ __
[I}f (xi 18) ]п(8)d8
Байесовский доверительный интервал (8н, 0в) с вероятност
2
л N дf л N N дf дf л л
D(y) = I (- _ псе 1 )+2I I - _-_ псе1 ,еi),
1= 1 де 1 J 1= 1 1=2
j <i
де 1 деl
л л
D(y) = fт (x)D(0)f(x);
л л
D(y) = (l,x-x)(D(Bo) Ол ](
1
- )=D(8o)+(x-x) 2 D(81).
О D(81) х-х
(7.16)
л 2
- - - - - + 8л22,
(82у+х) -1
fu -Са
где
Sxy
/Ji -- sx2 - -л-, fu -- sx2 +82S.xy,
л
82
Новое наблюдаемое (прогнозируемое) значение у отсчитыва
л 1 п _
I(xi -x)yi
е1 -
л _ i= l
0о = - LYi = У, ~----
n i= l п 2
I(xi -х)
i= l
л - 0'2
D(0o) = D(y) = - ,
п
л
D(0 1) = D
[~(xi
1
- x)yi]
=
~(х, - X) D(y, )
1
2
cr'
= - - -.
I(xi -х)
2
i
(
L(Xi -х)
_ 2)
2
I(xi
i
-х) 2
i
о х
где
Yi -11i
И2i = .
a(yi)
Глава 7. Методы регрессионного и конфлюэнтного анализа 393
L(x,y) = ПРi,
i= l
или
lnL(x,y) =-_!_ f[(xi; ~i) 2Pi (xi - ~i)(yi -rii) + (Yi ;rii) ]х
2
_
2
дF <111
- -- = О, j = 1, 2, ..., т. (7.20)
дri д01 еJ =0J·
дF = О, i = 1, 2, ..., п. (7.21)
д~i ~;= ~;
~ Yi - Y\i дf = О
LJ 2 д ' j = 1, 2, ..., т, п~т, (7.22)
i= l (J (yi) 0j
при
(7.23)
Fv -Fv+I 0v -0~+1
1----1 =::;у 1 , max 1 1 <у }=1,2, ...,т,
- 2,
Fv 8~]
у= f(x,0) + Е.
В основном, как показано в [20, 30, 40], этот подход приводит к
несостоятельной оценке с большим асимптотическим смещением.
11. В работе [96] рассмотрена задача, когда ~ является случай-
ной величиной, не зависящей от Ei и 8i , с характеристиками
М(~) = µ, cov(~) = D~. Значения ~i аппроксимируются результа
тами измерений xi, и при нормальном законе распределения слу
~ = х а2(х) +
а 2 ( х) + ai
µ(1- а2(х) J
а 2 ( х) + ai '
где а~ - дисперсия ошибки 8i, а 2 (х) - дисперсия вариацион
ного ряда х . Минимизируемый функционал примет вид
п п
(х-81 ) }
2
ri z 1
----==--ехр
{ +
х=~
2
fu · 82 282
{ (х-8 1 ) }
2
1
+ --- ехр - - - -
(х-8
[ - - -- 1 )] ( х-1:,
~)-
-
fu· 82 28~ х=~ 8~ х=~
1. Составляется функционал
п
0s. -0s.-l
max 1 1
<у j = 1, 2, ..., т.
0s. - '
]
бок а~ и crl:
Yi = a~i + Ь + Ei, Xi = ~i + 8i, i = 1, 2, ..., п.
Традиционными методами, например МНК, определяют оцен
ки параметров а и Ь модели, считая, что xi - детерминирован
ные величины. Следовательно, теперь мы имеем модель с извест
ными параметрами:
0s. -0s.-l
max 1 1
s У, 1· = 1, 2.
0s.]
Для линейных моделей мы получили функционал и формулу
для расчета значений ~i, аналогичную приведенной в § 7.9. Таким
образом, в качестве единого подхода к задаче нахождения оценок
параметров моделей с учетом погрешностей в значениях функции
и аргументов могут быть использованы методы конфлюэнтного
анализа, описанные в [20-24, 40].
rt = 1:: 0j хj + 00
j=l
402 Часть II. Статистические методы принятия решений
в предположении, что:
ri = 00 + L 01 ~ 1
}=\
т п
т п
или
д2F п п
2]
det,,-- =(1+0f) nLxr- LXi
д0од01 [ i=l ( i= I
) +
п
п (п
2
nLXi -
2 )
LXi >
2
nl(n-2)(30f-l)l& (y)
2
i=l i=l 1+01
Правая часть последнего условия имеет максимум при 01 = О ,
т. е. для любого 01 условие того, что регрессионное решение при
надлежит области выпуклости функционала (7 .26), имеет вид
Глава 7. Методы регрессионного и конфлюэнтного анализа 405
Теорема доказана.
Условия, обеспечивающие попадание регрессионного решения
в выпуклую область функционала (7.10), для других функций не
сложно проверить на компьютере, но достаточно сложно выразить
01 = max{011;812},
406 Часть II. Статистические методы принятия решений
где
2
1
011,12 = с ( (w-d)± ✓(d-w)2 +4с 2 ),
п
2
п 1 п п
п п 1( п ]
2
1 п п п 1 п
w-d = - LXi ]2- LХГ + LУГ - - ( LYi ]2 =s; -si ,
n ( i=I i=I i= l n i=I
Глава 7. Методы регрессионного и конфлюэнтного анализа 407
п 1 п п
л л 1
011 = 01, 012 = --.
01
л
л 1п л lп _л _ _ _
0о = - LYi -01- LXi = у-01х • у-01х.
n i=1 n i= 1
Согласно [40] имеем у ➔ 0о + 01~, х • ~' т. е. 0о = 0о + 01~ -
-01~ = 00 - оценка состоятельная.
л л
LXiYi
л ·-1 Sxy
01 = I- = -·
п 2 '
"Х2 Sx
L, 1
i=1
несостоятельна.
л л 1
011-812 = 01 +- > 01.
01
Учитывая свойства функционала F и получающихся оценок,
задачу минимизации функционала F при условии (7 .12) решают
по следующей схеме.
Шаг 1. Задают начальные значения переменных ~ (результа
ты наблюдений х) и определяют минимум по 0 функционала F
при фиксированных ~- В результате получают первое приближе
ние для оценок искомых параметров 0.
Шаг 2. Точные значения переменных пересчитывают с уче
том ограничения (7.12) при полученных приближениях для оценок
параметров 0 . Для уменьшения числа итераций полезно проверить
условие принадлежности нового значения ~ij области возможных
значений при заданном Xij .
ev -ev+I
Fv -Fv+1 <
- 81, max 1 l -<82, l = 1, 2, ..., k,
Fv еу
ских приложениях .
ri = f (~, е) = Iei~i
i=I
и к решению систем линейных алгебраических уравнений с по
грешностями в матрице системы и в правой части уравнений, если
ошибки измерений - независимые нормально распределенные
случайные величины с нулевыми средними значениями и извест-
'°т[п
2
(7.28)
Здесь для упрощения вида функционала (7 .27) ошибки измерений
считаются статистически независимыми.
41 О Часть II. Статистические методы принятия решений
1
G(0) = ет А0 + ате,
2
которая и решалась методом сопряженных градиентов. Здесь 0 -
вектор искомых оценок параметров; А - матрица квадратичной
формы, элементы которой вычисляются по формуле
т 1
Arp = L 2
XrjXpJ, r = 1,2, ...,n, р = 1,2, ...,п,
j =IO" (YJ)
Xrj - значение r-й переменной, полученное в j-м измерении;
arт -_ - ~
LJ 2
Yi Xrj, r = 1, 2, ..., п.
j = l О" (у j)
р = 1, 2, ..., п, j = 1, 2, ..., т.
~
п
2
F· =" ( .. _i: .. )2
Xq ~lj +
(Yi -I,0i~ii)
i= I
1 L, 2 2
i= I cr (xii) cr (у1 )
д2F
N ii = - д д '
0i 01 е=е
где 0" - полученная оценка параметров 0.
Описанную выше задачу можно интерпретировать как задачу
решения переопределенной системы 11 = ~0 из т линейных урав-
нений с п переменными, т > п, когда вместо значений 11 и ~
имеем соответственно столбец у = (у1, ..., Ут У значений функции,
(пхт)-матрицу Х, элементы которой xii суть значения i-й пере-
менной в j-м измерении, столбец 0 = (01 , ...,0пУ неизвестных (ис
комых) параметров .
11 = L 0i~i
i= O
412 Часть II. Статистические методы принятия решений
1 п 1
F =- "f, - - x
2 i= l 1-pJ
(7.29)
при условиях
(7.30)
т т
Yi - L 0z~i т
+ ; =о I, /0z~~-l = О, i=1,2, ...,n, (7.31)
cr (yi) 1=1
Yi - L 0zl;i т
+ 0
;= L l01l;i- 1 ,
cr (Yi) 1=1
принадлежащее отрезку lxi -l;i l ~ Зсr(хi)-
Поставленная задача минимизации функционала (7 .29) реша
ется по итерационной схеме, изложенной в § 7.11. Дисперсии по-
У1 = /(l;, e) = LeiПl;?,
i =I j =I
(7.32)
п 1 п
Аrp = " -- П xij
L..., 2
CJ.;,+CJ.jp
, r = 1, 2, ..., k, р = 1, 2, ..., k,
i= l <J (yi) j = I
ат - вектор с компонентами
п у- п
аrт = - "L..., П х~
1
2 !/ jr , r -- 1, 2 , . .., k .
i= l <J (yi) j =I
Здесь
дf - ~е
-- -
ан Ci.jl CJ.mi
L..., 1а jiXil ... Xij ... Xim ,
д~ij !=1
Здесь
k
fil;ul;;, -_ "8 amz
11 С/.\1 а1,1-1 а,,1-1
L.J za, j [C/.,r[Xil .. . Xij ... Xir ... Xim '
[= 1
k
r. -- "8
Jl;f
11
(
L.J za,Jl a J! -
1)xilан ... xiJа1,1-2 ... xim
ат1
.
~ [= 1
д2F
Nrp =----1 , r = l,2, ...,k, p = l,2, ...,k,
д8r дер 0=0
"
где 8 - полученная оценка вектора параметров 8.
Многочисленные вычислительные эксперименты позволяют
сделать вывод о состоятельности рассматриваемых оценок .
у= /(х+◊,0)+Е. (7.34)
Поскольку х не является случайной величиной, то ни Е , ни 8
не коррелированы с переменной х . Таким образом, выраже
ние (7.34) представляет собой обычное уравнение регрессии, к ко
торому без всяких изменений можно применять методы регресси
онного анализа, например метод наименьших квадратов. Закон
распределения случайной величины /(х+8, 0) в выражении (7.34)
может быть рассчитан по формулам переноса ошибок. Затем, в со
ответствии с полученным законом распределения случайной вели
чины f(x + 8,0), методом максимума правдоподобия может быть
составлен функционал, координаты точки минимума которого бу
дут определять оценку вектора 0 искомых параметров.
Если распределение случайной величины /(х+8, 0) подчиня
ется нормальному закону, то для оценки вектора параметров 0
получим функционал для метода наименьших квадратов, но дис
персия случайной величины /(х + 8, 0) будет зависеть от значений
координат вектора 0, т. е. соответствующие уравнения для опре-
л
У) = 01 +02~-
Выражая переменные У) и ~ через х и у , получим структур
ное соотношение
Yi = 01 + 02xi + 028i + Ei .
Пусть независимые случайные величины 8 и Е подчиняются
нормальному закону распределения с нулевыми математическими
M[028i + Ei] = О,
cr2[028i + Ei] = 0~cr2(xi) + cr2(yi ), i = 1, 2, ..., п.
В данном случае функционал метода наименьших квадратов,
точка минимума которого определяет оценку вектора параметров
0, имеет вид
п (yi - 01 - 02Xi ) 2
F ="I, 2 2 2 . (7.35)
i= l(J (yi)+020' (xi)
Рассуждая аналогично, получим функционал метода наимень
ших квадратов для оценки вектора параметров 0 линейных
функций
т
ri = 00 + L 01~1;
) =\
Yi = 0о +
т т
(7.36)
Рассмотрим функцию
т
11 = ео + Le1 <pJC~),
)=1
1 2 д2<р j
\\fJ(xi)=<p 1 (xi)+ cr (xi)tr дхдхт,
2
где tr А - след матрицы А, M[yi ] - математическое ожидание
Yi = eт1\f(Xi) + µi '
1 п д2<р ·(х)
1\lj(x) = (j)j(x) +- cr2 (x)I: \ ,
2 i=I дхi
M[µi] = О, М[µт] = cr2 (Yi) + cr2 (xi )0т :; ~: 0 + О(cr3 (xi )).
Для линейных функций по этим формулам получим тот же
функционал (7.36), что и в пассивной схеме эксперимента. Для не
линейных функций оценки, полученные при обработке одних и
тех же данных различными методами, будут существенно отли
чаться (очевидно, что экспериментальные данные должны обраба
тываться тем методом, который следует из условий проведения
эксперимента и статистики результатов наблюдений).
Глава 8
у= 1 ехр { (х - а)2 }
ili •а 2а2
путем преобразования координат сводят к уравнению прямой
1 а
и =-х- -
Р (J (J'
Исследуем одновременно
статистику параметров а и
2
о- и параметров 81 и 82,
о х чтобы понять особенности
-1 процедуры линеаризации.
"I "
где ~ - среднее значение величины ~ . Оценки 81 и 82 статисти-
чески независимы, однако это утверждение не вьmолняется для
л " "1 .....
оценок 81 и 82 . Оценки 81 и 82 параметров можно получить, не
решая совместных систем связанных уравнений, как это приходит
ся делать при другой форме записи модели.
После операции линеаризации для нормально распределенных
статистически независимых погрешностей экспериментальных то
чек (xi ,Yi) минимизируемый функционал имеет следующий вид:
i a 2(yi) + 8i0"2(xi) .
Тогда
2
_ ~ (yi - 81 - 82Xi ) _ ~ ( )2
F - L, 2 2 2 - L, W Yi - 81- 8 2Xi ,
i=lO" (yi)+820" (Xi) i=l
где w-1 = cr2 (yi) + 8icr2 (xi).
"
Ковариационную матрицу оценок D(8) найдем как матрицу
N- 1
, обратную матрице N с элементами
дF дF дF дF
- - - - -- - -
а01 ' 2
д82 д81' а022 '
" "I
вычисленными при найденных значениях оценок 82 и 81.
Глава 8. Принятие решений по выборке фиксированного объема 423
F= ±((Xi ;~i) 2
+ (Yi ;rii)
2)
i=l <J (xi ) <J (yi)
при дополнительном условии
2
где 'fli = ~ ехр{- (~ -~1) }, 01 =а , 02 = <J.
21t·02 202
Знание статистики получаемых оценок необходимо для даль
нейшего анализа экспериментальных данных и правильной трак
товки результатов их обработки, а также для выявления послед
ствий сделанных допущений. Приведем результаты числовых экс
периментов для определения закона распределения оценок
lnL(x,p 10) - - ~ {[Р- Р(~,01 OJj )']Г 1 [Р- Р(~,0 1 OJj )]+
(8.1)
+ ±±(Xi\-(Xik)~ik )
i=l k= l О"
2
(8.2)
l
для гиперплоскости р = а + I, bk Xk при тех же предположениях
k=1
t(Pi -а t
2
F(x,p [0) = ; - bkXk ) (8.6)
cr2 (р) + I,b}cr2 (xk) 1- 1 k- 1
k= I
1 п
2( ) Ь2 2( ) L,{Yi -a-bxi) = О,
(j У + (j Х i =1
Глава 8. Принятие решений по выборке фиксированного объема 429
п п
" l(n п ).
а=- LYi -ЪZ:xi
n i=1 i=l
Подставим а во второе уравнение, которое станет квадратным
л
2
-nI,xr]+cr 2
(x)[пfyr-(fYi)
2
2
" "cr (y)[(±xi)
Ь2+Ь 1=1 1=1 1=1 1=1
] _ cr2(У) = О.
2 п п п ) cr2 (х)
cr (x) ( ~Yi~Xi -n~XiYi
- 1
p(xlmi)- ✓'2п
{ 1
ехр - - 2 (x-mi)
21j' z-1,2,
._
21t· cr 2cr
и в данном случае при Лт1 = Лт2 = О разделяющая граница
проходит через точку (т1 + т2)!2.
В действительности из-за наличия погрешностей Лт1 , Лт2 и
Лсr вместо выражения (8. 7) следует записать
1n p(xlm1)±Лp(xlm1) = О.
(8.8)
р(х I m2) ± Лр(х I m2)
mi и cr соответственно.
х-т1 ) х-т2 )
Разложим функции 1n ( 1 + cr2 Лт1 и 1n ( 1- cr 2 Лт 2 в
ряд Маклорена. Поскольку здесь не обязательно выполняется
Глава 8. Принятие решений по выборке фиксированного объема 431
l+x х3
ln-=2(x+-+ ...), lx l<l,
1-х 3
и сделаем замену переменной
l+x N+k
---
1-х k
(см. [46]). Тогда х = k/(2N + k) - правильная положительная
дробь и
lnN+k_ k 1 k 3 ]
2 (8.10)
N - [ 2N + k + 3 2N + k ) + ....
(
х-т·1
N = 1, ki = 2
Лтi, i = 1, 2.
О"
При условии (8.1 О), если Лт1 = Лт2 = Лт, выражение (8.8)
принимает вид
т1 -т2 +4Лт
т1 + т2 2Лт(т1 + т2)
: : :; - - - + - - - - - - . (8.11)
2 т1 -т2 +4Лт
1n P((.1)1)p(xJ(.1)1) =О
Р((.1)2)р(х J(.1)2) '
является смещенной оценкой реальной разделяющей функции.
Несмещенная оценка разделяющей функции может быть получена
путем стохастической аппроксимации по граничным точкам, най
денным из условия
предполагалось, что ~ = х.
Из заданных условий определяют общий вид (класс) разделя
ющих функций 'Р(~,0) (линейный, гиперквадратный и т. п.), сво
бодные параметры 0 которых оценивают по точкам из условия
(8.13), решая совместно системы уравнений (8.3) и (8.4), заменяя в
последних р(~ 1(.1) 1 ) l~=x на 'Р(~, 0) и Pi на числовые значения
1n Р((.1)1) р(~ J(.1)1)
Р((.1)2).Р(~ (.1)2).
1
при 8=8.
Изложенные результаты получены в предположении, что
функция потерь L(со, d) имеет вид
вместо СО1, равна /2, если ошибочно выбирается СО1 вместо СО2,
решение с минимальным риском находят по выражению
liP(щ)p(~ 1 COi), i = 1, 2.
Образ СО1 выбирается, если выполнено условие
1n l1P(co1)p(~ со1) = О.
1
l2P(co2)p(~ СО2) 1
чайными величинами.
Глава 8. Принятие решений по выборке фиксированного объема 435
у = А0,
(8.15)
Здесь F = с- 1 -С - 1 Lт(LС- 1 Г)- 1 LC- 1, G = (LС- 1Г)- 1 LC, С=
оценки е и а не коррелированы.
438 Часть II. Статистические методы принятия решений
Из выражений и
(8.15) следует,
(8.14) что матрица вторых мо
ментов вектора параметров 0 является подматрицей, обратной
матрице исходных уравнений, получаемой после дифференциро
вания функции Тихонова Т(0) по 0 и а, а матрица вторых мо-
ментов а - той же подматрицей со знаком минус. Таким обра
и а соответственно.
Q(01,02) = 0f + 0~.
Координаты точки минимума функции Т(01,02) при малых а
близки к (1, 1). Разложим функцию Q(0 1,02) в ряд Тейлора в
окрестности точки (1, 1):
Q(01,02)::::, 2 + 2(01 -1) + 2(02 -1).
После замены переменных 01 • 01 - 1 , 02 • 02 - 1 функция
Тихонова будет иметь вид
Элементы (1, 3), (2, 3), (3, 1) и (3, 2) матрицы здесь не указаны,
так как они не несут информации (учитываются только соответ
ствующие подматрицы). Значения элементов матрицы не зависят от
величины константы в разложении стабилизатора Q(01,02). Поэто
му можно записать эквивалентную задачу следующим образом:
1с01,02) = el + е~ • min
при 2(01 + 02) = const = С. Отсюда имеем
л л
д2Т д2Т
где А = 1 1 - - - 1 , В= 11- - - 1 1 , i,j = 1, 2, ..., т.
д8i д8j д8i да
8 и &., не коррелированы.
С помощью матрицы вторых производных получим ковариа
ционную матрицу оценок
D(e,&..) = -8182
2(1 + &.,)(0[ + 0~) 2(1 + &..)(0[ + 0~)
1+&..
2(0[ +0~)
л л
чение вида
л
где
л л mi - ~i
p((~i lroi) = Pi(~i lroi) , i = l,2,
cr 2
Pi определяют по результатам всех наблюдений х1 , х2, ..., Хп
(например, путем группировки).
л
Обозначим
л л
л (pi-ai)~+x
~i= cr2С) ь2 2( х)' i=l,2.
p+icr
л л
л= p(x l wi)±Лpi
р( х I m1 ) ± Лр1 '
или
·) + _1Л_.р_
1n _P_(x_l_W1_ i 1_ + _1л_.Р;_·1
_ г ln-P(_W;_·) .
р( х I mJ) р( х I щ) р( х I mJ) Р( щ)
Глава 8. Принятие решений по выборке фиксированного объема 445
Таблица 8.2
Значения числовых характеристик
условных плотностей вероятности признаков
r, дБ
70
60
50
40
з о~-~-~--~--~-~--~-
о 30 60 90 120 150 ер, град
Таблица 8.3
Значения числовых характеристик и их средних квадратических
отклонений с учетом погрешности наблюдений
парата
µ Лµ cr Лсr µ Лµ cr Лсr µ Лµ cr Лсr
1 720 70 230 40 2150 205 1630 250 10,2 0,9 1,25 0,21
2 1610 120 340 65 9100 850 1750 280 13,5 1,2 1,7 0,3
3 420 30 105 20 465 37 410 95 1,6 0,1 0,24 0,04
4 190 20 97 21 515 46 270 52 15,5 1,4 0,18 0,02
5 510 55 112 22 1080 980 156 29 - - - -
Таблица 8.4
Значения числовых характеристик условной функции плотности
ЭПР для каждого класса л. а.
ного аппарата
µ cr µ cr µ cr
1 73 10 74 10 64 10
2 71 10 55 10 71 10
3 62 10 63 10 43 10
4 47 10 61 10 63 10
5 53 10 60 10 61 10
s
Р(е) = 1 - L f ...f р(х Iro1 )P(ro1 )dx1 ... dxn,
) =1 R
1
Глава 8. Принятие решений по выборке фиксированного объема 449
O)i·
Таким образом, непосредственное вычисление вероятности
ошибки (в. о.) описанным способом вызывает значительные за
труднения.
т
Р( е) = L [Р(xi) - max Р(О) i) р( xi I О) i)], (8.20)
i= l
s
где P(xi) = L P(ro 1 )p(xi Iro 1), s - общее число классов; Т - ко-
1=1
личество реализаций, Т = RN, R - число значений признаков,
N - общее число признаков.
В случае, когда функции плотности соответствуют многомер
ному нормальному распределению, использование формулы (8.20)
дает возможность перейти к серии одномерных нормальных
распределений и использовать для них линеаризующее преобра
зование.
-t.[t P(ro j
1
)р.(х; 1ro j )-rn:xP(roj)Рн(х; [roj)].
Р. (е) -#, [tP(ro; )р. (х,
1
1 ro j ) - m,:x P(ro j J
)р. (х, [ ro;)
Использование в рассматриваемом случае одного любого при
знака дает в. о. больше заданной Рз(е) = 0,1. Например, в. о. при
использовании одного признака - скорости - составляет 1l ( е) =
=0,252, Pi(e) > Рз(е).
Как указывалось ранее, в процедуре идентификации объектов
при известных точечных и интервальных оценках функции плот-
450 Часть II Статистические методы принятия решений
Xz
. ---~ \
..········· ···········
·..
.
···....
··•....
РАСПОЗНАВАНИЕ ОБРАЗОВ
ПРИ НЕИЗВЕСТНОМ ЗАКОНЕ
РАСПРЕДЕЛЕНИЯ ЗНАЧЕНИЙ ПРИЗНАКОВ
r 2 =(x-µiyк- 1 (x-µi)
от х до каждого из с векторов средних значений и отнести х к
классу, соответствующему ближайшему среднему значению µi.
В случае неравных априорных вероятностей при принятии реше
ния несколько большее предпочтение ( 1n Р(mi)) отдается классу,
априори более вероятному.
Это один из наиболее простых критериев, который, однако, не
учитывает возможные виды разделяющих функций, не говоря уже
о том, что не учитываются погрешности векторов µ i, i = 1, 2, ..., с,
и х и, тем самым, не определена область неопределенности при
нимаемых решений.
454 Часть II. Статистические методы принятия решений
g(Х) = WX + Wo,
где w- весовой вектор, wo - величина порога.
r = g(x) .
llwll
При "Wo =О гиперплоскость проходит через начало координат.
Если имеется не два, а с классов, то задачу можно свести к с - 1
задачам для двух классов, где решением i-й задачи служит линей
ная разделяющая функция, определяющая границу между точка
ми, соответствующими решению (J)i, и точками, не соответству
ющими решению О) i .
или
1
mi = - I х, i = 1, 2.
~ ХЕХ;
456 Часть II. Статистические методы принятия решений
На плоскости имеем
терия
максимальна, где
В итоге получают
w=S;1(m1 -т2),
где Sw - матрица разброса внутри класса, она пропорциональна
ковариационной выборочной матрице для совокупности d-мерных
данных,
w = к- 1 (µ1 -µ 2).
В случае с классов обобщение линейного дискриминанта Фи
шера требует определения с -1 разделяющих функций; здесь осу
ществляется проекция из d-мерного пространства Х на (с-1)-мер
ное пространство У (полагаем d ~с). Линейные разделяющие
функции имеют направления щ - т, где
Глава 9. Распознавание образов при неизвестном законе распределения 457
1 1 1 с
m·=-
1
"х
~ ' т=- L х = - L nimi.
ni хЕХ; n хЕХ; n i= l
При малой статистике каждое новое наблюдение, по которому
ведется идентификация образов, должно быть объединено с преж
ними наблюдениями. Чтобы выявить изменение решающей функ
ции (или другого критерия) , необходимо сравнить полученную
разделяющую функцию с прежней.
или
JaтyJ/l l all-
Для нахождения обобщенной линейной разделяющей функции
по результатам наблюдений необходимо определить весовой век
тор а. Пусть имеется множество п выборок векторов У1 , ···,Уп,
одна часть которых относится к образу m1, а другая часть - к об
разу m2 . Эти выборки мы хотели бы использовать для определе
ния весового вектора а , который правильно классифицировал бы
все выборки. Если такой вектор существует, то выборки называ
ются лu1-teй1-to разделяемыми. Выборка Yi классифицируется пра
вильно, если атуi > О и Yi помечен m1 или если атуi < О, но Yi
помечен m2. Во втором случае Yi будет также классифицировать
ся правильно, если ат(-уi) > О. Последнее условие дает возмож
ность ввести понятие нормирования для случая двух классов: про
1 (ату-Ь) 2
Jq(a) = "'\"' (ату) 2 , J (а)- "'\"' - - -
~
уеУ r - 2 у~У 11 У 112 '
п
ai произвольно,
{ Щ+1=ak-pkVJ(щ), k~l.
460 Часть II. Статистические методы принятия решений
ат Yi = ~, i = 1, 2, ..., п,
где bi - произвольно заданные положительные константы (в
общем случае заранее не известные).
Уа = Ь,
i=l
1
откуда а = (У т У)- у ть = у +ь. Если матрица уту размером d х d
невырождена, то решение единственно. Если матрица У т у вы
рождена, то решение не единственно. Тогда решение находится из
общего определения операции псевдообращения У+ = (У ту)- 1 У т
в виде у+ = lim(Y тY + EI)-1ут при Е ➔ О.
Решение с наименьшей квадратичной ошибкой зависит от век
тора допуска Ь , и различные способы выбора Ь приводят к раз
личным свойствам полученного решения. Если вектор Ь задан
произвольно, то нет гарантии того, что указанный вектор а будет
разделяющим в случае разделяемых множеств.
Глава 9. Распознавание образов при неизвестном законе распределения 461
VьJs = -2(Уа-Ь).
При любом Ь всегда можно считать, что а = У+ Ь, получая тем
самым равенство V aJs = О и минимизируя J s (а) по а за один
шаг. Необходимо учитывать условие Ь > О (не допуская равенства
Ь = О). Можно положить вначале Ь >О и не уменьшать значения
координат вектора Ь . Этого можно достичь при сохранении отри
цательных координат градиента V ьJs, если вначале все положи
тельные координаты вектора V ьJs положить равными нулю. При
ходим к процедуре спуска (по алгоритму Хо - Кашьяпа) - ми
нимизации функции J 8 (a,b) [18]:
Ь~ > О, bk+I = bk + 2peJ,
где ek - вектор ошибки, ek = Yak - bk, e'I - положительная
составляющая вектора ошибки:
eI =..!_(ek+lek 1),
2
1 ek 1 - вектор, координаты которого суть абсолютные величины
функции
g(x) = ату,
где у = у(х) - функция от х.
f
Е 2 = [ат у- go(x)] 2 p(x)dx,
то можно доказать, что величина Е 2 минимизируется, если векто
ром решения является а = У+ Ь.
При аппроксимации g 0 (x) разделяющая функция а ту позво
ляет получить непосредственную информацию относительно апо
стериорных вероятностей
1 1
P(w1 lx) =-(l+go(x)), P(w2 lx) =-(1-go(x)).
2 2
Качество аппроксимации зависит от функций Yi(x) и числа
членов в разложении ату. Критерий средней квадратической
ошибки в основном распространяется не на точки, близкие к по
верхности решения g 0 (x) = О, а на точки, для которых Р(х) > 0,5.
Таким образом, разделяющая функция, которая наилучшим обра
зом аппроксимирует разделяющую функции Байеса, не обязатель
но минимизирует вероятность ошибки.
Для построения разделяющих функций используется потенци
альная функция K(x, xi ) с текущей точкой х и выборкой Xj . Вид
Глава 9. Распознавание образов при неизвестном законе распределения 463
тельные координаты.
а·=
J а J1· -ао ' j = 1, 2, ..., d,
1>
а1- 0, ао ~О.
d
°"
LJ у·· (а ·
!}
1
J - ао) + t - Ь-1 '
> 1· = 1' 2 ' •••,
п'
j =l
t ~ О, ао ~ О, а1 1>0
- , }=1,2, ...,d.
Методы решения подобных задач хорошо изучены и рассмот
рены в гл. 7 (см. также [18, 61]).
Можно сформулировать и другую задачу линейного програм
мирования: сведем задачу минимизации персептронной функции
критерия к задаче линейного программирования. Напомним, что
минимизация этой функции дает разделяющий вектор в случае
разделяемых множеств и приводит к решению в том случае, когда
выборки неразделимы.
Персептронная функция критерия задается в виде
Jp(a) = L (-ату),
уЕУ
где У
1
- множество выборок Yi, удовлетворяющих условию
атуi ~ bi.
Функция J; (а) является кусочно-линейной, поэтому следует
ввести п искусственных переменных и соответствующих им огра-
Глава 9. Распознавание образов при неизвестном законе распределения 465
J
"у--(а
~ 1J
1
]- - п~) + t·1
'"'"\1 > Ь-1, ti ~ О, ао ~ О, а}~ О, j = 1, 2, ..., d."
-
)=1
Js = L(aтyi -bi) 2
i= l
при условиях
J
LYu(a}-ao)~bi, i=1,2, ...,n,
) =1
"
ао~О, а}~О, j=1,2, ...,d.
Анализ различных алгоритмов для нахождения линейных раз
деляющих функций показывает, что выбор подходящего алгорит
ма определяется такими факторами, как простота программирова
ния, количество и размерность выборок. Если линейная разделя
ющая функция обеспечивает незначительный процент ошибок,
466 Часть II. Статистические методы принятия решений
. . . . . . . . . . . . . . . . . . .'
'l'llc = (у, О, О, ..., - у)т,
. . . . . . . . . . . . . . . . . .. '
т. е. в строке 'l'lij на месте i-го элемента находится у, на месте }-го
и матрицу В размером п х с:
из объектов (образов):
r 2 =(х-µУ к- 1 (х-µ),
где К - ковариационная (дисперсионная) матрица наблюдений
признаков х и µ.
Например, на плоскости JR 2 в предположении, что
D(x- µ) = D(x) + D(µ),
п (дr2)
2
п п дr2 дr2
D(r 2)=~ - _ D(0i)+2~ L - _- _D(0i,0 1), (9.2)
1=1 ael 1=11=2 ael ае 1
j >i
п (дr2)
2
L2(а2)
2
2(а2)
2
2( дr2 )
2 2( дr2 )
2
+~ д(D(xi)) D(D(xi)) + ~ д(D(µi)) D(D(µi)).
.JD(r 2
) квадрата расстояния между измеренным вектором при
знаков и эталонным, учет которой обязателен в процессе принятия
решения.
о
о
D(&2) о ].
о D(&з)
Дисперсию D(y) оценок значений разделяющей функции
у( а) находим по формуле
~ ][;:]=
D(&1)
D(y) = (у1,У2 , Уз) О D(&2)
[
о о D(&з) Уз
D(a) = [У тn - 1 (у)УГ 1 •
Дальнейшие действия при найденных оценках а и D(a) ана
логичны ранее описанным: находятся оценки разделяющей функ
ции у( а) и дисперсии значений D(y) этой функции, затем опре-
деляются интервальные оценки разделяющей функции, а тем са
мым и зона неопределенности принимаемых решений.
472 Часть II. Статистические методы принятия решений
g(x) = ату,
где а - весовой вектор, у - вектор, координатами которого яв
дJ(а) = О. (9.5)
д~ ~=~
Преимуществом выбранного критерия является тот факт, что
решение, следующее из этого критерия, приближается в пределе к
Глава 9. Распознавание образов при неизвестном законе распределения 473
± (±
2 2
J(a) = L
(
n1 .
i= Ik
GiY!i -1)
+
n 2
L
.
~ 1=_1-
k -~-
GiY!i + 1)
(9.6)
j =I 1+ La?cr2(yi) j =n1+11 + La?cr2(Yi)
i=l i=l
D(g(y)) = утD(a)y,
J(a) = L
п
(± i= I
GiYiJ
k
-b1J
,
J=I 1+ L a?cr 2
(Yi)
i= l
+ 1 т
ev = - (ev+lev 1), ev = avy-hv, О < р < 2.
2
В процедуре идентификации образов по вектору наблюдений
Хн строится вектор Ун , который присоединяется к вектору ранее
проведенных наблюдений, и с помощью функционала (9.6) ~или
условия (9.5) для каждойj-й гипотезы определяются оценки ~Jн,
по которым принимается решение.
Xz
о Х]
погрешностей измерений
Выход
В ычисление разделяющей
функции и интервальных
оценок, анализ результатов Анализ влияния случайных
отклонений измерений на
разделяющую функцию
Нет Ответ
15
10
-5
-10
-15
-15 -10 -5 о 5 10 15
Рис. 9.5. Линии уровня функционала
-------
az=min
8
о~--~---~---~----
-20 -10 о 10
Рис. 9.6. Сечения функционала
sigl=0,1 sigl=0,1 ,,
sig2=0,1 sig2=0,l
b= l 3 Ь=2 ,,
,
2 ,,
,
20 2 ,,
20 / , ,
,
, --
,
,, 20
20
о ----
о
-1 ~ - - ~ - - ~ - - ~ - - -1 ~ - - ~ - - ~ - - ~ - -
-2 -1 о 1 -2 -1 о
Х2 Х2 ,
sigl=0,l sigl= l ,,
, ,,
sig2=0,l sig2=0,0l , ,
b=O,l b=l ,,
,, ,,
2 2 ,, -
- --
, ,
,, ,
,, ,
20 20
,,
,
,,
,,
, -,
,
1 , ,
,,
,,
20 ,, 20
,,
, , ,
о о ,,
-1 -1
-2 -1 о 1 Х1 -2 -1 о 1 Xt
а б
,
Xz sigl=0,05 , ,, Xz sigl= 0,1
, ,,
sig2=0,2 ,, sig2= 0,l
,
Ь=1 ,, b=l
, ,,
, ,, , ,
, ,,
,, ,,
,, ,, 2
, , ,,
, ,,
,,
20
о
Xz Xz
sigl=0, l
,
sigl =0,1 Ь=О ,,,
1
sig2=0,l sig2=0,1
,
Ь=1
2
2
20
о 20
о
5 5
у = ао + L ai Х1 + L as+i xl .
i=\ i= l
16 8
88 8 88
8
88
8 8В 88 8
8 8
о
88 88 88 88 88 8В 88
8 8888 888 8 8 8
- 16
Рис. 9.12. Положение квадратичной разделяющей поверхности при
Ь, =½ =О, 1
Глава 9. Распознавание образов при неизвестном законе распределения 485
19 8
88 8 88
8
88
8 8 8 8888 8
8 8
88 8 8
8
о
8 88888 888 8
- 19
0,4
8
8 8 8 88 8
88 8 8 888 08 88 888 8
8 8 08
о
8 8 8 800 8
88 8 8 8
В 88 8 8 8 8 00
88 88 08 8 888 8 8 80 8 08
-0,4 88 В
88
Рис. 9.14. Положение квадратичной разделяющей поверхности при
Ь~ = О ,025 и ~ = О ,02
Ап = П p(xi Ы1) . J
(х-т;) 2
1 2cr2
р(х I Ыi) = Jln. cr е
p(xlwi)+Лpi =
2
1 ( x-m;)
2 cr 2
[
Лтi ( ) ( х - mi) 2 Л Лсr ]
=----==--е 1+-- x-mi +---- а--.
✓'2п. а cr2 cr3 cr
Здесь приращение Лрi = Лр(х I wi) заменили дифференциалом
dp(xlwi)- Тогда
cr2 lnA
то принимается решение х ~ со 1 .
cr 2 lnA 1 Лт
х1 ~---+-(т1 +m2)--.
т1 -m2 2 2
Мы здесь считали, что погрешности имеют один знак (направ
лены в одну сторону). Даже в этом случае получили условие, от
личающееся от традиционных. Вернее было бы определить мак
симальный разброс, сложив модули погрешностей. Чтобы не
усложнять формулы, мы этого здесь делать не будем.
После второго измерения при Лт1 = Лт2 = Лт имеем
ШЛп = т1 - т2 [ L,Xi
п ( 1- -
2Лсr)
- - -п ( 1--
2Лсr) п ],
- (m1 +m2)- -Лт
cr2 i=I cr 2 cr 2
Глава 9. Распознавание образов при неизвестном законе распределения 489
п a 21nA п пЛт
~Xi ~ ( 2Ла)+2(т1 +т2)+ ( 2Ла) '
(т1-т2) 1 - - 2 1--
CJ (J
п a 2 lnB п пЛт
~Xi s
(m1-m2) 1 - -
( 2 ЛСJ)+ 2 (т1 +т2)+ 2 1--
( 2Ла)'
CJ (J
a 2 lnB п пЛт п
(т1 -т2)
2 ЛСJ) + 2 (т1 + т2) + ( 2 ЛСJ) < ~ Xi <
( 1 -CJ- 2 1--
(J
a 2 1nA п пЛт
< ( 2Ла) + 2 (mi +т )+
2
( 2Ла)'
(т, -т2) 1 - - 2 1--
CJ (J
1 -а а
А= В =-
В , 1-В'
где а - ошибка первого рода, В - ошибка второго рода. Пока
n1 = ~ [(1-a)InA + alnB],
z
Лр1 Лр2
--- = ----
р(х I W1) р(х I W2)'
т. е. при одинаковой относительной погрешности для условных
функций плотности распределения вероятностей, знаменатель
дроби в формуле (9.7) при определении п1 н не изменяется.
Поэтому будем считать, что не меняется и zн. (Это не означает,
что не будут меняться другие параметры, определяемые из
условия (9.8).)
Глава 9. Распознавание образов при неизвестном законе распределения 491
Одномерный случай
1 л л
.хо=-(т1+т2).
2
В этом случае дисперсия определяется по формуле
т=х
л -
= L х·! '
i= l
2ta(m) ✓2 ·ta(x)
✓2 ✓п
cr2 А
L = - - - - ln -
1 mi -m2 I п в'
где А и В - соответственно останавливающие верхние и нижние
границы:
1-а а
А =- В =-.
13 ' 1-13
Здесь а и 13 - ошибки первого и второго рода.
L = ~ 1n (1- a)(l-13) .
kn l3a
Чем больше разность математических ожиданий т1 и т2 , т. е.
чем больше k, тем меньше а и 13 и тем уже полоса неопределен
ности. Найдем конкретные значения ширины полосы неопреде
ленности для равновероятных гипотез. Пусть I т1 - т2 1 = 4cr; тогда
а = 13 =(1-0,95)/2 = 0, 025. При I т1 - m2 I = 2cr получим ошибки
а= 13 = (1- О, 68)/ 2 = О, 16. В первом случае ширина полосы не
определенности будет z 1, 5cr/n, во втором : : : 2cr/n.
Приведенные результаты показывают, что зоны неопределен
ности в задачах принятия решений при фиксированном объеме
выборки и в последовательных методах соизмеримы, поскольку
cr(x) наиболее часто совпадает с cr. Причем отношение ширины
Двумерный случай
у = 0о +01х,
где
2 2 2 2
_ т1х - т2х + т\у - т2у т1х - т2х
0о - - - - - - - - -, 01 =
2(т1у - т2у) т1у - т2у
2
К
0 cr~о) ,
= ( cr после проведения первого измерения (х1, У1) выра-
или
Xi И Xj.
Итак, показано, что в любом методе принятия решений из-за
погрешностей исходных данных образуется область неопределен
ности с останавливающими границами: верхними Dв(х) и нижни
ми Dн(х). Это могут быть или границы интервальных оценок ре
шающих функций, или обычные останавливающие границы, полу
чающиеся в методе последовательного принятия решений. Пусть
разность решающих границ между i- и j-областями D(x) =
= Di(x)-D1 (x) равна нулю; тогда для любой задачи принятия ре
шений (для последовательных методов или при фиксированном
объеме выборки) справедлив следующий алгоритм:
1) если истинные значения точки наблюдения «выше» границы
Dв (х), то х rv roi;
2) если истинные значения точки наблюдения «ниже» границы
Dн(х), то х rv W 1;
3) если истинные значения точки наблюдения расположены
«между» границами Dв(х) и Dн(х), то следует продолжить
наблюдения.
Глава 10
ПОСТРОЕНИЕ ПРОГНОЗОВ
делей .
3. Пробная модель подгоняется к экспериментальным данным,
оцениваются ее параметры. Предварительные оценки, полученные
на этапе идентификации, теперь можно использовать как началь-
Глава 1О. Построение прогнозов 499
ряды наблюдений.
Полезным инструментом для описания поведения стационар
ных процессов является автокорреляционная функция. При гипо
тезе, что автокорреляция равна нулю, отношение оценки Pk к
матрица
- оператор суммирования S = л- 1 :
Syt = л- 1 Уt = Yt + Yt-1 + Yt-2 + ... = (1 +в+ В 2 + ...)yt = (l-в)- 1 Yt·
1. Мо дель авторегрессии. Рассмотрим основные разност
ные модели для построения прогнозов . Здесь текущее значение
процесса выражается как конечная линейная совокупность преды
дущих значений процесса и независимого импульса at , который
является реализацией случайной величины с фиксированным рас
пределением, часто полагаемым нормальным с нулевым средним и
имеет вид
Ф(В).Уt = 0(B)ar ,
в которой содержится р + q + 2 параметров µ, Ф1 , ..., ФР, 01, ..., 0q,
cr (a), подлежащих оценке по наблюдениям.
2
т. е.
числений.
Скользящее среднее представляет собой оценку по методу
наименьших квадратов единственной константы для представления
исходных данных с одинаковыми весовыми множителями. Этому
случаю соответствует простая функция F(t) = 1 для всех t. При
этом весовые множители OJ 1 равны 1 для N последних наблюде
ний в интервале О~ j ~ N -1 и равны О для j ~ N. Некоторые ко
эффициенты модели можно определять с помощью полиномов бо
лее высокого порядка путем подгонки модели к результатам N по
следних наблюдений в каждый момент поступления новых данных.
Таким образом, в самом общем случае значения коэффициентов в
любой заданный момент времени зависят от предыдущих значений
коэффициентов, от ошибки в проmозе при использовании самого
последнего наблюдения, а также от вида используемого полинома и,
конечно, числа N результатов наблюдений.
В методе скользящей средней первоначальные значения эле
ментов ряда заменяются их средней арифметической величиной
внутри выбранного интервала. Полученное значение относится к
середине выбранного интервала. Затем интервал сдвигается на од
но наблюдение и расчет средней величины ряда повторяется. Ин
тервалы определения средней величины ряда берутся в течение
всего времени одинаковыми. Чем шире интервал, тем более плав
ный вид имеет огибающая, проведенная по значениям элементов
нового ряда. Сглаженный ряд короче первоначального на k- 1
наблюдений (k - величина интервала сглаживания).
514 Часть 11. Задачи линейного программирования
Yi 2m-l 1
л _
-+
2 k =O
L
Yi+k +-Yi+2m
2
Унт -
2m
Здесь Yi - значение i-го члена ряда, т - целое положительное
1~m ~ п/2:
п
если п - четное число,
2'
т=
п-1
если п - нечетное число,
2 '
п - число членов ряда.
у = ао + L ai ti .
i=l
Р ai .
Yf = '°' - (
~ .,
i = O l.
1
'
п
[ 1] .
St (у)= aI:(1-aY Ун,
i= O
откуда имеем
[Р
Yt+l = yf0) + ly}1) + ... + -yfр)
р!
л 1-а л
St[l](У) = ао ---а1,
а
л 2(1- а) л
St[2J ( у) _
-ао ----ai,
а
откуда имеем
ао = 2sГJ(y)-SJ2 J(y),
а1 = ~csГJ(y)-sJ2J(y)).
1-а
а(унz) = cro а 3
(1 + 4(1- а)+ 5(1- а2 ) + 2а(4-За)l + 2а21 2 ),
(1-а)
L(Yi - j\ )2
0"2 = _i=_l _ __
о
п-р-1
St[зJ(у) = аол - -
3(1- а) л 3(1- а)(4-3а) л
- - ai + 2
а2,
а 2а
откуда имеем
[IJ 1- а
s t-1(у) = ао - --а1,
а
[2J ( ) -
St- 2(1- а)
t У - ао - ai
а
Sну
[зJ ( )- 3(1- а)
-ао - ---а1 +
3(1- а)(4-3а)
2
а2
а 2а
намическому ряду.
х2 =-(п-1- ~(2p+s))1ncxтx),
где Х - матрица факторов (аргументов), р - число факторов,
п - число наблюдений. Показатель х 2
приближенно имеет
2
х -распределение.
Главное в процедуре прогнозирования состоит в последующем
выявлении тех факторов, которые наиболее сильно взаимозависи
мы. Это можно сделать по диагональным элементам матрицы, об
ратной матрице вторых производных от функции правдоподобия.
Вводится величина
ф i = ( Cii -
( п-р]
1) р _ l ,
гнозирования.
Параметр Годы
1977 1978 1979 1980 1981 1982 1983 1984 1985
~
dаб 0,4537 0,5028 0,5460 0,5840 0,6175 0,6470 0,6730 0,6959 0,7161
524 Часть 11. Задачи линейного программирования
da
а= а1 + а2dаб + ази + a4da + а5-.
и
Ф(В)щ = 0о + 0(B)at,
ностному уравнению
Ф(В)рk = о, k > q,
где Pk - автокорреляция (автокорреляционная функция) с за
л 1 n-k - -
Yk = -2:(zt - z)(zнk -z), k = 0,1, ...,m,
п t=I
л 1
a[Фkk ] ::::::~, k> р,
п
л
прогнозов.
Ф(В)Ла Yt = 8(B)at
Глава 1О. Построение прогнозов 531
или
t+l =
Yt+l = I, \\ft+l-j aj = L,\jljat+l-j,
j =-= j =O
<p(B)\\f(B) = 0(В),
приравнивая коэффициенты при одинаковых степенях В в выра
жении
каждого упреждения l:
,/D(e) -(1Ё,"'7 Г
+ cr(a).
Глава 1О. Построение прогнозов 533
(10.3)
определяемой «опорными» значениями ряда .Yt(q), y1 (q-1), ... ,
... , .Yt(q -p-d+1), где .Yt(-j)= Yt-j, j=0,1,2, ... Если q > p+d,
первые q - р - d прогнозов не описываются этой функцией. В
общем случае стационарный оператор авторегрессии приводит к
534 Часть 11. Задачи линейного программирования
g = Fz- I\\f(l), ь-
-
(b(t) ьСt) ьСt)
О , 1 , • • ·, p+d-I
)т
, \\f(l) =
= (\\fz, \\fl+I, ..., \\fl+p+d У·
2. Прогноз как взвешенная сумма прошлых на
б люден и й. С теоретической точки зрения полезно представить
прогноз как взвешенную сумму прошлых наблюдений с весами п .
Так, если модель представлена в обращенной форме:
~ ([)-
Yt - ~ ([)
L, 1t j Yt+ j - I,
j =I
Таблица 10.4
Начальные условия для байесовского прогноза
ао = _!_ I,yt, 2
/4 = 3__ I,yt sin ( n itJ, Д = 3__ I, Y t cos ( 2n itJ.
р t=1 р t=1 р р t =1 р
ми, суммируются.
Прогноз [унz] = М[унi 10, 0, Yt, ун, ...] является условным ма
тематическим ожиданием значений Унz в момент t + l. В этом вы
ражении параметры предполагают известными точно, и ряд чисел
Yt = L\\fJGt-J•
j =O
542 Часть 11. Задачи линейного программирования
скользящего среднего.
(0 I )= p(0)L(y 10) .
р у f p(0)L(y l 0)d0
Ф(В)Шt = 0(B)ar,
А Л
где ffit = Л аYr, и были получены оценки ММП параметров (Ф, 0),
откуда имеем
л -1 А
Clt =0 (В)Ф(В)&1.
at = ar + о( 1).
По мере увеличения длины ряда остаточной ошибки величина
а1 становится все ближе к белому шуму ar. Следовательно, мож
но ожидать, что изучениеat даст возможность выявить и указать
природу неадекватности модели. В частности, некоторый харак
терный вид выборочной автокорреляционной функции для at вы
являют определенные изменения модели.
j
~I(pi)
C(pj)= -i=_
l -
ns 2
Глава 1О. Построение прогнозов 547
где
нимума функционала
F(p ,t ) L, 2 2 2 . (10.4)
i = I (j (Pi ) + k (j (ti)
Блок заданий
оценка
да Печать
Прогноз удовлетворяет ? 1-----=::.:_---~1 и визуализация
нет
Блок заданий
нет
Прогноз
1 Прогноз по предприятию 1----, удовлетворяет ?
да
Печать
и визуализация
Задание
1 1
1
Регион
1
1 • 1 Предприятие 1
Температура
воздуха
Влажность
воздуха
.........
Прямая линия
Скорость
ветра Линейная
многомерная
функция
Погрешности
Полином
значений
исходных Формулы для оценки Многомерный
~ 1-
данных параметров и их дисперии ПОЛИНОМ
Задание погрешностей
ИСХОДНЫХ данных
Задание аналитической
зависимости (функции)
функций и их дисперсий
Расчет прогнозируемых
значений
4000
3600
••
3200
2800
••
..
••• •
..........••'· ••
2400 •
••• • •
2000 ••
• •
1600
•
1200
•
800
400 •
160 180 200 220 240 t (дни)
Рис. 10.4. Исходный расчет прогноза (база 30 дней)
р
••
3200
2800
•• . ...... '·
..... • •
2400 ~· ••
•••
••
• •
2000 ••
• •
1600
•
1200
800
400
160 180 200 220 240 t (дни)
Рис. 10.5. Подправленный расчет прогноза (база 30 дней)
Глава 1О. Построение прогнозов 555
значениям температуры.
В итоге получено:
1) для рабочих дней
л л
19. Горелик А.Л., Барабаш Ю.Л., Кривошеее О.В., Эпштейн С.С. Се
лекция и распознавание на основе локационной информации / Под ред.
А.Л. Горелика. - М.: Радио и связь, 1990. - 240 с.
20. Грешилов А.А. Некорректные задачи цифровой обработки инфор
мации и сигналов. -М.: Радио и связь, 1984. - 161 с.
21. Грешилов А . А. Анализ и синтез стохастических систем. Парамет
рические модели и конфлюэнтный анализ. - М.: Радио и связь, 1990. -
320 с.
22. Грешилов А.А. Метод наименьших квадратов и элементы конфлю
энтного анализа-М.: Изд-во МГТУ им. Н. Э. Баумана, 1990. - 67 с.
23. Грешилов А.А., Стакун В.А., Стакун А.А . Математические методы
построения прогнозов. -М. : Радио и связь, 1997. -112 с.
24. Грешилов А.А., Стакун В.А., Стакун А.А. Статистические методы
принятия решений с элементами конфлюэнтного анализа. - М.: Радио и
связь, 1998. - 112 с.
25. Де Гроот М. Оптимальные статистические решения: Пер.
с англ. -М.: Мир, 1974. -491 с.
26. Демиденко Е.З. Линейная и нелинейная регрессии. - М.: Финан
сы и статистика, 1981. - 302 с.
27. Демиденко Е.З. Оптимизация и регрессия. - М.: Наука, 1989. -
292 с.
28. Дуда Р., Харт П. Распознавание образов и анализ сцен: Пер.
сангл. - М.:Мир, 1976. - 511 с.
29. Дюбуа Д., Прад А. Теория возможностей. Приложения к пред
ставлению знаний в информатике / Пер. с фр. В. Б. Тарасова под ред.
С.А. Орловского. -М.: Радио и связь, 1990. -286 с.
30. Жилинская Е.И., Товмаченко Н.Н., Федоров В.В. Методы регрес
сионного анализа при наличии ошибки в предикторных переменных. -
М.: Изд-во АН СССР, 1978. - 34 с.
31. Журавлев Ю.И., Никифоров В.В. Проблемы реализации алгоритма
обобщенной невязки // Кибернетика. - 1971. - № 3. - С. 19-21.
32. Зангвилл У.И. Нелинейное программирование / Пер. с англ. под
ред. Е.Г. Гольштейна. - М.: Сов. радио, 1973. - 312 с.
33. Зелънер А. Байесовские методы в эконометрии. -М.: Статистика,
1980. - 438 с.
34. Зуховицкий С.И., Авдеева Л.И. Линейное и вьшуклое программи
рование. - М.: Наука, 1964. - 348 с.
35. Искусственный интеллект. Справочник. В 2 т. / Под ред. Д.А. По
спелова. -М.: Радио и связь, 1990. -Т. 2,248 с.
36. Исследование операций. Методологические основы и математи
ческие методы. Т. 1 /Пер.с англ. под ред. И.М. Макарова, И.М. Бескров
ного. -М.: Мир, 1981. - 712 с.
37. Исследование операций. Модели и применение. Т. 2 / Пер.с англ.
под ред. И.М. Макарова, И.М. Бескровного. - М.: Мир, 1981. - 677 с.
Литература 559
97. Haikin L.M., Kushnir A.F., Dainty А. ComЬined automated and off-
line computer processing system for seismic monitoring with small aperture
arrays // Seismological Research Letters. - 1998. - V. 69, №. 3. - Р. 235-
247.
98. Нaikin L.M., Kushnir A.F., Dainty А., Troitskiy Е. V. Statistical classi-
fication approach to discrimination between week earthquakes and quarry
Ыasts recorded Ьу Israel Seismic Network // Physics of Earth and Planetary
Interiors. -1999. -V. 113. -Р. 161-182.
99. Jefferys W.Н. Robust estimation when more then one variaЫe per
equation of condition has error // Biometrika. - 1990. - V. 77. - Р. 597-
607.
100. Lyons L. Оп estimating systematic errors from repeated measure-
ments // J. Phys. А.- 1992. -V. 25. -Р. 1967-1979.
101. Parallel Distributed Processing. V. I / Eds. D. Rummelhart,
J. Mc.Clelland. - Cambridge: MJT Press, 1988.
102. Schater D. W. Measurement епоr model estimation using iteratively
weighted teast squares // Statist. Anal. Meas. Error Models and Appl.: Proc.
AМS-IMS-SIAМ. lt Summer Res. Conf., Arcata, Calif., June 10-16, 1989. -
Providence, 1990. -Р . 129-138.
103. Schneeweifl Н., Mittag H-J. Lineare Modelle mit fehler behafteten
Daten. - Heidelberg - Wien: Physica-Verlag, 1986. - 504 р.
104. Spiegelman Сl.Н. Plotting techniques for error-in-variaЫes pro-
Ыems // Statist. Anal. Meas. Error Models and Appl.: Proc. AМS-IМS-SIAМ.
lt Summer Res. Conf., Arcata, Calif, June 10-16, 1989. - Providence,
1990. -Р. 167-168.
105. Werbos P.J. Back propagation through time: What it does and how to
do it // Proc. IEEE. - 1990. - V. 78, №. 10. Р. 1550-1560.
106. Whittemore A.S. Error-variaЫes regression proЫems in epidemiology
// Statist. Anal. Meas. Error Models and Appl.: Proc. AМS-IМS-SIAM. lt
Summer Res. Conf., Arcata, Calif., June 10-16, 1989. -Providence, 1990. -
Р. 17-31.
107. Widrow В., Lehr М.А. 30 Years of Adaptive Neural Networks: Per-
ceptron, Madaline and Backpropagation // Proc. IEEE. - 1990. - V. 78,
№.9.Р. 1415-1442
108. Williamson J.Н. Least-squares fitting of straight line // Canad. J.
Phys.-1968.-V.46,№.16.-P.1845.
109. Yohai V.J., Zamar R.Н. Bounded influece estimation in the eпor
invariaЫes model // Statist. Anal. Meas. Error Models and Appl.: Proc. AМS
IMS-SIAМ. lt Summer Res. Conf., Arcata, Calif., June 10-16, 1989. - Provi-
dence, 1990. -Р. 243-248.
110. Cetin М., Karl W.C. Future-enhanced synthetic aperture radar image
formation based on nonquadratic regularization // IEEE Trans. Image Precess-
ing. -2001. -V. 10, №. 4. -Р . 623-631.
Приложение 1
- 1,nPtf"pe,:,~ - -
~::~:=:=;
ГOl1fO<OЖ>Jlt" o<i lt-~ ,.....,~J
~
]______ ___
.., .__
,о
м ....,... г~
мнк.
Рассмотрим элементы, находящиеся на вкладке «Регрессия».
Для проведения расчетов необходимо загрузить в программу
данные, для чего служит кнопка «Прочитать исходные данные».
При ее нажатии появляется диалоговое окно выбора текстового
файла с данными (рис. Пl .2).
Текстовый файл можно создать в любом простом текстовом ре
дакторе, например в Блокноте. Внимательно изучите формат файла
исходных данных! В этом файле пять строк. В первой строке со
держится число пар точек, по которым рассчитьmается регрессия.
QJ
Ma.t кc,.,r""°'"ep
'9
Свтеасе ,!1ма """4м:
,.,..-
5
О 2 3 4 8
1.1 2 .2 1.4 3 . 1 1 . 1
8 2 6 4 13
1 2 1 2 3
-Т w, ркре,::,~--
: ;:~:~-:::=; ~
F7 OPТOl"Oti!.111,'1ll'I (С- J"4Н1~)
-
,Чо.Ьl • -о.21?5
Пap~q,ror~
а~-02~э7
Ь•7,045
ЩоJ -О, 15ВЗ
DIЬJ-1 .ЮS
r,ц~.ь1- -о.з751
Ь.
• Pu,~u~L'11NMHK - l~IX
T ..-.perr,кcioи
F," У ..з х1~1в1-)
р Х "1 У IXIIOl<I" - )
r,;;" ортООЖ.,_s> (с -~ rо-~]
@}
P~-'cron
~
Мtч дОJ;~Ы (None)
QJ
Mottкo,,n,IOYep
~
~--
Ceref!Cle ИмяФdй~
!vn -wйм:
1
-----~э
IВ"'-Г.Ьо-оl
.:J I с_,., 1
~
Параметры регрессии
У на Х:
Матрица Х системы:
О 1
2 1
3 1
4 1
8 1
Матрица У системы:
8
2
6
4
13
D - матрица дисперсий измерений У:
1 о о о о
о 4 о о о
о о 1 о о
о о о 4 о
о о о о 9
Пl. Описание программы «Регрессия» (инструкция для пользователя) 567
О О 1 О О
О О О 0,25 О
О О О О О, 1111
Матрица Xt * DA(-1) * Х:
21,115,389
5,389 2,611
Матрица (Xt * DA(-1) * Х)А(-1) - обратная (она же является
ковариационной):
0,1001 -0, 2066
-0,2066 0,8094
Матрица Xt * DA(-1) * У:
34,56
16,94
Примечание: Xt - транспонированная матрица Х
а= -0,041 53
Ь = 6,575
D[a] = 0,1001
D[Ь] = 0,8094
mu[a,b] = -0,2066; mu - корреляционный момент параметров
регрессии а и Ь
П араметры регрессии
Хна У:
Матрица У системы:
8 1
2 1
6 1
4 1
13 1
Матрица Х системы:
2
3
4
8
D - матрица дисперсий измерений Х:
1,21 О О О О
О 4,84 О О О
О О 1,96 О О
О О О 9,61 О
О О О О 1,21
568 Приложения
О О 0,5102 О О
О О О 0,1041 О
О О О О 0,8264
Матрица Yt * Dл(-1) * У:
213,4 21,25
21,25 2,474
Матрица (Yt * Dл(-1) * У)л(-1) - обратная (она же является
ковариационной):
0,03231 -0,2775
-0,2775 2,788
Матрица Yt * Dл(-1) * Х:
97,63
8,972
Примечание: Yt - транспонированная матрица У
а= 0,6647
Ь = -2,082
D[a] = 0,03231
D[b] = 2,788
mu[a,b] = -0,2775; mu - корреляционный момент параметров
регрессии а и Ь
Параметры ортогональной
регрессии:
а= -0,2497
Ь 7,045
=
D[a] = 0,1589
D[b] = 1,305
mu[a,b] = -0,3751; mu - корреляционный момент параметров
регрессии а и Ь
г ng;r"°""ь,...,~~('-eн<J< "'...w
~ptWl,..t,AOO,:J;Vl•nь,.,;\D,p:>"'t,:,,:n,
"=-1
г
Рис. Пl.6. Окно программы, вкладка «МНК»
!l~a~o=Мt>fC<\ DфCl"ТttX1'1+
~
![nмwCJ!
Пюзм,~тры _.., 11.Ь'•
~ - -6.9700
Ь -1 .6240
~-жо+Ь••~••'>:-с!',n,;",,:
o"177,Gl11
ь - -sz.•~
с • ◄Н571
- 1113518
·~---
Р" 111,...,..,lсж.,.,,._)
Р~о ! ~-.е..~ - 1
P':=~r<A
J:7 ГocrPOllf~ IНIE!PNJIЬl,ы&Ol,~д
\jpee-.aoe,змe,,-u,:,:,1<r~
1""':,;;;;_.,
~а •15.7870
Ь•З.2820
с - -0,ое,э7
3Нa'!C')ml) yl )~;ucтc,1JIOфop"')'JIC:
P(Y1-,,~~Y1:Sj,,н7 ~) =r:
ТА(:,, ·"IDCJIOllapТO"tCR (x,,y1), ,mopwcncuМl-30D8UC.ШИOU(Шll3])Ьlc-фOJ. (l. ь. с. d~ t, ·Jl&XOШПC... taб,"DЩtпpa,10..ctau::3
( • Р)'IФ80.;\СПС 1tрешt•ию за.uч ГМ)-р.иама)дмзu.:~ннwх r 11 " .
За/lа83.11 3И3'fC.Jf\U х, м ЬNIICl'IA.C lJ.U );8Ж1Ql"O х,sкачеюu~ j,,-rr~ Jt .У,н7 ~ )~(ОЖНО nострокп. rо1ки
(х,,У1 -,,,~) и (x,,j,1+1,~). ootmiHHI 1t01орые 11Л3вной лнниеJ!, OOJl}'чttм траницw .а.оаqжтt111,коrо интервала дп.11
с:оопетспующСй Юttl]IH (ПJ)3.\1Ой, па~11Ы. ИЮ1 no.;rnкoi,,a. J.го пср,цха}. Расстояннс от пр1шоА (парзбом,~, по.-,н,юw З•rо nop.u,l(a) до
rрающх~.ерите.rп.1ЮГО ннтера:tJ1а~1•н11ш.:wюаТОЧ11:е {X,ji).
Прямая линия
матрица Х:
1,0000 8,1000
1,0000 6,2000
1,0000 9,9000
1,0000 12,1000
1,0000 14,2000
1,0000 14,9000
1,0000 18,2000
матрица Xt (транспонированная) :
1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000
8,1000 6,2000 9,9000 12,1000 14,2000 14,9000 18,2000
матрица Xt*X:
7,0000 83,6000
83,6000 1103,3600
матрица Xt*Y:
85,9000
1195, 4800
обратная матрица Xt*XA(-1):
1,5021 -0,1138
-0,1138 0,0095
Оценки параметров :
а=-7,0294
b=l,6161
Оценка дисперсии У :
sigma(y)A2=14,7356
Ковариационная матрица оценок параметров
sigma(y)A2*Xt *XA(-l):
22,1338 -1,6770
-1,6770 0,1404
П арабола
матрица Х:
85,9000
1195, 4800
17486,4360
обратная матрица Xt*XA(-1):
13,9148 -2,4057 0,0949
-2,4057 0,4327 -0,0175
0,0949 -0,0175 0,0007
Оценки параметров :
а=-21,1534
Ь=4,2240
С=-0,1080
Оценка дисперсии У:
sigma(y)A2=9,4636
Ковариационная матрица оценок параметров
sigma(y)A2*Xt*XA(-l):
131,6836 -22,7668 0,8982
-22,7668 4,0951 -0,1658
0,8982 -0,1658 0,0069
матрица Xt*X:
7,0000 83,6000 1103,3600 15711,4340
83,6000 1103,3600 15711,4340 236491,2200
1103,3600 15711,4340 236491,2200 3707156,4000
15711,4340 236491,2200 3707156,4000 59903715,0000
матрица Xt*Y:
85,9000
1195, 4800
17486,4360
264253,2200
обратная матрица Хt*Хл(-1):
170,9042 - 46,5471 3,9153 -0,1034
-46,5471 12,8441 -1,0917 0,0291
3,9153 -1,0917 0,0937 - 0,0025
-0,1034 0,0291 -0,0025 0,0001
Оценки параметров:
а=185,2742
Ь=-53,8181
С=4,9155
d=-0,1359
Оценка дисперсии У :
sigma(y}л2=0,2332
Ковариационная матрица оценок параметров
sigma(y}л2*Xt*Xл(-1}:
39,8475 -10,8528 0,9129 -0,0241
-10,8528 2,9947 -0,2 545 0,0068
0,9 129 -0,2 545 0,0218 -0,0006
-0,0241 0,0068 -0,0006 0,0000
f(x)=x1 -х2
при ограничениях
Х1,Х2 ~ О.
{
2Х1 + Х2 + Х3 = 7;
-х1 +4х2 -х4 =1 0.
Запишем задачу в матричном виде:
f =C ·X • min,
А·Х = Ь,
где
Х1
flag т п
о CJ с2 Сп
О 2 4
О 1 -1 О О
7 2 1 1 О
10 -1 4 О -1
Дальше
Открытне файла ~ :Е
Папка: 1(l LR1_simplex ..:J о
•
Мой компьютер
Мои документы
~ dp.txt
В..l§!Mlii
Т11п: Текстовы11 документ
Изменен:
Размер :
23.01.2009 17: 16
42 ба11т
Рабочий стол
~
Избранное
базис х2 хЗ х4
10
о
·1 4
·1 i_ о
·1
о
Дальше
базис своб х1 х2 хЗ х4 х5 х6
х5 7 2 о о
х6 10 ·1 ·1 о
о -1 о о о о
phi ·17 -1 .5 ·1 -1 ·1
Даnьше
• • J ,
своб xl х2 хЗ х4
х4 18 9 о 4
х2 7
7
2
3 о
о
о -
[_~-~P._1~11:l~=)_j М атрица_2 J 1
+
1
..
status:
Открыть файл
Создать новый фаiiл
Со фанить фai1n
Поиск опорного решения
Справка
...
.. •
..
Status:
ок Cancel
ок Cancel
Симплех метод 8
Введите О, если задача на миним~м; Введите
1, если задача на максим~м
о
ок Cancel
Введите матрицg ограничениА w цепевgю срgнкцию (в каноническом вмае); далее _..Сохранить ФаАп••
*J
о 1 -1 о
-
~мнение 1
1!,Раененме 2
7
10
12
-1
1
4
Lо -1
status:
@
Рабочий стол
8
Мои документы
gt
Мой компьютер
Отнрыть [l][RJ
!]опко: / О Донные
~
Недаение
lilllllll
дсж.~енты
@
Р~иС!стол
МоидОК!:fМеНТЫ
:QJ
Moi:! компьютер
status: 1 ,а
•I' МПУ нм.Н. Э. Баумана Информацнонные технолоrнн: Исследован не опе рацнй r;J[g]~
О...,лекс-нетод Транспортная задача Потоковые 3адачн Сетевые задачи Матричные игры Справка
Stotus: 1 /4
г- f;. 1~ ы 1
~
Stotus: 1 /4
ТРАНСПОРТНАЯ ЗАДАЧА
Справка
Со:,дать файл
Сохраннть как
Сохранить нзменення параметров
ок Cancel ок Cancel
на рис. ПЗ.3 .
<РаАп nрочМ'Ган Дпя модификации плана введите новые значения" даnее пункт ""сохранить измене • •
2 з Запасы
з з 2 70
2 6 2
Потребности 20 __з_о_=1•о
Status:
~
Нед~ие
док~нты
@
Рабо--lий сrол
с)
Мои .а,ок~нты
&11
Мой компьютер
4Q
Сетееое Имя~йла:
1- ..:J 1
Сщрожrь 1
оt<.р-Jжение
20
2
Потребности 20
Status:
Запасы
20
~
2 20
Потребности 20 30 40 90
Status:
i1>u=0 20 30 20 70
2>u=0 20 20
Потребности 30 I.co 90
1 продолжиrь:.. слеаgющий..wаг........................................................11
r........................................................
Status: ,а
Status:
Запасы
70
2 20 20
Потребности 20 90
Status: ,а
~
:____~1:
Status:
Оrпимальныii план: стоимость 19~ Открыть файл текстового описания сети остоимости о
Со,дать файл текстового описания сети
- • )(
3М.5rЬ еетеь r ~~
рис . П4.3 .
После ввода всех вершин необходимо перейти в режим рисова
ния ветвей графа. Для этого сбрасывается режим рисования вер
шин (кнопка «вершина»), после чего выводится окно сообщения
«число вершин графа».
После завершения ввода всех вершин графа при нажатии кноп
ки «линия» осуществляется переход к рисованию ветвей графа.
Каждое ребро вводится нажатием кнопки «линия», после чего по
является диалоговое окно задания параметров ветви (рис . П4.4).
После ввода всех ветвей в редакторе создается картинка графа
(рис. П4.5).
П4. Задача о максимальном потоке 593
$' графсетн - • )(
графическнй Ф~
® (i)
®
Рис. П4.3. Окно редактора с введеIПiыми вершинами
начальный узел о
конечный узел 1
вес ветви ~
ок
- ветвьЗ
ветв
.______
~
ветвь ветвь 4
ветвь 5
>
'ветвь 7
ок Cancel
ок Cancel
Рис. П4.6
Папка: с) Данные
Недавние
документы
Рабочий стол
Мои документы
Мой компьютер
Симnлекс-r..ет од Транспортная 1<1дача Пот окоеые задачи Сетевые задачи М&тричные нrры U1)оека
---i
о 1 з о
1 о 2 2 о
2 о lз 2 о 2
т
з 2 о
4 1з 5 о
5 з з о з
Б Б о Б
V ----
istok·slok. о 4
N верwмн гр
о
8ер111Мt1Ы граФа
о
1N aon. п,rеА доnопняю111.ме· П!JТМ допоnня""'"" nvт••±
2
з
14
St&us:
~ 1
± +
/4
С111"1n.nекс-нетод Транспорт~ э.адача Потокоеые 3адачн Сетееые 3адачн ~тричные нгрЫ (nрвека
Рас"'ет максмма11ьного nотока:мтера•мя1 оnмсанме k.а,кдоА ветви rраФа. верtuМНЫ истока • стока
N ветвеА на"ам.ttЬIА ,зе.11 Koнe"'tttl;:,IД !IЗCJI Проп,с1tная сnособttость ребра А Поток F с ..,_,
1
о 1 1 з о
1 о 2
- 2 2
-
о з
_,_
о
2
з 1 2
-
-
2
4 о
г-
ti
4 1 з 5 о 5
- о
5 2 3
-
3
1з
G 2 4 G 2 4
,17 з 4
- 4
-f--
о 4
istok-slok о 4
-
допоя~
-
Nee~rp~ Верwмны rраФа N aon. n!l'feA
- доnоnняош.ме· П!JТМ
о о 1
- 4> 2 > D>
- 2
1 1
-
2 2
- --
э 3
4 4
status:
0 0 8
Симnлекс -нетод Тр$1Сгюртнм ,.,дача Потокоеые ,-,дс,1../11 Сетееь~е :,ад&-111 ~трнчные иrры С~.!1
Рас"ет ма,;.сммаnьного потока:итера•мя2 оnмсанме ка.доА ветем r~,Фа. вер•ины меток.а • стока
N ветвей На"ам.ныА !fЗCJI 1 Koнe'tttt>8A 5зе.11 ПJ)ОП!Скная сnособttость ребра А Поток F iC• o-1
о о
1 3
~
1
1 о 2
- 2 2
- - -
1
2 о 3 2 2
3 1
--- 2 4 о
-
4 1
--- JЗ 5 о
-
,5 2 3 3 о
-
G 2
--- - - -G 2
-
14
-
,[7
istok-stok
з
о
4
4
-
- -4
--
2
- -
2
N ве.-.,.н гр~
о
1
2
·-•- ·-~d~:--•~
О
1
2
_J_
1
1
2
4>2>0>
4>3>0>
г·+
1;!
r4
11
st.ЫUS :
: =+= -
Симnлекс-нетод Транспортная :sадача Пот оковые :,адачн Сетевые задачн М&трнчtЬtе игры С~ка
Рас'lет максима11ьного nотока:мтера11,мяЗ оnис~ ка.,.оА ветви rpa•a. вер1UМНЬ1 истока • стока
о з з о
1 о
12 2 2 о
2 о 1з 2 2
-
10
з 2 з 1
-+--
1 з 5 5
з о
5 2 1з
G 1:4 G 5 1
V 2 2
istok-stok. о 4
=±=
1 2 4>3>0>
2 з -4 >2> 1 > 0>
==r=
з
~
St:41:us:
Сннnлекс-нетод Транспортная задача ГlотО1<;ооые задачн Сетееь~е :3адачн IУютрнчные нгры Civ,aeкa
,(1
2
о
о
1 1
2
з
_._ з
2
2
----, 2
з
2
F-о
+
13 1 2 4 1
·-
з --
,G
4
5
1
2
2
-t
+---
з
4
~
5
з
G 15
--t: 1
V 3 \4 4 2 2
- - -
istok-stok о 4
---=-----т- - -
1
---t-
4 4 8'4ноаество А(мсток) О
-t--c-c --
t-tно•ество В(сток) 1 2 34
ветви разреза: 012
~ -r-
'
st:atus:
>
ветвь 7
и так далее.
этих вершин.
вводите дiJННые в табrицу по шаблону : нмена вершин 11 t1МЯ модуля~ стРоЮ1 длиt1О11 не боnьwе З символов
имена вершин н нмена модулей уннкальнь11 веодsпСs:1 только то колнчество ~ходных вершин; которое ~дано, остальные ячейки не 3МОЛНs:1ются
после ввода далее выбрать пункт меню " сохранить файл "
ОК Cancel
Снмплекс-метод 'Транспортная х~дача Потокавь1е }аДачи Решатель Сетевые :sадачf'! Матр111.1ные иrры Справка
дпя зад.ания сети (графа и-или) uеодится информация описания м04~11е'8 сети: имя мод~пя" выходная верwина, список 1• •
выходная вер количество входов 1 верwин.а 2 в ерwина З верwмна 4 верwина 5 верwина
Status:
ДЛИНОЙ ДО 3 СИМВОЛОВ.
После завершения ввода необходимо сохранить созданное
описание сети: выбрать пункт меню «сохранить файл описания
сети». Далее ввести имя файла без расширения. (Файл по умолча
нию сохраняется с расширением «.fps».) Например, для данного
случая: datO.fps.
Пример заполненной формы для описания сети с 14 модулями:
---------------------------------
J описание сети (._r,раФа и-ипи ): имя MOA!IIIЯ~ выходная в~рwина" список вх04ных ве~-~~~J __J
верwина вы количество имя вершин имя вершин имя вершин имя вершин имя верwинь
V 2 а ь
m2 а 1 с
з mЗ vO 2 ь
4 m4 ь 2 с d
5 m5 ь 2 d •
Б mБ а 1 у
7 m7 2 d z
8 m8 d 2 а1 Ь1
9 m9 Ь1 2 у1 у2
10 m10 Ь1 2 у2 z
11 m11 с з уЗ у4 al
12 m1 2 vO 2 • у5
13 m1З d 2 уБ z
14 m14 у5 2 z уБ
Status:
П4. Задача о максимальном потоке 603
---------------
ре дактн ровать базу: добавить мод... ~
Введиrе имя модуля
ОК Cancel
Заполненное окно:
---------------
редактировать базу: добавить мод... ~
В ведиrе имя модуля
ОК Cancel
----------------
ре дактиро вать базу: добавить мод... ~
Введите целев',jю вершин',!
vO
ОК Cancel
----------------
по нск в графах и-нли данные для ... ~
В ведите количество заданны:-: вершин
ОК Cancel
...,з
1 Ь1 12 ,1 "2
2 d е1 Ы
3 с ,з ,. .,,
4 1 d
.-- ь
~ ...о
-
st«uS:
П4. Задача о максимальном потоке 605
а1 Ы
5totvs:
Приложение 5
ДИНАМИЧЕСКОЕ ПРОГРАММИРОВАНИЕ,
ЗАДАЧА О РЮКЗАКЕ
Таблица 1 - ----------------------------------
Объем, V Вес, р I Значения, xl
о о о
1 2 1
2 5 о
3 7 1
4 10 о
5 12 1
6 15 о
7 17 1
8 20 о
9 22 1
Таблица 2
о о о
1 о о
2 5 о
3 5 о
4 10 о
5 10 о
6 15 о
7 15 о
8 20 о
9 20 о
Таблица 3
о о о
1 о о
2 5 о
3 5 о
4 10 о
5 10 о
6 15 о
7 15 о
8 20 о
9 20 о
608 Приложения
Таблиц а 4
о о о
1 О О
2 5 1
3 5 1
4 10 2
5 10 2
6 15 3
7 15 3
8 20 4
9 20 4
О п тимальные точки :
Х= [100 4]
leu.тert{)l-ecto,yj w,,щ,асе
[onlf1,aa1d Il~tory • х
tc -- 07 . 02 . 11 11 : 31 --tc
МАТLА8 оев
f'ile ~dt De~ Qest<top ~моw tte\>
D i;;;i;: Ji, 1111, 8 .-, r, 8li r-f!{ t C<r,ent Dwecto,r C:'fl4AТLAВ701\wo,k Ш () (!;]
(!;] c:Hi:1$1 lfi)J То ge< •<апеd, selec< MATLAB Help or Demos irom <he Help Г•
дl Fles • File Туре Lest Мodi1
[1'i celprog.m M-file 03.02.201 » а • [ 1 2 3]
liiJ!Ynl?.IWJ m M-file 07.02.201
а =
. . .. , » Ь = [1; 2 ; 3]
ь -
fО.. rert Di'ectory J'Wofkspace
Comn1and ltlStory • х
.,. %- - 0 7 . 0Z . ll 11 : 31 --%
а • [ 1 2 3]
Ь • [1;2 ; 3] » с = [1 2 3 ; 4 5 6]
с • [ 1 2 3 ; 4 5 бJ
4 S
МАТlд8
динамического проГ'раммкро5ания
[1i celp,og.m М-file О,
V - об~ PJDX:!!l&Xa
1Jmro1LШ., М-file 07
v - матрица-строка объl!мое nредме'Т'Ов
р - матрица-строJ11.еа еесоа nредме:то21
f - махснмапьн:ый ~с рюх3ака
Lornmand lt,!i-totY • х
Ь • [ 1 ; 2 ; 3) » 1
с • [ 1 2 З; ~ 5 б]
hl!lp dynprog
clc;
hl!lp dynprog
ое е
ffJ d'' i') .$1 ~ 1 на чисп.о прl!!дМl!!ТОВ дан ного типа Hl!!T
х - матриuа-строr:.1!!11. р~ния
AIIFtles • - ~ Fie Typo L<
f - макснмаnышй &ее рю~.~а1- а
1N, celprog.m М-file
[1i dynprog.m М-file °'07
~JO dinprog_results.txt ТХТ F1le 07
>> V • 9;
>> v = (l 3 2 2) ;
>> р • ( 2 З 2 5) ;
Ь • [ 1 ; 2 ; 3]
с • [ 1 2 З ; i S Ei]
h e l p dynprog
clc ;
,-
help dynpro o
V • 9;
V""[13 22J ;
р• (2 3 2 S} ; 22
Ю"'( О О О О] ;
ЦЕЛОЧИСЛЕННОЕ ЛИНЕЙНОЕ
ПРОГРАММИРОВАНИЕ
D ~ i 1111, 8 <'1 " ' llli r!f{ ~ с..,.,,. Di"ectc,yc с,...,.ТLАВ701 >wo,k Ш Q GJ
ShortCI..U 11) Ноw to дdd [t] ~ s New
>> Ь•9 ;
>> А• ( 1 3 2 2) ;
Гnmm.vid l'"'tory
' х >> с• ( 2 З 2 SJ ;
v•[l З 2 2] ; >> cel pr щr(A , b , c)
р• [2
2 5] ; З »
m-(0000] ;
[ х, t] • dynprog (V, v, p,m)
clc ;
he l p celprog
Ь•9 ;
.А• [1 З 2 2] ;
с• (2 З 2 5) ;
celproq (A,b , c )
Ь xl х2 х3 х4 х5
х4 4.5000 0.5000 1.5000 1 . 0000 1.0000 0.5000
f 22.5000 0.5000 4.5000 3.0000 0 . 0000 2.5000
Производящая строка:
Х1+Х221;
2х1 + Зх2 ~ 2;
Х1 ~ О; Х2 ~ О.
Переходим к ограничениям-равенствам:
XI+ Х2 - Х3 =1;
2х1 + Зх2 - Х4 = 2;
Х1 2 О; Х2 ~ о.
Таблица П7.1
Исходная таблица
Базис Ь; Х1 Х2 Х3 Х4
Х3 -1 -1 -1 1 о
Х4 -2 -1 -3 о 1
z о -3 -1 о о
Таблица П7.2
Первая итерация
Базис Ь; Xt Х2 Х3 Х4
Базис Ь; Xt Х2 Х3 Х4
Х4 1 1 о -3 1
Х2 1 1 1 -1 о
z -1 -2 о -1 о
Решение: х1 = О; х2 = 1; хз= О; Х4 = 1.
П8. Математический словарь 617
Приложение 8
ВЕКТОРЫ И МАТРИЦЫ
Например,новоезначениеэлемента
анов
ln
ь нов _
т -
aisbm - amsbi
ais
Из правила прямоугольника следует, что когда в разрешающей
строке (столбце) есть нулевые элементы, то элементы столбцов
( строк), пересекающих эти нулевые элементы, остаются без изме
нения.
МАТЕМАТИЧЕСКОЕ ПРОГРАММИРОВАНИЕ
max{c1x = ~1};
max{c2x = ~2};
max{CkX = ~k} ,
прих Е D,
или в матричной форме
max {Сх = ~ 1 х Е D} ,
где k- число целевых функций (критериев); ci - градиент (век
тор коэффициентов) i-й целевой функции (критерия); ~i - значе
ние i-го критерия (целевой функции); D - множество допусти
мых значений переменных; max - означает, что нужно максими
зировать все целевые функции одновременно; С - матрица
критериев размерностью k х п (матрица коэффициентов целевой
функции, ее строки ci являются градиентами критериев); z -
вектор критериев.
П8. Математический словарь 621
первоначального решения.
622 Приложения
f aiJXJ =bi •
J=l
{±
J=l
aiJXJ 2:: bi; f aiJxi
J=I
'-5,. bi ·}
Z:ai1x1~Ьi
п
J=l
La1JXj = Ь~
J=I
............... • п
Z:amjXj ~Ьт
п
J=l
Z:amjXj =Ьт
J=I
~(! а,- Ь;) ~ О
Если на переменную х1 , j = 1, ... , п, не наложено условие неот
рицательности, ее можно заменить двумя неотрицательными пе-
XJ S: 0 • Х1 = xf - Хо;
Хп S: 0 • Хп = Х~ - Хо;
xf ~О; ... ; х~ ~О; хо ~О.
СЕТИ
- v, если i = s;
I,xu -I,x1k = О, если }*s,}*t; (П8.1)
i k { .
v, если J = t;
v 2:: О; О~ xu ~ bu для всех i,j. (П8 .2)
потокFst•
Величина максимального потока в любой сети принимает, без
условно, единственное значение. Но может существовать несколь
ко различных максимальных потоков Fst, имеющих одинаковую
величину. Может существовать и несколько минимальных разре
зов в сети.
ТЕОРИЯ ИГР
ФУНКЦИЯ И ПРОИЗВОДНЫЕ
равно
- тождественно равно
оо бесконечность
=1- не равно
z приближенно равно
пропорционально
< меньше
> больше
< меньше или равно
Е знак принадлежности
~ знак непринадлежности
0 пустое множество
<=> эквивалентно
• следует
3 квантор существования
\:;/ квантор общности
знак факториала: п ! = 1 · 2 · 3 · ... · п
п
Предисловие............................................................................................... 3
Часть 1. Математическое программирование
МАТЕМАТИЧЕСКИЕ МЕТОДЫ
ПРИНЯТИЯ РЕШЕНИЙ
Технический редактор Э.А. Кулакова
Корректор А.Б. Сорокина
Художник А.К. Ездовой
Компьютерная графика МА. Голуба
Компьютерная верстка Н Ф. Бердавцевой
Оригинал-макет подготовлен
в Издательстве МГТУ им. Н.Э. Баумана.