Академический Документы
Профессиональный Документы
Культура Документы
Шарый
Курс
ВЫЧИСЛИТЕЛЬНЫХ
МЕТОДОВ
Курс
ВЫЧИСЛИТЕЛЬНЫХ
МЕТОДОВ
С. П. Шарый
Новосибирский государственный университет
Федеральный исследовательский центр
информационных и вычислительных технологий
Новосибирск – 2022
Книга является систематическим учебником по курсу вычислительных ме-
тодов и написана на основе лекций, читаемых автором на механико-матема-
тическом факультете Новосибирского государственного университета. Осо-
бенностью книги является широкое изложение методов интервального ана-
лиза и результатов нелинейного анализа, связанных с традиционными раз-
делами вычислительной математики.
Предисловие 9
3
4 Оглавление
Обозначения 648
9
Глава 1
Общие вопросы
вычислений
10
1.1. Предмет вычислительной математики 11
∆˜ = | x̃ − x∗ |, (1.1)
и потому
x̃ − ∆ ≤ x∗ ≤ x̃ + ∆.
Это двустороннее неравенства часто выражают следующей краткой ус-
ловной записью:
x∗ = x̃ ± ∆.
Фактически, вместо точного числа мы имеем здесь целый диапазон
значений — числовой интервал [x̃−∆, x̃+∆] возможных представителей
для точного значения рассматриваемой величины.
На практике указание одной только абсолютной погрешности недо-
статочно для характеристики качества рассматриваемого приближе-
ния. К примеру, для x∗ = 10 абсолютная погрешность, равная, скажем,
единице, соответствует довольно грубому приближению, тогда как для
x∗ = 1000 та же погрешность обеспечивается лишь весьма тщатель-
ным и высокоточным измерением. Более полное понятие о качестве
приближения даёт относительная погрешность приближения, кото-
рая определяется как отношение абсолютной погрешности к модулю
значения величины.
Идеальным было бы относить абсолютную погрешность к модулю
точного значения x∗ , т. е. определять относительную погрешность как
∆˜
δ̃ = . (1.2)
| x∗ |
Но в условиях недоступности x∗ относительную погрешность обычно
полагают равной
∆˜
δ̃ = , (1.3)
|x̃|
где x̃ — рассматриваемое приближение к x∗ . При близости x∗ и x̃ такая
замена почти не отражается на значении и содержательном смысле от-
носительной погрешности. Ниже мы в равной мере будем пользоваться
обеми формулами (1.2) и (1.3).
Относительная погрешность — безразмерная величина, и часто её
выражают в процентах. О практичности и применимости относитель-
ной погрешности можно сказать то же самое, что и по поводу абсо-
1.2. Погрешности приближённых величин 15
|x̃ − x∗ | ∆
δ̃ = ≤ δ= . (1.4)
|x̃| |x̃|
x̃ − δ |x̃| ≤ x∗ ≤ x̃ + δ |x̃|.
|x̃1 | ∆2 + |x̃2 | ∆1 1
· .
x̃22 1 − δ2
Доказательство. Имеем
|x̃1 x̃2 − x∗1 x∗2 | = |x̃1 x̃2 − x̃1 x∗2 + x̃1 x∗2 − x∗1 x∗2 |
≤ |x̃1 (x̃2 − x∗2 )| + |x∗2 (x̃1 − x∗1 )|
= |x̃1 (x̃2 − x∗2 )| + |(x̃2 − (x̃2 − x∗2 ))(x̃1 − x∗1 )|
≤ |x̃1 (x̃2 − x∗2 )| + |x̃2 (x̃1 − x∗1 )| + |(x̃1 − x∗1 )(x̃2 − x∗2 )|
≤ |x̃1 | ∆2 + |x̃2 | ∆1 + ∆1 ∆2 ,
∆1 = δ1 |x̃1 | и ∆2 = δ2 |x̃2 |.
f (x1 , x2 , . . . , xn ) := x1 x2 . . . xn
n
X
= x∗1 · · · x∗i−1 x∗i+1 · · · x∗n (x̃i − x∗i )
i=1
n
X x̃i − x∗i
= x∗1 x∗2 · · · x∗n .
i=1
x∗i
что и требовалось.
g(x, y) = x/y
22 1. Общие вопросы вычислений
∂g ∂g (x̃ − x∗ ) x∗ (ỹ − y ∗ )
z̃ − z ∗ ≈ (x̃ − x∗ ) + (ỹ − y ∗ ) = − .
∂x ∂y y∗ (y ∗ )2
Поэтому
z̃ − z ∗ x̃ − x∗ x∗ (ỹ − y ∗ ) x̃ − x∗ ỹ − y ∗
= ∗ − ∗ = − ,
z ∗ x x x∗ y∗
y∗ ∗ (y ∗ )2 ∗
y y
так что
z̃ − z ∗ ∗ ∗
≤ x̃ − x + ỹ − y .
z∗ x∗ y ∗
α0 . α1 α2 . . . αp−1 · β t .
R
✲
P := { a ∈ IR | a ≥ 0 и a ≥ 0 } — неотрицательные интервалы,
Z := { a ∈ IR | a ≤ 0 ≤ a } — нульсодержащие интервалы,
−P := { a ∈ IR | −a ∈ P } — неположительные интервалы.
(a + b)c 6= ac + bc.
Например,
· b∈P b∈Z b ∈ −P
a∈P [ a b, a b ] [ a b, a b ] [ a b, a b ]
[ min{a b, a b},
a∈Z [ a b, a b ] [ a b, a b ]
max{a b, a b} ]
a ∈ −P [ a b, a b ] [ a b, a b ] [ a b, a b ]
a(b + c) ⊆ ab + ac (1.15)
x2
✻
✲
x1
A ⋆ B = { A ⋆ B | A ∈ A, B ∈ B }, ⋆ ∈ { +, −, · }, (1.18)
34 1. Общие вопросы вычислений
f (X)
❄
✛ ✲
X
где g(x, x̃) = ( g 1 (x, x̃), g 2 (x, x̃), . . . , g n (x, x̃) ). В случае, когда интер-
вальные оценки для функций g i (x, x̃) находятся с первым порядком
точности, общий порядок точности центрированной формы согласно
38 1. Общие вопросы вычислений
F (a, x) = 0
с входным параметром a.
Даже при неявном задании разрешающего отображения нередко
можно теоретически выписать его вид, как, например, x = A−1 b при
решении системы линейных уравнений Ax = b с квадратной матри-
цей A. Но в любом случае удобно предполагать существование этого
отображения и некоторые его свойства. Пусть также D и S являют-
ся линейными нормированными пространствами. Для простоты можно
далее считать, что D и S конечномерны и являются арифметически-
ми векторными пространствами (именно таковы многие задачи этой
книги), т. е. D = Rp и S = Rq для некоторых натуральных p и q.
Очевидно, что самый первый вопрос, касающийся обусловленности
задачи, требует, чтобы разрешающее отображение φ было непрерыв-
ным относительно некоторого задания норм в D и S. Если непрерыв-
ность разрешающего отображения имеет место, то для характеристи-
ки обусловленности задачи интересна скорость изменения его значений
при возмущении исходных данных. Возможны два подхода к введению
числовой меры обусловленности математических задач. Один из них
условно может быть назван дифференциальным, а другой основан на
оценивании константы Липшица разрешающего оператора.
Пусть разрешающее отображение φ дифференцируемо по крайней
мере в интересующей нас точке a из множества входных данных D.
Тогда можно считать, что
и
kφ(a + ∆a) − φ(a)k k∆ak
≤ C2 . (1.23)
kφ(a)k kak
Величины этих констант, зависящие от задачи, а иногда и конкретных
входных данных, берутся за меру обусловленности решения задачи.
√
Рис. 1.4. Непрерывная функция y = x имеет бесконечную
скорость роста при x = 0 и не является липшицевой
= 1 − n In−1 . (1.25)
Кроме того,
Z 1
I0 = ex−1 dx = 1 − e−1 .
0
Теперь уже нетрудно организовать вычисления, но . . . поведение их
результатов для растущих n делается странным. Таблица ниже приво-
1.8. Устойчивость алгоритмов 43
n вычисленный In
1 0.367879
2 0.264241
3 0.207277
··· ···
16 0.0554593
17 0.0571919
18 −0.0294537
19 1.55962
··· ···
R
✲
x
Рис. 1.5. Типичное вещественное число не представимо точно
в цифровой ЭВМ с конечной разрядной сеткой
R
✲
X
x∈X
Рис. 1.6. Интервальное решение проблемы представления
вещественных чисел в цифровой ЭВМ
R
✲ + R
✲
X Y
⇐
R
✲
Z
⇐
R
✲
округление (Z)
Литература к главе 1
Основная
[1] Алефельд Г., Херцбергер Ю. Введение в интервальные вычисления. –
Москва: Мир, 1987.
[2] Барахнин В.Б., Шапеев В.П. Введение в численный анализ. – Санкт-
Петербург–Москва– Краснодар: Лань, 2005.
[3] Бабенко К.И. Основы численного анализа. – Москва: Наука, 1986.
[4] Бауэр Ф.Л., Гооз Г. Информатика. В 2-х ч. – Москва: Мир, 1990.
[5] Бахвалов Н.С., Жидков Н.П., Кобельков Г.М. Численные методы. –
Москва: Бином, 2003, а также другие издания этой книги.
[6] Бахвалов Н.С., Корнев А.А., Чижонков Е.В. Численные методы. Реше-
ния задач и упражнения. – Москва: Дрофа, 2008.
[7] Березин И.С., Жидков Н.П. Методы вычислений. Т. 1–2. – Москва: Наука,
1966.
[8] Вержбицкий В.М. Численные методы. Части 1–2. – Москва: «Оникс 21 век»,
2005.
[9] Волков Е.А. Численные методы. – Москва: Наука, 1987.
[10] Гэри М., Джонсон Д. Вычислительные машины и труднорешаемые задачи.
– Москва: Мир, 1982.
[11] Демидович Б.П., Марон А.А. Основы вычислительной математики. –
Москва: Наука, 1970.
[12] Калиткин Н.Н. Численные методы. – Москва: Наука, 1978.
[13] Крылов А.Н. Лекции о приближённых вычислениях. – Москва: ГИТТЛ, 1954,
а также более ранние издания.
[14] Крылов В.И., Бобков В.В., Монастырный П.И. Вычислительные методы.
Т. 1–2. – Москва: Наука, 1976.
[15] Кунц К.С. Численный анализ. – Киев: Техника, 1964.
[16] Кунцман Ж. Численные методы. – Москва: Наука, 1979.
[17] Мацокин А.М., Сорокин С.Б. Численные методы. Часть 1. Численный ана-
лиз. – Новосибирск: НГУ, 2006.
[18] Меньшиков Г.Г. Локализующие вычисления. Конспект лекций. – Санкт-
Петербург: СПбГУ, Факультет прикладной математики–процессов управле-
ния, 2003.
[19] Миньков С.Л., Миньков Л.Л. Основы численных методов. – Томск: Изда-
тельство научно-технической литературы, 2005.
Литература к главе 1 53
Дополнительная
[31] Бабушка И., Витасек Э., Прагер М. Численные процессы решения диф-
ференциальных уравнений. – Москва: Мир, 1969.
[32] Годунов С.К., Антонов А.Г., Кирилюк О.Г., Костин В.И. Гарантиро-
ванная точность решения систем линейных уравнений в евклидовых простран-
ствах. – Новосибирск: Наука, 1988 и 1992.
[33] Кушнер Б.А. Лекции по конструктивному математическому анализу. –
Москва: Наука, 1973.
[34] Мартин-Лёф П. Очерки по конструктивной математике. – Москва: Наука,
1975.
[35] Математический Энциклопедический Словарь. – Москва: Большая Российская
Энциклопедия, 1995.
[36] Меньшиков Г.Г. Демонстрационные возможности примера Бабушки-
Витасека-Прагера в точечных и интервальных расчетах // Вестник Санкт-
Петербургского университета. Серия 10. Прикладная математика. Информа-
тика. Процессы управления. – 2005. – Вып. 2. – С. 179–183.
54 1. Общие вопросы вычислений
Численные методы
анализа
2.1 Введение
Под численными методами анализа обычно понимаются вычисли-
тельные методы решения ряда задач, возникающих в классическом ма-
тематическом анализе. Традиционно сюда относят задачи интерполи-
рования и приближения функций, задачи численного нахождения про-
изводных и интегралов, задачу суммирования рядов, а также вычисли-
тельные методы гармонического анализа. Кроме того, численные мето-
ды анализа охватывают задачу вычисления значений различных функ-
ций. Она относительно проста для функций, явно задаваемых неслож-
ными арифметическими выражениями, но становится нетривиальной
в случае, когда функция задаётся неявно или с помощью операций, вы-
водящих за пределы конечного набора элементарных арифметических
действий.
В нашем курсе мы рассмотрим первые четыре из перечисленных
выше задач. В последние десятилетия возникла тенденция относить
их также к математическим задачам анализа данных, поскольку они
встречаются в задачах обработки результатов наблюдений и измере-
ний. Сначала займёмся задачами интерполирования и приближения
функций, возникающих, к примеру, при решении задач восстановле-
ния функциональных зависимостей по экспериментальным данным.
55
56 2. Численные методы анализа
ним «интерполяция».
2.1. Введение 57
x0 x1 ....... xn
a0 + a1 e β 1 x + . . . + am e β m x
Следовательно,
1
Ki = ,
(xi − x0 ) · · · (xi − xi−1 )(xi − xi+1 ) · · · (xi − xn )
и потому
(x − x0 ) · · · (x − xi−1 )(x − xi+1 ) · · · (x − xn )
φi (x) = .
(xi − x0 ) · · · (xi − xi−1 )(xi − xi+1 ) · · · (xi − xn )
yi+1 − yi
(yi , yi+1 )∠ := .
xi+1 − xi
f (xi+1 )
f (xi )
xi xi+1
i+k+1 i+k
X f (xj ) X f (xj )
1 −
= · i+k+1
Q i+k
Q
xi+k+1 − xi j=i+1 (xj − xl ) j=i (xj − xl )
l=i+1 l=i
l6=j l6=j
f (xi+k+1 )
= i+k
Q
(xi+k+1 − xi ) (xi+k+1 − xl )
l=i+1
i+k i+k
X f (xj ) X f (xj )
1 −
+ · i+k+1
Q i+k
Q
xi+k+1 − xi j=i+1 (xj − xl ) j=i+1 (xj − xl )
l=i+1 l=i
l6=j l6=j
f (xi )
− i+k
Q
(xi+k+1 − xi ) (xi − xl )
l=i+1
72 2. Численные методы анализа
f (xi+k+1 )
= i+k
Q
(xi+k+1 − xi ) (xi+k+1 − xl )
l=i+1
i+k 1 1
1 X −
+ · f (xj ) · i+k+1
Q i+k
Q
xi+k+1 − xi j=i+1
(xj − xl ) (xj − xl )
l=i+1 l=i
l6=j l6=j
f (xi )
− i+k
Q
(xi+k+1 − xi ) (xi − xl )
l=i+1
x32 − x31
= x22 + x2 x1 + x21 .
x2 − x1
Для линейного монома (−4x) разделённая разность находится триви-
ально и равна (−4), а для константы 1 она равна нулю. Следовательно,
в целом
g ∠ (x1 , x2 ) = x22 + x2 x1 + x21 − 4.
Вычислим вторую разделённую разность от g(x):
g ∠ (x2 , x3 ) − g ∠ (x1 , x2 )
g ∠ (x1 , x2 , x3 ) =
x3 − x1
(x23 + x3 x2 + x22 − 4) − (x22 + x2 x1 + x21 − 4)
=
x3 − x1
x23 + (x3 − x1 )x2 − x21
= = x1 + x2 + x3 .
x3 − x1
74 2. Численные методы анализа
но,
k−1
Q
(xk − x )
l
k−1
X l=0
yk 1 l6=j
= k−1 − k−1 yj k−1
Q Q Q
(xk − xl ) j=0 (xk − xl ) (xj − xl )
l=0 l=0 l=0
l6=j
k−1
yk X yj после сокращения
= −
k−1
Q k−1
Q произведений
(xk − xl ) j=0 (xk − xj ) (xj − xl )
l=0 l=0
l6=j
k−1
yk X yj
= k
+ k−1
Q Q
(xk − xl ) j=0 (xj − xk ) (xj − xl )
l=0 l=0
l6=k l6=j
k
X yj
= k
= (y0 , y1 , . . . , yk )∠
Q
j=0 (xj − xl )
l=0
l6=j
2.2. Интерполирование функций 77
Pn (x) =
y0 + (y0 , y1 )∠ (x − x0 ) + (y0 , y1 , y2 )∠ (x − x0 )(x − x1 ) (2.24)
∠
+ . . . + (y0 , y1 , . . . , yn ) (x − x0 )(x − x1 ) · · · (x − xn−1 ).
Pn (x) =
f (x0 ) + f ∠ (x0 , x1 ) (x − x0 ) + f ∠ (x0 , x1 , x2 ) (x − x0 )(x − x1 ) (2.25)
∠
+ . . . + f (x0 , x1 , . . . , xn ) (x − x0 )(x − x1 ) · · · (x − xn−1 ).
Pn (x) =
Pk (x) + f ∠ (x0 , x1 , . . . , xk+1 ) (x − x0 )(x − x1 ) · · · (x − xk ) (2.26)
∠
+ . . . + f (x0 , x1 , . . . , xn ) (x − x0 )(x − x1 ) · · · (x − xn−1 ),
Pn (x) =
1 ∆f (x0 ) 1 ∆2 f (x0 )
f (x0 ) + (x − x0 ) + (x − x0 )(x − x1 ) +
1! h 2! h2
1 ∆n f (x0 )
... + (x − x0 )(x − x1 ) · · · (x − xn−1 ).
n! hn
2.2. Интерполирование функций 79
x y ∆y ∆2 y ... ∆n y
x0 y0
∆y0
x1 y1 ∆2 y0
∆y1 ...
x2 y2 ∆2 y1 ∆n y0
∆y2 ...
x3 y3 ∆2 y2 ∆n y1
∆y3 ...
x4 y4 ∆2 y3 ∆n y2
.. .. .. .. .. ..
. . . . . .
ωn (x) = (x − x0 )(x − x1 ) · · · (x − xn ).
что и требовалось.
1 (n)
f ∠ (x0 , x1 , . . . , xn ) = f (ξ)
n!
для некоторой точки ξ ∈ ] x, x [.
Отметим прежде всего, что в (2.22) без какого-либо ограничения
общности можно считать узлы x0 , x1 , . . . , xn упорядоченными по воз-
растанию индекса, т. е. x0 < x1 < . . . < xn , поскольку разделённая
разность есть симметричная функция узлов, по которым она берётся.
Обозначив
θ(x) := f (n) (x) − n! f ∠ (x0 , x1 , . . . , xn ),
заметим, что Предложение 2.2.2 и равенство (2.22) равносильны следу-
ющему утверждению: на ] x0 , xn [ существует точка ξ, которая является
нулём функции θ(x).
По точкам x0 , x1 , . . . , xn построим для функции f (x) интерпо-
ляционный полином Pn (x). Оказывается, что введённая выше функ-
ция θ(x) есть n-ая производная по x от остаточного члена интерполя-
ции Rn (f, x) = f (x) − Pn (x), т. е.
x
ωn (x)
1.5
T0
1
0.5
T4 T1
−0.5
T2
−1
T3
−1.5
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1
В силу известной формулы Муавра (cos t ± i sin t)n = cos nt ± i sin nt, и
потому
Tn (x) = 21 cos nt + i sin nt + cos nt − i sin nt = cos nt.
(2k + 1)π
x̊k = cos , k = 0, 1, . . . , n − 1, (2.36)
2n
всего n штук. А поскольку в силу основной теоремы алгебры у поли-
нома Tn (x) в поле комплексных чисел может быть не более n корней,
то можем заключить, что других корней, отличных от (2.36), полином
Tn (x) не имеет.
Итак, все корни полинома Чебышёва Tn (x) в самом деле находятся
на интервале [−1, 1] и выражаются в виде (2.36). Расположение корней
полинома Чебышёва можно наглядно проиллюстрировать чертежом на
Рис. 2.7, где эти корни соответствуют абсциссам точек пересечения
единичной окружности с центром в начале координат с радиусами, от-
кладываемыми через одинаковые доли развёрнутого угла в π радиан.
Из этой иллюстрации хорошо видно, что корни полинома Чебышёва
2.3. Полиномы Чебышёва 89
−1 0 1 x
которое противоположно
по смыслу неравенству (2.37). Тогда разность
T̃n (x) − Qn (x) есть полином степени не выше n − 1. В то же время, в
точках xs = cos(sπ/n), s = 0, 1, . . . , n, доставляющих полиному Чебы-
шёва максимумы модуля на [−1, 1], должно быть справедливо
sgn T̃n (xs ) − Qn (xs ) = sgn (−1)s 21−n − Qn (xs )
= sgn (−1)s 21−n в силу (2.38)
= (−1)s .
такой что
(0) ′ (1) (N0 −1) (N0 −1)
Hm (x0 ) = y0 , Hm (x0 ) = y0 , ... , Hm (x0 ) = y0 ,
(0) ′ (1) (N1 −1) (N −1)
Hm (x1 ) = y1 , Hm (x1 ) = y1 , ... , Hm (x1 ) = y1 1 ,
.. .. .. ..
. . . .
Hm (xn ) = yn(0) , ′
Hm (xn ) = yn(1) , ... , (Nn −1)
Hm (xn ) = yn(Nn −1)
или, кратко,
(k) (k)
Hm (xi ) = yi , i = 0, 1, . . . , n, k = 0, 1, . . . , Ni − 1, (2.44)
(0)
где полагается Hm = Hm . Иными словами, в узлах xi , i = 0, 1, . . . , n,
(k)
как сам полином Hm (x), так и все его производные Hm (x) вплоть
до заданных порядков (Ni − 1) должны принимать предписанные им
(k)
значения yi .
Задачу алгебраической интерполяции с кратными узлами в выпи-
санной выше постановке часто называют также задачей эрмитовой ин-
терполяции, а сам полином Hm (x), решающий эту задачу, называют
интерполяционным полиномом Эрмита по имени Ш. Эрмита, пред-
ложившего его во второй половине XIX века.8 Эта постановка задачи
алгебраической интерполяции с кратными узлами не является самой
общей (порядки производных, для которых задаются значения в узлах,
идут в ней «без пробелов»), но она достаточно практична и хорошо ис-
следована.
Hm (x) = a0 + a1 x + a2 x2 + . . . + am xm ,
гональными полиномами, которые тоже носят его имя и которые правильнее было
бы называть «ортогональными полиномами Чебышёва-Эрмита».
2.4. Интерполяция с кратными узлами 97
Ga = y, (2.45)
Ga = 0.
удовлетворяющие условиям
(
(l) 0, при i 6= j или k 6= l,
φik (xj ) = (2.46)
1, при i = j и k = l.
(l)
φik (xi ) = δkl , k = 0, 1, . . . , Ni − 1, (2.47)
(l)
φik (xj ) = 0, j = 0, 1, . . . , i − 1, i + 1, . . . , n, (2.48)
l = 0, 1, . . . , Ni − 1.
φik (x) = (x − x0 )N0 . . . (x − xi−1 )Ni−1 (x − xi+1 )Ni+1 . . . (x − xn )Nn Qik (x),
f (x) − Hm (x)
K= .
Ω(x)
f (m+1) (ξ)
K = .
(m + 1)!
P10 (x)
Υ (x)
−5 0 5 x
1
Υ (x) =
1 + x2
2.6 Сплайны
2.6а Элементы теории
Определение 2.6.1 Пусть задан некоторый интервал [a, b], кото-
рый разбит на подинтервалы [xi−1 , xi ], i = 1, 2, . . . , n, так что a = x0
и xn = b. Полиномиальным сплайном на [a, b] называется функция,
которая на каждом подинтервале [xi−1 , xi ] является алгебраическим
полиномом и на всём интервале [a, b] непрерывна вместе со своими
производными вплоть до некоторого порядка.
2.6б Интерполяционные
кубические сплайны
В вычислительных технологиях решения различных задач одним из
наиболее популярных инструментов являются полиномиальные сплай-
ны третьей степени с дефектом 1, которые называются также кубиче-
скими сплайнами. Эту популярность можно объяснить относительной
простотой этих сплайнов и тем обстоятельством, что они вполне доста-
точны для отслеживания непрерывности вторых производных функ-
ций, необходимом, например, во многих законах механики и физики.
Пусть задан набор узлов x0 , x1 , . . . , xn ∈ [a, b], такой что a = x0 <
x1 < . . . < xn = b. Как и прежде, мы называем совокупность всех
узлов сеткой. Величину hi = xi − xi−1 , i = 1, 2, . . . , n, назовём ша-
гом сетки. Кубический интерполяционный сплайн на интервале [a, b]
с определённой выше сеткой {x0 , x1 , . . . , xn }, узлы которой являются
также узлами интерполяции — это функция S(x), удовлетворяющая
следующим условиям:
1) S(x) — полином третьей степени на каждом
из подинтервалов [xi−1 , xi ], i = 1, 2, . . . , n;
2) S(x) ∈ C2 [a, b];
116 2. Численные методы анализа
3) S(xi ) = yi , i = 0, 1, 2, . . . , n.
Для построения такого сплайна S(x) нужно определить 4n неизвестных
величин — по 4 коэффициента полинома третьей степени на каждом
из n штук подинтервалов [xi−1 , xi ], i = 1, 2, . . . , n.
Для решения поставленной задачи в нашем распоряжении имеются
3(n − 1) условий непрерывности самой функции S(x), её первой
и второй производных во внутренних узлах x1 , x2 , . . . , xn−1 ;
(n + 1) условие интерполяции S(xi ) = yi , i = 0, 1, 2, . . . , n.
Таким образом, для определения 4n неизвестных величин мы имеем
всего 3(n − 1) + (n + 1) = 4n − 2 условий. Два недостающих условия
определяют различными способами, среди которых часто используют-
ся, к примеру, такие:
S ′′ (a) = S ′′ (x0 ) = γ0 ,
S ′′ (b) = S ′′ (xn ) = γn .
(x − xi )2 (x − xi )3
S(x) = αi + βi (x − xi ) + γi + ϑi (2.56)
2 6
для x ∈ [xi , xi+1 ], i = 0, 1, . . . , n − 1, где αi , βi , γi , ϑi — некоторые
вещественные числа. Ясно, что в такой форме представления сплайна
2.6. Сплайны 117
приводит к соотношениям
h hi + hi+1 hi+1 yi+1 − yi yi − yi−1
i
γi−1 + γi + γi+1 = − ,
6 3 6 hi+1 hi
(2.66)
i = 1, 2, . . . , n − 1,
γ0 и γn заданы.
где h = max1≤i≤n hi .
на интервале [a, b]. Краевые условия (2.67) соответствуют при этом ли-
нейке, свободно закреплённой на концах, где не приложены моменты
каких-либо внешних сил.
В самом деле, потенциальная энергия изгибания малого участка
упругого тела, как известно, пропорциональна квадрату его кривизны
в данной точке. Поэтому в силу (2.68) энергия упругой деформации од-
нородной линейки, принимающей форму кривой y = f (x) на интервале
[a, b], выражается интегралом
Z b
κ ′′
2
3 f (x) dx, (2.70)
a 1 + (f ′ (x))2
a0 + a1 x + . . . + aµ xµ = (b0 + b1 x + . . . + bν xν ) y,
или
a0 + a1 x + . . . + aµ xµ − b0 y + b1 xy + . . . + bν xν y = 0.
Подставляя в это равенство интерполяционные данные xi и yi , i =
0, 1, . . . , n, получим систему из (n + 1)-го линейного алгебраического
2.7. Нелинейные методы интерполяции 127
a0 − b0 y + a1 x − b1 xy + a2 x2 − b2 x2 y + . . . = 0. (2.75)
fi+1 − fi fi+1 − fi
f ′ (xi ) ≈ fx,i := = (2.78)
xi+1 − xi hi+1
— разделённая разность вперёд.
Обе они примерно равнозначны и выбор конкретной из них может быть
делом соглашения, удобства или целесообразности. Например, от на-
правления этой разности может решающим образом зависеть устой-
чивость разностных схем для численного решения дифференциальных
уравнений.
2.8. Численное дифференцирование 133
Поэтому
fi+1 − fi−1
f ′ (xi ) ≈ fx̊,i = , (2.80)
2h
2 2 2
f ′′ (xi ) ≈ P2,i
′′
(x) = fi−1 − fi + fi+1 .
hi (hi + hi+1 ) hi hi+1 hi+1 (hi + hi+1 )
производной —
1
f ′ (xi ) ≈ −11fi + 18fi+1 − 9fi+2 + 2fi+3 , (2.82)
6h
1
f ′ (xi ) ≈ −2fi−1 − 3fi + 6fi+1 − fi+2 , (2.83)
6h
1
f ′ (xi ) ≈ fi−2 − 6fi−1 + 3fi + 2fi+1 , (2.84)
6h
1
f ′ (xi ) ≈ −2fi−3 + 9fi−2 − 18fi−1 + 11fi , (2.85)
6h
для второй производной —
1
f ′′ (xi ) ≈ 2
2fi − 5fi+1 + 4fi+2 − fi+3 , (2.86)
h
1
f ′′ (xi ) ≈ 2 fi−1 − 2fi + fi+1 , (2.87)
h
1
f ′′ (xi ) ≈ 2
−fi−3 + 4fi−2 − 5fi−1 + 2fi . (2.88)
h
В формуле (2.87) один из четырёх узлов, по которым строилась фор-
мула, никак не используется, а сама формула совпадает с формулой
(2.81), полученной по трём точкам. Отметим красивую двойственность
формул (2.82) и (2.85), (2.83) и (2.84), (2.86) и (2.88). Неслучаен также
тот факт, что сумма коэффициентов при значениях функции в узлах
во всех формулах равна нулю: он является следствием того, что про-
изводная постоянной функции — нуль.
fi+1 − fi−1
f ′ (xi ) ≈ fx̊,i = .
2h
Предположим, что f ∈ C3 [ xi−1 , xx+1 ], т. е. функция f трижды непре-
рывно дифференцируема на интервале между узлами формулы. Под-
ставляя её в (2.80) и разлагая относительно точки xi по формуле Тейло-
ра с остаточным членом в форме Лагранжа вплоть до членов второго
порядка, получим
1 ′ h2 ′′ h3 ′′′
fx̊,i = f (xi ) + hf (xi ) + f (xi ) + f (ξ+ )
2h 2 6
!
′ h2 ′′ h3 ′′′
− f (xi ) − hf (xi ) + f (xi ) − f (ξ− )
2 6
h2 ′′′ h2 ′′′
= f ′ (xi ) + f (ξ+ ) + f (ξ− ),
12 12
где ξ+ и ξ− — некоторые точки из открытого интервала ] xi−1 , xi+1 [.
Поэтому
h2 ′′′ αh2
fx̊,i − f ′ (xi ) = f (ξ+ ) + f ′′′ (ξ− ) = ,
12 6
где α = 12 (f ′′′ (ξ+ ) + f ′′′ (ξ− ) . В целом справедлива оценка
fx̊,i − f ′ (xi ) ≤ M3 h2 ,
6
138 2. Численные методы анализа
1 1
−1 0 1 −1 0 1
−5 0 5
M2 M2
|fx,i − f ′ (xi )| ≤ h, |fx,i − f ′ (xi )| ≤ h, (2.90)
2 2
ленного дифференцирования:
1
f ′ (xi ) = −3fi + 4fi+1 − fi+2 + O(h2 ),
2h
1
f ′ (xi ) = fi−2 − 4fi−1 + 3fi + O(h2 ),
2h
1
f ′ (xi ) = −2fi−1 − 3fi + 6fi+1 − fi+2 + O(h3 ),
6h
1
f ′ (xi ) = fi−2 − 6fi−1 + 3fi + 2fi+1 + O(h3 ).
6h
Оценим теперь погрешность формулы (2.81) для второй производ-
ной
fi−1 − 2fi + fi+1
f ′′ (xi ) ≈ fxx,i = .
h2
Обозначая для краткости fi′ = f ′ (xi ) и fi′′ = f ′′ (xi ), получим
1 ′ h2 ′′ h3 ′′′ h4 (4)
fxx,i = 2 fi − hfi + f − f + f (ξ− ) − 2fi
h 2 i 6 i 24
2 3 4
!
h h h
+ fi + hfi′ + f ′′ + f ′′′ + f (4) (ξ+ )
2 i 6 i 24
h2 (4)
= fi′′ + f (ξ− ) + f (4) (ξ+ ) ,
24
где ξ− , ξ+ — некоторые точки из открытого интервала ]xi−1 , xi+1 [ . По-
этому если f ∈ C4 [xi−1 , xi+1 ], то справедлива оценка
M4 2
|f ′′ (xi ) − fxx,i | ≤ h ,
12
где M4 = maxξ |f (4) (ξ)|. Таким образом, порядок точности этой форму-
лы равен 2 на функциях из C4 .
Приведём ещё без вывода результат о погрешности формулы для
вычисления второй производной вблизи края сетки (таблицы):
1
f ′′ (xi ) = 2
2fi − 5fi+1 + 4fi+2 − fi+3 + O(h2 ),
h
1
f ′′ (xi ) = 2 fi−3 − 4fi−2 + 5fi−1 − 2fi + O(h2 ).
h
142 2. Численные методы анализа
Порядок этих формул всего лишь второй, откуда видна роль симмет-
ричности шаблона в трёхточечной формуле (2.81) с тем же порядком
точности.
Что произойдёт, если дифференцируемая функция не будет иметь
достаточную гладкость? Тогда мы не сможем выписывать необходи-
мое количество членов разложения по формуле Тейлора, и потому по-
лученный порядок точности формул с помощью метода разложений
установить не сможем. Тот факт, что в этих условиях реальный поря-
док точности может быть в самом деле меньшим, чем для функций с
высокой гладкостью, показывает следующий
а в нуле
x |x|
g ′ (0) = lim = 0.
x→0 x
Таким образом, производная g ′ (x) = 2 |x| всюду непрерывна. Но она
недифференцируема в нуле, так что вторая производная g ′′ (0) уже не
существует. Как следствие, g(x) ∈ C1 , но g(x) 6∈ C2 на любом интервале,
содержащем нуль.
Воспользуемся для численного нахождения производной g ′ (0) фор-
мулой центральной разности (2.80) на шаблоне с шагом h, симметрич-
ном относительно нуля:
E(h, δ)
0 h
1
Рис. 2.17. Возмущение функции добавкой n
sin(nx).
формулой вида21
X
f (k) (x) = h−k ci f (xi ) + Rk (f, x), (2.95)
i
f ′ (x) + cos(nx)
(u + v)′ = u′ + v ′ , (2.96)
′ ′ ′
(u − v) = u − v , (2.97)
(uv)′ = u′ v + uv ′ , (2.98)
u ′ u′ v − uv ′
= . (2.99)
v v2
мул (2.96)–(2.99):
m
X
D(a1 , a2 , . . . , am ) =
f − aj φj
,
j=1
y, то имеем
D(a1 , a2 , . . . , am ) − D(ã1 , ã2 , . . . , ãm )
m
X
m
X
=
f − aj φj
−
f − ãj φj
j=1 j=1
! !
m
X m
X
≤
f− aj φj − f− ãj φj
j=1 j=1
Xm
m
X
≤
(aj − ãj )φj
≤ aj − ãj kφj k
j=1 j=1
m
X
≤ max aj − ãj · kφj k.
1≤j≤m
j=1
f
U
V
u~
inf kf − uk ≤ kf − ũk.
u∈U
Поэтому
inf D(a) ≤ kf − ũk.
a∈Rm
Величина
Xm
C := min′
c j φj
kck =1
j=1
≤ 1
2 k f − u′ k + 1
2 k f − u′′ k = µ.
Строгого неравенства в выписанной цепочке отношений быть не мо-
жет, так как оно означало бы существование элемента, приближающе-
го f лучше, чем наилучшие приближения u′ и u′′ . Поэтому необходимо
должно выполняться
f − u′ + f − u′′
=
f − u′
+
f − u′′
.
160 2. Численные методы анализа
n
!1/p
X
p
kxkp = |xi | .
i=1
При p > 1 это в самом деле норма n-векторов, так как для неё выпол-
нены все аксиомы нормы (см. §3.3а). Неотрицательность и абсолютная
однородность k · kp очевидны, а выполнение неравенства треугольника
следует из неравенства Минковского
n
!1/p n
!1/p n
!1/p
X X X
| xi + yi |p ≤ | xi |p + | y i |p
i=1 i=1 i=1
(см. [12, 15, 16, 35, 38, 41]). Из свойств неравенства Минковского вы-
текает, кроме того, что равенство в нём при p > 1 возможно лишь
для коллинеарных x и y. По этой причине пространство Rn с p-нормой
является строго нормированным при p > 1.
В частности, строго нормировано пространство Rn с 2-нормой,
q
kxk2 = x21 + x22 + · · · + x2n ,
x2
x1
n
!1/2
X
kf k := fi2 ,
i=1
n
!1/2
1 X
dist (f, g) = kf − gk = ̺i (fi − gi )2 . (2.109)
n i=1
Под знаком степени «1/2» в этих выражениях стоит не что иное как
усреднение квадратов компонент векторов с весовыми множителями ̺i ,
i = 1, 2, . . . , n.
Весовые множители полезны для того, чтобы представить возмож-
ную неравноценность компонент вектора. Например, если известна ин-
формация о точности задания отдельных значений функции fi , то ве-
са ̺i можно назначать так, чтобы отразить величину этой точности,
сопоставляя бо́льший вес более точным значениям fi . Нормирующий
множитель n1 при суммах в (2.107), (2.108) и (2.109) удобно брать для
того, чтобы с ростом размерности n (при росте количества наблюде-
ний, измельчении сетки и т. п.) ограничить рост величины скалярного
произведения и порождённой им нормы, обеспечив тем самым соизме-
римость результатов при различных n.
Если f и g — функции непрерывного аргумента, то обычно полагают
скалярное произведение равным
Z b
hf, gi = ̺(x)f (x) g(x) dx, (2.110)
a
Φ = kf − gk2 = hf − g, f − gi
так что значение υ при возрастании kck2 может сделаться сколь угодно
большим. Наконец, неограниченный рост функции Φ(c) = Φ(c1 , c2 , . . . ,
cm ) при росте kgk следует из неравенства
2
Φ(c1 , c2 , . . . , cm ) = kf − gk2 ≥ kgk − kf k ,
m
X
hϕi , ϕj i cj = hf, ϕi i, i = 1, 2, . . . , m. (2.117)
j=1
2.10. Приближение функций 167
Матрица её коэффициентов
hϕ1 , ϕ1 i hϕ1 , ϕ2 i . . . hϕ1 , ϕm i
hϕ , ϕ i hϕ , ϕ i . . . hϕ , ϕ i
2 1 2 2 2 m
Γ(ϕ1 , ϕ2 , . . . , ϕm ) = . . .. .
(2.118)
.. .. . ..
hϕm , ϕ1 i hϕm , ϕ2 i . . . hϕm , ϕm i
называется, как известно, матрицей Грама системы векторов ϕ1 , ϕ2 ,
. . . , ϕm . В курсах линейной алгебры и аналитической геометрии по-
казывается, что матрица Грама — это симметричная матрица, неосо-
бенная тогда и только тогда, когда векторы ϕ1 , ϕ2 , . . . , ϕm линейно
независимы (см., к примеру, [35]). При выполнении этого условия мат-
рица Грама является ещё и положительно определённой. Таким обра-
зом, решение системы уравнений (2.117) существует и единственно, ес-
ли ϕ1 , ϕ2 , . . . , ϕm образуют базис в подпространстве G. Тогда функция
Φ(c1 , c2 , . . . , cm ) имеет единственную стационарную точку, в которой
зануляются все производные.
Дифференцируя функцию Φ второй раз, нетрудно найти её гесси-
ан, т. е. матрицу вторых производных. Она постоянна и равна удвоен-
ной матрице Грама (2.118), и поэтому является положительно опреде-
лённой. Применяя известное из математического анализа достаточное
условие экстремума функции многих переменных, которое основано на
информации о вторых производных (см. [12, 38]), можем заключить,
что в стационарной точке функции Φ, т. е. на решении системы (2.117),
в самом деле достигается минимум. Этот минимум является глобаль-
ным, так как других стационарных точек гладкая функция Φ не име-
ет, а «на бесконечности», т. е. при неограниченном удалении аргумента
(c1 , c2 , . . . , cm ) от нуля, значения Φ неограниченно возрастают.
Подведём итоги. Для нахождения наилучшего среднеквадратично-
го приближения нужно
1) по базису {ϕ1 , ϕ2 , . . . , ϕm } подпространства G организовать
матрицу Грама G = Γ(ϕ1 , ϕ2 , . . . , ϕm );
2) по приближаемому вектору f и базису подпространства G
организовать вектор b = (hf, ϕ1 i, . . . , hf, ϕ2 i, . . . , hf, ϕm i)⊤ ;
3) решить систему линейных уравнений Gc = b, определив
коэффициенты разложения c = (c1 , c2 , . . . , cm )⊤ наилучшего
среднеквадратичного приближения;
4) по найденным коэффициентам разложения построить вектор
168 2. Численные методы анализа
Pm
наилучшего среднеквадратичного приближения g = i=1 ci ϕi .
x 1 2 3
.
y 1 1 2
0 1 2 3 x
y(x) = 13
98 x2 + 70
98 ≈ 0.1326531 x2 + 0.7142857,
g
0
kf − gk2 = hf − g, f − gi = hu + v, u + vi
= hu, ui + 2hu, vi + hv, vi = kuk2 + kvk2 ,
G = lh { ϕ1 , ϕ2 , . . . , ϕm }
Φ(c1 , c2 , . . . , cm ) = kf − gk2
m
X m X
X m
= hf, f i − 2 ci hf, ϕi i + ci cj hϕi , ϕj i.
i=1 i=1 j=1
Ax = b
Легко видеть, что это не что иное, как ij-ый элемент матрицы A⊤A.
В правой части системы уравнений (2.117) в качестве i-ой компо-
ненты стоит скалярное произведение i-го столбца A и вектора b, т. е.
m
X
aki bk ,
k=1
A⊤Ax = A⊤ b.
0 1 2 3 x
2.10ж Среднеквадратичное
приближение функций
В этом разделе мы применим развитый в §2.10в общий подход к кон-
кретной задаче наилучшего среднеквадратичного приближения функ-
ций, заданных на интервале вещественной оси. Помимо математиче-
ской элегантности среднеквадратичное приближение в прикладных за-
дачах, как правило, имеет ясный содержательный смысл.
180 2. Численные методы анализа
Z b Z b Z b
2 2
̺(x) f (x) dx + 2 ̺(x) f (x) g(x) dx + ̺(x) g(x) dx,
a a a
а нормой берём
Z 1 1/2
2
kf k = f (x) dx .
0
Соответственно, расстояние между функциями определяется тогда как
Z 1 1/2
2
dist (f, g) = kf − gk = f (x) − g(x) dx .
0
184 2. Численные методы анализа
...
0 1 x
1, x, x2 , ..., xm ,
2 4 6
0 x
для любых k, l, и
Z 2π Z 2π
sin(kx) sin(lx) dx = 0, cos(kx) cos(lx) dx = 0
0 0
приближений. Ясно, что вместо интервала [0, 2π] можно взять любой
другой интервал, ширина которого равна периоду 2π, а подходящим
масштабированием из него можно получить вообще любой интервал
вещественной оси.
Из Рис. 2.27 видно, что поведение функций тригонометрической си-
стемы — совершенно другое, нежели у последовательных степеней на
Рис. 2.26: функции тригонометрической системы «существенно отли-
чаются» друг от друга, и это приводит к «хорошей» матрице Грама.
Отметим, что исторически первые ряды Фурье были построены
Ж.Б. Фурье в начале XIX века именно как разложения по тригоно-
метрической системе функций (2.122).
q1 ← v1 , (2.123)
k−1
X hvk , qi i
qk ← vk − qi , k = 2, . . . , n. (2.124)
i=1
hqi , qi i
y = 12 (b − a) x + 21 (a + b)
1, x, x2 − 31 , x3 − 3
5 x, ... (2.125)
1 dn 2 n
Ln (x) = x −1 , n = 0, 1, 2, . . . . (2.126)
2n n! dxn
Z 1 0, если m 6= n,
Lm (x)Ln (x) dx = 2
−1 , если m = n.
2n + 1
Доказательство. Обозначая
dk 2 n
ψ (k) (x) = k
x −1 =0 при x = ±1.
dx
1
Ln (x) = ψ (n) (x), n = 0, 1, 2, . . . .
2n n!
Z 1 Z 1
1
Q(x) Ln (x) dx = n Q(x) ψ (n) (x) dx
−1 2 n! −1
Z 1
1
= n
Q(x) d ψ (n−1) (x)
2 n! −1
!
1 1 Z 1
(n−1) ′ (n−1)
= n Q(x) ψ (x) − Q (x) ψ (x) dx
2 n! −1 −1
Z 1
1
=− n
Q′ (x) ψ (n−1) (x) dx
2 n! −1
= ··· ···
Z 1
1 n
= (−1) n Q(n) (x) ψ(x) dx. (2.127)
2 n! −1
(n)
(n) 1 dn 2 n 1 d2n 2 n (2n)!
Q (x) = x −1 = x −1 = n .
2n n! dxn 2n n! dx2n 2 n!
192 2. Численные методы анализа
Z 1
(2n)!
= (−1)n (x2 − 1)n dx. (2.128)
2 (n!)2
2n
−1
Z 1
1
= (x − 1)n d (x + 1)n+1
n+1 −1
1 Z 1
1 n n+1 n−1 n+1
= (x − 1) (x + 1) −n (x − 1) (x + 1) dx
n+1 −1 −1
Z 1
(−1) n
= (x − 1)n−1 (x + 1)n+1 dx
n+1 −1
= ··· ···
Z 1
(−1)n n!
= (x − 1)0 (x + 1)2n dx
(n + 1) · . . . · 2n −1
1
(−1)n (n!)2 (x + 1)2n+1 (−1)n (n!)2 22n+1
= = .
(2n)! 2n + 1
−1 (2n)! 2n + 1
L0 (x) = 1,
L1 (x) = x,
··· .
0.8
0.6
0.4
0.2
−0.2
−0.4
−0.6
−0.8
−1
Таким образом, γ(x) уже не меняет знака на интервале [−1, 1]. Ясно,
что s ≤ n, и наша задача — установить равенство s = n.
Рассмотрим интеграл
Z 1
I= Ln (x) (x − θ1 )(x − θ2 ) · · · (x − θs ) dx
−1
Z 1
= (x − θ1 )α1 +1 (x − θ2 )α2 +1 · · · (x − θs )αs +1 γ(x) dx.
−1
n! dn 2 n
= n
x −1 , (2.130)
(2n)! dx
196 2. Численные методы анализа
2n (n!)2
L̃n (x) = Ln (x). (2.131)
(2n)!
Z 1
= 2 Qn (x) xk dx = 0, k = 0, 1, . . . , n − 1. (2.134)
−1
2.11. Полиномы Лежандра 197
Эрмита (см., к примеру, [48, 80]), поскольку они были известны ещё П.Л.Чебышёву.
2.12. Численное интегрирование 199
Z b
f (x) dx = F (b) − F (a), (2.136)
a
Z b n
X
f (x) dx ≈ ck f (xk ), (2.137)
a k=0
?
x
где xk ∈ D ⊂ Rm , D — область в Rm , m ≥ 2,
называют кубатурными формулами.24 Нередко узлы и веса квадра-
турной или кубатурной формулы нумеруют с единицы, а не с нуля.
Естественное условие принадлежности узлов xk области интегрирова-
ния вызвано тем, что за её пределами подинтегральная функция может
быть просто не определена.
Помимо формул вида (2.137) применяются также квадратурные
формулы, использующие значения производных интегрируемой функ-
ции в узлах (см. [30]). Но мы не будем рассматривать их в этом курсе.
Тот факт, что квадратурные и кубатурные формулы являются ли-
нейными выражениями от значений интегрируемой функции в узлах,
объясняется линейным характером зависимости самого интеграла от
подинтегральной функции. С другой стороны, квадратурные форму-
лы можно рассматривать как обобщения интегральных сумм Римана
(через которые интеграл Римана и определяется, см. [12, 38]). Так, про-
стейшие составные квадратурные формулы прямоугольников просто
совпадают с этими интегральными суммами.
24 «Квадратура» в оригинальном смысле, восходящем ещё к античности, означала
Z b n
X Z b
f (x) dx ≈ f (xk ) γk (x) dx.
a k=0 a
Оно и является
R квадратурной формулой с узлами x0 , x1 , . . . , xn и
весами ck = γk (x) dx, k = 0, 1, . . . , n.
В случае, когда подинтегральная функция f (x) заменяется интер-
полянтом и все рассматриваемые узлы — простые, говорят о квадра-
турных формулах интерполяционного типа, или, что равносильно, об
интерполяционных квадратурных формулах. Наиболее часто подинте-
гральную функцию интерполируют алгебраическими полиномами, и в
нашем курсе мы будем рассматривать, главным образом, именно такие
интерполяционные квадратурные формулы.
Популярность и развитость интерполяционных квадратурных фор-
мул объясняется их практичностью: в большинстве реальных задач,
требующих вычисления интегралов, сами подинтегральные функции
задаются лишь набором своих значений в ряде точек-узлов. Таким об-
разом, интерполяционные квадратурные формулы неявно выполняют
ещё и работу по восстановлению интегрируемой функции, что чрезвы-
чайно удобно на практике.
Формулами Ньютона-Котеса называют интерполяционные квад-
ратурные формулы, которые получены с помощью алгебраической ин-
терполяции подинтегральной функции на равномерной сетке с просты-
ми узлами. В зависимости от того, включаются ли концы интервала
интегрирования [a, b] в множество узлов квадратурной формулы или
нет, различают формулы Ньютона-Котеса замкнутого типа и откры-
того типа. В вычислительной практике используются как первые, так
и вторые.
Далее мы построим и исследуем формулы Ньютона-Котеса для n =
0, 1, 2, причём будем строить наиболее популярные формулы замкнуто-
го типа. Исключением станет случай n = 0, когда имеется всего один
узел и замкнутая квадратурная формула просто невозможна.
Если n = 0, то подинтегральная функция f (x) интерполируется
полиномом нулевой степени, т. е. какой-то константой, равной значению
f (x) в единственном узле x0 ∈ [a, b]. Соответствующая квадратурная
204 2. Численные методы анализа
Z b
f (x) dx ≈ (b − a) · f (x0 ) .
a
x0 = 21 (a + b),
Z b a + b
f (x) dx ≈ (b − a) · f ,
a 2
Z b a + b
R(f ) = f (x) dx − (b − a) · f
a 2
Z b a + b
= f (x) − f dx
a 2
Z b
′ a+b
a + b f ′′ (ξ(x)) a + b 2
= f · x− + · x− dx
a 2 2 2 2
Z b
f ′′ (ξ(x)) a + b 2
= · x− dx,
a 2 2
поскольку
Z b Z b−a
a + b 2
x− dx = t dt = 0,
a 2 b−a
− 2
Mp := max f (p) (x)
x∈[a,b]
206 2. Численные методы анализа
b b
f (a) (x − b)2 f (b) (x − a)2
= + b−a
a−b 2 a 2
a
b−a
= f (a) + f (b) .
2
Мы вывели квадратурную формулу трапеций
Z b
b−a
f (x) dx ≈ · f (a) + f (b) , (2.140)
a 2
1 3
= 2 b − a3 − 3(a + b) b2 − a2 + 6ab(b − a)
6
1 (b − a)3
= −b3 + 3ab2 − 3a2 b + a3 = − .
6 6
Поэтому окончательно
M2 (b − a)3
|R(f )| ≤ .
12
Эта оценка погрешности квадратурной формулы трапеций неулучшае-
ма, поскольку достигается при интегрировании функции g(x) = (x−a)2
по интервалу [a, b].
x0 = a, x1 = 21 (a + b), x2 = b
2.12. Численное интегрирование 209
99K
a b
0 w
то
c0 = f (a),
w w2 a + b
c0 + c1 + c2 =f , (2.142)
2 4 2
c0 + c1 w + c2 w2 = f (b).
равна
Z w w2 w3
c0 + c1 x + c2 x2 dx = c0 w + c1 + c2
0 2 3
w
6c0 + 3c1 w + 2c2 w2 .
=
6
Фактически, для построения квадратурной формулы требуется подста-
вить в полученное выражение c0 , c1 и c2 , которые найдены в результа-
те решения системы уравнений (2.142). Но можно выразить трёхчлен
6c0 + 3c1 w + 2c2 w2 через значения подинтегральной функции f в узлах,
не решая систему (2.142) явно.
Умножая второе уравнение системы (2.142) на 4 и складывая с пер-
вым и третьим уравнением, получим
a + b
6c0 + 3c1 w + 2c2 w2 = f (a) + 4f + f (b).
2
Таким образом,
Z w Z w
P̆2 (x) dx = c0 + c1 x + c2 x2 dx
0 0
a + b
w
= f (a) + 4f + f (b) ,
6 2
что даёт приближённое равенство
Z b
b−a a + b
f (x) dx ≈ · f (a) + 4f + f (b) . (2.143)
a 6 2
известна Б. Кавальери ещё в начале XVII века. Затем Дж. Грегори опубликовал её
в 1668 году, а Т. Симпсон вывел в своей диссертации 1743 года.
2.12. Численное интегрирование 211
a + b
x− (x − b) (x − a)(x − b) a + b
P2 (x) = 2 f (a) + f
a+b a+b a+b
2
a− (a − b) −a −b
2 2 2
a + b
(x − a) x −
+ 2 f (b)
a + b
(b − a) b −
2
2 a + b a + b
= x − (x − b) f (a) − 2(x − a)(x − b) f
(b − a)2 2 2
a+b
+ (x − a) x − f (b) ,
2
Z b
b 4 − a4
x3 dx = .
a 4
212 2. Численные методы анализа
f (4) ξ(x) a + b 2
f (x) − H3 (x) = · (x − a) x − (x − b).
24 2
Z b
b−a a + b
H3 (x) dx = · H3 (a) + 4H3 + H3 (b)
a 6 2
b−a a + b
= · f (a) + 4f + f (b) . (2.147)
6 2
Z b
b−a a + b
R(f ) = f (x) dx − · f (a) + 4f + f (b)
a 6 2
Z b
= f (x) − H3 (x) dx в силу (2.147)
a
Z b
f (4) ξ(x) a + b 2
= · (x − a) x − (x − b) dx из (2.146).
a 24 2
Z
b f (4) ξ(x) a + b 2
|R(f )| = · (x − a) x − (x − b) dx
a 24 2
Z b f (4) ξ(x) a + b 2
≤ · (x − a) x − (x − b) dx
a 24 2
Z
M4 b a + b 2
≤ · (x − a) x − (x − b) dx , (2.148)
24 a 2
a + b 2
(x − a) x − (x − b)
2
a+b
t=x− ,
2
2.12. Численное интегрирование 215
тогда
Z b a + b 2
(x − a) x − (x − b) dx
a 2
Z b−a
2 b − a 2 b − a
= t+ t t− dt
−
b−a 2 2
2
Z b−a
2 (b − a)2 (b − a)5
= t2 t2 − dt = − .
b−a
− 2 4 120
Окончательно
M4 (b − a)5
|R(f )| ≤ . (2.149)
2880
Как видим, более тонкие рассуждения о свойствах формулы Симпсона
позволили получить действительно более точную оценку её погрешно-
сти.
где
Mn+1 (b − a)n+2
≤ ,
(n + 1)!
где Mn+1 = maxx∈[a,b] |f (n+1) (x)|. Они ещё раз показывает, что квадра-
турная формула интерполяционного типа, построенная по (n+1) узлам,
является точной для любого полинома степени не более n, поскольку
тогда Mn+1 = 0.
Оценка (2.152), как видно из наших рассуждений, является про-
стейшей, использующей лишь основные свойства алгебраического ин-
терполянта. В некоторых случаях она может оказаться существенно
завышенной, что мы могли видеть на примере формулы Симпсона.
Другое необходимое замечание состоит в том, что оценка (2.152),
основанная на формуле Коши для погрешности алгебраической ин-
терполяции, может оказаться практически не очень удобной, так как
требует информацию о производных довольно высоких порядков при
числе узлов, большем чем 2. Это можно было почувствовать уже на
примере формулы Симпсона. Оценки погрешности квадратурных фор-
мул, основанные на производных первых порядков от подинтегральной
функции, можно найти в книге [30]. Кроме того, популярны оценки по-
грешности квадратур через разделённые разности, см. [77].
(n) b−a
xk = a + kh, k = 0, 1, . . . , n, h= .
n
Для определения весов формул Ньютона-Котеса необходимо вычис-
лить величины (2.151), т. е. интегралы от базисных интерполяционных
полиномов Лагранжа. Обозначим их для рассматриваемого случая как
Z b (n) (n) (n) (n)
(n) x − x0 · · · x − xk−1 x − xk+1 · · · x − xn
Ak = (n) (n) (n) (n) (n) (n) (n) (n)
dx,
a xk − x0 · · · xk − xk−1 xk − xk+1 · · · xk − xn
k = 0, 1, . . . , n. Сделаем в этом интеграле замену переменных x = a+th,
где t пробегает интервал [0, n]. Тогда
dx = h dt,
(n) (n) (n) (n)
x − x0 · · · x − xk−1 x − xk+1 · · · x − xn
= hn t(t − 1) · · · (t − k + 1)(t − k − 1) · · · (t − n),
(n) (n) (n) (n) (n) (n) (n) (n)
xk − x0 · · · xk − xk−1 xk − xk+1 · · · xk − xn
= (−1)n−k hn k!(n − k)!,
где считается, что 0! = 1. Окончательно
Z n
(n) (−1)n−k
Ak = h t(t − 1) · · · (t − k + 1)(t − k − 1) · · · (t − n) dt,
k!(n − k)! 0
k = 0, 1, . . . , n. Чтобы придать результату не зависящий от интервала
интегрирования вид, положим
(n) (n)
Ak = (b − a) Bk ,
где
Z n
(n) (−1)n−k
Bk = t(t − 1) · · · (t − k + 1)(t − k − 1) · · · (t − n) dt.
n k!(n − k)! 0
(n)
Теперь уже величины Bk не зависят от h и [a, b]. Они носят название
коэффициентов Котеса и, фактически, являются весами квадратур-
ных формул Ньютона-Котеса для интервала интегрирования [0, 1].
220 2. Численные методы анализа
К примеру, для n = 1
Z 1 1
(1) (t − 1)2 1
B0 = − (t − 1) dt = − = 2,
0 2 0
Z 1 1
(1) t2 1
B1 = t dt = = .
0 2 0 2
n 1 2 3 4 5 6 7 8 9 10
1 1 1 7 19 41 751 989 2857 16067
k=0 2 6 8 90 288 840 17280 28350 89600 598752
16067
k = 10 598752
1.0 1.0
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0 0
2 4 6 8 10 2 4 6 8 10
-0.2 -0.2
-0.4 -0.4
(n)
то при достаточно больших n среди коэффициентов Bk обязательно
должны быть как положительные, так и отрицательные. Доказатель-
ство упрощённого варианта этого результата можно найти в [29].
Общую теорию квадратурных формул Ньютона-Котеса вместе с
тщательным исследованием их погрешностей читатель может увидеть,
к примеру, в книгах [3, 20, 65]. Следует сказать, что формулы Ньютона-
Котеса высоких порядков не очень употребительны. Помимо отмечен-
ной выше численной неустойчивости они проигрывают по точности ре-
зультатов на одинаковом количестве узлов формулам Гаусса (изучае-
мым далее в §2.14) и другим квадратурным формулам.
Из квадратурных формул Ньютона-Котеса приведём ещё форму-
лу «трёх восьмых», которая получается при замене подинтегральной
функции интерполяционным полиномом 3-й степени:
Z b
b−a 2a + b a + 2b
f (x) dx ≈ · f (a) + 3f + 3f + f (b) .
a 8 3 3
Z b
b−a
f (x) dx ≈ ·
a 90
3a + b a + b a + 3b .
· 7f (a) + 32f + 12f + 32f + 7f (b)
4 2 4
M6 (b − a)7
|R(f )| ≤ ,
1 935 360
где M6 = maxx∈[a,b] |f (6) (x)|.
Вообще, можно показать, что формулы Ньютона-Котеса с нечётным
числом узлов, один из которых приходится на середину интервала ин-
тегрирования, имеют (как формула Симпсона) повышенный порядок
точности. Подробности читатель может увидеть в [1, 3, 20].
невысокие качества, в известной книге Дж. Скарборо [77] даётся даже такой кате-
горичный совет: «Никогда не используйте вторую формулу Симпсона».
224 2. Численные методы анализа
а затем положить
Z b N
X −1
f (x) dx ≈ Ji . (2.153)
a i=0
N −1 p N −1 p
X b−a X b−a
|R̃(f )| ≤ K[ri ,ri+1 ] ≤ K[a,b]
i=0
N i=0
N
p
b−a K[a,b] (b − a)p
= N K[a,b] =
N N p−1
Z b N
X
f (x) dx ≈ h f (xi−1/2 ) ,
a i=1
(b − a)h2
|R̃(f )| ≤ M2 ,
24
т. е. она имеет второй порядок точности. Эта формула, как нетрудно
видеть, совпадает с интегральной суммой Римана для интеграла от
f (x) по интервалу [a, b].
Составная формула трапеций
Z b N
X −1
1 1
f (x) dx ≈ h 2 f (a) + f (xi ) + 2 f (b) .
a i=1
Её полная погрешность
(b − a)h2
|R̃(f )| ≤ M2 ,
12
2.13. Составные квадратурные формулы 227
Z b
h
f (x) dx ≈ f (a) + 4 f (x1 ) + f (x3 ) + . . . + f (x2N −1 )
a 6 .
+ 2 f (x2 ) + f (x4 ) + . . . + f (x2N −2 ) + f (b)
(b − a)h4
|R̃(f )| ≤ M4 ,
2880
Отсюда
c1 = b − a,
1 2
x1 = (b − a2 ) = 12 (a + b).
2c1
Как легко видеть, получающаяся квадратурная формула — это фор-
мула (средних) прямоугольников
Z b a+b
f (x) dx ≈ (b − a) · f .
a 2
Нам в самом деле известно (см. §2.12б), что она резко выделяется своей
точностью среди родственных квадратурных формул.
Пусть n = 2, тогда алгебраическая степень точности соответствую-
щей квадратурной формулы равна m = 2n − 1 = 3. Система уравнений
(2.157) для узлов и весов принимает вид
c1 + c2 = b − a,
c1 x1 + c2 x2 = 21 (b2 − a2 ),
1 3
c1 x21 + c2 x22 = 3 (b − a3 ),
1 4
c1 x31 + c2 x32 = 4 (b − a4 ).
x1 + x2 = a + b. (2.158)
x2 − (a + b) x + 16 (b2 + 4ab + a2 ) = 0,
так что
√
1 3
x1,2 = (a + b) ± (b − a). (2.161)
2 6
Удовлетворение полученными решениями четвёртого уравнения систе-
мы проверяется прямой подстановкой. Кроме того, поскольку
√
1 1 1 3
> ·√ = ,
2 2 3 6
Z b
b−a
f (x) dx ≈ · f (x1 ) + f (x2 ) , (2.162)
a 2
= 0.998473.
ω(x) = (x − x1 )(x − x2 ) · · · (x − xn ),
236 2. Численные методы анализа
что Z b
ω(x) q(x) dx = 0 (2.163)
a
Выражение
Z b
ω(x) q(x) dx
a
поскольку все ω(xk ) = 0. Так как этот результат верен для любого
полинома q(x) степени не выше n − 1, то отсюда следует выполнение
условия (б).
Справедливость условия (а) следует из Теоремы 2.12.1: если постро-
енная по n узлам квадратурная формула (2.156) является точной для
любого полинома степени не менее n − 1, то она — интерполяционная.
2.14. Квадратуры наивысшей степени точности 237
xi = 12 (a + b) + 21 (b − a) yi , i = 1, 2, . . . , n. (2.167)
2.14. Квадратуры наивысшей степени точности 239
и потому
Z b Z 1
1
ck = φk (x) dx = 2 (b − a) φk (y) dy, k = 1, 2, . . . , n,
a −1
Узлы Веса
n=2
±0.57735 02691 89626 1.00000 00000 00000
n=3
0.00000 00000 00000 0.88888 88888 88889
±0.77459 66692 41483 0.55555 55555 55556
n=4
±0.33998 10435 84856 0.65214 51548 62546
±0.86113 63115 94053 0.34785 48451 37454
n=5
0.00000 00000 00000 0.56888 88888 88889
±0.53846 93101 05683 0.47862 86704 99366
±0.90617 98459 38664 0.23692 68850 56189
Для n = 4
L4 (x) = 1
8 35x4 − 30x2 + 3 ,
и нахождение корней этого биквадратного полинома труда не пред-
ставляет. Аналогично и для n = 5, когда
L5 (x) = 81 63x5 − 70x3 + 15x = 18 x 63x4 − 70x2 + 15 .
n
X Z b
= ci H2n−1 (xi ) + R2n−1 (f, x) dx
i=1 a
2
копостоянство множителя ω(x) . В силу интегральной теоремы о
среднем (см., к примеру, [12, 38]) имеем
Z b Z b
2 2
f (2n) ξ(x) ω(x) dx = f (2n) (θ) ω(x) dx
a a
2y − (b + a)
x= .
(b − a)
(n!)4 2n+1
|R(f )| ≤ 3 M2n (b − a) ,
(2n + 1) (2n)!
244 2. Численные методы анализа
По этой причине
(n!)4 2n+1 1
3 (b − a) < (b − a)2n+1 .
(2n + 1) (2n)! (2n + 1)(n!)2
x
0 π 2π
1, sin(px), cos(px), p = 1, 2, . . . .
248 2. Численные методы анализа
0
(2) (2)
x
0 x1 ···
(3) (3) (3)
, (2.169)
x
0 x1 x2 ···
.. .. .. .. ..
. . . . .
(n) (n) (n)
таких что xk лежат на интервале интегрирования [a, b] и xi 6= xj
при i 6= j, необходимо задавать ещё и треугольную матрицу весовых
коэффициентов квадратурных формул
(1)
c0 ···
0
(2) (2)
c
0 c1 ···
(3) (3) (3) . (2.170)
c
0 c1 c2 ···
.. .. .. .. ..
. . . . .
В случае задания бесконечных треугольных матриц (2.169)–(2.170), по
которым организуется приближённое вычисление интегралов на после-
довательности сеток, будем говорить, что на интервале [a, b] для функ-
ции f определён квадратурный процесс.
Определение 2.16.1 Квадратурный процесс, задаваемый зависящим
от целочисленного параметра n семейством квадратурных формул
Z b n
X (n) (n)
f (x) dx ≈ ck f xk , n = 0, 1, 2, . . . ,
a k=0
2.16. Сходимость квадратур 249
для всех n = 0, 1, 2, . . . .
ck
0.03
0.02
0.01
k
0 48 96
Z b
Πi (x) dx = ci Πi (xi ).
a
Следовательно,
Z b .
ci = Πi (x) dx Πi (xi ).
a
для некоторой точки c ∈ [a, b]. Смысл «средней точки» c можно понять
глубже с помощью следующего рассуждения. Пусть интервал интегри-
рования [a, b] разбит на N равных подинтервалов. По определению ин-
теграла Римана, если xi — точки из этих подинтервалов, то
Z b N N
X b−a 1 X
f (x) dx ≈ f (xi ) = (b − a) · f (xi )
a i=1
N N i=1
для достаточно больших N . Сумма в правой части — это произведение
ширины интервала интегрирования (b − a) на среднее арифметическое
значений подинтегральной функции f в точках xi , i = 1, 2, . . . , N . Та-
ким образом, интеграл от f (x) по [a, b] есть не что иное, как «среднее
значение» функции f (x) на интервале [a, b], умноженное на ширину
этого интервала.
Но при таком взгляде на искомый интеграл нетрудно заметить, что
«среднее значение» функции f (x) можно получить каким-либо суще-
ственно более эффективным способом, чем простое увеличение коли-
чества равномерно расположенных точек xi . Например, можно попы-
таться раскидывать эти точки случайно по [a, b], но «приблизительно
254 2. Численные методы анализа
0 x
Ih − I ≈ Chp ,
p
h hp
Ih/2 − I ≈ C = C p.
2 2
2.18. Правило Рунге для оценки погрешности 259
hp 2p − 1
Ih − Ih/2 ≈ Chp − C p
= Chp ,
2 2p
так что
2p Ih − Ih/2
C ≈ · . (2.175)
2p−1 hp
Зная константу C и порядок точности используемого метода, можно
уже находить оценку погрешности рассчитанных решений Ih , Ih/2 или
любых других
Правило Рунге работает плохо, если главный член погрешности Chp
не доминирует над последующими членами её разложения, которые
соответствуют (p + 1)-ой и более высоким степеням шага сетки h. Это
происходит, как правило, для сильно меняющихся решений.
Литература к главе 2
Основная
[1] Барахнин В.Б., Шапеев В.П. Введение в численный анализ. – Санкт-
Петербург–Москва– Краснодар: Лань, 2005.
[2] Бахвалов Н.С., Жидков Н.П., Кобельков Г.М. Численные методы. –
Москва: Бином, 2003, а также другие издания этой книги.
[3] Березин И.С., Жидков Н.П. Методы вычислений. Т. 1–2. – Москва: Наука,
1966.
[4] Брадис В.М. Четырехзначные математические таблицы. – Москва: Дрофа,
2010, а также более ранние издания.
[5] Вержбицкий В.М. Численные методы. Части 1–2. – Москва: «Оникс 21 век»,
2005.
[6] Волков Е.А. Численные методы. – Москва: Наука, 1987.
Литература к главе 2 261
Дополнительная
[39] Абрамовиц М., Стиган И. Таблицы специальных функций. – Москва: Наука,
1979.
[40] Алберг Дж., Нильсон Э., Уолш Дж. Теория сплайнов и её приложения. –
Москва: Мир, 1972.
[41] Ахиезер Н.И. Лекции по теории аппроксимации. – Москва: Наука, 1965.
[42] Бабенко К.И. Основы численного анализа. – Москва: Наука, 1986.
[43] Бахвалов Н.С., Корнев А.А., Чижонков Е.В. Численные методы. Реше-
ния задач и упражнения. – Москва: Дрофа, 2008.
[44] Бейкер Дж., мл., Грейвс-Моррис П. Аппроксимации Паде. – Москва: Мир,
1986.
[45] Бердышев В.И., Петрак Л.B. Аппроксимация функций, сжатие численной
информации, приложения. – Екатеринбург: УрО РАН, 1999.
[46] Волков Ю.С., Субботин Ю.Н. 50 лет задаче Шёнберга о сходимости
сплайн-интерполяции // Труды Института математики и механики УрО РАН.
– 2014. – Т. 20, №1. – С. 52–67.
[47] Гельфонд А.О. Исчисление конечных разностей. – Москва: Наука, 1967, а
также более поздние репринтные издания.
[48] Геронимус Я.Л. Теория ортогональных многочленов. – Москва: Госуд. изд-во
технико-теоретической литературы, 1950.
[49] Гурвиц А., Курант Р. Теория функций. – Москва: Наука, Физматлит, 1968.
Литература к главе 2 263
Численные методы
линейной алгебры
266
3.1. Задачи вычислительной линейной алгебры 267
30 · 30! операций
30 компонент решения · ,
сек
1018 флоп · 3600 час час
· 24 сутки · 365 сутки
год
α1 v1 + α2 v2 + . . . + αr vr ,
L = L1 ⊕ L2 ⊕ · · · ⊕ Lm ,
или n
X
ha, bi = ai bi для a, b ∈ Cn , (3.4)
i=1
l
X
cij := aik bkj .
k=1
(AB)C = A(BC).
0
0
Рис. 3.1. Наглядные образы нижней треугольной
и верхней треугольной матриц.
0 0
Рис. 3.2. Наглядные образы верхних (правых)
трапецевидных матриц.
0
0 0
Рис. 3.3. Наглядные образы блочно-диагональной
и верхней блочно-треугольной матриц.
или
0 0 0
0 0 0
Рис. 3.5. Наглядные образы некоторых ленточных матриц.
BAv = µv
на матрицу A, получим
y ∗A = µ y ∗
α 1
α 1 0
.. ..
,
. .
0 α 1
α
S −1 AS = J,
286 3. Численные методы линейной алгебры
где
λ1 1
..
.
λ1
..
. 1
0 0
λ1
J = λ2 1
, (3.8)
0 ..
.
..
.
λ2
0
..
.
0 0 ..
.
A = UT U∗
A = U ΣV ∗ (3.17)
3.2. Теоретическое введение 295
с диагональной m × n-матрицей
σ1 0 0 ··· 0
0 σ2 0 ··· 0
··· 0
Σ = 0 0 σ3 ,
. .. .. .. ..
. .
. . . .
0 0 0 ···
где σ1 , σ2 , . . . , σmin{m,n} — сингулярные числа матрицы A, а столбцы
матриц U и V являются соответственно левыми и правыми сингу-
лярными векторами матрицы A.
Ax = b,
n
X
kak1 := | ai | ,
i=1
n
!1/2
X
2
kak2 := |ai | ,
i=1
kak∞ := max | ai | .
1≤i≤n
n
!1/p
X
p
kakp = |ai | для p ≥ 1. (3.19)
i=1
n
!1/p n
!1/p n
!1/p
X X X
p p p
| ai + b i | ≤ | ai | + | bi | ,
i=1 i=1 i=1
С другой стороны,
n
!1/p
X p 1/p
p
|ai | ≥ max |ai | = max |ai |,
1≤i≤n 1≤i≤n
i=1
так что в целом
n
!1/p
X
p
max |ai | ≤ |ai | ≤ n1/p max |ai |.
1≤i≤n 1≤i≤n
i=1
∞-норма
2-норма
❍
❍❍
❅
❅
❅
1-норма
kak∞,γ = max | γi ai |.
1≤i≤n
x2
0 x1
1 1
kak′′ ≤ kak′ ≤ kak′′ ,
C2 C1
так что существование «вилки» для одной нормы автоматически под-
разумевает существование аналогичной «вилки» и для другой. C1 и C2
обычно называют константами эквивалентности норм k · k′ и k · k′′ .
Содержательный смысл Предложения 3.3.1 совершенно прозрачен.
Если C1 kak′ ≤ kak′′ , то в любой шар ненулевого радиуса в норме k · k′′
можно вложить некоторый шар в норме k · k′ . Если же kak′′ ≤ C2 kak′ ,
то верно и обратное: в любой шар относительно нормы k · k′ можно
поместить какой-то шар относительно нормы k · k′′ . Как следствие,
множество, открытое относительно одной нормы, тоже будет откры-
тым относительно другой, и наоборот. По этой причине одинаковыми
окажутся запасы окрестностей любой точки, так что топологические
структуры, порождаемые этими двумя нормами, будут эквивалентны
друг другу. Наконец, из Предложения 3.3.1 немедленно следует, что
при эвивалентности двух норм сходимость векторов относительно лю-
бой из них в самом деле влечёт сходимость относительно другой нормы.
(k)
Как следствие, если ai сходятся к a⋆i для любого индекса i = 1, 2, . . . , n,
то и ka(k) − a⋆ k → 0.
Обратно, предположим, что имеет место сходимость a(k) к a⋆ отно-
сительно какой-то нормы k · k. Если ai — коэффициенты разложения
308 3. Численные методы линейной алгебры
kak{ei}
∞ := max |ai |.
1≤i≤n
поэтому
! !
X X X
kABk2F ≤ | aik | 2
| blj | 2
i,j k l
! !
X X X
2 2 2 2
= | aik | | blj | = | aik | | blj |
i,j,k,l i,k l,j
= kAk2F kBk2F ,
что и требовалось.
Если считать, что B — это матрица размера n×1, т. е. вектор размер-
ности n, то выполненные оценки показывают, что фробениусова норма
матрицы согласована с евклидовой векторной нормой k · k2 , с которой
она совпадает для векторов.
субмультипликативности:
n n
!
X X
kABkmax = n max aik bkj ≤ n max |aik | |bkj |
i,j i,j
k=1 k=1
n
!
X
≤ n max |aik | |bkj |
i,j
k=1
n
!
X
≤ n max |aik | · max |bkj |
i j
k=1
kAxk
kAk′ = max = max kAyk.
x6=0 kxk kyk=1
и потому
max k(A + B)yk ≤ max kAyk + kByk
kyk=1 kyk=1
что и требовалось.
Приступая к обоснованию субмультипликативности, отметим, что
по самому построению kAxk ≤ kAk′ kxk для любого вектора x. По этой
причине
kAxk
kAk′ = max = max kAyk,
x6=0 kxk kyk=1
m X
X n n X
X m n
X m
X
= | aij | | xj | = | aij | | xj | = | xj | | aij |
i=1 j=1 j=1 i=1 j=1 i=1
m
! n
X X
≤ max | aij | · | xj | = kAk1 kxk1 , (3.27)
1≤j≤n
i=1 j=1
3.3. Нормы векторов и матриц 317
из которой вытекает
kAxk1
≤ kAk1 .
kxk1
При этом все неравенства в цепочке (3.27) обращаются в равенства для
вектора x в виде столбца единичной P n × n-матрицы с тем номером j, на
котором достигается max j m i=1 | a ij |. Как следствие, на этом векторе
достигается наибольшее значение отношения kAxk1 /kxk1 из определе-
ния подчинённой матричной нормы.
Аналогичным образом доказывается и вторая часть предложения,
касающаяся k · k∞ .
Приступая к обоснованию последней части предложения рассмот-
рим n × n-матрицу A∗A. Она является эрмитовой, её собственные чис-
ла вещественны и неотрицательны, будучи квадратами сингулярных
чисел матрицы A и, возможно, ещё нулями (см. Предложение 3.2.4).
Унитарным преобразованием подобия (ортогональным в вещественном
случае) матрица A∗A может быть приведена к диагональному виду:
A∗A = U ∗Λ U , где U — унитарная n × n-матрица, Λ — диагональная
n × n-матрица. При этом у Λ на главной диагонали находятся числа
σi2 , i = 1, 2, . . . , min{m, n}, которые являются квадратами сингулярных
чисел σi матрицы A, и, возможно, ещё нули в случае m < n.
Далее имеем
√ √
kAxk2 x∗A∗A x x∗ U ∗ΛU x
kAk2 = max = max √ ∗ = max √
x6=0 kxk2 x6=0 x x x6=0 x∗ U ∗ U x
p √ sP
2
(U x)∗Λ(U x) z ∗Λ z i σi |zi |
2
= max p = max √ ∗ = max P 2
x6=0 (U x)∗ U x z6=0 z z z6=0 i |zi |
sP !
|zi |2
≤ max σmax (A) Pi 2
= σmax (A),
z6=0 i |zi |
A = Q⊤ D Q,
8 Для комплексного случая обобщение очевидно, и мы не детализуем его лишь
x2
x1
n
!1/2
p p X
= hDQx, Qxi = hDy, yi = λi yi2 , (3.30)
i=1
-2 -1 0 1 2
AS = A(α0 I + α1 A + . . . + αp Ap )
= α0 A + α1 A2 + . . . + αp Ap+1
= (α0 I + α1 A + . . . + αp Ap )A = SA.
Im
0 Re
Введённые пары векторов (x, y)⊤ обычно записывают в виде x+i y, при-
чём x и y называются соответственно вещественной и мнимой частями
вектора из Rn ⊕ iRn . Линейный оператор, действующий на Rn ⊕ iRn и
продолжающий линейное преобразование Rn с матрицей A, сам может
быть представлен в матричном виде как
A 0
A= . (3.36)
0 A
Его блочно-диагональный вид объясняется тем, что согласно формуле
(3.35) для любого α ∈ R
α · (x, y)⊤ = (αx, αy)⊤ ,
и потому вещественная матрица A независимо действует на веществен-
ную и мнимую части векторов из построенного комплексного простран-
ства Rn ⊕ iRn . Для доказательства важно, что матрица A имеет тот же
спектр, что A.
Без какого-либо ограничения общности можно считать, что рас-
сматриваемая нами норма матрицы, т. е. kAk, является подчинённой
(операторной) нормой, так как такие нормы являются наименьшими
из всех согласованных матричных норм (см. §3.3г). Если предложение
будет обосновано для подчинённых матричных норм, то оно тем более
будет верным для всех прочих норм матриц.
Пусть k · k — векторная норма в Rn , которой подчинена наша мат-
ричная норма. Зададим в Rn ⊕ iRn норму векторов как k(x, y)⊤ k =
kxk + kyk. Тогда ввиду (3.36) и с помощью рассуждений, аналогич-
ных доказательству Предложения 3.3.6, нетрудно показать, что под-
чинённая матричная норма для A во множестве 2n × 2n-матриц есть
kAk = max{kAk, kAk} = kAk. Кроме того, теперь для A справедливы
рассуждения о связи нормы и спектрального радиуса, проведённые в
начале доказательства для случае комплексной матрицы, т. е.
ρ(A) = ρ(A) ≤ kAk = kAk.
328 3. Численные методы линейной алгебры
ρ( A + A⊤ ) ≤ ρ(A) + ρ(A⊤ ).
Поэтому kAk k kvk ≥ |λk | kvk для согласованной матричной нормы kAk,
так что после сокращения на kvk 6= 0 получаем
k
A
≥ |λ|k для всех k = 0, 1, 2, . . . .
1 − kXkp
= kXkN +1 · →0
1 − kXk
332 3. Численные методы линейной алгебры
(I − X)SN = (I − X)(I + X + X 2 + . . . + X N ) = I − X N +1 → I
2 p
1+ 2
α2 + |α| α2 + β 2 .
β
то при β 6= 0 и 2α + β 6= 0 определитель
det B = β (2α + β) 6= 0.
λ1,2 = α + β ± α.
U ΣV ⊤ x = b.
x = V Σ −1 U ⊤ b.
min kAx − b k2 = minn
U ΣV ⊤ x − U U ⊤ b
2
x∈Rn x∈R
= minn
U (ΣV ⊤ x − U ⊤ b)
2
x∈R
= minn
ΣV ⊤ x − U ⊤ b
2
x∈R
= minn
Σy − U ⊤ b
2 ,
y∈R
Доказательство опускается.
3.4. Приложения сингулярного разложения 341
3.5 Обусловленность
систем линейных уравнений
3.5а Число обусловленности матриц
В этом параграфе мы вводим количественную меру чувствитель-
ности решения системы линейных алгебраических уравнений по отно-
шению к возмущениям (или изменениям) матрицы и вектора правой
части. Фактически, общие идеи и понятия, развитые в §1.7, рассматри-
ваются здесь в приложении к задаче решения систем линейных урав-
нений.
Рассмотрим систему линейных алгебраических уравнений
Ax = b (3.45)
3.5. Обусловленность систем линейных уравнений 343
Отсюда
∆x = (A + ∆A)−1 −(∆A) x + ∆b
−1
= A(I + A−1 ∆A) −(∆A) x + ∆b
−1 −1
= I + A−1 ∆A A −(∆A) x + ∆b .
Тогда
kA−1 ∆Ak ≤ kA−1 k k∆Ak < 1,
и обратная матрица (I + A−1 ∆A)−1 разлагается в матричный ряд Ней-
мана (3.40). Соответственно, мы можем воспользоваться вытекающей
из этого оценкой (3.41). Тогда
k∆xk kA−1 k k∆bk
≤ · k∆Ak +
kxk 1 − kA−1 k k∆Ak kxk
kA−1 k · kAk k∆Ak k∆bk
= · +
1 − kA−1 k k∆Ak kAk kAk kxk
cond(A) k∆Ak k∆bk
≤ · + , (3.49)
k∆Ak kAk kbk
1 − cond(A) ·
kAk
Пример 3.5.3 Для матрицы Вандермонда (2.7) оценка снизу для чис-
ла обусловленности (см. [57])
√
√ (1 + 2)n−1
cond2 V (x0 , x1 , . . . , xn ) ≥ 2 √ (3.52)
n+1
1 −1 −1 · · · −1
0 1 −1 · · · −1
U = 0 0
1 · · · −1
, (3.53)
. . . . . . . . −1
. ..
.
0 0 0 ··· 1
xn = yn ,
xn−1 = yn−1 + yn ,
xn−2 = yn−2 + yn−1 + 2yn
xn−3 = yn−3 + yn−2 + 2yn−1 + 4yn
.. .. .. ..
. . . .
x1 = y1 + y2 + 2y3 + . . . + 2n−2 yn .
Далее
X
0 < α |yk | ≤ |akk yk | − |akj yj |
j6=k
n n
X X
≤ akj yj ≤ max akj yj = kAyk∞ .
1≤k≤n
j=1 j=1
Вспоминая, что |yk | = kyk∞ , можем заключить, что в самом деле вы-
полняется неравенство (3.58).
При этом обычно говорят [99, 110], что задана интервальная система
линейных алгебраических уравнений
! !
[2, 4] [−2, 0] [−1, 1]
x= . (3.61)
[−1, 1] [2, 4] [0, 2]
2.5
1.5
x2
0.5
−0.5
k∆xk
/ 24.
kxk
⊤
Поскольку решение средней системы есть x̃ = 13 , 19 , и оно имеет ∞-
норму 13 , то оценкой разброса решений расматриваемой системы урав-
нений является x̃ ± ∆x, где k∆xk∞ ≤ 8, т. е. двумерный брус15
!
[−7.667, 8.333]
.
[−7.889, 8.111]
Ax = b (3.63)
x2
x1
где i = 1, 2, . . . , m − 1, j = 1, 2, . . . , n − 1, а f i , f i , g i , gi — значения
функций f , f , g, g в соответствующих узлах.
Соотношения (3.67) и (3.65)–(3.66) образуют, очевидно, систему ли-
нейных алгебраических уравнений относительно неизвестных uij , i =
1, 2, . . . , m − 1, j = 1, 2, . . . , n − 1, но она не имеет канонический вид
(3.62), так как неизвестные имеют по два индекса. Конкретный вид
(3.62), который получит решаемая система уравнений, зависит от спо-
соба выбора базиса в пространстве векторов неизвестных, в частности,
от способа перенумерации этих неизвестных, при котором мы образуем
из них вектор с компонентами, имеющими один индекс.
Ясно, что рассмотренный пример может быть сделан ещё более вы-
разительным в трёхмерном случае, когда нам необходимо численно ре-
шать трёхмерное уравнение Лапласа.
0 .
× × . . ×
× × × ··· × ×
Lx = b (3.70)
DO FOR i = 1 TO n
X .
xi ← bi − lij xj lii . (3.71)
j<i
END DO
DO FOR i = n DOWNTO 1
X .
xi ← bi − uij xj uii . (3.72)
j>i
END DO
0
0
× × ··· ×
×
× ··· ×
n
x=
0
)
0 m−n
m
!1/p
X
kAx − bkp = (Ax)i − bi p
i=1
n m
!1/p
X X
= (Ax)i − bi p + (Ax)i − bi p .
i=1 i=n+1
n m
!1/p
X X p
kAx − bkp = (Ax)i − bi p + bi .
i=1 i=n+1
DO FOR j = 1 TO n − 1
DO FOR i = j + 1 TO n
rij ← (−aij /ajj )
DO FOR k = j TO n
aik ← aik + rij ajk . (3.74)
END DO
bi ← bi + rij bj
END DO
END DO
DO FOR i = n DOWNTO 1
X .
xi ← bi − aij xj aii . (3.75)
j>i
END DO
372 3. Численные методы линейной алгебры
a12 a1n b1
x1 + x2 + · · · + xn = . (3.76)
a11 a11 a11
0
0 1
.. ..
. .
r 1 ,
i1
..
. 1
0 0 1
3.6. Прямые методы решения линейных систем 373
0
1
r
21
1
1
..
.
0
0
r31
1
0
..
.
0 ,
,
. .
. .
. 1 .
0 0 1
0 0 1
1
и так далее до
1
0
..
1
..
0
.
. .
0
rn1 0 1
1
1
ri1
1
..
.
0
1
1
..
.
0
·
1 1
..
..
.
rk1 .
0 1 0 1
ri1
1
1
..
.
0
= .
1
..
rk1 .
0
1
1
r21
1 0
E1 = r31 0 1
. (3.77)
. ..
. .
.
rn1 0 1
En−1 · · · E2 E1 A = U, (3.79)
L (U x) = b.
том.
3.6. Прямые методы решения линейных систем 377
(
j −1
0
активная
0 подматрица
j-ый столбец
P̌ AP̂ = LU,
т. е.
a11 a12
a11 6= 0, det 6= 0, ... ,
a21 a22
a11 a12 ... a1,n−1
a21 a22 ... a2,n−1
det .. .. .. .. 6= 0.
. . . .
an−1,1 an−1,2 ... an−1,n−1
A = LU
x Un−1 = v и Ln−1 y = z,
Ak
=
Lk 0 .
Uk
0
Рис. 3.17. Блочное умножение в LU-разложении матрицы.
nonsingular matrix.
384 3. Численные методы линейной алгебры
(
(
j
0 ← j-ая строка
0
↑ j-ый столбец
(
c221 + c222 = a22 ,
для j = 2
ci1 c21 + ci2 c22 = ai2 , i = 3, 4, . . . , n,
(
c231 + c232 + c233 = a33 ,
для j = 3
ci1 c31 + ci2 c32 + ci3 c33 = ai3 , i = 4, 5, . . . , n,
··· ··· .
↓
C=
↓
↓
↓
↓
..
.
0
,
.. ..
..
. . . ↓
y y ··· y ×
( p
c22 = a22 − c221 ,
при j = 2
ci2 = ai2 − ci1 c21 /c22 , i = 3, 4, . . . , n,
( p
c33 = a33 − c231 − c232 ,
при j = 3
ci3 = ai3 − ci1 c31 − ci2 c32 /c33 , i = 4, 5, . . . , n,
DO FOR j = 1 TO n
v
u j−1
u X
c ← ta −
jj jj c2 jk
k=1
DO FOR i = j + 1 TO n
! (3.93)
j−1
X
cij ← aij − cik cjk cjj
k=1
END DO
END DO
Справедливы соотношения
и поэтому
cond(AB) =
(AB)−1
kABk ≤ cond A · cond B. (3.94)
cond(AB) ≥ cond(A)/cond(B).
cond(AB) ≥ cond(B)/cond(A).
Доказательство опускается.
Но одни только матрицы перестановки не могут выполнять полно-
ценные преобразования, приводящие к матрицам необходимой специ-
альной структуры в задачах вычислительной линейной алгебры. Как
следствие, при p 6= 2 прямые численные методы для нахождения псев-
дорешений систем линейных алгебраических уравнений относительно
p-норм невозможны. Эти численные методы обязаны быть итерацион-
ными (см., например, [93]), что, впрочем, не является каким-то суще-
ственным их недостатком. Они интенсивно разрабатываются в вычис-
лительной оптимизации.
3.7. Методы на основе ортогональных преобразований 399
Ak = Qk Rk ,
где все Qk ортогональны, а Rk — правые треугольные матрицы. В ка-
честве ортогонального разложения для A можно было бы взять преде-
лы матриц Qk и Rk , если таковые существуют. Но сходятся ли куда-
нибудь последовательности этих матриц при k → ∞, когда Ak → A?
Ответ на это вопрос может быть отрицательным, а потому приходится
действовать более тонко, выделяя из {Ak } подходящую подпоследова-
тельность.
Множество ортогональных матриц компактно, поскольку является
замкнутым (прообраз единичной матрицы I при непрерывном отоб-
ражении X 7→ X ⊤ X) и ограничено (kXk2 ≤ 1). Поэтому из последо-
вательности ортогональных матриц {Qk } можно выбрать сходящуюся
подпоследовательность {Qkl }∞ l=1 . Ей соответствуют подпоследователь-
ности {Akl } и {Rkl }, причём первая из них также сходится, как подпо-
следовательность сходящейся последовательности {Ak }.
Обозначим Q := liml→∞ Qkl , и это тоже ортогональная матрица.
Тогда
lim Q⊤ ⊤ ⊤
kl Akl = lim Qkl · lim Akl = Q A = R
l→∞ l→∞ l→∞
x2
0 x1
A = G(1, 2)⊤ G(1, 3)⊤ · · · G(1, n)⊤ G(2, 3)⊤ · · · G(n − 1, n)⊤ R,
404 3. Численные методы линейной алгебры
Ортогональность:
H ⊤H = I − 2uu⊤ I − 2uu⊤
= I − 2uu⊤ − 2uu⊤ + 4uu⊤uu⊤
= I − 4uu⊤ + 4u(u⊤ u)u⊤ = I, так как u⊤ u = kuk22 = 1.
x
u v
Hx
0
При этом
x⊤ x
u⊤ x = = kxk2 6= 0,
kxk2
и для соответствующей матрицы отражения имеет место
x
Hx = x − 2 uu⊤ x = x − 2u u⊤ x = x − 2 kxk2 = −x.
kxk2
408 3. Численные методы линейной алгебры
значение, так как на практике если вектор уже коллинеарен заданному, то с ним,
как правило, можно вообще ничего не делать.
3.7. Методы на основе ортогональных преобразований 409
Hj = I — единичной n × n-матрице.
DO FOR j = 1 TO n − 1
I˘ ← единичная матрица размера (n − j + 1);
IF вектор A((j +1) : n, j) ненулевой THEN
вычислить вектор Хаусхолдера ŭ ∈ Rn−j+1 ,
порождающий отражение, которое переводит
вектор A(j : n, j) в вектор, коллинеарный
вектору (1, 0, . . . , 0)⊤ ;
H̆ ← I˘ − 2ŭŭ⊤ ;
ELSE
H̆ ← I˘ ;
END IF
A(j : n, j : n) ← H̆ A(j : n, j : n) ;
END DO
Hs Hs−1 · · · H2 H1 A = R
b(j : n) ← H̆ b(j : n)
α = 0.5, β = 0.33333.
Отсюда
hq1 , v2 i
α12 = .
hq1 , q1 i
DO FOR j = 1 TO n
qj ← vj ;
DO k = 1 TO j − 1
αkj ← hqk , vj i ;
qj ← qj − αkj qj ;
END DO
αjj ← kqj k2 ;
IF ( αjj = 0 ) THEN
STOP, сигнализируя «vj линейно зависит
от векторов v1 , v2 , . . . , vj−1 »
END IF
qj ← qj /αjj ;
END DO
DO FOR j = 1 TO n
qj ← vj ;
DO k = 1 TO j − 1
αkj ← hqk , qj i ;
qj ← qj − αkj qj ;
END DO
αjj ← kqj k2 ;
IF ( αjj = 0 ) THEN
STOP, сигнализируя «vj линейно зависит
от векторов v1 , v2 ,. . . , vj−1 »
END IF
qj ← qj /αjj ;
END DO
p0 = r,
p1 = Ap0 − α0 p0 ,
pk+1 = Apk − αk pk − βk pk−1 , k = 1, 2, . . . , n − 2,
hApk , pk i
αk = , k = 0, 1, . . . , n − 2,
hpk , pk i
hApk , pk−1 i hpk , pk i
βk = = , k = 1, 2, . . . , n − 2.
hpk−1 , pk−1 i hpk−1 , pk−1 i
k
X (k) (k)
pk+1 = Ak+1 r − ci Ai r, ci ∈ R.
i=0
(k) (k)
pk+1 = Apk − γ0 p0 − . . . − γk pk
(k) (k)
с какими-то коэффициентами γ0 , . . . , γk .
Домножая скалярно полученное соотношение на векторы p0 , p1 , . . . ,
pk и привлекая условие ортогональности вектора pk+1 всем p0 , p1 , . . . ,
pk , получим
(k) hApk , pj i
γj = , j = 0, 1, . . . , k.
hpj , pj i
(k) hApk , pk i
αk = γk = ,
hpk , pk i
(k) hApk , pk−1 i
βk = γk−1 = .
hpk−1 , pk−1 i
Далее,
hApk , pk−1 i = hpk , Apk−1 i = hpk , pk + αk−1 pk−1 + βk−1 pk−2 i = hpk , pk i,
и поэтому
hpk , pk i
βk = .
hpk−1 , pk−1 i
Это завершает доказательство теоремы.
0
0
Рис. 3.22. Портрет трёхдиагональной матрицы.
ai xi−1 + bi xi + ci xi+1 = di , i = 1, 2, . . . ,
0
× ×
×
xi−1 = ξi xi + ηi
Отсюда
ci di − ai ηi
xi = − xi+1 + .
ai ξi + bi ai ξi + bi
ci
ξi+1 = − ,
ai ξi + bi
(3.114)
di − ai ηi
ηi+1 = .
ai ξi + bi
ξ1 = η1 = xn+1 = 0. (3.115)
xn = ηn+1 .
424 3. Численные методы линейной алгебры
|ci |
≤ из оценки снизу для модуля суммы
|bi | − |ai | · |ξi |
|ci |
< в силу диагонального преобладания
|ai | + |ci | − |ai | · |ξi |
|ci | |ci |
= ≤ = 1,
|ai |(1 − |ξi |) + |ci | |ci |
где при переходе ко второй строке мы воспользовались известным нера-
венством для модуля суммы двух чисел:
|x + y| ≥ |x| − |y|. (3.116)
x⋆ = lim x(k) .
k→∞
x(k+1) ← Tk (x(k) ), k = 0, 1, 2, . . . ,
x = Cx + d,
x(k+1) ← Cx(k) + d, k = 0, 1, 2, . . . ,
S −1 AS = J,
где
λ1 1
..
.
λ1
..
. 1
0 0
λ1
J = λ2 1
,
0 ..
.
..
λ2
.
0
..
.
0 0 ..
.
kxkǫ :=
(SDǫ )−1 x
∞ .
цепочка оценок
kAxkǫ
(SDǫ )−1 Ax
kAkǫ = max = max
∞
x6=0 kxkǫ x6=0
(SDǫ )−1 x
∞
(SDǫ )−1 A(SDǫ )y
= max ∞
после замены y = (SDǫ )−1 x
y6=0 kyk∞
−1
(Dǫ JDǫ )y
= max ∞
=
Dǫ−1 JDǫ
∞
y6=0 kyk∞
x(k+1) = Cx(k) + d
x(k) − x⋆ = C(x(k−1) − x⋆ ), k = 1, 2, . . . ,
откуда
x(k) − x⋆ = C(x(k−1) − x⋆ )
= C 2 (x(k−2) − x⋆ )
= ··· ···
k (0)
= C (x − x⋆ ).
x(k+1) ← Cx(k) + d, k = 0, 1, 2, . . . .
Ax = b (3.120)
x = Cx + d, (3.121)
x + Ax = x + b, (3.122)
x = (I − A)x + b.
x = (I − ΛA)x + Λb.
Ix = A−1 b
(G − H) x = b,
которая равносильна
Gx = Hx + b,
так что
x = G−1 Hx + G−1 b.
На основе полученного рекуррентного вида можно организовать ите-
рации
x(k+1) ← G−1 Hx(k) + G−1 b, (3.123)
задавшись каким-то начальным приближением x(0) .
Иногда по ряду причин невыгодно обращать матрицу G явно, так
что расчётные формулы итерационного метода основывают на равен-
стве
Gx = Hx + b.
440 3. Численные методы линейной алгебры
Re (1 − τ λi ) = 1 − τ Re λi
kI − τ Ak2 = max |1 − τ λi |.
λi
442 3. Численные методы линейной алгебры
Ясно, что
λ1 λ2 ··· λn
0 µ R
M
Обозначив
g(τ ) := max 1 − τ λ,
µ≤λ≤M
λ
0 µ M
g(τ ) = max |1 − τ λ| = 1 − τ µ,
λ
1 − τ µ = −(1 − τ M ).
τ
0
2 M −µ
= 1− ·µ = .
M +µ M +µ
Соответственно, в силу неравенства (3.125),
M −µ
kI − τопт Ak2 ≤ Θ = , (3.127)
M +µ
и эту величину можно рассматривать, как коэффициент подавления ев-
клидовой нормы погрешности (ввиду неравенств (3.118)). Она меньше
единицы, т. е. даже с помощью простейшего скалярного предобуслав-
ливателя мы добились сходимости итерационного процесса.
Итогом наших рассуждений является
Теорема 3.10.2 Если в системе линейных алгебраических уравнений
Ax = b матрица A симметрична, положительно определена и все её
собственные значения лежат на интервале [µ, M ] ⊂ R+ , то после-
довательность {x(k) }, порождаемая стационарным методом Ричард-
сона с параметром τ = 2/(M + µ), сходится к решению системы x⋆
из любого начального приближения x(0) . Быстрота этой сходимости
оценивается неравенством
k
(k) ⋆ M −µ
k x − x k2 ≤ k x(0) − x⋆ k2 , k = 0, 1, 2, . . . . (3.128)
M +µ
3.10. Стационарные итерационные методы 445
x(k+1) ← T (x(k) ), k = 0, 1, 2, . . . .
и
1 X
Ti (x) = bi − aij xj , i = 1, 2, . . . , n.
aii
j6=i
k ← 0;
выбираем начальное приближение x(0) ;
DO WHILE ( метод не сошёлся )
DO FOR i = 1 TO n
(k+1) 1 X (k)
xi ← bi − aij xj
aii
j6=i
END DO
k ← k +1;
END DO
Пусть A = L̃ + D + Ũ , где
0
a
21
0
L̃ := a31 a32
..
.
0
— строго нижняя
. .. ..
. треугольная матрица,
.
. . 0
an1 an2 · · · an,n−1 0
Следовательно,
X aij
< 1, i = 1, 2, . . . , n,
aii
j6=i
что равносильно
!
X aij
max
aii < 1.
1≤i≤n
j6=i
(k+1)
относительно xi , а затем полагают xi ← x̃i , i = 1, 2, . . . , n.
k ← 0;
выбираем начальное приближение x(0) ;
DO WHILE ( метод не сошёлся )
DO FOR i = 1 TO n
i−1 n
(k+1) 1 X (k+1)
X (k)
xi ← bi − aij xj − aij xj
aii j=1 j=i+1
END DO
k ← k +1;
END DO
т. е.
i−1 n
X aij
X aij
≤
z (k+1)
∞ +
z (k)
aii ∞
aii (3.134)
j=1 j=i+1
для i = 1, 2, . . . , n.
С другой стороны, условие диагонального преобладания в матрице
A решаемой системы уравнений, т. е.
X
|aij | < |aii |, i = 1, 2, . . . , n,
j6=i
По этой причине
X aij
≤ κ, i = 1, 2, . . . , n,
aii
j6=i
откуда следует
n i−1 i−1 i−1 !
X aij X aij X aij X aij
≤ κ− ≤ κ−κ = κ 1− .
aii aii aii aii
j=i+1 j=1 j=1 j=1
i = 1, 2, . . . , n.
3.10. Стационарные итерационные методы 455
(k+1)
Предположим, что max1≤i≤n zi достигается при i = l, так что
(k+1)
z
= z (k+1) . (3.137)
∞ l
то есть
l−1 ! l−1 !
(k+1)
X alj
(k)
X alj
z
∞
1− all ≤ κ z
∞
1− all .
(3.138)
j=1 j=1
в Табл. 3.7.
k ← 0;
выбираем начальное приближение x(0) ;
DO WHILE ( метод не сошёлся )
DO FOR i = 1 TO n
(k+1) (k)
xi ← (1 − ω) xi
i−1 n
ω X (k+1)
X (k)
+ bi − aij xj − aij xj
aii j=1 j=i+1
END DO
k ← k +1;
END DO
i = 1, 2, . . . , n,
откуда
−1 −1
x(k+1) = D + ω L̃ (1 − ω)D − ω Ũ x(k) + D + ω L̃ ωb,
k = 0, 1, 2, . . . .
В зависимости от конкретного значения параметра релаксации при-
нято различать три случая:
3.10. Стационарные итерационные методы 459
меньше.
Gω = D + ω L̃, Hω = (1 − ω)D − ω Ũ .
= pn λn + pn−1 λn−1 + . . . + p1 λ + p0 ,
ний
2 1 −1 0
1 −5 4 x = 10 (3.140)
3 2 6 7
является (1, −1, 1)⊤ . Метод Гаусса-Зейделя за 126 итераций сходится из
нулевого вектора к приближённому решению этой системы с невязкой
10−6 в 1-норме.
Для метода релаксации оптимальное значение параметра находится
в районе ω = 0.8, и тогда для достижения той же точности приближён-
ного решения требуется всего 15 итераций. Но с любым параметром
ω ' 1.035598 метод релаксации для системы (3.140) расходится.
x(k+1) ← (I − τ A) x(k) + τ b, k = 0, 1, 2, . . . ,
A = Q⊤DQ,
n
X n
X
= 1
2 hDy, yi − hQb, yi = 1
2 λi yi2 − (Qb)i yi , (3.144)
i=1 i=1
Нам нужно найти точку x⋆ . При этом саму функцию f , для которой
ищется экстремум, в теории оптимизации называют целевой функцией.
Различают экстремумы локальные и глобальные. Локальными на-
зывают экстремумы, в которых значения целевой функции лучше, чем
в некоторой окрестности рассматриваемой точки. Глобальные экстре-
мумы доставляют функции значения, лучшие среди значений функции
на всей её области определения. В связи с задачей минимизации функ-
ционала энергии нас интересуют, конечно, его глобальные минимумы.
Типичным подходом к решению задач оптимизации является ите-
рационное построение последовательности значений аргумента { x(k) },
которая «минимизирует» функцию f в том смысле, что
локальные
минимумы
глобальный
минимум
d
Ψ x(k) + τ s = Ax(k) , s + τ hAs, si − hb, si
dτ
= τ As, s + Ax(k) − b, s
= τ As, s + hr(k) , si,
d
Ψ x(k) + τ s = 0
dτ
необходимо влечёт
hr, si
τ = −
. (3.145)
As, s
d2
2
Ψ x(k) + τ s = As, s > 0,
dτ
в силу положительной определённости матрицы A.
hr(k) , r(k) i
τk =
(k) (k) .
Ar , r
474 3. Численные методы линейной алгебры
k ← 0;
выбираем начальное приближение x(0) ;
DO WHILE ( метод не сошёлся )
r(k) ← Ax(k) − b ;
k r(k) k22
τk ← ;
hAr(k) , r(k) i
x(k+1) ← x(k) − τk r(k) ;
k ← k +1;
END DO
x⋆
x(0)
Рис. 3.28. Иллюстрация работы метода
наискорейшего градиентного спуска.
k ← 0;
выбираем начальное приближение x(0) ;
DO WHILE ( метод не сошёлся )
r(k) ← Ax(k) − b ;
hAr(k) , r(k) i
τk ← ;
kAr(k) k22
x(k+1) ← x(k) − τk r(k) ;
k ← k +1;
END DO
Окончательно
hAr(k) , r(k) i hAr(k) , r(k) i
τ = = .
hAr(k) , Ar(k) i kAr(k) k22
kx(k+1) − x⋆ k2 ≤ kx(k) − x⋆ k2 , k = 0, 1, 2, . . . .
x⋆
На языке формул —
s(k) := −r(k−1) + υk s(k−1)
с некоторым коэффициентом υk ∈ R. Этот выбор вполне естественен,
так как одно лишь «чистое» направление антиградиента, как мы ви-
дели в §3.11в, не вполне удовлетворительно, и имеет смысл «смешать»
его с дополнительной информацией о других возможных направлениях
спуска. В качестве такового берётся направление спуска предыдущего
шага.
Отличительной особенностью именно метода сопряжённых градиен-
тов является такой выбор коэффициента υk , при котором направления
спуска s(k) и s(k−1) являются A-ортогональными:
hs(k) , s(k−1) iA = 0 ,
то есть
hAs(k) , s(k−1) i = hs(k) , As(k−1) i = 0, k = 1, 2, . . . , n. (3.151)
Последовательные направления спуска в методе наискорейшего гради-
ентного спуска ортогональны друг другу. Условие (3.151) тоже означа-
ет ортогональность, но в скалярном произведении, порождённом мат-
рицей решаемой системы уравнений. Его можно рассматривать как по-
пытку скорректировать направления спуска таким образом, чтобы они
стали лучше соответствовать решаемой системе.
С другой стороны, можно считать, что в методе сопряжённых гра-
диентов реализуется идея выбора в качестве направлений спуска наи-
более представительного семейства векторов, «покрывающих» всё про-
странство (фактически, его базис) и согласованных с матрицей реша-
емой системы. Эта идея кажется вполне естественной для несложных
целевых функций (каким и является функционал энергии).
Имеем
h−r(k−1) + υk s(k−1) , As(k−1) i = 0,
так что
−hr(k−1) , As(k−1) i + υk hs(k−1) , As(k−1) i = 0.
Окончательно,
hr(k−1) , As(k−1) i
υk = . (3.152)
hs(k−1) , As(k−1) i
3.11. Нестационарные итерационные методы 483
где выбор
h r(0) , s(1) i h r(0) , r(0) i
τ1 = − = ,
hAs(1) , s(1) i hAr(0) , r(0) i
минимизирует функционал энергии на этом шаге.
Шаг k, k = 2, 3, . . . . Пусть уже известно приближение x(k−1) и на-
правление спуска s(k−1) , по которому оно было получено.
Выбираем следующим направлением спуска вектор
где
r(k−1) = Ax(k−1) − b — невязка в точке x(k−1) ,
484 3. Численные методы линейной алгебры
h As(k−1) , r(k−1) i
υk = . (3.155)
hAs(k−1) , s(k−1) i
где
hr(k−1) , s(k) i
τk = − .
hAs(k) , s(k) i
h r(1) , s(1) i = 0,
h r(k) , s(k) i = h r(k) , s(k−1) i = 0, k = 2, 3, . . . .
h r(k−1) , r(k) i = 0, k = 1, 2, . . . ,
Доказательство. Поскольку
то
в силу определения τ1 .
Далее доказательство продолжается индукцией по k.
Рассмотрим k-ый шаг метода сопряжённых градиентов. Из форму-
лы (3.156) следует, что
h r(k−1) , s(k) i
τk = − .
hAs(k) , s(k) i
Поэтому на основе (3.154) и (3.156) можем заключить, что
h r(i) , r(j) i = 0, i 6= j.
Иными словами,
• A-ортогональны не только следующие друг за другом направле-
ния спуска, как требуется по построению метода, но все эти на-
правления вообще взаимно A-ортогональны друг другу;
• ортогональны не только следующие друг за другом вектора невя-
зок, но все эти невязки вообще взаимно ортогональны друг другу.
Для удобства и без большого ограничения общности условимся счи-
тать, что s(0) = 0, т. е. что направление спуска на «нулевом шаге»,
который виртуально привёл к нулевому приближению, — это нулевой
вектор.
Заметим, что
то
откуда
1 (j)
As(j) = r − r(j−1) .
τj
Подставив полученное выражение в правую часть равенства (3.159),
будем иметь
так как оба слагаемых в больших скобках равны нулю в силу индукци-
онного предположения. Это доказывает (3.157), т. е. первое утвержде-
ние теоремы — A-ортогональность направлений спуска.
Установим теперь равенства (3.158). Мы знаем, что h r(k+1) , r(k) i = 0
в силу доказанного Предложения 3.11.1. Остаётся показать, что для
0 ≤ j < k также h r(k+1) , r(j) i = 0.
В силу формулы (3.156)
В целом имеем,
h r(k+1) , r(j) i = 0,
как и требовалось.
Если придерживаться нашего соглашения s(0) = 0, то проведённые
рассуждения верны также в случае j = 0, когда r(0) = −s(1) .
Теперь теорема полностью доказана.
k ← 0;
выбираем начальное приближение x(0) ;
r(0) ← b − Ax(0) ; s(0) ← r(0) ;
DO WHILE ( метод не сошёлся )
g ← As(k) ;
hr(k) , r(k) i
τk ← ;
hs(k) , gi
x(k+1) ← x(k) + τk s(k) ;
r(k+1) ← r(k) − τk g ;
hr(k+1) , r(k+1) i
υk ← ;
hr(k) , r(k) i
s(k+1) ← r(k+1) + υk s(k) ;
k ← k +1;
END DO
дано ранее.
6
10
4
10
2
10
0
10
-2
10
-4
10
-6
10
-8
10
0 5 10 15 20 25 30 35 40 45 50 55 60 65 70
Его получение заняло три полных цикла метода. После этого момента
можно лишь несущественно уменьшить норму невязки, а при дальней-
шем итерировании норма невязки стабилизируется на уровне примерно
5 · 10−6 и уже не улучшается. В арифметике с плавающей точкой двой-
ной точности, которая реализована в системе Scilab и других аналогич-
ных, поддерживается примерно 16 знаков десятичного представления
вещественных чисел (см. §1.4). По этой причине ничего лучшего для
рассматриваемой системы уравнений, решение которой имеет компо-
ненты порядка 109 –1010 , мы уже не сможем достичь.
В целом, результат очень неплох. Напомним (см. Пример 3.10.3),
что метод Гаусса-Зейделя и метод релаксации, несмотря на оптими-
стичные теоретические результаты об их сходимости, на практике вооб-
ще не сходятся к чему-либо, хоть отдалённо напоминающему решение
рассматриваемой системы уравнений.
∂x(t)
+ Ax(t) = b, (3.164)
∂t
в которой n-вектор неизвестных переменных x зависит от времени t.
Ясно, что если в какой-то части своей области определения функция
x(t) не изменяется в зависимости от переменной t, то производная
∂x/∂t зануляется и соответствующие значения x(t) являются решением
исходной задачи
Наиболее часто задачу (3.164) рассматривают на бесконечном ин-
тервале [t0 , ∞) и ищут её устанавливающееся решение, т. е. такое, что
существует конечный limt→∞ x(t) = x⋆ . Тогда из свойств решения за-
дачи (3.164) следует, что
∂x
lim = 0,
t→∞ ∂t
tk := t0 + τ k, x(k) := x(tk ), k = 0, 1, 2 . . . ,
x(k+1) − x(k)
+ Ax(k) = b, (3.165)
τ
или
x(k+1) = x(k) − τ (Ax(k) − b), k = 0, 1, 2, . . . ,
то есть известный нам итерационный метод Ричардсона (3.124) для
решения системы уравнений Ax = b. При переменном шаге по времени,
когда τ = τk , k = 0, 1, 2, . . ., получающийся метод Эйлера
x(k+1) − x(k)
+ Ax(k) = b
τk
эквивалентен
x(k+1) − x(k)
(D + ω L̃) + Ax(k) = b, k = 0, 1, 2, . . . .
ω
При исследовании сходимости итераций в форме Самарского удобно
пользоваться матричными неравенствами, связанными со знакоопре-
делённостью матриц. Условимся для вещественной n × n-матрицы G
обозначать
x(k+1) − x(k)
B + Ax(k) = b, k = 0, 1, 2, . . . ,
τ
сходится к решению системы уравнений Ax = b из любого начального
приближения.
z (k+1) − z (k)
B + Az (k) = 0, k = 0, 1, 2, . . . . (3.169)
τ
3.13. Теория А.А. Самарского 499
и
Az (k+1) = A − τ AB −1 A z (k) .
Таким образом,
и потому
∂xν ∂xν
= −zνi xj , = zνi , ν = 1, 2, . . . , n,
∂aij ∂bi
что равносильно
I − AX (k+1) = (I − AX (k) )2 , k = 0, 1, 2, . . . .
2k
Если X (k) → A−1 при k → ∞, то I − AX (0) → 0 — после-
довательность степеней матрицы сходится к нулю. Тогда необходимо
ρ(I − AX (0) ) < 1 в силу Предложения 3.3.9.
2k
И наоборот, если ρ(I − AX (0) ) < 1, то I − AX (0) → 0 при k → ∞,
(k) −1
и потому должна иметь место сходимость X → A .
x(k+1) ← Cx(k) + d, k = 0, 1, 2, . . . ,
предполагая, что kCk < 1 для некоторой матричной нормы. Ясно, что
ввиду результатов §3.10б о связи спектрального радиуса и матричных
506 3. Численные методы линейной алгебры
a1 ✲
a2 ✲
.. .. объект ✲ b
. .
an ✲
b = a1 x1 + a2 x2 + . . . + an xn (3.179)
направлению e. По определению
∂ Φ(x) Φ(x + te) − Φ(x)
= lim
∂e t→0 t
hA(x + te) − b, A(x + te) − b i − hAx − b, Ax − b i
= lim
t→0 t
hA(te), Ax − b i + hAx − b, A(te) i + hA(te), A(te) i
= lim
t→0 t
2t hA⊤ (Ax − b), e i + t2 hAe, Aei
= lim
t→0 t
2t hA⊤ (Ax − b), e i t2 hAe, Aei
= lim + lim
t→0 t t→0 t
= 2 hA⊤Ax − A⊤ b, e i.
В точке минимума производная функции по любому направлению рав-
на нулю, так что hA⊤Ax − A⊤ b, e i = 0 для любого вектора e ∈ Rn
единичной длины. По этой причине должно быть A⊤Ax − A⊤ b = 0.
Система линейных алгебраических уравнений
A⊤A x = A⊤ b, (3.181)
как известно, называется нормальной системой уравнений для линей-
ной задачи наименьших квадратов с матрицей A и вектором b (см.
§2.10е). Сам переход от исходной системы уравнений Ax = b к нор-
мальной системе (3.181) носит название первой трансформации Гаус-
са.32 Решение нормальной системы уравнений, как было показано в
§2.10е, всегда существует и доставляет искомый минимум выражению
Φ(x) = kAx − bk22 , что следует из проведённых выше выкладок и того
факта, что гессианом функции Φ является положительно полуопреде-
лённая матрица A⊤A.
Исследуем единственность псевдорешения. Любое решение линей-
ной задачи наименьших квадратов является также решением нормаль-
ной системы уравнений (3.181), так что наш вопрос сводится к следую-
щему: когда нормальная система уравнений имеет единственное реше-
ние? Как известно из курса линейной алгебры, общее решение систе-
мы линейных алгебраических уравнений есть сумма частного решения
32 Существует также «вторая трансформация Гаусса» систем линейных алгебра-
ических уравнений.
512 3. Численные методы линейной алгебры
и потому
2
x̃⊤ A⊤Ax̃ = x̃⊤ A⊤ Ax̃ = (Ax̃)⊤ (Ax̃) =
Ax̃
2 = 0.
Получаем, что
Ax̃ = 0.
Итак, однородная нормальная система уравнений A⊤Ax̃ = 0 имеет
только нулевое решение тогда и только тогда, когда однородная систе-
ма Ax = 0 имеет только нулевое решение. Как следствие, справедлива
При этом
kA⊤Ak2 = σmax
2
(A), и k(A⊤A)−1 k2 = σmax
2
(A−1 ),
так что
cond2 (A⊤A) = cond22 (A).
514 3. Численные методы линейной алгебры
X n
n X 2 m
X
2
Rx − Q⊤ b
2 = ⊤
rij xj − (Q b)i + (Q⊤ b)i . (3.184)
2
i=1 j=1 i=n+1
(A − λ̃I)x = 0 (3.188)
Av = λv.
Av = λv,
(D − λ̃I)−1 V −1 (∆A)V
или
min λ̃ − λi (A) ≤ cond2 (V ) k∆Ak2 ,
i
как и требовалось.
n
!1/2
X 2
λ̃i − λi ≤ kBkF ,
i=1
Q⊤AQ = T,
A + QEQ⊤
h(∆A) x(i) , y (i) i + hA (∆x(i) ), y (i) i = λi h∆x(i) , y (i) i + (∆λi )hx(i) , y (i) i,
Следовательно,
и потому
h(∆A) x(i) , y (i) i
∆λi = .
hx(i) , y (i) i
Теперь можно дать оценку возмущений собственных значений. Из
полученной формулы для приращения ∆λi и из неравенства Коши-
Буняковского следует
k∆Ak2
x(i)
2
y (i)
2
|∆λi | ≤ = νi k∆Ak2 ,
hx(i) , y (i) i
3.17. Проблема собственных значений 531
где обозначено
(i)
(i)
x
y
νi :=
(i)2 (i) 2 , i = 1, 2, . . . , n.
x ,y
Величины νi называются коэффициентами перекоса матрицы A, кото-
рые отвечают собственным значениям λi , i = 1, 2, . . . , n.
Ясно, что νi ≥ 1, и можно интерпретировать коэффициенты пере-
коса как
1
νi = ,
cos ϕi
где ϕi угол между собственными векторами xi и yi исходной и эрмитово
сопряжённой матриц. Коэффиценты перекоса характеризуют, таким
образом, обусловленность проблемы собственных значений (в смысле
второго подхода из описанных в §1.7).
Для симметричной (или, более общо, эрмитовой) матрицы коэффи-
циенты перекоса равны 1. В самом деле, сопряжённая к ней задача
на собственные значения совпадает с ней самой, и потому в наших
обозначениях x(i) = y (i) , i = 1, 2, . . . , n. Следовательно, hx(i) , y (i) i =
hx(i) , x(i) i = kx(i) k2 ky (i) k2 , откуда и следует νi = 1.
Это наименьшее возможное значение коэффициентов перекоса, так
что численное нахождение собственных значений симметричных (эр-
митовых в комплексном случае) матриц является наиболее устойчи-
вым.
Продолжим преобразования с равенством (3.193), но теперь уже для
случая j 6= i. Тогда hx(i) , y (j) i = 0 в силу биортогональности систем
векторов {x(i) } и {y (j) } (см. Предложение 3.2.2), и потому
hA(∆x(i) ), y (j) i = h∆x(i) , A∗ y (j) i = h∆x(i) , λj y (j) i = λj h∆x(i) , y (j) i.
Подставляя этот результат в (3.193), будем иметь
h(∆A) x(i) , y (j) i + λj h∆x(i) , y (j) i = λi h∆x(i) , y (j) i.
Поэтому
h(∆A) x(i) , y (j) i
h∆x(i) , y (j) i = .
λi − λj
Чтобы оценить возмущения ∆x(i) собственных векторов x(i) матри-
цы A (напомним, они образуют базис в Rn ), разложим по ним ∆x(i) :
n
X
(i)
∆x = αij x(j) .
j=1
532 3. Численные методы линейной алгебры
что равносильно
n
X
alj vj = (λ − all ) vl .
j=1
j6=l
Следовательно,
X X
|λ − all | |vl | = alj vj ≤ |alj vj |
j6=l j6=l
X X
= |alj | |vj | ≤ |vl | |alj |,
j6=l j6=l
рассмотренной
√ в Примере 3.2.3 (стр. 293), собственные значения суть
1
2 (5 ± 33), они приблизительно равны −0.372 и 5.372. На Рис. 3.32,
3.17. Проблема собственных значений 535
Im
-2 0 2 4 6
Re
-2
задаваемый как
hAx, xi
R(x) := ,
hx, xi
который определён на множестве ненулевых векторов из Rn или Cn .
Область значений отношения Рэлея, т. е. множество
{ R(x) | x 6= 0 },
называется областью значений матрицы A. Можно показать, что оно
является выпуклым подмножеством комплексной плоскости C.
Перечислим основные свойства отношения Рэлея.
Для любого скаляра α справедливо
R(αx) = R(x),
что устанавливается непосредственной проверкой.
Если v — собственный вектор матрицы A, то R(x) равен собственно-
му значению матрицы, отвечающему v. В самом деле, если обозначить
это собственное значение посредством λ, то Av = λv. По этой причине
hAv, vi hλv, vi λ hv, vi
R(v) = = = = λ.
hv, vi hv, vi hv, vi
Как следствие доказанного свойства, можем заключить, что собствен-
ные числа матрицы принадлежат её полю значений.
Собственые векторы являются стационарными точками отношения
Рэлея, т. е. точками зануления его производной. Покажем это для веще-
ственной симметричной матрицы, для которой отношение Рэлея рас-
сматривается для всех ненулевых вещественных векторов:
∂R(x) ∂ hAx, xi 2 (Ax)i hx, xi − hAx, xi · 2xi
= = .
∂xi ∂xi hx, xi hx, xi2
Если x = v = (v1 , v2 , . . . , vn )⊤ — собственный вектор матрицы A, то
числитель последней дроби равен 2λvi hv, vi − hλv, vi · 2vi = 0.
Практическое значение отношения Рэлея для вычислительных ме-
тодов состоит в том, что с его помощью можно легко получить при-
ближение к собственному значению, если известен приближённый соб-
ственный вектор матрицы. Хотя отношение Рэлея имеет смысл и при-
меняется для произвольных матриц, особую красоту и богатство содер-
жания оно приобретает для эрмитовых (симметричных в вещественном
случае) матриц.
3.17. Проблема собственных значений 537
A = U DU ∗ ,
x = (1, 2, 3)⊤ ,
538 3. Численные методы линейной алгебры
получим
hAx, xi
R(x) := = 9.1429.
hx, xi
А если взять
x = (1, 1, −1)⊤ ,
то получим
hAx, xi
R(x) := = −0.66667.
hx, xi
Неплохие оценки для минимального и максимального собственных чи-
сел!
k ← 0;
выбираем вектор x(0) 6= 0;
нормируем x(0) ← x(0) /kx(0) k2 ;
DO WHILE ( метод не сошёлся )
y (k+1) ← Ax(k) ;
λ̃ ← y (k+1) , x(k) ;
x(k+1) ← y (k+1) /ky (k+1) k2 ;
k ← k + 1;
END DO
A = V DV −1 ,
−1
= VD V V D V −1 V · · · V −1 V DV −1 x(0)
= V Dk V −1 x(0) = V Dk z
λk1 z1 1
λk z (λ /λ )k (z /z )
2 2 2 1 2 1
= V
.. =
λk1 z1 V
.. ,
. .
λkn zn (λn /λ1 )k (zn /z1 )
kx(k+1) k2
, x(k+1) = Ax(k)
kx(k) k2
(см. [90]).
Наконец, необходимое замечание о сходимости степенного метода
в комплексном случае. Так как комплексные числа описываются па-
рами вещественных чисел, то комплексные одномерные инвариантные
пространства матрицы имеют вещественную размерность 2. Даже бу-
дучи нормированными, векторы из такого подпространства могут от-
личаться на скалярный множитель eiϕ для какого-то аргумента ϕ, так
что если не принять специальных мер, то в степенном методе видимой
стабилизации координатных представлений комплексных собственных
векторов может не наблюдаться. Тем не менее, о факте сходимости или
расходимости можно при этом судить по стабилизации приближения к
собственному значению. Либо кроме нормировки собственных векторов
следует предусмотреть ещё приведение их к такой форме, в которой
координатные представления будут определяться более «жёстко», на-
пример, требованием, чтобы первая компонента вектора была бы чисто
вещественной.
к матрице
1 2i
,
3 4i
имеющей собственные значения
λ1 = −0.4308405 − 0.1485958 i,
λ2 = 1.4308405 + 4.1485958 i.
0.40491 − 0.15163 i
x(10) = ,
0.80725 − 0.40175 i
(11) 0.27536 + 0.33335 i
x = ,
0.64300 + 0.63215 i
(12) 0.22535 + 0.36900 i
x = , и так далее
−0.38795 + 0.81397 i
Номер Приближение
итерации к собственному значению
1 1.5
3 1.3
10 1.0990099
30 1.0332963
100 1.009999
300 1.0033333
1000 1.001
hx(k) , l(k) i
,
hx(k+1) , l(k) i
k ← 0;
выбираем вектор x(0) 6= 0;
DO WHILE ( метод не сошёлся )
найти y (k+1) из системы Ay (k+1) = x(k) ;
λ̃ ← x(k) , y (k+1) / y (k+1) , y (k+1) ;
x(k+1) ← y (k+1) /ky (k+1) k2 ;
k ← k + 1;
END DO
3.18. Численные методы для несимметричной проблемысобственных значений
Номер Приближение
итерации к собственному значению
1 2.0 + 2.0 i
3 2.0413 + 4.3140 i
5 2.7022 + 3.9373 i
10 2.5005 + 3.9455 i
20 2.5000 + 3.9365 i
Im
0 Re
было меньшим, чем |λ2 /λ1 |, ускорив тем самым степенные итерации.
Совершенно аналогичный эффект оказывает удачный выбор сдвига на
отношение |λn /λn−1 |, которое определяет скорость сходимости обрат-
ных степенных итераций.
k ← 0;
A(0) ← A;
DO WHILE ( метод не сошёлся )
вычислить QR-разложение A(k) = Q(k) R(k) ;
A(k+1) ← R(k) Q(k) ;
k ← k + 1;
END DO
k ← 0;
A(0) ← A;
DO WHILE ( метод не сошёлся )
выбрать сдвиг ϑk , приближённо равный
собственному значению A ;
вычислить QR-разложение сдвинутой
матрицы A(k) − ϑk I = Q(k) R(k) ;
A(k+1) ← R(k) Q(k) + ϑk I;
k ← k + 1;
END DO
=
0 0
Рис. 3.34. Разложение матрицы (A(k) − ϑI) в QR-алгоритме.
и
α21 + β12 α2 β1
α2 β1 α22 + β22
..
α3 β2
.. ..
0
. . .
αn−1 βn−2 α2n−1 2
+ βn−1 αn βn−1
0 αn βn−1 α2n
соответственно. Матрица !
0 B⊤
(3.204)
B 0
трёхдиагональной, очевидно, не является, но путём перестановки её
строк и столбцов она может быть сделана трёхдиагональной. Так как
матрицы перестановки ортогональны, то сингулярные числа при таком
преобразовании останутся неизменными.
Пусть ej обозначает j-ый столбец единичной матрицы, т. е.
⊤
ej := 0, . . . , 1, . . . , 0 .
j-ое место
3.19. Численные методы для симметричной проблемысобственных значений56
Обозначим также P := e1 , en+1 , e2 , en+2 , . . . , en , en — матрицу, состав-
ленную из переупорядоченных определённым образом столбцов еди-
ничной матрицы. Очевидно, что это матрица перестановки (см. Опре-
деление 3.6.1, стр. 378), и она замечательна тем, что порождаемое ею
преобразование подобия переводит матрицу (3.204) в трёхдиагональ-
ную матрицу:
0 α1
α1 0 β1
β 0 α
0
! 1 2
⊤
0 B . . .
P ⊤
P = .. .. .. .
B 0
α n−1 0 β n−1
βn−1 0 αn
0 αn 0
(k+1) (k+1)
! !⊤ (k) (k)
! !
app apq cos θ − sin θ app apq cos θ − sin θ
(k+1) (k+1)
= (k) (k)
aqp aqq sin θ cos θ aqp aqq sin θ cos θ
!
× 0
= ,
0 ×
!
× 0
=
0 ×
app c2 + aqq s2 + 2scapq sc(aqq − app ) + apq (c2 − s2 )
.
2 2 2 2
sc(aqq − app ) + apq (c − s ) app s + aqq c − 2scapq
3.19. Численные методы для симметричной проблемысобственных значений56
t = ±1, если τ = 0.
Первую формулу для улучшения численной устойчивости лучше за-
писать в виде, освобождённом от вычитания близких чисел, так что
соответствующий корень есть
√ √
(−τ + sgn τ · τ 2 + 1)(τ + sgn τ · τ 2 + 1)
t = √
(τ + sgn τ · τ 2 + 1)
1
= √ при τ 6= 0.
(τ + sgn τ · τ 2 + 1)
566 3. Численные методы линейной алгебры
n
!
X
= kAk2F − a2ii − a2pp + a2qq + b2pp + b2qq
i=1
= ND 2 (A) − 2a2pq ,
Вход
Симметричная матрица A.
Выход
Матрица, на диагонали которой стоят приближения
к собственным значениям A.
Алгоритм
DO WHILE метод не сошёлся )
выбрать ненулевой внедиагональный
элемент apq в A ;
обнулить apq и aqp преобразованием подобия
с матрицей вращения G(p, q, θ) ;
END DO
Литература к главе 3
Основная
[1] Бахвалов Н.С., Жидков Н.П., Кобельков Г.М. Численные методы. –
Москва: «БИНОМ. Лаборатория знаний», 2003, а также другие издания этой
книги.
[2] Бахвалов Н.С., Корнев А.А., Чижонков Е.В. Численные методы. Реше-
ния задач и упражнения. – Москва: Дрофа, 2008.
[3] Беклемишев Д.В. Дополнительные главы линейной алгебры. – Москва: На-
ука, 1983.
[4] Березин И.С., Жидков Н.П. Методы вычислений. Т. 1–2. – Москва: Наука,
1966.
[5] Вержбицкий В.М. Численные методы. Части 1–2. – Москва: «Оникс 21 век»,
2005.
[6] Воеводин В.В. Линейная алгебра. – Москва: Наука, 1980.
[7] Воеводин В.В., Воеводин Вл.В. Энциклопедия линейной алгебры. Элек-
тронная система ЛИНЕАЛ. – Санкт-Петербург: БХВ-Петербург, 2006.
[8] Волков Е.А. Численные методы. – Москва: Наука, 1987.
[9] Гантмахер Ф.Р. Теория матриц. – Москва: Наука, 1988.
[10] Глазман И.М., Любич Ю.И. Конечномерный линейный анализ. – Москва:
Наука, 1969.
[11] Голуб Дж., ван Лоун Ч. Матричные вычисления. – Москва: Мир, 1999.
[12] Демидович Б.П., Марон А.А. Основы вычислительной математики. –
Москва: Наука, 1970.
[13] Деммель Дж. Вычислительная линейная алгебра. – Москва: Мир, 2001.
[14] Зорич В.А. Математический анализ. Т. 1. – Москва: Наука, 1981. T. 2. –
Москва: Наука, 1984, а также более поздние издания.
[15] Икрамов Х.Д. Численные методы для симметричных линейных систем. –
Москва: Наука, 1988.
[16] Икрамов Х.Д. Несимметричная проблема собственных значений. – Москва:
Наука, 1991.
[17] Ильин В.П. Методы и технологии конечных элементов. – Новосибирск: Из-
дательство ИВМиМГ СО РАН, 2007.
[18] Ильин В.П., Кузнецов Ю.И. Трёхдиагональные матрицы и их приложения.
– Москва: Наука, 1985.
[19] Канторович Л.В., Акилов Г.П. Функциональный анализ. – Москва: Наука,
1984.
572 3. Численные методы линейной алгебры
[61] Trefethen L.N., Bau D. III Numerical linear algebra. – Philadelphia: SIAM,
1997.
Дополнительная
[62] Алберг Дж., Нильсон Э., Уолш Дж. Теория сплайнов и её приложения. –
Москва: Мир, 1972.
[63] Александров П.С. Введение в теорию множеств и общую топологию. –
Санкт-Петербург: Лань, 2010.
[64] Алексеев В.Б. Теорема Абеля в задачах и решениях. – Москва: Московский
Центр непрерывного математического образования, 2001.
[65] Алексеев Е.Р., Чеснокова О.В., Рудченко Е.А. Scilab. Решение инженер-
ных и математических задач. – Москва: Alt Linux – «БИНОМ. Лаборатория
знаний», 2008.
[66] Алефельд Г., Херцбергер Ю. Введение в интервальные вычисления. –
Москва: Мир, 1987.
[67] Бабенко К.И. Основы численного анализа. – Москва: Наука, 1986; Ижевск-
Москва: Издательство «РХД», 2002.
[68] Бардаков В.Г. Лекции по алгебре Ю.И. Мерзлякова. – Новосибирск: Изда-
тельство НГУ, 2012.
[69] Быченков Ю.В., Чижонков Е.В. Итерационные методы решения седловых
задач. – Москва: «БИНОМ. Лаборатория знаний», 2012.
[70] Виро О.Я., Иванов О.А., Нецветаев Н.Ю., Харламов В.М. Элементар-
ная топология. – Москва: Московский центр непрерывного математического
образования, 2010 и 2012.
[71] Воеводин В.В. Численные методы алгебры. Теория и алгорифмы. – Москва:
Наука, 1966.
[72] Воеводин В.В. Вычислительные основы линейной алгебры. – Москва: Наука,
1977.
[73] Воеводин В.В., Кузнецов Ю.А. Матрицы и вычисления. – Москва: Наука,
1984.
[74] Гавриков М.Б., Таюрский А.А. Функциональный анализ и вычислительная
математика. – Москва: URSS, 2016.
[75] Годунов С.К., Антонов А.Г., Кирилюк О.Г., Костин В.И. Гарантиро-
ванная точность решения систем линейных уравнений в евклидовых простран-
ствах. – Новосибирск: Наука, 1988 и 1992.
[76] Годунов С.К. Современные аспекты линейной алгебры. – Новосибирск: На-
учная книга, 1997.
[77] Горбаченко В.И. Вычислительная линейная алгебра с примерами на
MATLAB. – Санкт-Петербург: «БХВ-Петербург», 2011.
[78] Джордж А., Лю Дж. Численное решение больших разреженных систем
уравнений. – Москва: Мир, 1984.
Литература к главе 3 575
[114] Todd J. The condition number of the finite segment of the Hilbert matrix //
National Bureau of Standards, Applied Mathematics Series. – 1954. – Vol. 39. –
P. 109–116.
[115] Turing A.M. Rounding-off errors in matrix processes // Quarterly Journal of
Mechanics and Applied Mathematics. – 1948. – Vol. 1. – P. 287–308.
[116] Varah J.M. A lower bound for the smallest singular value of a matrix // Linear
Algebra and its Applications. – 1975. – Vol. 11. – P. 3–5.
[117] Varga R.S. On diagonal dominance arguments for bounding kA−1 k∞ // Linear
Algebra and its Applications. – 1976. – Vol. 14. – P. 211–217.
[118] Varga R.S. Matrix iterative analysis. – Berlin, Heidelberg, New York: Springer
Verlag, 2000, 2010.
[119] von Neumann J., Goldstine H.H. Numerical inverting of matrices of high order
// Bulletin of the American Mathematical Society. – 1947. – Vol. 53, No. 11. –
P. 1021–1099.
[120] Wilf H.S. Finite sections of some classical inequalities. – Heidelberg: Springer,
1970.
Глава 4
Решение нелинейных
уравнений и их систем
f (x) = 0
и систем уравнений
F1 ( x1 , x2 , . . . , xn ) = 0,
F2 ( x1 , x2 , . . . , xn )
= 0,
.. .. .. (4.1)
. . .
Fn ( x1 , x2 , . . . , xn ) = 0,
578
4.1. Обзор постановок задачи 579
F (x) = 0 ⇐⇒ x = x − ΛF (x),
F (x) = 0
G(x) := x − ΛF (x).
f (x)
x2 + px + q = 0 (4.5)
для
p2 = 4q (4.6)
имеет лишь одно решение x = −p/2. Но при любых сколь угодно ма-
лых возмущениях коэффициента p и свободного члена q, нарушающих
равенство (4.6), уравнение (4.5) теряет это единственное решение или
же приобретает ещё одно (см. Рис. 4.2).
x x
G(x) = H(x),
kG(x) − H(x)k
<ε.
max{kG(x)k, kH(x)k}
dx
= Ax, (4.7)
dt
матрица которой A = A(θ) зависит от параметра θ (возможно, вектор-
ного). Пусть при некотором начальном значении θ = θ0 собственные
значения λ(A) матрицы A имеют отрицательные вещественные части,
так что все решения системы (4.7) устойчивы по Ляпунову (и даже
асимптотически устойчивы). При каких значениях параметра θ рас-
сматриваемая система сделается неустойчивой?
Im
Re
Φ : M → Rn ,
x2 x2
✻ ✻
♣ ✲ ♣ ✲
x1 x1
∆(λ, x) : R × M → Rn
γ(Φ, D) = 1.
на правой половине Рис. 4.5 — вращение −1. Векторные поля Рис. 4.6,
которые задаются формулами
(
x1 = r cos(N ψ),
x2 = r sin(N ψ),
p
где r = x21 + x22 — длина радиус-вектора точки x = (x1 , x2 ), ψ — его
угол с положительным лучом оси абсцисс, при N = 2 и N = 3 имеют
вращения +2 и +3 на окружностях с центром в нуле.
x2 x2
✻ ✻
♣ ✲ ♣ ✲
x1 x1
Предложение 4.3.1 [57, 58, 30, 60] Если векторное поле Φ невырож-
дено на замыкании ограниченной области D, то вращение γ(Φ, D) = 0.
Теорема 4.3.1 (теорема Кронекера) [57, 58, 30] Пусть векторное поле
Φ невырождено на границе ограниченной области D и непрерывно на
её замыкании. Если γ(Φ, D) 6= 0, то поле Φ имеет в D по крайней
мере одну особую точку.
4.3д Вычислительно-корректная
постановка задачи
Теперь все готово для вычислительно-корректной переформулиров-
ки задачи решения уравнений и систем уравнений. Она должна выгля-
деть следующим образом:
600 4. Решение нелинейных уравнений и их систем
y y
y = F (x) y = |F (x)|
x x
R
α α
l
= R.
2α
С другой стороны, из рассмотрения прямоугольного треугольника с ка-
тетом h/2 и гипотенузой R получаем
R sin α = h/2.
an xn + an−1 xn−1 + . . . + a1 x + a0 = 0
обозначено
x ← a; x ← b;
DO WHILE (x − x > ǫ)
y ← 21 (x + x) ;
IF f (x) < 0 и f (y) > 0 или f (x) > 0 и f (y) < 0
x←y
ELSE
x←y
END IF
END DO
x(k+1) ← Φ(x(k) ), k = 0, 1, 2, . . .
4.4. Классические методы решения уравнений 607
l
α(k+1) ← sin α(k) , k = 0, 1, 2, . . . , (4.12)
h
получаем пять верных знаков точного решения α∗ = 0.748986642697 . . .
(читатель легко может самостоятельно проверить все числовые данные
этого примера с помощью любой системы компьютерной математики).
Итерационный процесс (4.12) сходится к решению α∗ не из любого
начального приближения. Если α(0) = πl, l ∈ Z, то выполнение ите-
раций (4.12) с идеальной точностью даёт α(k) = 0, k = 1, 2, . . .. Если
же α(0) таково, что синус от него отрицателен, то итерации (4.12) схо-
дятся к решению (−α∗ ) уравнения (4.11). И нулевое, и отрицательное
решения очевидно не имеют содержательного смысла.
С другой стороны, переписывание исходного уравнения (4.12) в дру-
гом рекуррентном виде —
1
α= arcsin(αh)
l
— приводит к тому, что характер сходимости метода простой итерации
совершенно меняется. Из любого начального приближения, меньшего
по модулю чем примерно 0.226965, итерации
1
α(k+1) ← arcsin α(k) h , k = 0, 1, 2, . . . ,
l
сходятся лишь к нулевому решению. Бо́льшие по модулю начальные
приближения быстро выводят за границы области определения веще-
ственного арксинуса, переводя итерации в комплексную плоскость, где
608 4. Решение нелинейных уравнений и их систем
x(k+1) ← g(x(k) ), k = 0, 1, 2, . . . ,
f (x)
x̃ x∗ x
Итерационный процесс
f (x(k) )
x(k+1) ← x(k) − , k = 0, 1, 2, . . . ,
f ′ (x(k) )
называют методом Ньютона. Он является одним из популярнейших и
наиболее эффективных численных методов решения уравнений и имеет
4.4. Классические методы решения уравнений 611
f (x(k) )
x(k+1) ← x(k) − , k = 0, 1, 2, . . . ,
f ′ (x̌)
где x̌ — фиксированная точка, в которой берётся производная. Получа-
ем стационарный итерационный процесс, который существенно проще
в реализации, но он имеет качественно более медленную сходимость.
612 4. Решение нелинейных уравнений и их систем
h(x)
0.6
0.4
0.2
-4 -3 -2 -1 x
0 1 2 3 4
-0.2
-0.4
-0.6
x(k) > √1 .
6
′
и при minξ∈[a,b] |f (ξ)| 6= 0 получаем оценку (4.16). Отметим её оче-
видную аналогию с оценкой (3.174) для погрешности решения систем
линейных уравнений: в обоих случаях невязка приближённого решения
умножается на норму обратного отображения.
На практике нахождение точного минимума minξ∈[a,b] |f ′ (ξ)| по ин-
тервалу с решением может быть затруднительным, и тогда вместо него
в (4.16) можно взять какую-нибудь положительную оценку снизу для
области значений производной на [a, b]. Когда заранее известно, что вы-
числяемое решение не является кратным и потому производная f ′ не
зануляется в нём, можно прибегнуть к приближённому способу оценки
погрешности:
x̃ − x∗ ≈ |f (x̃)| ,
|f ′ (x̃)|
если x̃ достаточно близко к x∗ .
(0 − y)2 (0 − y)p
g(0) = g(y) + g ′ (y) (0 − y) + g ′′ (y) + . . . + g (p) (y)
2 p!
(0 − y)p+1
+ g (p+1) (ξ)
(p + 1)!
p
X yl y p+1
= g(y) + (−1)l g (l) (y) + (−1)p+1 g (p+1) (ξ) ,
l! (p + 1)!
l=1
или
g ′ f (x) f ′ (x) = 1,
2
g ′′ f (x) f ′ (x) + g ′ f (x) f ′′ (x) = 0,
3
g ′′′ f (x) f ′ (x) + 3g ′′ f (x) f ′ (x) f ′′ (x) + g ′ f (x)) f ′′′ (x) = 0,
... ... .
Относительно неизвестных значений производных g ′ f (x) , g ′′ f (x) ,
g ′′′ f (x) и т. д. эта система соотношений имеет треугольный вид, поз-
воляющий найти их последовательно одну за другой:
1
g ′ f (x) = ,
f ′ (x)
′′
g f (x) f ′′ (x) f ′′ (x)
g f (x) = − 2 =− 3 ,
f ′ (x) f ′ (x)
′′′
3g ′′ f (x) f ′ (x) f ′′ (x) + g ′ f (x)) f ′′′ (x)
g f (x) = − 3
f ′ (x)
2
f ′′ (x) f ′′′ (x)
= −3 5 − 4
f ′ (x) f ′ (x)
и так далее.
Для p = 1 расчётные формулы метода Чебышёва имеют вид
f (x(k) )
x(k+1) ← x(k) − , k = 0, 1, 2, . . . ,
f ′ (x(k) )
4.5. Классические методы решения систем уравнений 617
x = x − ΛF (x),
x(k+1) ← Φ(x(k) ), k = 0, 1, 2, . . . ,
где F ′ (x̃) — матрица Якоби отображения F в точке x̃. Далее для вычис-
ления следующего и более точного приближения к решению системы
уравнений естественно взять решение системы линейных алгебраиче-
ских уравнений
F (x̃) + F ′ (x̃) (x − x̃) = 0,
которая получается из разложения F в окрестности x̃. Следовательно,
очередным приближением к решению можно взять
−1
x = x̃ − F ′ (x̃) F (x̃).
Итерационный процесс
−1
x(k+1) ← x(k) − F ′ (x(k) ) F (x(k) ), k = 0, 1, 2, . . . ,
и √
1− 1 − 2h
r ≥ r0 = η,
h
то уравнение F (x) = 0 имеет решение x⋆ , к которому сходится метод
Ньютона, как исходный, так и модифицированный. При этом
kx⋆ − x0 k ≤ r0 .
x2
−2 0 1 3
x1
−1
−2
Полагая
!
X .
x′i := bi − aij xj aii , i = 1, 2, . . . , n,
j6=i
x̃i ∈ x′i , i = 1, 2, . . . , n,
Вход
Интервальная линейная система уравнений Ax = b.
Брус x = ( x1 , . . . , xn )⊤ ∈ IRn , ограничивающий желаемую
часть объединённого множества решений Ξ(A, b).
Некоторая константа ǫ > 0.
Выход
Уточнённая внешняя оценка x̃ = ( x̃1 , . . . , x̃n )⊤ ⊇ Ξ(A, b) ∩ x
для части множества решений, содержащейся в x, либо
информация «множество Ξ(A, b) не пересекает брус x».
Алгоритм
q ← + ∞;
DO WHILE ( q ≥ ǫ )
DO FOR i = 1 TO n
i−1 n
!
X X .
x̃i ← xi ∩ bi − aij x̃j − aij xj aii ;
j=1 j=i+1
IF ( x̃i = ∅ ) THEN
STOP, сигнализируя «множество решений Ξ(A, b)
не пересекает брус x»
END IF
END DO
q ← расстояние между векторами x и x̃ = ( x̃1 , . . . , x̃n )⊤ ;
x ← x̃;
END DO
4.7. Интервальные методы решения уравнений 625
F (x) = 0
628 4. Решение нелинейных уравнений и их систем
f (x̃)
x⋆ = x̃ − .
f ′ (ξ)
f (x̃)
x⋆ ∈ x̃ − (4.30)
f ′ (X)
N : IR × R → IR,
действующее по правилу
f (x̃)
N(X, x̃) := x̃ − ,
f ′ (X)
x x′ x̃ x
′
x
y = f (x)
Итак, пусть 0 6∈ f ′ (X), так что N(X, x̃) является вполне определён-
ным конечным интервалом. Поскольку любой нуль функции f (x) на X
лежит также в N(X, x̃), то разумно взять в качестве следующего более
точного интервала локализации решения пересечение
X ∩ N(X, x̃),
f (y)
g(y) = y − . (4.33)
f′ ξ(x̃, y)
2 В некоторых компьютерных реализациях результат любой операции с пустым
y = f (x)
x x
x̃
x′ x′ x′′ x′′
[ a, a]
a/b =
[ b, b]
a · [ 1/b, 1/b ], если 0 6∈ b,
] − ∞, + ∞ [ , если 0 ∈ a и 0 ∈ b,
[ a/b, + ∞ [ , если a < 0 и b < b = 0,
] − ∞, a/b] ∪ [ a/b, + ∞ [ , если a < 0 и b < 0 < b,
= ] − ∞, a/b ], если a < 0 и 0 = b < b,
если 0 < a и b < b = 0,
] − ∞, a/b ],
] − ∞, a/b ] ∪ [a/b, + ∞ [ , если 0 < a и b < 0 < b,
[ a/b, + ∞ [ , если 0 < a и 0 = b < b,
∅, если 0 6∈ a и 0 = b.
(4.34)
так что
x ∈ x̃ + Encl (S, −F (x̃)).
N(x, x̃) ⊇ x.
что равносильно
K : ID × R → IRn ,
задаваемое выражением
X ′′ X′
X ′′ X′
Вход
Система уравнений F (x) = 0. Брус X ∈ IRn .
Интервальное расширение F : IX → IRn функции F .
Заданная точность δ > 0 локализации решений системы.
Выход
Список НавернякаРешения из брусов размера менее δ, которые
гарантированно содержат решения системы уравнений в X.
Список ВозможноРешения из брусов размера менее δ, которые
могут содержать решения системы уравнений в X.
Список Недообработанные из брусов размера более δ, которые
могут содержать решения системы уравнений в X.
Алгоритм
инициализируем рабочий список L исходным брусом X ;
DO WHILE ( L 6= ∅ ) и ( не исчерпаны ресурсы ЭВМ )
извлекаем из рабочего списка L брус Y ;
применяем к Y тест существования решения,
его результат обозначаем также через Y ;
IF ( в Y доказано отсутствие решений ) THEN
удаляем брус Y из рассмотрения
ELSE
IF ( (размер бруса Y ) < δ ) THEN
заносим Y в соответствующий из списков
НавернякаРешения или ВозможноРешения
ELSE
рассекаем Y на потомки Y ′ и Y ′′
и заносим их в рабочий список L
END IF
END IF
END DO
все брусы из L перемещаем в список Недообработанные;
4.8. Глобальное решение уравнений и систем 643
Литература к главе 4
Основная
[1] Алефельд Г., Херцбергер Ю. Введение в интервальные вычисления. –
Москва: Мир, 1987.
[2] Акритас А. Основы компьютерной алгебры с приложениями. – Москва: Мир,
1994.
[3] Барахнин В.Б., Шапеев В.П. Введение в численный анализ. – Санкт-
Петербург–Москва– Краснодар: Лань, 2005.
[4] Бауэр Ф.Л., Гооз Г. Информатика. В 2-х ч. – Москва: Мир, 1990.
[5] Бахвалов Н.С., Жидков Н.П., Кобельков Г.М. Численные методы. –
Москва: Бином, 2003, а также другие издания этой книги.
[6] Бахвалов Н.С., Корнев А.А., Чижонков Е.В. Численные методы. Реше-
ния задач и упражнения. – Москва: Дрофа, 2008.
[7] Березин И.С., Жидков Н.П. Методы вычислений. Т. 1–2. – Москва: Наука,
1966.
[8] Берже М. Геометрия. Т. 1, 2. – Москва: Наука, 1984.
[9] Вержбицкий В.М. Численные методы. Части 1–2. – Москва: «Оникс 21 век»,
2005.
[10] Волков Е.А. Численные методы. – Москва: Наука, 1987.
[11] Годунов С.К. Современные аспекты линейной алгебры. – Новосибирск: На-
учная книга, 1997.
[12] Годунов С.К., Антонов А.Г., Кириллюк О.П., Костин В.И. Гарантиро-
ванная точность решения систем линейных уравнений в евклидовых простран-
ствах. – Новосибирск: Наука, 1992.
[13] Гэри М., Джонсон Д. Вычислительные машины и труднорешаемые задачи.
– Москва: Мир, 1982.
[14] Демидович Б.П., Марон А.А. Основы вычислительной математики. –
Москва: Наука, 1970.
[15] Дэннис Дж., мл., Шнабель Р. Численные методы безусловной оптимизации
и решения нелинейных уравнений. – Москва: Мир, 1988.
Литература к главе 4 645
Дополнительная
[51] Абаффи Й., Спедикато Э. Математические методы для линейных и нели-
нейных уравнений. Проекционные ABS-алгоритмы. – Москва: Мир, 1996.
[52] Арнольд В.И. Обыкновенные дифференциальные уравнения. – Москва: На-
ука, 1984.
[53] Бабенко К.И. Основы численного анализа. – Москва: Наука, 1986.
[54] Ганшин Г.С. Методы оптимизации и решение уравнений. – Москва: Наука,
1987.
[55] Ермаков С.М. Метод Монте-Карло и смежные вопросы. – Москва: Наука,
1975.
Литература к главе 4 647
⇒ логическая импликация
⇐⇒ логическая равносильность
& логическая конъюнкция, связка «и»
→ отображение множеств; предельный переход
7 → правило сопоставления элементов при отображении
← оператор присваивания в алгоритмах
◦ знак композиции отображений
∅ пустое множество
x∈X элемент x принадлежит множеству X
x 6∈ X элемент x не принадлежит множеству X
X ∪Y объединение множеств X и Y
X ∩Y пересечение множеств X и Y
X \Y разность множеств X и Y
X ⊆Y множество X есть подмножество множества Y
X ×Y прямое декартово произведение множеств X и Y
int X топологическая внутренность множества X
cl X топологическое замыкание множества X
∂X граница множества X
N множество натуральных чисел
R множество вещественных (действительных) чисел
R+ множество неотрицательных вещественных чисел
648
Обозначения 649
∂f
∂xi частная производная функции f по переменной xi
I единичная матрица соответствующих размеров
k·k векторная или матричная норма
h·, ·i скалярное произведение векторов
A⊤ матрица, транспонированная к матрице A
A∗ матрица, эрмитово сопряжённая к матрице A
A−1 матрица, обратная к матрице A
ρ(A) спектральный радиус матрицы A
λ(A), λi (A) собственные числа матрицы A
σ(A), σi (A) сингулярные числа матрицы A
cond A число обусловленности матрицы A
rank A ранг матрицы A
det A определитель матрицы A
Ki (A, r) подпространство Крылова матрицы A
diag {z1 , . . . , zn } диагональная n × n-матрица
с элементами z1 , . . . , zn по главной диагонали
lh {v1 , . . . , vn } линейная оболочка векторов v2 , . . . , vn
Cp [a, b] класс функций, непрерывно дифференцируемых
вплоть до p-го порядка на интервале [a, b]
L2 [a, b] класс функций, интегрируемых с квадратом
на интервале [a, b]
min, max операции взятия минимума и максимума
P
символ суммы нескольких слагаемых
Q
символ произведения нескольких сомножителей
652
Обозначения 653
ван дер Варден, Бартель Леендерт (Bartel Leendert van der Waerden,
1903–1996) — голландский математик.
— немецкий математик.6
Фредгольм, Эрик Ивар (Erik Ivar Fredholm, 1866–1927)
— шведский математик.
Фробениус, Фердинанд Георг (Ferdinand Georg Frobenius, 1849–1917)
— немецкий математик.
Фрэнсис, Джон (John G.F. Francis, род. 1934)
— английский математик и программист.
Фурье, Жан Батист (Jean Baptiste Fourier, 1768–1830)
— французский математик и физик.
Хаар, Альфред (Alfred Haar, 1885–1933)
— венгерский математик.
Хаусдорф, Феликс (Felix Hausdorff, 1868–1942)
— немецкий математик.
Хаусхолдер, Элстон (Alston Scott Householder, 1904–1993)
— американский математик.
Хевисайд, Оливер (Oliver Heaviside, 1850–1925)
— английский инженер, математик и физик.
Хессенберг, Карл Адольф (Karl Adolf Hessenberg, 1904–1959)
— немецкий математик и инженер.
Хестенс, Магнус (Magnus R. Hestenes, 1906–1991)
— американский математик.
Холесский, Андре-Луи (André-Louis Cholesky, 1875–1918)
— французский геодезист и математик.7
Хопф, Хайнц (Heinz Hopf, 1896–1971)
— немецкий и швейцарский математик.
Хоффман, Алан Джером (Alan Jerome Hoffman, род. 1924)
— американский математик.8
Чебышёв, Пафнутий Львович (1821–1894)
— русский математик и механик, внёсший основополагающий вклад,
в частности, в теорию приближений и теорию вероятностей.
6 Примерно к этому же времени относится жизнь и деятельность известного ан-
661
662 Предметный указатель
чебышёвские узлы, 92
числа Кристоффеля, 240
численное дифференцирование,
131
численные методы анализа, 55
число обусловленности, 344
число с плавающей точкой, 23
шаблон, 135
шаг сетки, 78, 115