Вы находитесь на странице: 1из 46

Линал, билеты 13 – 37

Ирина Ткаченко :)
Павел Мартынов

Содержание

1
1 Законы композиции. Ассоциативность, коммутативность
алгебраических операций. Алгебраическая структура, груп-
па, кольцо, поле. Основные свойства, примеры.
1.1 Законы композиции
Закон внешней композиции – отображение, которое упорядоченной паре (a, b), где a ∈
A, b ∈ B, ставит в соответствие элемент c ∈ C : A × B → C.

Закон внутренней композиции - отображение, которое упорядоченной паре (a, b), где a ∈
A, b ∈ B, ставит в соответствие элемент c ∈ C : A × A → A.

1.2 Алгебраические структуры


Пусть есть какая-то алгебраическая операция, которую мы обозначим ∗.
1. Будем называть ∗ ассоциативной, если (a ∗ b) ∗ c = a ∗ (b ∗ c).
2. Будем называть её коммутативной, a ∗ b = b ∗ a.
Алгебраическая структура – непустое множество A (носитель) со множеством алгебраи-
ческих операций Ω и множеством отношений (сигнатура), подчинённых некоторым аксиомам.
Модель – алгебраическая структура с пустым множеством операций. Алгебра – алгебраическая
структура с пустым множеством отношений.

1.2.1 Группа
(G, ∗) называется группой, если выполняются аксиомы:
(a) ассоциативность: a ∗ (b ∗ c) = (a ∗ b) ∗ c
(b) ∃ нейтральный элемент относительно ∗: ∀ a ∈ A ∃ e ∈ A : a ∗ e = e ∗ a = a
(c) ∃ обратного элемента относительно ∗: ∀ a ∈ A ∃ a0 ∈ A : a0 ∗ a = a ∗ a0 = e
(d) * если выполняется коммутативность a ∗ b = b ∗ a, то группа называется абелевой или
коммутативной

2
1.2.2 Кольцо
(K, +, · ) называется кольцом, если выполняются аксиомы ∀a, b, c ∈ A
(a) ассоциативность сложения: (a + b) + c = a + (b + c)
(b) коммутативность сложения: a + b = b + a
(c) ∃ нулевого элемента O : a + O = a
(d) ∃ противоположного элемента −a : a + (−a) = −a + a = O
(a) - (d) – абелева группа на сложение
(e) левая и правая дистрибутивность: (a + b) · c и a · (b + c)
(!) Далее идут разные типы колец
(f) ассоциативность относительно произведения: (a · b) · c = a · (b · c) – ассоциативное кольцо
(g) коммутативность относительно сложения: a · b = b · a – коммутативное кольцо
(h) ∃ единичного элемента 1 : a · 1 = a – кольцо с единицей
(i) ∃ обратного элемента a−1 ∀ a 6= 0 : a · a−1 = 1 – кольцо обратное

1.2.3 Поле
(K, +, · ) называется полем, если выполнены следующие аксиомы
(a) ассоциативность сложения: (a + b) + c = a + (b + c)
(b) коммутативность сложения: a + b = b + a
(c) ∃ нулевого элемента O : a + O = a
(d) ∃ противоположного элемента −a : a + (−a) = −a + a = O
(e) левая и правая дистрибутивность: (a + b) · c и a · (b + c)
(f) ассоциативность относительно произведения: (a · b) · c = a · (b · c)
(g) коммутативность относительно сложения: a · b = b · a
(h) ∃ единичного элемента 1 : a·1=a
(i) ∃ обратного элемента a−1 ∀ a 6= 0 : a · a−1 = 1

3
1.3 Свойства
1. Пусть выполнены аксиомы (a) - (d)
(a) a + x = a + y ⇔ x = y
Доказательство:
a+x=a+y | + (−a)
−a + a + x = −a + a + y
O+x=O+y
x=y
(b) a + x = b ⇒ ∃! решение x = b + (−a)
Доказательство:
a+x=b | + (−a)
−a + a + x = b + (−a)
x = b + (−a)
(c) Нулевой и противоположный элемент определяются ∀a единственным образом
2. Пусть выполнены аксиомы (a) - (e)
∀a ∈ K : a · O = O
Доказательство:
a · O = a · (O + O) = a · O + a · O
a·O=a·O+a·O | + (−(a · O))
O=a·O
3. Пусть выполнены (a) - (e), (h) (кольцо с единицей)
1 определена единственным образом
Доказательство:
Пусть 1 – тоже единичный элемент.
1·1=1
1·1=1
1=1
4. K называется областью целостности, если a · b = O ⇒ a = O и/или b = O
Любое поле является областью целостности
Доказательство:
Пусть a · b = O и a 6= O
∃ a−1 ; a · a−1 · b = O · a−1 = O и = 1 · b ⇒ b = O

4
2 Линейное пространство, алгебра. Основные свойства, при-
меры. Нормированные линейные пространства и алгеб-
ры. Примеры. Отношение эквивалентности, фактор-структуры.
Пусть K – поле, пусть определена алгебраическая структура (V, +, · ) и пусть определена опе-
рация "умножение"элементов V на элементы поля K: 00 ·00 : K × V → V .

2.1 Аксиомы линейного пространства и алгебры


V называется линейным пространством над полем K, если выполняются следующие 8 ак-
сиом ∀ u, v, w ∈ V, ∀ α, β ∈ K
1. ассоциативность относительно сложения: (u + v) + w = u + (v + w)
2. коммутативность относительно сложения: u + v = v + u
3. ∃ нулевого элемента O : u + O = u
4. ∃ противоположного элемента −u : −u + u = O
5. дистрибутивность относительно векторов: α · (u + v) = α · u + α · v
6. дистрибутивность относительно скаляров: (α + β) · u = α · u + β · u
7. ассоциативность умножения относительно скаляров: (α · β) · u = α · (β · u) = β · (α · u)
8. ∃ единичного элемента 1 : 1 · u = u – единица поля K
Пусть определена операция умножения элементов V .
9. ассоциативность умножения относительно векторов: α · (u · v) = (α · u) · v) = u · (α · v)
10. правая и левая дистрибутивность: (u + v) · w = u · w + v · w и u · (v + w) = u · v + u · w
Тогда если выполняются условия 1 - 10, то алгебраическая структура V – алгебра.

2.2 Нормированные линейные пространства


Пусть V – линейное пространство над полем K (R, C).

2.2.1 Аксиомы нормы


Отображение, однозначно сопоставляющее каждому элементу из V число ∈ K, называется
нормой (обозначается k · k), если выполняются следующие аксиомы:
1. невырожденность (тождественность): kuk = 0 ⇒ u = O
2. однородность: ∀ λ ∈ K : kλ · uk = |λ| · kuk
3. неравенство треугольника: ku + vk 6 kuk + kvk
Норма = модуль = длина вектора.
Векторное пространство с заданной на нем нормой – нормированное.

5
2.2.2 Свойства нормированных пространств
1. u 6= O ⇒ kuk > 0
Доказательство:
O = ku + (−u)k 6 kuk + k − uk = kuk + | − 1| · kuk = 2 · kuk ⇒ kuk > 0
В силу первой аксиомы, u 6= O ⇒ kuk > 0
2. ∀ u ∈ V : kuk > 0
Доказательство:
См. свойство 1.

2.3 Метрические пространства


2.3.1 Определения
Всякое нормированное пространство становится метрическим, если ввести в нем расстояние:
ρ(x, y) = kx − yk.

2.3.2 Свойства метрики


1. Если ρ(x, y) = 0, то x = y
Доказательство:
kx − yk = 0 ⇒ x − y = 0 ⇒ x = y
2. ρ(x, y) = ρ(y, x)
Доказательство:
kx − yk = k(−1) · (y − x)k = | − 1| · ky − xk = ky − xk
3. ρ(x, y) 6 ρ(x, z) + ρ(z, y)
Доказательство:
kx − yk = k(x − z) + (z − y)k 6 kx − zk + kz − yk

2.3.3 Нормированная алгебра


Пусть V – алгебра над K. V будет являться нормированной алгеброй, если ∀ u, v ∈ V :
ku · vk 6 kuk · kvk.

2.4 Отношения эквивалентности


Бинарное отношение M между элементами называется отношением эквивалентности и
обозначается как ∼, если выполняются следующие условия: ∀ a, b, c ∈ M
1. рефлексивность: a ∼ a
2. симметричность: a ∼ b ⇒ b ∼ a
3. транзитивность: a ∼ b ∧ b ∼ c ⇒ a ∼ c

6
Ma – класс эквивалентности элемента a, если Ma = {b ∈ M |b ∼ a}.

2.4.1 Свойства классов эквивалентности


1. Ma – непустое множество, так как a ∼ a R a ∈ M
2. ∀ a, b ∈ M : Ma = Mb или Ma ∩ Mb = ∅

2.5 Фактормножества
Множество всех классов эквивалентности на множестве называется фактормножеством.
Разбиение множества на классы эквивалентных элементов называется его факторизацией.

{Bi } ⊂ M – факторизация множества M , если:


1. ∀ i Bi 6= ∅
2. i 6= j ⇒ Bi ∩ Bj = ∅
S
3. Bi = M

7
3 Нормированное пространство (C, | · |) . Модуль комплекс-
ного числа. Различные формы записи комплексных чи-
сел: декартова, алгебраическая, тригонометрическая, по-
казательная. Примеры. Операция умножения на множе-
стве комплексных чисел, различные формы записи. Нор-
мированная алгебра (C, | · |).
Линейное пространство R2 с евклидовой нормой k·k2 называется нормированным простран-
ством комплексных чисел, элементы (комплексные числа) z ∈ C.

z = (x, y), x, y ∈p
R
|z| = k(x, y)k = x2 + y 2 , базисные вектора на плоскости e = (1, 0), i = (0, 1) – мнимая единица.

z = x + iy – алгебраическая форма записи комплексного числа.


z = (x, y) – декартова форма записи к.ч.

Вещественная часть комплексного числа – Re z = x, мнимая часть к.ч. – Im z = y. Верти-


кальная ось на комплексной плоскости – мнимая ось, горизонтальная – вещественная ось.
Если x = 0, y 6= 0, то z – чисто мнимое число.

Полярная СК

ON – полярная ось. ρ – расстояние до точки P . ϕ – угол


между осью и радиус-вектором из начала координат до точки
P.

(x, y) ⇔ (ϕ, ρ);

x2 + y 2 , tan ϕ = xy .
p
x = ρ · cos ϕ, y = ρ · sin ϕ; ρ
z = ρ · (cos ϕ + i · sin ϕ) – тригонометрическая форма записи
к.ч., где ϕ = arg z – аргумент к.ч. (с точностью до 2π).

eiϕ = cos ϕ + i · sin ϕ – формула Эйлера. Тогда z = ρ · eiϕ – показательная форма запи-
си к.ч.

8
НОРМИРОВАННАЯ АЛГЕБРА КОМПЛЕКСНЫХ ЧИСЕЛ

Пусть определена операция умножения для комплексных чисел так, чтобы выполнялись сле-
дующие условия:
1. |z1 · z2 | 6 |z1 | · |z2 |
2. Выполнялись аксиомы 9 и 10 для алгебры:
(a) α · (z1 · z2 ) = (α · z1 ) · z2 = z1 · (α · z2 )
(b) (z1 + z2 ) · z3 = z1 · z3 + z2 · z3
Получим нормированную алгебру с единицей e = (1, 0).

Положим z1 = x1 + iy1 , z2 = x2 + iy2 и i2 = −1. Тогда:


z1 · z2 = (x1 · x2 − y1 · y2 ) + i(x1 · y2 + x2 · y1 ) – алгебраическая форма произведения.
z1 · z2 = (x1 · x2 − y1 · y2 , x1 · y2 + x2 · y1 ) – декартова форма.
z1 · z2 = r1 · r2 (cos(ϕ1 + ϕ2 ) + i · sin(ϕ1 + ϕ2 )) – тригонометрическая форма.
z1 · z2 = r1 · r2 · ei(ϕ1 +ϕ2 ) – показательная форма.

Геометрический смысл произведения z · z 0 .

z = |z| · (cos ϕ + i sin ϕ), z 0 = |z 0 | · (cos ϕ0 + i sin ϕ0 )

z · z 0 = |z| · |z 0 | · (cos(ϕ + ϕ0 ) + i sin(ϕ + ϕ0 ))

Умножение = поворот + растяжение (|z 0 | > 1) или сжатие


(|z 0 | < 1).

9
4 Операция сопряжения и деления на
множестве комплексных чисел, основ-
ные свойства. Поле комплексных чисел.
Свойства экспоненты чисто мнимого числа. Формулы Эйле-
ра, Муавра, корня n – ой степени. Вычисление квадратного
корня в алгебраическом виде. Примеры.
Назовём сопряжённым к числу z = x + iy число z = x − iy. В показательной записи: z =
r · eiϕ , z = r · e−iϕ .

Свойства:
1. z = z
2. z = z ⇔ z ∈ R
3. z1 + z2 = z1 + z2
4. z1 · z2 = z1 · z2
z+z
5. Re z = 2
z−z
6. Im z = 2i

7. z · z = |z|2
8. ∀ z 6= 0 : z −1 = z
|z|2 , z · z −1 = e = 1
Из свойства 8 следует, что C – поле.

Частным двух комплексных чисел z1 и z2 называют такое z, что

z1 x1 · x2 + y1 · y2 x2 · y1 − x1 · y2 |z1 | r1 i(ϕ1 −ϕ2 )


z= = +i· = · (cos(ϕ1 − ϕ2 ) + i · sin(ϕ1 − ϕ2 )) = ·e
z2 x22 + y22 x22 + y22 |z2 | r2

Из этого получаем ещё одно свойство сопряжения:


 
z1 z1
=
z2 z2

10
4.1 Формулы Эйлера, формула Муавра, корень n-ой степени
4.1.1 Формулы преобразований
1. ∀ k ∈ Z : ei2πk = 1
2. eiϕ1 · eiϕ2 = ei(ϕ1 +ϕ2 )
3. ei(ϕ+2πk) = eiϕ ∀ k ∈ Z
4. |eiϕ | = 1
5. e−iϕ = 1
eiϕ : e−iϕ = eiϕ

4.1.2 Формулы Эйлера


eϕ + e−iϕ
1. cos ϕ =
2
eϕ − e−iϕ
2. sin ϕ =
2i

4.1.3 Формула Муавра


z = (cos(ϕ) + i sin(ϕ)) ⇒ z n = rn · (cos(nϕ) + i sin(nϕ))

4.1.4 Извлечение корня n-ой степени


√ √
    
ϕ + 2πk ϕ + 2πk
n
z = n r · cos + i · sin
n n

Таким образом, у любого комплексного числа есть n различных корней n-ой степени, так как
в формулу можно подставить только n различных k, потому как для k1 ≡ k2 mod (n) верно:
   
ϕ + 2πk1 ϕ + 2πk2
cos = cos
n n
   
ϕ + 2πk2 ϕ + 2πk2
sin = sin
n n

11
5 Функции комплексного аргумента
5.1 Экспонента
exp(z) = ex+iy = ex · eiy = ex (cos y + i sin y) = |z| · ei arg z

5.2 Логарифм
ln z = ln(|z|ei arg z ) = ln |z| + i arg z + 2πik

5.3 Возведение в комплексную степень комплексного числа


√ y1

x21 +iy12 +i(arctan
(x1 + iy1 )x2 +iy2 = e(x2 +iy2 ) ln(x1 +iy1 ) = e(x2 +y2 ) ln x1 +2πn)
,n∈Z

5.4 Тригонометрические функции


Для определения тригонометрических функций от комплексного аргумента сначала определим
несколько вспомогательных функций:

5.4.1 Гиперболический синус:


ex − e−x
sh x =
2

5.4.2 Гиперболический косинус:


ex + e−x
ch x =
2

5.4.3 Гиперболический тангенс:


sh x ex − e−x
th x = = x
ch x e + e−x

5.4.4 Свойства гиперболических функций:


1. ch2 x − sh2 x = 1
2. sh x = −i sin(ix)
3. ch x = cos(ix)
4. th x = −i tg(ix)
Стоит упомянуть, что гиперболический синус в устной речи называют шинусом, а гиперболи-
ческий косинус — чосинусом.

5.4.5 Тригонометрические функции комплексного аргумента:


^ (a + bi) = z ∈ C, тогда:
• sin z = sin a cos(bi) + cos a sin(bi) = sin a ch b + i cos a sh b
• cos z = cos a cos(bi) + sin a sin(bi) = cos a ch b − i sin a sh b

12
Помимо этого, можно просто пользоваться выражением тригонометрических функций ком-
плексного аргумента при помощи формулы Эйлера:
eiz −e−iz
• sin z = 2i
eix +e−iz
• cos z = 2

5.5 Обратные тригонометрические функции:


Для нахождения множества значений обратной тригонометрической функции от комплексного
аргумента надо решать уравнение. Решим такие уравнения для обратных синуса и косинуса
комплексного аргумента:

eiv + e−iv
arccos z = v, ⇒ cos(arccos z) = cos v, ⇒ z = cos v = , ⇒ e2iv − eiv · (2z) + 1 = 0, ⇒
√ 2
iv 2z + 4z 2 − 4 p  p 
⇒e = = z + z 2 − 1, ⇒ v = −i · ln z + z 2 − 1 =
2  
p p
= −i · ln |z + z 2 − 1| + i arg(z + z 2 − 1) + 2πik

eiv − e−iv
arcsin z = v, ⇒ sin(arcsin z) = sin v, ⇒ z = sin v = , ⇒ e2iv − eiv · (2iz) − 1 = 0, ⇒
√ 2i
2iz + 4 − 4z 2 p  p 
⇒ eiv = = iz + 1 − z 2 , ⇒ v = −i · ln iz + 1 − z 2 =
2  
p p
= −i · ln |iz + 1 − z 2 | + i arg(iz + 1 − z 2 ) + 2πik

13
6 Линейная оболочка, линейная независимость векторов.
Теорема о линейно независимых системах векторов, след-
ствие. Теорема о «прополке».
V – линейное (векторное пространство) над полем K. Если K = R, то V – вещественное (дей-
ствительное) линейное пространство, если K = C, то V – комплексное линейное пространство.

6.1 Определения
Вектор u ∈ V называется линейной комбинацией векторов v1 , . . . , vm , если существуют такие
скаляры λ1 , . . . , λm ∈ K, что u = λ1 v1 + . . . + λm vm .
Линейной оболочкой векторов v1 , . . . , vm называется множество их всевозможных линейных
комбинаций.
span(v1 , . . . , vm ) = {λ1 v1 + . . . + λm vm | λi ∈ K}

Система векторов v1 , . . . , vm называется линейно независимой, если их линейная комбинация


u = λ1 v1 + . . . + λm vm равна нулю тогда и только тогда, когда λ1 = . . . = λm = 0. В противном
случае система называется линейно зависимой.

6.2 Теорема о линейно независимых системах векторов


6.2.1 Ну сама теорема
1. Система векторов линейно зависима тогда и только тогда, когда один из векторов системы
является линейной комбинацией остальных.
2. Если некоторая подсистема системы векторов линейно зависима, то линейно зависима
вся система.
3. v1 , . . . , vm – линейно независимая система. Если v1 , . . . , vm , vm+1 линейно зависима, то
vm+1 – линейная комбинация v1 , . . . , vm .
Доказательство
1. Перая часть
(a) Система векторов линейно зависима тогда и только тогда, когда один из векторов
системы является линейной комбинацией остальных.
Существуют такие скаляры λ1 , . . . , λm ∈ K не все нули, λ1 v1 +. . .+λm vm = 0. Перене-
λ1 v1 + . . . + λm − 1vm−1
сём λm vm в правую сторону и поделим на −λm , получим vm = ,
−λm
то есть vm – линейная комбинация остальных векторов.
(b) Один из векторов системы является линейной комбинацией остальных тогда и
только тогда, когда система векторов линейно зависима.
Скаляры λ1 , . . . , λm ∈ K не все нули. Линейная комбинация vm = λ1 v1 + . . . +
λm − 1vm−1 ⇔ λ1 v1 + . . . + λm − 1vm−1 − vm = 0 – это и есть линейно зависимая
система векторов по определению.

14
2. Система векторов v1 , . . . , vm . Пусть v1 , . . . , vk – линейно зависимая система, k < m. Тогда
существуют λ1 , . . . , λk не все нули, что линейная комбинация λ1 v1 + . . . + λk vk = 0. Допу-
стим, выразим вектор vk как линейную комбинацию остальных, тогда исходная система
v1 , . . . , vm тоже будет содержать этот вектор, линейно зависимый от предыдущих, значит,
сама система тоже будет являться линейно зависимой.
3. Скаляры λ1 , . . . , λm , λm+1 не все нули, линейная комбинация λ1 v1 +. . .+λm vm +λvm+1 vm+1 =
λ1 v1 + . . . + λm vm
0. Выражаем vm+1 = , вуаля
−λm+1

6.2.2 Следствия
1. Система векторов линейно независима тогда и только тогда, когда любая её подсистема
линейно независима.
2. Любая система, содержащая нулевой вектор, линейно зависима.
3. Любая система, содержащая два пропорциональных вектора (в частности, два равных),
линейно зависима.

6.3 Теорема о прополке!!!


Если система векторов v1 , . . . , vn содержит хотя бы один ненулевой вектор, то из неё можно
выделить линейно независимую подсистему таким образом, что линейная оболочка не изме-
нится.
Доказательство
s0 = span(0)
s1 = span(v1 )
...
sn = span(v1 , . . . , vn )
Наше подмножество подразумевает, что s0 ⊆ s1 ⊆ . . . ⊆ sn−1 ⊆ sn . Если sn = sn−1 , то уберем
вектор vn из набора. Тогда vm ∈ sm ∧ ∈ sm−1 ⇒ vm – линейная комбинация v1 , . . . , vn−1 . По-
вторяем эти действия, пока не дойдем до s0 и s1 . Таким образом совершили прополку, остались
s0 ⊂ s1 ⊂ . . . ⊂ sk , где оставшиеся k векторов – линейно независимая система. Доказали.

15
7 Порождающая система векторов, конечномерные простран-
ства. Теорема об эквивалентных условиях для базиса.
Размерность пространства. Теорема о дополнении любой
независимой системы до базиса и о порождающей систе-
ме векторов.
7.1 Порождающая система векторов, конечномерные пространства
Совокупность векторов называется порождающей (полной), если все элементы пространства
V являются линейной комбинацией этих векторов.
Линейное пространство называется конечномерным, если в нем существует конечная порож-
дающая система, иначе пространство называется бесконечномерным.

7.2 Теорема об эквивалентных условиях для базиса


Следующие утверждения эквивалентны
1. v1 , . . . , vn – порождающий и линейно независимый.
2. v1 , . . . , vn – максимальный по числу элементов линейно независимый набор.
3. v1 , . . . , vn – минимальный по числу элементов порождающий набор.
Доказательство
1. 1 → 2
Предположим, что набор v1 , . . . , vn не максимальный (по числу элементов) линейно неза-
висимый набор. Тогда можно добавить еще один вектор vn+1 так, что система векторов
останется линейно независимой. Однако, он выражается через набор v1 , . . . , vn , так как
этот набор порождающий. Следовательно,v1 , . . . , vn+1 – линейно зависимый набор векто-
ров, а тогда наше предположение неверно, и v1 , . . . , vn - максимальный набор.
2. 2 → 1
v1 , . . . , vn – максимальный набор линейно независимых векторов, а тогда для любого
вектора u ∈ V верно, что u, v1 , . . . , vn – линейно зависимый набор, а тогда u – линейная
комбинация векторов v1 , . . . , vn , а значит, v1 , . . . , vn – порождающая система.
3. 1 → 3
4. 3 → 1
Если v1 , . . . , vn – минимальный порождающий, но, предположим, что он линейно зави-
симый, значит какой-то вектор выражается через остальные, следовательно, если мы
уберем его, то линейная оболочка не изменится. Тогда v1 , . . . , vn−1 тоже порождающий.
Но это противоречит тому, что v1 , . . . , vn – минимальный порождающий. Значит, наше
предположение неверно и v1 , . . . , vn – линейно независимый.

16
7.3 Размерность пространства
Совокупность векторов, удовлетворяющих условиям Теоремы об эквивалентных условия назы-
вается базисом. Число элементов базиса n = dim(V ) называется размерностью пространства
V.

7.4 Теорема о дополнении любой независимой системы до базиса и о


порождающей системе векторов
1. Любая линейно независимая система может быть дополнена до базиса.
2. Любая порождающая система содержит базис.
Доказательство
1. Если линейно независимая система максимальная по числу элементов, то она уже яв-
ляется базисом. Если нет, то... если система векторов v1 , . . . , vn – линейно независимая
система, то мы можем добавить в неё какой-то вектор vm+1 , сохраняя при этом линейную
независимость системы. Делаем так, пока не наберем максимальное количество элементов
и не получим базис.
2. Если система минимальная по количеству элементов порождающая, то это базис. Если
не минимальная, то среди векторов найдется вектор, являющийся линейной комбинацией
остальных. Этот вектор можно убрать. Делаем это, пока не получим минимальную по
количествам элементов порождающую систему – то есть базис.

17
8 Координаты вектора и их единственность. Изоморфизм
линейных пространств и его свойства. Теорема об изо-
морфизме конечномерных пространств, следствия.
8.1 Координаты вектора и их единственность
Пусть V – линейное пространство (dim V = n), а e1 , . . . , en – его базис. Тогда любой вектор x
можно представить в виде x = x1 e1 + . . . + xn en , где x1 , . . . , xn – координаты вектора x.
Утверждение. Координаты вектора определяются единственным образом.
Доказательство
0 0
Пусть вектор x имеет координаты
P x1 , . . . , xP
n и координаты xP 1 , . . . , xn (всё в том же пространстве
0
и том же базисе). Тогда x = xi ei = xi ei . То есть, (xi − x0i )ei = 0 ⇔ xi − x0i = 0.
Следовательно, все координаты xi равны соответственно координатам x0i , что и требовалось
доказать.

8.2 Изоморфизм и прелести


8.2.1 Определение
Изоморфизмом называется взаимно однозначное соответствие между линейными простран-
ствами. Линейные пространства, имеющие взаимно однозначное соответствие, называются изо-
морфными.
Допусти V1 и V2 – линейные пространства над полем K. Они называются изоморфными,
если между их элементами существует взаимно однозначное соответствие, то есть:

f : V1 → V2
∀ v1 , v2 ∈ V1 : f (v1 + λ · v2 ) = f (v1 ) + λ · f (v2 ) ∈ V2

8.2.2 Свойства
1. Нулевые элементы изоморфных ЛП соответствуют друг другу.
2. Противоположные элементы соответствуют друг другу.
3. Линейной комбинации векторов пространства V1 соответствует линейная комбинация со-
ответствующих векторов пространства V2 .
4. Если пространство V1 изоморфно пространству V2 , а V2 изоморфно пространству V3 , то
пространства V1 и V3 также изоморфны.
5. Линейно независимой (линейно зависимой) (порождающей) системе векторов простран-
ства V1 соответствует линейно независимая (линейно зависимая) (порождающая) система
векторов пространства V2 (следствие из предыдущих свойств).

8.2.3 Теорема об изоморфизме конечномерных пространств


1. Если линейное пространство V1 изоморфно конечномерному пространству V2 , то V1 тоже
является конечномерным пространством той же размерности.

18
2. Если V1 и V2 – линейные конечномерные пространства одной размерности, то они изо-
морфны.
Доказательство
1. V2 изоморфно пространству V1 , следовательно, базис V1 изоморфен базису V2 , то есть
размерности их равны, ну логично дофига
2. e1 , . . . , en – базис V1 , dim V1 = n = dim V2 , e01 , . . . , e0n – базис V2 . Т.к. их размерности равны
n, можно смело утверждать, что V1 ↔ Rn (Cn ) и V2 ↔ Rn (Cn ). А по следствию из свойства
изоморфных линейных пространств, можно утверждать, что V1 и V2 – изоморфны.
Следствия
1. Любое конечномерное пространство над полем R(C) размерности n изоморфно n-мерному
арифметическому пространству R(Cn ).
2. Изоморфизм – отношение эквивалентности на пространстве конечномерных линейных
пространств.

19
9 Теорема о линейном подпространстве. Примеры. База,
ранг системы векторов. Теорема о ранге. Пересечение и
сумма линейных подпространств. Формула Грассмана.
9.1 Определение ЛПП
L ⊂ V называется линейным подпространством V , если выполнены 1-8 аксиомы линейного
пространства (то есть, L – тоже линейное пространство по отношению к определенным в V
операциям сложения векторов и умножения вектора на число).

9.2 Теорема о линейном подпространстве


1. Если векторы v и u содержатся в L, то в L содержатся и вектор u + v.
2. Если вектор u содержится в L, то в L содержится и вектор λ для всех λ ∈ K.
То есть L является ЛПП тогда и только тогда, когда оно замкнуто относительно + и ·λ.
Доказательство
Необходимость следует из определения ЛПП.
Для доказательства достаточности, покажем лишь что выполняются 3 и 4 аксиомы (существо-
вание нуевого и противоположного элемента).
3. λ = 0, возьмём элемент λ · v = 0 · v = 0. Так как λ · v ∈ L, ⇒ 0 ∈ L.
4. λ = −1, возьмём элемент λ · v = (−1) · v = 0. Так как λ · v ∈ L, ⇒ −v ∈ L. Сумма
v + (−v) = 0 ∈ L.

9.3 База
v1 , . . . , vn – система векторов из V . Линейно независимый набор векторов v1 , . . . , vk называется
базой (k <= m), если линейные оболочки их и v1 , . . . , vn совпадают, то есть span(v1 , . . . , vn ) =
span(v1 , . . . , vk ).

9.4 Ранг
9.4.1 Определение
Рангом системы векторов v1 , . . . , vn называется размерность его линейной оболочки span(vq , . . . , vn ),
то есть rg(v1 , . . . , vn ) = dim(span(v1 , . . . , vn )).

20
9.4.2 Элементарные преобразования системы векторов
1. Добавление (удаление) нулевого вектора.
2. Умножение некоторого вектора набора на скаляр λ ∈ K.
3. Перестановка двух векторов набора местами.
4. Замена некоторого вектора на его сумму с другим.

9.4.3 Теорема о ранге


Линейная оболочка системы векторов не меняется при элементарных преобразованиях.
Доказательство
1 - 3 очевидны из определения линейной оболочки.
Чтобы доказать 4 пункт, нужно доказать, что линейные оболочки, натянутые на наборы век-
торов v1 , . . . , vi , . . . , vj , . . . , vn и v1 , . . . , vi , . . . , vj + vi , . . . , vn , совпадают, то есть любой вектор из
одной оболочки принадлежит другой оболочке, и наоборот.
Пусть вектор λ1 v1 + . . . + λi vi + . . . + λj vj + . . . + λn vn принадлежит оболочке первой системы
векторов, тогда тот же вектор, записанный в виде λ1 v1 + . . . + (λi + λj − λj )vi + . . . + λj vj + . . . +
λn vn = λ1 v1 + . . . + (λi − λj )vi + . . . + λj (vj + vi ) + . . . + λn vn так же принадлежит и оболочке
второй системы векторов, обратное доказательство то же самое. Раз линейная оболочка не
меняется, то не меняется её размерность, а следовательно и ранг.

9.5 Пересечение и сумма ЛПП


9.5.1 Определения
Пересечением ЛПП L1 и L2 называется множество L1 ∩ L2 векторов, каждый из которых
принадлежит и L1 , и L2 .
Суммой ЛПП L1 и L2 называется множество L1 + L2 векторов, каждый из которых представ-
ляется в виде v + u, где v ∈ L1 , u ∈ L2 .

9.5.2 Формула Грассмана


dim(L1 ∩ L2 ) = dim L1 + dim L2 − dim(L1 + L2 )
Доказательство
МНЕ ПОКА ЛЕНЬ Я ПРОПУЩУ
Доказательство

21
10 Прямая сумма линейных подпространств. Теорема об
эквивалентных условиях прямой суммы, следствие. Про-
екции вектора на линейные подпространства. Примеры.
Теорема о совпадении линейных многообразий, след-
ствие. Примеры.
10.1 Прямая сумма
10.1.1 Определения
Линейные подпространства L1 , . . . , Ln называются дизъюнктными, если ∀xi ∈ Li , i = 1, . . . , n :
x1 + . . . + xn = 0 ⇔ xi = 0 – действует единственность разложение нулевого вектора.
Тогда, сумма линейных подпространств L1 , . . . , Ln называется прямой суммой L1 ⊕ . . . ⊕ Ln ,
если линейные подпространства L1 , . . . , Ln дизъюнктны.

10.1.2 Теорема об эквивалентных условиях прямой суммы


Сумма является прямой тогда и только тогда, когда
n
P n
P
1. L = Li и Lj ∩ ( Li ) = 0
i=1 i=1
i6=j

2. ∀ x ∈ L : x = x1 + . . . + xn – представление однозначно через xi ∈ Li


3. Объединение базисов L1 , . . . , Ln равно базису L.
Доказательство
1. (⇒)
P
По условию, L1 , . . . , Ln – дизъюнктны. Рассмотрим x ∈ Lj ∩ ( Li ) ⇔ (x ∈ Lj ) ∧ (x ∈
P
Li ), i = 1 . . . n, i 6= j, то есть x = xj = x1 + . . . + xn , i = 1 . . . n, i 6= j. Перенесём xj в
правую часть, получим x1 + . . . + xn − xj = 0. Т.к. все Li дизъюнктные, P то получаем, что
xi = 0 , i =
P 1 . . . n. Значит, x тоже равен нулю. А раз x ∈ L j ∩ ( L i ) и x = 0, то следует,
что Lj ∩ Li ), i = 1 . . . n, i 6= j = 0, что и требовалось доказать.
(⇐)
P
Lj ∩ Li = 0, i = 1 . . . n, i 6= j = 0. Возьмём любую комбинацию элементовP xi ∈ Li
и выразим из неё xj : xj = −x1 − . . . − xn . Тогда получаем, что xj ∈ Lj ∩ ( Li ), i =
1 . . . n, i 6= j (очему-то, я реально не понимаю почему). В принципе, тогда значит, что
xj = 0 , j = 1 . . . n, то есть нулевой элемент представляется единсвенным образом при всех
xi = 0 в комбинации соответствующей (ну понятно). То есть L1 , . . . , Ln – дизъюнктны.

22
2. (⇒)
Предположим
( обратно, что представление векторов через другие не однозначное, то есть
x = x1 + . . . + xn
x = x01 + . . . + x0n
Вычтем из первого уравнения второе, получим 0 = (x1 − x01 ) + . . . + (xn − x0n ). Скобки
(x1 − x01 ) ∈ L1 , . . . , (xn − x0n ) ∈ Ln . Так как сумма прямая, то получаем, что xi − x0i = 0, i =
1 . . . n (из первого условия что ли? про разложение нулевого вектора), значит xi = x0i ,
то есть разложение однозначно.
(⇐)
Дано, что разложение любого элемента однозначно, то есть x = x1 + . . . + xn , xi ∈ Li . Ну
предположим, что существует какой-то x0 6= 0, x0 ∈ L1 ∩ L2 (необязательно 1 и 2, любых
хотя бы двух ЛПП). Тогда элемент x можно представить как x = (x1 + x0 ) + (x2 − x0 ) +
. . . + xn , то есть разложение не единственно! Противоречит условию, верно обратное.
3. (⇒)
Для простоты возьмём только два ЛПП L и M . Базис L равен (e1 , . . . , en , базис M равен
t1 , . . . , tk . Возьмём произвольный элемент x, тогда из определения прямой суммы (одно-
значное представление любого элемента L) следует, что существует единственная пара
векторов (l, m) такая, что x = l + m. Разложим вектора l и m по базисам L и M соответ-
ственно: l = l1 e1 + . . . + ln en и m = m1 t1 + . . . + mk tk . Так как вектора по базисам свои
раскладываются однозначно, то и вектор x представляется в сумме базисов (e1 . . . , en ) и
(t1 , . . . , tk ) тоже однозначно.
(⇐)
Возьмем два ЛПП L и M . Базис L равен (e1 , . . . , en , базис M равен t1 , . . . , tk , их объеди-
нение пока оставлю
Следствие

X
L = L1 ⊕ . . . ⊕ Ln ⇒ dim L = dim Li

10.2 Проекции вектора на ЛПП


Пусть L + L1 ⊕ . . . ⊕ Ln и ∀ x ∈ L представляется однозначно x = x1 + . . . + xn , где xi ∈ Li –
проекция элемента x на ЛПП Li параллельно остальным ЛПП.
Утверждение
Базис подпространства L ⊂ V всегда можно дополнить до базиса линейного пространства V .
Пример – k и i, j образуют в пространстве прямую сумму – пространство векторов.

23
10.3 Линейные многообразия
10.3.1 Определение
Линейным многообразием называется множество P = x0 + L = {x + 0 + l | l ∈ L}, где L –
линейное подпространство V и x0 ∈ V

10.3.2 Теорема о совпадении линейных многообразий


Пусть L1 , L2 ∈ V ; x1 , x2 ∈ V и пусть есть многообразия P1 = x1 + l, P2 = x2 + L2 , тогда

P1 = P2 ⇔ L1 = L2 = L; (x1 − x2 ) ∈ L

Доказательство
(⇒)
Пусть P1 = P2 , тогда x1 + l1 = x2 + l2 ⇒ x1 − x2 + l1 = l2 . Пусть l1 = 0 : x1 − x2 = l2 ∈ L2 .
Пусть l1 = x2 − x1 + l2, а так как x2 − x1 ∈ L2 , то любой l1 ∈ L2 , l1 ∈ L1 , аналогично для l2 .
Следовательно, L1 = L2 = L, ч.т.д.
(⇐)
Преобразуем x1 = x1 как x1 + l = x1 − x2 + x2 + l. По условию x1 − x2 ∈ L = L2 ; l ∈ L = L2 ,
тогда примем x1 − x2 + l = l2 ∈ L2 , тогда x1 + l = x2 + l2 ⇒ P1 = P2
Следствие

P + x0 + L; x1 ∈ P ⇒ P1 = x1 + L; P1 = P

24
11 Матрицы: основные понятия. Основные алгебраические
операции над матрицами и их свойства. Алгебра мат-
риц.
11.1 Основные определения
Матрица размерности m × n (записывается как Am×n ) — таблица из m строк и n столбцов,
заполненная некоторыми элементами Ai,j .
Квадратная матрица — матрица размера n × n.
Главная диагональ матрицы (определена только для квадратных матриц) — такие элемен-
ты Ai,j , что i = j.
Побочная диагональ матрицы (определена только для квадратных матриц) — такие эле-
менты Ai,j , что i + j = n.
Согласованные матрицы — пара матриц An×m и Bm0 timesk .

11.2 Алгебраические операции


11.2.1 Сложение
1. Am×n , Bm×n , ∃ Cm×n = A + B
2. ∀ i, j : cij = aij + bij
3. A + O = O + A = A
4. Можно складывать матрица только одной размерности.
5. Сложение коммутативно, ассоциативно, с нулевым элементом, с противоположным эле-
ментом.

11.2.2 Умножение на число


1. Am×n , ∃ Dm×n = λ · A
2. dij = λ · aij
3. α · (β · A) = (α · β) · A

11.2.3 Вычитание
A − B = A + (−1) · B, свойства из предыдущих двух пунктов.

11.2.4 Произведение матриц


1. (A и B – согласованные)Am×n , Bn×k , ∃Cm×k = A · B
n
P
2. cij = aik · bkj (столбец на строку)
k=1

3. Существует единичная матрица I : A · I = I · A = A


4. Если определены A · B и B · A, то A и B – квадратные.

25
11.3 Алгебра матриц
Свойства ∀ A, B, C; ∀ α, β ∈ K
1. A + B = B + A
2. (A + B) + C = A + (B + C)
3. ∃ O : A + O = O + A = A
4. ∃ I : A · I = I · A = A
5. ∀ A ∃ − A : A + (−A) = O
6. α · (A + B) = α · A + α · B
7. (α + β) · A = α · A + β · A
8. (α · β) · A = α · (β · A) = β · (α · A)
Получаем линейное пространство матриц Mm×n :

Mm×n ∼
= Rm+n (Cn+m )

9. (A + B) · C = A · C + B · C; A · (B + C) = A · B + A · C
10. α · (A · B) = (α · A) · B = A · (α · B)
11. (A · B) · C = A · (B · C)
(1) - (10) – алгебра, (1) - (11) – ассоциативная алгебра.

26
12 Операция транспонирования и её свойства. Обратная
матрица и её свойства.
12.1 Операция транспонирования
12.1.1 Определение
Транспонированной матрицы A называют такую матрицу AT , что для ∀i, j : ATi,j = Aj,i .

12.1.2 Свойства
T T
1. (A ) = A
2. (A + B)T = AT + B T
3. (A · B)T = B T · AT
4. (λ · A)T = λ · AT
5. I = I T
Докажем третье свойство.
T
Пусть Am×n и Bn×k – согласованные. Тогда Bk×n и ATn×m – тоже согласованные. Распишем:

 k
((A · B)T )ij = (A · B)ji =
P
ajr · bri


k
r=1
⇒ (A · B)T = B T · AT
(B T · AT )ij =
P
bri · ajr


r=1

12.2 Обратная матрица


12.2.1 Определение
Обратной матрицей для матрицы A называют такую матрицу A−1 , что A · A−1 = I.

12.2.2 Свойства
−1
1. A – единственна.
Доказательство:
Допустим, что существует еще одна обратная матрица B. Тогда
( (
B·A=I B · A · A−1 = I · A−1 = A−1
⇔ ⇒ B = A−1
A−1 · A = I B · A · A−1 = B · I = B

2. (A−1 )−1 = A
1
3. (λ · A)−1 = · A−1
λ
4. (AT )−1 = (A−1 )T
5. (A · B)−1 = B −1 · A−1

27
13 Строчный и столбцовый ранги матрицы. Два утвержде-
ния и следствие о линейно независимых отрезках столб-
цов матрицы. Теорема о ранге матрицы.
Дана матрица Am×n . Её можно записать как систему столбцов (A1 , . . . , An ), либо как систему
строк (S1 , . . . , Sm )T .
Строчным рангом rglin матрицы A называют размерность базиса линейной оболочки над
системой векторов (S1 , . . . , Sm ).
Столбцовым рангом rgcol матрицы A называют размерность базиса линейной оболочки над
системой векторов Am×n .
Отрезком столбца/строки Si = (a1,i , a2,i , . . . , an,i ) называют Sik = (a1,i , a2,i , . . . , ak,i )ю
Рассмотрим систему столбцов Ai , где Ai = (a1i , . . . , aki )T – отрезок столбца длины k 6 n и
Sj = (aj‘ , . . . , ajk – отрезок строки фиксированной длины.

13.1 Вспомогательные утверждения


13.1.1 Утверждение 1
Если (A1 , . . . , An ) — линейно зависимая система векторов, то ∀k ≤ n : (Ak1 , . . . , Akn ) – тоже
линейно зависимая система векторов.
Доказательство
(A1 , . . . , An ) — линейно зависимая система, следовательно, существует набор коэффициентов
n n
αi2 > 0 такой, что αi · Ai = (0, . . . , 0)T – столбец из m нулей. А так как первые
P P
α1 , . . . , αn :
i=0 i=1
k
αi · Ai = (0, . . . , 0)T – столбец из k
P
k элементов этого столбца тоже нули, то получаем, что
i=1
нулей, то есть (Ak1 , . . . , Akn ) – тоже линейно зависимы.
Следствие из утверждения 1
Если ∃k : (Ak1 , . . . , Akn ) – линейно независимы, то (A1 , . . . , An ) – тоже линейно независимы.
Доказывается от обратного.

13.1.2 Утверждение 2
Если rglin = r и (S1 , S2 , . . . Sk ) — линейно независимая система, то, если ∃k < r : (Ak1 . . . Akr ) —
линейно зависимая система векторов, то (A1 , . . . Ar ) — линейно зависимая система векторов.
Доказательство
Пока что это беспруфный кукарек, я потом впишу его.

13.1.3 Утверждение 3
Все предыдущие утверждения, которые были верны для строк/столбцов, также верны для
столбцов/строк.

28
13.2 Теорема о ранге матрицы
Строчный ранг матрицы равен столбцовому рангу.
Доказательство
Пруф опять же будет позже.

29
14 Свойства ранга матрицы. Пример вычисления ранга мат-
рицы. Теорема о приведении матрицы к трапециевид-
ной форме.
14.1 Свойства ранга матрицы
1. rg(AT ) = rg(A)
2. rg(A) = rg(λ · A), где λ – скаляр, от есть это элементарное преобразование
3. rg(A + B) 6 rg(A) + rg(B)
4. rg(A · B) 6 min(rg(A), rg(B))

14.2 Трапециевидная форма


Матрица, у которой в каждой следующей строке, начиная со второй, первый отличный от нуля
элемент стоит правее первого отличного от нуля элемента предыдущей строки, а все нулевые
строки стоят ниже ненулевых строк, называется ступенчатой или трапециевидной.

14.2.1 Теорема о ступенчатой матрице


1. Каждая матрица элементарными преобразованиями строк приводится к ступенчатой.
Доказательство
Мы всегда можем переставлять строки так, чтобы на месте элемента a11 стоял какой-
то ненулевой элемент. В том же столбике элементы ниже a11 мы всегда можем занулить,
ai1
умножив первую строчку на − , i = 1 . . . n и прибавив к i-ой строчке. Так будем продол-
a11
жать до того момента (двигаясь вправо по столбцам), пока и не приведем к ступенчатому
виду, ясное дело выбрасывая линейно зависимые строки.
2. Ранг ступенчатой матрицы равен числу ненулевых строк.
Доказательство
Приведя к ступенчатому виду, мы получим линейно независимый набор строк, тогда ранг
матрицы и будет равен количеству этих строк.

30
15 Системы линейных алгебраических уравнений (СЛАУ):
различные формы записи. Основные понятия: расши-
ренная матрица, однородная - неоднородная, совмест-
ная - несовместная, определенная - неопределенная си-
стема; частное - общее решение. Теорема Кронекера
- Капелли, следствие. Пример (геометрическая интер-
претация СЛАУ).
15.1 Определение СЛАУ
15.1.1 Формы СЛАУ
Система m линейных алгебраических уравнений с n неизвестными – это система уравнений
вида 
a11 x1 + . . . + a1n xn = b1

...

am1 x1 + . . . + amn xn = bm

Форма записи, представленная выше, называется записью в общем виде.


Можно записать систему в векторной форме Ax = B или x1 · A1 + . . . + xn · An = B, где
x1 , . . . , xn – столбцы переменных и A1 , . . . , An – столбцы матрицы A.
Можно записать систему в виде расширенной матрицы.
 
a11 a12 . . . a1n b1
 a21 a22 . . . a2n b2 
 
 ... ... ... ... . . .
am1 am2 . . . amn bm

15.1.2 Определения, виды систем


Система называется однородной, если столбец свободных членов B = 0. Иначе она называется
неоднородной.
Если существует хотя бы одно решение, то систему называют совместной, иначе – несов-
местной.
Если система совместна и решение единственно, то такую систему называют определённой,
если совместна и решений бесконечно много, то неопределённой.
Конкретное решение называется частным, совокупность всех решений – общим решением.

31
15.2 Теорема Кронекера - Капелли
Линейная система является совместной, тогда и только тогда, когда ранг расширенной матри-
цы этой системы равен рангу её основной матрицы.
Доказательство
(⇒)
Система является совместной. Существуют такие x1 , . . . , xn , что B = x1 ·A1 +. . .+xn ·An , то есть
B является линейной комбинацией столбцов A1 , . . . , An . А так как ранг матрицы не меняется
при прибавлении или удалении столбика, являющегося линейной комбинацией остальных, то
мы можем убрать B и получим ранг основной матрицы.
(⇐)
Дано, что rg(A) = rg(A \ B). Тогда максимальная линейно независимая система столбцов мат-
рицы A останется максимальной линейно независимой системой столбцов расширенной мат-
рицы A \ B, то есть столбец B линейно выражается через столбцы матрицы A, тогда набор
коэффициентов будет являться решением расширенной матрицы (системы уравнений), то есть
система будет совместной.
Следствия
1. Количество главных переменных системы равно рангу системы.
2. Совместная система будет определена (её решение единственно), если ранг системы равен
числу всех её переменных.

15.3 Геометрическая интерпретация СЛАУ


Когда у нас две переменные, то это можно понимать как поиск точек пересечения прямых.
Если 3 переменные, то точки пересечения плоскостей. Если n переменных, то поиск общих
точек гиперплоскостей в n-мерном пространстве.

32
16 Две теоремы об общем решении системы линейных од-
нородных уравнений (СЛОУ), следствия. Фундаменталь-
ная система решений (ФСР) СЛОУ. Теорема о струк-
туре общего решения системы линейных неоднородных
уравнений (СЛНУ), следствия. Альтернатива Фредголь-
ма.
СЛОУ: Ax = 0; Am×n x ∈ Rn ; 0 ∈ Rm (?)

16.1 Две теоремы об общем решении системы линейных однородных


уравнений (СЛОУ)
16.1.1 Теорема 1: о множестве решений СЛОУ
Если U, V – решения системы Ax = 0, то для любого скаляра λ ∈ R : U + λ · V тоже является
решением Ax = 0
Доказательство
A(U + λ · V ) = AU + λ · AV = 0 + 0 = 0

16.1.2 Следствие
Множество решений Ax = 0 есть линейное подпространство Rn (Cn . (Так как оно замкнуто
относительно операций сложения и умножения на скаляр).

16.1.3 Теорема 2: о размерности множества решений СЛОУ


L – пространство решений Ax = 0, rg(A) = k (1 6 k 6 min(m, n)) ⇒ dim L = n − k
Доказательство
rg(A) = k. Пусть A1 , . . . , Ak – линейно независимые столбики. Следовательно, ∀ j = 1 . . . n − k :
P Pk
Ak+j = αij Ai ⇒ αij − Ak+j = 0.
i=1
 
α1j
α2j 
 
...
 
αkj 
 
 0  – решение Ax = 0. Элемент −1 находится на k + j строке.
uj =  
...
 
 −1 
 
...
0

33
Векора (?) u1 , . . . , un−k являются линейно независимыми между собой и являются решениями
Ax = 0. Докажем, что система (u1 , . . . , un−k ) является порождающей.
Пусть u – решение Ax = 0, u = (α1 , . . . , αk+j , . . . , αn )T . Берем вектор v:
 0
α1
n−k
X . . .
 0
v =u+ αk+j uj =   αk 

j=1  . . .
0

v является решением Ax = 0, расписываем Av = 0, получаем, что α10 = . . . = αk0 = 0, то


есть система (u1 , . . . , un−k ) является порождающей, тогда (u1 , . . . , un−k ) – базис пространства
решений системы.
как доказалось? не понимаю
Следствие
rg(A) = n ⇒ Ax = 0 – тривиально, то есть dim L = 0 (L – пространство решений).

16.2 Фундаментальная система решений


Базис пространства решений Ax = 0 называется ее фундаментальной системой решений
(Ф.С.Р).

16.2.1 Теорема о структуре решения СЛНУ


Ax = b; Ax = 0. Общее решение СЛНУ Ax = b есть сумма частного решения Ax = b и общего
решения Ax + 0.
Доказательство
Пусть V2 – решение Ax = b. Тогда A(V1 − V2 ) = AV1 − AV2 = b − b = 0, то есть (V1 − V2 ) –
решение Ax = 0. Возьмем какой-нибудь вектор V1 такой, что
n−k
X
V1 = V2 + α j xj ,
j=1

где x1 , . . . , xn−k – фундаментальная система решений Ax = 0. Тогда


n−k
X
AV1 = AV2 + A αj xj = b − 0 = b
j=1

То есть, V1 является общим решением Ax = b


Следствие 1. Множество решений Ax = 0 является линейным многообразием размерности
n − k.
Следствие 2. rg(A) = n ⇒ Ax = b имеет единственное решение, т.к. размерность простран-
ства решений равно нулю.

34
16.3 Альтернатива Фредгольма
1. Для любого b система Ax = b является совместной, следовательно, AT y = 0 – тривиальна.
2. Существует b такое, что Ax = b является несовместной, следовательно, существует не
тривиальное решение AT y = 0.
Доказательство
1. Рассмотрим для Rm , аналогично для комплексных. n столбцов (неизвестных), m строк.
∀ b ∈ Rm система Ax = b является совместной. Тогда можно записать A1 x1 + . . . An xn = b.
Для любого b ∈ Rm , эта самая b ∈ span(A1 . . . An ) ⇒ Rm ⊂ span(A1 . . . An )
Так как Ai ∈ R, i = 1 . . . n, то Rm = span(A1 . . . Am ) ⇒ rg(A) = m = rg(AT ), следова-
тельно, система AT y = 0 (имеющая m неизвестных) является тривиальной (размерность
решений равна 0).
2. Так как ∃ b такая, что система Ax = b является несовместной (не имеющей решений), то
rg(A) < m (по теореме Кронекера - Капелли), тогда rg(AT ) < m, следовательно, решение
системы AT y = 0 будет нетривиальным.

35
17 Метод Гаусса решения СЛАУ. Примеры.
Не буду доказывать

36
18 Нахождение обратной матрицы методом Гаусса. При-
мер. Теорема о ранге обратной матрицы, следствие. Тео-
рема о ранге произведения матриц. Матрица перехода
от старого базиса к новому, связь координат вектора в
старом и новом базисах.
Находим обратную матрицу. Пусть A−1 = (X1 , . . . , Xn ). Подставим в произведение: AA−1 =
A(X1 , . . . , Xn ) = E ⇔ AX1 = (1000..0)T , AX2 = (0100..0)T , . . . , AXn = (0000..1)T . Каждый из
этих столбцов является базисным элементом пространства Rn , они все принадлежат span(A1 , . . . , An ) ⇒
rg(A1 , . . . , An ) = n.
AA−1 = E имеет решение тогда и только тогда, когда rg(A) = n. ЭТО И ЕСТЬ ТЕОРЕМА
ОБ ОБРАТНОЙ МАТРИЦЕ.

18.1 Теорема о ранге произведения матриц


я устала, передаю следующим поколениям

37
19 Антисимметрическая (альтернированная) полилинейная
форма. Теорема об антисимметрической полилинейной
форме частного вида. Определитель системы векторов.
Теорема об определителе числовой матрицы.

38
20 Элементарные сведения из теории перестановок. Вто-
рая теорема об определителе числовой матрицы. Теоре-
ма об определителе транспонированной матрицы. Фор-
мулы для вычисления определителей 2-го и 3-го поряд-
ков. Примеры.

39
21 Свойства определителя числовой матрицы
Обозначим за σ = (i1 , i2 , . . . , in ) перестановку чисел от 1 до n. Тогда чётностью перестановки
p(σ) называется количество обменов между двумя соседними элементами в наборе (1, 2, . . . , n),
необходимых, чтобы получить σ. Тогда определителем матрицы A называют:

X n
Y
det A = (−1)p(σ) · aj,ij
σ=(i1 ,i2 ,...,in ) j=1

Выведем вторую формулу, на этот раз через число инверсий в перестановке. Инверсией будем
называть такую пару индексов a и b, что a < b и при этом ia > ib . Довольно несложно дока-
зать, что четность перестановки совпадает с четностью числа инверсий в перестановке. Таким
образом получаем вторую формулу для определителя:

X n
Y
det A = (−1)inv(σ) · aj,ij
σ=(i1 ,i2 ,...,in ) j=1

21.1 Свойства определителя:


1. det A = det AT
2. det(. . . , Ai + λ · B, . . .) = det(. . . , Ai , . . .) + λ · det(. . . , B, . . .)
3. det(. . . , O, . . .) = 0
4. det(. . . , Ai , . . . , Aj , . . .) = − det(. . . , Aj , . . . , Ai , . . .)
5. det(. . . , Ai + λ · Aj , . . . , Aj , . . .) = det(. . . , Ai , . . . , Aj , . . .) + λ · det(. . . , Aj , . . . , Aj , . . .) =
det(. . . , Ai , . . . , Aj , . . .)
6. Определитель блочной матрицы (A(j) — блоки одинакового размера, ∗ — произвольные
числа в блоках такого же размера, 0 — нулевые блоки такого же размера):
 (1) 
A 0 ... 0
k
 ∗ A(2) . . . 0  Y
det 
 ...
= det(A(j) )
... ... ... 
j=1
∗ ∗ . . . A(k)

7. Определитель нижнетреугольной матрицы:


 
a1,1 0 ... 0
n
 a1,2 a2,2 . . . 0  Y
det 
 ...
= aj,j
... ... ... 
j=1
a1,n a2,n . . . an,n

8. Для начала определим минор Mi,j для матрицы A — это матрица, получаемая вычерки-

40
ванием из A i-ой строки и j-ого столбца.
 
I . . . a1,j . . . II
... ... ... ... ... n
 X
(−1)i+j · ai,j · Mi,j

ai,1
det  . . . ai,j . . . ai,n 
 =
... ... ... ... ...  j=1
III . . . an,j . . . IV

9.
n
X n
X
(−1)i+j · ai,j · Mi,k = (−1)i+j · ai,j · Mk,j = 0
i=1,k6=j j=1,k6=i

10. det(A · B) = det A · det B

41
22 Лемма и теорема о невырожденной матрице. Формула
для нахождения обратной матрицы. Теорема Крамера.
Пример.
Матрица называется невырожденной, если её определитель не равен нулю. В противном
случае она называется вырожденной.

22.0.1 Продолжение теоремы об обратной матрице:


Матрица A обратима ⇔ A — невырожденная, при этом:
 
1 1 A1,1 ... A1,n
A−1 = ·A
e= ·  ... ... ... ,
det A det A
An,1 ... An,n
где Ai,j = (−1)i+j · Mi,j — алгебраические дополнения элементов матрицы. Таким образом по-
лучаем цепочку равносильностей: A обратно ⇔ rg A = n ⇔ det A 6= 0

22.0.2 Теорема (правило) Крамера:


δi
Дана система уравнений Ax = b. ∃! решение ⇔ A невырожденная. При этом xi = , где
det A
δi = det(A1 , A2 , . . . , b, . . . , An ) — b стоит на месте i-ого столбца.

42
23 Минор k – го порядка, алгебраическое дополнение к ми-
нору k – го порядка. Теорема Лапласа, следствие. При-
мер.
23.1 Теорема Лапласа
Дана матрица An×n . Тогда для 1 ≤ k ≤ n и фиксированного набора 1 ≤ i1 < i2 < . . . < in ≤ n:

X P P j1 ,j2 ,...,jk
det A = (−1) i+ j
· Mij11,i,j22,...,i
,...,jk
k
· M i1 ,i2 ,...,ik
1≤j1 <j2 <...<jk ≤n

Внимание! Приведенное далее доказательство не имеет ничего общего с доказа-


тельством, приведённым на лекции! Оно более длинное и нетривиальное, однако, если в
нём разобраться, то всё сразу становится понятно.

23.1.1 Разбиение множества перестановок на подмножества


Рассмотрим последовательность номеров (1, 2, . . . , n). Назовём Nk упорядоченное (не обяза-
тельно по возрастанию) подмножество этой последовательности. Выберем из этой последова-
тельности элемент J = (j1 , j2 , . . . , jk ), в котором номера упорядочены по возрастанию. Тогда
номера, не вошедшие в J, образуют J 0 = (j10 , j20 , . . . , jn−k
0
) (в ней тоже номера упорядочены по
возрастанию). Из Nk выберем элемент I и дополнение к нему I 0 . Помимо этого зафиксируем
перестановки π ∈ Sk и τ ∈ Sn−k . Теперь рассмотрим перестановку:

j10 0
 
j1 ... jk ... jn−k
σI,J (π, τ ) =
iπ(1) . . . iπ(k) i0τ (1) . . . iτ (n−k)0

Множество всех таких перестановок при фиксированных I, J назовём:

S(I, J) = {σI,J (π, τ )|π ∈ Sk , τ ∈ Sn−k }

Лемма о разбиении множества перестановок на подмножества:


Для фиксированного J верно:
T
1. S(I1 , J) S(I2 , J) 6= ∅ ⇔ I1 = I2
S
2. S(I, J) = Sn
I∈Nk
P P
i j
3. sign(σI,J (π, τ )) = sign(π) · sign(τ ) · (−1) i∈I · (−1) j∈J

Первое свойство доказывается от противного — если есть общий элемент, значит, множества I1
и I2 совпадают.
Второе свойство тоже простое — нужно просто показать, как именно построить любую пере-
становку.
Третье свойство доказывается сложнее. Разложим перестановку на две:

43
j10 , 0
 
j1 , ... jk ... jn−k
σI,J (π, τ ) = =
iπ(1) , . . . iπ(k) i0τ (1) , . . . iτ (n−k)0
   
1 ... k k+1 ... n 1 ... k k + 1 ... n
·
j1 ... jk j10 0
. . . jn−k iπ(1) . . . iπ(k) i0τ (1) . . . i0τ n−k

Как известно из курса дискретной математики, знак произведения перестановок перемножа-


ется. Теперь посчитаем количества инверсий в первой и второй перестановке произведения.
1. Так как среди элементов отдельно J и J 0 нет инверсий, так как они упорядочены. Значит,
инверсии есть только между ними. j1 образует j1 − 1 инверсию, j2 образует j2 − 2 и так
Pk
далее. Получается всего m=1 jm − m·(m+1)
2 .
2. (a) Инверсии между элементами I — их чётность совпадает со знаком перестановки π.
(b) Инверсии между элементами I 0 — их чётность совпадает со знаком перестановки τ .
Pk
(c) Инверсии между I и I 0 — по аналогии с первым пунктом их будет m=1 im − m·(m+1)
2 .
Pk m·(m+1)
Итого получим, что знак перестановки sign(σI,J (π, τ )) = sign(π) · sign(τ ) · (−1) m=1 jm − 2 ·
Pk m·(m+1) P P
(−1) m=1 im − 2 = sign(π) · sign(τ ) · (−1) i∈I i · (−1) j∈J j . Лемма доказана.
Перейдём к доказательству самой теоремы:
 
X X X   
det A =  aiπ(1) ,j1 · . . . · aiπ(k) ,j · ai0τ (1) ,j10 · . . . · ai0τ (n−k) ,jn−k
0 · signI,J (π, τ ) =
I∈Nk π∈Sk τ ∈Sn−k
 
P P
i+ j X X X   
= (−1)i∈I j∈J
·  aiπ(1) ,j1 · . . . · aiπ(k) ,j · ai0τ (1) ,j10 · . . . · ai0τ (n−k) ,jn−k
0 · sign(π) · sign(τ ) =
I∈Nk π∈Sk τ ∈Sn−k
 !  
P P
i+ j X X X
= (−1)i∈I j∈J
·  aiπ(1) ,j1 · . . . · aiπ(k) ,j · ai0τ (1) ,j10 · . . . · ai0τ (n−k) ,jn−k
0  =
I∈Nk π∈Sk τ ∈Sn−k
X P P i1 ,i2 ,...,ik
= (−1) i+ j
· Mji11,j
,i2 ,...,ik
2 ,...,jk
· M j1 ,j2 ,...,jk
I∈Nk

Теорема доказана.

44
24 Второе определение ранга матрицы. Базисный минор.
Теорема об эквивалентности определений ранга, след-
ствие. Метод окаймляющих миноров. Пример.

45
25 Методы вычисления определителей n – го порядка. При-
меры.

46