Академический Документы
Профессиональный Документы
Культура Документы
осень 2022
Основы вероятности и теории мер Назад к содержанию
Содержание
1 Основы теории вероятностей 2
1.1 Связь между математикой и реальностью . . . . . . . . . . . . . . . . . . . . 2
1.2 Математические модели случайного эксперимента . . . . . . . . . . . . . . . 3
3 Случайные величины 10
3.1 Определение случайной величины . . . . . . . . . . . . . . . . . . . . . . . . . 10
3.2 Распределение случайной величины . . . . . . . . . . . . . . . . . . . . . . . . 11
3.3 Независимость случайных величин . . . . . . . . . . . . . . . . . . . . . . . . 13
3.4 Математическое ожидание случайной величины . . . . . . . . . . . . . . . . . 13
3.5 Дисперсия случайной величины . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.6 Ковариация случайных величин . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.7 Корреляция случайных величин . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.8 Предельные теоремы . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
𝑁𝑖 (𝐴) 𝑁𝑗 (𝐴)
∀𝑖, 𝑗 ∈ N ≈
𝑁𝑖 𝑁𝑗
Однако, что значит примерно и определенная точность? Это, увы, зависит от реальной
задачи.
◁ Какова вероятность того, что Тихон сдаст экзамен по ОВиТМ на отл10? - здесь от-
сутствует повторяемость. Даже если брать во внимание тот факт, что у него есть 3
попытки сдать экзамен, всё равно на каждый последующий Тихон будет приходить
«другим», более подготовленным студентом.
Пример. Бросок маленькой монеты с высоты 1 метра может рассматриваться как слу-
чайный эксперимент.
3. Ω ∈ 𝐹
1. ∀𝐴 ∈ 𝐹 𝑃 (𝐴) ∈ [0; 1]
𝑃( ∞
∑︀∞
2. ∀{𝐴𝑛 }∞
⨆︀
𝑛=1 𝑛=1 𝐴𝑛 ) = 𝑛=1 𝑃 (𝐴𝑛 )
3. 𝑃 (Ω) = 1
Ω = {𝑤𝑖 }𝑁
𝑖=1 ; ∀𝑖 ∈ {1, . . . , 𝑛} 𝑃 ({𝑤𝑖 }) = 𝑐𝑜𝑛𝑠𝑡 = 𝐶
|𝐴| 𝑛 · 2 · (𝑛 − 2)! 2
𝑃 (𝐴) = = =
|Ω| 𝑛! 𝑛−1
(b) 𝑤 = (𝑥, 𝑦) - позиции, которые займут интересующие нас люди (без разбора,
кто сядет первый). Тогда всего исходов |Ω| = 𝐶𝑛2 , а вероятность нужного
события будет
|𝐴| 𝑛 𝑛 2
𝑃 (𝐴) = = 2 = 𝑛(𝑛−1) =
|Ω| 𝐶𝑛 𝑛−1
2
Замечание. Это замечательно, когда задача сформулирована полно и разные
модели дают одинаковую вероятность. Однако, бывает и иначе, но об этом будет
сильно позже...
Пример. Есть 𝑁 изделий, среди которых 𝑀 бракованных. Найти вероятность
того, что среди 𝑛 ⩽ 𝑁 выбранных изделий будет ровно 0 ⩽ 𝑘 ⩽ 𝑛 бракованных.
(a) Положим 𝑤 = (𝑖1 , . . . , 𝑖𝑛 ), где 𝑖𝑗 — номер изделия при 𝑗-м вытаскивании.
Тогда |Ω| = 𝑁 𝑛 , а вероятность интересующего нас события будет
𝐶𝑛𝑘 · 𝑀 𝑘 · (𝑁 − 𝑀 )𝑛−𝑘
𝑃 (𝐴) = = 𝐶𝑛𝑘 · 𝑝𝑘 · (1 − 𝑝)𝑛−𝑘
𝑁𝑛
(b) (Пример схемы испытаний Бернулли) Теперь 𝑤 = (𝑙1 , . . . , 𝑙𝑛 ), где 𝑙𝑖 ∈ {0, 1}
— бракован элемент или нет. Тогда |Ω| = 2𝑛 , 𝐹 = 2Ω , а вероятность выбора
бракованного элемента положим за 𝑝 = 𝑀/𝑁 . Тогда, мы можем поточечно
задать вероятность одного исхода, опираясь на предыдущую модель:
где количество единиц можно выразить как 𝑛𝑖=1 𝑙𝑖 . Но очевидно ли, что
∑︀
𝑃 (Ω) = 1? Вообще говоря, нет. Нужно это проверить:
𝑛
∑︁ ∑︀𝑛 ∑︀𝑛 ∑︁
𝑃 (Ω) = 𝑝 𝑖=1 𝑙𝑖 (1 − 𝑝)𝑛− 𝑖=1 𝑙𝑖 = 𝐶𝑛𝑘 𝑝𝑘 (1 − 𝑝)𝑛−𝑘 = (𝑝 + (1 − 𝑝))𝑛 = 1
𝑤∈Ω 𝑘=0
Быть может, в счётных моделях всё хорошо? К сожалению, уже здесь всё может
сломаться, и следующий пример об этом.
Пример. (Некорректная неклассическая ⃒ модель) Рассмотрим такую модель:
Ω = Q ∩ [0; 1], а 𝐹 = 2Ω = {Q ∩ [𝑎; 𝑏] ⃒ 0 ⩽ 𝑎 ⩽ 𝑏 ⩽ 1}. Иначе говоря, мы рассмат-
риваем вероятности множеств рациональных точек на [0; 1] быть выбранными.
Интуитивно хочется взять такую вероятность:
𝜇(𝐴)
𝑃 (𝐴) =
𝜇(Ω)
𝑃 (𝐴 ∩ 𝐵)
𝑃 (𝐴|𝐵) =
𝑃 (𝐵)
2. 𝑛(∞)
⨆︀
𝑖=1 𝐵𝑖 = Ω
Доказательство. Благодаря тому, что у нас есть счётная аддитивность, следующая це-
почка равенств будет верна:
⎛ ⎞
𝑛(∞) 𝑛(∞) 𝑛(∞)
⨆︁ ∑︁ ∑︁
𝑃 (𝐴) = 𝑃 (𝐴 ∩ Ω) = 𝑃 𝐴 ∩
⎝ 𝐵𝑘 =
⎠ 𝑃 (𝐴 ∩ 𝐵𝑘 ) = 𝑃 (𝐴|𝐵𝑘 ) · 𝑃 (𝐵𝑘 )
𝑘=1 𝑘=1 𝑘=1
Замечание. А что же всё-таки будет, если 𝑃 (𝐵) = 0? Хочется сказать, что 𝑃 (𝐴|𝐵) = 0,
но всё равно непонятно, из каких соображений.
Пример. «Какова вероятность того, что зарплата среднего работника будет больше 1000
условных единиц при температуре 12.8 градусов Цельсия» — вполне справедливый вопрос,
на который мы сейчас не можем дать ответа в силу бедности математического аппарата.
Можно рассмотреть температуру как непрерывную функцию и получить 𝑃 (𝑡 = 12.8) = 0,
но это не соответствует реальности. Что-то более вменяемое может рассказать область
математической статистики, но это выходит за рамки курса ОВиТМа.
Пример. И всё же рассмотрим применение формулы полной вероятности. Пусть есть
3 студента, которых и только их вызывает семинарист к доске (назовём их, например,
Умный, Весёлый и Староста и введём соответствующую нумерацию). Тогда 𝐵𝑘 - это со-
бытие, когда семинарист вызывает 𝑘 ∈ {1, . . . , 3} студента. 𝐴 - это событие, что студент
даёт верный ответ.
◁ 𝑃 (𝐵1 ) = 1/6, чтобы на семинарах группа хоть как-то продвигалась; 𝑃 (𝐴|𝐵1 ) = 1
◁ 𝑃 (𝐵2 ) = 1/2, потому что иногда хочется передохнуть и не дать семинару стать «душ-
ным»; 𝑃 (𝐴|𝐵2 ) = 1/10
𝑃 (𝐴|𝐵𝑘 ) · 𝑃 (𝐵𝑘 )
𝑃 (𝐵𝑘 |𝐴) = ∑︀𝑛(∞)
𝑘=1 𝑃 (𝐴|𝐵𝑘 ) · 𝑃 (𝐵𝑘 )
𝑃 (𝐴 ∩ 𝐵𝑘 ) 𝑃 (𝐴|𝐵𝑘 ) · 𝑃 (𝐵𝑘 )
𝑃 (𝐵𝑘 |𝐴) = = ∑︀𝑛(∞)
𝑃 (𝐴) 𝑘=1 𝑃 (𝐴|𝐵𝑘 ) · 𝑃 (𝐵𝑘 )
1/6 · 1 30
𝑃 (𝐵1 |𝐴) = = ≈ 1/2
59/180 59
Это сходится с интуицией: если ответ был дан, то его с большой вероятностью должен
был дать Умный студент.
∀𝐴, 𝐵 𝐴𝐵 := 𝐴 ∩ 𝐵
𝑃 (𝐴|𝐵) = 𝑃 (𝐴)
но, естественно, тут у нас есть поправка на 𝑃 (𝐵) ̸= 0. Как этого избежать? Записать
условную вероятность по определению и домножить на 𝑃 (𝐵).
𝑃 (𝐴 ∩ 𝐵) = 𝑃 (𝐴) · 𝑃 (𝐵)
Обозначается как 𝐴 ⊥
⊥ 𝐵.
𝑃 (𝐴) = 𝑝
𝑃 (𝐵) = 𝑝
∑︁ ∑︀𝑛 ∑︀𝑛 ∑︁ ∑︀𝑛−1 ∑︀𝑛−1
𝑤𝑖
𝑃 (𝐴 ∩ 𝐵) = 𝑝 𝑖=1 (1 − 𝑝)𝑛− 𝑖=1 𝑤𝑖
= 𝑝2 𝑝 𝑖=2 𝑤𝑖
(1 − 𝑝)(𝑛−2)− 𝑖=2 𝑤𝑖
= 𝑝2
𝑤 𝑤
𝑤1 =𝑤𝑛 =1 𝑤1 =𝑤𝑛 =1
Независимость 𝑛 событий
Определение 2.4. События 𝐴1 , . . . , 𝐴𝑛 называются независимыми попарно, если ∀𝑖 ̸=
𝑗 𝐴𝑖 ⊥
⊥ 𝐴𝑗
Посчитаем вероятности:
Отсюда уже видно, что есть попарная независимость, но нету независимости в совокуп-
ности.
3 Случайные величины
3.1 Определение случайной величины
Замечание. Одна из проблем, которая у нас есть (на удивление) — это то, что мы работа-
ем с вероятностным пространством (Ω, 𝐹, 𝑃 ). Более подробно, всё, что мы знаем об исходе
𝑤, это его вероятность. Что если мы хотим «привязать» числа к исходу, оценить что-то?
Нам нужно выйти за рамки работы с какими-то абстракными элементами множества.
Замечание. В текущей главе мы будем работать только с дискретным вероятностным
пространством (ДВТ). Это значит, что Ω не более чем счётно и 𝐹 = 2Ω .
Определение 3.1. Случайной величиной назовём функцию 𝜉 : Ω → R
Пример. Снова рассмотрим схему Бернулли. Тогда ярким примером случайной величины
может служить число удачных экспериментов:
𝑛
∑︁
𝜉(𝑤) = 𝑤𝑖 ∈ N ⊂ R
𝑖=1
Замечание. Наше определение довольно узкое. Например, под него мы не можем поло-
жить модель с геометрической вероятностью, коль скоро там Ω ⊂ R𝑛 .
Замечание. Сама по себе 𝜉(𝑤) не несёт смысловой нагрузки: ну вот что мы можем сказать
такого про случайную величину на событии, если у нас какая-то 𝜉? Ничего осмысленного.
Если приводить некорректный пример, то можно говорить о случайной величине, где
исходом являются оценки по результатам сессии (например, Ω = {1, . . . , 10}10 — 10 оценок
за какие-то 10 предметов). Какие числовые характеристики, которые можно получить
через эти оценки, нас могут интересовать?
◁ Средний балл 𝜉(𝑤) = 𝑤1 +...+𝑤
10
10
. Это важно для той же Абрамовской стипендии: мы
хотели бы знать вероятность 𝑃 ({𝑤 : 𝜉(𝑤) ⩾ 8.6})
◁ Минимальная оценка 𝜂(𝑤) = min{𝑤𝑖 }. Мы бы хотели знать вероятность не попасть
на пересдачу, то есть 𝑃 ({𝑤 : 𝜂(𝑤) > 2})
В чём проблема нашего примера? Если 𝐹 ̸= 2Ω , то кто обещал, что {𝑤 : 𝜉(𝑤) ⩾ 8.6} ∈ 𝐹 ?
Пока что мы не будем формулировать и дополнять наше определение случайной величины
этим требованием, но в будущем оно появится.
Соглашение. Чтобы не нагромождать запись вероятности со случайными величинами,
мы позволим себе 4 вещи:
3. В суммах, где сверху должно писаться либо конечное число, либо бесконечность, мы
будем писать снизу лишь переменную суммирования:
𝑛(∞)
∑︁ ∑︁
:=
𝑘 𝑘=1
𝑃 (𝑤) := 𝑃 ({𝑤})
𝑃𝑘 := 𝑃 {𝜉 = 𝑥𝑘 }
Определение
∑︀ 3.2. Дискретным распределением называется соответствие (𝑥𝑘 : 𝑃𝑘 )𝑘 , где
𝑃𝑘 ⩾ 0, 𝑘 𝑃𝑘 = 1 и 𝑥𝑘 ∈ R
𝜆𝑘 −𝜆
◁ Пуассоновское распределение 𝑘 ∈ N0 , 𝑥𝑘 = 𝑘, 𝑃𝑘 = 𝑘!
𝑒 , где 𝜆 > 0 — произвольная
константа. Обозначается как 𝑃 𝑜𝑖𝑠𝑠(𝜆).
𝜆𝑘 −𝜆
∀𝑘 ∈ N0 𝑃 {𝜉𝑛 = 𝑘} −−−→ 𝑒
𝑛→∞ 𝑘!
Замечание. В чём ценность этой теоремы? Считать суммы для дискретных вероятност-
ных пространств с биномиальным распределением распределением очень больно, а вот
пуассоновские обычно сильно проще.
Как возводить (199/200) в 1000ю степень, если у нас нет компьютера? Вот поэтому вос-
пользуемся теоремой Пуассона и сделаем хотя бы оценку на вероятность. Имеем 𝜆 =
1000/200 = 5, степень экспоненты возьмём с нужной точностью по таблице Брадиса. То-
гда:
3
∑︁ 5𝑘 −5
𝑃 {𝜉 ⩽ 3} ≈ 𝑒
𝑘=0
𝑘!
Приблизить вероятность через распределение Пуассона, конечно, замечательно, но какая
у нас ошибка?
Замечание. Конкретно в последнем примере это даёт оценку 1/50 на погрешность, что
довольно хорошо.
∞
∑︁ 𝑘
∑︁
𝑃 {𝜉 + 𝜂 = 𝑘} = 𝑃 {𝜉 + 𝜂 = 𝑘|𝜉 = 𝑖} · 𝑃 {𝜉 = 𝑖} = 𝑃 {𝜂 = 𝑘 − 𝑖} · 𝑃 {𝜉 = 𝑖} =
𝑖=0 𝑖=0
𝑘
∑︁ 𝜆𝑘−𝑖 −𝜆2 𝜆𝑖1 −𝜆1 1
2
𝑒 · 𝑒 = 𝑒−(𝜆1 +𝜆2 ) · (𝜆1 + 𝜆2 )𝑘
𝑖=0
(𝑘 − 𝑖)! 𝑖! 𝑘!
Замечание. Может ли сработать подобная формула для 𝜉 + 𝜉? Нет, просто потому, что
𝜉 + 𝜉 = 2𝜉 — случайная величина не принимает все значения, а только чётные.
Естественно, в случае Ω ∼
= N данный ряд должен сходиться абсолютно.
Замечание автора. Математическое ожидание в дискретном случае ещё можно назвать
средним взвешенным значений случайной величины 𝜉 с весами-вероятностями.
Теорема 3.2. Пусть (Ω, 𝐹, 𝑃 ) - дискретное вероятностое пространство. Тогда мате-
матическое ожидание случайной величины обладает следующими свойствами:
1. Если 𝜉 ∼ (𝑥𝑘 : 𝑃𝑘 )𝑘 , то ∑︁
E𝜉 = 𝑥 𝑘 · 𝑃𝑘
𝑘
2. Если 𝜉 ∼ (𝑥𝑘 : 𝑃𝑘 )𝑘 и 𝜙 : R → R, то
∑︁
E𝜙(𝜉) = 𝜙(𝑥𝑘 ) · 𝑃𝑘
𝑘
4. Если 𝜉 ⩾ 0, то E𝜉 ⩾ 0
6. Если 𝜉 ⊥
⊥ 𝜂, то E(𝜉 · 𝜂) = E𝜉 · E𝜂
3. Тривиально
4. Следует из линейности
∀𝑥 ∈ 𝜒𝜉 ∖{0} 𝑃 {𝜉 2 = 𝑥} = 0 =⇒ 𝑃 {𝜉 2 = 0} = 1
Замечание. Верно ли, что если 𝜉 = 0 почти наверное, то ∀𝑤 ∈ Ω 𝜉(𝑤) = 0 (то есть 𝜉 ≡ 0)?
Конечно нет. Примером без доказательства послужит ситуация, когда Ω ≈ [0; 1] (потому
что не совсем отрезок надо бы брать) и 𝜉(𝑤) = D(𝑤), где D — функция Дирихле.
Теорема 3.3. (Неравенство Ляпунова) Имеет место следующая связь между момен-
тами случайной величины:
Их матожидания, очевидно, равны нулю. При этом значения имеют совершенно разные
порядки разброса (у 𝜉 это 2, а у 𝜂 аж все 200). Отсюда возникает идея как-то отслеживать
среднее отклонение случайной величины от своего среднего (ну то есть матожидания).
Замечание. Иначе говоря, дисперсия — это среднее значение квадрата отклонения слу-
чайной величины от её математического ожидания.
1. 𝐷𝜉 = E𝜉 2 − (E𝜉)2
2. 𝐷𝜉 ⩾ 0
⃒
3. 𝐷𝜉 = 0 ⇔ ∃𝑥 ∈ 𝜒𝜉 ⃒ 𝜉 = 𝑥 почти наверное
4. 𝐷(𝑎𝜉 + 𝑏) = 𝑎2 𝐷𝜉
Доказательство.
2. Следует напрямую из того факта, что в определении дисперсии под внешним знаком
матожидания стоит неотрицательная величина
Стало быть
∑︁
𝐷𝜉 = E(𝜉 − E𝜉)2 = E(𝜉 − 𝑥)2 = 𝑃 (𝑤)(𝜉 − 𝑥)2 = 0
𝑤∈Ω
Доказательство.
𝐷(𝜉 + 𝜂) = 𝐷𝜉 + 𝐷𝜂 + 2 cov(𝜉, 𝜂)
cov(𝜉, 𝜂)
corr(𝜉, 𝜂) = √ √
𝐷𝜉 · 𝐷𝜂
1. | corr(𝜉, 𝜂)| ⩽ 1
⃒
2. Если corr(𝜉, 𝜂) = 1, то ∃𝑎 > 0, 𝑏 ⃒ 𝜉 = 𝑎𝜂 + 𝑏 почти наверное
⃒
3. Если corr(𝜉, 𝜂) = −1, то ∃𝑎 < 0, 𝑏 ⃒ 𝜉 = 𝑎𝜂 + 𝑏 почти наверное
Доказательство.
Теорема 3.8. (Закон Больших Чисел, сокращается как ЗБЧ) Пусть 𝜉1 , . . . , 𝜉𝑛 — неза-
висимые одинаково распределенные случайные величины, а также ∃𝐷𝜉1 , E𝜉1 = 𝑎 (этого
достаточно, чтобы те же характеристики с теми же значениями существовали у
остальных случайных величин, в силу одинакового распределения). Тогда
{︂⃒ ⃒ }︂
⃒ 𝜉1 + . . . + 𝜉𝑛 ⃒
∀𝜀 > 0 𝑃 ⃒⃒ − 𝑎⃒⃒ ⩾ 𝜀 −−−→ 0
𝑛 𝑛→∞
1. ∅ ∈ 𝑆
2. ∀𝐴, 𝐵 ∈ 𝑆 ⇒ 𝐴 ∩ 𝐵 ∈ 𝑆
1. ∅ = [𝐴; 𝐴) ∈ 𝑇
1. 𝑅 ̸= ∅
2. ∀𝐴, 𝐵 ∈ 𝑅 𝐴 ∩ 𝐵 ∈ 𝑅, 𝐴△𝐵 ∈ 𝑅
1. 𝑅 — полукольцо
2. ∀𝐴, 𝐵 ∈ 𝑅 𝐴 ∪ 𝐵 ∈ 𝑅, 𝐴∖𝐵 ∈ 𝑅
2. 𝐴∖𝐵 = 𝐴△(𝐴 ∩ 𝐵)
3. 𝐴 ∪ 𝐵 = (𝐴∖𝐵)△𝐵
1. ∀𝛼 ∈ ∆ ∅ ∈ 𝑅𝛼 ⇒ ∅ ∈ 𝑅
1. 𝒜 — кольцо
2. ∃𝐸 ∈ 𝒜 : ∀𝐴 ∈ 𝒜 𝐴 ⊆ 𝐸 — наличие единицы
Утверждение 4.2. Пересечение любого числа алгебр с общей единицей является тоже
алгеброй.
Доказательство. Единица уже будет в пересечении, а про то, что пересечение будет коль-
цом, мы уже знаем из утверждения выше.
1. 𝑋 ⊆ 𝑅(𝑋)
1. 𝑅 — кольцо
2. 𝑋 ⊆ 𝑅
Замечание автора. На самом деле, мы данной теореме мы лихо опустили 1 очень важ-
ный факт: а почему существует множество всех колец, содержащих 𝑋?
𝑛
⨆︁
∃𝐴𝑘+1 , . . . , 𝐴𝑛 ∈ 𝑆 : 𝐴𝑖 = 𝐴
𝑖=1
Доказательство. С самого начала можно заявить, что 𝑅(𝑆) ⊇ 𝐾(𝑆). Это следует из того,
что кольцо замкнуто относительно объединения. Другое вложение докажем тем фактом,
что 𝐾(𝑆) — тоже кольцо, содержащее 𝑆:
Аналогично с 𝐵𝑗 : ⎛ ⎞
𝑙𝑗
(︃ 𝑛
)︃
⨆︁ ⨆︁
𝐵𝑗 = 𝐶𝑖,𝑗 ⊔⎝ 𝐸𝑗,𝑙 ⎠ , 𝐸𝑗,𝑙 ∈ 𝑆
𝑖=1 𝑙=1
𝐵𝑠 = 𝐶𝑠 ⊔ 𝐵𝑠,𝑟 , 𝐵𝑠,𝑟 ∈ 𝑆
𝑟=1
Итого, чтобы записать набор 𝐴1 , . . . , 𝐴𝑛 , нам нужны {𝐶𝑠 }𝑞𝑖=1 , {𝐵𝑠,𝑟 } и {𝐷𝑝 }𝑚
𝑝=1 , причём
все они попарно непересекаются.
∞
⋃︁ ∞
⋂︁
𝐴𝑖 = 𝐸∖ (𝐸∖𝐴𝑖 )
𝑖=1 𝑖=1
Замечание. В этом параграфе мы будем опускать слово «конечная», ибо других тут и
не возникнет.
Замечание. Для промежутков (то есть полуинтервал, отрезок или интервал) мы будем
использовать обозначение ⟨𝑎; 𝑏⟩.
𝑘 ∞
𝜀 ∑︁ 𝜀 ∑︁ 𝜀
∀𝜀 > 0 𝑚(⟨𝑎; 𝑏⟩) < 𝑚([𝛼; 𝛽]) + ⩽ 𝑚((𝛼𝑖 ; 𝛽𝑖 )) + ⩽ 𝑚((𝛼𝑖 ; 𝛽𝑖 )) + ⩽
2 𝑖=1
2 𝑖=1
2
∞
∑︁
𝑚(⟨𝑎𝑖 ; 𝑏𝑖 ⟩) + 𝜀
𝑖=1
∑︀∞
Стало быть, 𝑚(⟨𝑎; 𝑏⟩) ⩽ 𝑖=1 𝑚(⟨𝑎𝑖 ; 𝑏𝑖 ⟩). В обратную же сторону просто по следствию из
леммы.
Доказательство.
𝑛 𝑝
𝑛 ∑︁ 𝑝 𝑛 𝑝
∑︁ ∑︁ ∑︁ ∑︁ ∑︁
𝜈(𝒜) = 𝑚(𝐴𝑖 ) = 𝑚(𝐶𝑖,𝑘 ) = 𝑚(𝐶𝑖,𝑘 ) = 𝑚(𝐵𝑘 )
𝑖=1 𝑖=1 𝑘=1 𝑘=1 𝑖=1 𝑘=1
⨆︀𝑛 ⨆︀𝑝𝑖
3. Конечная аддитивность. Пусть 𝒜 = 𝑖=1 𝒜𝑖 , где 𝒜𝑖 = 𝑗=1 𝐴𝑖,𝑗 , 𝐴𝑖,𝑗 ∈ 𝑆. Тогда
𝑝𝑖
𝑛 ∑︁ 𝑛
∑︁ ∑︁
𝜈(𝒜) = 𝑚(𝐴𝑖,𝑗 ) = 𝑚(𝒜𝑖 )
𝑖=1 𝑗=1 𝑖=1
◁ 𝒜𝑖 = 𝑙𝑙=1
⨆︀ 𝑖
𝐵𝑖,𝑙
Введём общее разбиение через 𝐶𝑗,𝑖,𝑙 = 𝐵𝑗 ∩ 𝐵𝑖,𝑙 ∈ 𝑆. Тогда
◁ 𝐵𝑗 = ∞
⨆︀ ⨆︀𝑙𝑖
𝑖=1 𝑙=1 𝐶𝑗,𝑖,𝑙
Все члены ряда неотрицательны, при этом он сходится. Значит, он сходится абсолютно и
можно менять порядок суммирования. Отсюда получаем это:
∞ ∑︁
∑︁ 𝑙𝑖 ∑︁
𝑛 ∞ ∑︁
∑︁ 𝑙𝑖 ∞
∑︁
𝜈(𝒜) = 𝑚(𝐶𝑗,𝑖,𝑙 ) = 𝑚(𝐵𝑖,𝑙 ) = 𝜈(𝒜𝑖 )
𝑖=1 𝑙=1 𝑗=1 𝑖=1 𝑙=1 𝑖=1
∞
∑︁
𝜈(𝒜) ⩽ 𝜈(𝒜𝑖 )
𝑖=1
⋃︀∞
⨆︀∞ техникой и запишем объединение 𝑖=1 𝒜𝑖
Доказательство. Воспользуемся классической
как дизъюнктное объединение множеств 𝑗=1 𝐵𝑗 . Для этого за 𝐵𝑗 надо положить следу-
ющее:
𝑖−1
⋃︁
𝐵1 = 𝒜1 ∈ 𝑅; 𝐵𝑖 = 𝒜𝑖 ∖ 𝒜𝑗 ∈ 𝑅
𝑗=1
Замечание. Несмотря на то, что мы назвали эту величину мерой, она ею не является.
Контрпример такой:
Тогда должно быть верно, что 𝜇* ([0; 1]) = 𝜇* ([0; 1/3)) + 𝜇* ([1/3; 1]), но при этом 𝜇* ([0; 1]) =
𝜇* ([1/2; 1]) = 1 и 𝜇* ([0; 1/3)) = 1/2. Иначе говоря, внешняя мера Лебега не обладает
аддитивностью в общем случае.
Утверждение 4.5. На 𝑅(𝑆) имеет место равенство 𝜇* = 𝜈, если 𝜈 — это индуциро-
рванная 𝑚 мера.
Доказательство. Действительно, пусть 𝒜 ∈ 𝑅(𝑆), 𝒜 = 𝑛𝑖=1 𝒜𝑖 , 𝒜𝑖 ∈ 𝑆. Тогда
⨆︀
𝑛
∑︁
𝜈(𝒜) = 𝑚(𝒜𝑖 )
𝑖=1
Тогда тривиальным образом 𝜈(𝒜) ⩾ 𝜇* (𝒜) в силу определения. С другой стороны, для
любого счётного покрытия {𝒜}∞
𝑖=1 мы знаем, что
∞
∑︁
𝜈(𝒜) ⩽ 𝜈(𝒜𝑖 )
𝑖=1
При этом, так как 𝒜𝑖 ∈ 𝑆 для внешней меры Лебега, то 𝜈(𝒜𝑖 ) = 𝑚(𝒜𝑖 ). При переходе к
инфинуму это даёт необходимое неравенство в другую сторону.
Утверждение 4.6. Если определить внешнюю меру Лебега лишь с помощью покрытий
непересекающихся множеств, то мы получим эквивалентное определение.
Доказательство. 𝜇* (𝐴) — обозначение изначальной внешней меры Лебега, 𝜇′* (𝐴) — внеш-
няя мера Лебега по покрытиям из непересекающихся множеств. Сразу ясно, что 𝜇* (𝐴) ⩽
𝜇′* (𝐴), и нужно⋃︀доказать лишь в обратную сторону:
Пусть 𝐴 ⊆ ∞ мы знаем, что ∞ 𝐴𝑖 = ∞
⋃︀ ⨆︀
𝑖=1 𝐴𝑖 . Тогда
⋃︀𝑗𝑖 𝑖=1 𝑖=1 𝐵𝑖 в кольце 𝑅(𝑆). Раз каж-
дое 𝐵𝑖 ∈ 𝑅(𝑆), то 𝐵𝑖 = 𝑗=1 𝐶𝑖,𝑗 , 𝐶𝑖,𝑗 ∈ 𝑆. Теперь, посмотрим на меру дизъюнктного
объединения всех 𝐶𝑖,𝑗 :
𝑗𝑖
∞ ∑︁ ∞ ∞ ∞
∑︁ ∑︁ ∑︁ ∑︁
𝑚(𝐶𝑖,𝑗 ) = 𝜈(𝐵𝑖 ) ⩽ 𝜈(𝐴𝑖 ) = 𝑚(𝐴𝑖 )
𝑖=1 𝑗=1 𝑖=1 𝑖=1 𝑖=1
Отсюда 𝜇′* (𝐴) ⩽ 𝜇* (𝐴), ибо для любого покрытия мы показали, что его дизъюннктная
версия имеет меру не бо́льшую.
Тогда 𝐵 ⊆ ∞
⋃︀ ⋃︀∞
𝑖=1 𝑗=1 𝐴𝑖,𝑗 . Коль скоро правая часть является покрытием множествами 𝑆,
то можно сделать такую цепочку неравенств:
∞ ∑︁
∞ ∞ (︁ ∞
∑︁ ∑︁ 𝜀 )︁ ∑︁ *
𝜇* (𝐵) ⩽ 𝑚(𝐴𝑖,𝑗 ) < 𝜇* (𝐵𝑖 ) + = 𝜇 (𝐵𝑖 ) + 𝜀
𝑖=1 𝑗=1 𝑖=1
2𝑖 𝑖=1
Тут заметим, что 𝐵𝜀 , 𝐶𝜀 ∈ 𝑅(𝑆), стало быть и 𝐵𝜀 ∪ 𝐶𝜀 ∈ 𝑅(𝑆). Иначе говоря, для этих
множеств 𝜇* = 𝜈 — индуцированная мера (реальная!). Значит, мы можем воспользоваться
формулой включений и исключений:
Осталось показать, что 𝜇* (𝐵𝜀 ∩ 𝐶𝜀 ) достаточно малая величина. Для этого снова заметим
вложение:
𝑛
(︃ 𝑛 )︃ (︃ 𝑛 )︃
∑︁ ⨆︁ ⨆︁
𝜇(𝐵𝑖 ) = 𝜇 𝐵𝑖 = 𝜇* 𝐵𝑖 ⩽ 𝜇* (𝐴)
𝑖=1 𝑖=1 𝑖=1
∑︀∞
Отсюда следует, что 𝑖=1 𝜇(𝐵𝑖 ) ⩽ 𝜇* (𝐴) < ∞. Благодаря этому ряд сходится.
Отсюда по аддитивности:
𝑛
(︃ ∞
)︃ 𝑛
∑︁ ⨆︁ ∑︁
∀𝑛 ∈ N 𝜇(𝒜) = 𝜇(𝒜𝑖 ) + 𝜇 𝐴𝑖 ⩾ 𝜇(𝒜𝑖 )
𝑖=1 𝑖=𝑛+1 𝑖=1
1. 𝜙(𝑥) неубывающая
3. 𝜙(𝑥) ограничена
Положим за полукольцо 𝑆 следующую систему множеств (про которую, конечно же, чи-
татель должен доказать свойства полукольца):
{︁ ⃒ }︁ {︁ ⃒ }︁
𝑆 = {∅} ∪ (𝑎; 𝑏] 𝑎 ∈ R ∪ {−∞}, 𝑏 ∈ R ∪ (𝑎; +∞) 𝑎 ∈ R ∪ {−∞}
⃒ ⃒
𝑚(∅) = 0
𝑚((𝑎; 𝑏]) = 𝜙(𝑏) − 𝜙(𝑎)
𝑚((𝑎; +∞)) = 𝜙(+∞) − 𝜙(𝑎)
То, что этим задана хотя бы мера, должно быть очевидно (ну или домашнее задание
читателю), а вот 𝜎-аддитивность неясна. Для этого, мы отдельно разберём конечный и
бесконечный случаи:
⨆︀∞
1. (𝑎; 𝑏] = 𝑖=1 (𝑎𝑖 ; 𝑏𝑖 ]. У нас уже есть неравенство в одну сторону:
∞
∑︁
𝑚((𝑎; 𝑏]) ⩾ (𝑎𝑖 ; 𝑏𝑖 ]
𝑖=1
𝑁
𝜀 𝜀 ∑︁ 𝜀
𝑚((𝑎; 𝑏]) = 𝜙(𝑏) − 𝜙(𝑎) < 𝜙(𝑏) − 𝜙(𝑑) + = 𝑚((𝑑; 𝑏]) + ⩽ 𝑚((𝑎𝑖 ; 𝑐𝑖 ]) + <
2 2 𝑖=1
2
∞ ∞ ∞
∑︁ 𝜀 ∑︁ (︁ 𝜀 )︁ 𝜀 ∑︁
(𝜙(𝑐𝑖 ) − 𝜙(𝑎𝑖 )) + < 𝜙(𝑏𝑖 ) − 𝜙(𝑎𝑖 ) + 𝑖+1 + = 𝑚((𝑎𝑖 ; 𝑏𝑖 ]) + 𝜀
𝑖=1
2 𝑖=1
2 2 𝑖=1
𝑚((𝑎; +∞)) = 𝜙(+∞) − 𝜙(𝑎) = lim 𝜙(𝑛) − 𝜙(𝑎) = lim (𝜙(𝑛) − 𝜙(𝑎)) = lim 𝑚((𝑎; 𝑛])
𝑛→∞ 𝑛→∞ 𝑛→∞
⨆︀∞
Далее есть ещё один нереальный факт: (𝑎; 𝑛] = 𝑖=1 (𝑎; 𝑛] ∩ 𝐴𝑖 . Так как у нас по-
лукольцо, то эти пересечения тоже лежат в 𝑆, причём будут полуинтервалами. По
первому пункту это даёт 𝜎-аддитивность мер, ну а в частности 𝜎-полуаддитивность:
∞
∑︁
𝑚((𝑎; 𝑛]) ⩽ 𝑚((𝑎; 𝑛] ∩ 𝐴𝑖 )
𝑖=1
Коль скоро это работает при всех 𝑛 ⩾ 𝑎, то верно и предельное неравенство. Значит
∞
∑︁ ∞
∑︁
𝑚((𝑎; +∞)) = lim 𝑚((𝑎; 𝑛]) ⩽ lim 𝑚((𝑎; 𝑛] ∩ 𝐴𝑖 ) ⩽ 𝑚(𝐴𝑖 )
𝑛→∞ 𝑛→∞
𝑖=1 𝑖=1
⨆︀∞
3. (−∞; 𝑏] = 𝑖=1 𝐴𝑖 . Аналогично предыдущему, просто надо рассматривать полуинтер-
Замечание. Возникает уже известный вопрос: «А как продлить 𝜎-конечную меру на что-
то более сложное?» Для этого нужно хотя бы определить, от чего мы отталкиваемся:
2. 𝐸 ∈
/𝑆
(𝐴 ∩ 𝐵𝑗 )△(𝐶 ∩ 𝐵𝑗 ) = (𝐴△𝐶) ∩ 𝐵𝑗
Отсюда 𝐴△𝐶 ∈ 𝑀
3. (Замкнутость относительно счётного объединения) Аналогично предыдущему пунк-
ту, ибо каждое 𝑀𝑗 является 𝜎-алгеброй.
Замечание. Важно понимать: первый пункт не только дал нам единицу, но и показал,
что 𝑀 ̸= ∅ — одно из необходимых условий.
Теорема 4.13. Мера Лебега 𝜇 является 𝜎-конечной мерой на системе 𝑀 подмножеств
𝐸.
Доказательство. Посмотрим свойства прямо по порядку из определения:
1. По построению
2. Пусть 𝐴 = ∞
⨆︀
𝑖=1 𝐴𝑖 ; 𝐴, 𝐴𝑖 ∈ 𝑀 . Распишем меру 𝐴 по определению:
∞ ∞
(︃ ∞ )︃
∑︁ ∑︁ ⨆︁
𝜇(𝐴) = 𝜇𝑗 (𝐴 ∩ 𝐵𝑗 ) = 𝜇𝑗 (𝐴𝑖 ∩ 𝐵𝑗 )
𝑗=1 𝑗=1 𝑖=1
3. По построению
Свойства мер
∞
Определение 4.19. Конечная ⋂︀∞мера 𝜇 на кольце 𝑅 называется непрерывной, если ∀{𝐴𝑖 }𝑖=1 ⊆
𝑅, 𝐴𝑖 ⊇ 𝐴𝑖+1 , обозначив 𝐴 = 𝑖=1 𝐴𝑖 , верно следующее условие:
∀𝑗 ∈ N 𝐴 ∩ 𝐵𝑗 ∈ 𝑀𝑗
Точно такое же утверждение надо доказать для 𝐵. Для этого заметим вложение
(𝐵 ∩ 𝐵𝑗 ) ⊂ (𝐴 ∩ 𝐵𝑗 ), а так как 𝐵𝑗 является единицей осоответствующего кольца с
мерой Лебега 𝜇𝑗 , то
где
◁ 𝐴𝑖,𝑗 ∈ 𝑅(𝑆)
◁ ∀𝑖 ∈ N 𝐴𝑖,1 ⊆ 𝐴𝑖,2 ⊆ . . .
◁ 𝐵𝑖 := ∞
⋃︀
𝑗=1 𝐴𝑖,𝑗 , тогда 𝐵1 ⊇ 𝐵2 ⊇ . . .
◁ 𝐴0 ∈ 𝑀 , 𝜇(𝐴0 ) = 0
полукольца. Заметим, что 𝜇(𝐵1 ) = 𝜇(𝐶1 ) < ∞, а поэтому можно применить непрерывность
меры: (︃ ∞ )︃ (︃ 𝑛 )︃
⋂︁ ⋂︁
𝜇 𝐵𝑖 ∖𝐴 = lim 𝜇 𝐵𝑖 ∖𝐴
𝑛→∞
𝑖=1 𝑖=1
Если мы докажем, что мера множества слева равна нулю, то мы его смело кладём за
𝐴0 ∈ 𝑀 из условия теоремы и побеждаем. Для этого произведём оценку того, что у нас в
пределе: (︃ 𝑛 )︃
⋂︁ 1
𝜇 𝐵𝑖 ∖𝐴 ⩽ 𝜇(𝐵𝑛 ∖𝐴) ⩽ 𝜇(𝐶𝑛 ∖𝐴) <
𝑖=1
𝑛
Ну и всё, значит, предел равен нулю. Однако, 𝐸𝑖,𝑗 при фиксированном⋃︀𝑖 не удовлетворяют
условиям теоремы. Чтобы обойти этот момент, надо положить 𝐴𝑖,𝑗 = 𝑗𝑟=1 𝐸𝑖,𝑟 . Очевидно,
что объединение таких множеств по 𝑗 всё ещё будет 𝐵𝑖 , они точно лежат в 𝑅(𝑆) и образуют
неубывающую последовательность.
Доказательство.
где 𝐴0 ∈ 𝜎(𝑆) тоже. Это уже ставит вопрос: «Почему 𝜇′ (𝐴0 ) = 0?» Воспользуемся
свойством определения меры Лебега:
∞
⋃︁ ∞
⃒ ∑︁
∀𝜀 > 0 ∃ 𝐶𝑖 ⊇ 𝐴 0 ⃒ 𝑚(𝐶𝑖 ) < 𝜀
𝑖=1 𝑖=1
⏟ ⏞
∈𝜎(𝑆)
В последнем выражении 𝜇′ (𝐴𝑖,𝑗 ) = 𝜇(𝐴𝑖,𝑗 ), так как 𝐴𝑖,𝑗 ∈ 𝑅(𝑆), а для минимального
кольца мы уже установили единственность согласованной меры ранее. Повторяя все
равенство в обратную сторону для другой меры, установим равенство 𝜇(𝐴) = 𝜇′ (𝐴),
противоречие.
◁ 𝑀 — 𝜎-алгебра на 𝑋
◁ 𝜇 — 𝜎-аддитивная мера на 𝑀
называется измеримым пространством.
Замечание. Стоит отметить, что некоторые свойства мы не гарантируем. Например, пол-
ноту - совсем необязательно любое подмножество множества нулевой меры будет тоже
иметь меру 0 (или даже измеримо).
Определение 4.22. Пусть (𝑋, 𝑀, 𝜇) — измеримое пространство, 𝐴 ∈ 𝑀 . Функция 𝑓 : 𝐴 →
R называется измеримой, когда выполняется условие:
∀𝑐 ∈ R 𝑓 −1 ((𝑐; +∞]) ∈ 𝑀
⋂︀∞
◁ ∀𝑐 ∈ R 𝑓 −1 ([−∞; 𝑐)) = 𝑓 −1 −∞; 𝑐 + 𝑛1 ∈ 𝑀
(︀[︀ ]︀)︀
𝑛=1
𝑆 = {𝐴 ⊆ R ⃒ 𝑓 −1 (𝐴) ∈ 𝑀 }
⃒
◁ R∈𝑆
◁ 𝑆 является 𝜎-алгеброй
Доказательство.
Доказательство. (теоремы) Что мы ещё можем сказать про 𝑆? Оно содержит по уже
доказанному факту все интервалы из R. То же самое делает B(R), при этом борелевская 𝜎-
алгебра является минимальной. Стало быть, B(R) ⊆ 𝑆 и всё доказано автоматически.
⨆︀
Напоминание. Если 𝐴 ⊆ R, то 𝐴 = 𝑖 (𝑎𝑖 ; 𝑏𝑖 ), 𝑎𝑖 < 𝑏𝑖 ∈ R.
Напоминание. Если взять измеримое пространство (R, 𝑀𝜆 , 𝜆), где 𝜆 — это классиче-
ская мера Лебега, то любая непрерывная функция 𝑓 : 𝐴 → R, определенная на открытом
множестве 𝐴 ⊆ R будет измеримой.
◁ Воспользуемся трюком:
(𝑓 + 𝑔)2 − (𝑓 − 𝑔)2
𝑓 ·𝑔 =
4
Это измеримая функция, потому что композицию и сумму функций мы уже обосно-
вали (𝑓 − 𝑔 = 𝑓 + (−𝑔)).
𝑓 /𝑔 = 𝑓 · (1/𝑔)
являются измеримыми.
Для 𝜓(𝑥) надо воспользоваться эквивалентным определением верхнего предела. Для этого
введём 𝜓𝑘 (𝑥) = sup𝑛⩾𝑘 𝑓𝑛 (𝑥). Тогда 𝜓(𝑥) = lim𝑘→∞ 𝜓𝑘 (𝑥) и можно записать прообраз луча
так: ∞ ⋂︁∞ {︂ }︂
⃒ ⋃︁ ⃒ 1
{𝑥 ∈ 𝑋 𝜓(𝑥) > 𝑐} =
⃒ 𝑥 ∈ 𝑋 𝜓𝑘 (𝑥) > 𝑐 +
⃒
𝑟=1 𝑘=1
𝑟
Доказательство. Мы уже доказали, что функции 𝜓(𝑥) = lim𝑛→∞ 𝑓𝑛 (𝑥) и 𝜉(𝑥) = lim𝑛→∞ 𝑓𝑛 (𝑥)
измеримы на 𝑋. Чтобы установить измеримость 𝐹 , надо сначала показать измеримость
множества её определения 𝐴, то есть
⃒ (︁ ⃒ ⃒ )︁
𝐴 = {𝑥 ∈ 𝑋 𝜓(𝑥) = 𝜉(𝑥)} = 𝑋∖ {𝑥 ∈ 𝑋 𝜓(𝑥) > 𝜉(𝑥)} ⊔ {𝑥 ∈ 𝑋 𝜓(𝑥) < 𝜉(𝑥)} ∈ 𝑀
⃒ ⃒ ⃒
2. 𝑃 нигде не плотно (то есть для любого интервала найдётся подинтервал, не содержа-
щий элементы 𝑃 )
4. 𝜆(𝑃 ) = 0