Вы находитесь на странице: 1из 45

Московский физико-технический институт

Физтех-школа прикладной математики и информатики

ОСНОВЫ ВЕРОЯТНОСТИ И ТЕОРИИ МЕР


III СЕМЕСТР

Лектор: Иван Генрихович Эрлих

Автор: Максимов Даниил


Проект на Github

осень 2022
Основы вероятности и теории мер Назад к содержанию

Содержание
1 Основы теории вероятностей 2
1.1 Связь между математикой и реальностью . . . . . . . . . . . . . . . . . . . . 2
1.2 Математические модели случайного эксперимента . . . . . . . . . . . . . . . 3

2 Формулы теории вероятности 5


2.1 Условная вероятность . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2 Формула полной вероятности . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.3 Формула Байеса . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.4 Формула умножения вероятностей . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.5 Независимость событий . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

3 Случайные величины 10
3.1 Определение случайной величины . . . . . . . . . . . . . . . . . . . . . . . . . 10
3.2 Распределение случайной величины . . . . . . . . . . . . . . . . . . . . . . . . 11
3.3 Независимость случайных величин . . . . . . . . . . . . . . . . . . . . . . . . 13
3.4 Математическое ожидание случайной величины . . . . . . . . . . . . . . . . . 13
3.5 Дисперсия случайной величины . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.6 Ковариация случайных величин . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.7 Корреляция случайных величин . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.8 Предельные теоремы . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

4 Основы теории мер 21


4.1 Системы множеств . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.2 Конечные меры на системах множеств . . . . . . . . . . . . . . . . . . . . . . 26
4.3 Внешняя мера Лебега . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.4 𝜎-конечные меры . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.5 Измеримые функции . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

ФПМИ МФТИ, осень 2022 1


Основы вероятности и теории мер Назад к содержанию

1 Основы теории вероятностей


1.1 Связь между математикой и реальностью
Замечание. Теория вероятностей - это наука, возникшая из наблюдения за физическими
явлениями. Она изучает случайные эксперименты, но что это означает? Эксперимент -
это физическое явление, а какие эксперименты случайны? Мы будем считать таковыми
те, которые удовлетворяют следующим условиям:

1. Повторяемость - у нас есть возможность провести эксперимент заново, повторив при


этом начальные условия с определенной точностью (например, мы никогда не сможем
заставить молекулы воздуха в комнате оказаться ровно в тех же позициях, что были
изначально. Отсюда требование по точности)

2. Отсутствие детерминистической регулярности (то есть та неточность, с которой мы


допускаем повторение эксперимента, может существенно повлиять на его результат)

3. Статистическая устойчивость частот. Говоря языком математики, то пусть 𝑁𝑖 - число


экспериментов в серии 𝑖, 𝑁𝑖 (𝐴) - количество экспериментов, в которых результатом
оказалось явление 𝐴. Должно быть верно следующее:

𝑁𝑖 (𝐴) 𝑁𝑗 (𝐴)
∀𝑖, 𝑗 ∈ N ≈
𝑁𝑖 𝑁𝑗

Однако, что значит примерно и определенная точность? Это, увы, зависит от реальной
задачи.

Пример. Приведём несколько некорректных экспериментов в форме вопроса:

◁ Какова вероятность того, что человек выйдет из дома и встретит динозавра? - у


этого эксперимента есть детерминистическая регулярность, мы никогда не встретим
динозавра, потому что они вымерли.

◁ Какова вероятность того, что Тихон сдаст экзамен по ОВиТМ на отл10? - здесь от-
сутствует повторяемость. Даже если брать во внимание тот факт, что у него есть 3
попытки сдать экзамен, всё равно на каждый последующий Тихон будет приходить
«другим», более подготовленным студентом.

Пример. Бросок маленькой монеты с высоты 1 метра может рассматриваться как слу-
чайный эксперимент.

Замечание. Математическая модель случайного эксперимента должна переводить ре-


альные сущности на язык математики:

◁ Разные результаты эксперимента ↔ {𝑤1 , . . . , 𝑤𝑛 , . . .} =: Ω - элементарные исходы

◁ Совокупность результатов экспериментов, объединенные физичечскими характери-


стиками, которые мы ожидаем ↔ 𝐴 ⊂ Ω - событие

◁ Частота конкретного события 𝐴 → 𝑃 (𝐴) - вероятность

ФПМИ МФТИ, осень 2022 2


Основы вероятности и теории мер Назад к содержанию

Замечание. Вероятность - это идеализация частоты до уровня математической абстрак-


ции. Она возникает в момент создания математической модели, и на вопрос: «А почему
вероятность такая?» - ответ создателя модели очень прост: «Мне так захотелось».
Строго говоря, говорить о вероятности реального события нельзя. Можно говорить
только о вероятности подмножества Ω, потому что вероятность - это чисто математика.

Определение 1.1. Математическую модель случайного эксперимента принято описы-


вать вероятностным пространством (Ω, 𝐹, 𝑃 ), где

◁ Ω - это множество элементарных исходов



◁ 𝐹 = {𝐴 ⃒ 𝐴 ⊆ Ω} - множество рассматриваемых событий, обладающее следующими
свойствами:

1. 𝐹 замкнуто относительно операций ∩, ∪, ∖, △


⋃︀∞
2. ∀{𝐴𝑛 }∞
𝑛=1 ⊆ 𝐹 ⇒ 𝑛=1 𝐴𝑛 ∈ 𝐹

3. Ω ∈ 𝐹

◁ 𝑃 : 𝐹 → R - вероятностная мера (или же вероятность), со следующими условиями:

1. ∀𝐴 ∈ 𝐹 𝑃 (𝐴) ∈ [0; 1]
𝑃( ∞
∑︀∞
2. ∀{𝐴𝑛 }∞
⨆︀
𝑛=1 𝑛=1 𝐴𝑛 ) = 𝑛=1 𝑃 (𝐴𝑛 )
3. 𝑃 (Ω) = 1

Замечание. Далее мы будем использовать обозначения вероятностного пространства


(Ω, 𝐹, 𝑃 ) без явного упоминания (дабы не нагромождать повторений). Во всех остальных
случаях будет явно указано обозначение пространства.

1.2 Математические модели случайного эксперимента


◁ Если |Ω| < ∞, то такие модели называются дискретными. Множество событий по-
лагают равным 𝐹 = 2Ω . Единственный вопрос, который остаётся открытым - Как
задавать вероятность?

1. Классическая модель. В ней все вероятности элементарных событий равны:

Ω = {𝑤𝑖 }𝑁
𝑖=1 ; ∀𝑖 ∈ {1, . . . , 𝑛} 𝑃 ({𝑤𝑖 }) = 𝑐𝑜𝑛𝑠𝑡 = 𝐶

Отсюда выводим вероятность одного исхода:


(︃ 𝑁 )︃ 𝑁
⨆︁ ∑︁ 1 1
1 = 𝑃 (Ω) = 𝑃 {𝑤𝑖 } = 𝑃 ({𝑤𝑖 }) = 𝐶 · 𝑁 =⇒ 𝐶 = =
𝑖=1 𝑖=1
𝑁 |Ω|

Если у нас есть 𝒜 ∈ 𝐹 , то вероятность такого события можно посчитать из


определения:
∑︁ ∑︁ 1 |𝒜|
𝑃 (𝒜) = 𝑃 ({𝑤}) = =
𝑤∈𝒜 𝑤∈𝐴
|Ω| |Ω|

ФПМИ МФТИ, осень 2022 3


Основы вероятности и теории мер Назад к содержанию

2. Неклассическая модель. В ней, очевидно, вероятности элементарных событий


могут быть не равны. Обычно они задаются поточечно в силу конечности Ω.
Если есть событие 𝒜 ∈ 𝐹 , то вероятность считают по одной формуле:
∑︁
𝑃 (𝒜) = 𝑃 (𝑤)
𝑤∈𝒜

Пример. 𝑛 ⩾ 3 незнакомых людей садятся за круглый стол. Найти вероятность


того, что 2 конкретных человека окажутся рядом.
Рассмотрим математические модели, которыми бы можно было описать эту за-
дачу:
(a) 𝑤 = (𝑖1 , . . . , 𝑖𝑛 ), где 𝑖𝑗 - это номер места, куда сядет 𝑗-й человек. Тогда
|Ω| = 𝑛!, а вероятность нашего события будет

|𝐴| 𝑛 · 2 · (𝑛 − 2)! 2
𝑃 (𝐴) = = =
|Ω| 𝑛! 𝑛−1

(b) 𝑤 = (𝑥, 𝑦) - позиции, которые займут интересующие нас люди (без разбора,
кто сядет первый). Тогда всего исходов |Ω| = 𝐶𝑛2 , а вероятность нужного
события будет
|𝐴| 𝑛 𝑛 2
𝑃 (𝐴) = = 2 = 𝑛(𝑛−1) =
|Ω| 𝐶𝑛 𝑛−1
2
Замечание. Это замечательно, когда задача сформулирована полно и разные
модели дают одинаковую вероятность. Однако, бывает и иначе, но об этом будет
сильно позже...
Пример. Есть 𝑁 изделий, среди которых 𝑀 бракованных. Найти вероятность
того, что среди 𝑛 ⩽ 𝑁 выбранных изделий будет ровно 0 ⩽ 𝑘 ⩽ 𝑛 бракованных.
(a) Положим 𝑤 = (𝑖1 , . . . , 𝑖𝑛 ), где 𝑖𝑗 — номер изделия при 𝑗-м вытаскивании.
Тогда |Ω| = 𝑁 𝑛 , а вероятность интересующего нас события будет

𝐶𝑛𝑘 · 𝑀 𝑘 · (𝑁 − 𝑀 )𝑛−𝑘
𝑃 (𝐴) = = 𝐶𝑛𝑘 · 𝑝𝑘 · (1 − 𝑝)𝑛−𝑘
𝑁𝑛
(b) (Пример схемы испытаний Бернулли) Теперь 𝑤 = (𝑙1 , . . . , 𝑙𝑛 ), где 𝑙𝑖 ∈ {0, 1}
— бракован элемент или нет. Тогда |Ω| = 2𝑛 , 𝐹 = 2Ω , а вероятность выбора
бракованного элемента положим за 𝑝 = 𝑀/𝑁 . Тогда, мы можем поточечно
задать вероятность одного исхода, опираясь на предыдущую модель:

𝑃 ({𝑤}) = 𝑝#единиц · (1 − 𝑝)#нулей

где количество единиц можно выразить как 𝑛𝑖=1 𝑙𝑖 . Но очевидно ли, что
∑︀
𝑃 (Ω) = 1? Вообще говоря, нет. Нужно это проверить:
𝑛
∑︁ ∑︀𝑛 ∑︀𝑛 ∑︁
𝑃 (Ω) = 𝑝 𝑖=1 𝑙𝑖 (1 − 𝑝)𝑛− 𝑖=1 𝑙𝑖 = 𝐶𝑛𝑘 𝑝𝑘 (1 − 𝑝)𝑛−𝑘 = (𝑝 + (1 − 𝑝))𝑛 = 1
𝑤∈Ω 𝑘=0

Вероятность 𝑃 (𝐴) будет той же.

ФПМИ МФТИ, осень 2022 4


Основы вероятности и теории мер Назад к содержанию

Пример. Тихон играет с другом в монетку. С вероятностью 𝑝 ∈ (0; 1) он выиг-


рывает (выпадает сторона, которую он выбрал). Какова вероятность того, что
он выиграет первый раз на 𝑛-м шаге?
Казалось бы, ничего сложного нет:

𝑃 ({𝑤}) = 𝑃 (Тихон выиграет на 𝑛-м шаге) = 𝑝(1 − 𝑝)𝑛−1

Но есть 2 больших проблемы: во-первых, Ω = N, а 𝐹 = 2Ω ∼ = R, то есть мы


не в дискретной модели. Во-вторых, нам снова нужно проверить корректность
модели. Все свойства очевидны, за исключением 𝑃 (Ω):

∑︁ ∑︁ 1
𝑃 (Ω) = 𝑃 ({𝑤}) = 𝑝(1 − 𝑝)𝑘−1 = 𝑝 · =1
𝑤∈Ω 𝑘=1
1 − (1 − 𝑝)

Быть может, в счётных моделях всё хорошо? К сожалению, уже здесь всё может
сломаться, и следующий пример об этом.
Пример. (Некорректная неклассическая ⃒ модель) Рассмотрим такую модель:
Ω = Q ∩ [0; 1], а 𝐹 = 2Ω = {Q ∩ [𝑎; 𝑏] ⃒ 0 ⩽ 𝑎 ⩽ 𝑏 ⩽ 1}. Иначе говоря, мы рассмат-
риваем вероятности множеств рациональных точек на [0; 1] быть выбранными.
Интуитивно хочется взять такую вероятность:

𝑃 (Q ∩ [𝑎; 𝑏]) = 𝑏 − 𝑎 =⇒ ∀𝑟𝑛 ∈ Ω 𝑃 ({𝑟𝑛 }) = 0

Из определения Ω следует, что 𝑃 (Ω) = 1. Однако, в силу счётности числа раци-


ональных точек, мы можем переписать Ω в следующем виде:

⨆︁ ∞
∑︁
Ω= {𝑟𝑘 } =⇒ 𝑃 (Ω) = 𝑃 ({𝑟𝑘 }) = 0
𝑘=1 𝑘=1

Поэтому требование счётной аддитивности меры существенно. А если ещё внима-


тельно посмотреть на 𝐹 , то можно заметить, что это не 𝜎-алгебра (объединение
не обязательно единый отрезок).

◁ Недискретная модель (Геометрическая вероятность). В ней обычно Ω ⊂ R𝑛 , 𝜇(Ω) <


∞, а за вероятность события 𝐴 берут

𝜇(𝐴)
𝑃 (𝐴) =
𝜇(Ω)

Остаётся вопрос: «Что делать с 𝐹 ?» Совершенно понятно, что мы не имеем права


брать 𝐹 = 2Ω из-за требований модели. Вообще говоря, это зависит от задачи, но мы
можем временно опустить этот вопрос. Вероятность важна и имеет смысл только для
наших конкретных событий. Это ровно то, почему 𝑃 определена на элементах из 𝐹 .

2 Формулы теории вероятности

ФПМИ МФТИ, осень 2022 5


Основы вероятности и теории мер Назад к содержанию

2.1 Условная вероятность


Сюда надо картинку следующего толка: кружочек Ω, в нём 2 пересекающихся события
𝐴 и 𝐵. Надо выделить пересечение.
Замечание. Довольно часто мы рассматриваем не просто события, но и вероятность од-
ного при условии, что произойдёт другое. Для этой мысли нам нужно расширить понятие
вероятности.
Определение 2.1. Условной вероятностью события 𝐴 при условии наступления события
𝐵 (𝑃 (𝐵) ̸= 0) называется величина

𝑃 (𝐴 ∩ 𝐵)
𝑃 (𝐴|𝐵) =
𝑃 (𝐵)

Замечание. Интуиция тут такая: мы рассмотрели вероятность события 𝐴 ∩ 𝐵 как будто


Ω = 𝐵. Именно по этой причине нужно делить на 𝑃 (𝐵).
Пример. Вернёмся к игре в монетку с Тихоном. Какова вероятность Тихона выиграть
суммарно 𝑘 раз за 𝑛 партий, если вероятность победы всё ещё 𝑝 ∈ (0; 1) и он выиграл
первый бросок?
𝑘−1 𝑘−1
◁ Быстрый ответ будет 𝐶𝑛−1 𝑝 (1 − 𝑝)𝑛−𝑘 - просто посчитали число подходящих би-
нарных строк и умножили на вероятность 𝑘 − 1 победы
◁ Пусть 𝐴 означает выиграть ровно 𝑘 раз за 𝑛 бросков, а 𝐵 - выиграть первую партию.
Тогда верно следующее:
}︃
𝑘−1 𝑘
𝑃 (𝐴 ∩ 𝐵) = 𝐶𝑛−1 𝑝 (1 − 𝑝)𝑛−𝑘 𝑘−1 𝑘−1
⇒ 𝑃 (𝐴|𝐵) = 𝐶𝑛−1 𝑝 (1 − 𝑝)𝑛−𝑘
𝑃 (𝐵) = 𝑝

2.2 Формула полной вероятности


𝑛(∞)
Определение 2.2. Разбиением Ω над 𝐹 называется последовательность множеств {𝐵𝑘 }𝑘=1 ⊆
𝐹 такая, что
1. ∀𝑖 ̸= 𝑗 ⇒ 𝐵𝑖 ∩ 𝐵𝑗 = ∅

2. 𝑛(∞)
⨆︀
𝑖=1 𝐵𝑖 = Ω

Замечание. 𝑛(∞) означает либо конечную, либо бесконечную последовательность.


𝑛(∞)
Теорема 2.1. Если {𝐵𝑘 }𝑘=1 - разбиение Ω и верно, что ∀𝑘 𝑃 (𝐵𝑘 ) > 0, то
𝑛(∞)
∑︁
∀𝐴 ∈ 𝐹 𝑃 (𝐴) = 𝑃 (𝐴|𝐵𝑘 ) · 𝑃 (𝐵𝑘 )
𝑘=1

Доказательство. Благодаря тому, что у нас есть счётная аддитивность, следующая це-
почка равенств будет верна:
⎛ ⎞
𝑛(∞) 𝑛(∞) 𝑛(∞)
⨆︁ ∑︁ ∑︁
𝑃 (𝐴) = 𝑃 (𝐴 ∩ Ω) = 𝑃 𝐴 ∩
⎝ 𝐵𝑘 =
⎠ 𝑃 (𝐴 ∩ 𝐵𝑘 ) = 𝑃 (𝐴|𝐵𝑘 ) · 𝑃 (𝐵𝑘 )
𝑘=1 𝑘=1 𝑘=1

ФПМИ МФТИ, осень 2022 6


Основы вероятности и теории мер Назад к содержанию

Замечание. А что же всё-таки будет, если 𝑃 (𝐵) = 0? Хочется сказать, что 𝑃 (𝐴|𝐵) = 0,
но всё равно непонятно, из каких соображений.
Пример. «Какова вероятность того, что зарплата среднего работника будет больше 1000
условных единиц при температуре 12.8 градусов Цельсия» — вполне справедливый вопрос,
на который мы сейчас не можем дать ответа в силу бедности математического аппарата.
Можно рассмотреть температуру как непрерывную функцию и получить 𝑃 (𝑡 = 12.8) = 0,
но это не соответствует реальности. Что-то более вменяемое может рассказать область
математической статистики, но это выходит за рамки курса ОВиТМа.
Пример. И всё же рассмотрим применение формулы полной вероятности. Пусть есть
3 студента, которых и только их вызывает семинарист к доске (назовём их, например,
Умный, Весёлый и Староста и введём соответствующую нумерацию). Тогда 𝐵𝑘 - это со-
бытие, когда семинарист вызывает 𝑘 ∈ {1, . . . , 3} студента. 𝐴 - это событие, что студент
даёт верный ответ.
◁ 𝑃 (𝐵1 ) = 1/6, чтобы на семинарах группа хоть как-то продвигалась; 𝑃 (𝐴|𝐵1 ) = 1

◁ 𝑃 (𝐵2 ) = 1/2, потому что иногда хочется передохнуть и не дать семинару стать «душ-
ным»; 𝑃 (𝐴|𝐵2 ) = 1/10

◁ 𝑃 (𝐵3 ) = 1/3, просто из соображений суммы вероятностей; 𝑃 (𝐴|𝐵3 ) = 1/3


Тогда, посчитаем 𝑃 (𝐴):

𝑃 (𝐴) = 1/6 + 1/20 + 1/9 = 59/180 ≈ 1/3

2.3 Формула Байеса


Замечание. a priori — знания, полученные до опыта и независимо от него, а a posteriori
— знания, полученные с опытом.
Пример. Вернёмся к последнему примеру. Предположим, что прошёл семинар, на кото-
ром решили пару задач, семинарист поставил плюсики на лист, но не записал, кто именно
решил ту или иную задачу. Отсюда рождается желание узнать 𝑃 (𝐵𝑘 |𝐴) — вероятность
того, что ответ был дан 𝑘-м студентом. Такую вероятность можно назвать постериорной,
потому что мы знаем желаемый результат эксперимента, но не знаем, как его достигли.
Теорема 2.2. (Формула Байеса) Утверждается, что постериорную вероятность 𝑃 (𝐵𝑘 |𝐴)
можно найти по следующей формуле:

𝑃 (𝐴|𝐵𝑘 ) · 𝑃 (𝐵𝑘 )
𝑃 (𝐵𝑘 |𝐴) = ∑︀𝑛(∞)
𝑘=1 𝑃 (𝐴|𝐵𝑘 ) · 𝑃 (𝐵𝑘 )

Доказательство. Ну, тут даже комментировать не надо

𝑃 (𝐴 ∩ 𝐵𝑘 ) 𝑃 (𝐴|𝐵𝑘 ) · 𝑃 (𝐵𝑘 )
𝑃 (𝐵𝑘 |𝐴) = = ∑︀𝑛(∞)
𝑃 (𝐴) 𝑘=1 𝑃 (𝐴|𝐵𝑘 ) · 𝑃 (𝐵𝑘 )

ФПМИ МФТИ, осень 2022 7


Основы вероятности и теории мер Назад к содержанию

Пример. В нашем примере, если мы посмотрим на 𝐵1 , то получим такую вероятность:

1/6 · 1 30
𝑃 (𝐵1 |𝐴) = = ≈ 1/2
59/180 59

Это сходится с интуицией: если ответ был дан, то его с большой вероятностью должен
был дать Умный студент.

2.4 Формула умножения вероятностей


Пример. Есть урна с 7 белыми и 9 красными шарами. Мы вытаскиваем без возвращения
3 шара. Какова вероятность того, что мы последовательно вытащим сначала белый, потом
красный, а потом белый.
Если прямо сейчас освободить разум, то можно дать следующий ответ:
7 5 6
𝑃 (𝐴) = · ·
16 15 14
Но как это обосновать? Сказать, что вероятности независимы? Это не так, ведь для вто-
рого и третьего множителя мы учитываем, что шаров становится меньше.

Замечание. Если между множествами в формуле не стоит никакой записи, то принято


воспринимать это как их пересечение:

∀𝐴, 𝐵 𝐴𝐵 := 𝐴 ∩ 𝐵

Теорема 2.3. (Формула умножения вероятностей) Если 𝐴1 , . . . , 𝐴𝑛 ∈ 𝐹 , 𝑃 (𝐴𝑖 ) > 0, то

𝑃 (𝐴1 . . . 𝐴𝑛 ) = 𝑃 (𝐴1 ) · 𝑃 (𝐴2 |𝐴1 ) · 𝑃 (𝐴3 |𝐴1 𝐴2 ) · . . . · 𝑃 (𝐴𝑛 |𝐴1 . . . 𝐴𝑛−1 )

Доказательство. Просто распишем нашу вероятность через формулу условной вероятно-


сти:

𝑃 (𝐴1 . . . 𝐴𝑛 ) = 𝑃 (𝐴𝑛 |𝐴1 . . . 𝐴𝑛−1 ) · 𝑃 (𝐴1 . . . 𝐴𝑛−1 )


..
.
𝑃 (𝐴1 𝐴2 ) = 𝑃 (𝐴2 |𝐴1 ) · 𝑃 (𝐴1 )

2.5 Независимость событий


Независимость 2 событий
Замечание. Интуитивно понятно, чего мы хотим: вероятность одного события никак не
зависит от того, было ли другое событие:

𝑃 (𝐴|𝐵) = 𝑃 (𝐴)

но, естественно, тут у нас есть поправка на 𝑃 (𝐵) ̸= 0. Как этого избежать? Записать
условную вероятность по определению и домножить на 𝑃 (𝐵).

ФПМИ МФТИ, осень 2022 8


Основы вероятности и теории мер Назад к содержанию

Определение 2.3. События 𝐴, 𝐵 называются независимыми, если выполнено равенство:

𝑃 (𝐴 ∩ 𝐵) = 𝑃 (𝐴) · 𝑃 (𝐵)

Обозначается как 𝐴 ⊥
⊥ 𝐵.

Замечание. Независимость событий играет центральную роль в теории вероятности как


отличной от математического анализа области. Действительно, если воспринимать меру
как «продолжение» площади, то что выходит: какие-то объекты таковы, что их «площадь»
их пересечения находится через произведение «площадей»? Такого в курсе анализа не
встретишь.

Пример. При построении схемы испытаний Бернулли, мы уже интуитивно пользовались


независимостью каждого эксперимента. А теперь на Ω = {0, 1}𝑛 рассмотрим 2 таких со-
бытия:

𝐴 = {𝑤 ∈ Ω ⃒ 𝑤1 = 1}

𝐵 = {𝑤 ∈ Ω ⃒ 𝑤𝑛 = 1}

Казалось бы, 𝐴 и 𝐵 должны быть независимы. Проверим это:

𝑃 (𝐴) = 𝑝
𝑃 (𝐵) = 𝑝
∑︁ ∑︀𝑛 ∑︀𝑛 ∑︁ ∑︀𝑛−1 ∑︀𝑛−1
𝑤𝑖
𝑃 (𝐴 ∩ 𝐵) = 𝑝 𝑖=1 (1 − 𝑝)𝑛− 𝑖=1 𝑤𝑖
= 𝑝2 𝑝 𝑖=2 𝑤𝑖
(1 − 𝑝)(𝑛−2)− 𝑖=2 𝑤𝑖
= 𝑝2
𝑤 𝑤
𝑤1 =𝑤𝑛 =1 𝑤1 =𝑤𝑛 =1

Независимость 𝑛 событий
Определение 2.4. События 𝐴1 , . . . , 𝐴𝑛 называются независимыми попарно, если ∀𝑖 ̸=
𝑗 𝐴𝑖 ⊥
⊥ 𝐴𝑗

Определение 2.5. События 𝐴1 , . . . , 𝐴𝑛 называются независимыми в совокупности, если


выполнено следующее условие:

∀𝑘 ∈ {1, . . . , 𝑛} ∀1 ⩽ 𝑖1 < . . . < 𝑖𝑘 ⩽ 𝑛 𝑃 (𝐴𝑖1 . . . 𝐴𝑖𝑘 ) = 𝑃 (𝐴𝑖1 ) · . . . · 𝑃 (𝐴𝑖𝑘 )

Замечание. Из независимости в совокупности следует независимость попарно (просто


делаем 𝑘 = 2), а вот в обратную сторону неверно.

Пример. (Бернштейна) Возьмём в пространстве правильный тетраэдр. Три его вершины


покрасим в серый, чёрный и оранжевый цвета соответственно, а последнюю в их смесь
(будем считать, что это соответствует трём цветами одновременно). Будем равновероятно
выбирать любую вершину. Тогда:

◁ 𝐴 - событие, что выбранная вершина будет серой

◁ 𝐵 - событие, что выбранная вершина будет чёрной

◁ 𝐶 - событие, что выбранная вершина будет оранжевой

ФПМИ МФТИ, осень 2022 9


Основы вероятности и теории мер Назад к содержанию

Посчитаем вероятности:

𝑃 (𝐴) = 𝑃 (𝐵) = 𝑃 (𝐶) = 1/2


𝑃 (𝐴𝐵𝐶) = 1/4
𝑃 (𝐴𝐵) = 𝑃 (𝐵𝐶) = 𝑃 (𝐴𝐶) = 1/4

Отсюда уже видно, что есть попарная независимость, но нету независимости в совокуп-
ности.

3 Случайные величины
3.1 Определение случайной величины
Замечание. Одна из проблем, которая у нас есть (на удивление) — это то, что мы работа-
ем с вероятностным пространством (Ω, 𝐹, 𝑃 ). Более подробно, всё, что мы знаем об исходе
𝑤, это его вероятность. Что если мы хотим «привязать» числа к исходу, оценить что-то?
Нам нужно выйти за рамки работы с какими-то абстракными элементами множества.
Замечание. В текущей главе мы будем работать только с дискретным вероятностным
пространством (ДВТ). Это значит, что Ω не более чем счётно и 𝐹 = 2Ω .
Определение 3.1. Случайной величиной назовём функцию 𝜉 : Ω → R
Пример. Снова рассмотрим схему Бернулли. Тогда ярким примером случайной величины
может служить число удачных экспериментов:
𝑛
∑︁
𝜉(𝑤) = 𝑤𝑖 ∈ N ⊂ R
𝑖=1

Замечание. Наше определение довольно узкое. Например, под него мы не можем поло-
жить модель с геометрической вероятностью, коль скоро там Ω ⊂ R𝑛 .
Замечание. Сама по себе 𝜉(𝑤) не несёт смысловой нагрузки: ну вот что мы можем сказать
такого про случайную величину на событии, если у нас какая-то 𝜉? Ничего осмысленного.
Если приводить некорректный пример, то можно говорить о случайной величине, где
исходом являются оценки по результатам сессии (например, Ω = {1, . . . , 10}10 — 10 оценок
за какие-то 10 предметов). Какие числовые характеристики, которые можно получить
через эти оценки, нас могут интересовать?
◁ Средний балл 𝜉(𝑤) = 𝑤1 +...+𝑤
10
10
. Это важно для той же Абрамовской стипендии: мы
хотели бы знать вероятность 𝑃 ({𝑤 : 𝜉(𝑤) ⩾ 8.6})
◁ Минимальная оценка 𝜂(𝑤) = min{𝑤𝑖 }. Мы бы хотели знать вероятность не попасть
на пересдачу, то есть 𝑃 ({𝑤 : 𝜂(𝑤) > 2})
В чём проблема нашего примера? Если 𝐹 ̸= 2Ω , то кто обещал, что {𝑤 : 𝜉(𝑤) ⩾ 8.6} ∈ 𝐹 ?
Пока что мы не будем формулировать и дополнять наше определение случайной величины
этим требованием, но в будущем оно появится.
Соглашение. Чтобы не нагромождать запись вероятности со случайными величинами,
мы позволим себе 4 вещи:

ФПМИ МФТИ, осень 2022 10


Основы вероятности и теории мер Назад к содержанию

1. Не писать круглые скобочки, если внутри них будут фигурные. Пример:

𝑃 {𝑤 ∈ Ω : 𝜉(𝑤) ⩾ 8.6} := 𝑃 ({𝑤 ∈ Ω : 𝜉(𝑤) ⩾ 8.6})

2. Опускать целиком 𝑤 при описании подмножеств Ω, когда работаем со случайными


величинами. Пример:

𝑃 (𝜉 ⩾ 8.6) = 𝑃 {𝜉 ⩾ 8.6} := 𝑃 {𝑤 ∈ Ω : 𝜉(𝑤) ⩾ 8.6}

3. В суммах, где сверху должно писаться либо конечное число, либо бесконечность, мы
будем писать снизу лишь переменную суммирования:
𝑛(∞)
∑︁ ∑︁
:=
𝑘 𝑘=1

4. Если мы рассматриваем событие, которое содержит всего 1 элементарный исход 𝑤,


то можем позволить себе не ставить фигурные скобки:

𝑃 (𝑤) := 𝑃 ({𝑤})

3.2 Распределение случайной величины


Обозначение. Коль скоро наша случайная величина определена на не более чем счётном
множестве, то и область значений тоже не более чем счётна. Для случайной величины
𝜉 : Ω → R будем обозначать её как 𝜒𝜉

Обозначение. В силу счётности множества значений случайной величины, мы имеем


право их занумеровать. Будем использовать такое сокращение для вероятности попадания
в исход, при котором случайная величина 𝜉 : Ω → R принимает значение 𝑥𝑘 ∈ 𝜒𝜉 :

𝑃𝑘 := 𝑃 {𝜉 = 𝑥𝑘 }

Замечание. Естественно, имеет место следующий факт:


∑︁ ∑︁
𝑃𝑘 = 𝑃 {𝜉 = 𝑥𝑘 } = 𝑃 {𝜉 ∈ 𝜒𝜉 } = 1
𝑘 𝑘

Определение
∑︀ 3.2. Дискретным распределением называется соответствие (𝑥𝑘 : 𝑃𝑘 )𝑘 , где
𝑃𝑘 ⩾ 0, 𝑘 𝑃𝑘 = 1 и 𝑥𝑘 ∈ R

Рассмотрим некоторые конкретные дискретные распределения:

◁ Бернуллиевское распределение: 𝑘 ∈ {0, 1}, 𝑥𝑘 = 𝑘, 𝑃0 = 1 − 𝑝, 𝑃1 = 𝑝 ∈ (0; 1)

◁ Биномиальное распределение: 𝑘 ∈ {0, . . . , 𝑛}, 𝑥𝑘 = 𝑘, 𝑃𝑘 = 𝐶𝑛𝑘 𝑝𝑘 (1 − 𝑝)𝑛−𝑘 . Обознача-


ется как 𝐵𝑖𝑛(𝑛; 𝑝)

◁ Геометрическое распределение: 𝑘 ∈ N, 𝑥𝑘 = 𝑘, 𝑃𝑘 = (1 − 𝑝)𝑘−1 𝑝. Обозначается как


𝐺𝑒𝑜𝑚(𝑝)

ФПМИ МФТИ, осень 2022 11


Основы вероятности и теории мер Назад к содержанию

𝜆𝑘 −𝜆
◁ Пуассоновское распределение 𝑘 ∈ N0 , 𝑥𝑘 = 𝑘, 𝑃𝑘 = 𝑘!
𝑒 , где 𝜆 > 0 — произвольная
константа. Обозначается как 𝑃 𝑜𝑖𝑠𝑠(𝜆).

Обозначение. Если случайная величина 𝜉 : Ω → R имеет распределение 𝒟, то это обо-


значатся как 𝜉 ∼ 𝒟.

Теорема 3.1. (Пуассона) Пусть есть случайная величина 𝜉𝑛 ∼ 𝐵𝑖𝑛(𝑛; 𝑝𝑛 ), 𝑛 ∈ N. При


этом 𝑛 · 𝑝𝑛 → 𝜆 > 0 при 𝑛 → ∞. Утверждается, что в таком случае

𝜆𝑘 −𝜆
∀𝑘 ∈ N0 𝑃 {𝜉𝑛 = 𝑘} −−−→ 𝑒
𝑛→∞ 𝑘!

Доказательство. Распишем вероятность 𝑃𝑘 = 𝑃 {𝜉𝑛 = 𝑘}:


𝑛
1 𝑛 · (𝑛 − 1) · . . . · (𝑛 − 𝑘 + 1) 𝑘 (1 − 𝑝𝑛 )
𝑃𝑘 = 𝐶𝑛𝑘 𝑝𝑘𝑛 (1 − 𝑝𝑛 )𝑛−𝑘 = · · (𝑝 𝑛 𝑛) · =
𝑘! 𝑛𝑘 (1 − 𝑝𝑛 )𝑘
𝑛𝑝𝑛 )︁ 𝑛𝑝𝑛𝑛 ·𝑛𝑝𝑛 𝜆𝑘 −𝜆
(︂ )︂ (︂ )︂
1 1 𝑘−1 1 (︁
·1· 1− · ... · 1 − · (𝑝𝑛 𝑛)𝑘 · · 1 − −−−→ 𝑒
𝑘! 𝑛 𝑛 (1 − 𝑝𝑛 )𝑘 𝑛 𝑛→∞ 𝑘!

Замечание. В чём ценность этой теоремы? Считать суммы для дискретных вероятност-
ных пространств с биномиальным распределением распределением очень больно, а вот
пуассоновские обычно сильно проще.

Пример. Пусть есть какое-то производство изделий. С вероятностью 𝑝 = 1/200 мы про-


изводим бракованное изделие. Какова вероятность, что в партии из 1000 изделий будет не
более 3х бракованных изделий?
Положим 𝜉 : Ω → R — случайная величина, равная числу бракованных изделий. Тогда
𝜉 ∼ 𝐵𝑖𝑛(1000; 1/200). Нужная вероятность задаётся формулой:
3 (︂ )︂𝑘 (︂ )︂1000−𝑘
∑︁
𝑘 1 199
𝑃 {𝜉 ⩽ 3} = 𝐶1000
𝑘=0
200 200

Как возводить (199/200) в 1000ю степень, если у нас нет компьютера? Вот поэтому вос-
пользуемся теоремой Пуассона и сделаем хотя бы оценку на вероятность. Имеем 𝜆 =
1000/200 = 5, степень экспоненты возьмём с нужной точностью по таблице Брадиса. То-
гда:
3
∑︁ 5𝑘 −5
𝑃 {𝜉 ⩽ 3} ≈ 𝑒
𝑘=0
𝑘!
Приблизить вероятность через распределение Пуассона, конечно, замечательно, но какая
у нас ошибка?

Утверждение 3.1. (Уточнение теоремы Пуассона) Если 𝜉 ∼ 𝐵𝑖𝑛(𝑛; 𝑝), 𝜂 ∼ 𝑃 𝑜𝑖𝑠𝑠(𝜆),


причём 𝜆 = 𝑛𝑝, то в таком случае имеет место равенство:

∑︁ 2𝜆
|𝑃 {𝜉 = 𝑘} − 𝑃 {𝜂 = 𝑘}| ⩽ min{2, 𝜆}
𝑘=0
𝑛

ФПМИ МФТИ, осень 2022 12


Основы вероятности и теории мер Назад к содержанию

Замечание. Конкретно в последнем примере это даёт оценку 1/50 на погрешность, что
довольно хорошо.

Замечание. Естественно, пуассоновское распределение существует не только для прибли-


жения биномиального. Его истинная природа сокрыта в так называемом пуассоновском
процессе, который будет изучаться в курсе случайных процессов.

3.3 Независимость случайных величин


Замечание. Снова мы говорим только о дискретном вероятностном пространстве.

Определение 3.3. Две случайные величины 𝜉, 𝜂 называются независимыми, если выпол-


нено условие:
∀𝑥𝑘 ∈ 𝜒𝜉 ∀𝑦𝑛 ∈ 𝜒𝜂 {𝜉 = 𝑥𝑘 } ⊥
⊥ {𝜂 = 𝑦𝑛 }
Обозначается такое отношение как 𝜉 ⊥
⊥ 𝜂.

Утверждение 3.2. Если 𝜉 ∼ 𝑃 𝑜𝑖𝑠𝑠(𝜆1 ) и 𝜂 ∼ 𝑃 𝑜𝑖𝑠𝑠(𝜆2 ), причём 𝜉 ⊥


⊥ 𝜂, то 𝜉 + 𝜂 ∼
𝑃 𝑜𝑖𝑠𝑠(𝜆1 + 𝜆2 )

Доказательство. Распишем вероятность суммы случайных величин:


∑︁ 𝑘
∑︁
𝑃 {𝜉 + 𝜂 = 𝑘} = 𝑃 {𝜉 + 𝜂 = 𝑘|𝜉 = 𝑖} · 𝑃 {𝜉 = 𝑖} = 𝑃 {𝜂 = 𝑘 − 𝑖} · 𝑃 {𝜉 = 𝑖} =
𝑖=0 𝑖=0
𝑘
∑︁ 𝜆𝑘−𝑖 −𝜆2 𝜆𝑖1 −𝜆1 1
2
𝑒 · 𝑒 = 𝑒−(𝜆1 +𝜆2 ) · (𝜆1 + 𝜆2 )𝑘
𝑖=0
(𝑘 − 𝑖)! 𝑖! 𝑘!

Замечание. Может ли сработать подобная формула для 𝜉 + 𝜉? Нет, просто потому, что
𝜉 + 𝜉 = 2𝜉 — случайная величина не принимает все значения, а только чётные.

3.4 Математическое ожидание случайной величины


Замечание. Дадим определенную интуицию к понятию математического ожидания:
Пусть задано дискретное вероятностное пространство (Ω, 𝐹, 𝑃 ), Ω = {𝑤1 , . . . , 𝑤𝑛 } со
случайной величиной 𝜉. Проведём 𝑁 ⩾ 𝑛 экспериментов, в 𝑖-м из которых случайная
величина принимает значение 𝜉 𝑖 = 𝜉(𝑤𝑖 ) (𝑤𝑖 - это 𝑖-й по порядку исход, не путать с нуме-
рацией внутри Ω). Введём 𝑎𝑖 как число исходов среди этих 𝑁 , которые оказались равными
𝑤𝑖 . Тогда очевиден следующий факт:
𝑛
∑︁
𝑎𝑖 = 𝑁
𝑖=1

Хотелось бы узнать, какое значение в среднем принимала случайная величина 𝜉 за эти


эксперименты. Узнать это можно по простой формуле:
∑︀𝑛 𝑛 𝑛
𝜉1 + . . . + 𝜉𝑁 𝑎𝑖 · 𝜉(𝑤𝑖 ) ∑︁ 𝑎𝑖 ∑︁
= 𝑖=1 = 𝜉(𝑤𝑖 ) = 𝑃 (𝑤𝑖 )𝜉(𝑤𝑖 )
𝑁 𝑁 𝑖=1
𝑁 𝑖=1

ФПМИ МФТИ, осень 2022 13


Основы вероятности и теории мер Назад к содержанию

Определение 3.4. Математическим ожиданием случайной величины 𝜉 называется ве-


личина E𝜉, определяемая следующей формулой (в дискретной модели):
∑︁
E𝜉 = 𝑃 ({𝑤}) · 𝜉(𝑤)
𝑤∈Ω

Естественно, в случае Ω ∼
= N данный ряд должен сходиться абсолютно.
Замечание автора. Математическое ожидание в дискретном случае ещё можно назвать
средним взвешенным значений случайной величины 𝜉 с весами-вероятностями.
Теорема 3.2. Пусть (Ω, 𝐹, 𝑃 ) - дискретное вероятностое пространство. Тогда мате-
матическое ожидание случайной величины обладает следующими свойствами:
1. Если 𝜉 ∼ (𝑥𝑘 : 𝑃𝑘 )𝑘 , то ∑︁
E𝜉 = 𝑥 𝑘 · 𝑃𝑘
𝑘

2. Если 𝜉 ∼ (𝑥𝑘 : 𝑃𝑘 )𝑘 и 𝜙 : R → R, то
∑︁
E𝜙(𝜉) = 𝜙(𝑥𝑘 ) · 𝑃𝑘
𝑘

3. E — это линейный оператор на множестве случайных величин. Иначе говоря, ма-


тожидание линейно:

∀𝜉, 𝜂 ∀𝑎, 𝑏 ∈ R E(𝑎𝜉 + 𝑏𝜂) = 𝑎E𝜉 + 𝑏E𝜂

4. Если 𝜉 ⩾ 0, то E𝜉 ⩾ 0

5. Если 𝜂 — тоже случайная величина, причём 𝜉 ⩾ 𝜂, то E𝜉 ⩾ E𝜂

6. Если 𝜉 ⊥
⊥ 𝜂, то E(𝜉 · 𝜂) = E𝜉 · E𝜂

7. (Неравенство Коши-Буняковского) ∀𝜉, 𝜂 (E|𝜉 · 𝜂|)2 ⩽ E𝜉 2 · E𝜂 2


Замечание. Из пятого свойства также следует, что |E𝜉| ⩽ E|𝜉|
Доказательство.
1. Аккуратно распишем сумму:
∑︁ ∑︁ ∑︁ ∑︁ ∑︁
E𝜉 = 𝑃 (𝑤)𝜉(𝑤) = 𝑃 (𝑤) · 𝑥𝑘 = 𝑥𝑘 · 𝑃 {𝜉 = 𝑥𝑘 } = 𝑥 𝑘 · 𝑃𝑘
𝑤∈Ω 𝑤:
𝑥𝑘 ∈𝜒𝜉 𝜉(𝑤)=𝑥 𝑥𝑘 ∈𝜒𝜉 𝑘
𝑘

2. Аналогично предыдущему пункту

3. Тривиально

4. Следует из линейности

5. Следует из предыдущего свойства и линейности, ибо (𝜉 − 𝜂) — тоже случайная вели-


чина

ФПМИ МФТИ, осень 2022 14


Основы вероятности и теории мер Назад к содержанию

6. Распишем матожидание произведения по определению:


∑︁ ∑︁ ∑︁ ∑︁
E(𝜉 · 𝜂) = 𝑃 (𝑤)𝜉(𝑤)𝜂(𝑤) = 𝑃 (𝑤)𝑥𝑖 𝑦𝑗 =
𝑤∈Ω 𝑖 𝑗 𝑤:
𝜉(𝑤)=𝑥𝑖
𝜂(𝑤)=𝑦𝑗
∑︁ ∑︁ ∑︁ ∑︁
𝑥𝑖 𝑦𝑗 𝑃 {𝜉 = 𝑥𝑖 ∧ 𝜂 = 𝑦𝑗 } = 𝑥𝑖 𝑃 {𝜉 = 𝑥𝑖 } · 𝑦𝑗 𝑃 {𝜂 = 𝑦𝑗 } = E𝜉 · E𝜂
𝑖 𝑗 𝑖 𝑗

7. Имеет место 2 случая:

◁ E𝜉 2 · E𝜂 2 ̸= 0. Тогда, отнормируем наши случайные величины следующим обра-


зом:
𝜉 𝜂
𝜉 = √︀ ; 𝜂 = √︀
E𝜉 2 E𝜂 2
2
По неравенству Коши 2|𝜉 · 𝜂| ⩽ 𝜉 · 𝜂 2 . По уже доказанному свойству о переходе
к матожиданиям, мы можем навесить его с двух сторон. Что есть матожидание
случайной величины с чертой?
(︂ 2 )︂
2 𝜉 1
E𝜉 = E 2
= E𝜉 2 · 2 = 1 = E𝜂 2
E𝜉 E𝜉

Таким образом, E|𝜉 · 𝜂| ⩽ 1. Стало быть


⃒ ⃒
⃒ 𝜉 𝜂 ⃒⃒ √︀ √︀
· √︀ ⩽ 1; E|𝜉 · 𝜂| ⩽ E𝜉 2 · E𝜂 2 ; (E|𝜉 · 𝜂|)2 ⩽ E𝜉 2 · E𝜂 2

E ⃒ √︀ ⃒
⃒ E𝜉 2 E𝜂 2 ⃒

◁ E𝜉 2 · E𝜂 2 = 0. Не умаляя общности, выберем E𝜉 2 = 0. Распишем матожидание


квадрата случайной величины по определению:
∑︁
E𝜉 2 = 𝑃 (𝑤) 𝜉 2 (𝑤) = 0
⏟ ⏞ ⏟ ⏞
𝑤∈Ω ⩾0 ⩾0

В сумме мы можем сократить все слагаемые, когда 𝜉 2 (𝑤) = 0. Из оставшейся


части получим, что

∀𝑥 ∈ 𝜒𝜉 ∖{0} 𝑃 {𝜉 2 = 𝑥} = 0 =⇒ 𝑃 {𝜉 2 = 0} = 1

Ну и при этом, естественно, 𝜉 2 = 0 ⇔ 𝜉 = 0. Стало быть, 𝑃 {𝜉 = 0} = 1. Уже из


всего сказанного следует, что E|𝜉 · 𝜂| = 0.

Определение 3.5. Когда возникает ситуация, что 𝑃 {𝜉 = 𝑥} = 1 и при этом 𝜉 ≡


̸ 𝑥, то
говорят, что 𝜉 = 𝑥 почти наверное.

Замечание. Верно ли, что если 𝜉 = 0 почти наверное, то ∀𝑤 ∈ Ω 𝜉(𝑤) = 0 (то есть 𝜉 ≡ 0)?
Конечно нет. Примером без доказательства послужит ситуация, когда Ω ≈ [0; 1] (потому
что не совсем отрезок надо бы брать) и 𝜉(𝑤) = D(𝑤), где D — функция Дирихле.

ФПМИ МФТИ, осень 2022 15


Основы вероятности и теории мер Назад к содержанию

Определение 3.6. 𝑘-м моментом называется случайной величины 𝜉 называется мато-


жидание величины E𝜉 𝑘

Замечание. Определение вводится для любого вероятностного пространства, а потому


∃E𝜉 𝑘 ⇔ ∃E|𝜉 𝑘 |

Теорема 3.3. (Неравенство Ляпунова) Имеет место следующая связь между момен-
тами случайной величины:

∀0 < 𝑠 < 𝑡 (E|𝜉|𝑠 )1/𝑠 ⩽ (E|𝜉|𝑡 )1/𝑡

Доказательство. Возможно тут появится, а возможно нет.

Следствие. Если существует 𝑘-й момент, то будут существовать и все предыдущие.

3.5 Дисперсия случайной величины


Замечание. Случайные величины с одинаковым матожиданием могут разительно отли-
чаться. Например, положим Ω = {𝑤1 , 𝑤2 }, 𝑃 (𝑤𝑖 ) = 1/2 и рассмотрим случайные величины

𝜉 : 𝜉(𝑤1 ) = −1, 𝜉(𝑤2 ) = 1


𝜂 : 𝜂(𝑤1 ) = −100, 𝜂(𝑤2 ) = 100

Их матожидания, очевидно, равны нулю. При этом значения имеют совершенно разные
порядки разброса (у 𝜉 это 2, а у 𝜂 аж все 200). Отсюда возникает идея как-то отслеживать
среднее отклонение случайной величины от своего среднего (ну то есть матожидания).

Определение 3.7. Дисперсией случайной величины 𝜉 называется величина 𝐷𝜉, опреде-


ляемая следующим образом:
𝐷𝜉 = E(𝜉 − E𝜉)2

Замечание. Иначе говоря, дисперсия — это среднее значение квадрата отклонения слу-
чайной величины от её математического ожидания.

Определение 3.8. Среднеквадратическим отклонением случайной величины 𝜉 называ-


ется корень из её дисперсии: √︀
𝜎 = 𝐷𝜉

Определение 3.9. Центральным 𝑘-м моментом случайной величины 𝜉 называется сле-


дующее матожидание:
𝜇𝑘 = E(𝜉 − E𝜉)𝑘

Теорема 3.4. Пусть (Ω, 𝐹, 𝑃 ) — дискретное вероятностное пространство. Тогда дис-


персия случайной величины обладает следующими свойствами:

1. 𝐷𝜉 = E𝜉 2 − (E𝜉)2

2. 𝐷𝜉 ⩾ 0

3. 𝐷𝜉 = 0 ⇔ ∃𝑥 ∈ 𝜒𝜉 ⃒ 𝜉 = 𝑥 почти наверное

4. 𝐷(𝑎𝜉 + 𝑏) = 𝑎2 𝐷𝜉

ФПМИ МФТИ, осень 2022 16


Основы вероятности и теории мер Назад к содержанию

Доказательство.

1. Распишем дисперсию по линейности матожидания:

𝐷𝜉 = E(𝜉 − E𝜉)2 = E(𝜉 2 − 2𝜉E𝜉 + (E𝜉)2 ) = E𝜉 2 − (E𝜉)2

2. Следует напрямую из того факта, что в определении дисперсии под внешним знаком
матожидания стоит неотрицательная величина

3. Придётся показывать верность в 2 стороны:

◁ ⇒ Аналогично доказательству неравенства Коши-Буняковского для математи-


ческого ожидания, сразу возьмём факт 𝑃 {𝜉 = E𝜉} = 1. При этом E𝜉 — это кор-
ректно определенное какое-то число. Для него как раз и выполнено равенство
почти наверное.
◁ ⇐ По условию 𝜉 = 𝑥 почти наверное. Для матожидания это означает следующее:
∑︁ ∑︁
E𝜉 = 𝑃 (𝑤)𝜉(𝑤) = 𝑥 · 𝑃 (𝑤) = 𝑥
𝑤∈Ω 𝑤 : 𝑓 (𝑤)=𝑥

Стало быть
∑︁
𝐷𝜉 = E(𝜉 − E𝜉)2 = E(𝜉 − 𝑥)2 = 𝑃 (𝑤)(𝜉 − 𝑥)2 = 0
𝑤∈Ω

4. Снова распишем через математическое ожидание:

𝐷(𝑎𝜉 + 𝑏) = E(𝑎𝜉 + 𝑏 − 𝑎E𝜉 − 𝑏)2 = 𝑎2 E(𝜉 − E𝜉)2 = 𝑎2 𝐷𝜉

3.6 Ковариация случайных величин


Определение 3.10. Ковариацией двух случайных величин 𝜉 и 𝜂 называется следующая
величина: (︀ )︀
cov(𝜉, 𝜂) = E (𝜉 − E𝜉)(𝜂 − E𝜂)

Теорема 3.5. Пусть (Ω, 𝐹, 𝑃 ) — дискретное вероятностное пространство. Тогда кова-


риация случайных величин обладает следующими свойствами:

1. cov(𝜉, 𝜂) = E(𝜉𝜂) − (E𝜉) · E𝜂

2. Ковариация является билинейной симметричной формой на множестве случайных


величин

Доказательство.

1. Распишем матожидание, как обычно:


(︀ )︀
cov(𝜉, 𝜂) = E 𝜉𝜂 − 𝜉E𝜂 − 𝜂E𝜉 + (E𝜉)E𝜂 = E(𝜉𝜂) − (E𝜉)E𝜂

ФПМИ МФТИ, осень 2022 17


Основы вероятности и теории мер Назад к содержанию

2. Следует из первого свойства

Следствие. Дисперсия — это квадратичная форма, полученная из ковариации.

Утверждение 3.3. Между ковариацией и дисперсией есть следующее соотношение:

𝐷(𝜉 + 𝜂) = 𝐷𝜉 + 𝐷𝜂 + 2 cov(𝜉, 𝜂)

Доказательство. И снова нам надо расписать математическое ожидание:


(︀ )︀2 (︀ )︀2
𝐷(𝜉 + 𝜂) = E 𝜉 + 𝜂 − E(𝜉 + 𝜂) = E (𝜉 − E𝜉) + (𝜂 − E𝜂) = 𝐷𝜉 + 𝐷𝜂 + 2 cov(𝜉, 𝜂)

Следствие. Если у нас не две, а 𝑘 случайных величин, то дисперсию суммы можно


посчитать следующим образом:
(︃ 𝑘 )︃ 𝑘 ∑︁
𝑘 𝑘 𝑘
∑︁ ∑︁ (︀ )︀ ∑︁ ∑︁ ∑︁
𝐷 𝜉𝑖 = E 𝜉𝑖 − E𝜉𝑖 )(𝜉𝑗 − E𝜉𝑗 ) = 𝐷(𝜉𝑖 ) + 2 cov(𝜉𝑖 , 𝜉𝑗 )
𝑖=1 𝑖=1 𝑗=1 𝑖=1 𝑖=1 𝑖<𝑗⩽𝑘

Утверждение 3.4. Если 𝜉 ⊥


⊥ 𝜂, то cov(𝜉, 𝜂) = 0.

Доказательство. По свойству матожидания независимых случайных величин и формуле


ковариации.

Замечание. В обратную сторону последнее утверждение неверно. Желательно бы найти


дискретный пример, а не Ω = [0; 2𝜋], 𝜉(𝑤) = cos 𝑤, 𝜂(𝑤) = sin 𝑤, для которых E𝜉 = E𝜂 =
E(𝜉𝜂) = 0

Утверждение 3.5. Если 𝜉 ⊥


⊥ 𝜂 и cov(𝜉, 𝜂) = 0, то тогда 𝐷(𝜉 + 𝜂) = 𝐷𝜉 + 𝐷𝜂

Доказательство. Является следствием предыдущего утверждения.

3.7 Корреляция случайных величин


Определение 3.11. Корреляцией двух случайных величин называется следующее зна-
чение (при условии, что 𝐷𝜉, 𝐷𝜂 ̸= 0):

cov(𝜉, 𝜂)
corr(𝜉, 𝜂) = √ √
𝐷𝜉 · 𝐷𝜂

Определение 3.12. 𝜉 и 𝜂 называются некоррелирующими, если cov(𝜉, 𝜂) = 0.

Теорема 3.6. Для корреляции случайных величин имеет место 3 свойства:

1. | corr(𝜉, 𝜂)| ⩽ 1

2. Если corr(𝜉, 𝜂) = 1, то ∃𝑎 > 0, 𝑏 ⃒ 𝜉 = 𝑎𝜂 + 𝑏 почти наверное

3. Если corr(𝜉, 𝜂) = −1, то ∃𝑎 < 0, 𝑏 ⃒ 𝜉 = 𝑎𝜂 + 𝑏 почти наверное

ФПМИ МФТИ, осень 2022 18


Основы вероятности и теории мер Назад к содержанию

Замечание. Не стоит воспринимать корреляцию как меру зависимости случайных вели-


чин, это не так. Если корреляция близка к нулю, то ещё не факт, что случайные величины
независимы. Максимум — это повод задуматься, что зависимость может быть/не быть,
и примерно какой.

Доказательство.

1. Оно будет немного «синтетическим»: отцентрируем и отнормируем наши случайные


величины:
𝜉 − E𝜉 𝜂 − E𝜂
𝜉′ = √ ; 𝜂′ = √
𝐷𝜉 𝐷𝜂
Посмотрим, например, матожидание и дисперсию 𝜉 ′ :
1 1
E𝜉 ′ = √ E(𝜉 − E𝜉) = 0 = E𝜂 ′ ; 𝐷𝜉 ′ = · 𝐷𝜉 = 1 = 𝐷𝜂 ′
𝐷𝜉 𝐷𝜉

А теперь, посмотрим на значение 𝐷(𝜉 ′ ± 𝜂 ′ ):


(︂ )︂
′ ′ ′ ′ ′ ′ cov(𝜉, 𝜂)
0 ⩽ 𝐷(𝜉 ± 𝜂 ) = 𝐷(𝜉 ) + 𝐷(𝜂 ) ± 2 cov(𝜉 , 𝜂 ) = 2 1 ± √ √
𝐷𝜉 · 𝐷𝜂
Отсюда уже очевидно требуемое.

2. По условию corr(𝜉, 𝜂) = 1. Из предыдущего пункта с ⃒этим требованием получится


𝐷(𝜉 ′ − 𝜂 ′ ) = 0. Это, в свою очередь, эквивалентно ∃𝑐 ⃒ 𝜉 ′ − 𝜂 ′ = 𝑐 почти наверное.
Расписывая 𝜉 ′ и 𝜂 ′ , получим зависимость и сможем установить коэффициенты.

3. Аналогично предыдущему пункту

3.8 Предельные теоремы


Теорема 3.7. (Неравенство Маркова) Если 𝜉 ⩾ 0 — случайная величина и существует
её математическое ожидание, то
E𝜉
∀𝜀 > 0 𝑃 {𝜉 ⩾ 𝜀} ⩽
𝜀
Доказательство. Зафиксируем 𝜀 > 0 и распишем математическое ожидание:
∑︁ ∑︁ ∑︁ ∑︁
E𝜉 = 𝑃 (𝑤)𝜉(𝑤) = 𝑃 (𝑤)𝜉(𝑤) + 𝑃 (𝑤)𝜉(𝑤) ⩾ 𝜉(𝑤)𝜀 = 𝑃 {𝜉 ⩾ 𝜀} · 𝜀
𝑤∈Ω 𝑤 : 𝜉(𝑤)⩾𝜀 𝑤 : 𝜉(𝑤)<𝜀 𝑤 : 𝜉(𝑤)⩾𝜀

Следствие. (Неравенство Чебышёва) Пусть дана случайная величина 𝜉, для которой


существует дисперсия 𝐷𝜉. Тогда
𝐷𝜉
∀𝜀 > 0 𝑃 {|𝜉 − E𝜉| ⩾ 𝜀} ⩽
𝜀2

ФПМИ МФТИ, осень 2022 19


Основы вероятности и теории мер Назад к содержанию

Доказательство. Введём случайную величину 𝜂 = (𝜉 − E𝜉)2 ⩾ 0. Тогда E𝜂 = 𝐷𝜉 и,


соответственно, это матожидание существует. По неравенству Маркова
E𝜂
∀𝜀 > 0 𝑃 {𝜂 ⩾ 𝜀2 } ⩽
𝜀2
При этом {𝜂 ⩾ 𝜀2 } = {|𝜉 − E𝜉| ⩾ 𝜀}, а E𝜂/𝜀2 = 𝐷𝜉/𝜀2 .

Теорема 3.8. (Закон Больших Чисел, сокращается как ЗБЧ) Пусть 𝜉1 , . . . , 𝜉𝑛 — неза-
висимые одинаково распределенные случайные величины, а также ∃𝐷𝜉1 , E𝜉1 = 𝑎 (этого
достаточно, чтобы те же характеристики с теми же значениями существовали у
остальных случайных величин, в силу одинакового распределения). Тогда
{︂⃒ ⃒ }︂
⃒ 𝜉1 + . . . + 𝜉𝑛 ⃒
∀𝜀 > 0 𝑃 ⃒⃒ − 𝑎⃒⃒ ⩾ 𝜀 −−−→ 0
𝑛 𝑛→∞

Замечание. Де-факто закон утверждает следующее: если мы проведём достаточно боль-


шую серию экспериментов, зная, что матожидание ошибки измеряемой величины равно
нулю, то среднее от измеренных значений будет близко к истинному.

Доказательство. Уже должна быть ясна связь между матожиданиями:


𝜉1 + . . . + 𝜉𝑛 E𝜉1 + . . . + E𝜉𝑛
E = =𝑎
𝑛 𝑛
Обозначим среднее случайных величин за 𝜂. Тогда, по неравенству Чебышёва:
∑︀𝑛
𝐷𝜂 𝑖=1 𝐷𝜉𝑖 𝑛𝜎 2
∀𝜀 > 0 𝑃 {|𝜂 − 𝑎| ⩾ 𝜀} ⩽ 2 = = 2 2 −−−→ 0
𝜀 𝑛 2 𝜀2 𝑛 𝜀 𝑛→∞

Замечание. Теорему можно ослабить по следующим пунктам:

1. Нам не нужна независимость, достаточно нулевой ковариации

2. Вместо общего для всех 𝑎 можно писать среднее из математических ожиданий

3. Для верности предела нам


∑︀𝑛не нужны конкретные значения суммы дисперсий. Доста-
2
точно потребовать, что 𝑖=1 𝐷𝜉𝑖 = 𝑜(𝑛 ).

Теорема 3.9. (Центральная Предельная Теорема, обозначается как ЦПТ) Пусть 𝜉1 , . . . , 𝜉𝑛


— независимые одинаково распределенные случайные величины, а также ∃𝐷𝜉1 ̸= 0, E𝜉1 =
𝑎. Тогда, если обозначить 𝑆𝑛 = 𝜉1 + . . . + 𝜉𝑛 , то
{︂ }︂ ∫︁ 𝑏
𝑆𝑛 − E𝑆𝑛 1 𝑥2
𝑃 𝑎⩽ √ ⩽ 𝑏 −−−→ √ 𝑒− 2 𝑑𝑥
𝐷𝑆𝑛 𝑛→∞ 𝑎 2𝜋
Замечание. Забегая вперёд, справа написана вероятность 𝑃 {𝑎 ⩽ 𝜂 ⩽ 𝑏}, где 𝜂 ∼ 𝑁 (0, 1)
— случайная величина с нормальным распределением. Теорема утверждает, что вне за-
висимости от распределений 𝜉𝑖 , мы всегда сойдёмся к нормальному распределению.

Доказательство. Будет в конце года, сейчас без доказательства.

ФПМИ МФТИ, осень 2022 20


Основы вероятности и теории мер Назад к содержанию

4 Основы теории мер


4.1 Системы множеств
Определение 4.1. Системой множеств называется какой-то набор подмножеств дру-
гого множества.

Пример. 𝐹 = 2Ω или 𝐹 = {∅}

Определение 4.2. Система множеств 𝑆 называется полукольцом, если выполнены сле-


дующие требования:

1. ∅ ∈ 𝑆

2. ∀𝐴, 𝐵 ∈ 𝑆 ⇒ 𝐴 ∩ 𝐵 ∈ 𝑆

3. Если 𝐴1 , 𝐴 ∈ 𝑆, 𝐴1 ⊆ 𝐴, то ∃𝐴2 , . . . , 𝐴𝑛 ∈ 𝑆 ⃒ 𝐴 = 𝑛𝑖=1 𝐴𝑖


⃒ ⨆︀

Пример. Рассмотрим систему полуинтервалов какого-то фиксированного интервала [𝐴; 𝐵):

𝑇 = {[𝑎; 𝑏) ⊆ [𝐴; 𝐵)}, 𝐴 ⩽ 𝑎 ⩽ 𝑏 ⩽ 𝐵

Докажем, что 𝑇 является полукольцом:

1. ∅ = [𝐴; 𝐴) ∈ 𝑇

2. Пересечение интервалов либо пусто, либо полуинтервал. Формально проверяется че-


рез разбор случаев

3. Снова разбор случаев

Определение 4.3. Кольцом называется система множеств 𝑅, обладающая следующими


свойствами:

1. 𝑅 ̸= ∅

2. ∀𝐴, 𝐵 ∈ 𝑅 𝐴 ∩ 𝐵 ∈ 𝑅, 𝐴△𝐵 ∈ 𝑅

Теорема 4.1. Если 𝑅 — кольцо, то

1. 𝑅 — полукольцо

2. ∀𝐴, 𝐵 ∈ 𝑅 𝐴 ∪ 𝐵 ∈ 𝑅, 𝐴∖𝐵 ∈ 𝑅

Доказательство. 1. Проверим все свойства полукольца:

(a) 𝑅 ̸= ∅ ⇒ ∃𝐴 ∈ 𝑅. Тогда ∅ = 𝐴△𝐴 ∈ 𝑅


(b) По определению кольца
(c) Если 𝐴1 ⊆ 𝐴, то 𝐴 = 𝐴1 ⊔ (𝐴∖𝐴1 )

2. 𝐴∖𝐵 = 𝐴△(𝐴 ∩ 𝐵)

3. 𝐴 ∪ 𝐵 = (𝐴∖𝐵)△𝐵

ФПМИ МФТИ, осень 2022 21


Основы вероятности и теории мер Назад к содержанию

Утверждение 4.1. Пересечение любого количества колец — кольцо.

Замечание. Любого подразумевает абсолютно любую мощность множества индексов ко-


лец.

Доказательство. Пусть {𝑅𝛼 }𝛼∈Δ — множество пересекаемых колец. Тогда


⋂︁
𝑅= 𝑅𝛼
𝛼∈Δ

Проверим свойства кольца:

1. ∀𝛼 ∈ ∆ ∅ ∈ 𝑅𝛼 ⇒ ∅ ∈ 𝑅

2. ∀𝐴, 𝐵 ∈ 𝑅 ⇒ ∀𝛼 ∈ ∆ 𝐴, 𝐵 ∈ 𝑅𝛼 . Отсюда 𝐴 ∩ 𝐵 ∈ 𝑅𝛼 , 𝐴△𝐵 ∈ 𝑅𝛼 . Стало быть,


𝐴 ∩ 𝐵, 𝐴△𝐵 ∈ 𝑅

Определение 4.4. Система множеств 𝒜 называется алгеброй, если

1. 𝒜 — кольцо

2. ∃𝐸 ∈ 𝒜 : ∀𝐴 ∈ 𝒜 𝐴 ⊆ 𝐸 — наличие единицы

Иначе говоря, алгебра — это кольцо с единицей.

Утверждение 4.2. Пересечение любого числа алгебр с общей единицей является тоже
алгеброй.

Доказательство. Единица уже будет в пересечении, а про то, что пересечение будет коль-
цом, мы уже знаем из утверждения выше.

Определение 4.5. Минимальным кольцом, содержащим систему множеств 𝑋, назы-


вается кольцо 𝑅(𝑋) со следующими свойствами:

1. 𝑋 ⊆ 𝑅(𝑋)

2. ∀𝑅1 — кольца такого, что 𝑋 ⊆ 𝑅1 , то 𝑅(𝑋) ⊆ 𝑅1

Теорема 4.2. Для любой системы множеств 𝑋 существует 𝑅(𝑋).

⋂︀ Положим за {𝑅𝛽 }𝛽∈Γ — множество всех колец, содержащих 𝑋. Что мы


Доказательство.
знаем про 𝑅 = 𝛽∈Γ 𝑅𝛽 ?

1. 𝑅 — кольцо

2. 𝑋 ⊆ 𝑅

3. ∀𝑅′ : 𝑋 ⊆ 𝑅′ и 𝑅′ — кольцо, то ∃𝛽1 ∈ Γ : 𝑅′ = 𝑅𝛽1 ⊇ 𝑅

Замечание. В чём проблема теоремы? Она не даёт описания множества полученного


кольца, только его существование.

ФПМИ МФТИ, осень 2022 22


Основы вероятности и теории мер Назад к содержанию

Замечание автора. На самом деле, мы данной теореме мы лихо опустили 1 очень важ-
ный факт: а почему существует множество всех колец, содержащих 𝑋?

Лемма 4.1. Пусть 𝑆 — полукольцо, 𝐴, 𝐴1 , . . . , 𝐴𝑘 ∈ 𝑆, причём 𝑘𝑖=1 𝐴𝑖 ⊆ 𝐴, тогда


⨆︀

𝑛
⨆︁
∃𝐴𝑘+1 , . . . , 𝐴𝑛 ∈ 𝑆 : 𝐴𝑖 = 𝐴
𝑖=1

Доказательство. Проведём индукцию по 𝑘:

◁ База 𝑘 = 1: тривиально по определению полукольца

◁ Переход 𝑘 > 1: по предположению индукции


𝑘−1
(︃𝑘−1 )︃ (︃ 𝑞 )︃
⨆︁ ⨆︁ ⨆︁
𝐴𝑖 ⊆ 𝐴 =⇒ 𝐴𝑖 ⊔ 𝐵𝑗 = 𝐴
𝑖=1 𝑖=1 𝑗=1

где 𝐵𝑗 ∈ 𝑆. Понятно, что в переходе 𝐴𝑘 ⊆ 𝑞𝑗=1 𝐵𝑗 . По свойству полукольца, 𝐷𝑗 =


⨆︀
𝐴𝑘 ∩ 𝐵𝑗 ∈ 𝑆. В таком случае
(︃ 𝑎𝑗 )︃
⨆︁
𝐵𝑗 = 𝐷𝑗 ⊔ 𝐶𝑗,𝑙 , 𝐶𝑗,𝑙 ∈ 𝑆
𝑙=1

Собираем всё вместе и получаем требуемое:


(︃ 𝑘 )︃ (︃ 𝑞 𝑎𝑗 )︃
⨆︁ ⨆︁ ⨆︁
𝐴= 𝐴𝑖 ⊔ 𝐶𝑗,𝑙
𝑖=1 𝑗=1 𝑙=1

Теорема 4.3. Пусть 𝑆 — полукольцо, 𝑅(𝑆) — минимальное кольцо, тогда


{︃ 𝑛 }︃
⨆︁
𝑅(𝑆) = 𝐾(𝑆) = 𝐴𝑖 , 𝐴𝑖 ∈ 𝑆
𝑖=1

Доказательство. С самого начала можно заявить, что 𝑅(𝑆) ⊇ 𝐾(𝑆). Это следует из того,
что кольцо замкнуто относительно объединения. Другое вложение докажем тем фактом,
что 𝐾(𝑆) — тоже кольцо, содержащее 𝑆:

1. ∅ ∈ 𝐾(𝑆), так как ∅ ∈ 𝑆

2. Проверим замкнутость пересечения. ∀𝐴, 𝐵 ∈ 𝐾(𝑆) верны следующие записи:


𝑛
⨆︁ 𝑘
⨆︁
𝐴= 𝐴𝑖 ; 𝐵= 𝐵𝑗
𝑖=1 𝑗=1

ФПМИ МФТИ, осень 2022 23


Основы вероятности и теории мер Назад к содержанию

где 𝐴𝑖 , 𝐵𝑗 ∈ 𝑆. Положив 𝐶𝑖,𝑗 := 𝐴𝑖 ∩ 𝐵𝑗 ∈ 𝑆, имеем


𝑛 ⨆︁
⨆︁ 𝑘
𝐴∩𝐵 = 𝐶𝑖,𝑗 ∈ 𝐾(𝑆)
𝑖=1 𝑗=1

Принадлежность к 𝐾(𝑆) верна, коль скоро мы записали пересечение через конечное


дизъюнктное объединение.
3. Осталось проверить замкнутость. Продолжая рассуждения предыдущего пункта, мы
можем записать 𝐴𝑖 в следующем виде:
(︃ 𝑘 )︃ (︃ 𝑠 )︃
⨆︁ ⨆︁ 𝑖

𝐴𝑖 = 𝐶𝑖,𝑗 ⊔ 𝐷𝑖,𝑠 , 𝐷𝑖,𝑠 ∈ 𝑆


𝑗=1 𝑠=1

Аналогично с 𝐵𝑗 : ⎛ ⎞
𝑙𝑗
(︃ 𝑛
)︃
⨆︁ ⨆︁
𝐵𝑗 = 𝐶𝑖,𝑗 ⊔⎝ 𝐸𝑗,𝑙 ⎠ , 𝐸𝑗,𝑙 ∈ 𝑆
𝑖=1 𝑙=1

С этим мы можем записать симметрическую разность так:


(︃ 𝑛 𝑠 )︃ ⎛ 𝑘 𝑙𝑗 ⎞
⨆︁ ⨆︁𝑖 ⨆︁ ⨆︁
𝐴△𝐵 = 𝐷𝑖,𝑠 ⊔ ⎝ 𝐸𝑗,𝑙 ⎠ ∈ 𝐾(𝑆)
𝑖=1 𝑠=1 𝑗=1 𝑙=1

Лемма 4.2. Пусть 𝑆 — полукольцо, а 𝐴1 , . . . , 𝐴𝑛 ∈ 𝑆 — произвольный набор множеств.


Тогда ⃒ ⨆︁
∃𝐵1 , . . . , 𝐵𝑘 ∈ 𝑆 ⃒ 𝐴𝑖 = 𝐵𝑗
𝑗∈Δ𝑖

Доказательство. Проведём индукцию по 𝑛:


◁ База 𝑛 = 1: тогда 𝐵1 = 𝐴1 и всё, победа.
◁ Переход 𝑛 > 1: для 𝐴1 , . . . , 𝐴𝑛−1 нашлись множества 𝐵1 , . . . , 𝐵𝑞 ∈ 𝑆. Возьмём 𝐴𝑛 и
пересечём со всеми ними: 𝐶𝑠 = 𝐴𝑛 ∩ 𝐵𝑠 ∈ 𝑆. Тогда
(︃ 𝑞 )︃ (︃ 𝑚 )︃
⨆︁ ⨆︁
𝐴𝑛 = 𝐶𝑠 ⊔ 𝐷𝑝
𝑠=1 𝑝=1

В результате мы «измельчили» все 𝐵𝑠 . Теперь они записываются следующим образом


(по свойству полукольца):
(︃ 𝑟 )︃
⨆︁𝑠

𝐵𝑠 = 𝐶𝑠 ⊔ 𝐵𝑠,𝑟 , 𝐵𝑠,𝑟 ∈ 𝑆
𝑟=1

Итого, чтобы записать набор 𝐴1 , . . . , 𝐴𝑛 , нам нужны {𝐶𝑠 }𝑞𝑖=1 , {𝐵𝑠,𝑟 } и {𝐷𝑝 }𝑚
𝑝=1 , причём
все они попарно непересекаются.

ФПМИ МФТИ, осень 2022 24


Основы вероятности и теории мер Назад к содержанию

Определение 4.6. Система множеств 𝑅 называется 𝜎-кольцом, если выполнены следу-


ющие свойства:
1. 𝑅 — кольцо
⋃︀∞
2. ∀{𝐴𝑖 }∞
𝑖=1 (счётное число множеств) верно, что 𝑖=1 𝐴𝑖 ∈ 𝑅
Определение 4.7. Система множеств 𝑅 называется 𝛿-кольцом, если выполнены следую-
щие свойства:
1. 𝑅 — кольцо
⋂︀∞
2. ∀{𝐴𝑖 }∞
𝑖=1 (счётное число множеств) верно, что 𝑖=1 𝐴𝑖 ∈ 𝑅
Замечание. 𝜎 и 𝛿-алгебры определяются аналогично
Утверждение 4.3. Если 𝑅 — 𝜎-кольцо, то 𝑅 также является 𝛿-кольцом.
Доказательство. Возьмём произвольный счётный набор множеств из 𝑅: {𝐴𝑖 }∞
𝑖=1 . Доволь-
но просто заметить следующее равенство:

⋂︁ ∞
⋃︁
𝐴𝑖 = 𝐴1 ∖ (𝐴1 ∖𝐴𝑖 ) ∈ 𝑅
𝑖=1 𝑖=1

Замечание. Контрпримером служит множество ограниченных подмножеств R. Если мы


возьмём счётное объединение отрезков [1; 𝑛], 𝑛 ∈ N, то получим луч, что не является
элементом нашей системы.
Утверждение 4.4. Система множеств 𝒜 является 𝜎-алгеброй только и только тогда,
когда является 𝛿-алгеброй.
Доказательство. Слева-направо мы уже всё доказали при помощи предудыщего утвер-
ждения. Теперь, у нас дана 𝛿-алгебра, и нам нужно как-то доказать, что счётное объеди-
нение {𝐴𝑖 }∞
𝑖=1 ⊆ 𝑅 будет тоже лежать в 𝑅:


⋃︁ ∞
⋂︁
𝐴𝑖 = 𝐸∖ (𝐸∖𝐴𝑖 )
𝑖=1 𝑖=1

Определение 4.8. Наименьшей 𝜎-алгеброй, содержащей систему множеств 𝑋, называ-


ется система множеств 𝜎(𝑋), обладающая следующими свойствами:
1. 𝜎(𝑋) является 𝜎-алгеброй
2. ∀𝒜 : 𝑋 ⊆ 𝒜 — 𝜎-алгебры верно, что 𝜎(𝑋) ⊆ 𝒜
Замечание. Когда мы говорим, что 𝜎(𝑋) ⊆ 𝒜, мы не требуем общей единицы.
Замечание. Все утверждения, доказанные для минимальных колец, верны и для мини-
мальной 𝜎-алгебры, за исключением теоремы о представлении элемента.
Определение 4.9. Борелевской 𝜎-алгеброй на R𝑛 называется наименьшая 𝜎-алгебра для
всех открытых множеств в R𝑛 .
ФПМИ МФТИ, осень 2022 25
Основы вероятности и теории мер Назад к содержанию

4.2 Конечные меры на системах множеств


Определение 4.10. Конечной мерой на полукольце 𝑆 называется функция 𝑚 : 𝑆 →
[0; +∞) такая, что она обладает конечной аддитивностью:
𝑛
⨆︁ 𝑛
∑︁
∀𝐴, 𝐴1 , . . . , 𝐴𝑛 ∈ 𝑆 : 𝐴 = 𝐴𝑖 =⇒ 𝑚(𝐴) = 𝑚(𝐴𝑖 )
𝑖=1 𝑖=1

Замечание. В этом параграфе мы будем опускать слово «конечная», ибо других тут и
не возникнет.

Определение 4.11. 𝜎-аддитивной мерой на полукольце 𝑆 называется мера такая, что


есть 𝜎-аддитивность:

⨆︁ ∞
∑︁
∀𝐴 ∈ 𝑆, {𝐴𝑖 }∞
𝑖=1 ⊆ 𝑆: 𝐴 = 𝐴𝑖 =⇒ 𝑚(𝐴) = 𝑚(𝐴𝑖 )
𝑖=1 𝑖=1

Замечание. Для промежутков (то есть полуинтервал, отрезок или интервал) мы будем
использовать обозначение ⟨𝑎; 𝑏⟩.

Лемма 4.3. Пусть 𝑚 - мера на полукольце 𝑆 и 𝐴, 𝐴1 , . . . , 𝐴𝑛 ∈ 𝑆, причём 𝐴 ⊇ 𝑛𝑖=1 𝐴𝑖 .


⨆︀
Тогда 𝑛
∑︁
𝑚(𝐴) ⩾ 𝑚(𝐴𝑖 )
𝑖=1

Доказательство. По уже известному факту о полукольце:


𝑞
⃒ ⨆︁
∃𝐴𝑛+1 , . . . , 𝐴𝑞 ∈ 𝑆 ⃒ 𝐴 = 𝐴𝑖
𝑖=1
∑︀𝑞 ∑︀𝑛
Тогда уже 𝑚(𝐴) = 𝑖=1 𝐴𝑖 ⩾ 𝑖=1 𝐴𝑖

Следствие. Если 𝑚 - мера
⨆︀ ∞ ∑︀∞ на полукольце 𝑆, а для 𝐴 ∈ 𝑆, {𝐴𝑖 }𝑖=1 ⊂ 𝑆 верно включение
𝑖=1 𝐴𝑖 ⊆ 𝐴, то 𝑚(𝐴) ⩾ 𝑖=1 𝑚(𝐴𝑖 ).
⨆︀𝑛
Доказательство.
∑︀𝑛 Для любого 𝑛 ∈ N верно, что 𝑖=1 𝐴𝑖 ⊆ 𝐴, а стало быть 𝑚(𝐴) ⩾
𝑖=1 𝑚(𝐴𝑖 ). Делая предельный переход, получим нужное утверждение.

Пример. Рассмотрим систему множеств {⟨𝑎; 𝑏⟩ : 𝐴 ⩽ 𝑎 ⩽ 𝑏 ⩽ 𝐵}. Она является полуколь-


цом при 𝐴 ⩽ 𝐵. Положим меру 𝑚(⟨𝑎; 𝑏⟩) = 𝑏 − 𝑎 (очевидно, что заданная таким образом
функция будет мерой). Покажем, что для этой меры есть 𝜎-аддитивность:
Пусть случилось так, что

⨆︁
⟨𝑎; 𝑏⟩ = ⟨𝑎𝑖 ; 𝑏𝑖 ⟩
𝑖=1

где ⟨𝑎𝑖 ; 𝑏𝑖 ⟩ ∈ 𝑆. Тогда, зафиксируем 𝜀 > 0 и возьмём следующий набор промежутков:



◁ [𝛼; 𝛽] ⊆ ⟨𝑎; 𝑏⟩ ⃒ 𝑚([𝛼; 𝛽]) > 𝑚([𝑎; 𝑏]) − 2𝜀
⃒ 𝜀
◁ (𝛼𝑖 ; 𝛽𝑖 ) ⊃ ⟨𝑎𝑖 ; 𝑏𝑖 ⟩ ⃒ 𝑚((𝛼𝑖 ; 𝛽𝑖 )) < 𝑚(⟨𝑎𝑖 ; 𝑏𝑖 ⟩) + 2𝑖+1

ФПМИ МФТИ, осень 2022 26


Основы вероятности и теории мер Назад к содержанию

Тогда понятно, что [𝛼; 𝛽] ⊆ ∞


⋃︀ ⃒
𝑖=1 (𝛼𝑖 ; 𝛽𝑖 ). В силу компактности отрезка, ∃𝑘 ∈ N
⃒ [𝛼; 𝛽] ⊆
⋃︀𝑘
𝑖=1 (𝛼𝑖 ; 𝛽𝑖 ). Вместе с леммой получаем такую цепочку неравенств:

𝑘 ∞
𝜀 ∑︁ 𝜀 ∑︁ 𝜀
∀𝜀 > 0 𝑚(⟨𝑎; 𝑏⟩) < 𝑚([𝛼; 𝛽]) + ⩽ 𝑚((𝛼𝑖 ; 𝛽𝑖 )) + ⩽ 𝑚((𝛼𝑖 ; 𝛽𝑖 )) + ⩽
2 𝑖=1
2 𝑖=1
2

∑︁
𝑚(⟨𝑎𝑖 ; 𝑏𝑖 ⟩) + 𝜀
𝑖=1
∑︀∞
Стало быть, 𝑚(⟨𝑎; 𝑏⟩) ⩽ 𝑖=1 𝑚(⟨𝑎𝑖 ; 𝑏𝑖 ⟩). В обратную же сторону просто по следствию из
леммы.

Лемма 4.4. (полуаддитивность


⋃︀𝑛 меры) Если 𝑚 — мера на полукольце 𝑆 и 𝐴, 𝐴1 , . . . , 𝐴𝑛 ∈
𝑆, причём 𝐴 ⊆ 𝑖=1 𝐴𝑖 , то
𝑛
∑︁
𝑚(𝐴) ⩽ 𝑚(𝐴𝑖 )
𝑖=1

Доказательство. По лемме 4.2, ∃𝐵1 , . . . , 𝐵𝑞 ∈ 𝑆 такие, что


𝑛 𝑞
⨆︁ ⋃︁ ⨆︁
∀𝑖 ∈ {1, . . . , 𝑛} 𝐴𝑖 = 𝐵𝑗 ; 𝐴𝑖 = 𝐵𝑗
𝑗∈Λ𝑖 𝑖=1 𝑗=1

Осталось увидеть связь между мерами:


𝑛 𝑞
∑︁ ∑︁
𝑚(𝐴𝑖 ) ⩾ 𝑚(𝐵𝑗 ) ⩾ 𝑚(𝐴)
𝑖=1 𝑗=1

Теорема 4.4. Пусть 𝑚 — мера на полукольце 𝑆, тогда функция 𝜈, определенная на 𝑅(𝑆)


как 𝑛 𝑛
∑︁ ⨆︁
𝜈(𝒜) := 𝑚(𝐴𝑖 ), 𝒜 = 𝐴𝑖 , 𝐴𝑖 ∈ 𝑆
𝑖=1 𝑖=1

задаёт меру на 𝑅(𝑆)

Доказательство.

1. ⨆︀ ⨆︀𝑝 Почему на разных разбиениях значение останется одинаковым? 𝒜 =


Корректность.
𝑛
𝑖=1 𝐴
⨆︀𝑖 = 𝑘=1 𝐵𝑘 . Введём снова общее разбиение через 𝐶𝑖,𝑘 = 𝐴𝑖 ∩ 𝐵𝑘 ∈ 𝑆, а тогда
𝐴𝑖 = 𝑝𝑘=1 𝐶𝑖,𝑘 и 𝐵𝑘 = 𝑛𝑖=1 𝐶𝑖,𝑘 . Итого:
⨆︀

𝑛 𝑝
𝑛 ∑︁ 𝑝 𝑛 𝑝
∑︁ ∑︁ ∑︁ ∑︁ ∑︁
𝜈(𝒜) = 𝑚(𝐴𝑖 ) = 𝑚(𝐶𝑖,𝑘 ) = 𝑚(𝐶𝑖,𝑘 ) = 𝑚(𝐵𝑘 )
𝑖=1 𝑖=1 𝑘=1 𝑘=1 𝑖=1 𝑘=1

2. Неотрицательность меры очевидна

ФПМИ МФТИ, осень 2022 27


Основы вероятности и теории мер Назад к содержанию

⨆︀𝑛 ⨆︀𝑝𝑖
3. Конечная аддитивность. Пусть 𝒜 = 𝑖=1 𝒜𝑖 , где 𝒜𝑖 = 𝑗=1 𝐴𝑖,𝑗 , 𝐴𝑖,𝑗 ∈ 𝑆. Тогда
𝑝𝑖
𝑛 ∑︁ 𝑛
∑︁ ∑︁
𝜈(𝒜) = 𝑚(𝐴𝑖,𝑗 ) = 𝑚(𝒜𝑖 )
𝑖=1 𝑗=1 𝑖=1

Замечание. Единственность 𝜈 очевидна. Действительно, каждый элемент 𝑅(𝑆) предста-


вим через элементы 𝑆, а тогда 𝜂 записывается через меру 𝑚, как и все другие потенци-
альные меры на 𝑅(𝑆), удовлетворяющие условию.
Теорема 4.5. Если 𝑚 — 𝜎-аддитивная мера на 𝑆, то 𝜈 — тоже 𝜎-аддитивная мера на
𝑅(𝑆)
Доказательство. Пусть 𝒜 = ∞
⨆︀
𝑖=1 𝒜𝑖 . Тогда, мы можем расписать каждый элемент через
элементы 𝑆:
◁ 𝒜 = 𝑛𝑗=1 𝐵𝑗
⨆︀

◁ 𝒜𝑖 = 𝑙𝑙=1
⨆︀ 𝑖
𝐵𝑖,𝑙
Введём общее разбиение через 𝐶𝑗,𝑖,𝑙 = 𝐵𝑗 ∩ 𝐵𝑖,𝑙 ∈ 𝑆. Тогда
◁ 𝐵𝑗 = ∞
⨆︀ ⨆︀𝑙𝑖
𝑖=1 𝑙=1 𝐶𝑗,𝑖,𝑙

◁ 𝐵𝑖,𝑙 = 𝑛𝑗=1 𝐶𝑗,𝑖,𝑙


⨆︀

Теперь, распишем 𝜈(𝒜) по определению:


𝑛
∑︁ ∞ ∑︁
𝑛 ∑︁
∑︁ 𝑙𝑖
𝜈(𝒜) = 𝑚(𝐵𝑗 ) = 𝑚(𝐶𝑗,𝑖,𝑙 )
𝑗=1 𝑗=1 𝑖=1 𝑙=1

Все члены ряда неотрицательны, при этом он сходится. Значит, он сходится абсолютно и
можно менять порядок суммирования. Отсюда получаем это:
∞ ∑︁
∑︁ 𝑙𝑖 ∑︁
𝑛 ∞ ∑︁
∑︁ 𝑙𝑖 ∞
∑︁
𝜈(𝒜) = 𝑚(𝐶𝑗,𝑖,𝑙 ) = 𝑚(𝐵𝑖,𝑙 ) = 𝜈(𝒜𝑖 )
𝑖=1 𝑙=1 𝑗=1 𝑖=1 𝑙=1 𝑖=1

Теорема 4.6. (𝜎-полуаддитивность на кольце)


⋃︀∞ Если 𝜈 — это 𝜎-аддитивная мера на
кольце 𝑅, то для ∀𝒜 ∈ 𝑅, {𝒜}∞
𝑖=1 ⊆ 𝑅, 𝒜 ⊆ 𝑖=1 𝒜𝑖 , верно следующее:


∑︁
𝜈(𝒜) ⩽ 𝜈(𝒜𝑖 )
𝑖=1
⋃︀∞
⨆︀∞ техникой и запишем объединение 𝑖=1 𝒜𝑖
Доказательство. Воспользуемся классической
как дизъюнктное объединение множеств 𝑗=1 𝐵𝑗 . Для этого за 𝐵𝑗 надо положить следу-
ющее:
𝑖−1
⋃︁
𝐵1 = 𝒜1 ∈ 𝑅; 𝐵𝑖 = 𝒜𝑖 ∖ 𝒜𝑗 ∈ 𝑅
𝑗=1

ФПМИ МФТИ, осень 2022 28


Основы вероятности и теории мер Назад к содержанию

Благодаря этому, мы можем ввести дизъюнктное разбиение на 𝒜:



⨆︁
𝐶𝑗 = 𝒜 ∩ 𝐵𝑗 ∈ 𝑅; 𝒜= 𝐶𝑗
𝑗=1

Ну а дальше просто держим в уме, что 𝐶𝑗 ⊆ 𝐵𝑗 ⊆ 𝒜𝑗 :



∑︁ ∞
∑︁
𝜈(𝒜) = 𝜈(𝐶𝑗 ) ⩽ 𝜈(𝒜𝑗 )
𝑗=1 𝑗=1

4.3 Внешняя мера Лебега


Замечание. То, что мы изучили в курсе математического анализа, называется классиче-
ской мерой Лебега. В более общем случае, мера Лебега может быть задана на произволь-
ном полукольце с единицей.
Замечание. Далее и до конца параграфа, где не обговорено явно обратного, мы обозна-
чаем полукольцо буквой 𝑆, а его единицу как 𝐸. Дополнительно считаем, что у нас есть
𝜎-аддитивная мера 𝑚 на этом полукольце.
Определение 4.12. Внешней мерой Лебега для ∀𝐴 ⊆ 𝐸 (не обязательно ∈ 𝑆) называ-
ется величина, определенная таким образом:

∑︁
*
𝜇 (𝐴) = inf 𝑚(𝐴𝑖 )
𝐴⊆ ∞ 𝐴𝑖
⋃︀
𝑖=1
𝐴𝑖 ∈𝑆 𝑖=1

Замечание. Несмотря на то, что мы назвали эту величину мерой, она ею не является.
Контрпример такой:

𝑆 = {[0; 1], [0; 1/2), [1/2; 1], ∅}; 𝑚 — длина промежутка

Тогда должно быть верно, что 𝜇* ([0; 1]) = 𝜇* ([0; 1/3)) + 𝜇* ([1/3; 1]), но при этом 𝜇* ([0; 1]) =
𝜇* ([1/2; 1]) = 1 и 𝜇* ([0; 1/3)) = 1/2. Иначе говоря, внешняя мера Лебега не обладает
аддитивностью в общем случае.
Утверждение 4.5. На 𝑅(𝑆) имеет место равенство 𝜇* = 𝜈, если 𝜈 — это индуциро-
рванная 𝑚 мера.
Доказательство. Действительно, пусть 𝒜 ∈ 𝑅(𝑆), 𝒜 = 𝑛𝑖=1 𝒜𝑖 , 𝒜𝑖 ∈ 𝑆. Тогда
⨆︀

𝑛
∑︁
𝜈(𝒜) = 𝑚(𝒜𝑖 )
𝑖=1

Тогда тривиальным образом 𝜈(𝒜) ⩾ 𝜇* (𝒜) в силу определения. С другой стороны, для
любого счётного покрытия {𝒜}∞
𝑖=1 мы знаем, что


∑︁
𝜈(𝒜) ⩽ 𝜈(𝒜𝑖 )
𝑖=1

ФПМИ МФТИ, осень 2022 29


Основы вероятности и теории мер Назад к содержанию

При этом, так как 𝒜𝑖 ∈ 𝑆 для внешней меры Лебега, то 𝜈(𝒜𝑖 ) = 𝑚(𝒜𝑖 ). При переходе к
инфинуму это даёт необходимое неравенство в другую сторону.

Утверждение 4.6. Если определить внешнюю меру Лебега лишь с помощью покрытий
непересекающихся множеств, то мы получим эквивалентное определение.

Доказательство. 𝜇* (𝐴) — обозначение изначальной внешней меры Лебега, 𝜇′* (𝐴) — внеш-
няя мера Лебега по покрытиям из непересекающихся множеств. Сразу ясно, что 𝜇* (𝐴) ⩽
𝜇′* (𝐴), и нужно⋃︀доказать лишь в обратную сторону:
Пусть 𝐴 ⊆ ∞ мы знаем, что ∞ 𝐴𝑖 = ∞
⋃︀ ⨆︀
𝑖=1 𝐴𝑖 . Тогда
⋃︀𝑗𝑖 𝑖=1 𝑖=1 𝐵𝑖 в кольце 𝑅(𝑆). Раз каж-
дое 𝐵𝑖 ∈ 𝑅(𝑆), то 𝐵𝑖 = 𝑗=1 𝐶𝑖,𝑗 , 𝐶𝑖,𝑗 ∈ 𝑆. Теперь, посмотрим на меру дизъюнктного
объединения всех 𝐶𝑖,𝑗 :
𝑗𝑖
∞ ∑︁ ∞ ∞ ∞
∑︁ ∑︁ ∑︁ ∑︁
𝑚(𝐶𝑖,𝑗 ) = 𝜈(𝐵𝑖 ) ⩽ 𝜈(𝐴𝑖 ) = 𝑚(𝐴𝑖 )
𝑖=1 𝑗=1 𝑖=1 𝑖=1 𝑖=1

Отсюда 𝜇′* (𝐴) ⩽ 𝜇* (𝐴), ибо для любого покрытия мы показали, что его дизъюннктная
версия имеет меру не бо́льшую.

Теорема 4.7. 𝜇* обладает 𝜎-полуаддитивностью на подмножествах единицы 𝐸 ∈ 𝑆.

Доказательство. Для всех 𝐵𝑖 сразу распишем свойство инфинума:


∞ ∞
⋃︁ ∑︁ 𝜀
𝑚(𝐴𝑖,𝑗 ) < 𝜇* (𝐵𝑖 ) + 𝑖

∀𝜀 > 0 ∃𝐴𝑖,𝑗 ∈ 𝑆 ⃒ 𝐵𝑖 ⊆ 𝐴𝑖,𝑗 ∧
𝑗=1 𝑗=1
2

Тогда 𝐵 ⊆ ∞
⋃︀ ⋃︀∞
𝑖=1 𝑗=1 𝐴𝑖,𝑗 . Коль скоро правая часть является покрытием множествами 𝑆,
то можно сделать такую цепочку неравенств:
∞ ∑︁
∞ ∞ (︁ ∞
∑︁ ∑︁ 𝜀 )︁ ∑︁ *
𝜇* (𝐵) ⩽ 𝑚(𝐴𝑖,𝑗 ) < 𝜇* (𝐵𝑖 ) + = 𝜇 (𝐵𝑖 ) + 𝜀
𝑖=1 𝑗=1 𝑖=1
2𝑖 𝑖=1

Устремляя 𝜀 к нулю, получим нужное неравенство.

Следствие. Для ∀𝐴, 𝐵 ⊆ 𝐸 верно такое неравенство:

|𝜇* (𝐴) − 𝜇* (𝐵)| ⩽ 𝜇* (𝐴△𝐵)

Доказательство. Совершенно понятны 2 включения:

𝐴 ⊆ 𝐵 ∪ (𝐴△𝐵) ⇒ 𝜇* (𝐴) ⩽ 𝜇* (𝐵) + 𝜇* (𝐴△𝐵)


𝐵 ⊆ 𝐴 ∪ (𝐴△𝐵) ⇒ 𝜇* (𝐵) ⩽ 𝜇* (𝐴) + 𝜇* (𝐴△𝐵)

Определение 4.13. Множество 𝐴 ⊆ 𝐸 называется измеримым по Лебегу, если

∀𝜀 > 0 ∃𝐴𝜀 ∈ 𝑅(𝑆) ⃒ 𝜇* (𝐴△𝐴𝜀 ) < 𝜀


Замечание. Все множества из 𝑅(𝑆) измеримы, ибо 𝜇* (𝐴△𝐴) = 0 для 𝐴 ∈ 𝑅(𝑆).

ФПМИ МФТИ, осень 2022 30


Основы вероятности и теории мер Назад к содержанию

Замечание. 𝑀 - это множество измеримых по Лебегу множеств. Такое обозначение мы


будем использовать для него и дальше.
Теорема 4.8. 𝑀 является алгеброй.
Доказательство.
1. Единица 𝐸 ∈ 𝑀 , потому что 𝐸 ∈ 𝑅(𝑆), и то же самое с ∅ ∈ 𝑅(𝑆).
2. Проверим замкнутость относительно операций кольца. Пусть 𝐴, 𝐵 ∈ 𝑀 , тогда для
них найдутся 𝐴𝜀/2 , 𝐵𝜀/2 ∈ 𝑅(𝑆). Мы делаем ставку на то, что пересечение и симмет-
рическая разность этих множеств подойдут для того же с 𝐴, 𝐵:

(𝐴 ∩ 𝐵)△(𝐴𝜀/2 ∩ 𝐵𝜀/2 ) ⊆ (𝐴△𝐴𝜀/2 ) ∪ (𝐵△𝐵𝜀/2 )


(𝐴△𝐵)△(𝐴𝜀/2 △𝐵𝜀/2 ) ⊆ (𝐴△𝐴𝜀/2 ) ∪ (𝐵△𝐵𝜀/2 )

По полуаддитивности 𝜇* всё доказано.

Теорема 4.9. 𝜇* — аддитивная мера на 𝑀 .


Доказательство. Так как мы уже доказали, что 𝑀 является алгеброй, то нам достаточно
показать следующий факт:

∀𝐴, 𝐵, 𝐶 ∈ 𝑀, 𝐴 = 𝐵 ⊔ 𝐶 ⇒ 𝜇* (𝐴) = 𝜇* (𝐵) + 𝜇* (𝐶)

Аналогичное неравенство в одну сторону уже есть, остаётся в другую.


Зафиксируем 𝜀 > 0. Поскольку 𝐵, 𝐶 ∈ 𝑀 , то ∃𝐵𝜀 , 𝐶𝜀 ∈ 𝑅(𝑆) - приближения по опреде-
лению лебеговой измеримости. Увидим следующее включение:

𝐴△(𝐵𝜀 ∪ 𝐶𝜀 ) ⊆ (𝐵△𝐵𝜀 ) ∪ (𝐶△𝐶𝜀 ) ⇒ 𝜇* (𝐴△(𝐵𝜀 ∪ 𝐶𝜀 )) ⩽ 2𝜀

Дополнительно воспользуемся следствием из полуаддитивности для оценки снизу 𝜇* (𝐴):

𝜇* (𝐴) ⩾ 𝜇* (𝐵𝜀 ∪ 𝐶𝜀 ) − 𝜇* (𝐴△(𝐵𝜀 ∪ 𝐶𝜀 )) ⩾ 𝜇* (𝐵𝜀 ∪ 𝐶𝜀 ) − 2𝜀

Тут заметим, что 𝐵𝜀 , 𝐶𝜀 ∈ 𝑅(𝑆), стало быть и 𝐵𝜀 ∪ 𝐶𝜀 ∈ 𝑅(𝑆). Иначе говоря, для этих
множеств 𝜇* = 𝜈 — индуцированная мера (реальная!). Значит, мы можем воспользоваться
формулой включений и исключений:

𝜇* (𝐴) ⩾ 𝜇* (𝐵𝜀 ) + 𝜇* (𝐶𝜀 ) − 𝜇* (𝐵𝜀 ∩ 𝐶𝜀 ) −2𝜀


⏟ ⏞
𝜇* (𝐵𝜀 ∪𝐶𝜀 )

Аналогичной оценкой через следствие полуаддитивности мы пользуемся для 𝜇* (𝐵𝜀 ), 𝜇* (𝐶𝜀 ):

𝜇* (𝐴) ⩾ 𝜇* (𝐵) − 𝜇* (𝐵△𝐵𝜀 ) + 𝜇* (𝐶) − 𝜇* (𝐶△𝐶𝜀 ) − 𝜇* (𝐵𝜀 ∩ 𝐶𝜀 ) − 2𝜀 ⩾


𝜇* (𝐵) + 𝜇* (𝐶) − 𝜇* (𝐵𝜀 ∩ 𝐶𝜀 ) − 4𝜀

Осталось показать, что 𝜇* (𝐵𝜀 ∩ 𝐶𝜀 ) достаточно малая величина. Для этого снова заметим
вложение:

𝐵𝜀 ∩ 𝐶𝜀 ⊆ (𝐵𝜀 ∖𝐵) ∪ (𝐶𝜀 ∖𝐶) ⊆ (𝐵△𝐵𝜀 ) ∪ (𝐶△𝐶𝜀 ) ⇒ 𝜇* (𝐵𝜀 ∩ 𝐶𝜀 ) ⩽ 2𝜀

ФПМИ МФТИ, осень 2022 31


Основы вероятности и теории мер Назад к содержанию

Итого 𝜇* (𝐴) ⩾ 𝜇* (𝐵) + 𝜇* (𝐶) − 6𝜀 для ∀𝜀 > 0, что и требовалось.

Определение 4.14. 𝜇* на 𝑀 называется мерой Лебега и обозначается 𝜇.

Теорема 4.10. 𝑀 является 𝜎-алгеброй.


⋃︀∞
Доказательство. Пусть {𝒜𝑖 }∞𝑖=1 ⊆ 𝑀 и 𝒜 := 𝑖=1 𝒜𝑖 . В силу того, что 𝑀 уже алгебра,
мы можем заменить 𝒜𝑖 на 𝐵𝑖 ∈ 𝑀 так, что 𝒜 = ∞
⨆︀
𝑖=1 𝐵𝑖 .

1. ∀𝑛 ∈ N 𝑛𝑖=1 𝐵𝑖 ⊆ 𝒜. Тогда между мерами есть соотношение следующего вида:


⨆︀

𝑛
(︃ 𝑛 )︃ (︃ 𝑛 )︃
∑︁ ⨆︁ ⨆︁
𝜇(𝐵𝑖 ) = 𝜇 𝐵𝑖 = 𝜇* 𝐵𝑖 ⩽ 𝜇* (𝐴)
𝑖=1 𝑖=1 𝑖=1
∑︀∞
Отсюда следует, что 𝑖=1 𝜇(𝐵𝑖 ) ⩽ 𝜇* (𝐴) < ∞. Благодаря этому ряд сходится.

2. В частности, нас интересует следующее свойство сходимости ряда:



⃒ ∑︁ 𝜀
∀𝜀 > 0 ∃𝑁 ∈ N ⃒ 𝜇(𝐵𝑖 ) <
𝑖=𝑁 +1
2

Для основной части мы можем воспользоваться определением измеримости (ибо ко-


нечное дизъюнктное объединение тоже измеримо по Лебегу):
(︃ 𝑁
)︃
⃒ ⨆︁
∀𝜀 > 0 ∃𝐶𝜀/2 ∈ 𝑀 ⃒ 𝜇 𝐶𝜀/2 △ 𝐵𝑖 < 𝜀/2
𝑖=1

Дело остаётся за малым — нашим кандидатом на приближение является 𝐶𝜀/2 , нужно


проверить меру симметрической разности с 𝒜:
(︃ 𝑁
)︃ (︃ ∞
)︃
⨆︁ ⨆︁
𝒜△𝐶𝜀/2 ⊆ 𝐶𝜀/2 △ 𝐵𝑖 ∪ 𝐵𝑖 =⇒
𝑖=1 𝑖=𝑁 +1
(︃ 𝑁
)︃ (︃ ∞
)︃
⨆︁ ⨆︁ 𝜀 𝜀
𝜇* (𝒜△𝐶𝜀/2 ) ⩽ 𝜇* 𝐶𝜀/2 △ 𝐵𝑖 + 𝜇* 𝐵𝑖 < + =𝜀
𝑖=1 𝑖=𝑁 +1
2 2
⏟∑︀∞

⩽ 𝑖=𝑁 +1 𝜇* (𝐵𝑖 )

Теорема 4.11. 𝜇 — 𝜎-аддитивная мера на 𝑀 .


⨆︀∞
Доказательство. Пусть∑︀𝒜 ∈ 𝑀, {𝒜𝑖 }∞ 𝑖=1 ⊆ 𝑀 , причём 𝒜 = 𝑖=1 𝒜𝑖 . Тогда нам нужно

доказать лишь 𝜇(𝒜) ⩾ 𝑖=1 𝜇(𝒜𝑖 ). Заметим такую вещь: так как 𝑀 теперь 𝜎-алгебра, то
(︃ ∞ )︃ ∞
⨆︁ ⨆︁
∀𝑛 ∈ N 𝒜 = 𝐴1 ⊔ . . . ⊔ 𝐴𝑛 ⊔ 𝐴𝑖 ∧ 𝐴𝑖 ∈ 𝑀
𝑖=𝑛+1 𝑖=𝑛+1

ФПМИ МФТИ, осень 2022 32


Основы вероятности и теории мер Назад к содержанию

Отсюда по аддитивности:
𝑛
(︃ ∞
)︃ 𝑛
∑︁ ⨆︁ ∑︁
∀𝑛 ∈ N 𝜇(𝒜) = 𝜇(𝒜𝑖 ) + 𝜇 𝐴𝑖 ⩾ 𝜇(𝒜𝑖 )
𝑖=1 𝑖=𝑛+1 𝑖=1

устремляя 𝑛 в бесконечность, получаем требуемое неравенство.

Замечание. Подведём итоги проделанной работы:

𝑆 с единицей 𝐸 → 𝑅(𝑆) → 𝑀 — 𝜎-алгебра


𝑚 — 𝜎-аддитивная мера → 𝜈 → 𝜇— 𝜎-аддитивная мера

Мы смогли продолжить 𝑚 на 𝜎(𝑆). Почему? Ну просто потому что 𝜎(𝑆) ⊆ 𝑀 по опре-


делению. Возникает вопрос: «А единственна ли мера, определенная на 𝜎(𝑆)?» Окажется,
что да.

Пример. (мера Бореля) Борелевской 𝜎-алгеброй на отрезке [𝑎; 𝑏] будет наименьшая 𝜎-


алгебра, содержащая все открытые множества из [𝑎; 𝑏]:
⃒ ⃒
B[𝑎;𝑏] = 𝜎({𝐴 ⊂ [𝑎; 𝑏] ⃒ 𝐴— открытое}) = 𝜎({⟨𝑐; 𝑑⟩ ⃒ 𝑎 ⩽ 𝑐 ⩽ 𝑑 ⩽ 𝑏})

Мы уже показывали, что последняя система множеств являеся полукольцом с единицей


𝐸 = [𝑎; 𝑏], 𝑚(⟨𝑐; 𝑑⟩) = 𝑑 − 𝑐 задаёт 𝜎-аддитивную меру на этом полукольце, а потому
построенная нами 𝜇 будет 𝜎-аддитивной мерой на B[𝑎;𝑏] — мерой Бореля.

Пример. (мера Лебега-Стилтьеса) Рассмотрим R = (−∞; +∞) и функцию 𝜙(𝑥), удовле-


творяющую таким свойствам:

1. 𝜙(𝑥) неубывающая

2. 𝜙(𝑥) непрерывна справа (в любой точке и в +∞)

3. 𝜙(𝑥) ограничена

Положим за полукольцо 𝑆 следующую систему множеств (про которую, конечно же, чи-
татель должен доказать свойства полукольца):
{︁ ⃒ }︁ {︁ ⃒ }︁
𝑆 = {∅} ∪ (𝑎; 𝑏] 𝑎 ∈ R ∪ {−∞}, 𝑏 ∈ R ∪ (𝑎; +∞) 𝑎 ∈ R ∪ {−∞}
⃒ ⃒

Зададим меру на 𝑆 таким образом:

𝑚(∅) = 0
𝑚((𝑎; 𝑏]) = 𝜙(𝑏) − 𝜙(𝑎)
𝑚((𝑎; +∞)) = 𝜙(+∞) − 𝜙(𝑎)

То, что этим задана хотя бы мера, должно быть очевидно (ну или домашнее задание
читателю), а вот 𝜎-аддитивность неясна. Для этого, мы отдельно разберём конечный и
бесконечный случаи:

ФПМИ МФТИ, осень 2022 33


Основы вероятности и теории мер Назад к содержанию

⨆︀∞
1. (𝑎; 𝑏] = 𝑖=1 (𝑎𝑖 ; 𝑏𝑖 ]. У нас уже есть неравенство в одну сторону:

∑︁
𝑚((𝑎; 𝑏]) ⩾ (𝑎𝑖 ; 𝑏𝑖 ]
𝑖=1

Остаётся показать неравенство в обратную. Будем отталкиваться от желания вос-


пользоваться компактностью — надо взять некоторое замкнутое подмножество (𝑎; 𝑏]
и найти его покрытие.
⋃︀∞ Возьмём пока произвольные 𝑎 < 𝑑 ⩽ 𝑏 и 𝑐𝑖 > 𝑏𝑖 . Это даст вклю-
чение [𝑑; 𝑏] ⊂ 𝑖=1 (𝑎𝑖 ; 𝑐𝑖 ). Чтобы выбрать уже конкретные значения, воспользуемся
свойствами 𝜙:
⃒ 𝜀
∀𝜀 > 0 ∃𝑎 < 𝑑 ⩽ 𝑏 ⃒ 𝜙(𝑑) − 𝜙(𝑎) <
2
⃒ 𝜀
∀𝑖 ∈ N ∀𝜀 > 0 ∃𝑐𝑖 > 𝑏𝑖 𝜙(𝑐𝑖 ) − 𝜙(𝑏𝑖 ) < 𝑖+1

2

В силу компактности отрезка, ∃𝑁 ∈ N ⃒ [𝑑; 𝑏] ⊂ 𝑁


⃒ ⋃︀
𝑖=1 (𝑎𝑖 ; 𝑐𝑖 ]. Однако, отрезок в нашей
системе неизмерим, а поэтому выполним такой трюк:
𝑁
⋃︁
(𝑑; 𝑏] ⊂ [𝑑; 𝑏] ⊂ (𝑎𝑖 ; 𝑐𝑖 ]
𝑖=1

А теперь будем писать цепочку неравенств:

𝑁
𝜀 𝜀 ∑︁ 𝜀
𝑚((𝑎; 𝑏]) = 𝜙(𝑏) − 𝜙(𝑎) < 𝜙(𝑏) − 𝜙(𝑑) + = 𝑚((𝑑; 𝑏]) + ⩽ 𝑚((𝑎𝑖 ; 𝑐𝑖 ]) + <
2 2 𝑖=1
2
∞ ∞ ∞
∑︁ 𝜀 ∑︁ (︁ 𝜀 )︁ 𝜀 ∑︁
(𝜙(𝑐𝑖 ) − 𝜙(𝑎𝑖 )) + < 𝜙(𝑏𝑖 ) − 𝜙(𝑎𝑖 ) + 𝑖+1 + = 𝑚((𝑎𝑖 ; 𝑏𝑖 ]) + 𝜀
𝑖=1
2 𝑖=1
2 2 𝑖=1

Устремляя 𝜀 в ноль, получим требуемое неравенство.


2. (𝑎; +∞) = ∞
⨆︀
𝑖=1 𝐴𝑖 , 𝐴𝑖 ∈ 𝑆. Для начала, заметим такой факт:

𝑚((𝑎; +∞)) = 𝜙(+∞) − 𝜙(𝑎) = lim 𝜙(𝑛) − 𝜙(𝑎) = lim (𝜙(𝑛) − 𝜙(𝑎)) = lim 𝑚((𝑎; 𝑛])
𝑛→∞ 𝑛→∞ 𝑛→∞
⨆︀∞
Далее есть ещё один нереальный факт: (𝑎; 𝑛] = 𝑖=1 (𝑎; 𝑛] ∩ 𝐴𝑖 . Так как у нас по-
лукольцо, то эти пересечения тоже лежат в 𝑆, причём будут полуинтервалами. По
первому пункту это даёт 𝜎-аддитивность мер, ну а в частности 𝜎-полуаддитивность:

∑︁
𝑚((𝑎; 𝑛]) ⩽ 𝑚((𝑎; 𝑛] ∩ 𝐴𝑖 )
𝑖=1

Коль скоро это работает при всех 𝑛 ⩾ 𝑎, то верно и предельное неравенство. Значит

∑︁ ∞
∑︁
𝑚((𝑎; +∞)) = lim 𝑚((𝑎; 𝑛]) ⩽ lim 𝑚((𝑎; 𝑛] ∩ 𝐴𝑖 ) ⩽ 𝑚(𝐴𝑖 )
𝑛→∞ 𝑛→∞
𝑖=1 𝑖=1

⨆︀∞
3. (−∞; 𝑏] = 𝑖=1 𝐴𝑖 . Аналогично предыдущему, просто надо рассматривать полуинтер-

ФПМИ МФТИ, осень 2022 34


Основы вероятности и теории мер Назад к содержанию

валы (−𝑛; 𝑏] для 𝑛 ∈ N.

Определение 4.15. Лебегово продолжение меры 𝑚 из примера выше называется мерой


Лебега-Стилтьеса

4.4 𝜎-конечные меры


Замечание. Если в этом параграфе где-то есть слово «мера» без уточнения конечности,
то подразумевается, что утверждение работает для любой конечности.

Определение 4.16. 𝜇 : 𝑁 → R называется 𝜎-конечной мерой на системе 𝑁 подмножеств


𝑋, если выполнены следующие условия:

1. ∀𝐴 ∈ 𝑁 𝜇(𝐴) ∈ [0; +∞]


⨆︀∞ ∑︀∞
2. ∀𝐴 ∈ 𝑁, {𝐴𝑖 }∞
𝑖=1 ⊆ 𝑁 таких, что 𝐴 = 𝑖=1 𝐴𝑖 верно равенство 𝜇(𝐴) = 𝑖=1 𝜇(𝐴𝑖 )

⃒ 𝜇(𝐴𝑖 ) < ∞, 𝑋 = ⋃︀∞ 𝐴𝑖



3. (𝜎-конечность) ∃{𝐴𝑖 }∞
𝑖=1 ⊆ 𝑁 𝑖=1

Замечание. Чем данное определение отличается от простой меры? Ну во-первых, мы


определяем меру не на полукольце, а на произвольной системе. Во-вторых, мы разрешили
мере принимать бесконечное значение. В-третьих, мы наложили определенное ограниче-
ние на то множество, над которым возникает система подмножеств.

Замечание. Возникает уже известный вопрос: «А как продлить 𝜎-конечную меру на что-
то более сложное?» Для этого нужно хотя бы определить, от чего мы отталкиваемся:

1. 𝑆 - полукольцо подмножеств множества 𝐸

2. 𝐸 ∈
/𝑆

3. Есть 𝑚 — 𝜎-конечная мера на полукольце 𝑆

От 𝑆 и 𝑚 мы можем спокойно перейти к 𝑅(𝑆) и 𝜈, причём 𝜈 тоже будет 𝜎-конечной.


Приятность состоит в том, что теперь мы можем получить 𝑋 при помощи дизъюнктного
объединения:

⋃︁ ∞
⨆︁
𝐸= 𝐴𝑖 = 𝐵𝑗
𝑖=1 𝑗=1

Естественно, 𝐵𝑗 ∈ 𝑅(𝑆). Если же говорить более точно, то 𝐵𝑗 = 𝐴𝑗 ∖ 𝑗−1


⋃︀
𝑖=1 𝐴𝑖 и при этом
𝐵𝑗 ⊆ 𝐴𝑗 ⇒ 𝜈(𝐵𝑗 ) ⩽ 𝜈(𝐴𝑗 ) = 𝑚(𝐴𝑗 ) < ∞.
Мы явно указали, что
⃒ 𝐸 ∈
/ 𝑆. Однако, теперь мы можем рассмотреть кольца 𝑅𝑗 =
𝑅(𝑆) ∩ 𝐵𝑗 := {𝐵 ∩ 𝐵𝑗 𝐵 ∈ 𝑅(𝑆)}, и у них уже будут единицы — 𝐵𝑗 соответственно (то

есть это алгебры). По имеющейся теории, это даёт право построить лебегово продолжение
𝜈 на подмножествах 𝐵𝑗 — так обозначаемые 𝜇𝑗 . Соответственно будут множества измери-
мых по Лебегу множеств 𝑀𝑗 . Задача, которую нам предстоит решить — это объединить
полученные кусочки.

Замечание. Далее мы продолжаем жить в обозначениях выше и с ровно тем же смыслом,


если не обговорено явно иного.

Определение 4.17. 𝐴 ⊆ 𝐸 называется измеримым по Лебегу, если ∀𝑗 ∈ N 𝐴 ∩ 𝐵𝑗 ∈ 𝑀𝑗 .

ФПМИ МФТИ, осень 2022 35


Основы вероятности и теории мер Назад к содержанию

Определение 4.18. Пусть 𝐴 ⊆ 𝐸 — измеримое по Лебегу множество. Тогда его мера


Лебега равна следующему:

∑︁
𝜇(𝐴) = 𝜇𝑗 (𝐴 ∩ 𝐵𝑗 )
𝑗=1
⋃︀∞
Замечание. Проблема — разбиение 𝑖=1 𝐴𝑖 необязательно единственно. Из-за этого воз-
никает вопрос корректности происходящего, но выкладки настолько громоздки и бессмыс-
ленны, что мы принимаем корректность без доказательства.
Замечание. Мы снова взяли какую-то белиберду и назвали её мерой, но является ли она
таковой? С ходу нет. Нам нужно доказать 2 вещи:
1. Множество измеримых по Лебегу множеств 𝑀 является 𝜎-алгеброй
2. Полученная мера Лебега 𝜇 является 𝜎-конечной мерой
Теорема 4.12. 𝑀 является 𝜎-алгеброй.
Доказательство.
1. (Наличие единицы) ∀𝑗 ∈ N 𝐸 ∩ 𝐵𝑗 = 𝐵𝑗 ∈ 𝑀𝑗 ⇒ 𝐸 ∈ 𝑀
2. (Замкнутость как кольца) Рассмотрим 𝐴, 𝐶 ∈ 𝑀 . При фиксированном 𝑗 ∈ N мы
знаем, что 𝐴 ∩ 𝐵𝑗 ∈ 𝑀𝑗 , 𝐶 ∩ 𝐵𝑗 ∈ 𝑀𝑗 . Отсюда сразу (𝐴 ∩ 𝐶) ∩ 𝐵𝑗 ∈ 𝑀𝑗 , а значит
𝐴 ∩ 𝐶 ∈ 𝑀 . Для симметрической разности нужно просто помнить дистрибутивность:

(𝐴 ∩ 𝐵𝑗 )△(𝐶 ∩ 𝐵𝑗 ) = (𝐴△𝐶) ∩ 𝐵𝑗

Отсюда 𝐴△𝐶 ∈ 𝑀
3. (Замкнутость относительно счётного объединения) Аналогично предыдущему пунк-
ту, ибо каждое 𝑀𝑗 является 𝜎-алгеброй.

Замечание. Важно понимать: первый пункт не только дал нам единицу, но и показал,
что 𝑀 ̸= ∅ — одно из необходимых условий.
Теорема 4.13. Мера Лебега 𝜇 является 𝜎-конечной мерой на системе 𝑀 подмножеств
𝐸.
Доказательство. Посмотрим свойства прямо по порядку из определения:
1. По построению
2. Пусть 𝐴 = ∞
⨆︀
𝑖=1 𝐴𝑖 ; 𝐴, 𝐴𝑖 ∈ 𝑀 . Распишем меру 𝐴 по определению:

∞ ∞
(︃ ∞ )︃
∑︁ ∑︁ ⨆︁
𝜇(𝐴) = 𝜇𝑗 (𝐴 ∩ 𝐵𝑗 ) = 𝜇𝑗 (𝐴𝑖 ∩ 𝐵𝑗 )
𝑗=1 𝑗=1 𝑖=1

Здесь 𝐴𝑖 ∩ 𝐵𝑗 ∈ 𝑀𝑗 . При этом мы знаем, что 𝜇𝑗 обладает 𝜎-аддитивностью. Значит,


меру можно раскрыть:

(︃ ∞ )︃ ∞ ∑︁
∞ ∞ ∑︁
∞ ∞
∑︁ ⨆︁ ∑︁ ∑︁ ∑︁
𝜇(𝐴) = 𝜇𝑗 (𝐴𝑖 ∩ 𝐵𝑗 ) = 𝜇𝑗 (𝐴𝑖 ∩ 𝐵𝑗 ) = 𝜇𝑗 (𝐴𝑖 ∩ 𝐵𝑗 ) = 𝜇(𝐴𝑖 )
𝑗=1 𝑖=1 𝑗=1 𝑖=1 𝑖=1 𝑗=1 𝑖=1

ФПМИ МФТИ, осень 2022 36


Основы вероятности и теории мер Назад к содержанию

3. По построению

Свойства мер

Определение 4.19. Конечная ⋂︀∞мера 𝜇 на кольце 𝑅 называется непрерывной, если ∀{𝐴𝑖 }𝑖=1 ⊆
𝑅, 𝐴𝑖 ⊇ 𝐴𝑖+1 , обозначив 𝐴 = 𝑖=1 𝐴𝑖 , верно следующее условие:

𝜇(𝐴) = lim 𝜇(𝐴𝑛 )


𝑛→∞

Замечание. В курсе математического анализа мы вводили предел на множествах. В част-


ности, в определении выше можно было написать 𝐴 = lim𝑛→∞ 𝐴𝑛 вместо пересечения всех
множеств.
Теорема 4.14. Конечная мера 𝜇 на кольце 𝑅 непрерывна тогда и только тогда, когда 𝜇
является 𝜎-аддитивной конечной мерой.
Доказательство. Должно быть на семинарах. К сессии ближе появится.
Замечание. Очень важно, что мы говорим про конечные меры. Для 𝜎-конечных мер
теорема не верна. Банальный пример: рассмотрим последовательность правых лучей 𝐴𝑛 =
(𝑛; +∞). Тогда 𝐴 = lim𝑛→∞ 𝐴𝑛 = ∅, но при этом 𝜇(𝐴𝑛 ) = +∞ при любом 𝑛 ∈ N.
Определение 4.20. Мера 𝜇 на кольце 𝑅 называется полной, если для любого 𝐴 ∈
𝑅 : 𝜇(𝐴) = 0 верно, что
∀𝐵 ⊂ 𝐴 ⇒ 𝐵 ∈ 𝑅 ∧ 𝜇(𝐵) = 0
Замечание. Если в определении выше 𝐵 ∈ 𝑅, то уже автоматически 0 ⩽ 𝜇(𝐵) ⩽ 𝜇(𝐴) ⩽
0, поэтому требование на меру излишне.
Утверждение 4.7. Имеет место 2 факта:
1. Мера Лебега полна

2. Мера Бореля неполна


Доказательство. Доказательство проведём для случая, когда меры Лебега и Бореля стро-
ятся по 𝜎-конечной мере, как более сложный случай. Поэтому пусть 𝐸 - это объемлющее
множество, 𝑆 - полукольцо на 𝐸 такое, что 𝐸 ∈
/ 𝑆, а также 𝑚 — это 𝜎-конечная мера на
этом полукольце.
1. По уже сказанному в этом параграфе

⨆︁
𝐸= 𝐵𝑘 , 𝐵𝑘 ∈ 𝑅(𝑆), 𝜈(𝐵𝑘 ) < ∞
𝑘=1

По этим данным мы строим меру Лебега 𝜇 — 𝜎-конечная мера на 𝑀 . Возьмём 𝐴 ∈ 𝑀 ,


𝜇(𝐴) = 0 и произвольное 𝐵 ⊂ 𝐴. Тогда, зафиксировав произвольный 𝜀 > 0, мы всегда
можем взять 𝐵𝜀 = ∅ ∈ 𝑅(𝑆). По определению измеримости

∀𝑗 ∈ N 𝐴 ∩ 𝐵𝑗 ∈ 𝑀𝑗

ФПМИ МФТИ, осень 2022 37


Основы вероятности и теории мер Назад к содержанию

Точно такое же утверждение надо доказать для 𝐵. Для этого заметим вложение
(𝐵 ∩ 𝐵𝑗 ) ⊂ (𝐴 ∩ 𝐵𝑗 ), а так как 𝐵𝑗 является единицей осоответствующего кольца с
мерой Лебега 𝜇𝑗 , то

∀𝑗 ∈ N 0 ⩽ 𝜇*𝑗 (𝐵 ∩ 𝐵𝑗 ) ⩽ 𝜇*𝑗 (𝐴 ∩ 𝐵𝑗 ) = 𝜇𝑗 (𝐴 ∩ 𝐵𝑗 ) ⩽ 𝜇(𝐴) = 0

Стало быть, 𝐵 ∩ 𝐵𝑗 ∈ 𝑀𝑗 для любого 𝑗 ∈ N, ну а тогда по определению 𝐵 ∈ 𝑀 .

2. Потенциально появится ниже, здесь лектор решил пока доказательство не давать.

Напоминание. Пусть 𝜆 — это классическая мера Лебега на R. Тогда ∀𝐴 ⊆ [0; 1] суще-


ствует неизмеримое подмножество 𝐹 ⊆ 𝐴.

Замечание. По сути это построение множества Витали. Подробное доказательство можно


найти в конспекте по математическому анализу А. Л. Лукашова

Теорема 4.15. (Структура измеримых множеств) Пусть 𝜇 — это 𝜎-конечная мера


Лебега на 𝜎-алгебре 𝑀 , полученная продолжением 𝜎-конечной меры 𝑚 полукольца 𝑆.
Тогда, любое множество 𝐴 ∈ 𝑀 , 𝜇(𝐴) < ∞ можно записать в таком виде:
∞ ⋃︁
⋂︁ ∞
𝐴= 𝐴𝑖,𝑗 ∖𝐴0
𝑖=1 𝑗=1

где

◁ 𝐴𝑖,𝑗 ∈ 𝑅(𝑆)

◁ ∀𝑖 ∈ N 𝐴𝑖,1 ⊆ 𝐴𝑖,2 ⊆ . . .

◁ 𝐵𝑖 := ∞
⋃︀
𝑗=1 𝐴𝑖,𝑗 , тогда 𝐵1 ⊇ 𝐵2 ⊇ . . .

◁ 𝐴0 ∈ 𝑀 , 𝜇(𝐴0 ) = 0

Доказательство. В силу того, что 𝐴 ∈ 𝑀 и 𝑆 ⊆ 𝑀 , мы можем потребовать из определе-


ния верхней меры Лебега такое свойство:

⋃︁ ⃒ 1
∀𝑖 ∈ N ∃𝐶𝑖 = 𝐷𝑖,𝑗 , 𝐷𝑖,𝑗 ∈ 𝑆 ⃒ 𝜇(𝐶𝑖 ) < 𝜇(𝐴) +
𝑗=1 ⏟ ⏞ 𝑖
𝜇(𝐶𝑖 ∖𝐴)<1/𝑖

За 𝐵𝑖 положим 𝐵𝑖 = 𝑖𝑟=1 𝐶𝑟 . Эту невозрастающую последовательность тоже можно за-


⋂︀
писать через счётное объединение элементов полукольца:

⋃︁ ∞
⋃︁ ∞
⋃︁
𝐵𝑖 = ··· 𝐷𝑖,𝑗1 ∩ . . . ∩ 𝐷𝑖,𝑗𝑖 = 𝐸𝑖,𝑗 , 𝐸𝑖,𝑗 ∈ 𝑆
𝑗1 =1 𝑗𝑖 =1 𝑗=1

Здесь мы явно записали пересечение всех 𝐶𝑟 , образующих 𝐵𝑖 , как всевозможные пересе-


чения их кусочков. Конечное декартово счётных множеств счётно, а потому после пере-
нумерации 𝐸𝑖,𝑗 (в 𝑗 закодированы конкретные значения 𝑗1 , . . . , 𝑗𝑟 ) будут тоже элементами

ФПМИ МФТИ, осень 2022 38


Основы вероятности и теории мер Назад к содержанию

полукольца. Заметим, что 𝜇(𝐵1 ) = 𝜇(𝐶1 ) < ∞, а поэтому можно применить непрерывность
меры: (︃ ∞ )︃ (︃ 𝑛 )︃
⋂︁ ⋂︁
𝜇 𝐵𝑖 ∖𝐴 = lim 𝜇 𝐵𝑖 ∖𝐴
𝑛→∞
𝑖=1 𝑖=1

Если мы докажем, что мера множества слева равна нулю, то мы его смело кладём за
𝐴0 ∈ 𝑀 из условия теоремы и побеждаем. Для этого произведём оценку того, что у нас в
пределе: (︃ 𝑛 )︃
⋂︁ 1
𝜇 𝐵𝑖 ∖𝐴 ⩽ 𝜇(𝐵𝑛 ∖𝐴) ⩽ 𝜇(𝐶𝑛 ∖𝐴) <
𝑖=1
𝑛
Ну и всё, значит, предел равен нулю. Однако, 𝐸𝑖,𝑗 при фиксированном⋃︀𝑖 не удовлетворяют
условиям теоремы. Чтобы обойти этот момент, надо положить 𝐴𝑖,𝑗 = 𝑗𝑟=1 𝐸𝑖,𝑟 . Очевидно,
что объединение таких множеств по 𝑗 всё ещё будет 𝐵𝑖 , они точно лежат в 𝑅(𝑆) и образуют
неубывающую последовательность.

Теорема 4.16. (Каратеодори) Пусть 𝑚 — это 𝜎-конечная мера на полукольце 𝑆 подмно-


жеств 𝐸. Тогда утверждается, что существует и единственна 𝜇 — 𝜎-конечная мера
на 𝜎(𝑆), согласованная с 𝑚.

Замечание. Согласованность означает, что ∀𝐴 ∈ 𝑆 𝜇(𝐴) = 𝑚(𝐴). Отдельно отметим,


что теорема Каратеодори в такой формулировке является слабой. Это сделано для того,
чтобы не переусложнять материал.

Доказательство.

◁ Существование. Мы уже построили 𝜇 — мера Лебега, согласованная с 𝑚, на 𝜎-алгебре


𝑀 — в данном случае множество измеримых подмножеств 𝐸. Так как 𝜎(𝑆) ⊆ 𝑀 , то
ограничение 𝜇 на 𝜎(𝑆) даёт требуемое.

◁ Единственность. Мы работаем с 𝜎-конечной мере в 𝜎-алгебре, а это даёт такой факт:



⨆︁
𝐸= 𝐵𝑖 , 𝐵𝑖 ∈ 𝑅(𝑆) ∧ 𝜇(𝐵𝑖 ) < ∞
𝑖=1

Предположим, что единственность неверна. Тогда ∃𝐴 ∈ 𝜎(𝑆) ⃒ 𝜇(𝐴) ̸= 𝜇′ (𝐴). Рассмот-
рим случай, когда 𝜇(𝐴) < ∞ (в противном случае мы пользуемся рассуждениями
ниже для всех 𝐴 ∩ 𝐵𝑖 ∈ 𝑅(𝑆) ⊆ 𝜎(𝑆) и этого достаточно). Это позволяет применить
теорему о структуре измеримого множества:
∞ ⋃︁
⋂︁ ∞
𝐴= 𝐴𝑖,𝑗 ∖𝐴0
𝑖=1 𝑗=1

где 𝐴0 ∈ 𝜎(𝑆) тоже. Это уже ставит вопрос: «Почему 𝜇′ (𝐴0 ) = 0?» Воспользуемся
свойством определения меры Лебега:

⋃︁ ∞
⃒ ∑︁
∀𝜀 > 0 ∃ 𝐶𝑖 ⊇ 𝐴 0 ⃒ 𝑚(𝐶𝑖 ) < 𝜀
𝑖=1 𝑖=1
⏟ ⏞
∈𝜎(𝑆)

ФПМИ МФТИ, осень 2022 39


Основы вероятности и теории мер Назад к содержанию

При этом 𝜇′ обладает 𝜎-полуаддитивностью. Стало быть, есть неравенство



∑︁ ∞
∑︁
′ ′
𝜇 (𝐴0 ) ⩽ 𝜇 (𝐶0 ) = 𝑚(𝐶0 ) < 𝜀 =⇒ 𝜇′ (𝐴0 ) = 0
𝑖=1 𝑖=1

Теперь, вернёмся к мере 𝜇′ (𝐴):


(︃ ∞ ∞ )︃ (︃ ∞ ∞ )︃
⋂︁ ⋃︁ ⋂︁ ⋃︁
𝜇′ (𝐴) = 𝜇′ 𝐴𝑖,𝑗 ∖𝐴0 = 𝜇′ 𝐴𝑖,𝑗 = lim lim 𝜇′ (𝐴𝑖,𝑗 )
𝑖→∞ 𝑗→∞
𝑖=1 𝑗=1 𝑖=1 𝑗=1

В последнем выражении 𝜇′ (𝐴𝑖,𝑗 ) = 𝜇(𝐴𝑖,𝑗 ), так как 𝐴𝑖,𝑗 ∈ 𝑅(𝑆), а для минимального
кольца мы уже установили единственность согласованной меры ранее. Повторяя все
равенство в обратную сторону для другой меры, установим равенство 𝜇(𝐴) = 𝜇′ (𝐴),
противоречие.

4.5 Измеримые функции


Замечание. Измеримые функции нужны нам для того, чтобы разрешить проблемы, воз-
никающие со случайными величинами в теории вероятности.
Определение 4.21. Тройка (𝑋, 𝑀, 𝜇), где
◁ 𝑋 — произвольное множество

◁ 𝑀 — 𝜎-алгебра на 𝑋

◁ 𝜇 — 𝜎-аддитивная мера на 𝑀
называется измеримым пространством.
Замечание. Стоит отметить, что некоторые свойства мы не гарантируем. Например, пол-
ноту - совсем необязательно любое подмножество множества нулевой меры будет тоже
иметь меру 0 (или даже измеримо).
Определение 4.22. Пусть (𝑋, 𝑀, 𝜇) — измеримое пространство, 𝐴 ∈ 𝑀 . Функция 𝑓 : 𝐴 →
R называется измеримой, когда выполняется условие:

∀𝑐 ∈ R 𝑓 −1 ((𝑐; +∞]) ∈ 𝑀

Лемма 4.5. (О прообразах измеримой функции) Пусть 𝑓 — измеримая функция на из-


меримом пространстве (𝑋, 𝑀, 𝜇). Тогда 𝑓 −1 (⟨𝑎; 𝑏⟩) ∈ 𝑀 , в том числе 𝑓 −1 ({±∞}).
Доказательство. Идея состоит в том, чтобы выразить всё через уже имеющееся не более
чем счётным числом операций:
◁ ∀𝑎 < 𝑏 ∈ R 𝑓 −1 ((𝑎; 𝑏]) = 𝑓 −1 ((𝑎; +∞])∖𝑓 −1 ((𝑏; +∞]) ∈ 𝑀

◁ ∀𝑎 < 𝑏, 𝑎 ∈ 𝑅, 𝑏 ∈ R 𝑓 −1 ((𝑎; 𝑏)) = ∞ −1 1


⋂︀ (︀(︀ ]︀)︀
𝑛=1 𝑓 𝑎; 𝑏 + 𝑛
∈𝑀

◁ ∀𝑐 ∈ R 𝑓 −1 ([−∞; 𝑐]) ⊔ 𝑓 −1 ((𝑐; +∞]) = 𝑋 ∈ 𝑀 =⇒ 𝑓 −1 ([−∞; 𝑐]) ∈ 𝑀

ФПМИ МФТИ, осень 2022 40


Основы вероятности и теории мер Назад к содержанию

⋂︀∞
◁ ∀𝑐 ∈ R 𝑓 −1 ([−∞; 𝑐)) = 𝑓 −1 −∞; 𝑐 + 𝑛1 ∈ 𝑀
(︀[︀ ]︀)︀
𝑛=1

◁ ∀𝑎 < 𝑏 ∈ R 𝑓 −1 ([𝑎; 𝑏)) = 𝑓 −1 ([−∞; 𝑏))∖𝑓 −1 ([−∞; 𝑎)) ∈ 𝑀

◁ И так далее. Может быть допишу остальные случаи

Теорема 4.17. Пусть (𝑋, 𝑀, 𝜇) — измеримое пространство, а 𝑓 — измеримая функция


на нём. Тогда
∀𝐵 ∈ B(R) 𝑓 −1 (𝐵) ∈ 𝑀

Замечание. Обычно именно это свойство измеримой функции берут за определение, но


мы взяли усиленное. Особенность в том, что старый способ доказательства измеримости
не пройдёт — мы просто не знаем, как устроены множества борелевской сигма-алгебры.
Потребуется новая техника: принцип подходящих множеств.

Определение 4.23. Зафиксируем измеримое пространство (𝑋, 𝑀, 𝜇) и какую-то функ-


цию 𝑓 на нём. Системой подходящих множеств 𝑆 называется следующее:

𝑆 = {𝐴 ⊆ R ⃒ 𝑓 −1 (𝐴) ∈ 𝑀 }

Утверждение 4.8. Если задано измеримое пространство (𝑋, 𝑀, 𝜇) и измеримая функ-


ция 𝑓 на нём, то система подходящих множеств обладает следующими свойствами:

◁ R∈𝑆

◁ 𝑆 является 𝜎-алгеброй

Доказательство.

◁ Уже доказано выше, ибо (−∞; +∞) = R

◁ Верны следующие равенства:


(︃ ∞ )︃ ∞
⋂︁ ⋂︁
−1
𝑓 𝐴𝑖 = 𝑓 −1 (𝐴𝑖 )
(︃𝑖=1

)︃ 𝑖=1

i i
𝑓 −1 𝐴𝑖 = 𝑓 −1 (𝐴𝑖 )
𝑖=1 𝑖=1

Доказательство. (теоремы) Что мы ещё можем сказать про 𝑆? Оно содержит по уже
доказанному факту все интервалы из R. То же самое делает B(R), при этом борелевская 𝜎-
алгебра является минимальной. Стало быть, B(R) ⊆ 𝑆 и всё доказано автоматически.
⨆︀
Напоминание. Если 𝐴 ⊆ R, то 𝐴 = 𝑖 (𝑎𝑖 ; 𝑏𝑖 ), 𝑎𝑖 < 𝑏𝑖 ∈ R.

Напоминание. Если взять измеримое пространство (R, 𝑀𝜆 , 𝜆), где 𝜆 — это классиче-
ская мера Лебега, то любая непрерывная функция 𝑓 : 𝐴 → R, определенная на открытом
множестве 𝐴 ⊆ R будет измеримой.

ФПМИ МФТИ, осень 2022 41


Основы вероятности и теории мер Назад к содержанию

Определение 4.24. Функция 𝑓 : R → R называется борелевской, если выполнено следу-


ющее условие:
∀𝐵 ∈ B(R) 𝑓 −1 (𝐵) ∈ B(R)
Утверждение 4.9. Любая непрерывная функция 𝑓 : 𝐴 → R, определённая на открытом
множестве 𝐴 ⊆ R, является борелевской
Доказательство. Вроде очевидно, но может быть потом добавлю.
Теорема 4.18. Пусть 𝑓 : 𝐴 → R — это измеримая и конечная функция на измеримом
пространстве (𝑋, 𝑀, 𝜇), Ran 𝑓 ⊆ 𝐺 ⊆ R, где 𝐺 — открытое множество, и ещё есть 𝑔
— борелевская функция, определённая на 𝐺. Тогда 𝑔 ∘ 𝑓 является измеримой функцией
на 𝐴.
Доказательство. Достаточно зафиксировать произвольное 𝑐 ∈ R и посмотреть прообраз
𝑔 ∘ 𝑓 на луче (𝑐; +∞):

(𝑔 ∘ 𝑓 )−1 (𝑐; +∞) = 𝑓 −1 (𝑔 −1 (𝑐; +∞)) ∈ B(R)


⏟ ⏞
∈B(R)

Теорема 4.19. (Арифметические свойства измеримых функций) Если 𝑓, 𝑔 — измери-


мые и конечные функции на измеримом пространстве (𝑋, 𝑀, 𝜇). Тогда имеют место
следующие свойства:
◁ ∀𝛼, 𝛽 ∈ R 𝛼 · 𝑓 + 𝛽 · 𝑔 — измеримая и конечная функция
◁ 𝑓 · 𝑔 — измеримая и конечная функция
◁ Если дополнительно 𝑔(𝑋) ̸ ∋ 0, то 𝑓 /𝑔 — измеримая и конечная функция
Доказательство. ◁ Проведём доказательство в несколько пунктов:
1. ∀𝑎, 𝑐 ∈ R 𝑎 · 𝑓 + 𝑐 — измеримая и конечная функция. Тривиально

2. Множество 𝐴 = {𝑥 ∈ 𝑋 ⃒ 𝑓 (𝑥) > 𝑔(𝑥)} измеримо. Действительно, его можно
записать таким образом:

⋃︁
⃒ (︀ ⃒ ⃒ )︀
𝐴 = {𝑥 ∈ 𝑋 𝑓 (𝑥) > 𝑔(𝑥)} =
⃒ {𝑥 ∈ 𝑋 ⃒ 𝑓 (𝑥) > 𝑟𝑛 } ∪ {𝑥 ∈ 𝑋 ⃒ 𝑔(𝑥) < 𝑟𝑛 } ∈ 𝑀
𝑛=1

где 𝑟𝑛 ∈ Q и мы обходим все рациональные числа R.


3. Достаточно рассмотреть случай 𝛼 = 𝛽 = 1 в силу первого пункта. Распишем
∀𝑐 ∈ R измеримость по определению:
⃒ ⃒
{𝑥 ∈ 𝑋 ⃒ 𝑓 (𝑥) + 𝑔(𝑥) > 𝑐} = {𝑥 ∈ 𝑋 ⃒ 𝑓 (𝑥) > 𝑐 − 𝑔(𝑥)} ∈ 𝑀
⏟ ⏞
𝑔 ′ (𝑥)

◁ Воспользуемся трюком:
(𝑓 + 𝑔)2 − (𝑓 − 𝑔)2
𝑓 ·𝑔 =
4
Это измеримая функция, потому что композицию и сумму функций мы уже обосно-
вали (𝑓 − 𝑔 = 𝑓 + (−𝑔)).

ФПМИ МФТИ, осень 2022 42


Основы вероятности и теории мер Назад к содержанию

◁ То же самое, что и в предыдущем пункте:

𝑓 /𝑔 = 𝑓 · (1/𝑔)

А функция 1/𝑔 = (1/𝑥) ∘ 𝑔

Теорема 4.20. Пусть {𝑓𝑛 }∞


𝑛=1 — измеримая последовательность функций (с возможно
бесконечными значениями) на измеримом пространстве (𝑋, 𝑀, 𝜇). Утверждается, что
обе функции

𝜙(𝑥) = sup 𝑓𝑛 (𝑥)


𝑛∈N

𝜓(𝑥) = lim 𝑓𝑛 (𝑥)


𝑛→∞

являются измеримыми.

Замечание. Естественно, то же самое верно для inf и lim.

Доказательство. Для 𝜙(𝑥) можно записать прообраз луча таким образом:



⋃︁
⃒ ⃒
∀𝑐 ∈ R {𝑥 ∈ 𝑋 𝜙(𝑥) > 𝑐} =
⃒ {𝑥 ∈ 𝑋 ⃒ 𝑓𝑛 (𝑥) > 𝑐} ∈ 𝑀
𝑛=1

Для 𝜓(𝑥) надо воспользоваться эквивалентным определением верхнего предела. Для этого
введём 𝜓𝑘 (𝑥) = sup𝑛⩾𝑘 𝑓𝑛 (𝑥). Тогда 𝜓(𝑥) = lim𝑘→∞ 𝜓𝑘 (𝑥) и можно записать прообраз луча
так: ∞ ⋂︁∞ {︂ }︂
⃒ ⋃︁ ⃒ 1
{𝑥 ∈ 𝑋 𝜓(𝑥) > 𝑐} =
⃒ 𝑥 ∈ 𝑋 𝜓𝑘 (𝑥) > 𝑐 +

𝑟=1 𝑘=1
𝑟

Следствие. В рамках условий теоремы, 𝐹 = lim𝑛→∞ 𝑓𝑛 (𝑥) будет измеримой функцией на


том множестве, на котором существует предел (необязательно конечный).

Доказательство. Мы уже доказали, что функции 𝜓(𝑥) = lim𝑛→∞ 𝑓𝑛 (𝑥) и 𝜉(𝑥) = lim𝑛→∞ 𝑓𝑛 (𝑥)
измеримы на 𝑋. Чтобы установить измеримость 𝐹 , надо сначала показать измеримость
множества её определения 𝐴, то есть
⃒ (︁ ⃒ ⃒ )︁
𝐴 = {𝑥 ∈ 𝑋 𝜓(𝑥) = 𝜉(𝑥)} = 𝑋∖ {𝑥 ∈ 𝑋 𝜓(𝑥) > 𝜉(𝑥)} ⊔ {𝑥 ∈ 𝑋 𝜓(𝑥) < 𝜉(𝑥)} ∈ 𝑀
⃒ ⃒ ⃒

Теперь заметим, что (𝐴, 𝐴 ∩ 𝑀, 𝜇) — это тоже измеримое пространство, на котором 𝜓


и 𝜉 остаются измеримыми. Так как 𝐹 совпадает на 𝐴 с этими функциями, то она тоже
измерима.
⨆︀ ⨆︀2𝑛−1 𝑛
Напоминание. Тут что-то перепутано, потом допишу. 𝐺 = ∞ 𝑖=1 𝑘=1 𝐼𝑘 — дополнение
канторова множества, где 𝐼𝑘𝑛 — это интервал ((2𝑘 −1)/3𝑛 ; 2𝑘/3𝑛 ). Множество 𝑃 = [0; 1]∖𝐺
называется множеством Кантора. Про эту пару известны следующие свойства:

1. 𝐺 — открытое множество, 𝑃 — замкнутое

ФПМИ МФТИ, осень 2022 43


Основы вероятности и теории мер Назад к содержанию

2. 𝑃 нигде не плотно (то есть для любого интервала найдётся подинтервал, не содержа-
щий элементы 𝑃 )

3. 𝑃 континуально. Существует биекция в последовательности {0, 1}∞

4. 𝜆(𝑃 ) = 0

ФПМИ МФТИ, осень 2022 44

Вам также может понравиться