Вы находитесь на странице: 1из 300

И. В.

ХРУЩЁВА

ТЕОРИЯ
ВЕРОЯТНОСТЕЙ
УЧЕБНОЕ ПОСОБИЕ

• САНКТПЕТЕРБУРГ •
• МОСКВА •
• КРАСНОДАР •
2009
ÁÁÊ 22.171ÿ73
Õ 95

Õðóù¸âà È. Â.
Õ 95 Òåîðèÿ âåðîÿòíîñòåé: Ó÷åáíîå ïîñîáèå. — ÑÏá.: Èç-
äàòåëüñòâî «Ëàíü», 2009. — 304 ñ.: èë. — (Ó÷åáíèêè äëÿ
âóçîâ. Ñïåöèàëüíàÿ ëèòåðàòóðà).

ISBN 978-5-8114-0915-0

Íàñòîÿùåå ó÷åáíîå ïîñîáèå îáåñïå÷èâàåò êóðñ òåîðèè âåðîÿòíî-


ñòåé, ðàññ÷èòàííûé íà 60–70 ÷. Èçëîæåíèå ìàòåðèàëà âåäåòñÿ íà äâóõ
óðîâíÿõ. Àâòîð ïîñîáèÿ ñòðåìèëñÿ îáðàòèòü âíèìàíèå ÷èòàòåëÿ íà
òå àñïåêòû òåîðèè, íà êîòîðûå íå îñòàåòñÿ âðåìåíè íà ëåêöèÿõ. ßçûê
ïîñîáèÿ àäàïòèðîâàí ê ñîâðåìåííîìó óðîâíþ ó÷àùèõñÿ.
Ïîñîáèå ïðåäíàçíà÷åíî äëÿ ñòóäåíòîâ òåõíè÷åñêèõ ñïåöèàëüíî-
ñòåé âóçîâ.
ÁÁÊ 22.171ÿ73

Îôîðìëåíèå îáëîæêè
À. ËÀÏØÈÍ

Îõðàíÿåòñÿ çàêîíîì ÐÔ îá àâòîðñêîì ïðàâå.


Âîñïðîèçâåäåíèå âñåé êíèãè èëè ëþáîé åå ÷àñòè
çàïðåùàåòñÿ áåç ïèñüìåííîãî ðàçðåøåíèÿ èçäàòåëÿ.
Ëþáûå ïîïûòêè íàðóøåíèÿ çàêîíà
áóäóò ïðåñëåäîâàòüñÿ â ñóäåáíîì ïîðÿäêå.

© Èçäàòåëüñòâî «Ëàíü», 2009


© È. Â. Õðóù¸âà, 2009
© Èçäàòåëüñòâî «Ëàíü»,
õóäîæåñòâåííîå îôîðìëåíèå, 2009
ОГЛАВЛЕНИЕ

Предисловие 7

Глава 1 . Случайные события и аксиомы теории ве-


роятностей 9
§ 1. История и цели . . . . . . . . . . . . . . . . . . 9
§ 2. Случайность и вероятность. Случайный экспе-
римент . . . . . . . . . . . . . . . . . . . . . . 12
§ 3. Частота и вероятность . . . . . . . . . . . . . . 15
§ 4. Случайные события и действия с ними . . . . . 17
§ 5. Аксиомы теории вероятностей. Вероятностное
пространство . . . . . . . . . . . . . . . . . . . 29
§ 6. Простейшие свойства вероятности. Теорема
сложения . . . . . . . . . . . . . . . . . . . . . 34
§ 7. Классическое определение вероятности (схема
равновозможных исходов) . . . . . . . . . . . 39
§ 8. Элементы комбинаторики . . . . . . . . . . . . 43
8.1. Теорема умножения . . . . . . . . . . . . 43
8.2. Размещения . . . . . . . . . . . . . . . . 43
8.3. Перестановки . . . . . . . . . . . . . . . 44
8.4. Сочетания . . . . . . . . . . . . . . . . . 45
8.5. Применение комбинаторики к решению
задач . . . . . . . . . . . . . . . . . . . 46
§ 9. Геометрическая вероятность . . . . . . . . . . 49
§ 10. Условная вероятность. Теорема умножения . . 51
§ 11. Независимые события . . . . . . . . . . . . . . 54
§ 12. Формула полной вероятности
и формула Байеса . . . . . . . . . . . . . . . . 59
§ 13. Испытания Бернулли . . . . . . . . . . . . . . 64

3
4 Теория вероятностей

Глава 2 . Случайные величины и функции от них 70


§ 14. Определение случайной величины . . . . . . . 71
§ 15. Функция распределения случайной величины и
ее свойства . . . . . . . . . . . . . . . . . . . . 75
§ 16. Дискретные случайные величины . . . . . . . . 81
§ 17. Функция распределения дискретной случайной
величины . . . . . . . . . . . . . . . . . . . . . 89
§ 18. Функции дискретных случайных величин . . . 92
§ 19. Математическое ожидание дискретной случай-
ной величины . . . . . . . . . . . . . . . . . . . 94
§ 20. Свойства математического ожидания . . . . . 97
§ 21. Дисперсия дискретной случайной величины . . 99
§ 22. Свойства дисперсии . . . . . . . . . . . . . . . 101
§ 23. Центрированная и нормированная случайная
величина . . . . . . . . . . . . . . . . . . . . . 104
§ 24. Моменты дискретных случайных величин. . . . 105
§ 25. Важнейшие типы дискретных распределений . 108
25.1. Вырожденное распределение . . . . . . . 108
25.2. Распределение Якоба Бернулли . . . . . . 109
25.3. Биномиальное распределение . . . . . . . 110
25.4. Распределение Пуассона . . . . . . . . . 111
25.5. Геометрическое распределение . . . . . . 112
§ 26. Непрерывные случайные величины . . . . . . 114
§ 27. Функции непрерывных случайных величин . . 128
§ 28. Математическое ожидание непрерывной слу-
чайной величины и функции непрерывной слу-
чайной величины . . . . . . . . . . . . . . . . . 135
§ 29. Дисперсия и другие моменты непрерывных слу-
чайных величин . . . . . . . . . . . . . . . . . 144
§ 30. Важнейшие законы непрерывных распределе-
ний . . . . . . . . . . . . . . . . . . . . . . . . 148
30.1. Равномерное распределение . . . . . . . . 148
30.2. Экспоненциальное (показательное) распре-
деление . . . . . . . . . . . . . . . . . . 151
30.3. Нормальное (гауссовское) распределение . 153
30.4. Распределение Коши . . . . . . . . . . . 160
30.5. Распределение Рэлея . . . . . . . . . . . 162
30.6. Бета-распределение . . . . . . . . . . . . 164
§ 31. Линейная функция от гауссовской (нормальной)
случайной величины . . . . . . . . . . . . . . . 167
ОГЛАВЛЕНИЕ 5

Глава 3 . Случайные векторы (системы случайных


величин) 171
§ 32. Понятие случайного вектора и его функции рас-
пределения . . . . . . . . . . . . . . . . . . . . 171
§ 33. Дискретные случайные векторы . . . . . . . . 179
33.1. Матрица распределения дискретного случай-
ного вектора . . . . . . . . . . . . . . . . 179
33.2. Маргинальные — частные, одномерные
(безусловные) распределения дискретных
случайных величин, входящих в систему . . 182
33.3. Условные распределения дискретных слу-
чайных величин, входящих в систему . . . 184
33.4. Условные математические ожидания дис-
кретных случайных величин . . . . . . . . 186
33.5. Функции двух дискретных случайных вели-
чин . . . . . . . . . . . . . . . . . . . . . 189
33.6. Смешанные моменты системы дискретных
случайных величин . . . . . . . . . . . . 190
§ 34. Непрерывные случайные векторы . . . . . . . 194
34.1. Основные определения. Свойства двумерной
плотности . . . . . . . . . . . . . . . . . 195
34.2. Маргинальные — частные, одномерные
(безусловные) распределения непрерывных
случайных величин, входящих в систему . . 204
34.3. Условные распределения непрерывных слу-
чайных величин, входящих в систему . . . 208
34.4. Условные математические ожидания непре-
рывных случайных величин . . . . . . . . 212
34.5. Независимость случайных величин, входя-
щих в систему . . . . . . . . . . . . . . . 214
§ 35. Функции двух непрерывных случайных величин 224
35.1. Алгоритм поиска распределения функции
двух непрерывных случайных величин . . . 224
35.2. Распределение суммы случайных величин.
Композиция законов распределения . . . . 230
35.3. Математическое ожидание функции двух
случайных аргументов. Математическое
ожидание суммы и произведения непрерыв-
ных случайных величин . . . . . . . . . . 235
§ 36. Числовые характеристики случайного вектора 239
36.1. Смешанные моменты системы непрерывных
случайных величин . . . . . . . . . . . . 239
36.2. Свойства корреляционного момента. Некор-
релированность случайных величин . . . . 244
36.3. Коэффициент корреляции и его свойства . 247
36.4. Математическое ожидание, дисперсия и кор-
реляционная матрица n-мерного случайного
вектора . . . . . . . . . . . . . . . . . . 250
§ 37. Линеаризация функций случайных аргументов 256
37.1. Линеаризация функций одной случайной
величины . . . . . . . . . . . . . . . . . 256
37.2. Линеаризация функции двух случайных ар-
гументов . . . . . . . . . . . . . . . . . . 257
§ 38. Важнейшие двумерные законы распределения 258
38.1. Равномерное распределение в области . . 258
38.2. Нормальное распределение на плоскости
(распределение Гаусса) . . . . . . . . . . 260

Глава 4 . Предельные теоремы теории вероятностей 265


§ 39. Виды вероятностной сходимости . . . . . . . . 265
§ 40. Неравенство Чебышëва . . . . . . . . . . . . . 268
§ 41. Закон больших чисел . . . . . . . . . . . . . . 273
§ 42. Центральная предельная теорема . . . . . . . 277
§ 43. Предельные теоремы для последовательности
испытаний Бернулли . . . . . . . . . . . . . . . 281
43.1. Теорема Якоба Бернулли . . . . . . . . . 281
43.2. Теоремы Муавра–Лапласа . . . . . . . . 283
43.3. Теорема Пуассона . . . . . . . . . . . . . 288

Приложение 293

Литература 299
ПРЕДИСЛОВИЕ

Настоящее учебное пособие обеспечивает курс теории веро-


ятностей, рассчитанный на 60–70 часов. Оно содержит четыре
главы: «Случайные события и аксиомы теории вероятностей»,
«Случайные величины», «Случайные векторы (системы случай-
ных величин)» и «Предельные теоремы теории вероятностей».
Предполагается знание основ аналитической геометрии и линей-
ной алгебры; теории множеств; дифференциального и интеграль-
ного исчисления функций одной и нескольких переменных; тео-
рии числовых и функциональных рядов; методов исследования
асимптотического поведения функций и их применения для ис-
следования сходимости несобственных интегралов и рядов. Из-
ложение ведется на двух уровнях. Рассуждения, доказательства,
формулировки, отмеченные ∗, рассчитаны на тех учащихся, ко-
торые хотят глубже и несколько шире изучить материал. При
первичном изучении курса их можно опустить. Язык и стро-
гость изложения адаптированы для обучающихся на факульте-
тах с объемом программы по основному курсу высшей матема-
тики порядка 500 часов. Для тех, кого интересует более высокий
уровень строгости, есть ссылки на литературу.
Автор пособия стремился обратить внимание любознатель-
ного читателя на те аспекты теории, на которые не остается
времени на лекциях, которые редко освещаются в учебной ли-
тературе, так как считаются очевидными, но которые важны для
вероятностного понимания основных прикладных вопросов дис-
циплины и которые большинству начинающих далеко не оче-
видны.
В классических курсах теории вероятностей случайные вели-
чины, случайные векторы и функции от случайных величин сна-
чала изучаются полностью на уровне распределений, и только
после этого рассматриваются числовые характеристики в одно-
мерном и многомерном случаях. Такой порядок изучения предпо-
лагает наличие достаточно большого числа часов для практиче-
ских занятий с возвращением к уже изученным распределениям
8 Теория вероятностей

в связи с появлением числовых характеристик. При ограничен-


ном числе часов для технических специальностей, по мнению ав-
тора, целесообразно каждое распределение сразу изучать пол-
ностью, учитывая зависимость «поведения» случайных величин
и их числовых характеристик. С этой целью в пособии приня-
то иное построение курса. Функции от случайных величин, чис-
ловые характеристики и их свойства изучаются параллельно с
распределениями случайных величин и векторов. По этой при-
чине доказательства некоторых фактов (например, линейности
математического ожидания для непрерывных случайных вели-
чин) пришлось вынести за пределы разделов, в которых они бы-
ли сформулированы. С этой же целью — обеспечения практиче-
ских занятий — определение и некоторые свойства независимых
случайных величин постулированы ранее их классического ме-
стоположения.
Автор выражает глубокую признательность всему коллекти-
ву кафедры математики академии им. А. Ф. Можайского, актив-
ные обсуждения в котором теоретических вопросов и задач по-
могли написанию этого пособия.
Глава 1

СЛУЧАЙНЫЕ СОБЫТИЯ
И АКСИОМЫ ТЕОРИИ
ВЕРОЯТНОСТЕЙ

§ 1. ИСТОРИЯ И ЦЕЛИ

Один молодой отец принес своего сына к мудрецу и спросил:


«Скажи, о мудрец, на каких положительных примерах должен
я воспитывать своего сына, чтобы он вырос достойным че-
ловеком?». «Воспитывай лучше на отрицательных!» — ответил
мудрец.
Так уж повелось в истории человечества, что отрицательные
черты людских характеров нередко являлись стимулом прогрес-
са науки и техники. Говорят, что трактор был создан человеком,
потому что ему лень было ходить за плугом. А велосипед?.. Же-
лание облегчить свой труд, работая поменьше, зарабатывая по-
больше, — этот очень древний порок человеческий привел к воз-
никновению азартных игр. Ну добро́ бы игроки просто играли —
так нет: придумать бы такую систему игры, которая позволяла
бы почаще выигрывать! Иными словами, увеличить бы «вероят-
ность» выигрыша!.. Если бы игроки XVII века знали, что в XX ве-
ке будет доказана теорема Дуба1 , из которой следует, что ника-
кая система игры не увеличивает вероятность выигрыша, — как
знать? — может быть, и не начала развиваться столь активно
наука «Теория вероятностей».
Вот оно и появилось это слово — вероятность — которое,
казалось бы, понятно всем: и что́ оно означает, и как ее, веро-
ятность, использовать. Непонятно только одно: как эту самую
вероятность искать.
Методам поиска вероятности и еще очень многому другому,
что связано с этим понятием, посвящена данная книга.
1 Джозеф Лео Дуб (Doob Joseph Leo, 1910) — американский математик, член
трех академий, профессор Иллинойского университета.
10 Глава 1. Случайные события и аксиомы теории вероятностей

Начиная с XVII века, такие известные ученые, как Ферма,


Паскаль, Гюйгенс, Я. Бернулли, Лаплас, Гаусс2 и другие всерьез
занялись задачами, которые возникали в связи с азартными иг-
рами и никак не укладывались в рамки существовавших тогда
математических моделей. Разумеется, первые задачи были свя-
заны с игральными костями (а по-нашему, шестигранными куби-
ками) и карточными играми. В 1657 году появился первый трак-
тат по теории вероятностей «О расчетах при игре в кости»,
написанный Гюйгенсом. В этом труде впервые было введено
понятие математического ожидания. Еще раньше, с 1654 года,
основы теории вероятностей как самостоятельной науки нача-
ли прослеживаться в переписке Ферма и Паскаля.
Как трудно было выделить строгое и научное в том, что каза-
лось совершенно случайным! Высказывалось даже предположе-
ние, что вероятность носит субъективный характер, ведь каждый
человек на скачках «ставит» на ту лошадь, которая, по его мне-
нию, должна прийти первой с наибольшей вероятностью.
Еще материалисты Древней Греции пришли к мысли о том,
что законы природы проявляются через множество случайных
событий. Эта мысль была подробно изложена в поэме Лукреция
Кара «О природе вещей», но до науки «Теория вероятностей»
тогда еще было очень далеко.
Кардано и Галилей3 решали правильно некоторые теоретико-
вероятностные задачи. В 1713 году уже после смерти автора,
Якоба Бернулли, вышла знаменитая книга «Искусство догадок»,
в которой было приведено доказательство первой предельной
теоремы теории вероятностей — закона больших чисел. Эту кни-
гу Бернулли обдумывал в течение 20 лет. В ней было введено по-
2
Пьер Ферма (Fermat Pierre, 1601–1665) — французский математик.
Блез Паскаль (Pascal Blaise, 1623–1662) — французский философ, писатель,
математик и физик.
Христиан Гюйгенс (Huygens Christian, 1629–1695) — голландский механик,
физик и математик.
Якоб Бернулли (Bernoulli Jacob, 1654–1705) — швейцарский математик, ро-
доначальник семьи ученых-математиков.
Пьер Симон Лаплас (Laplace Pierre Simon, 1749–1827) — французский аст-
роном, математик и физик.
Карл Фридрих Гаусс (Gauss Carl Friedrich, 1777–1855) — немецкий матема-
тик.
3 Джероламо Кардано (Cardano Girolamo, 1501–1576) — итальянский мате-
матик, философ и врач.
Галилео Галилей (Galilei Galileo, 1564–1642) — итальянский физик, механик,
астроном и математик.
§ 1. ИСТОРИЯ И ЦЕЛИ 11

нятие вероятности как числа из промежутка [0, 1].


В XIX веке огромный вклад в развитие теории вероятностей
внесли русские математики Чебышëв, Марков, Ляпунов4 . На За-
паде в те времена теория вероятностей развивалась слабо — она
не приносила ощутимой прибыли, а в строгую науку еще не пре-
вратилась...
М. Лоэв в фундаментальной монографии [7] пишет: «Теория
становится математической, когда она выдвигает математиче-
скую модель связанных с нею явлений, то есть когда при описа-
нии явлений пользуются набором строго определенных символов
и операций над этими символами».
Много неопределенности и неустойчивости было в первых
шагах большой науки. Впервые предпринял попытку создать ак-
сиоматическое построение теории вероятностей советский мате-
матик Бернштейн5 в 1917 году.
Все, что было создано учеными до начала 20-х годов XX века
в области теории вероятностей, позволяло успешно решать мно-
гие задачи. Однако в строгую математическую науку теория ве-
роятностей превратилась лишь с появлением в 1933 году аксио-
матики Колмогорова6 . Эта аксиоматика дает общий взгляд на
построение вероятностных моделей в любых задачах, к каким бы
частным исследованиям они ни относились. Поэтому ее изучение
необходимо в любом курсе теории вероятностей.
В 20-х годах XX века Хинчин, Колмогоров, Слуцкий и Ле-
ви7 установили связь между теорией вероятностей и математиче-
ским анализом, что позволило решить многие классические за-
дачи, поставленные еще Чебышёвым. В 1930-х годах Колмого-
ровым и Хинчиным была создана теория случайных процессов,
активно используемая большинством современных инженеров.
Отчасти по исторически сложившейся традиции, отчасти из-
за простоты восприятия, но большинство задач, решаемых при
изучении теории вероятностей, носит игровой характер. Что про-
ще: подбрасывать монету и следить за результатом: герб, решка,
4 Пафнутий Львович Чебышëв (1821–1894) — русский математик и механик.
Андрей Андреевич Марков (1856–1922) — русский математик.
Александр Михайлович Ляпунов (1857–1918) — русский математик и меха-
ник.
5 Сергей Натанович Бернштейн (1880–1968) — советский математик.
6 Андрей Николаевич Колмогоров (1903–1987) — советский математик.
7 Александр Яковлевич Хинчин (1894–1959) — советский математик.
Евгений Евгеньевич Слуцкий (1880–1948) — советский математик, статистик
и экономист.
Поль Пьер Леви́ (Levy Paul Pierre, 1886–1971) — французский математик.
12 Глава 1. Случайные события и аксиомы теории вероятностей

герб, решка?.. Или исследовать сигналы далеких миров: пришел


сигнал, не пришел?.. Конечно же, проще представить себе моне-
ту, хотя интереснее последнее. А схема решения задач одна и та
же. Более того, при решении задачи о сигналах стоит «узнать»
монету — тогда и рассуждать будет проще и ошибок будет мень-
ше. Строгий скептик скажет: «Ну ладно, монета. Но зачем мне
таскать шары из урны и перекладывать их в другую?» А если
не шары, а радиодетали, которые перемешались при транспор-
тировке?..
Так давайте постараемся при изучении теории вероятностей
на простых примерах и доступных моделях осознать основные
методы, приемы решения задач, освоить логику рассуждений с
тем, чтобы применить все это при изучении серьезнейших вопро-
сов и при построении сложнейших моделей для решения специ-
альных задач.

§ 2. СЛУЧАЙНОСТЬ И ВЕРОЯТНОСТЬ.
СЛУЧАЙНЫЙ ЭКСПЕРИМЕНТ

В 1654 году Блез Паскаль писал о зарождающейся науке:


«Это учение, объединяющее точность математических доказа-
тельств с неопределенностью случая и примиряющее эти, каза-
лось бы, противоречивые элементы, с полным правом может пре-
тендовать на титул — математика случайного» [9] .
Так что же такое случайность? При изучении математиче-
ского анализа мы могли рассматривать летящую ракету как
движущуюся по некоторой кривой в системе координат матери-
альную точку. Абстракция? Да! Мы строили математическую
модель летящей ракеты, отвлекаясь от всего второстепенного
(размер, форма, порывы ветра и т. д.) и выделяя то, что является
главным для решения нашей задачи — массу, траекторию, ско-
рость. Но выведет ли ракета полезную массу в расчетную точ-
ку космического пространства? По расчетам — да, а в действи-
тельности, может быть, и нет, потому что на движущееся тело
могут повлиять случайные факторы — те, которые мы не мо-
жем учесть: внезапный резкий порыв ветра, неучтенные колеба-
ния топлива в баке, вызвавшие непредусмотренные колебания
корпуса и т. д., и т. п. Подумайте: много ли в мире определен-
ных (детерминированных) процессов? Почти всегда и почти вез-
де вмешивается случайность, которая не учитывается моделя-
§ 2. СЛУЧАЙНОСТЬ И ВЕРОЯТНОСТЬ 13

ми математического анализа.
Как правило, мы называем случайным то, что не можем пред-
сказать заранее. Если бы мы могли при бросании монеты учесть
движение руки, начальную скорость, «ветерок» из замочной
скважины — мы бы точно предсказали, как она упадет. Но учесть
все или чрезвычайно трудно, или даже невозможно. Поэтому мы
и говорим, что монета падает «случайным образом». Физики
утверждают, что существует и другая случайность — «по суще-
ству». Например, время жизни радиоактивного ядра или движе-
ние электрона случайны, и можно предсказать результат только
с некоторой вероятностью. Как знать, может быть уже в ближай-
шем будущем ученые найдут методы, позволяющие делать точ-
ные расчеты в ядерной физике?
Как бы там ни было, а случайные явления встречаются в каж-
дом исследовании. Даже при измерении какой-либо характери-
стики показания прибора будут случайными, поскольку невоз-
можно учесть все причины возникновения погрешностей. Ну а
раз есть случайные явления, происходят случайные события
(то есть такие события, о которых мы не можем заранее сказать
— произойдут они или нет), то возникает необходимость в пред-
сказании. Какая завтра будет погода? Сколько часов прорабо-
тает данный прибор? Какова вероятность пропуска цели опера-
тором радиолокационной станции?
Если мы провели только один эксперимент: проверили один
раз один прибор, подбросили один раз одну монету и т. п., то
трудно говорить о вероятности наступления того или иного собы-
тия. Прибор либо заработает, либо нет; монета упадет либо гер-
бом, либо решкой вверх. Определенные закономерности прояв-
ляются только тогда, когда эксперимент проводится много раз.
Во всех учебниках по теории вероятностей приводят классиче-
ский пример — одна из первых попыток провести серию случай-
ных экспериментов и понаблюдать результат была предпринята
Бюффоном8 в XVIII веке. Бюффон 4040 раз подбрасывал моне-
ту. При этом герб выпал 2048 раз, то есть приблизительно в по-
ловине случаев. Подобные эксперименты позднее повторялись
неоднократно — результаты были аналогичны. На рис. 2.1 при-
ведена схема, заимствованная из [1]. По оси абсцисс отложено
n — количество подбрасываний монеты, по оси ординат — отно-
шение числа выпавших гербов n(Г) к числу испытаний: n(Г)/n.

8 Жорж Луи Леклерк Бюффон (Buffon Georges Louis Leclerc, 1707–1788) —


французский естествоиспытатель.
14 Глава 1. Случайные события и аксиомы теории вероятностей

Рис. 2.1. Отношение числа выпавших гербов к числу подбрасываний монеты

Мы видим, что при малом n величина n(Г)/n «ведет себя пло-


хо». Однако с ростом n ее поведение «стабилизируется», значе-
ния становятся все ближе и ближе к 1/2. Аналогичные явления
наблюдаются тогда, когда в одних и тех же условиях проводит-
ся большое число экспериментов, в результате которых каждый
раз наступает или не наступает какое-либо событие. Появляет-
ся некоторая стабильность — появляется возможность предска-
зания. Поэтому теорию вероятностей часто называют «наукой о
массовых явлениях».
Если я задам вам вопрос: «Что означают слова: "Стрелок по-
падает в цель с вероятностью 92%?"» — вы все ответите: «Это
значит, что если стрелок стреляет очень много раз, то прибли-
зительно 92% выстрелов окажутся меткими», — и будете правы.
Действительно: если стрелок выстрелит ровно 100 раз, то совсем
не обязательно будет ровно 92 попадания. Может быть, 88, мо-
жет быть, 93, а может быть, и все 100, как в плохом «боевике».
Этот пример перекликается с примером о бросании монеты. Ко-
гда мы говорим о вероятности, то предполагаем наличие боль-
шого количества испытаний (экспериментов, опытов).
Поразмышляем еще. Из какого оружия стреляет стрелок? Из
ружья, пистолета, автомата Калашникова? А с какого расстоя-
ния? С расстояния 100 метров или «в упор»? Ясно, что во всех
рассмотренных ситуациях вероятности попадания будут разны-
ми. Поэтому, когда мы будем говорить о проведении случайно-
го эксперимента, мы будем каждый раз предполагать, что осу-
ществляется определенный комплекс условий, то есть экс-
перимент проводится при одних и тех же обстоятельствах.
Итак, договоримся о следующих требованиях к случайному
эксперименту.
1. Случайный эксперимент может быть проведен сколько
угодно раз.
2. Случайный эксперимент проводится каждый раз при осу-
§ 3. ЧАСТОТА И ВЕРОЯТНОСТЬ 15

ществлении одного и того же комплекса условий.


3. Результат случайного эксперимента заранее предсказать
невозможно.
В дальнейшем каждый раз, когда мы будем говорить о слу-
чайном эксперименте (опыте, испытании), мы будем предпола-
гать, не оговаривая особо, выполнение трех перечисленных тре-
бований. Только тогда мы сможем говорить о вероятности того
или иного исхода испытания. Отметим, кстати, что вместо сло-
ва «случайный» иногда говорят «стохастический».

§ 3. ЧАСТОТА И ВЕРОЯТНОСТЬ

Давайте проведем n каких-нибудь случайных экспериментов


(испытаний), и пусть в результате каждого из них может насту-
пить или не наступить какое-либо событие9 , которое мы обозна-
чим буквой A. Например, A — это выпадение герба при бросании
монеты. Обозначим за n(A) количество испытаний, в резуль-
тате которых событие A наступило. Отношение
n(A)
n
называется частотой события A.
В примере с бросанием монеты Бюффоном (§ 2) мы уже виде-
ли, что частота выпадения герба n(Г)/n с ростом n стабилизиру-
ется около «отметки» 1/2. Еще в Древнем Китае и Древнем Ри-
ме заметили устойчивость частот некоторых случайных событий.
Потом Я. Бернулли доказал теорему о том, что частота собы-
тия A при n → +∞ приближается к некоторому положительному
числу, которое в те далекие годы и было названо вероятностью
события A.
Такое определение вероятности несколько столетий исполь-
зовалось исследователями. Доказывались теоремы, решались
задачи. Однако с развитием науки и техники появились вероят-
ностные проблемы, которые требовали более строгого и «удоб-
ного» для проведения исследований определения вероятности.
Отсутствие строгого определения привело к ряду парадоксаль-
ных выводов. Поэтому к концу XIX века назрела необходимость
создания аксиоматической основы теории вероятностей.
9 В этом разделе мы будем использовать термин «событие» на интуитивном
уровне.
16 Глава 1. Случайные события и аксиомы теории вероятностей

Кроме того, использование понятия вероятности как «преде-


ла частоты» приводит к ряду технических сложностей: не всегда
есть возможность проводить случайный эксперимент, не говоря
уже о том, что число экспериментов всегда ограничено.
В каждой науке есть преемственность. Поэтому при созда-
нии новой теории, при создании аксиоматики нельзя отбрасы-
вать те достижения и открытия, которые были сделаны ранее и
подтвердили свою состоятельность на протяжении многих лет.
Так из некоторых очевидных свойств частоты, которые мы сейчас
рассмотрим, вытекали аналогичные свойства вероятности. Они
были сохранены при создании аксиоматической теории, как мы
увидим в дальнейшем.

Свойства частоты
n(A)
1. 0 ≤ ≤ 1 для ∀n ∈ N, ∀A.
n
2. Если событие A никогда не происходит в данной серии экс-
n(A)
периментов, то = 0.
n
3. Если событие A обязательно происходит при каждом экс-
n(A)
перименте, то = 1.
n
4. Если события A и B одновременно произойти не могут, то

n(A + B) n(A) n(B)


= + .
n n n

Здесь под A + B понимается событие, которое происходит то-


гда и только тогда, когда происходит либо A, либо B. Потом мы
назовем это суммой несовместных событий.
Несмотря на создание аксиоматики, понятие частоты не утра-
тило своего значения. У нас к ней не только исторический, но и
практический интерес: с помощью частоты вычисляются веро-
ятности тех «простых» событий, которые можно смоделировать
на практике или с помощью ЭВМ. Через вероятности же «про-
стых» событий вычисляются вероятности «сложных» методами
теории вероятностей.
§ 4. СЛУЧАЙНЫЕ СОБЫТИЯ И ДЕЙСТВИЯ С НИМИ 17

§ 4. СЛУЧАЙНЫЕ СОБЫТИЯ И ДЕЙСТВИЯ С НИМИ

При изучении аксиоматики теории вероятностей мы опреде-


лим случайное событие как множество, состоящее из элемен-
тарных исходов какого-либо опыта (эксперимента). Однако,
чтобы научиться работать с событиями, нам достаточно интуи-
тивного, «житейского» определения, которое сейчас и приведем.
Определение 4.1. Будем называть случайным событием
любой факт, который может произойти или не произойти
при проведении случайного эксперимента в данном комплек-
се условий.
Пример 4.1. Проводится эксперимент: мальчик подбрасыва-
ет монету. Комплекс условий: монета симметричная, однородная
(такую монету называют «правильной»); она бросается на твер-
дую горизонтальную плоскость. Произошло случайное событие:
монета упала гербом вверх — «выпал герб».
Пример 4.2. Комплекс условий: девочка стоит на остановке, к
которой могут подойти трамваи № 12, 30, 64. Эксперимент: де-
вочка ожидает один из этих трамваев. Случайное событие: подо-
шел трамвай № 64.
Пример 4.3. Комплекс условий: стрелок СОБРа стоит в 10 мет-
рах от мишени, представляющей собой концентрические круги,
стандартного размера и держит в руке пистолет ТТ. Экспери-
мент: стрелок стреляет по мишени. Случайное событие: произо-
шло попадание в «десятку».
Пример 4.4. Оператор радиолокационной станции (РЛС) на-
блюдает случайное событие: на индикатор поступил сигнал о на-
личии летательного аппарата (ЛА). Попробуйте сами определить,
в чем состоит эксперимент и каков комплекс условий. Наверное,
в данной ситуации это сделать непросто: здесь играют роль и от-
ношения между соседними государствами, и исправность при-
боров на РЛС и ЛА, и много других факторов. Тем не менее слу-
чайное событие произошло. Его можно наблюдать неоднократно
и делать статистические выводы.
Будем обозначать случайные события большими латинскими
буквами: A, B, C, . . . .
Договоримся, что разговор о случайном событии возможен
только в предположении, что осуществляется некоторый ком-
плекс условий, даже если это не оговаривается. И еще: если мы
18 Глава 1. Случайные события и аксиомы теории вероятностей

используем слово «событие», то автоматически предполагается,


что это событие случайное.
Среди множества всех событий выделим два особенных —
это событие достоверное и событие невозможное.

Определение 4.2. Событие, которое при осуществлении дан-


ного комплекса условий всегда наступает, называется досто-
верным. Событие, которое при осуществлении данного ком-
плекса условий наступить не может, называется невозмож-
ным.

Обозначим достоверное событие большой греческой буквой


«омега» Ω, а невозможное — как пустое множество: Ø. Такое
обозначение невозможного события не случайно. Дело в том, что
случайные события очень удобно интерпретировать как множе-
ства и даже изображать их соответствующими рисунками на
плоскости. При такой интерпретации невозможное событие ока-
зывается пустым множеством. Чтобы лучше разобраться в этом
вопросе, проще всего представить себе бросание монеты или иг-
рального кубика («кости»).
Примем следующее соглашение. Если в задаче или при-
мере речь идет о бросании монеты, то каждый раз, не оговаривая
особо, мы будем предполагать выполнение того комплекса усло-
вий, который указан в примере 4.1, то есть монета «правильная»
и бросается на твердую горизонтальную плоскость. На такую же
плоскость мы будем бросать предполагаемый кубик, считая, что
он сделан из однородного материала (центр тяжести совпадает с
центром кубика), симметричен, не меняет формы при броске —
одним словом, тоже «правильный».
Если мы будем работать с колодой карт, то, естественно, она
новая и карты на ощупь не различимы. Точно так же будем счи-
тать неразличимыми шары, которые мы будем наугад вынимать
из урны. Все эти предположения нужны для того, чтобы «урав-
нять шансы» всех возможных исходов проводимых экспери-
ментов. Мы еще вернемся к обсуждению этих вопросов, когда
познакомимся с понятием «вероятность» на аксиоматическом
уровне.
Пример 4.5. Если мы бросаем монету, то наступает одно из так
называемых «элементарных событий» (или «элементарных
исходов»), которые мы обозначим ωГ и ωР : ωГ — событие, за-
ключающееся в том, что выпал герб, ωР — выпала решка. Будем
§ 4. СЛУЧАЙНЫЕ СОБЫТИЯ И ДЕЙСТВИЯ С НИМИ 19

обозначать это следующим образом:

ωГ = {выпал герб}, ωР = {выпала решка}.

Кто-нибудь из вас спросит: «А что, если монета встала на реб-


ро?». Скажите, когда вы сами бросали монету, она часто вста-
вала на ребро?. . . Уже сейчас, на интуитивном уровне мы пони-
маем, что в том комплексе условий, который мы предполагаем,
все другие положения монеты «маловероятны» настолько, что
можно их не учитывать. Потом мы еще вернемся к обоснова-
нию такой точки зрения, а сейчас подумаем: что является досто-
верным событием в описанной ситуации? Очевидно, Ω состоит
в том, что «что-нибудь выпадает» — либо герб, либо решка. Та-
ким образом, мы можем представить себе Ω как множество, со-
стоящее из двух элементов, из двух элементарных исходов:
Ω = {ωГ , ωР }.
Невозможных событий можно назвать много. Например, мо-
нета повисла в воздухе. При осуществлении данного комплекса
условий невозможное событие не содержит ни одного элемен-
тарного исхода — является пустым множеством.
Пример 4.6. Давайте бросим игральный кубик. Вы без труда
назовете сами и достоверное событие, и элементарные исходы.
(Вас смущает слово «элементарные»? Да просто, как бы «про-
ще некуда».)
Введем элементарное событие ωk = {выпало число k}, где
k = 1, 6. Получим 6 элементарных исходов (событий), при этом
Ω = {ω1 , ω2 , . . . , ω6 } = {ωk }6k=1 = {выпало какое-либо целое
число от 1 до 6}.
Рассмотрим событие A = {выпало четное число}. Попро-
буем разобраться, что значит «наступило событие A». Это зна-
чит, выпало число 2, или число 4, или число 6, то есть насту-
пил один из элементарных исходов: ω2 , ω4 или ω6 . Таким обра-
зом, можно представить событие A как множество, состоящее
из трех элементарных исходов: A = {ω2 , ω4 , ω6 }, то есть A есть
подмножество множества Ω: A ⊂ Ω.
Подумайте и запишите, из каких элементарных исходов со-
стоит событие B = {выпало число, кратное 3}. Приведите за-
одно и пример невозможного события для данного комплекса
условий. Убедитесь в том, что невозможное событие Ø не со-
держит ни одного элементарного исхода — действительно пустое
множество.
20 Глава 1. Случайные события и аксиомы теории вероятностей

Хорошо осознав приведенные примеры, примем следующее


соглашение.
1. Будем рассматривать достоверное событие Ω как множе-
ство всех элементарных исходов — тех «маленьких»
взаимоисключающих событий, одно из которых обяза-
тельно наступит при осуществлении данного комплекса
условий в рамках проведенного эксперимента.
2. Все остальные случайные события будем рассматривать
как подмножества множества Ω: A ⊂ Ω, B ⊂ Ω и т. д.
Наступил элементарный исход, значит, наступило со-
бытие, содержащее данный элементарный исход.
3. Количество элементарных исходов может быть конечным
или бесконечным (счетным или несчетным)10 .
4. Элементарные исходы следует определять в каждой задаче
так, чтобы задачу было «удобно» решать.
Таким образом, при решении каждой задачи мы должны
будем построить математическую модель: ввести множество эле-
ментарных исходов Ω (достоверное событие), хорошенько разо-
бравшись, что считать элементарным исходом. При этом все
интересующие нас события должны быть подмножествами мно-
жества Ω.
Постараемся разобраться в этом на примере карточной ко-
лоды.
Пример 4.7. Пусть из колоды карт, содержащей 36 штук, наугад
вытаскивается одна карта и фиксируется либо масть и наимено-
вание, либо только масть.
Предположим, что нас интересует событие A = {вытащили
даму пик}. Для построения модели необходимо ввести элемен-
тарные исходы так, чтобы A оказалось множеством. Пусть эле-
ментарный исход — это событие, заключающееся в том, что по-
явилась карта данной масти и данного наименования. Тогда всего
различных исходов будет 36. Событие A содержит лишь один из
них: появилась дама пик.
Предположим теперь, что нас интересует другое событие —
событие B = {вытащили карту пиковой масти}. Мы можем
оставить прежнюю модель. Тогда событие B будет содержать
9 элементарных исходов, так как в колоде из 36 карт ровно 9 карт
пиковой масти.
10 Множество называется «счетным», если его элементы можно занумеро-
вать («пересчитать»), то есть установить взаимно однозначное соответствие эле-
ментов множества и натурального ряда чисел N.
§ 4. СЛУЧАЙНЫЕ СОБЫТИЯ И ДЕЙСТВИЯ С НИМИ 21

Можно поступить иначе: считать элементарным исходом со-


бытие, заключающееся в появлении карты определенной масти.
Всего мастей 4, значит, и исходов будет 4. При такой модели со-
бытие B будет содержать всего один элементарный исход, а A
вообще нельзя рассматривать как событие, так как оно не явля-
ется множеством элементарных исходов.
В примерах 4.5–4.7 мы имели дело с достоверным событи-
ем Ω, состоящим из конечного числа исходов (соответственно из
двух, шести и тридцати шести). Однако даже при бросании мо-
неты, в зависимости от условий задачи, конечного числа исходов
может не хватить.
Пример 4.8. Будем бросать монету до тех пор, пока не выпа-
дет герб (уж очень хочется, чтобы желание исполнилось!) Какие
могут быть исходы? Либо герб выпадет сразу, либо через раз, ли-
бо...

Г , |{z}
|{z} |{z}, РРРГ
РГ , РРГ | {z }, РРРРГ
| {z } . . . —
ω1 ω2 ω3 ω4 ω5

бесконечно много элементарных исходов, образующих все вме-


сте достоверное событие Ω. Эти исходы можно пронумеровать.
Следовательно, Ω состоит из счетного множества элементарных
исходов: Ω = {ωk }∞
k=1 .
Пример 4.9. А что, если нам пострелять? Например, по пря-
моугольной мишени (D) = [0, a] × [0, b] (рис. 4.1). Пусть это хотя
бы стенка тира, а вы стреляете, закрыв глаза, — но уж в стенку-
то попадете! Математики в этих случаях говорят: бросается слу-
чайная точка в область (D).

Y
b
(D)
y

x a X
0

Рис. 4.1. К примеру 4.9

Что считать элементарным исходом? Ясно, что событие, за-


ключающееся в том, что вы попали в некоторую точку с коор-
динатами (x, y). Так и обозначим: ωxy = {попадание в точку
22 Глава 1. Случайные события и аксиомы теории вероятностей

(x, y) ∈ (D)}. А достоверное событие Ω = {ωxy : (x, y) ∈ (D)} —


множество всех таких ωxy . Мы видим, что их нельзя перенумеро-
вать. Получили пример множества Ω, состоящего из несчетного
количества элементарных исходов.
В какой-нибудь книжке вы можете прочитать в аналогич-
ном примере: «элементарный исход — это точка с координатами
(x, y), а достоверное событие Ω — это вся область (D)». Без-
условно, взаимно-однозначное соответствие — великая вещь, и
все-таки нехорошо, правда? Одно дело — событие, другое —
точка на плоскости. Во всяком случае, начиная изучать теорию
вероятностей, не следует их путать. Мы уже говорили с вами о
том, что события можно изображать как множества на плоско-
сти (так называемые «диаграммы Венна»)11 . Неважно из како-
го количества элементарных исходов состоит Ω — будем изоб-
ражать его в виде прямоугольника, а события A, B, . . . — как
подмножества (рис 4.2).

Рис. 4.2. Диаграмма Венна

Наступил исход ω1 — наступили события A и C одновремен-


но, исход ω2 — событие A не наступило, зато наступили одно-
временно B и C. А вот события A и B одновременно наступить
не могут — у них нет общих элементарных исходов. Если насту-
пает ω3 , то наступает только событие A, но не C и не B; если ω5
или ω6 , то не наступают ни A, ни B, ни C и т. д.
Вы, конечно, помните действия со множествами: объедине-
ние, пересечение, разность. . . Действия с событиями — это те
же действия со множествами, только вот трактовка этих дей-
ствий немножко иная. Например, если на рис. 4.2 рассматривать
A и B как множества, то мы скажем «Эти множества не пересе-
11 Джон Венн (Venn John, 1834–1923) — английский логик.
§ 4. СЛУЧАЙНЫЕ СОБЫТИЯ И ДЕЙСТВИЯ С НИМИ 23

каются», а если как события, то «События A и B одновременно


произойти не могут».
Сейчас мы сформулируем определения действий с события-
ми. Изучая (и выучивая!) его, все время проводите параллель со
множествами.

Определение 4.3. Действия с событиями.


1. Суммой (объединением) событий A и B называется такое
событие C = A ∪ B = A + B, которое наступает тогда и только
тогда, когда наступает A, или B, или оба вместе (то есть хотя
бы одно из событий A и B). На рис. 4.3 событие C заштрихо-
вано.

C C C

W W W
A A
A
B
B
B

C=A+B C=A+B C=A+B=A

Рис. 4.3. Сумма (объединение) событий

2. Произведением (пересечением) событий A и B называет-


ся такое событие C = A ∩ B = AB, которое наступает то-
гда и только тогда, когда наступают и A, и B одновременно
(рис. 4.4).

W W W
A A

C A C=B
B
B

C=AB C=AB=B C=AB=?

Рис. 4.4. Произведение (пересечение) событий


24 Глава 1. Случайные события и аксиомы теории вероятностей

3. Разностью событий A и B называется такое событие


C = A r B, которое наступает тогда и только тогда, когда со-
бытие A наступает, а событие B не наступает (рис. 4.5).

W W W W
A C A C C
A B
A
B
B B

C = A\B C = A\B = A C = A\B C = A\B = ?

Рис. 4.5. Разность событий

4. Событие A(Ac ) называется противоположным (дополни-


тельным к) событию A, если оно наступает тогда и только то-
гда, когда событие A не наступает (рис. 4.6).

A
A

A = W\A

Рис. 4.6. Противоположное (дополнительное) событие

Посмотрим на определение действий с событиями с теоре-


тико-множественной позиции.
• Событие A + B наступает тогда и только тогда, когда на-
ступает хотя бы одно из событий A или B — это значит, что
A + B состоит из тех и только тех элементарных исходов,
которые принадлежат или A, или B, или являются общими
для A и B.
• Аналогично событие AB состоит только из общих для A и
B элементарных исходов.
• Событие A r B состоит из элементарных исходов, принад-
лежащих A, но не принадлежащих B.
• Событие A состоит из всех элементарных исходов множе-
ства Ω, не входящих в событие A.
§ 4. СЛУЧАЙНЫЕ СОБЫТИЯ И ДЕЙСТВИЯ С НИМИ 25

Попробуйте доказать равенство: ArB = AB или графически


с помощью диаграмм Венна, или аналитически — как равенство
множеств12 .
Если объединение и пересечение событий обозначать совсем
строго, то следует пользоваться значками ∪ (или) и ∩ (и). Но уж
очень они путаются в длинной цепочке типа
(A ∪ B) ∩ C ∪ D r (A ∩ B).
Намного легче воспринимается запись (A + B)C + D r AB, не
правда ли? Поэтому в дальнейшем мы будем пользоваться имен-
но такими обозначениями суммы и произведения событий. И да
простят нас специалисты по теории множеств!
Очевидно, п. 1 и 2 определения 4.3 можно распространить на
любое конечное или счетное число событий. (Распространите!)
Sn S
∞ T
n T

Подумайте, как определить события Ak , Ak , Ak , Ak .
k=1 k=1 k=1 k=1
Постройте диаграммы Венна для объединения и пересечения че-
тырех событий.
Определение 4.4. Связь событий.
1. Говорят, что событие A влечет за собой событие B:
A ⊂ B, если каждый раз, когда наступает событие A, наступает
и событие B (рис. 4.7).
2. События A и B называются несовместными, если они од-
новременно произойти не могут, то есть AB = Ø (рис. 4.8).
Таким образом, у несовместных событий нет ни одного общего
элементарного исхода.

Рис. 4.7. Связь событий Рис. 4.8. Несовместные события

Обратите внимание на определение несовместных собы-


тий — это очень важное понятие в теории вероятностей. Немно-
го погодя мы изучим независимые события. Эти два понятия ни в
коем случае не должны путаться!
12 Множества считаются равными, если они состоят из одних и тех же эле-
ментов.
26 Глава 1. Случайные события и аксиомы теории вероятностей

Замечание 4.1. Если есть n событий A1 , A2 , . . . , An , то следу-


ет отличать попарную несовместность (рис. 4.9): Ai Aj = Ø,
где i 6= j; i, j = 1, n, от несовместности в совокупности
T
n
(рис. 4.10): A1 A2 . . . An = Ak = Ø.
k=1

Рис. 4.9. Попарно несовместные со- Рис. 4.10. События несовместные в


бытия совокупности

Когда говорят: «рассмотрим несовместные события», то обыч-


но подразумевают события, несовместные попарно.

Определение 4.5. Будем говорить, что события A1 , . . . , An


образуют полную группу (полную систему) событий, если
Sn
они: 1) попарно несовместны и 2) Ak = Ω (рис. 4.11).
k=1
Иными словами, события образуют полную группу, когда обя-
зательно наступает одно и только одно из событий этой
группы.

Рис. 4.11. Полная группа событий

Часто события полной группы обозначают {Hi }ni=1 и назы-


вают гипотезами.
§ 4. СЛУЧАЙНЫЕ СОБЫТИЯ И ДЕЙСТВИЯ С НИМИ 27

Пример 4.10. Все элементарные исходы при осуществлении


данного комплекса условий и данном эксперименте образуют
полную группу.
Пример 4.11. Любое событие A и A образуют полную группу.
Пример 4.12. Ведется наблюдение на РЛС. Если появляется
ЛА, то оператор может подать или не подать сигнал тревоги. Со-
бытия: A1 = {правильное необнаружение} = {нет ЛА, нет
сигнала тревоги}, A2 = {ложная тревога}, A3 = {пропуск
цели}, A4 = {правильное обнаружение} = {есть ЛА, есть
сигнал тревоги} образуют полную группу.
Пример 4.13. Для поражения цели запущено две ракеты. Собы-
тия H1 = {цель не поражена}, H2 = {цель поражена одной
ракетой}, H3 = {цель поражена обеими ракетами} образу-
ют полную группу.
Мы договорились работать с событиями как со множества-
ми. Можно показать, что для событий (как и для множеств) вы-
полняются известные всем вам свойства:
• коммутативность относительно сложения A + B = B + A
и умножения AB = BA;
• ассоциативность относительно сложения (A + B) + C =
= A + (B + C) и умножения (AB)C = A(BC);
• дистрибутивность (A + B)C = AC + BC.
Вспомните, как назывались эти свойства в школе.
Пример 4.14. Упростить выражение:
(A + B + C)D + B r (A + C) + AB + BC.
Раскроем скобки и получим:
AD + BD + CD + B r A r C + AB + BC = (AD r A)+
+ (CD r C) + B(D + A + C + Ω) = Ø + Ø + BΩ = B.

Постройте сами соответствующую диаграмму Венна.


Задание. Используя диаграммы Венна и действия с событи-
ями, покажите (и запомните!), что имеют место равенства:

AA = A, A + A = A, AA = Ø, AΩ = A, AØ = Ø, Ω + Ø = Ω,
Ω + A = Ω, A r B = AB, A + B = A + B, AB = A + B.
28 Глава 1. Случайные события и аксиомы теории вероятностей

Последние два равенства носят название «Правила де Морга-


на»13 .
Пример 4.15. Рассмотрим электрическую цепь, состоящую из
3 последовательно соединенных блоков. Первый блок содержит
один элемент R1 , второй — два параллельно соединенных R2 и
R3 , третий — три параллельно соединенных элемента R4 , R5 и
R6 (рис. 4.12).

Рис. 4.12. К примеру 4.15

Пусть событие Ak = {элемент Rk выходит из строя}, где


k = 1, 6. Выразить через события Ak событие A = {цепь будет
разорвана}.
Вы, конечно, хорошо помните (а если не помните, то сообра-
зите!), в каком случае разрывается цепь при последовательном
или параллельном соединении элементов. Поэтому рассмотрим
цепочку равенств:

A = {цепь разорвана} = {вышел из строя I блок} ∪


∪ {вышел из строя II блок} ∪ {вышел из строя III блок} =
= {вышел из строя R1 } ∪ {вышли из строя оба элемента
R2 и R3 } ∪ {вышли из строя все три элемента R4 , R5 и
R6 } = A1 ∪ A2 A3 ∪ A4 A5 A6 = A1 + A2 A3 + A4 A5 A6 .

Постройте сами любую электрическую цепь и представьте


событие A аналогично примеру 4.15. И для физики будет польза!

Замечание 4.2. Множество F подмножеств множества Ω

def
F = {A : A ⊂ Ω}
13 Август де Морган (De Morgan Augustus, 1806–1871) — шотландский ма-
тематик и логик.
§ 5. АКСИОМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ 29

называется алгеброй, если оно замкнуто относительно опера-


ций объединения, пересечения и образования дополнительного
множества, то есть если выполняются свойства:
1. Ω ∈ F;
2. A ∈ F → A ∈ F;
3. A ∈ F, B ∈ F ⇒ A ∪ B ∈ F, A ∩ B ∈ F.
Множество F называется σ-алгеброй (сигма-алгеброй), если
свойство 3 выполняется для любого счетного числа множеств,
то есть
S
∞ T

3’. Ak ∈ F, k = 1, ∞, ⇒ Ak ∈ F , Ak ∈ F.
k=1 k=1
Множество всех событий является алгеброй, если событий
конечное число, и σ-алгеброй, если бесконечное.

§ 5. АКСИОМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ.


ВЕРОЯТНОСТНОЕ ПРОСТРАНСТВО
Теперь, когда мы привыкли смотреть на события как на мно-
жества, состоящие из элементарных исходов, как на подмноже-
ства множества Ω — достоверного события, состоящего из всех
элементарных исходов, попробуем осознать аксиоматику теории
вероятностей. Она позволит нам говорить о вероятности любо-
го события как о совершенно определенной числовой функции,
позволит доказать целый ряд интереснейших свойств вероятно-
сти. Освоив аксиоматику, мы будем знать, как можно постро-
ить модель в каждой вероятностной задаче и как нельзя, какой
ответ может получиться при ее решении, а какой нет.
В монографии [4] вы можете найти очень интересные при-
меры, которые показывают необходимость строгого определения
вероятности. Нечеткость в ее определении до появления аксио-
матики часто приводила к парадоксальным выводам. На самом
деле для выполнения свойства 3 достаточно потребовать, что-
бы либо объединение, либо пересечение событий принадлежа-
ло F. Второе получается автоматически по свойству 2. То же са-
мое можно сказать и про свойство 3’.
Естественно, аксиомы каждой науки должны базироваться
на человеческом опыте и не противоречить положительным ре-
зультатам, полученным исследователями до появления аксиом.
Правда, история знает и другие аксиоматические построения, на
30 Глава 1. Случайные события и аксиомы теории вероятностей

первый взгляд совершенно абстрактные. Например, геометрия


Лобачевского14 , который предположил, что через данную точ-
ку проходит несколько прямых, параллельных данной, или тео-
рия кватернионов, предложенная Гамильтоном15 в 1833-1835 го-
дах, — обобщение комплексных чисел. Может быть, странно, но
и эти теории находят свое применение. В настоящее время уста-
новлены связи неевклидовой геометрии Лобачевского с некото-
рыми разделами математики и теоретической физики, а учение
о кватернионах было одним из источников развития векторного
исчисления.
Аксиомы, которые положены в основу нашего курса, пред-
ложены великим советским математиком А. Н. Колмогоровым в
1933 году. Создание аксиоматики теории вероятностей было ре-
шением одной из проблем Гильберта16 , сформулированной им в
1900 году.

Аксиома 1. Пусть Ω — множество элементов ω произвольной


природы, которые мы будем называть элементарными исхо-
дами (элементарными событиями). Подмножества множества Ω
будем называть случайными событиями. Само множество Ω на-
зовем достоверным событием, а пустое множество — невоз-
можным событием. Множество всех событий обозначим F 17 .
Аксиома 2. Каждому случайному событию A ∈ F сопоставим
неотрицательное число P (A) ≥ 0, которое назовем вероятно-
стью события A18 .
Аксиома 3. P (Ω) = 1.
Аксиома 4. Если A ∈ F и B ∈ F — несовместные события, то
P (A + B) = P (A) + P (B) (аксиома аддитивности).
Аксиома 5. Если A1 , A2 , . . . , An , . . . — попарно несовмест-

14 Николай Иванович Лобачевский (1792–1856) — русский математик,


мыслитель-материалист, создатель неевклидовой геометрии (1826г.)
15 Уильям Роуан Гамильтон (Hamilton William Rowan, 1805–1865) — ирланд-
ский математик и астроном.
16 Давид Гильберт (Hulbert David, 1862–1943) — немецкий математик, поста-
вивший перед математиками ряд крупных проблем.
17 Аксиома 1 дана в несколько упрощенном варианте. На самом деле события
должны образовывать алгебру или σ-алгебру. Кто хочет подробнее ознакомиться
со строгой аксиоматикой, обращайтесь к [1, 4].
18 Допускается обозначение P [A] и P {A}.
§ 5. АКСИОМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ 31

S
∞ P

ные события из F, то P ( An ) = P (An ) (аксиома счетной
n=1 n=1
аддитивности)19 .
Обратите внимание: свойства частоты, о которых мы говори-
ли в § 3, сохранены при аксиоматическом определении вероят-
ности события.
Придирчивый читатель спросит: «А в чем же здесь аксиома-
тика? Ведь аксиома — это предложение, принимаемое без до-
казательства. В аксиоме же 1 вроде бы нет никакого предложе-
ния».
Предложение аксиомы 1 состоит в том, что мы называем со-
бытием множество элементов любой природы — сопоставляем
абстракцию и жизнь. Это позволяет нам строить математические
модели реальных явлений. Во второй аксиоме поступаем точно
так же: сопоставляем событию положительное число и называ-
ем его вероятностью. Очень скоро вы увидите, что такой подход
к определению вероятности позволит нам решать успешно мно-
гие практические задачи, не получая противоречивых выводов.
Что же мы определили? Множество Ω, множество F и веро-
ятность P — вот те три объекта, которые нам придется вводить
при построении математической модели в каждой вероятностной
задаче.
Определение 5.1. Совокупность трех объектов {Ω, F, P } на-
зывается вероятностным пространством.

Отныне, какую бы вероятностную задачу мы ни решали,


будем предполагать, что задано вероятностное пространство.
В противном случае мы не имеем права говорить о вероятности.
Конкретная задача — конкретное вероятностное пространство.
Если множество Ω состоит из конечного или счетного чис-
ла элементарных исходов, то вероятностное пространство назы-
вают дискретным. При построении дискретного вероятностного
пространства обычно в качестве алгебры F рассматривают мно-
жество всех подмножеств Ω. Каждому элементарному исходу ωi
приписывают вероятность, согласующуюся с условиями задачи:
P (ωi ) = pi . Вероятность каждого события A определяют как
19 В книгах [1, 4] вы можете найти аксиому непрерывности, которая равно-
сильна аксиоме 5. Для того чтобы ее осознать, нужно познакомиться с определе-
нием предела последовательности множеств, что выходит за рамки данного кур-
са.
32 Глава 1. Случайные события и аксиомы теории вероятностей

сумму вероятностей тех элементарных исходов, из которых A со-


стоит. Тогда вероятность Ω должна равняться сумме вероятно-
стей всех элементарных исходов, то есть
X
P (Ω) = pi = 1.
i

Последнее условие является одним из признаков правильности


(корректности)
P построения вероятностного пространства. Если
pi 6= 1, то модель построена неверно — система аксиом не
i
выполняется.
Рассмотрим несколько простейших примеров.
Пример 5.1. Пусть бросается правильная монета на горизон-
тальную твердую плоскость. Определим множество Ω состоя-
щим из двух элементарных исходов: Ω = {ωГ , ωР }, а множество
событий F = {Ø, ωГ , ωР , Ω}. Если положить вероятность досто-
верного события P (Ω) = 1, вероятность невозможного события
P (Ø) = 0, а вероятность исходов P (ωГ ) = P (ωР ) = 1/2, то оче-
видно, система аксиом 1–4 будет выполняться20 .
Мы построили модель: конечное дискретное вероятностное
пространство. А если монета несимметричная? Значит, модель
построена неверно. Следовало взять P (ωГ ) = p1 , P (ωР ) = p2 ,
p1 + p2 = 1, но p1 6= p2 .
Если бы мы бросали монету на вязкую поверхность, то наша
модель тоже была бы неадекватной. Следовало бы рассмотреть
не два, а бесконечно много возможных положений монеты — под
разными углами к плоскости — и каждому приписать положи-
тельную вероятность. Получилось бы бесконечно много элемен-
тарных исходов. Может быть, пришлось бы даже строить не дис-
кретное, а непрерывное вероятностное пространство.
В дальнейшем при решении задач с бросанием монеты мы
будем, как уже отмечалось ранее, каждый раз предполагать, не
оговаривая особо, что монета «правильная» и бросается на твер-
дую горизонтальную плоскость. При этом с положительными
равными вероятностями могут приниматься только два положе-
ния: «герб» и «решка». Рассматривать другие положения моне-
ты при данном комплексе условий не следует, так как их вероят-
ности равны нулю. Об этом свидетельствовали еще опыты Бюф-
фона — частота всех прочих положений равнялась нулю.
20 Желающие могут проверить: F является алгеброй.
§ 5. АКСИОМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ 33

Пример 5.2. Пусть бросается «правильный» кубик на горизон-


тальную твердую плоскость. Определим, как и ранее, вероят-
ностное пространство {Ω, F, P }: Ω = {ωk }6k=1 , F — множе-
ство всех подмножеств множества Ω, P (ωk ) = 1/6, k = 1, 6,
P
m
а P (A) = P (ωij ) = m/6, где m — число элементарных исхо-
j=1
дов, составляющих событие A:
m
[
A= ωij .
j=1

Если, например, A = {выпало четное число}, то A = {ω2 , ω4 , ω6 }.


Тогда
X3
3 1
P (A) = P (ωij ) = = ,
j=1
6 2
где ωi1 = ω2 , ωi2 = ω4 , ωi3 = ω6 .
P
6
Можно было определить P (ωk ) = pk , k = 1, 6, pk = 1,
k=1
где pk 6= 1/6. Это имело бы смысл для несимметричного кубика.

Такая возможность — подбирать различные вероятностные
пространства в рамках одной схемы в зависимости от условий
задачи — обеспечивается тем, что система аксиом «неполна».
Однако, оперируя этой системой, мы не приходим к противоре-
чию. Это значит, что данная система аксиом «не противоречива»
(см. [1, 4]).
Таким образом, в каждой вероятностной задаче математиче-
ская модель должна непременно соответствовать как рассмат-
риваемому комплексу условий, так и проводимому эксперименту.
Пример 5.3. Бросаем монету до первого появления герба. Опре-
деляем (см. пример 4.8)
Ω = {Г, РГ, РРГ, ...} —
множество, состоящее из счетного числа элементарных исходов.
Пусть F — множество всех подмножеств Ω. Положим:
1 1
P (ω1 ) = P {Г} = ; P (ω2 ) = P {РГ} = ;
2 4
1 1
P (ω3 ) = P {РРГ} = , . . . , P (ωn ) = n , . . .
8 2
34 Глава 1. Случайные события и аксиомы теории вероятностей

Вероятность произвольного случайного события определим как


сумму вероятностей тех исходов, из которых данное событие со-
стоит. Тогда

X X∞
1 1/2
P (Ω) = P (ωn ) = n
= = 1.
n=1 n=1
2 1 − 1/2

(Вы узнали бесконечно убывающую геометрическую прогрес-


сию?) Подумайте, почему при таком определении вероятности
выполняются аксиомы аддитивности.
Мы построили дискретное, но теперь уже бесконечное веро-
ятностное пространство. Позднее мы познакомимся со спосо-
бами определения вероятности для непрерывных вероятностных
пространств.

§ 6. ПРОСТЕЙШИЕ СВОЙСТВА ВЕРОЯТНОСТИ.


ТЕОРЕМА СЛОЖЕНИЯ

Сейчас мы докажем несколько свойств вероятности, кото-


рые вытекают из аксиом. Эти свойства помогут нам, во-первых,
лучше осознать, что понятие вероятности, введенное аксиомати-
чески, не противоречит нашему интуитивному представлению о
ней, а во-вторых, эти свойства помогут решать задачи — искать
вероятности более «сложных» событий через вероятности «про-
стых».
Чтобы легче было работать с понятием вероятности, могу дать
вам один совет: думайте о вероятности каждого события как о
площади того множества, которое вы нарисовали, изображая это
событие в диаграммах Венна. Только, пожалуйста, никому нико-
гда не скажите случайно, что вероятность — это площадь. Это не
площадь, но очень они с площадью похожи по своим свойствам.
Вероятность — неотрицательная числовая функция, заданная на
событиях. Площадь — неотрицательная числовая функция, за-
данная на плоских множествах, изображающих эти события. Не-
совместным событиям соответствуют непересекающиеся множе-
ства. Их сумме — сумма площадей и сумма вероятностей, то есть
свойством аддитивности, обладают и площадь, и вероятность21 .
Кстати, основной прием, который используется при решении за-
дач и доказательстве свойств вероятности, как раз и основан на
21 Математики говорят в таких случаях, что и площадь, и вероятность – это
аддитивные меры.
§ 6. ПРОСТЕЙШИЕ СВОЙСТВА ВЕРОЯТНОСТИ 35

аксиоме аддитивности. Чтобы ею воспользоваться, обычно са-


мое «большое» событие представляют в виде суммы несовмест-
ных «маленьких». Тогда вероятность «большого» будет равна
сумме вероятностей «маленьких» событий. Итак, приступаем к
свойствам.
Свойство 6.1. Вероятность разности событий.
Если событие A влечет за собой событие B, то есть A ⊂ B, то

P (B r A) = P (B) − P (A) . (6.1)

Доказательство. Представим событие B в виде суммы несов-


местных событий (рис. 6.1). Тогда по аксиоме аддитивности
P (B) = P (A) + P (B r A) ⇒ P (B r A) = P (B) − P (A).

W
B
A

Рис. 6.1. К свойству 6.1

Свойство 6.2. Монотонность вероятности.


Если A ⊂ B, то P (A) ≤ P (B).
Доказательство. По свойству 6.1 и аксиоме 2 имеем:
P (B) − P (A) = P (B r A) ≥ 0 ⇒ P (B) ≥ P (A).

Свойство 6.3. Ограниченность вероятности.


Для любого события A ∈ F :

0 ≤ P (A) ≤ 1 .

Доказательство. По аксиоме 2: P (A) ≥ 0 для ∀A ∈ F. По


свойству 6.2 и аксиоме 3
P (A) ≤ P (Ω) = 1,
так как любое событие A ⊂ Ω, а P (Ω) = 1.
36 Глава 1. Случайные события и аксиомы теории вероятностей

Свойство 6.4. Вероятность противоположного события.


Для ∀A ∈ F выполняется равенство

P (A) = 1 − P (A) .

Доказательство. По определению противоположного события


и свойству 1 имеем (рис. 4.6): P (A) = P (Ω r A) = P (Ω) −
−P (A) = 1 − P (A), так как ∀A ⊂ Ω.

Свойство 6.5. Вероятность невозможного события.

P (Ø) = 0 .

Доказательство. Поскольку Ø = Ω, то по свойству 6.4

P (Ø) = 1 − P (Ω) = 1 − 1 = 0.

Свойство 6.6. Вероятностей событий полной группы.


Если события A1 , A2 , . . . , An образуют полную группу, то
n
X
P (Ak ) = 1.
k=1

Доказательство. По аксиомам 3 и 4 имеем:


µ[
n ¶ n
X
1 = P (Ω) = P Ak = P (Ak ).
k=1 k=1

Свойство 6.7. Теорема сложения вероятностей.


Для ∀A, B ∈ F имеет место формула:

P (A + B) = P (A) + P (B) − P (AB) .


§ 6. ПРОСТЕЙШИЕ СВОЙСТВА ВЕРОЯТНОСТИ 37

A B
AB

Рис. 6.2. К свойству 6.7

Доказательство. Используем знакомый прием — предста-


вим «большое» событие как сумму несовместных A и B r AB
(рис. 6.2). Поскольку AB ⊂ B, по свойству 6.1 и аксиоме 4 по-
лучим:

P (A + B) = P (A + (B r AB)) =
= P (A) + P (B r AB) = P (A) + P (B) − P (AB).

Следствие. P (A + B) ≤ P (A) + P (B) для ∀A, B ∈ F .


Если неравенство не кажется вам очевидным, докажите его.

Это следствие можно распространить (попробуйте!) на любое
количество слагаемых:
µ[n ¶ X n
P Ak ≤ P (Ak ).
k=1 k=1


Есть формула, обобщающая и теорему сложения. Вот она:
µ[
n ¶ n
X n
X
P Ak = P (Ak ) + (−1)1 P (Aj Ak )+
k=1 k=1 j,k=1
j<k
n
X
+(−1)2 P (Ai Aj Ak ) + . . . + (−1)n−1 P (A1 · . . . · An ).
i,j,k=1
i<j<k

Доказывать ее мы не станем. Попробуйте это сделать самостоя-


тельно. Особенно полезно поразмышлять над такими доказа-
тельствами во время подготовки к олимпиаде, а поможет вам в
этом метод математической индукции.
38 Глава 1. Случайные события и аксиомы теории вероятностей


Для того чтобы наглядно отображать вероятности событий,
можно несколько видоизменить диаграммы Венна: все множе-
ство Ω изображать в осях координат в виде множества [0; 1] ×
×[0; 1] — квадрата со стороной 1 (рис. 6.3).

Y
1
A B W

{
pC C

M
{
{
0 pA C D pB K 1 X

Рис. 6.3. Разновидность диаграмм Венна

События же можно изображать в виде прямоугольников, у


которых одно из оснований лежит на координатной оси (OX или
OY ) и длина этого основания равна вероятности события. Пло-
щадь такого прямоугольника равна вероятности этого события:

P (Ω) = 1; P (A) = |OC| · 1 = pA ;


P (B) = |DK| · 1 = pB ; P (C) = |M N | · 1 = pC .

Однако при таком изображении событий P (AC) = pA · pC и


P (BC) = pB · pC , что не всегда имеет место, как мы увидим в
дальнейшем (см. § 11).
Пример 6.1. Радист посылает позывные отряду, который мо-
жет находиться в пункте П1 с вероятностью 0,2, в пункте П2 —
с вероятностью 0,5 или в пункте П3 с вероятностью 0,1. Предпо-
лагается, что если отряд находится в одном из этих пунктов, то
вызов будет услышан обязательно. Какова вероятность того, что
вызов будет услышан?
Решение начнем с того, что обозначим событие, вероят-
ность которого следует найти. Пусть событие D = {вызов будет
услышан}. Это событие произойдет тогда и только тогда, когда
отряд находится в одном из пунктов: либо в П1 , либо в П2 ли-
бо в П3 . Очевидно, одновременно отряд ни в каких двух пунк-
тах находиться не может. Следовательно, события Ak = {отряд
§ 7. КЛАССИЧЕСКОЕ ОПРЕДЕЛЕНИЕ ВЕРОЯТНОСТИ 39

находится в пункте Пk }, k = 1, 2, 3, несовместны. Кроме то-


го, D = A1 + A2 + A3 . По аддитивности получим

P (D) = P (A1 ) + P (A2 ) + P (A3 ) = 0, 2 + 0, 5 + 0, 1 = 0, 8.

Пример 6.2. Вероятность того, что к вам на помощь придет друг


Игорь, равна 0,6; того, что придет друг Олег, — 0,5. Игорь с Оле-
гом не дружат. Поэтому вероятность того, что они придут вме-
сте — 0,2. Какова вероятность того, что к вам на помощь придет
хотя бы один из друзей?
Придет хотя бы один из друзей, значит, произойдет хотя бы
одно из событий A = {пришел Игорь} и B = {пришел Олег},
которые не являются несовместными. Значит, интересующая вас
вероятность:

P (A + B) = P (A) + P (B) − P (AB) = 0, 6 + 0, 5 − 0, 2 = 0, 9.

Неплохо!

§ 7. КЛАССИЧЕСКОЕ ОПРЕДЕЛЕНИЕ ВЕРОЯТНОСТИ


(СХЕМА РАВНОВОЗМОЖНЫХ ИСХОДОВ)
В XVII веке в переписке Ферма и Паскаля впервые был при-
менен способ вычисления вероятности для случая конечного
числа элементарных исходов, названный впоследствии «Клас-
сическим определением вероятности». Современная же форму-
лировка была предложена Лапласом в конце XVIII века.
Слово «определение» в русском языке имеет несколько от-
тенков. Это может быть «математическое определение», в ко-
тором определяется какой-либо объект или термин. Это может
быть и «определение» в смысле «вычисление» или «поиск» чего-
либо, уже определенного (названного) ранее. В названии «Клас-
сическое определение вероятности» слово «определение» ис-
пользуется как раз во втором смысле. Понятие вероятности уже
было определено аксиоматически. «Классическое определение»,
как уже было отмечено, — это лишь один из способов вычисле-
ния вероятности. Правда, для того чтобы пользоваться этим спо-
собом, нужны некоторые предпосылки. Мы должны считать, что
рассматриваемые нами исходы равновероятны. Например, бро-
саем игральный кубик — считаем, что выпадения всех граней
равновероятны, так как центр масс лежит в центре кубика, сам
он абсолютно симметричен, а бросаем мы его на горизонтальную
40 Глава 1. Случайные события и аксиомы теории вероятностей

плоскость. Вытаскиваем наугад (!) карту из колоды — считаем,


что карты на ощупь не отличимы друг от друга, и следовательно,
каждая из карт может появиться с одной и той же вероятностью.
В основе таких предположений лежит опыт исследователей,
которые проводили большое число экспериментов и установили,
что частоты появления событий практически одинаковы. Пред-
положения о равновероятности «простых» событий дают воз-
можность искать вероятности более «сложных».
Итак, будем называть исходы (события) E1 , . . . , EN равно-
возможными (равновероятными), если P (E1 ) = . . . = P (EN ).
Схема, которую мы рассмотрим, как правило, использует
элементарные исходы ω1 , . . . , ωn . Однако можно использовать
и более «сложные» события E1 , . . . , EN , доказав (может быть,
через элементарные исходы) их равновероятность.
Определение 7.1. Пусть E1 , . . . , EN образуют полную груп-
пу равновозможных исходов. Будем говорить, что событию A
благоприятствует M из N равновозможных исходов, если со-
бытие A можно представить в виде суммы каких-либо M ис-
ходов из N :
M
[
A = Ei1 + Ei2 + . . . + EiM = Eik .
k=1

Пример 7.1. Бросаем кубик. Всего 6 равновозможных элемен-


тарных исходов. Событию A = {выпадает четное число} благо-
приятствует 3 исхода: E2 = ω2 , E4 = ω4 и E6 = ω6 .

Теорема 7.1. Классическое определение вероятности.


Пусть событию A благоприятствует M из N равновозможных
исходов. Тогда
M
P (A) = .
N

S
M
Доказательство. Пусть A = Eik . Так как исходы {Ej }N
j=1
k=1
P
N
образуют полную группу, то P (Ej ) = 1. Так как исходы Ej
j=1
§ 7. КЛАССИЧЕСКОЕ ОПРЕДЕЛЕНИЕ ВЕРОЯТНОСТИ 41

равновозможны, то P (Ej ) = p при ∀j = 1, N . Следовательно,


1
N · p = 1, откуда p = . Исходы несовместны. Значит,
N
µ[
M ¶ X M
1 M
P (A) = P Eik = = .
N N
k=1 k=1

Вы скажете: зачем такое сложное доказательство того, что все


вероятности исходов равны 1/N ? Это же очевидно! А что зна-
чит «очевидно»? Очевидно — это значит, что вы в уме быстро
проделали все то, что мы сейчас записали. Говорят, что сложнее
всего бывает доказывать очевидные вещи. Решая вероятностные
задачи, мы, с одной стороны, будем часто полагаться на эмпири-
ческий опыт и интуицию: равновероятность, независимость со-
бытий и т. п. будем принимать, основываясь на условиях задачи.
С другой стороны, при поиске вероятности «сложного» события
интуиция может подвести. Поэтому давайте привыкнем с самого
начала обосновывать и пояснять все действия с вероятностя-
ми, используя действия с событиями, аксиомы и свойства.
Классическое определение вероятности — самая простая из
формул нашего курса. Если бы вы знали, сколько сложностей
таит в себе эта формула! Как трудно порой бывает подсчитать
число всех исходов N , число благоприятствующих M , да еще не
перепутать: считать одни и те же, а не разные по сути исходы при
подсчете N и M . Поэтому каждую задачу на классическое опре-
деление мы будем начинать с того, что четко-четко определим,
что мы будем считать исходом при осуществлении данного ком-
плекса условий и чем эти исходы отличаются друг от друга.
Внимание! Прежде, чем использовать классическое опреде-
ление вероятности, необходимо в каждой задаче проверять, об-
разуют ли исходы полную группу равновозможных, то есть:
1. один из них обязательно наступает;
2. они попарно несовместны;
3. они равновероятны.

Пример 7.2. Пусть из колоды карт (36 штук) наудачу вытаски-


вают одну карту. Какова вероятность того, что эта карта «крас-
ного цвета»?
42 Глава 1. Случайные события и аксиомы теории вероятностей

Выберем в качестве элементарного исхода ωk событие, со-


стоящее в том, что вытащена одна карта, причем все карты счи-
таем различными. Тогда всего исходов N = 36. Мы знаем, что в
колоде 9 карт бубновой масти и 9 червонной, то есть всего 18 карт
«красного цвета». Следовательно, благоприятствующих исходов
M = 18. Тогда по классическому определению вероятность ин-
тересующего нас события A:

18 1
P (A) = = .
36 2
Эту задачу можно решать еще двумя способами. Например,
считать карты, отличающимися друг от друга только мастью.
Всего в колоде 4 масти. Значит, получается 4 исхода: E1 , E2 , E3 ,
E4 . Эти исходы также будут равновероятны, поскольку в коло-
де поровну карт каждой масти. Обратите внимание: здесь наши
рассуждения о равновероятности исходов фактически основы-
ваются на том же классическом определении: вероятность выта-
щить каждую масть равна 9/36 = 1/4, если исходами считать ωk .
Однако для «удобства» решения задачи мы ввели более «круп-
ные» исходы. Событию A благоприятствуют два исхода из Ej ,
j = 1, 4. Следовательно, N = 4, M = 2 и

2 1
P (A) = = .
4 2
Вы уже, конечно, догадались, какой третий способ решения
задачи. Можно ввести только 2 исхода, если считать появивши-
еся карты отличающимися друг от друга только цветом. Тогда
благоприятствовать A будет лишь один исход.
Теперь вы поняли, как важно определить в каждой задаче,
че́м введенные вами исходы отличаются друг от друга? Пред-
ставьте себе, что в каждом из трех способов решения мы опреде-
лили бы исход просто как событие, состоящее в том, что «вынута
одна карта». Вы чувствуете, как некорректно такое определение?
Конечно, в данной простой задаче трудно было допустить ошиб-
ку. В более сложных такая ошибка очень распространена: при
подсчете N считают одни исходы, а при подсчете M — другие.
Будьте внимательны!
Пример 7.3. На первый взгляд этот пример совсем прост: из ур-
ны с 10 шарами (7 белых + 3 черных) наугад вытаскивают 1 шар.
Какова вероятность того, что он черный?..
§ 8. ЭЛЕМЕНТЫ КОМБИНАТОРИКИ 43

Да, конечно, 3/10. А теперь давайте разберемся, что вы счи-


тали элементарными исходами и чем они отличаются друг от дру-
га. На первый вопрос, казалось бы, ответить легко: элементар-
ный исход — событие, состоящее в том, что был вынут 1 шар. Так
как тянули наугад — все исходы равновероятны. . . Корректно?
Не совсем, так как мы не ответили на второй вопрос: чем шары
отличаются друг от друга. Цветом? Но тогда должно быть толь-
ко 2 исхода! А вы говорите 10. Значит, вы считаете, что все шары
различны, как будто на каждом стоит номер — вот тогда и полу-
чится 10 исходов, а благоприятствующих 3.
Это только самые простые примеры. Чтобы решать бо-
лее сложные, придется кое-что вспомнить (или узнать — кто не
знал).

§ 8. ЭЛЕМЕНТЫ КОМБИНАТОРИКИ
В примере 7.2 мы выбирали из колоды карт одну. А если бы
нужно было выбрать 2 или 8? Сколько было бы исходов?
В примерах с бросанием кубика мы рассматривали всего
6 элементарных исходов. А если бросается сразу два кубика, да
на каждом может выпасть по 6 разных цифр. Сколько всего ис-
ходов?
Необходимость решать подобные задачи заставляет нас по-
вторить комбинаторику.

8.1. ТЕОРЕМА УМНОЖЕНИЯ


Теорема 8.1. Теорема умножения. Пусть имеется 2 группы
элементов: {a1 , . . . , am } и {b1 , . . . , bn }. Число способов, ко-
торыми можно выбрать 2 элемента — по одному из каждой
группы, — равно mn.

Действительно: на каждый элемент ak , k = 1, m, приходится


любой из bi , i = 1, n, то есть всего по n пар с каждым ak . Умно-
жаем n на количество ak и получаем требуемый результат.

8.2. РАЗМЕЩЕНИЯ
Пусть имеется набор n элементов a1 , a2 , . . . , an . Будем вы-
бирать из них k элементов: делать выборки объема k из n эле-
ментов (k ≤ n).
44 Глава 1. Случайные события и аксиомы теории вероятностей

Определение 8.1. Выборки объема k из n элементов, отлича-


ющиеся друг от друга как составом, так и порядком элемен-
тов, называются размещениями из n элементов по k.

Утверждение 8.1. Число всех размещений из n элементов по


k равно
n!
Akn = .
(n − k)!

Доказательство. Будем выбирать по одному элементу и рас-


полагать их в ряд. На 1-e место можно поставить любой из n
элементов. На 2-e — любой из оставшихся (n − 1) элементов.
Всего по теореме умножения получится n(n − 1) различных пар.
На каждую такую пару приходится любой из оставшихся (n − 2)
элементов и т. д. Получим:
Akn = n(n − 1)(n − 2) · . . . · (n − k + 1) =
n(n − 1)(n − 2) · . . . · (n − k + 1)(n − k) · . . . · 2 · 1 n!
= = .
(n − k) · . . . · 2 · 1 (n − k)!

8.3. ПЕРЕСТАНОВКИ
Определение 8.2. Размещение из n элементов по n называет-
ся перестановкой из n элементов, то есть перестановка — это
любая комбинация из n элементов, расположенных в ряд.

Утверждение 8.2.Число всех перестановок из n элементов


равно
Pn = n! .

Доказательство. Доказательство этого утверждения сразу сле-


дует из утверждения 8.1:
n! n! n!
Pn = Ann = = = = n!
(n − n)! 0! 1
§ 8. ЭЛЕМЕНТЫ КОМБИНАТОРИКИ 45

8.4. СОЧЕТАНИЯ
Определение 8.3. Выборки объема k из n элементов,
отличающиеся друг от друга только составом элементов, на-
зываются сочетаниями из n элементов по k.

Утверждение 8.3.Число всех сочетаний из n элементов по k


равно
n!
Cnk = . (8.1)
(n − k)!k!

Доказательство. Подумаем сначала, чего больше: размеще-


ний или сочетаний. Очевидно, размещений, так как из одного на-
бора — одного сочетания k элементов — можно сделать k! раз-
мещений, то есть столько, сколько существует перестановок из
k элементов. Следовательно, Akn = Cnk · Pk , откуда

Akn n!
Cnk = = .
Pk (n − k)!k!

C числами Cnk вы, безусловно, уже встречались. Их часто на-


зывают биномиальными коэффициентами, поскольку они ис-
пользуются в записи бинома Ньютона22 :
n
X
(x + a)n = Cnk xk an−k . (8.2)
k=0

Могут пригодиться некоторые свойства биномиальных ко-


эффициентов:
1. Cn0 = Cnn = 1;
2. Cn1 = Cnn−1 = n;
3. Cnk = Cnn−k ;
½
1 при k = 0,
4. C0k =
0 при k =
6 0;
22 Исаак Ньютон ( Newton Isaac, 1643–1727) — английский физик и матема-
тик.
46 Глава 1. Случайные события и аксиомы теории вероятностей

k−1
5. Cnk = Cn−1 k
+ Cn−1 ;
P
n
6. Cnk = 2n .
k=0

Все эти свойства легко доказываются по формуле (8.1) с уче-


том того, что 0! = 1. Только свойство 6 вытекает из формулы (8.2)
при x = a = 1. Кстати, из него следует, что число всех подмно-
жеств множества, содержащего n элементов, равно 2n .
Для упрощения вычисления биномиальных коэффициентов
при малых n иногда используют треугольник Паскаля:

1
1 1
1 2 1
1 3 3 1
1 4 6 4 1
1 5 10 10 5 1

Каждое внутреннее число очередной строки этого треугольника


получается сложением двух ближайших к нему чисел предыду-
щей строки. По краям, как видите, следует ставить единицы.

8.5. ПРИМЕНЕНИЕ КОМБИНАТОРИКИ К РЕШЕНИЮ ЗАДАЧ


Попробуем применить комбинаторику к решению более
сложной, чем примеры предыдущего пункта, задачи на класси-
ческое определение вероятности.
Пример 8.1. Из колоды карт (52 листа) наудачу вынимают 3 кар-
ты. Какова вероятность p того, что это тройка, семерка и туз:
а) именно в этом порядке? б) в любом порядке?
Построим вероятностное пространство. Будем считать эле-
ментарным исходом выборку 3 карт из 52. Ясно, что все эти ис-
ходы равновозможны. Но!.. Мы должны определиться, какие ис-
ходы мы будем считать различными, прежде чем подсчитывать
их общее число. Займемся вопросом а). Нас интересует состав
и порядок карт. Поэтому имеет смысл считать исходы отличаю-
щимися друг от друга как составом, так и порядком, то есть раз-
мещениями из 52 элементов по 3. Итак, N найдено: N = A352 .
Теперь вычислим количество благоприятствующих исходов.
Поскольку в колоде есть 4 тройки, 4 семерки и 4 туза, по теоре-
ме умножения получим: M = 4 · 4 · 4 = 43 . По классическому
§ 8. ЭЛЕМЕНТЫ КОМБИНАТОРИКИ 47

определению

M 43 43 · 49! 43
p= = 3 = = ≈ 5 · 10−4 .
N A52 52! 52 · 51 · 50

Рассмотрим вопрос б). Попробуйте решить поставленную зада-


чу, используя те же самые исходы — размещения (вы должны
получить тот же ответ, что и мы сейчас получим!). А мы пойдем
другим путем. Поскольку порядок карт в данной задаче нас не
интересует, будем считать элементарными исходами сочетания
3
из 52 элементов по 3. Тогда N = C52 . Условия изменились, исхо-
ды изменились, а число M осталось прежним: M = 43 (оно из-
менилось бы, если бы мы рассматривали размещения). Поэтому
искомая вероятность

43 43 · 49! · 3! 43 · 2 · 3
p= 3 = = ≈ 3 · 10−3 .
C52 52! 52 · 51 · 50

Эта задача не простая. Не унывайте, если не совсем поняли. По-


тренируетесь — научитесь и не такие решать!
Пример 8.2. Задача о бракованных деталях
Пусть в некотором ящике находятся n качественных и m брако-
ванных деталей. Наудачу из ящика берут s штук. Какова вероят-
ность p того, что среди них ровно k бракованных?
Решение этой задачи постараемся понять и запомнить. Не
случайно она с названием. Схема решения этой задачи очень ча-
сто встречается, казалось бы, совершенно в других ситуациях.
Роль бракованных деталей могут играть и курсанты-отличники,
и игроки какого-либо клуба, и снаряды определенного калибра,
и сигналы с далеких планет.
Строим модель. Будем считать элементарными исходами вы-
борки s деталей из n + m, отличающиеся друг от друга соста-
вом. Очевидно, все исходы равновозможны. Их общее число
s
N = Cn+m . Подсчитаем число благоприятствующих. Выберем
k
сначала k деталей из m бракованных. Это можно сделать Cm
способами. Теперь выберем оставшиеся s − k деталей из n ка-
чественных. Число таких выборок Cns−k . По теореме умножения
k
получим M = Cm · Cns−k . Ответ:

k s−k
Cm Cn
p= s .
Cn+m
48 Глава 1. Случайные события и аксиомы теории вероятностей


Пример 8.3. Парадокс де Мере́
В XVII веке жил на белом свете кавалер де Мере́, который во
время путешествия в г. Пуату часто наблюдал игру в кости и за-
метил, что при бросании 3 игральных костей чаще выпадает ком-
бинация, дающая в сумме 11 очков, чем комбинация, дающая в
сумме 12 очков. С точки зрения кавалера, события — выпадение
11 и 12 очков — должны были быть равновероятными. Сомне-
ния кавалера де Мере́ стали известны Паскалю и Ферма и по-
служили одной из причин возникновения знаменитой переписки,
во время которой зародились, как мы уже знаем, основы теории
вероятностей. Давайте и мы разберемся в этом парадоксе.
Комплекс условий: бросаем сразу 3 кубика. Естественно счи-
тать выпадение любых комбинаций цифр равновозможными со-
бытиями. Кавалер де Мере́ считал так: сумма 11 очков получа-
ется при следующих комбинациях: 6 − 4 − 1, 6 − 3 − 2, 5 − 5 − 1,
5 − 4 − 2, 5 − 3 − 3, 4 − 4 − 3 — всего 6 элементарных исходов.
Сумма 12 очков получается при комбинациях 6 − 5 − 1, 6 − 4 − 2,
6 − 3 − 3, 5 − 5 − 2, 5 − 4 − 3, 4 − 4 − 4 — тоже 6 элементарных
исходов. Значит, и вероятности должны быть одинаковы!
Ошибка кавалера состояла в том, что он не учел, что пере-
численные им исходы не являются равновозможными, так как не
определил, чем они отличаются. Например, комбинация 6 − 4 − 1
появляется 3! раз, когда на костях выпадают цифры 6, 4, 1 или
6, 1, 4, или 1, 6, 4, или 1, 4, 6, или 4, 1, 6, или 4, 6, 1, а комбинация
4 − 4 − 4 — только 1 раз. Кавалер де Мере́ не знал классическо-
го определения вероятности. Поблагодарим его за его ошибку —
она дала мощный толчок к исследованиям Паскаля и Ферма23 .
А теперь разберемся сами и сравним вероятность двух собы-
тий: A = {выпало 11 очков} и B = {выпало 12 очков}. Опре-
делим вероятностное пространство.
Будем считать элементарным исходом любую комбинацию
цифр на 3 кубиках (каждая от 1 до 6). По теореме умножения
N = 63 . Правда, это число нам не нужно. При сравнении вероят-
ностей A и B знаменатель N все равно одинаков. Так что главная
задача — сравнить числители. Кавалер де Мере́ считал исходы,
отличающиеся друг от друга только составом, — они оказались
не равновероятны. Мы вычислили число всех исходов, считая их
отличающимися не только составом, но и порядком — все воз-
можные, — они-то как раз равновероятны. Зато и благоприят-
23 Кавалер де Мере́ сформулировал и ряд других, более сложных задач. На-
пример, о дележе выигрыша в случае неоконченной игры.
§ 9. ГЕОМЕТРИЧЕСКАЯ ВЕРОЯТНОСТЬ 49

ствующие исходы мы должны считать не так, как де Мере́, а с


учетом появления цифр на всех 3 кубиках. Если считать количе-
ство элементарных исходов для набора из разных цифр: 6−4−1,
то их будет 3! = P3 , как мы уже видели. Если две цифры одина-
ковы (например, 6 − 3 − 3), то на каждый такой набор приходится
3 элементарных исхода (6, 3, 3; 3, 6, 3; 3, 3, 6). Если же все цифры
одинаковы, то это один элементарный исход. Вот и подсчитай-
те: для события A получается MA = 27, а для события B —
MB = 25. Значит, P (A) > P (B), что и подметил де Мере́ при
большом числе наблюдений.
Мы неплохо поработали с дискретным вероятностным про-
странством. Пора переходить к непрерывному.

§ 9. ГЕОМЕТРИЧЕСКАЯ ВЕРОЯТНОСТЬ
Представим себе, что в некоторую область (D) «бросается
случайная точка». Это означает, что точка «бросается в область
(D) наугад» — не отдается предпочтение никаким точкам, ни-
каким подобластям области (D) (нечто подобное мы уже де-
лали в примере 4.5, когда стреляли в стенку тира с закры-
тыми глазами). При осуществлении такого комплекса условий
множество Ω обычно определяют как множество элементарных
исходов ωxy = {попадание в точку (x, y) ∈ (D)}, то есть
Ω = {ωxy : (x, y) ∈ D}, P (Ω) = 1. Здесь мы имеем дело с так
называемым непрерывным вероятностным пространством. Нам
не удастся приписать положительную вероятность каждому эле-
ментарному событию ωxy . Их несчетное множество, и мы не смо-
жем получить P (Ω) = 1, сложив несчетное количество одинако-
вых положительных чисел — вероятностей всех ωxy , как это де-
лалось для дискретного вероятностного пространства. Каждый
элементарный исход ωxy имеет вероятность нуль. И все-таки
какой-нибудь из них наступает. Значит, каждый из элементар-
ных исходов ωxy — событие возможное, но имеющее нулевую
вероятность.
Однако и в этой ситуации мы сможем вычислять вероятность,
а именно вероятность того, что случайная точка попала в подоб-
ласть (d) области (D) (рис. 9.1). Эта вероятность вычисляется
по формуле:

mes(d)
P {случайная точка попала в (d) ⊂ (D)} = . (9.1)
mes(D)
50 Глава 1. Случайные события и аксиомы теории вероятностей

Y
(D)
(d)

(x, y)
y

X
0 x

Рис. 9.1. Попадание точки в подобласть (d) области (D)

Не пугайтесь: mes(D) — это мера области (D), mes(d) — ме-


ра подобласти (d). Если (D) — плоская область ((D) ⊂ R2 ), то
mes(D) — это площадь; если (D) промежуток на прямой ((D) ⊂
R1 ), то mes(D) — длина этого промежутка; если (D) ⊂ R3 , то
mes(D) — это ее объем; если (D) — временно́й промежуток, то и
измерять его будем в секундах, минутах, часах. . . А может ока-
заться, что mes(D) следует указывать в радианах. Придумайте
сами еще какую-нибудь меру. Заодно проверьте, выполняется ли
для вероятности (9.1) система аксиом.
Пример 9.1. Задача о встрече. Два человека договорились о
встрече между 6 и 7 часами вечера. При этом условия встре-
чи были следующими. Каждый из договаривающихся приходит
на место встречи в любое время от 6 до 7 часов и ждет ров-
но 20 минут, затем уходит. Какова вероятность p того, что они
встретятся?
Вы скажете: зачем такие странные условия? Никто так не до-
говаривается! Еще как договариваются!
Например, к одной и той же АЗС из разных пунктов должны
подъехать две автомашины. Из-за непредвиденных в пути об-
стоятельств они не могут точно указать время прибытия. Каждый
из водителей знает лишь, что он сможет прибыть от 6 до 7 часов и
потратить на стоянку не более 20 минут. Какова вероятность то-
го, что они смогут встретиться и передать один другому, скажем,
документы?
Вам не нравится этот пример? Пожалуйста, другой. В прием-
ник поступают сигналы в произвольное время. Чтобы приемник
их «воспринял», промежуток времени между сигналами должен
быть не менее некоторого положительного числа — сигналы не
должны «встречаться».
§ 10. УСЛОВНАЯ ВЕРОЯТНОСТЬ. ТЕОРЕМА УМНОЖЕНИЯ 51

Приступаем к решению задачи. Обозначим минуты прибытия


одного из людей (друзей, сигналов) после 6 часов за x, другого —
за y. Очевидно и x, и y принимают значения от 0 до 60. Вот вам
и случайная точка с координатами (x, y), «бросаемая» в квадрат
(D) = [0, 60] × [0, 60]. Встреча произойдет, если |x − y| ≤ 20, то
есть x − 20 ≤ y ≤ x + 20. Изобразим область (D) и подобласть
(d), описанную этими неравенствами (рис. 9.2). Предварительно,
Y
60
(D)
20
x+ (d)
40 y=

20 20
x–
y=

0 20 40 60 X

Рис. 9.2. К задаче о встрече

конечно, начертим границы подобласти (d) — прямые y = x − 20


и y = x + 20. Площадь (d) легче вычислить как разность площа-
ди квадрата со стороной 60 и площади квадрата со стороной 40
(сумма площадей двух треугольников):
mes(d) 602 − 402 5 1
p= = = > .
mes(D) 602 9 2
Получилось, что встреча скорее состоится, чем нет, хо-
тя. . . вероятность почти равна 1/2.

§ 10. УСЛОВНАЯ ВЕРОЯТНОСТЬ.


ТЕОРЕМА УМНОЖЕНИЯ
Вы знаете, что при бросании правильной монеты вероятность
выпадения герба и решки равна 1/2. Но вы знаете также, что ес-
ли монета уже брошена и выпал герб, то решка уже не выпадет.
Значит, есть такие события, которые могут влиять друг на друга.
Как учесть это влияние, мы и постараемся сейчас выяснить.
Пусть осуществляется некоторый комплекс условий, для ко-
торого построено вероятностное пространство {Ω, F, P }, и нас
интересует вероятность события A, когда известно, что некото-
рое событие B уже произошло.
52 Глава 1. Случайные события и аксиомы теории вероятностей

Определение 10.1. Пусть A и B — некоторые события,


P (B) > 0. Условной вероятностью события A при условии,
что произошло событие B, называется число

def P (AB)
P (A/B) = . (10.1)
P (B)

Иногда условную вероятность обозначают PB (A).


Впервые формулу (10.1) записал Т. Байес, воспользовавшись
исследованиями А. Муавра24 . Нам трудно сразу осознать, по-
чему эта формула определяет условную вероятность. Пореша-
ем задачи, познакомимся с понятием независимых событий —
и поймем, что мы определили именно то, что хотели.
Однако же мы назвали вероятностью некоторую неотрица-
тельную числовую функцию события A (B считается фиксиро-
ванным, оно уже произошло), не проверив cистему аксиом. По-
стараемся поскорее исправить эту оплошность.
Аксиома 1 выполняется, так как вероятностное пространство
уже есть.
Аксиома 2 тоже выполняется, так как мы сопоставили каж-
дому случайному событию A ∈ F неотрицательное число и на-
звали его вероятностью.
Аксиому 3 следует проверить:
P (ΩB) P (B)
P (Ω/B) = = = 1.
P (B) P (B)
Выполнена. Переходим к аксиоме аддитивности.
Аксиома 4. Возьмем два несовместных события A1 и A2 из
F : A1 A2 = Ø. Рассмотрим
P ((A1 + A2 )B) P (A1 B + A2 B)
P ((A1 + A2 )/B) = = =
P (B) P (B)
P (A1 B) + P (A2 B) P (A1 B) P (A2 B)
= = + =
P (B) P (B) P (B)
= P (A1 /B) + P (A2 /B).
Вы поняли, чем мы пользовались в этом доказательстве?
Рис. 10.1 иллюстрирует тот факт, что события A1 B и A2 B несов-
24 Томас Байес (Bayes Thomas, 1702–1761) и Абрахам де Муавр (Moivre
Abraham de, 1667–1754) — английские математики.
§ 10. УСЛОВНАЯ ВЕРОЯТНОСТЬ. ТЕОРЕМА УМНОЖЕНИЯ 53

W
B

A1 A1B A2B A2

Рис. 10.1. К проверке аксиомы 4

местны, так как несовместны A1 и A2 . Поэтому можно восполь-


зоваться аксиомой аддитивности для безусловной вероятности и
после почленного деления прочитать формулу (10.1) справа на-
лево.
Или поверьте на слово, или проверьте сами, что выполняется
и аксиома счетной аддитивности (аксиома 5).
Теперь мы имеем полное право называть то, что мы определи-
ли, вероятностью. Более того, все свойства вероятности, кото-
рые следовали из аксиом, выполняются и для условной вероят-
ности тоже. Например,

P (Ø/B) = 0;
P (A/B) = 1 − P (A/B);
P (A r C/B) = P (A/B) − P (C/B), если C ⊂ A.

Мы предполагали, что вероятность события B положитель-


на. Предположим теперь, что и P (A) > 0. Тогда можно опреде-
лить условную вероятность

P (AB)
P (B/A) = . (10.2)
P (A)

Из формул (10.1) и (10.2) получим:

P (AB) = P (A)P (B/A) = P (B)P (A/B) , (10.3)

если P (A) > 0 и P (B) > 0.


Утверждение (10.3) называется теоремой умножения ве-
роятностей (а сама формула (10.3) — формулой умножения ве-
роятностей). Ее можно обобщить на n событий:

P (A1 A2 . . . An ) =
= P (A1 )P (A2 /A1 ) · P (A3 /A1 A2 ) · . . . · P (An /A1 . . . An−1 ).
54 Глава 1. Случайные события и аксиомы теории вероятностей

В частности, при n = 3 получим:

P (ABC) = P (A)P (B/A)P (C/AB) .

Если раньше мы умели вычислять только вероятность суммы


событий, то теперь научились вычислять вероятность произве-
дения.
Пример 10.1. На 6 карточках написаны буквы. По одной «Р»,
«О», «И», «Я» и две «С». Карточки перемешивают и раскла-
дывают в ряд в произвольном порядке. Какова вероятность того,
что получится слово «РОССИЯ» (событие A)?
Событие A произойдет тогда и только тогда, когда на первом
месте окажется буква «Р» (событие A1 ), на втором — буква «О»
(событие A2 ) и т. д., на шестом — буква «Я» (событие A6 ). Сле-
довательно, A = A1 A2 . . . A6 . Запишем формулу умножения при
n = 6:
P (A) = P (A1 ) · P (A2 /A1 ) · P (A3 /A1 A2 ) · P (A4 /A1 A2 A3 )×
× P (A5 /A1 A2 A3 A4 ) · P (A6 /A1 A2 A3 A4 A5 ).

Вычислим условные вероятности по классическому опреде-


1
лению. При этом P (A1 ) = , так как в наличии 1 благоприят-
6
2 1
ствующий исход при 6 вариантах; P (A3 /A1 A2 ) = = , так
4 2
как имеются 2 буквы «С», а всего осталось 4 карточки («Р» и
1
«О» уже вытащили); P (A4 /A1 A2 A3 ) = , так как осталась одна
3
буква «С» на 3 карточки. Таким образом,
1 1 2 1 1 1
P (A) = · · · · ·1= .
6 5 4 3 2 360
Попробуйте решить ту же задачу, используя только классиче-
ское определение и считая элементарным исходом произвольную
перестановку из 6 букв.

§ 11. НЕЗАВИСИМЫЕ СОБЫТИЯ


Помните поговорку «В огороде — бузина, а в Киеве — дядь-
ка»? Это как раз про независимые события. Когда мы можем
сказать, что событие A (в огороде растет бузина) не зависит от
§ 11. НЕЗАВИСИМЫЕ СОБЫТИЯ 55

события B (в Киеве живет дядька)? Тогда, когда событие A на-


ступает или не наступает независимо от того, произошло собы-
тие B или нет. Конечно, в отличие от «бузины и дядьки», мы рас-
сматриваем события A и B в рамках одного и того же вероят-
ностного пространства, при осуществлении одного и того же
комплекса условий.
Таким образом, вероятность события A не должна изменить-
ся, если событие B произошло.
Говорят, что событие A не зависит от события B, если услов-
ная вероятность P (A/B) равна безусловной P (A):

P (A/B) = P (A).

Сразу возникает вопрос: а может ли так случиться, что событие


A от B не зависит, а событие B зависит от A? Оказывается, нет.
Сейчас мы это покажем. Надеюсь только, что вы не забыли, что
при работе с условной вероятностью вероятность условия счи-
тается положительной.
Пусть A не зависит от B, то есть P (A/B) = P (A). По опре-
делению условной вероятности получим:

P (AB)
= P (A) ⇐⇒ P (AB) = P (A)P (B).
P (B)

Следовательно,
P (AB) P (A)P (B)
P (B/A) = = = P (B).
P (A) P (A)

Таким образом, если A не зависит от B, то B не зависит от A,


то есть понятие независимости событий — понятие взаим-
ное. Поэтому лучше дать симметричное определение независи-
мых событий.
Определение 11.1. События A и B называются независимы-
ми, если
P (AB) = P (A)P (B) . (11.1)

При таком определении уже нет необходимости требовать поло-


жительности рассматриваемых вероятностей. Из формулы (11.1)
следует, что A не зависит от B, а B не зависит от A, то есть соот-
ветствующие условные вероятности равны безусловным. Кроме
56 Глава 1. Случайные события и аксиомы теории вероятностей

того, из нее вытекает, что невозможное событие Ø независимо с


любым другим.
Пожалуйста, не путайте понятия независимости и несов-
местности событий! Это совсем разные вещи. События могут
быть совместными, но независимыми и наоборот. Постарайтесь
сами привести примеры — тогда лучше запомнится! Кстати,
несовместные события, имеющие ненулевые вероятности, всегда
зависимы. Подумайте, почему это так!
Когда мы говорили о несовместности, то для n событий рас-
сматривали несовместность попарную и в совокупности. Анало-
гичные понятия вводятся и для независимых событий.

Определение 11.2. События A1 , A2 , . . . , An называются


попарно независимыми, если P (Ai Aj ) = P (Ai )P (Aj ) при
∀i 6= j; i, j = 1, n.
События A1 , A2 , . . . , An называются независимыми в сово-
купности, если

P (Ai1 Ai2 . . . Aik ) = P (Ai1 )P (Ai2 ) · . . . · P (Aik )

при ∀k = 2, n и различных ij : 1 ≤ ij ≤ n.

Очевидно, что из независимости в совокупности вытекает по-


парная независимость (при k = 2). Для несовместности было
наоборот. Когда говорят «рассмотрим независимые события»,
то обычно подразумевают независимые в совокупности, а для
несовместности было наоборот.
Может показаться, что и из попарной независимости следует
независимость в совокупности. Однако это не так.
Классический пример С. Н. Бернштейна покажет нам, что
существуют события, независимые попарно, но не независимые
в совокупности25 .
Пример 11.1. Пример Бернштейна.
Возьмем тетраэдр (правильную треугольную пирамиду), все гра-
ни которого окрашены (см. рис. 11.1). Одна грань — красная,
другая — синяя, третья — зеленая, а четвертая — пестрая, при-
чем на ней присутствуют все три цвета.
Эксперимент: бросаем пирамиду на плоскость произвольным
образом и наблюдаем цвет той грани, на которую она упадет.
25 В этом случае говорят, что независимость в совокупности — более «силь-
ное» требование, а попарная независимость — более «слабое».
§ 11. НЕЗАВИСИМЫЕ СОБЫТИЯ 57

K C

3
KC 3

Рис. 11.1. К примеру 11.1 (Пример Бернштейна)

Обозначим события:
К = {на нижней грани есть красный цвет},
С = {на нижней грани есть синий цвет},
З = {на нижней грани есть зеленый цвет}.

Для удобства мы обозначим события русскими буквами.


По классическому определению получим вероятности:
2 1
P (K) = P (C) = P (З) = = ,
4 2
так как всего у тетраэдра 4 грани, а каждый из цветов присут-
ствует на двух:
P (KC) = P (KЗ) = P (CЗ) =
1
= P {пирамида упала на пеструю грань} = =
4
1 1
= · = P (K) · P (C) = P (K) · P (З) = P (C) · P (З).
2 2
Следовательно, события К, С и З попарно независимы. В то же
время
1 1 1 1
P (KCЗ) = 6= · · = P (K) · P (C) · P (З).
4 2 2 2
Значит, события К, С и З не являются независимыми в совокуп-
ности.
Обычно независимость событий или сразу оговаривается в
условии задачи, или следует из ее условия.
Пример 11.2. Два стрелка независимо друг от друга стреляют
по одной мишени. Вероятность попадания для первого стрелка
58 Глава 1. Случайные события и аксиомы теории вероятностей

равна 0,6, для второго — 0,8. Определить вероятность: а) ровно


одного попадания; б) хотя бы одного попадания.
Решение начнем с того, что обозначим за A и B события, ве-
роятности которых нужно найти. Пусть событие

A = {ровно одно попадание},


B = {хотя бы одно попадание}.

Следует обозначить и те события, вероятности которых извест-


ны: A1 = {попал I стрелок}, A2 = {попал II стрелок}.
Разберемся, как связаны «сложные» события A и B с «про-
стыми» A1 и A2 . Событие A наступает, когда попадает ровно
один стрелок — либо первый (второй не попал), либо второй
(первый не попал). Значит, A = A1 A2 + A1 A2 . Мы имеем дело
с суммой двух несовместных событий A1 A2 и A1 A2 . Кроме того,
события A1 и A2 независимы по условию задачи26 . Следователь-
но,

P (A) = P (A1 A2 ) + P (A1 A2 ) = P (A1 )P (A2 )+


+P (A1 )P (A2 ) = 0, 6 · 0, 2 + 0, 4 · 0, 8 = 0, 44.

Теперь займемся событием B. Оно наступает, когда попадет


хотя бы один из стрелков. Событие B можно представить по-
разному. Можно записать B = A1 + A2 и воспользоваться тео-
ремой сложения, а можно представить B в виде суммы несов-
местных событий:

B = A1 A2 + A1 A2 + A1 A2 .

Вычислим вероятность, используя независимость A1 и A2 , для


обоих представлений:

P (B) = P (A1 + A2 ) = P (A1 ) + P (A2 ) − P (A1 A2 ) =


= 0, 6 + 0, 8 − 0, 6 · 0, 8 = 0, 92
или
P (B) = P (A1 A2 ) + P (A1 A2 ) + P (A1 A2 ) =
= 0, 6 · 0, 2 + 4 · 0, 8 + 0, 6 · 0, 8 = 0, 92.
26 Можно доказать, что если некоторые из независимых событий A , ..., A
1 n
(или все) заменить на противоположные, то получатся также независимые
события.
§ 12. ФОРМУЛА ПОЛНОЙ ВЕРОЯТНОСТИ И ФОРМУЛА БАЙЕСА 59

Ответы получились одинаковые, что неудивительно, так как оба


способа решения верные. Выбирайте тот, который больше по ду-
ше. Однако понять следует оба способа, так как для суммы да-
же трех событий формула сложения выглядит уже довольно гро-
моздко.
Вдумчивый читатель поймет, что если события несовместны,
то они зависимы. Действительно:

P (AB) = P (Ø) = 0 6= P (A) · P (B),

если A и B имеют положительные вероятности. Поэтому незави-


симые события всегда совместны, и их можно изобразить с по-
мощью диаграмм Венна так, как на рис. 11.2. Тогда

P (AB) = P (A) · P (B) = pA · pB ,

что отражено в соответствующем соотношении площадей.

Y
1
A W

pB
AB

B
O p 1 X
A

Рис. 11.2. Диаграммы Венна для независимых событий

Подумайте: что можно сказать о независимости достоверного


и невозможного событий от любого другого?

§ 12. ФОРМУЛА ПОЛНОЙ ВЕРОЯТНОСТИ


И ФОРМУЛА БАЙЕСА
Представим себе такую ситуацию. Пусть может произойти
какое-нибудь из событий H1 , H2 , . . . , Hn . В зависимости от
того, какое из этих событий произошло, событие A может на-
ступить обязательно (то есть P (A/Hk ) = 1), не наступить
(то есть P (A/Hi ) = 0) или наступить с некоторой вероятностью
60 Глава 1. Случайные события и аксиомы теории вероятностей

P (A/Hm ) ∈ (0, 1). Пусть мы умеем вычислять указанные услов-


ные («апостериорные» — после опыта) вероятности, а нас ин-
тересует P (A) — безусловная («априорная» — до опыта) веро-
ятность события A. Оказывается, ее можно вычислить, если
события {Hk }nk=1 образуют полную группу. В этом случае собы-
тия H1 , . . . , Hn обычно называют «гипотезами». Естественно,
следует потребовать, чтобы P (Hk ) 6= 0, k = 1, n.
Как и ранее, мы предполагаем, что осуществляется некото-
рый комплекс условий, введено вероятностное пространство
{Ω, F, P } и все события: A, Hk ∈ F, k = 1, n.

Теорема 12.1. Формула полной вероятности.


Пусть события H1 , . . . , Hn (гипотезы) образуют полную груп-
пу, а A ∈ F — любое событие. Тогда

n
X
P (A) = P (Hk )P (A/Hk ) . (12.1)
k=1

Доказательство. Поскольку события {Hk }nk=1 образуют пол-


S
n
ную группу, то Ω = Hk и они попарно несовместны. Следо-
k=1
вательно, события AHk (k = 1, n) тоже попарно несовместны
(рис. 12.1). Используя свойства событий, аксиому аддитивности

W
H1 H2 H3

aa
A
aa
Нn aaH
4

Рис. 12.1. К доказательству формулы полной вероятности


§ 12. ФОРМУЛА ПОЛНОЙ ВЕРОЯТНОСТИ И ФОРМУЛА БАЙЕСА 61

и формулу умножения вероятностей, получим:


n
[ n
[
P (A) = P (A ∩ Ω) = P (A ∩ Hk ) = P ( AHk ) =
k=1 k=1
n
X n
X
= P (AHk ) = P (Hk )P (A/Hk ),
k=1 k=1

то есть формула (12.1) выполняется.


Формула полной вероятности впервые появилась в письмах
Паскаля к Ферма. Паскаль использовал в качестве гипотез
противоположные события H и H — они ведь образуют пол-
ную группу, не так ли? В то время эта формула никак не назы-
валась. Сформулировал же ее в окончательном виде Лаплас в
конце XVIII века.
Пример 12.1. Кодовый сигнал содержит 5 знаков: 0 или 1. При
передаче цифра 0 искажается с вероятностью 0,1 а цифра 1 —
с вероятностью 0,2. Был передан наугад один из 3 сигналов:
00111, 10001 и 11011. Какова вероятность того, что был принят
сигнал 11001? Предполагается, что каждая цифра искажается
независимо от других.
Наверное, всем понятно, что принятый сигнал зависит от то-
го, который был передан. Поэтому рассмотрим 3 гипотезы:
H1 = {передан сигнал 00111},
H2 = {передан сигнал 10001},
H3 = {передан сигнал 11011}.

Поскольку сигнал передавался наугад, вероятности всех ги-


1
потез равны: P (H1 ) = P (H2 ) = P (H3 ) = (сумма вероятно-
3
P
n
стей гипотез P (Hk ) = 1 обязательно (!)). Рассмотрим собы-
k=1
тие A = {принят сигнал 11001}. Найдем условные вероят-
ности P (A/Hk ), k = 1, 3.
Пусть произошло событие H1 . Для того чтобы произошло
событие A, нужно, чтобы первая цифра «0» исказилась (вероят-
ность 0,1), вторая цифра «0» исказилась (вероятность 0,1), тре-
тья цифра «1» тоже исказилась (вероятность 0,2) и четвертая
цифра «1» исказилась (вероятность 0,2), а пятая цифра «1» про-
шла без искажения (вероятность 0,8). Поскольку все искажения
62 Глава 1. Случайные события и аксиомы теории вероятностей

не зависят друг от друга,


P (A/H1 ) = 0, 1 · 0, 1 · 0, 2 · 0, 2 · 0, 8 = 32 · 10−5 = 0, 00032.
Аналогично найдем
P (A/H2 ) = 0, 8 · 0, 1 · 0, 9 · 0, 9 · 0, 8 = 5184 · 10−5 = 0, 05184,
P (A/H3 ) = 0, 8 · 0, 8 · 0, 9 · 0, 2 · 0, 8 = 9216 · 10−5 = 0, 09216.
Нам осталось записать формулу полной вероятности при
n = 3 и подставить найденные значения:
P (A) = P (H1 )P (A/H1 ) + P (H2 )P (A/H2 ) + P (H3 )P (A/H3 ) =
1 1 1
= · 32 · 10−5 + · 5184 · 10−5 + · 9216 · 10−5 =
3 3 3
1
= (32 + 5184 + 9216) · 10−5 = 0, 04810(6) ≈ 0, 05.
3
Вы, конечно, понимаете, что сохранять так много десятичных
цифр, когда речь идет о вероятности, нет необходимости. Нужно
только не увлекаться округлением в промежуточных вычислени-
ях, чтобы погрешность округления не превысила значения самой
вероятности. Найденное точное значение мы еще используем в
примере 12.2.
А сейчас представим себе, что мы уже узнали: наступило со-
бытие A, а гипотезы... остаются гипотезами — мы не знаем, ка-
кое из событий Hk произошло. Естественно, в такой ситуации
нас интересуют вероятности этих событий при условии, что про-
изошло событие A: P (Hk /A), k = 1, n, или одна из этих вероят-
ностей.

Теорема 12.2. Формула Байеса27 . В условиях теоремы 12.1

P (Hm )P (A/Hm )
P (Hm /A) = P
n , m = 1, n. (12.2)
P (Hk )P (A/Hk )
k=1

Вы заметили, что в знаменателе формулы (12.2) стоит просто


P (A), расписанная по формуле полной вероятности?
27 Б. В. Гнеденко [4] пишет, что Байес не выводил формулы (12.2), а только
записал определение условной вероятности. Формулу же Байеса вывел Лаплас
в конце XVIII века.
§ 12. ФОРМУЛА ПОЛНОЙ ВЕРОЯТНОСТИ И ФОРМУЛА БАЙЕСА 63

Доказательство. Доказательство этой теоремы очень просто.


По определению условной вероятности и формуле умножения
P (Hm A) P (Hm )P (A/Hm )
P (Hm /A) = = =
P (A) P (A)
P (Hm )P (A/Hm )
= Pn
P (Hk )P (A/Hk )
k=1

для ∀m = 1, n. Не забудьте: если событие A выступает в качестве


условия, то должна быть P (A) 6= 0.
Формулы (12.2) иногда называют формулами вероятностей
гипотез.
Пример 12.2. Предположим, что в условиях примера 12.1 со-
бытие A произошло: был принят сигнал 11001. Попробуем вы-
яснить, какой из трех сигналов с наибольшей вероятностью был
передан. Все необходимые заготовки для решения этой задачи
уже сделаны. Более того, уже найдена вероятность P (A), стоя-
щая в знаменателе формулы (12.2). Поэтому сразу запишем:

1
P (H1 )P (A/H1 ) · 32 · 10−5
P (H1 /A) = = 3 ≈ 0, 002;
P (A) 0, 04810(6)
1
P (H2 )P (A/H2 ) · 5184 · 10−5
P (H2 /A) = = 3 ≈ 0, 36;
P (A) 0, 04810(6)
1
P (H3 )P (A/H3 ) · 9216 · 10−5
P (H3 /A) = = 3 ≈ 0, 64.
P (A) 0, 04810(6)
Сравнивая полученные условные вероятности, делаем вывод:
наиболее вероятно, что был передан третий сигнал 11011.
Во время решения этой задачи вы уже, наверное, заметили,
что если речь идет только о сравнении условных вероятностей
гипотез, то нет необходимости вычислять их полностью. Доста-
точно сравнить лишь числители — знаменатель у всех дробей
один и тот же.
А теперь мне хочется обратить ваше внимание вот на что.
Иногда в формулировке задачи указывают не все гипотезы Hk .
64 Глава 1. Случайные события и аксиомы теории вероятностей

Например, при стрельбе по цели указаны вероятности пораже-


ния цели при одном, двух, трех попаданиях, а нужно найти веро-
ятность поражения цели при трех выстрелах (событие A). В та-
ком случае следует самостоятельно ввести недостающие гипоте-
зы так, чтобы они образовывали полную группу. В рассмотрен-
ном только что примере, кроме гипотез

Hk = {произошло k попаданий в цель}, k = 1, 3,

следует ввести гипотезу H0 = {в цель не попали}, то есть {нуль


попаданий}. Правда, P (A/H0 ) = 0, но это уже детали — не
будет соответствующего слагаемого в формуле полной вероят-
ности, будет легче считать, можно не вычислять P (H0 ). Просле-
дить же за тем, чтобы {Hk } образовывали полную группу, необ-
ходимо. Иначе можно допустить ошибку — не все учесть.

Если кому-нибудь из вас понравилось решать задачи на
формулу полной вероятности и Байеса, на классическое опреде-
ление вероятности, использование комбинаторики, попробуйте
решить задачу, аналогичную примерам 12.1 и 12.2. Только пред-
положите, что при посылке кода из 5 цифр «0» или «1» наби-
раются наугад. Предупреждаю: это займет у вас много време-
ни. Задача станет интереснее и будет решаться быстрее, если вы
возьмете вероятности искажения «0» и «1» одинаковыми и рав-
1
ными , а принятый код, например, 00000 или 11111. Неплохо
2
было бы привлечь к решению этой задачи и § 13.

§ 13. ИСПЫТАНИЯ БЕРНУЛЛИ28


Вы бросаете монету: герб, решка, герб, решка. . . Вы стреля-
ете по цели: попал, не попал, попал. . . Вы следите за показани-
ями прибора на РЛС: есть сигнал, нет сигнала. . .
Все эти и многие другие ситуации можно отнести к испыта-
ниям Бернулли. Что такое испытание, объяснять не нужно. Это
тот же эксперимент. Просто, когда вы испытываете прибор (сло-
мается — не сломается), обычно вы не называете это экспери-
ментом, а называете испытанием. Ясно, что в результате каждо-
го испытания может очень много чего произойти: у испыта-
ния может быть много исходов. Представьте себе, что вас очень
волнует лишь один исход: обозначим его буквой «У» и назовем
28 Имеется в виду Якоб Бернулли, с именем которого мы уже неоднократно
встречались и еще встретимся.
§ 13. ИСПЫТАНИЯ БЕРНУЛЛИ 65

«успехом». Даже если «успех» означает взрыв прибора — ведь


обозначение чисто условно. Назовем «неудачей» — «Н» — все
остальные исходы вместе. Таким образом, мы можем считать,
что наше испытание имеет всего два исхода — «успех» и «не-
удача».
Предположим, что мы проводим не одно, а n испытаний:
1) при осуществлении одного и того же комплекса условий;
2) каждое испытание не зависит от всех предыдущих;
3) каждое испытание заканчивается одним из двух данных
исходов: «успехом» или «неудачей».
В этом случае говорят, что проводится последовательность неза-
висимых испытаний с двумя исходами. Будем обозначать k-е ис-
пытание готической буквой a (буква «а») с индексом k : ak . По-
лучим последовательность испытаний: a1 , a2 , ..., an .
Определение 13.1. Последовательность независимых испы-
таний с двумя исходами называется последовательностью ис-
пытаний Бернулли.

Поскольку все испытания проводятся независимо друг от


друга при осуществлении одного и того же комплекса условий,
то, очевидно, и вероятность появления «успеха» будет в каждом
испытании одна и та же. Обозначим ее буквой p: P (У) = p. Тогда
q = P (H) = 1 − p, так как «неудача» — это событие, противо-
положное «успеху».
Нас интересует совершенно естественный вопрос: если про-
вести n испытаний Бернулли, то сколько раз наступит «успех»?
Конечно, мы сможем ответить на этот вопрос, только указав ве-
роятность каждого конкретного количества «успехов» от 0 до n.
Давайте обозначим за µn — число «успехов» в n испытаниях
Бернулли, а
def
Pn (m) = P {µn = m} при m = 0, n.

Теорема 13.1. Формула Бернулли

Pn (m) = Cnm pm q n−m . (13.1)

Доказательство. Для доказательства этой теоремы назовем


ИСХОДОМ последовательности n испытаний Бернулли набор
66 Глава 1. Случайные события и аксиомы теории вероятностей

«успехов» и «неудач», которые произошли при этих испытани-


ях. Например, при n = 5 ИСХОДАМИ будут всевозможные
наборы: УУННН, УНУНУ и т. п. Очевидно, все эти ИСХО-
ДЫ несовместны — в результате n испытаний наступает лишь
один из них. Отличаются ИСХОДЫ друг от друга расположени-
ем «успехов» на n местах.
Нас интересуют лишь ИСХОДЫ с m «успехами». По несов-
местности вероятность того, что произойдет ровно m «успехов»
будет равна сумме вероятностей всех ИСХОДОВ с m «успе-
хами». Подсчитаем вероятность каждого конкретного ИСХО-
ДА, содержащего m «успехов». Результат каждого испытания
не зависит от всех остальных. Следовательно, в наборе «успе-
хов» и «неудач» каждого ИСХОДА события У, Н, У, У, Н будут
независимы, и вероятность их совместного осуществления равна
произведению вероятностей этих событий.
А теперь считаем: в каждом интересующем нас ИСХОДЕ
ровно m «успехов» и n − m «неудач». Следовательно, вероят-
ность каждого такого ИСХОДА равна произведению m раз чис-
ла p и n−m раз числа q. Вот и получается pm q n−m . Нам осталось
только сложить все эти вероятности (они равны, независимо от
расположения «успехов»!)
Однако, мы еще не подсчитали, сколько всего ИСХОДОВ
содержат ровно m «успехов». Чтобы это подсчитать, придется
привлечь комбинаторику. Таких ИСХОДОВ будет ровно столь-
ко, сколькими способами можно выбрать m мест из n для рас-
положения на них «успехов», то есть Cnm .
Итак, складываем Cnm одинаковых чисел pm q n−m и получаем
формулу (13.1) для Pn (m).

Замечание 13.1. Число успехов µn в последовательности из n


испытаний Бернулли — это целое число, которое может оказать-
ся любым: от 0 до n. Следовательно события {µn = m} при
m = 0, n должны образовывать полную группу: они несовмест-
ны и какое-нибудь из них обязательно наступит. Значит, сумма
их вероятностей должна быть равна 1. Проверим, получится ли
единица, если мы просуммируем все вероятности, вычисленные
по формуле (13.1):

n
X n
X
Pn (m) = Cnm pm q n−m = (p + q)n = 1. (13.2)
m=0 m=0
§ 13. ИСПЫТАНИЯ БЕРНУЛЛИ 67

В предпоследнем равенстве был использован бином Ньюто-


на (8.2).
В какой бы ситуации вы ни столкнулись с испытаниями Бер-
нулли, легче всего проводить параллель с бросанием монеты.
Например, «успех» — герб, «неудача» — решка. Только «моне-
1
та» может быть несимметричной и p 6= .
2
Пример 13.1. При вращении антенны обзорного радиолокатора
за время облучения цели успевает отразиться 8 импульсов. Для
обнаружения цели необходимо, чтобы через приемник на инди-
катор прошло не менее 7 отраженных импульсов. Вероятность
подавления импульса шумом в приемнике равна 0,1. Импульсы
подавляются шумом независимо один от другого. Какова вероят-
ность обнаружения цели за один оборот антенны радиолокатора
(событие A)?
Вы узнали испытания Бернулли? Всего 8 испытаний — 8 им-
пульсов. Прошел импульс на индикатор — «успех» (его вероят-
ность p = 1 − 0, 1 = 0, 9), не прошел — «неудача» (q = 0, 1). Для
того, чтобы произошло событие A, необходимо не менее 7 «успе-
хов», то есть либо 7, либо 8. Значит, событие A представляется
в виде суммы несовместных событий:

A = {прошло 7 импульсов} + {прошло 8 импульсов}.


Следовательно,
P (A) = P8 (7) + P8 (8) = C87 p7 q 1 + C88 p8 q 0 =
= 8 · 0, 97 · 0, 1 + 1 · 0, 98 · 1 ≈ 0, 81.
Теперь можно говорить и о вероятности пропуска цели ...
Интересно, а каково наивероятнейшее число «успехов»?
Чтобы это определить, нужно вычислить все вероятности Pn (m)
при m = 0, 1, . . . , n и сравнить их. Окажется, что Pn (m) снача-
ла возрастают с ростом m, а потом убывают. Значит, существует
среди этих вероятностей наибольшая.

Утверждение 13.1.1. Если m0 = np − q — целое чис-


ло, то max Pn (m) достигается при m = m0 и m = m0 + 1
m=0,n
(то есть
Pn (m0 ) = Pn (m0 + 1) > Pn (m)
для всех m : 0 ≤ m < m0 и m0 + 1 < m ≤ n).
68 Глава 1. Случайные события и аксиомы теории вероятностей

2. Если m0 = np − q — не целое число, то max Pn (m) до-


m=0,n

стигается при m = [m0 + 1] (целая часть числа m0 +1 — ведь


оно тоже не целое).

Доказательство этого утверждения не слишком сложно, но


слишком длинно. Кто хочет, может найти его в книге [4].
Пример 13.2. Бомбардировщик в одинаковых условиях произ-
водит по объекту 6 независимых бомбометаний. Вероятность
попадания в цель любой из бомб равна 0,4. 1. Найти наиверо-
ятнейшее число попаданий и его вероятность. 2. Определить
вероятность поражения объекта (событие A), если для этого
необходимо не менее двух попаданий.
Очевидно и в этой задаче мы имеем дело с последовательно-
стью испытаний Бернулли. Нас интересуют попадания — пусть
попадание это «успех». Определим параметры: n = 6; p = 0, 4;
q = 0, 6.
1. Вычислим m0 = np − q = 6 · 0, 4 − 0, 6 = 1, 8. Число
m0 не целое. Значит, наивероятнейшее число попаданий равно
[m0 + 1] = [1, 8 + 1] = [2, 8] = 2. Найдите сами соответствующую
вероятность: P6 (2).
2. Для осуществления события A необходимо не менее двух
попаданий, то есть 2, 3, 4, 5 или 6 — как много вероятностей
нужно сложить! Давайте-ка попробуем упростить себе работу —
найдем вероятность противоположного события

A = {произошло менее двух попаданий} =


= {0 попаданий} + {1 попадание}.

По несовместности получим: P (A) = P6 (0) + P6 (1). Тогда

P (A) = 1 − P (A) = 1 − P6 (0) − P6 (1) =


= 1 − 0, 66 − 6 · 0, 41 · 0, 65 = 0, 76672 ≈ 0, 77.

Пример 13.3. Узел связи полка обслуживает N абонентов, ко-


торые пользуются телефоном одинаково часто и в течение часа
производят каждый по n разговоров со средней продолжитель-
ностью 1/40 часа. Найти вероятность одновременного разговора
m абонентов.
§ 13. ИСПЫТАНИЯ БЕРНУЛЛИ 69

Испытания Бернулли налицо: среди N абонентов (N испы-


таний) каждый может в данный момент времени либо «висеть на
телефоне», либо нет. Нас интересует ровно m «успехов». Оче-
видно, в данном случае «успех» означает для каждого из або-
нентов разговор по телефону. Выясним вероятность «успеха» p,
то есть вероятность того, что абонент разговаривает по телефо-
ну в данный момент времени. Поскольку каждый из абонентов
разговаривает в течение часа n раз по 1/40 часа, можно вос-
пользоваться геометрической вероятностью с mes(D) = 1 часу,
mes(d) = n/40 часа. Получим
n/40 n
p= = .
1 40
Следовательно,
n m
m n
P (A) = CN) (1 − )N −m .
(
40 40

Попробуйте решить более сложную задачу: в течение часа не
каждый абонент разговаривает по телефону n раз по 1/40 часа,
а всего ведется n разговоров из N возможных по 1/40 часа каж-
дый.

Замечание 13.2. О полиномиальной схеме.
Пусть каждое испытание может закончиться не двумя, а r ис-
ходами: A1 , A2 , . . . , Ar , причем вероятность исхода Ak равна pk ,
k = 1, r; p1 + p2 + . . . + pr = 1. Обозначим за Pn (m1 , m2 , . . . , mr )
вероятность того, что в серии из n испытаний появилось ровно
mk исходов Ak , k = 1, r. Тогда

n!
Pn (m1 , m2 , . . . , mr ) = pm1 pm2 · . . . · pm
r .
r
m1 !m2 ! · . . . · mr ! 1 2

Замечание 13.3. Формула Стирлинга29 .
При больших значениях n число n! можно приближенно вы-
числить, используя следующую формулу:
µ ¶n
√ n θ √ n
n! = 2πn( )n · e 12n ≈ 2πn ,
e e
где θ = θ(n) — некоторое число: 0 < θ < 1.

29 Джеймс Сти́рлинг (Stirling James, 1692–1770) — шотландский математик.


Глава 2

СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И
ФУНКЦИИ ОТ НИХ

Понятие случайной величины выкристаллизовывалось в те-


чение нескольких столетий во время попыток найти какие-либо
количественные характеристики случайных явлений. Такие по-
пытки предпринимали в XVII веке Ферма и Паскаль в своей
переписке, затем Гюйгенс, Якоб и Николай Бернулли1 . Одна-
ко впервые само понятие случайной величины появилось толь-
ко в 1832 году в мемуарах Пуассона2 «О вероятности средних
результатов наблюдений». Правда, термин «случайная величи-
на» Пуассон не вводил, а говорил о «некоторой вещи», которая
способна принимать числовые значения a1 , a2 , . . . , an с вероят-
ностями p1 , p2 , . . . , pn соответственно. Термины «случайная»
и «систематическая» ошибка измерений ввел Галилей, занима-
ясь астрономией, а слово «величина» и «случайная величина»
появились лишь в лекциях Чебышёва и Ляпунова по теории ве-
роятностей.
В первой половине XIX века появились новые задачи, для
решения которых также потребовалось понятие случайной вели-
чины. Эти задачи были связаны с исследованиями уклонения ар-
тиллерийских снарядов от цели, с исследованиями Максвелла3 в
математической теории молекулярной физики газов и др. Лишь
в конце 1920-х годов А. Н. Колмогоровым было дано строгое
определение случайной величины, исключающее разночтения и
позволяющее использовать аппарат математического анализа.
Без понятия случайной величины не может обойтись ни одно
1 Николай Бернулли (Nicolas Bernoulli, 1687–1759) — племянник Якоба
Бернулли, математик и юрист.
2 Симеон Дени Пуассон (Poisson Siméon Denis, 1781–1840) — французский
механик, физик, математик.
3 Джеймс Клерк Ма́ксвелл (Maxwell James Clerk, 1831–1879) — английский
физик, создатель классической электродинамики. В 1873 г. ввел термин «гради-
ент» и обозначение grad.
§ 14. ОПРЕДЕЛЕНИЕ СЛУЧАЙНОЙ ВЕЛИЧИНЫ 71

техническое исследование. Это понятие дает возможность изу-


чать количественные характеристики случайных явлений и де-
лать выводы на основе наблюдений, не вдаваясь в подробное
изучение взаимосвязи полученных результатов и их причин.

§ 14. ОПРЕДЕЛЕНИЕ СЛУЧАЙНОЙ ВЕЛИЧИНЫ


Вам случалось играть в какую-нибудь игру, связанную с бро-
санием монеты? Пусть, например, условия игры таковы. Один
из игроков бросает монету. Если выпадет герб, он выигрывает
1 рубль (или 1 миллион рублей?). Если выпадет решка — от-
дает 1 рубль... Мы снова бросаем монету! И мы уже привыкли
связывать с бросанием монеты дискретное вероятностное про-
странство {Ω, F, P }, где Ω = {ωГ , ωР }, F = {ωГ , ωР , Ω, Ø}, а
вероятность определена в предположении, что монета симмет-
ричная: P (ωГ ) = P (ωР ) = 1/2. (О том, что P (Ω) = 1, P (Ø) = 0
не стоит и напоминать — это само собой разумеется!).
Так что же мы сделали, рассматривая игру? Мы связали со
«случаем» — с элементарными исходами ωГ и ωР некоторую
числовую функцию ξ(ω) — выигрыш или проигрыш 1 рубля:
ξ(ωГ ) = +1, ξ(ωР ) = −1. Мы можем подсчитать вероятность
выигрыша: P {ξ(ω) = +1} = P (ωГ ) = 1/2.
Рассмотрим другой пример. Будем наугад стрелять по мише-
ни (область (D) на рис. 14.1), связывая с данным комплексом

Рис. 14.1. Пример случайной величины

условий непрерывное вероятностное пространство {Ω, F, P },


где Ω = {ωxy : (x, y) ∈ (D)}, ωxy = {попадание в точку (x, y)},
F — множество событий, заключающихся в попадании в какие-
либо подмножества множества (D)4 . Вероятность P определим
как геометрическую.
4F — σ-алгебра событий.
72 Глава 2. Случайные величины и функции от них

Сопоставим каждому элементарному исходу ωxy число

def p
ξ(ωxy ) = x2 + y 2 = r.

Получим числовую функцию ξ(ω), значения которой равны рас-


стоянию от начала координат до точки попадания.
В обоих примерах мы построили числовую функцию, опреде-
ленную на множестве Ω, которое нам известно. Потом мы назо-
вем такую функцию случайной величиной. Бывают ситуации, ко-
гда мы можем только наблюдать (или измерять) значения слу-
чайной величины, не зная причин, от которых эти значения
зависят.
Например, мы хотим измерить амперметром силу тока в цепи.
Проводим n испытаний, n измерений — и каждый раз получаем
разные значения в одних и тех же (казалось бы!) условиях. По-
чему? Да потому, что при каждом испытании возникает ряд слу-
чайных факторов, которые мы не можем учесть — мы их не знаем
или не можем измерить. Из-за этого стре́лка прибора чуть-чуть
отклоняется от номинального значения I, и мы получаем ряд на-
блюдений i1 , i2 , . . . , in вместо истинного I. Эти значения «зави-
сят от случая» — они являются значениями случайной величины
ξ(ω) — показания стрелки прибора, но сами ω мы, как правило,
установить не в состоянии.
Кстати, скажите, какое значение вы возьмете в качестве I?
Думаю, вы все единодушны — конечно же, среднее арифмети-
ческое:
i1 + i2 + ... + in
I :≈ .
n
А почему? Затрудняетесь ответить? И неспроста: не всегда сред-
нее арифметическое показаний является наиболее точным при-
ближением измеряемой величины. Как себя ведет среднее ариф-
метическое в описанной ситуации, мы узнаем еще не скоро —
для этого нужно изучить предельные теоремы теории вероят-
ностей, а пока что дадим, наконец, определение случайной ве-
личины.

Определение 14.1. Будем называть случайной величиной


вещественную числовую функцию ξ(ω), определенную на мно-
жестве Ω элементарных исходов (ω ∈ Ω) в предположении, что
задано вероятностное пространство {Ω, F, P }.
§ 14. ОПРЕДЕЛЕНИЕ СЛУЧАЙНОЙ ВЕЛИЧИНЫ 73

Это определение упрощено. При строгом определении слу-


чайной величины требуется, чтобы F была σ-алгеброй, а множе-
ство тех ω ∈ Ω, на которых ξ(ω) < x, x ∈ R, являлось событием,
то есть содержалось в F (см. [1, 4]).
Поскольку множество Ω и случайные величины не рассмат-
риваются в теории вероятностей в отрыве от вероятностного про-
странства, часто говорят, что случайная величина ξ(ω) «опреде-
лена на вероятностном пространстве {Ω, F, P }».
Будем обозначать случайные величины греческими буквами
ξ, η, ζ, ϕ, ψ, ... и иногда сокращенно записывать «с.в.»
Договоримся, что аргумент ω мы каждый раз писать не бу-
дем — только изредка, когда требуется более строгое пояснение.
Но мы ни на секунду не будем забывать о том, что случайная ве-
личина — это функция от ω ∈ Ω.
Таким образом, получается следующая схема:

случайный эксперимент


y
вероятностное пространство


y
случайная величина

При проведении случайного эксперимента наступает какой-


либо из элементарных исходов. В зависимости от того, какой из
них наступил, случайная величина принимает то или иное кон-
кретное значение.
Конкретное значение a случайной величины ξ: ξ(ω) = a часто
называют реализацией этой случайной величины.
Естественно, при работе со случайной величиной (раз ее зна-
чения «зависят от случая») мы не сможем точно указать, какое
именно значение она примет. Это можно сделать только с неко-
торой вероятностью. Сейчас мы запишем несколько формул.
Будьте очень внимательны и хорошо их осознайте:

P {ξ = a} = P {ξ(ω) = a} = P {ω ∈ Ω : ξ(ω) = a}, (14.1)


P {ξ < a} = P {ξ(ω) < a} = P {ω ∈ Ω : ξ(ω) < a}, (14.2)
P {ξ ∈< a, b >} = P {ξ(ω) ∈< a, b >} =
= P {ω ∈ Ω : ξ(ω) ∈< a, b >}. (14.3)
74 Глава 2. Случайные величины и функции от них

Мы знаем, что вероятность определена только на подмножествах


множества Ω — их мы называем событиями. Так вот: вероят-
ность того, что случайная величина ξ приняла конкретное зна-
чение a (или ее значение принадлежит некоторому промежут-
ку) — это вероятность множества тех ω ∈ Ω, на которых ξ(ω)
принимает заданное значение a (или на которых значения ξ(ω)
принадлежат данному промежутку). Ну а как искать вероятности
событий из F, мы уже изучили в первой главе.
Чтобы сократить запись, указанные события обычно не рас-
писывают через ω, а пишут короче, что и мы будем отныне делать.
Итак,

P {ξ ∈ (D)} = P {ω ∈ Ω : ξ(ω) ∈ (D)} , (14.4)

где (D) — числовое множество. В частности, оно может состоять


из одной точки, то есть ξ = a.
Примем без доказательства следующее утверждение.

Утверждение 14.1. Если ξ — случайная величина, а g(x) —


кусочно-непрерывная числовая функция числового аргумента,
то η = g(ξ) — тоже случайная величина.

Нас интересуют вероятности того, что случайная величина ξ


принимает различные значения.
Если известно правило, по которому мы можем вычислить
любую вероятность P {ξ ∈ (D)}, то говорят, что задано распре-
деление5 случайной величины ξ. Распределение можно задать:
• простым перечислением значений случайной величины ξ и
их вероятностей;
• с помощью функции распределения;
• с помощью плотности распределения.
Что такое функция и плотность распределения случайной вели-
чины, нам еще предстоит внимательно изучить.
Отметим сразу же, что если у двух случайных величин одина-
ковые распределения, то такие случайные величины отождеств-
ляются. Таким образом, можно сказать, что случайные величи-
ны изучаются «с точностью до распределения». В настоящее вре-
мя разработан математический аппарат, который позволяет опе-
рировать со случайными величинами, не строя вероятностного
5 Строгое определение распределения см. в [1].
§ 15. ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ 75

пространства, на котором они определены. Однако оно всегда


предполагается заданным. В тех случаях, когда требуется глуб-
же изучить и осознать свойства случайных величин, мы будем к
нему обращаться6 .

§ 15. ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНОЙ


ВЕЛИЧИНЫ И ЕЕ СВОЙСТВА
Пусть на вероятностном пространстве {Ω, F, P } задана слу-
чайная величина ξ.
Определение 15.1. Функцией распределения случайной ве-
личины ξ называется функция

def
F (x) = P {ξ < x}, ∀x ∈ R. (15.1)

(Иногда функцию распределения случайной величины ξ обо-


значают Fξ (x) и сокращенно пишут «ф.р.».)

Из определения 15.1 следует, что:


1) функция распределения — это вещественная числовая
функция вещественного числового аргумента x;
2) функция распределения определена на всей числовой
прямой;
3) значения функции распределения удовлетворяют нера-
венству
0 ≤ F (x) ≤ 1, ∀x ∈ R;

4) график функции распределения расположен в полосе


(−∞, +∞) × [0, 1] (рис. 15.1);
5) с геометрической точки зрения значение функции рас-
пределения в точке x — это вероятность попадания значения
случайной величины ξ (реализации ξ) в интервал (−∞, x)
(рис. 15.2);
6) F (x) = P {ω ∈ Ω : ξ(ω) < x}.
6 Если построение множества элементарных исходов, от наступления кото-

рых зависят значения случайной величины ξ, затруднено, но известно ее распре-


деление, то всегда можно построить абстрактную модель вероятностного про-
странства. Подробнее об этом можно прочитать в книге [1].
76 Глава 2. Случайные величины и функции от них

X
0

Рис. 15.1. Полоса для графика функции распределения

X
x x

Рис. 15.2. Интервал значений ξ для поиска функции распределения

Почему же так важна функция распределения при изучении


случайной величины ξ? Да потому, что, зная функцию распре-
деления, мы можем узнать вероятность того, что ξ ∈ (D), где
(D) — практически любое множество на прямой: точка, проме-
жуток, объединение или пересечение промежутков, то есть узнать
распределение случайной величины ξ. Как это делается, мы рас-
смотрим чуть позднее. Строгое же доказательство этого факта
выходит за рамки нашего курса — мы не изучали аксиому непре-
рывности. Мне остается только отослать любознательных все к
той же книге [1].
А сейчас мы докажем одну очень важную теорему.

Теорема 15.1. Свойства функции распределения.


1. Функция распределения F (x) монотонно не убывает.
2. Функция распределения F (x) непрерывна слева.

3. lim F (x) = 0, lim F (x) = 1


x→−∞ x→+∞

Доказательство.
1. Пусть x < y. Если мы покажем, что F (x) ≤ F (y) для лю-
бых таких x и y, то это и будет означать монотонное неубы-
вание функции распределения F (x).
§ 15. ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ 77

Вспомним свойство монотонности вероятности (§ 6) и за-


метим, что при x < y из неравенства ξ < x следует нера-
венство ξ < y. Значит, событие {ξ < x} влечет за собой
событие {ξ < y} : {ξ < x} ⊂ {ξ < y}. Следовательно, по
монотонности вероятности
F (x) = P {ξ < x} ≤ P {ξ < y} = F (y),
что и требовалось доказать.
2. Непрерывность слева означает, что левый предел
F (x0 −) = lim F (x) = F (x0 ).
x→x0 −

Этот факт мы оставим без доказательства.


3. Будем считать очевидными следующие равенства:
lim F (x) = lim P {ξ < x} = P {ξ < −∞} = P (Ø) = 0;
x→−∞ x→−∞

lim F (x) = lim P {ξ < x} = P {ξ < +∞} = P (Ω) = 1.


x→+∞ x→+∞

Замечание 15.1. Если некоторая функция F (x) обладает свой-


ствами 1, 2 и 3 теоремы, то существует вероятностное простран-
ство и случайная величина ξ, для которой эта функция является
функцией распределения (см. [1]).
Следующая теорема тоже очень важна: она поможет нам ис-
кать различные вероятности с помощью функции распределения.

Теорема 15.2. Применение функции распределения для


вычисления вероятностей.
Пусть F (x) — функция распределения случайной величины ξ.
Тогда:
1. для ∀x, y ∈ R

P {x ≤ ξ < y} = F (y) − F (x) ; (15.2)


0, если F (x) непрерывна в точке x0 ;
2. P {ξ = x0 } = F (x0+ )−F (x0 ), если x0 — точка разрыва

функции F (x).
78 Глава 2. Случайные величины и функции от них

Здесь F (x0+ ) − F (x0 ) — скачок функции распределения, а


F (x0+ ) = lim F (x) есть правый предел функции F (x) в точке
x→x0 +
x0 . Не забудем, что функция распределения непрерывна слева, а
значит, F (x0− ) = F (x0 ).
Доказательство.
1. В доказательстве теоремы 15.1 мы уже выяснили связь собы-
тий: {ξ < x} ⊂ {ξ < y}, если x < y. Событие {x ≤ ξ < y}

X
x y

Рис. 15.3. Событие {x ≤ ξ < y}

означает, что выполняется событие {ξ < y}, но не выполняется


событие {ξ < x} (рис. 15.3). Вспоминая формулу для вероятно-
сти разности событий (§ 6), запишем:
P {x ≤ ξ < y} = P {{ξ < y} r {ξ < x}} =
= P {ξ < y} − P {ξ < x} = F (y) − F (x).
2. Используя (15.2), можно записать:
P {ξ = x0 } = lim P {ξ ∈ [x0 , x0 + ∆x)} =
∆x→0+

= lim P {x0 ≤ ξ < x0 + ∆x} =


∆x→0+

= lim [F (x0 + ∆x) − F (x0 )] = F (x0 +) − F (x0 ).


∆x→0+

Так как F (x0 ) = F (x0 −), разность F (x0 +) − F (x0 ) есть скачок
функции F (x) в точке x0 7 . Если функция распределения непре-
рывна в точке x0 , то F (x0 +) = F (x0 ) и скачок равен нулю. Сле-
довательно, и P {ξ = x0 } = 0 для непрерывной в точке x0 функ-
ции распределения.
Прочитаем еще раз формулировки теорем 15.1 и 15.2 и поду-
маем, какой можно сделать вывод о характере графика функции
распределения.
7 Так как ф. р. монотонна, у нее могут быть только точки разрыва I рода, при-

чем их число не более чем счетно (см. [1]).


§ 15. ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ 79

Вывод: Схематический график любой функции распределе-


ния должен быть одного из трех видов (рис. 15.4–15.6).
Можно ли по виду графика функции распределения сделать
какое-либо заключение о распределении соответствующей слу-
чайной величины?
Если функция распределения непрерывна на всей числовой
прямой (рис. 15.4), то P {ξ = x0 } = 0 для ∀x0 ∈ R. Это не озна-
чает, что с.в. ξ не может принять значение x0 — не обязатель-
но событие {ξ = x0 } является невозможным. Более того, с.в. ξ
обязательно принимает какие-то значения. Мы встретились с
еще одним примером события, имеющего нулевую вероятность,
но не являющегося невозможным (вспомните стрельбу по мише-
ням, непрерывное вероятностное пространство).

Рис. 15.4. Функция распределения непрерывна

Если функция распределения с.в. ξ имеет скачки h1 и h2


в точках x1 и x2 соответственно, то P {ξ = x1 } = h1 > 0, а
P {ξ = x2 } = h2 > 0. Вероятность же того, что с.в. ξ прини-
мает какое-либо значение x3 , являющееся точкой непрерывно-
сти F (x), равна нулю: P {ξ = x3 } = 0 для ∀x3 ∈ R, x3 6= x1 ,
x3 6= x2 . Таким образом, по виду графика функции распределе-
ния, изображенного на рис. 15.5, делаем вывод: значения x1 и x2

Рис. 15.5. Функция распределения имеет скачки


80 Глава 2. Случайные величины и функции от них

принимаются случайной величиной ξ с положительными вероят-


ностями h1 и h2 , а все остальные значения могут приниматься
лишь с нулевой вероятностью.
Это трудно осознать сразу: событие имеет нулевую вероят-
ность и все-таки оно может наступить... Не пугайтесь. Ситуация
прояснится, когда мы изучим непрерывные случайные величины
и плотность распределения вероятностей.
А теперь давайте посмотрим на график функции распределе-
ния, изображенный на рис. 15.6. Попробуйте сами определить:
какие значения может принимать с.в. ξ; с какими вероятностя-
ми; чему равна сумма h1 + h2 + h3 и почему?
Y
1
h3 } y = F(x)

h2
}
h1 }
х1 0 х2 х3 х4 х5 X

Рис. 15.6. Функция распределения кусочно-постоянна

В теории вероятностей очень важным понятием является


понятие независимых случайных величин.

Определение 15.2. Случайные величины ξ и η называются


независимыми, если события ξ < x и η < y являются незави-
симыми для ∀x, y ∈ R, то есть

P {{ξ < x} ∩ {η < y}} = P {ξ < x} · P {η < y} = Fξ (x) · Fη (y),

где Fξ (x) — функция распределения с.в. ξ, а Fη (y) — функция


распределения с.в. η.

Доказывать не будем, но заметим, что:


1) случайные величины h(ξ) и g(η), являющиеся функциями
независимых случайных величин ξ и η, также независимы;
2) любые события, связанные с независимыми случайными
величинами, являются независимыми.
Например, для независимых случайных величин ξ и η
P {ξ = a, η = b} = P {ξ = a} · P {η = b}.
§ 16. ДИСКРЕТНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 81

§ 16. ДИСКРЕТНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ


Пусть задано вероятностное пространство {Ω, F, P }.
Определение 16.1. Случайная величина ξ называется дис-
кретной случайной величиной, если она принимает с вероят-
ностью 1 конечное или счeтное множество значений.
Разберемся в этом определении. Если кому-то из вас этот
разбор покажется сложным, опустите его и запомните только
определение и вывод.

В § 14 мы говорили о том, что нас интересует распределе-
ние случайной величины ξ. Дискретная случайная величина име-
ет распределение, которое описывается очень просто: перечис-
ляются ее значения x1 , x2 , . . . , xn (если их конечное число)
или x1 , x2 , . . . , xn , . . . (если бесконечное) и указываются веро-
ятности, с которыми эти значения принимаются: p1 , p2 , . . . , pn
(или p1 , p2 , . . . , pn , . . .). Пусть значений конечное число. Посмот-
рите ещe раз на формулы (14.1)–(14.4), которые мы с вами
пытались как следует осознать и говорили о том, что событие
{ξ ∈ (D)} — это подмножество множества Ω. Сейчас мы этим
воспользуемся.
Рассмотрим события
Ak = {ξ = xk } = {ω ∈ Ω : ξ(ω) = xk }; P (Ak ) = pk , k = 1, n.
(16.1)
Ясно, что эти события несовместны, так как ξ(ω) — одно-
значная функция и на каждом из элементарных исходов ω прини-
мает лишь одно значение: либо x1 , либо x2 , либо x3 и т. д. В опре-
делении 16.1 говорится, что с.в. ξ принимает указанные значения
с вероятностью 1. Это означает, что
1 = P {ξ принимает значение x1 , или x2 , . . . , или xn } =
n n n
©[ ª X X
=P Ak = P (Ak ) = pk .
k=1 k=1 k=1

Не всякое событие, имеющее вероятность 1, является досто-


верным, так как оно может содержать не все элементарные ис-
ходы. Некоторые исходы имеют нулевую вероятность. Значит,
с.в. ξ, вообще говоря, может принимать и другие значения, от-
личные от x1 , . . . , xn (может быть, их даже бесконечно много),
но (!) с нулевыми вероятностями. Поэтому соответствующие со-
бытия мы рассматривать не будем и будем считать, что события
Ak , k = 1, n, образуют полную группу.
82 Глава 2. Случайные величины и функции от них

Все случайные величины, которые имеют данное распреде-


ление вероятностей, то есть принимают значения x1 , . . . , xn с
P
n
вероятностями соответственно p1 , . . . , pn ; pk = 1, мы будем
k=1
называть одинаково распределенными и, как правило, будем
отождествлять — «рассматривать с точностью до распределе-
ния», как уже было отмечено в § 14.
Таким образом, все множество Ω можно разбить на n под-
множеств Ak , k = 1, n (рис. 16.1). На каждом таком подмноже-
стве Ak случайная величина ξ принимает одно и то же значение
xk : ξ(ω) = xk , если ω ∈ Ak . Вероятность множества (то есть
события) Ak равна pk : P {ξ = xk } = P (Ak ) = pk , k = 1, n.

Рис. 16.1. Структура Ω для дискретного распределения

Если с.в. ξ принимает счетное множество значений, то, про-


водя аналогичные рассуждения, получим, что множество Ω раз-
бивается на бесконечное число несовместных событий Ak . При
этом должен сходиться ряд

X
pk = 1 . (16.2)
k=1

Для простоты почти во всех рассуждениях мы будем рассмат-


ривать конечное множество значений ξ.
Вывод. Дискретная случайная величина (д.с.в.) ξ принимает
конечное (или счетное) множество значений x1 , . . . , xn с
положительными вероятностями p1 , . . . , pn , причем
n
X
pk = 1 . (16.3)
k=1
§ 16. ДИСКРЕТНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 83

Числа x1 , . . . , xn мы будем называть возможными значени-


ями дискретной случайной величины ξ. События Ak = {ξ =
= xk }, k = 1, n, образуют полную группу (рис. 16.1). (Здесь
n ∈ N или n = ∞).
Обычно распределение дискретной случайной величины ξ
задается с помощью ряда распределения — таблицы, в кото-
рой указываются возможные значения ξ и их вероятности
(табл. 16.1).

Таблица 16.1. Ряд распределения с.в. ξ

ξ x1 x2 ... xn
pk p1 p2 ... pn

При составлении ряда распределения значения с.в. обычно рас-


полагают в порядке возрастания, то есть xk−1 < xk , k = 2, n.
Иногда вместо ряда распределения задают многоугольник рас-
пределения (рис. 16.2): по оси OX откладывают возможные зна-
чения ξ, по оси OY — их вероятности.

Рис. 16.2. Многоугольник распределения

Если значений счетное множество, то следует указать закон,


по которому вычисляются xk и pk , k = 1, ∞.
Пример 16.1. Независимо друг от друга посылаются 3 сигнала.
Каждый из сигналов может «потеряться» (быть не принятым) с
вероятностью 0,1. Найти распределение дискретной случайной
величины ξ — числа принятых сигналов.
Чтобы найти распределение дискретной случайной величины,
как мы уже знаем, достаточно построить ряд распределения. За-
полним таблицу 16.1, рассуждая и вычисляя: какие значения мо-
жет принимать ξ и с какими вероятностями. С.в. ξ — число при-
нятых сигналов. Следовательно, она может принимать значения
0, 1, 2, 3. Вычислим соответствующие вероятности.
84 Глава 2. Случайные величины и функции от них

Пусть событие Ak = {принят k-й сигнал}, k = 1, 2, 3. То-


гда по свойствам вероятностей независимых и несовместных со-
бытий
p0 = P {ξ = 0} = P {не принят ни один сигнал} =
= P (A1 A2 A3 ) = P (A1 )P (A2 )P (A3 ) = 0, 13 = 0, 001;
p1 = P {ξ = 1} = P {принят ровно 1 сигнал} =
= P (A1 A2 A3 + A1 A2 A3 + A1 A2 A3 ) = 0, 9 · 0, 1 · 0, 1 +
+ 0, 1 · 0, 9 · 0, 1 + 0, 1 · 0, 1 · 0, 9 = 3 · 0, 9 · 0, 12 = 0, 027.
Вы не хотите подсказать более рациональный способ вычис-
ления вероятности p1 ? Вы не узнали испытания Бернулли? Фак-
тически, сейчас мы вычисляли вероятность того, что в 3 ис-
пытаниях Бернулли с вероятностью «успеха» 0,9 будет ровно
1 «успех»: P3 (1) = C31 · 0, 91 · 0, 12 = 3 · 0, 9 · 0, 12 . Вычислим же
p2 и p3 рационально:
p2 = P {ξ = 2} = P3 (2) = C32 · 0, 92 · 0, 1 = 0, 243;
p3 = P {ξ = 3} = P3 (3) = C33 · 0, 93 · 0, 1o = 0, 729.

Таблица 16.2. Ряд распределения с.в. ξ (к примеру 16.1)

ξ 0 1 2 3
pk 0, 001 0, 0027 0, 243 0, 729

Ряд распределения с.в. ξ приведен в таблице 16.2. Это и есть


ответ решаемой задачи. Как его проверить? Мы вычисляли и мог-
ли ошибиться! Думаю, вы догадались: нужно проверить равен-
P
3
ство (16.3): pk = 0, 001 + 0, 027 + 0, 243 + 0, 729 = 1.
k=0

Подумайте, на каком вероятностном пространстве задана
случайная величина ξ.
Замечание 16.1. Пример 16.1 можно обобщить: число успе-
хов µn в n испытаниях Бернулли с вероятностью «успеха» p
является дискретной случайной величиной, принимающей зна-
чения 0, 1, 2, . . . , n с вероятностями, равными соответственно
Pn (m) = Cnm pm q n−m , где q = 1 − p, а m = 0, n. Мы уже прове-
Pn
ряли, что Pn (m) = 1 (см. § 13).
m=0
§ 16. ДИСКРЕТНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 85

Если ваш товарищ предложит вам решить задачу, в которой


указан ряд распределения дискретной случайной величины, а вы
обнаружили, что сумма вероятностей не равна 1, вы смело мо-
жете ему сказать: «Эту задачу я решать не буду, она поставлена
некорректно, так как то, что ты мне предлагаешь, не является
распределением случайной величины».

Пример 16.2. Правильная монета бросается до тех пор, пока


не выпадет герб. Найти распределение случайной величины ξ —
числа выпавших решек.
В примере 5.3 мы строили вероятностное пространство для
данного комплекса условий. Теперь каждому элементарному
исходу
| {z } Г}
ωk = { PP...P
(k−1) раз

сопоставляется значение случайной величины: ξ(ωk ) = xk =


k − 1, k = 1, ∞. Таким образом, с.в. ξ оказывается дискретной
случайной величиной, принимающей счетное множество значе-
ний. Найдем соответствующие вероятности:
³ 1 ´k−1 1 ³ 1 ´k
P {ξ = k − 1} = P (ωk ) = · = , k = 1, ∞.
2 2 2

Здесь мы использовали независимость каждого бросания мо-


неты от предыдущих и симметричность монеты:

P {Г} = P {P } = 1/2.

Следовательно, ряд распределения ξ имеет вид (табл. 16.3):

Таблица 16.3. Ряд распределения с.в. ξ (пример 16.2)

ξ 0 1 2 ... k ...
1 1 1 1
pk ... ...
2 4 8 2k+1

Проверим, действительно ли мы получили распределение —


выполняется ли условие нормировки (16.2). Используем фор-
мулу для суммы членов бесконечно убывающей геометрической
86 Глава 2. Случайные величины и функции от них

1
прогрессии со знаменателем q = : (a + aq + aq 2 + . . . + aq n +
2
a
... = ):
1−q

X ∞
X 1 1/2
pk = k
= = 1.
2 1 − 1/2
k=0 k=1

Так как сумма вероятностей оказалась равной 1 (ряд сходится


к 1), полученный ответ корректен.
А теперь самостоятельно найдите x и y так, чтобы данные ря-
ды определяли распределения дискретных случайных величин ξ
и η (табл. 16.4 и 16.5):
Таблица 16.4. Ряд для с.в. ξ

ξ −3 −2 −1 0 1 2
pk 0, 3 0, 2 0, 1 x 0, 1 0, 1
(Ответ: x = 0, 2)

Таблица 16.5. Ряд для с.в. η

η 0 1 2 ... m ...
2 m
λ −λ λ −λ
qm y λe−λ e ... e ...
2! m!
(Ответ: y = e−λ )

Потом вы узнаете, что распределение, представленное в таб-


лице 16.5 называется распределением Пуассона с парамет-
ром λ. Будем считать, что его корректность вы проверили.

Математический аппарат, который позволяет нам рабо-
тать со случайными величинами и который мы изучим несколь-
ко позднее, при решении большинства задач не требует введе-
ния конкретного вероятностного пространства, хотя оно всегда
«незримо присутствует», как мы уже отмечали ранее. Если да-
но какое-либо дискретное распределение, более того — просто
дана последовательность положительных чисел {pk }∞ k=1 , такая,
P

что pk = 1, то всегда можно построить вероятностное про-
k=1
странство и случайную величину ξ с данным распределением ве-
§ 16. ДИСКРЕТНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 87

роятностей. Как это делается, мы обсуждать не будем — обра-


щайтесь, например, к той же книге [1].

Подобные абстрактные построения называются матема-
тическими моделями. Для построения математической моде-
ли дискретной случайной величины всегда можно использо-
вать дискретное вероятностное пространство. Действительно,
если считать события Ak , определенные в (16.1), элементарны-
def
ми исходами (новыми!): ωk = Ak , то получится, что ξ(ωk ) = xk ,
k = 1, n (или k = 1, ∞). При этом все множество Ω (новое!) бу-
дет состоять уже из конечного n или счетного числа элементар-
ных исходов. Таким образом, будет построена математическая
модель дискретной случайной величины ξ на дискретном веро-
ятностном пространстве.

Однако если исходить из конкретного комплекса условий и
конкретного эксперимента, то дискретного вероятностного про-
странства может не хватить для описания дискретной случайной
величины.
Рассмотрим такой пример.

Пример 16.3. Ведется стрельба по мишени (D), разделенной
на 3 части: (D1 ), (D2 ), и (D3 ) (рис. 16.3). Случайная величи-
на ξ принимает значение k, если попадание произошло в точку

Рис. 16.3. К примеру 16.3

(x, y), находящуюся внутри (Dk ), k = 1, 2, 3. Вероятности соот-


ветствующих событий определяются как геометрические («слу-
чайное бросание точки» в область (D) = (D1 ) ∪ (D2 ) ∪ (D3 )).
Однако если попадание произошло на границу множества (Dk ),
то ξ принимает значение, равное длине дуги этой границы от по-
ложительного направления оси OX до точки попадания. Такие
88 Глава 2. Случайные величины и функции от них

условия могут встретиться на соревнованиях при распределении


мест.
Обозначим границы множеств (Dk ) — окружности радиусов
1, 2 и 3 — соответственно за ∂D1 , ∂D2 и ∂D3 , а их внутренно-
сти за (D1), (D2) и (D3). Выясним, какие значения и с какими
вероятностями может принимать с.в. ξ. Очевидно,
mes(D1) π · 12 1
p1 = P {ξ = 1} = P {(x, y) ∈ (D1)} = = = ;
mes(D) π · 32 9
mes(D2)
p2 = P {ξ = 2} = P {(x, y) ∈ (D2)} = =
mes(D)
π · 22 − π · 12 3 1
= = = ;
π · 32 9 3
mes(D3)
p3 = P {ξ = 3} = P {(x, y) ∈ (D3)} = =
mes(D)
π · 32 − π · 22 5
= = .
π · 32 9
Кроме значений 1, 2, 3 случайная величина ξ может принимать
любые значения из промежутка [0, 2π), если (x, y) ∈ ∂D1 , из
промежутка [0, 4π), если (x, y) ∈ ∂D2 , и из промежутка [0, 6π),
если (x, y) ∈ ∂D3 . Оказалось, что с.в. ξ может принимать непре-
рывное множество значений, но с вероятностью нуль каждое. Так
как мера (площадь) любой из границ равна нулю, то даже веро-
ятность того, что случайная точка попадет на некоторую часть
границы или на всю границу ∂Dk , тоже равна нулю.
Приведенный пример предполагает наличие непрерывного
вероятностного пространства с геометрической вероятностью
P (ωxy ) = 0 для ∀(x, y) ∈ (D). Тем не менее мы получили дис-
кретную случайную величину с рядом распределения, представ-
ленным в таблице 16.6.
Таблица 16.6. К примеру 16.3

ξ 1 2 3
pk 1/9 1/3 5/9

Эту случайную величину теория вероятностей отождествляет


с другой, определенной на дискретном вероятностном простран-
стве с Ω = {ω1 , ω2 , ω3 }, где ω1 = {попадание в (D1 )}, ω2 =
= {попадание в (D2 )}, ω3 = {попадание в (D3 )}.
§ 17. ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ ДИСКРЕТНОЙ С.В. 89

§ 17. ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ ДИСКРЕТНОЙ


СЛУЧАЙНОЙ ВЕЛИЧИНЫ
В этом разделе мы увидим, что функция распределения дис-
кретной случайной величины кусочно-постоянна. Чтобы лучше
понять, как по данному ряду распределения построить функцию
распределения, рассмотрим сначала пример.
Пример 17.1. Найти функцию распределения F (x) случайной
величины ξ, ряд распределения которой задан таблицей 17.1.
Построить график полученной функции распределения.

Таблица 17.1. К примеру 17.1

ξ −1 0 1
pk 0, 2 0, 3 0, 5

Выясним, какие значения при каких x ∈ R принимает функ-


ция распределения F (x). По определению 15.1
F (x) = P {ξ < x}, ∀x ∈ R.
Рассмотрим ∀x ≤ −1. Среди возможных значений ξ нет ни од-
ного, меньшего −1. Поэтому вероятность того, что ξ примет зна-
чение, меньшее x ≤ −1, равна нулю:
F (x) = P {ξ < x} = 0 при x ≤ −1.
Рассмотрим ∀x : −1 < x ≤ 0. Тогда
F (x) = P {ξ < x} = P {ξ = −1} = 0, 2,
так как −1 — это единственное из возможных значений ξ, кото-
рое меньше каждого x ∈ (−1, 0].
Рассмотрим ∀x : 0 < x ≤ 1. Тогда
F (x) = P {ξ < x} = P ({ξ = −1} ∪ {ξ = 0}) =
(17.1)
= P {ξ = −1} + P {ξ = 0} = 0, 2 + 0, 3 = 0, 5.
Здесь мы воспользовались тем, что меньшими каждого x ∈ (0, 1]
оказались два возможных значения с.в. ξ : −1 и 0. Использова-
ли мы и несовместность событий {ξ = −1} и {ξ = 0}. Равен-
ство (17.1) можно объяснить так: с.в. ξ примет значение, мень-
шее ∀x ∈ (0, 1], тогда и только тогда, когда она либо примет
90 Глава 2. Случайные величины и функции от них

значение −1, либо примет значение 0. Поэтому можно поставить


знак равенства между событиями: {ξ < x} = {ξ = −1}∪{ξ = 0}.
Следовательно, равны и вероятности этих событий.
Нам осталось рассмотреть ∀x > 1. При таких x
F (x) = P {ξ < x} = 1,
так как {ξ < x} = {ξ = −1} ∪ {ξ = 0} ∪ {ξ = 1}, а значит,
P {ξ < x} = 0, 2 + 0, 3 + 0, 5 = 1.
Таким образом, вырисовывается принцип поиска функции
распределения дискретной случайной величины ξ: при перехо-
де через каждое очередное из возможных значений xk случайной
величины ξ значение функции распределения возрастает на чис-
ло, равное вероятности pk .

Рис. 17.1. К примеру 17.1

Для построения графика функции распределения изобразим


полосу (−∞, +∞) × [0, 1] и нанесем на ось OX возможные зна-
чения с.в. ξ (рис. 17.1). Для удобства масштаб по оси OY возь-
мем несколько бо́льшим, чем по оси OX. Запишем аналитиче-
ское задание полученной функции распределения:

 0 при x ≤ −1,


0, 2 при − 1 < x ≤ 0,
F (x) =

 0, 5 при 0 < x ≤ 1,

1 при 1 < x

и построим соответствующий график.


Функция получилась кусочно-постоянной, непрерывной сле-
ва, неубывающей, принимающей значение нуль на минус беско-
нечности и 1 на плюс бесконечности, что полностью согласуется
со свойствами функции распределения из теоремы 15.1.
§ 17. ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ ДИСКРЕТНОЙ С.В. 91

Какую бы функцию распределения вы ни строили, обязатель-


но проверяйте, обладает ли ваша функция указанными свойства-
ми. Если нет, она не является функцией распределения!
Нам осталось сформулировать и доказать общую теорему.

Теорема 17.1. О функции распределения дискретной слу-


чайной величины.
Если ξ — дискретная случайная величина со значениями
{xk }nk=1 , а pk = P {ξ = xk }, k = 1, n, то ее функция рас-
пределения кусочно-постоянна со скачками pk в точках xk , то
есть
X
F (x) = pk .
k:xk <x

(Здесь n ∈ N или n = ∞)

Доказательство. Фактически в примере 17.1 мы выяснили, как


нужно доказывать эту теорему, но для конкретной с.в. ξ. Запи-
шем общую формулу для ∀x ∈ R:
³ [ ´
F (x) = P {ξ < x} = P {ξ = xk } =
k:xk <x
X X
= P {ξ = xk } = pk .
k:xk <x k:xk <x

Если кому-нибудь из вас трудно осознать эту запись, посмот-


рите на рис. 17.2. На нем проиллюстрирован случай, когда сум-
мирование ведется по k = 1, 2, 3, так как x1 < x, x2 < x и
x3 < x.

x
х1 х2 х3 х4 х5 X

Рис. 17.2. К теореме 17.1

В примере 17.1 мы строили функцию распределения по ряду


распределения. Очевидно, тривиально решается и обратная за-
дача, по виду функции распределения можно сразу записать ряд
92 Глава 2. Случайные величины и функции от них

распределения дискретной случайной величины ξ. Постройте са-


ми график какой-либо конкретной кусочно-постоянной функции,
удовлетворяющей требованиям теоремы 15.1, и запишите, глядя
на график, ряд распределения соответствующей случайной вели-
чины. Можете заодно посмотреть еще раз на рис. 15.6. Теперь вы
знаете, функция распределения какой случайной величины изоб-
ражена на этом рисунке.

Подумайте, что изменится в свойствах функции распределе-
ния, если ее определить как P {ξ ≤ x} (такое определение можно
встретить в старых книгах).

§ 18. ФУНКЦИИ ДИСКРЕТНЫХ СЛУЧАЙНЫХ


ВЕЛИЧИН
Пусть на вероятностном пространстве {Ω, F, P } задана дис-
кретная случайная величина ξ, принимающая (пусть конечное)
множество значений {xk }nk=1 с вероятностями соответственно
{pk }nk=1 .
Рассмотрим числовую функцию числового аргумента
y = g(x). Тогда η = g(ξ) является дискретной случайной
величиной, ведь η(ω) = g(ξ(ω)). При тех ω, при которых
ξ(ω) = xk , значения η(ω) = g(xk ). Следовательно, и вероят-
ности соответствующих событий равны:
P {η = g(xk )} = P {ω ∈ Ω : η(ω) = g(xk )} =
= P {ω ∈ Ω : ξ(ω) = xk } = pk , k = 1, n.
Поэтому мы можем записать ряд распределения для η. Запишем
его, используя вспомогательную таблицу 18.1:

Таблица 18.1. Вспомогательная таблица для построения ряда распределения


функции д.с.в.
ξ x1 x2 ... xn
η g(x1 ) g(x2 ) ... g(xn )
pk p1 p2 ... pn

Если некоторые из значений с.в. η окажутся одинаковыми,


то следует сложить соответствующие вероятности (докажите это
сами). Кроме того, числа g(xk ) следует расположить по возрас-
танию.
§ 18. ФУНКЦИИ ДИСКРЕТНЫХ С.В. 93

Пример 18.1. Пусть дискретная случайная величина ξ имеет ряд


распределения, заданный таблицей 18.2. Найти распределение
случайной величины η = ξ 4 .
Таблица 18.2. К примеру 18.1

ξ −2 −1 0 1 2 3
pk 0, 1 0, 2 0, 3 0, 1 0, 2 0, 1

Построим вспомогательную таблицу 18.3:


Таблица 18.3. К примеру 18.1

ξ −2 −1 0 1 2 3
η 16 1 0 1 16 81
pk 0, 1 0, 2 0, 3 0, 1 0, 2 0, 1

Мы видим, что с.в. η принимает одинаковые значения (1 и


16) на разных непересекающихся множествах. Сложим соответ-
ствующие вероятности и запишем окончательный ряд распреде-
ления (табл. 18.4).
Таблица 18.4. К примеру 18.1

η 0 1 16 81
qm 0, 3 0, 3 0, 3 0, 1

Проверим условие нормировки: 0, 3 + 0, 3 + 0, 3 + 0, 1 = 1.


Обратите внимание на формальную сторону записи. Вероятно-
сти для ξ были обозначены за pk , k = 1, 6, а вероятности для η
— это уже другие числа и их другое количество, поэтому мы обо-
значили их по-другому: qm , m = 1, 4.
Замечание 18.1. Можно рассматривать функции двух и более
случайных величин. Например, ζ = ξ + η или ψ = ζ + ξ 3 η.
Пусть даны две случайные величины: ξ со значениями {xi }ni=1 ,
принимаемыми с вероятностями {pi }ni=1 , и η со значениями
{yj }m m
j=1 , принимаемыми с вероятностями {qj }j=1 . Пусть задана
z = g(x, y) — числовая функция двух числовых аргументов. То-
гда ζ = g(ξ, η) является дискретной случайной величиной, при-
нимающей значения zij = g(xi , yj ), i = 1, n; j = 1, m (всего mn
значений) с вероятностями
¡ ¢
pij = P {ζ = g(xi , yj )} = P {ξ = xi } ∩ {η = yj } .
94 Глава 2. Случайные величины и функции от них

Если ξ и η — независимые случайные величины, то pij ищут-


ся очень просто: pij = pi qj (вспомните-ка все, что вы знаете
о независимых случайных величинах — мы еще встретимся с
ними!)
Подробнее мы займемся функциями нескольких случайных
аргументов в теме «случайные векторы».

§ 19. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ ДИСКРЕТНОЙ


СЛУЧАЙНОЙ ВЕЛИЧИНЫ
При изучении испытаний Бернулли нам очень хотелось
узнать, какое «наивероятнейшее» число «успехов» может про-
изойти, то есть какое из значений принимает случайная величина
µn — число «успехов» в n независимых испытаниях Бернулли —
с наибольшей вероятностью. И этот вопрос мы выяснили. Ока-
залось, что с наибольшей вероятностью принимаются значения
[np − q] и [np + p] — значения, «концентрирующиеся» около чис-
ла np. Немного позднее мы узнаем, что np является математи-
ческим ожиданием случайной величины µn . Вдумайтесь в это
название — оно говорит само за себя. Дадим определение мате-
матического ожидания произвольной дискретной случайной ве-
личины.

Определение 19.1. Пусть дискретная случайная величина ξ


принимает значения {xi }ni=1 с вероятностями {pi }ni=1 соответ-
P
n
ственно, причем pi = 1.
i=1
Математическим ожиданием случайной величины ξ называ-
ется число
n
def X
Mξ = xi pi . (19.1)
i=1

Если дискретная с.в. ξ принимает счетное множество значе-


ний, то

def X
Mξ = xi pi . (19.2)
i=1

При этом предполагается, что ряд (19.2) сходится абсолютно.


Иначе говорят, что математического ожидания не существует.
§ 19. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ ДИСКРЕТНОЙ С.В. 95

В литературе вы можете встретить и другие обозначения ма-


тематического ожидания случайной величины ξ: M [ξ], Mξ , mξ ,
Eξ, x.
Для простоты мы будем, как правило, рассматривать с.в. ξ с
конечным числом значений. Вы без труда обобщите все, что мы
изучим, на случай счетного множества значений ξ. Не забывайте
только об абсолютной сходимости ряда — она дает нам, в част-
ности, возможность расставлять его члены в произвольном по-
рядке.
Если все n значений с.в. ξ равновозможны, то есть P {ξ =
= xi } = pi = n1 , i = 1, n, то по формуле (19.1)
x1 + x2 + ... + xn
Mξ = , (19.3)
n
то есть среднее арифметическое возможных значений ξ.
Рассмотрим физическую интерпретацию математического
ожидания дискретной случайной величины ξ. Пусть на невесо-
мом стержне, расположенном вдоль числовой оси OX, в точ-
ках с координатами xi сосредоточены массы pi , i = 1, n, причем
Pn
pi = 1. Центр масс такой системы можно найти по формуле:
i=1

P
n
xi pi n
X
i=1
Pn = xi pi = M ξ.
pi i=1
i=1

Получилось, что число M ξ есть координата центра масс рас-


смотренной механической системы. Поэтому о математическом
ожидании говорят, что оно является «характеристикой поло-
жения».
Из формулы (19.1) видно, что если какие-либо значения ξ
принимаются с бо́льшими вероятностями, то M ξ будет тяготеть
к этим значениям, то есть вокруг M ξ обычно концентрируются
значения с бо́льшими вероятностями. Так же и центр масс тяго-
теет к тем точкам, в которых сосредоточены бо́льшие массы.
Все эти соображения, включая и формулу (19.3), поясняют,
почему математическое ожидание случайной величины ξ назы-
вают еще ее «средним значением».
Так как M ξ — это число, то говорят, что математическое ожи-
дание есть числовая характеристика случайной величины ξ.
При этом размерность M ξ — та же, что и у ξ.
96 Глава 2. Случайные величины и функции от них

Пример 19.1. Найдем математическое ожидание случайной ве-


личины ξ из примера 16.1. Запишем ее ряд распределения (табл.
19.1):

Таблица 19.1. К примеру 19.1

ξ 0 1 2 3
pk 0, 001 0, 027 0, 243 0, 729

По формуле (19.1) вычислим:

M ξ = 0 · 0, 001 + 1 · 0, 027 + 2 · 0, 243 + 3 · 0, 729 = 2, 7.

Мы уже говорили о том, что с.в. ξ — это число «успехов» —


число принятых сигналов в последовательности трех испытаний
Бернулли с вероятностью «успеха» p = 0, 9. Получилось так, как
было отмечено в начале этого пункта: M ξ = np = 3 · 0, 9 = 2, 7.
Наиболее же вероятные значения для ξ — это 2 и 3.
Докажите самостоятельно (и запомните!) следующие утвер-
ждения.
1. Если η = gξ — функция дискретной случайной величины
ξ, принимающей значения xi ni=1 с вероятностями pi ni=1 , то
n
X
M η = M g(ξ) = g(xi )pi (19.4)
i=1

2. Если ξ — симметричная дискретная случайная величина,


то есть ее значения xi симметрично расположены по отно-
шению к началу координат и P {ξ = xi } = P {ξ = −xi },
i = 1, 2, . . ., то M ξ = 0

Пример 19.2. Дан ряд распределения с.в. ξ (табл. 19.2). Найти


M sin ξ.
Таблица 19.2. К примеру 19.2

π π π π
ξ − − 0
2 4 4 2
pk 0, 1 0, 2 0, 4 0, 2 0, 1
§ 20. СВОЙСТВА МАТЕМАТИЧЕСКОГО ОЖИДАНИЯ 97

Можно было бы сначала построить ряд распределения для


с.в. η = sin ξ, но в этом нет необходимости. По формуле (19.4)
искомое математическое ожидание можно вычислить сразу
(g(ξ) = sin ξ) :
π π
M η = M sin ξ = sin(− ) · 0, 1 + sin(− ) · 0, 2 +
2 4
π π
+ sin 0 · 0, 4 + sin · 0, 2 + sin · 0, 1 = −0, 1−
√ 4 √ 2
2 2
− · 0, 2 + 0 + · 0, 2 + 0, 1 = 0.
2 2
Этот пример подтверждает, что у симметричной случайной вели-
чины математическое ожидание равно нулю, ведь sin ξ тоже ока-
зывается симметричной случайной величиной из-за нечетности
синуса.

§ 20. СВОЙСТВА МАТЕМАТИЧЕСКОГО ОЖИДАНИЯ

Теорема 20.1. Свойства математического ожидания.


1. M C = C , где C = const8 .
2. M (C1 ξ + C2 η) = C1 M ξ + C2 M η для ∀C1 , C2 ∈ R (ли-
нейность математического ожидания).
3. Если ξ и η — независимые случайные величины, то

M (ξη) = M ξ · M η .

¯ ¯ ¯ ¯
4. ¯M ξ ¯ ≤ M ¯ξ ¯ .
5. Если все xi ∈ [a; b], i = 1, n, то и M ξ ∈ [a; b].
Доказательство.
1. Если ξ = C с вероятностью 1, то M ξ = C · 1 = C.
2. Пусть ξ принимает значения {xi }ni=1 с вероятностями {pi }ni=1 ,
а η — значения {yj }m m
j=1 с вероятностями {qj }j=1 . Тогда с.в.
ψ = C1 ξ+C2 η будет принимать значения {C1 xi +C2 yj } с вероят-
ностями {pij }, где i = 1, n; j = 1, m, то есть всего mn значений.
8 Мы определили математическое ожидание только для случайных величин.
В свойстве 1 предполагается, что C – это так называемая «вырожденная» с.в. ξ,
которая принимает лишь одно значение C с вероятностью 1.
98 Глава 2. Случайные величины и функции от них

Вероятности
¡ ¢
pij = P {ψ = C1 xi + C2 yj } = P {ξ = xi } ∩ {η = yj } ,
причем события Aij = {ξ = xi } ∩ {η = yj } несовместны. Вы-
числим математическое ожидание с.в. ψ по формуле (19.1):
n X
X m
M ψ = M (C1 ξ + C2 η) = (C1 xi + C2 yj )pij =
i=1 j=1
n m m n (20.1)
X X X X
= C1 xi pij + C2 yj pij .
i=1 j=1 j=1 i=1

Рассмотрим
m
X m
X ³[
m ´
pij = P (Aij ) = P Aij =
j=1 j=1 j=1
³[
m ´ ³ m
[ ´
=P {ξ = xi } ∩ {η = yj } = P {ξ = xi } ∩ {η = yj } =
j=1 j=1
³ ´
= P {ξ = xi } ∩ Ω = P {ξ = xi } = pi .
Здесь мы воспользовались несовместностью событий Aij и тем,
что события {η = yj }, j = 1, m, образуют полную группу (см.
§ 16).
Pn
Совершенно аналогично можно доказать, что pij = qj .
i=1
Тогда из (20.1) получим:
n
X m
X
Mψ = C1 xi pi + C2 yj qj =
i=1 j=1
n
X m
X
= C1 xi pi + C2 yj qj = C2 M ξ + C2 M η,
i=1 j=1

то есть линейность доказана.


3. Пусть случайные величины ξ и η принимают значения, обо-
значенные в доказательстве линейности. Тогда с.в. ζ = ξ · η бу-
дет принимать значения {xi yj } с вероятностями {pij }, i = 1, n,
j = 1, m. Так как ξ и η независимы, то
¡ ¢
pij = P {ξ = xi } ∩ {η = yj } = P {ξ = xi } · P {η = yj } = pi qj .
§ 21. ДИСПЕРСИЯ ДИСКРЕТНОЙ СЛУЧАЙНОЙ ВЕЛИЧИНЫ 99

Следовательно,
n X
X m n X
X m
M ζ = M (ξη) = xi yj · pij = xi yj pi qj =
i=1 j=1 i=1 j=1
n
X Xm
= xi pi yj qj = M ξ · M η.
i=1 j=1

Мы видим, что в доказательстве очень существенно использова-


лась независимость случайных величин.
Если случайные величины ξ и η не являются независимыми,
свойство 3 не имеет места!
4. Это свойство очевидно следует из неравенства треугольника
для конечных сумм и из аналогичного свойства абсолютно схо-
дящихся рядов.
P
n P
n
5. M ξ = xi pi ≤ b pi = b. Аналогично M ξ ≥ a ⇒ M ξ ∈
i=1 i=1
∈ [a; b].

Замечание 20.1. Из свойств 1 и 2 математического ожидания


вытекает, что
M (aξ + b) = aM ξ + b .

Пример 20.1. Известны математические ожидания двух неза-


висимых случайных величин ξ и η : M ξ = 1, M η = −2. Найти
математическое ожидание с.в. ψ = 3ξη − ξ + 2η + 4.
По свойствам 2 и 3 из теоремы 20.1 получим:
M ψ = 3M ξ·M η−M ξ+2M η+4 = 3·1·(−2)−1+2·(−2)+4 = −7.

§ 21. ДИСПЕРСИЯ ДИСКРЕТНОЙ СЛУЧАЙНОЙ


ВЕЛИЧИНЫ
Математическое ожидание — одна из основных числовых ха-
рактеристик случайных величин. Однако очень часто ее оказы-
вается недостаточно для характеристики распределения. Напри-
мер, у всех симметричных случайных величин математическое
ожидание равно нулю. Поэтому желательно было бы найти ха-
рактеристику, которая показывала бы «разброс» значений слу-
чайной величины относительно ее математического ожидания.
Такой характеристикой является дисперсия.
100 Глава 2. Случайные величины и функции от них

Определение 21.1. Дисперсией случайной величины ξ назы-


вается число
def
Dξ = M (ξ − M ξ)2 . (21.1)

Если ξ — дискретная случайная величина со множеством воз-


можных значений {xi }ni=1 , принимаемых соответственно с веро-
ятностями {pi }ni=1 , то дисперсию можно вычислить по форму-
ле (19.4), где g(ξ) = (ξ − M ξ)2 :

n
X
Dξ = (xi − M ξ)2 · pi . (21.2)
i=1

Если ξ принимает счетное множество значений, то



X
Dξ = (xi − M ξ)2 · pi . (21.3)
i=1

При этом, естественно, предполагается, что данный знаконеот-


рицательный ряд сходится. Иначе говорят, что дисперсии не су-
ществует.
Очевидно, дисперсия любой случайной величины неотрица-
тельна: Dξ ≥ 0 , так как (ξ − M ξ)2 ≥ 0, в то время как мате-
матическое ожидание может иметь любой знак. В литературе вы
можете встретить и другие обозначения для дисперсии: D[ξ], Dξ ,
σ 2 , s2 .
Если M ξ с физической точки зрения являлось центром масс
(см. § 19), то Dξ — это центральный момент инерции указан-
ной механической системы. Таким образом, дисперсия является
характеристикой рассеивания значений с.в. ξ относительно ее
математического ожидания.
Если математическое ожидание имеет размерность самой
случайной величины ξ, то дисперсия — размерность квадрата
этой случайной величины. Поэтому иногда бывает удобнее рас-
def p
сматривать числовую характеристику σξ = Dξ , которую на-
зывают средним квадратическим отклонением (с.к.о.)9 слу-
чайной величины ξ.
9 В литературе встречается также термин «стандартное уклонение» [1].
§ 22. СВОЙСТВА ДИСПЕРСИИ 101

Пример 21.1. Вычислим дисперсии двух симметричных случай-


ных величин ξ и η (табл. 21.1):

Таблица 21.1. К примеру 21.1

ξ −2 2 η −20 20
pi 0, 5 0, 5 qj 0, 5 0, 5

Очевидно, M ξ = M η = 0. По формулам (21.1)–(21.2) найдем


Dξ = M (ξ − M ξ)2 = M ξ 2 = (−2)2 · 0, 5 + 22 · 0, 5 = 4;
Dη = M (η − M η)2 = M η 2 = (−20)2 · 0, 5 + 202 · 0, 5 = 400.
Мы, конечно, видим по этому примеру, что чем больше раз-
брос значений случайной величины относительно ее математиче-
ского ожидания, тем больше дисперсия. Но уж очень далеки, на-
пример, значения 20 и 400. Этот недостаток исчезает, если рас-
смотреть с.к.о.:
p √ p √
σξ = Dξ = 4 = 2; ση = Dη = 400 = 20.

§ 22. СВОЙСТВА ДИСПЕРСИИ

Теорема 22.1. Свойства дисперсии.


1. Dξ = M ξ 2 − (M ξ)2 .
(22.1)
2. DC = 0, где C = const10 .
3. D(ξ + C) = Dξ.
4. D(aξ) = a2 Dξ, где a ∈ R.
5. Если ξ и η — независимые случайные величины, то

D(ξ + η) = Dξ + Dη. (22.2)

Доказывая теорему, мы будем опираться на свойства матема-


тического ожидания (повторите их!). В частности, на линейность.
При этом будет существенно использоваться то, что M ξ и M η —
это просто числа.
10 Здесь, так же как и в свойствах математического ожидания, под C подразу-
мевается вырожденная случайная величина.
102 Глава 2. Случайные величины и функции от них

Доказательство.
1. Dξ = M (ξ − M ξ)2 = M (ξ 2 − 2ξ · M ξ + (M ξ)2 ) =
= M ξ 2 − 2M (ξ · M ξ) + M (M ξ)2 =
= M ξ 2 − 2M ξ · M ξ + (M ξ)2 = M ξ 2 − (M ξ)2 .
2. DC = M (C − M C)2 = M (C − C)2 = 0.
3. D(ξ + C) = M [(ξ + C) − M (ξ + C)]2 =
= M [ξ + C − M ξ − C]2 = M (ξ − M ξ)2 = Dξ.
4. D(aξ) = M (aξ − M (aξ))2 = M (aξ − aM ξ)2 =
= M [a(ξ − M ξ)]2 = a2 M (ξ − M ξ)2 = a2 Dξ.
5. D(ξ + η) = M [(ξ + η) − M (ξ + η)]2 = M [(ξ − M ξ)+
+(η − M η)]2 = M (ξ − M ξ)2 + 2M (ξ − M ξ) × (η − M η)
+M (η − M η)2 = Dξ + Dη,
так как M (ξ − M ξ)(η − M η) = 0 для независимых случайных
величин ξ и η. Докажите это самостоятельно, раскрывая скоб-
ки, используя линейность математического ожидания и свойство
математического ожидания произведения независимых случай-
ных величин.
Если случайные величины ξ и η не являются независимыми,
свойство 5 не имеет места!
Следствие.
1) σaξ = |a|σξ , где a ∈ R.
2) D(aξ + b) = a2 Dξ .
3) M ξ 2 = Dξ + (M ξ)2 . (22.3)
Обратите внимание на то, что дисперсия не обладает свойством
линейности!
Немножко «похоже на линейность» свойство 5 для незави-
симых случайных величин. Его можно распространить на любое
количество слагаемых.

Утверждение 22.1. Равенство Бьенеме́11 . Если случайные


величины ξ1 , ξ2 , . . . , ξm попарно независимы, то
m m
¡X ¢ X
D ξk = Dξk .
k=1 k=1

11 Ирене Жюль Бьенеме́ (Bienaimé Irené Jules, 1796–1878) — французский


математик.
§ 22. СВОЙСТВА ДИСПЕРСИИ 103

Доказательство. ∗ Рассмотрим
Ãm ! "m à m !#2
X X X
D ξk = M ξk − M ξk =
k=1 k=1 k=1
" m
#2 " m m
#
X X X
=M (ξk − M ξk ) =M (ξk − M ξk ) · (ξj − M ξj ) =
k=1 k=1 j=1
m X
X m
=M (ξk − M ξk )(ξj − M ξj ) =
k=1 j=1
m X
X m
= M (ξk − M ξk )(ξj − M ξj ) =
k=1 j=1
m
X Xm m
X
= Dξk + M (ξk − M ξk )(ξj − M ξj ) = Dξk ,
k=1 k,j=1 k=1
k6=j

так как по независимости каждой пары ξk , ξj при k 6= j


M (ξk − M ξk )(ξj − M ξj ) = 0.

Мы уже отмечали, что Dξ ≥ 0 для любой с.в. ξ. Свойство 2


гласит, что DC = 0. Оказывается, что равенство нулю дисперсии
является необходимым и достаточным условием для того, чтобы
с.в. ξ принимала лишь одно значение с вероятностью 1.

Утверждение 22.2.

Dξ = 0 ⇐⇒ ξ = C с вероятностью 1 .

Докажем это утверждение для дискретной с.в. ξ. Пусть Dξ =


P
n
= (xi − M ξ)2 pi = 0. Сумма неотрицательных чисел может
i=1
быть равна нулю только тогда, когда все слагаемые равны нулю,
то есть (xi −M ξ)2 pi = 0 для ∀i = 1, n. Однако все pi > 0. Следо-
вательно, xi − M ξ = 0 при ∀i = 1, n. Таким образом, получает-
ся, что все значения xi = M ξ = const, i = 1, n. Складывая со-
Pn
ответствующие вероятности, получим: P {ξ = M ξ} = pi = 1.
i=1
Мы доказали необходимость. Достаточность утверждения сов-
падает со свойством 2 из теоремы 22.1.
104 Глава 2. Случайные величины и функции от них

§ 23. ЦЕНТРИРОВАННАЯ И НОРМИРОВАННАЯ


СЛУЧАЙНАЯ ВЕЛИЧИНА
В предыдущих пунктах мы изучили важнейшие числовые
характеристики случайных величин: математическое ожидание
и дисперсию. Было выяснено, что математическое ожидание
может быть любым вещественным числом, а дисперсия — лю-
бым неотрицательным числом, причем нулевая дисперсия быва-
ет только у вырожденных случайных величин. Проще всего ра-
ботать со случайными величинами, имеющими нулевое матема-
тическое ожидание и единичную дисперсию. Кроме того, бывают
случаи, когда исследование случайной величины с произвольны-
ми числовыми характеристиками просто невозможно. Поэтому
возникла необходимость связи произвольной случайной величи-
ны со случайной величиной, имеющей математическое ожидание,
равное нулю, а дисперсию, равную 1.
Рассмотрим случайную величину ξ, у которой существуют M ξ
и Dξ.
Определение 23.1. Центрированной случайной величиной
называется случайная величина

o def
ξ = ξ − Mξ . (23.1)

Центрированной и нормированной случайной величиной


(или нормированным уклонением) будем называть случай-
ную величину
o
o def ξ ξ − Mξ
ξн = = √ . (23.2)
σξ Dξ

Утверждение 23.1.Имеют место равенства:

o o
M ξ= 0, D ξ= Dξ, (23.3)

o o
M ξ н = 0, D ξн= 1 . (23.4)

Докажите это утверждение самостоятельно, пользуясь свой-


ствами математического ожидания и дисперсии (и запомните!).
§ 24. МОМЕНТЫ ДИСКРЕТНЫХ СЛУЧАЙНЫХ ВЕЛИЧИН 105

o o
Вы видите, что ξ и ξ н являются линейными функциями слу-
чайной величины ξ. Используя результаты § 18, вы без труда най-
дете их распределения по распределению с.в. ξ.

§ 24. МОМЕНТЫ ДИСКРЕТНЫХ СЛУЧАЙНЫХ


ВЕЛИЧИН
Для характеристики рассеивания случайной величины исполь-
зуется не только дисперсия. Аналогично тому, как в физике для
характеристики разброса масс относительно начала координат
или центра масс используются начальные или центральные мо-
менты инерции, в теории вероятностей используются начальные
и центральные моменты случайных величин.

Определение 24.1. Начальным моментом k-го порядка слу-


чайной величины ξ называется число

def
νk (ξ) = M ξ k . (24.1)

Центральным моментом k-го порядка случайной величины ξ


называется число

def
µk (ξ) = M (ξ − M ξ)k . (24.2)

При этом предполагается, что существуют абсолютные на-


чальный и центральный моменты k-го порядка, соответственно:
M |ξ|k и M |ξ − M ξ|k .
В определении моментов обычно предполагается k ∈ N . Од-
нако иногда возникает необходимость рассмотрения моментов
дробных порядков. Например, в теореме Ляпунова (гл. 4).
Если ξ — дискретная случайная величина с конечным мно-
жеством значений, то у нее существуют моменты любых поряд-
ков; если с бесконечным — то могут не существовать даже мо-
менты первого порядка.
Вы наверное, уже заметили, что
o
µk (ξ) = νk (ξ). (24.3)
106 Глава 2. Случайные величины и функции от них

Рассмотрим некоторые моменты низших порядков. Очевид-


но, ν0 (ξ) = µ0 (ξ) = 1;

ν1 (ξ) = M ξ, µ2 (ξ) = Dξ ,

µ1 (ξ) = 0, а ν2 (ξ) = M ξ 2 .
Таким образом, математическое ожидание случайной вели-
чины — это начальный момент первого порядка, а дисперсия —
центральный момент второго порядка. Все остальные моменты
также называют числовыми характеристиками случайной вели-
чины.
Замечание 24.1. Можно доказать, что если существует абсо-
лютный момент порядка m, то существуют все абсолютные мо-
менты порядка k < m и

M |ξ|k ≤ M |ξ|m + 1.

Из соотношения (24.3) следует выполнение аналогичного утвер-


ждения и для центральных моментов.
В частности, из существования M ξ 2 вытекает существование
M |ξ|. Поэтому когда говорят, что существует дисперсия, то ав-
томатически предполагается, что существует и математическое
ожидание (да дисперсия и не определяется без математического
ожидания!)
С некоторыми важными моментами и их свойствами мы по-
знакомимся в § 29.

Замечание 24.2. Существует связь между начальными и цен-
тральными моментами одной случайной величины ξ:
P
k
µk (ξ) = (−1)k−m Ckm νm (ξ) · ν1k−m (ξ).
m=0
Действительно, если воспользоваться биномом Ньютона и
линейностью математического ожидания, то можно получить
следующее разложение [4]:
k
k
£X ¤
µk (ξ) = M (ξ − M ξ) = M Ckm ξ m (−M ξ)k−m =
m=0
k
X k
X
= Ckm (−M ξ)k−m M ξ m = Ckm (−1)k−m ν1k−m (ξ)νm (ξ).
m=0 m=0
§ 24. МОМЕНТЫ ДИСКРЕТНЫХ СЛУЧАЙНЫХ ВЕЛИЧИН 107


Пример 24.1. Попробуем вместе построить пример случайной
величины ξ, у которой не существует математического ожидания,
и пример случайной величины η, у которой математическое ожи-
дание существует, а дисперсия не существует. В этом построении
могут принимать участие только те, кому это интересно.
Очевидно, ξ и η должны быть случайными величинами с бес-
конечным числом значений, иначе у них будут существовать все
моменты.
Прежде всего, подберем распределение таким образом, что-
бы выполнялось условие нормировки (16.2). Попробуем восполь-
P∞ 1
зоваться известным рядом для ex при x = 1: e = , откуда
n=0 n!
P
∞ 1
= 1.
n=0 n!e
1
Таким образом, можно ввести вероятности pn = , где
n!e
n = 0, +∞. Осталось подобрать подходящие значения случай-
ных величин ξ и η. Выберем для с.в. ξ следующее распределение
(табл. 24.1):

Таблица 24.1. К примеру 24.1

ξ 0 1! 2! 3! ... n! ...
1 1 1 1 1
pn ... ...
e e 2e 6e n!e

Тогда

X ∞
X
1 1
Mξ = n! · = = +∞.
n=1
n!e n=1 e
Так как ряд расходится, то математического ожидания с.в. ξ не
существует. Отсюда следует несуществование и всех моментов
более высоких порядков.
Ряд распределения для с.в. η подберем с учетом того, что мы
хотим получить: существование M η и несуществование M η 2 , от-
куда следует несуществование Dη, так как в противном случае
M η 2 = Dη + (M η)2 .
108 Глава 2. Случайные величины и функции от них

Пусть ряд для η задан таблицей 24.2:

Таблица 24.2. К примеру 24.1

√ √ √ √
η 0 1 2 6 24 ... n! ...
1 1 1 1 1 1
qn ... ...
e e 2e 6e 24e n!e

Тогда
X∞ √ X∞
2 ( n!)2 1
Mη = = = +∞,
n=1
n!e n=1
e
то есть ряд расходится. В то же время

X∞ √ ∞
n! X 1
Mη = = √ .
n=1
n!e n=1 e n!

Исследуем последний знакоположительный ряд по признаку


Д’Аламбера:

un+1 e n! 1
ρ = lim = lim p = lim √ = 0.
n→+∞ un n→+∞ e (n + 1)! n→+∞ n+1

Следовательно, ряд для M η сходится, то есть математическое


ожидание с.в. η существует.

§ 25. ВАЖНЕЙШИЕ ТИПЫ ДИСКРЕТНЫХ


РАСПРЕДЕЛЕНИЙ
Случайных величин, имеющих дискретное распределение,
бесконечно много. Среди них выделяют несколько типов, имею-
щих наиболее важные приложения в технических и математиче-
ских исследованиях.
Рассмотрим некоторые из них.
25.1. ВЫРОЖДЕННОЕ РАСПРЕДЕЛЕНИЕ
Говорят, что случайная величина ξ имеет вырожденное рас-
пределение вероятностей, если она с вероятностью 1 принимает
одно-единственное значение: P {ξ = C} = 1, где C = const.
§ 25. ВАЖНЕЙШИЕ ТИПЫ ДИСКРЕТНЫХ РАСПРЕДЕЛЕНИЙ 109

Будем кратко записывать: ξ ⊂


= Ic .
Очевидно, функция распределения вырожденной случайной
величины имеет вид:
½
0 при x ≤ C,
F (x) =
1 при x > C.
Ее график изображен на рис. 25.1.

Рис. 25.1. График функции вырожденного распределения

В свойствах математического ожидания и дисперсии мы уже


отмечали, что для вырожденной с.в. ξ
M ξ = C, Dξ = 0 .

25.2. РАСПРЕДЕЛЕНИЕ ЯКОБА БЕРНУЛЛИ


Говорят, что случайная величина ξ имеет бернуллиевское
распределение вероятностей с параметром p, если
½
1 с вероятностью p,
ξ=
0 с вероятностью 1 − p.
Обозначение: ξ ⊂
= Bp . Очевидно, должно быть 0 < p < 1.
График функции распределения бернуллиевской случайной ве-
личины изображен на рис. 25.2. Обозначьте 1−p = q и покажите,
что
M ξ = p, Dξ = pq . (25.1)
С бернуллиевской случайной величиной часто связывают од-
но испытание Бернулли, в котором ξ является числом «успехов»,
то есть
½
1, если наступил «успех» (вероятность p),
ξ=
0, если наступила «неудача» (вероятность q = 1 − p).
110 Глава 2. Случайные величины и функции от них

Рис. 25.2. График функции бернуллиевского распределения

25.3. БИНОМИАЛЬНОЕ РАСПРЕДЕЛЕНИЕ


Говорят, что случайная величина ξ имеет биномиальное рас-
пределение вероятностей с параметрами n и p, если она прини-
мает значения 0, 1, 2, . . . , n с вероятностями

P {ξ = m} = Cnm pm (1 − p)n−m , (25.2)

где n ∈ N; m = 0, n; 0 < p < 1.


Обозначение: ξ ⊂= Bpn .
Такое распределение имеет случайная величина µn — число
«успехов» в n испытаниях Бернулли с вероятностью «успеха» p.
Распределение введено корректно, так как
n
X
Cnm pm (1 − p)n−m = 1, (25.3)
m=0

что было показано в § 13.


Функция распределения биномиальной случайной величины
имеет (n + 1) скачок в точках 0, 1, . . . , n. Скачки равны соответ-
ствующим вероятностям, сумма скачков равна 1.
Математическое ожидание и дисперсию биномиальной слу-
чайной величины можно вычислить, как говорится, «в лоб» —
записать суммы и проделать ряд преобразований. Но существу-
ет более красивый, лаконичный способ, и сейчас мы им восполь-
зуемся.
Рассмотрим n испытаний Бернулли с вероятностью «успеха»
p, и с каждым испытанием свяжем бернуллиевскую случайную
величину. Получим n случайных величин {ξk }nk=1 , где ξk — чис-
ло «успехов» в k-м испытании Бернулли. Все эти случайные ве-
личины независимы и имеют одинаковые распределения вероят-
ностей (являются «одинаково распределенными»): ξk ⊂ = Bp ,
§ 25. ВАЖНЕЙШИЕ ТИПЫ ДИСКРЕТНЫХ РАСПРЕДЕЛЕНИЙ 111

k = 1, n. При этом по формуле (25.1) M ξk = p, Dξk = pq для


всех k = 1, n. В то же время биномиальная случайная величина
ξ = µn — число «успехов» в n испытаниях Бернулли — очевид-
но выражается через ξk следующим образом:

ξ = ξ1 + ξ2 + . . . + ξn .

Действительно: сколько единиц в правой части последнего ра-


венства, столько «успехов» в n испытаниях Бернулли, таково и
значение случайной величины ξ.
По линейности математического ожидания получим:
n
X n
X
Mξ = M ξk = p = np.
k=1 k=1

Используя независимость случайных величин ξk и утверждение


22.1, вычислим дисперсию:
n
X n
X
Dξ = Dξk = pq = npq.
k=1 k=1

Итак,
M ξ = np, Dξ = npq . (25.4)

25.4. РАСПРЕДЕЛЕНИЕ ПУАССОНА

Говорят, что случайная величина ξ имеет распределение


Пуассона с параметром λ > 0, если она принимает значения
0, 1, 2, . . . , m, . . . с вероятностями

λm −λ
P {ξ = m} = e , m = 0, +∞ . (25.5)
m!

Обозначение: ξ ⊂
= Πλ . Это определение корректно, так как

X∞ X∞
λm −λ −λ λm
e =e = e−λ · eλ = 1.
m=0
m! m=0
m!

Функция распределения пуассоновской случайной величины


имеет бесконечно много скачков в целых точках.
112 Глава 2. Случайные величины и функции от них

Вычислим математическое ожидание



X X∞
λm −λ λm
Mξ = m· e = e−λ =
m=0
m! m=1
(m − 1)!

X X λk ∞
λm−1
= λe−λ = λe−λ = λe−λ · eλ = λ.
m=1
(m − 1)! k!
k=0


Несколько сложнее вычисляется дисперсия:

X λm −λ
Dξ = M ξ 2 − (M ξ)2 = m2 e − λ2 =
m=0
m!

X X∞
λm λm
= m e−λ − λ2 = ((m − 1) + 1) e−λ −
m=1
(m − 1)! m=1
(m − 1)!

X X∞
λm λm
−λ2 = (m − 1) e−λ + e−λ − λ2 =
m=1
(m − 1)! m=1
(m − 1)!
X∞ X∞
λk −λ λm−1
=λ k e + λe−λ − λ2 =
k! m=1
(m − 1)!
k=0

X λk
= λM ξ + λe−λ − λ2 = λ2 + λe−λ · eλ − λ2 = λ.
k!
k=0

При использовании формулы Dξ = M (ξ − M ξ)2 вычисления


получаются более громоздкими.
Итак,
M ξ = Dξ = λ . (25.6)

25.5. ГЕОМЕТРИЧЕСКОЕ РАСПРЕДЕЛЕНИЕ

Говорят, что случайная величина ξ имеет геометрическое рас-


пределение вероятностей с параметром p, если она принимает
значения 0, 1, 2, . . . , m, . . . с вероятностями

P {ξ = m} = p(1 − p)m , (25.7)

где 0 < p < 1, m = 0, +∞.


Обозначение: ξ ⊂
= Гp .
§ 25. ВАЖНЕЙШИЕ ТИПЫ ДИСКРЕТНЫХ РАСПРЕДЕЛЕНИЙ 113

Это определение корректно, так как (обозначим 1 − p = q)



X ∞
X
m p p
p(1 − p) = pq m = = = 1.
m=0 m=0
1−q p

Очевидно, что вероятности (25.7) образуют геометрическую про-


грессию со знаменателем q = 1 − p. Отсюда и название распре-
деления.
Функция распределения геометрической случайной величи-
ны имеет бесконечно много скачков в целых точках.
Вычислим математическое ожидание и дисперсию геометри-
ческого распределения:
X∞ X∞ ∞
X
Mξ = m · p(1 − p)m = m · pq m = pq (q m )0q =
m=0 m=1 m=1
à ∞
!0 Ã !0
X q 1−q+q pq
= pq qm = pq = pq = 2 =
m=1
1−q (1 − q)2 p
q q
q 1−p
= = ;
p p

à !2
X 1−p 1−p
2 m
Dξ = m · p(1 − p) − = .
m=0
p p2

Последнее равенство не очевидно. Попробуйте сами получить
его, дважды почленно дифференцируя бесконечно убывающую
геометрическую прогрессию. Итак,

1−p 1−p
Mξ = , Dξ = . (25.8)
p p2

Геометрическое распределение имеет случайная величина —


количество испытаний Бернулли, проведенных до появления пер-
вого «успеха» (например, до первого выпадения герба). Если
«успех» наступил сразу, то ξ = 0, а вероятность этого события
равна p (см. примеры 4.8 и 5.3).
Иногда в геометрическом распределении рассматривают зна-
чения ξ не 0, 1, 2, . . ., а 1, 2, 3, . . ..

Замечание 25.1. В технических исследованиях может приго-
диться так называемое «решетчатое» распределение вероятно-
стей.
114 Глава 2. Случайные величины и функции от них

Говорят, что с.в. ξ имеет решетчатое распределение, если ее


значения с вероятностью 1 лежат внутри арифметической про-
грессии a + kh, k = 0, ±1, ±2, . . . .
Число h называют шагом распределения. Если h — шаг, то
h/2 — тоже шаг. Поэтому шаг h называют максимальным, ес-
ли значения ξ нельзя уместить в арифметической прогрессии с
шагом, бо́льшим h.
Любопытен следующий факт: любую случайную величину с
любой точностью можно приблизить решетчатыми случайными
величинами. Действительно: пусть ξ — любая случайная вели-
чина, а ε — заданная погрешность приближения. Возьмем n ∈ N
1
так, чтобы было < ε и рассмотрим случайную величину
n
k k+1
ξn = , если ξ < , k = 0, ±1, ±2, . . . .Очевидно, ξn — ре-
n n
шетчатая случайная величина с максимальным шагом h = 1/n.
1
В то же время |ξ − ξn | ≤ < ε.
n

§ 26. НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ


Пусть задано непрерывное вероятностное пространство
{Ω, F, P }, на котором определена случайная величина ξ.
Определение 26.1. Будем говорить, что случайная величи-
на ξ имеет непрерывное распределение вероятностей, ес-
ли ее функция распределения F (x) абсолютно непрерыв-
на, то есть существует такая функция f (x), определенная на
(−∞, +∞), что
Zx
F (x) = f (t)dt . (26.1)
−∞

Функция f (x) называется плотностью распределения веро-


ятностей случайной величины ξ 12 .

12 Вообще говоря, такие случайные величины называют абсолютно непрерыв-


ными, а непрерывными – те, у которых непрерывна функция распределения.
Случайные величины с непрерывными функциями распределения подразделя-
ются на абсолютно непрерывные и сингулярные. Изучение сингулярных величин
крайне сложно и в настоящем пособии не приводится (см. [1, 7]). Нас будут ин-
тересовать только те случайные величины, у которых есть плотность, — их мы и
будем называть просто «непрерывными».
§ 26. НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 115

Иногда, чтобы подчеркнуть, что речь идет о случайной вели-


чине ξ, плотность распределения обозначают fξ (x). Часто вме-
сто слов «плотность распределения вероятностей случайной ве-
личины ξ» говорят просто «плотность случайной величины ξ».
Очевидно, что если f (x) непрерывна на всей числовой пря-
мой, то по теореме Барроу

f (x) = F 0 (x) , x ∈ R. (26.2)

Формулы (26.1) и (26.2) показывают связь плотности и функ-


ции распределения. Запомните их!
Когда-то мы сопоставляли вероятность события с площадью.
Можно провести параллель между вероятностью и массой, рас-
пределенной на прямой, — и то и другое является мерой (см. § 9).
Помните, как определялась в физике плотность распределения
массы на прямом тонком стержне? Посмотрим на плотность рас-
пределения вероятностей. По определению производной, теоре-
ме о вычислении вероятностей с помощью функции распределе-
ния и (26.2) получим:

F (x + ∆x) − F (x)
f (x) = F 0 (x) = lim =
∆x→0 ∆x
(26.3)
P {x ≤ ξ < x + ∆x}
= lim .
∆x→0 ∆x
Под знаком предела стоит средняя плотность вероятности на по-
луинтервале [x, x + ∆x). Отсюда и название «плотность» для
функции f (x).
Из формулы (26.3) и теоремы о связи предела и бесконечно
малой величины следует, что

P {x ≤ ξ < x + ∆x} = f (x) · ∆x + o(∆x) при ∆x → 0.

Главную часть f (x)∆x часто называют «элементом вероят-


ности». При малых ∆x можно использовать приближенное ра-
венство:
P {x ≤ ξ < x + ∆x} ≈ f (x) · ∆x. (26.4)
116 Глава 2. Случайные величины и функции от них

Сконцентрируем еще раз внимание на наиболее важных свой-


ствах непрерывной случайной величины.
1. У непрерывной случайной величины существует плотность
распределения f (x).
2. Функция распределения непрерывной случайной величины —
непрерывная функция.
3. Множество значений непрерывной случайной величины не-
прерывно.
4. Для непрерывной случайной величины ξ

P {ξ = a} = 0 для ∀a ∈ R.

Последнее утверждение вытекает из п. 2 теоремы 15.2. Мы


снова столкнулись с возможным событием нулевой вероятности.

В связи с последним утверждением у любознательного чи-
тателя должен возникнуть вопрос: почему точка непрерывности
x0 функции распределения дискретной случайной величины ξ не
считается возможным значением ξ, а для непрерывной случай-
ной величины все значения имеют нулевую вероятность и все-
таки считаются возможными. Это объясняется тем, что для
дискретной случайной величины вероятность попасть в малый
промежуток [x0 , x0 + ∆x), на котором функция распределения
постоянна, равна нулю. Для непрерывной случайной величины,
если промежуток [x0 , x0 +∆x) находится на участке роста функ-
ции распределения F (x), то вероятность попасть в этот проме-
жуток положительна: P {x0 ≤ ξ < x0 + ∆x} = F (x0 + ∆x)−
−F (x) > 0, (можно воспользоваться и приближенной форму-
лой (26.4), так как f (x0 ) > 0). Если же [x0 , x0 + ∆x) оказался
на участке постоянства F (x), то плотность f (x) = F 0 (x) будет
тождественно равна нулю, так же как и вероятность для ξ по-
пасть в указанный промежуток. Такие значения x0 не считаются
возможными и для непрерывной с.в. ξ. Этот вопрос станет яснее,
когда мы изучим свойства плотности. Оказывается, по плотности
распределения вероятностей для с.в. ξ можно судить о «поведе-
нии» самой случайной величины.

Теорема 26.1. Свойства плотности распределения.


Пусть f (x) — плотность распределения случайной величины
ξ. Тогда:
1) f (x) ≥ 0 для ∀x ∈ R;
§ 26. НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 117

Z
+∞

2) f (x)dx = 1 — условие нормировки; (26.5)


−∞

Zb
3) P {ξ ∈< a, b >} = f (x)dx . (26.6)
a

Доказательство. 1) По теореме 15.1 любая функция распре-


деления монотонно не убывает на всей числовой прямой. Следо-
вательно,
f (x) = F 0 (x) ≥ 0 для ∀x ∈ R,
где x — точка непрерывности функции f (x).
2) Рассмотрим
Z
+∞ ZB
f (x)dx = lim f (x)dx = lim F (B) = 1
B→+∞ B→+∞
−∞ −∞

по соотношению (26.1) и теореме 15.1.


3) Поскольку для непрерывной случайной величины вероятность
принять любое конкретное значение равна нулю, то есть P {ξ =
= a} = P {ξ = b} = 0, можно записать:
P {ξ ∈< a, b >} = P {ξ ∈ [a, b)} = P {a ≤ ξ < b} =
Zb Za Zb
= F (b) − F (a) = f (x)dx − f (x)dx = f (x)dx.
−∞ −∞ a

Наверное, всем очевидно, что в последних выкладках была


использована теорема 15.2 о применении функции распреде-
ления для вычисления вероятностей, определение непрерывной
случайной величины и свойство аддитивности определенного ин-
теграла.
Замечание 26.1. Можно доказать, что любая функция f (x), об-
ладающая свойствами 1 и 2 теоремы, непременно является плот-
ностью какой-либо случайной величины.
118 Глава 2. Случайные величины и функции от них

График плотности распределения y = f (x) называют кри-


вой распределения. Чтобы выполнялось соотношение (26.5),
необходимо, чтобы f (x) → 0 при x → ±∞. Иначе интеграл бу-
дет расходиться. Следовательно, ось OX является двусторонней
асимптотой для кривой распределения, или f (x) ≡ 0 в окрестно-
сти бесконечности.
Построим график какой-либо функции y = f (x), являющей-
ся плотностью распределения случайной величины ξ (рис. 26.1),
и посмотрим на него с геометрической точки зрения.
Y max
y = f(x) ? 0
max

(S1) (S2)
(S3)
0 x m1 a b m2 c d X

Рис. 26.1. Кривая распределения и ее характеристики

Как и ранее, будем обозначать площадь области (Sk ) без ско-


бок: Sk , k = 1, 3. По свойствам плотности распределения и
геометрическому смыслу определенного интеграла мы можем
утверждать, что:
1) площадь под всей кривой равна 1;
Rx
2) F (x) = P {ξ < x} = f (x)dx = S1 ;
−∞
Rb
3) P {ξ ∈< a, b >} = f (x)dx = S2 ;
a
4) S3 = P {ξ ∈< c, d >} < P {ξ ∈< a, b >} = S2 .
Последний факт мы установили чисто визуально. Вероят-
ность того, что значение с.в. ξ попадет в промежуток < a, b >,
равна площади соответствующей криволинейной трапеции. Сле-
довательно, по виду кривой распределения можно установить,
какие значения наиболее вероятны для с.в. ξ — те, над которы-
ми график плотности «выше». Конечно, площадь криволинейной
трапеции зависит от длины промежутка. Мы взяли d − c = b − a,
так что сравнение площадей очевидно. Очевидно также, что с.в.
ξ будет принимать больши́е по модулю («близкие к бесконечно-
сти») значения с малой вероятностью. Иногда в таких случаях
говорят: «Мала вероятность для ξ попасть в «хвост» распреде-
ления».
§ 26. НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 119

Наиболее вероятные значения ξ находятся в окрестности точ-


ки m1 , которая имеет свое название.

Определение 26.2.
1. Точка максимума m плотности распределения f (x) называ-
ется модой: f (m) ≥ f (x) для ∀x ∈ U (m), где символом U (m)
обозначена окрестность точки m.
2. Число xq , такое, что F (xq ) = q, называется кванти́лью по-
рядка q.
1
3. Квантиль порядка называется медианой: µ = x 21 , то есть
2

1
F (µ) = .
2

Определение медианы дано для непрерывной случайной величи-


ны 13 .
Если у кривой распределения одна точка максимума (одна
мода), то распределение называют одномода́льным. В против-
ном случае — бимода́льным (две моды) или полимода́льным
(«много» мод). На рис. 26.1 изображено бимодальное распреде-
ление.
На рис. 26.2 показано, как можно найти квантиль по графику
функции распределения непрерывной случайной величины.

Рис. 26.2. Поиск квантилей по графику функции распределения

13Для случайных величин произвольного типа медиана определяется с учетом


1
более общих требований: это такое число µ, для которого P {ξ ≥ µ} ≥ ≤
2
≤ P {ξ ≤ µ}. В литературе встречаются и другие обозначения для моды, кван-
тилей и медианы.
120 Глава 2. Случайные величины и функции от них

На рис. 26.3 иллюстрируется тот факт, что прямая x = µ де-


лит площадь под кривой распределения пополам.

Y y = f(x),
S=1

1 1
2
S 2
S

0 m m X

Рис. 26.3. График плотности, мода и медиана

Определение 26.3. Если плотность распределения f (x) —


четная функция, то случайная величина ξ называется симмет-
ричной (имеет симметричное распределение).

На рис. 26.4 изображен график плотности симметричной слу-


чайной величины: f (−x) = f (x).

Y y = f(x)

1 1
2 2

0 X

Рис. 26.4. Кривая одномодального симметричного распределения с нулевым


средним

Забегая вперед, отметим, что математическое ожидание сим-


метричной случайной величины, если оно существует, равно ну-
лю (мы определим его в § 28). Очевидно, что и мода (если она
одна), и медиана тоже равны нулю, а площади под кривой слева
1
и справа от оси OY равны . Итак, для симметричного одномо-
2
дального распределения

m = µ = Mξ = 0 .
§ 26. НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 121

Иногда говорят о симметрии относительно другого центра.


При выполнении условия f (a + x) = f (a − x) график функции
f (x) симметричен относительно прямой x = a (рис. 26.5).

Y
y = f(x)

1 1
2 2

0 a X

Рис. 26.5. Кривая одномодального симметричного распределения с ненулевым


средним

Если существует математическое ожидание случайной вели-


чины с такой плотностью f (x), то оно равно a (мы докажем
это в § 28). Таким образом, для одномодального распределения,
график плотности которого симметричен относительно прямой
x = a, имеем:
m = µ = Mξ = a .
Если симметричное распределение полимодально, то и моды
располагаются симметрично.
Носителем распределения называют множество (D) всех
x ∈ R, при которых f (x) 6= 0, что равносильно соотношению

P {ξ ∈ (D)} = 1 .

Если носитель — ограниченное множество, то распределение


называют ограниченным.

Замечание 26.2. О смешанных распределениях.
Мы не будем изучать их подробно, но в своей работе вы мо-
жете встретиться с так называемыми «смешанными распреде-
лениями». Смешанными называют распределения, функция рас-
пределения у которых имеет разрывы I рода, но не являет-
ся кусочно-постоянной (см. рис. 15.5). Непрерывная случайная
величина принимает непрерывное множество значений, но каж-
дое из них с вероятностью нуль. Случайная величина смешанно-
го типа принимает также непрерывное множество значений, но
некоторые значения (те, в которых функция распределения де-
лает скачок) — с положительной вероятностью (см. § 15).
122 Глава 2. Случайные величины и функции от них

Пример 26.1. Функция распределения случайной величины ξ


имеет вид («закон арксинуса»):

0, x ≤ −1,
F (x) = a + b arcsin x, −1 ≤ x ≤ 1, (26.7)

1, x ≥ 1.

Требуется: а) определить a и b так, чтобы F (x) была непрерыв-


ной; б) построить график функции F (x); в) найти плотность f (x)
и построить ее график; г) вычислить P {−a ≤ ξ ≤ a}; д) найти
моду m и медиану µ.
Решение. а) Чтобы найти a и b, следует приравнять правый и
левый пределы функции F (x) в точках x = −1 и x = 1. По (26.7)
вычислим односторонние пределы:
F (−1−) = lim F (x) = 0;
x→−1−
F (−1+) = lim F (x) = lim (a + b arcsin x) =
x→−1+ x→−1+
π
= a + b arcsin(−1) = a − b;
2
F (1+) = lim F (x) = 1;
x→1+
F (1−) = lim F (x) = lim (a + b arcsin x) =
x→1− x→1−
π
= a + b arcsin 1 = a + b.
2
Приравнивая пределы, получим систему
 π
 a − b = 0,
2
 a + π b = 1,
2
1 1
из которой найдем: a = , b = . Тогда
2 π
1 1
F (x) = + arcsin x при x ∈ [−1, 1]. (26.8)
2 π
б) Построим график функции y = F (x) (рис. 26.6). Для по-
строения графика можно привлечь аппарат дифференциального
исчисления и исследовать функцию с помощью первых двух про-
изводных. Однако проще построить график схематически: из-
вестный всем график арксинуса следует сжать в π раз вдоль оси
§ 26. НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 123

OY и поднять на 1/2. Поскольку мы уже знаем, что функция


непрерывна, такое построение не вызывает больших проблем.
Выпуклость графика функции y = arcsin x сохраняется.
Y
1
y = F(x)
1
2

–1 0 1 X

Рис. 26.6. К примеру 26.1

в) Найдем плотность распределения случайной величины ξ


по формулам (26.2), (26.7) и (26.8):


 0, x ≤ −1,
 1
0 √
f (x) = F (x) = , −1 < x < 1,

 π 1 − x2

0, x ≥ 1.

При построении графика функции y = f (x) учтем, что на интер-


вале (−1, 1) наименьшее значение f (x) достигается при наиболь-
1
шем значении знаменателя дроби, то есть при x = 0 f (0) = .
π
Кроме того, f (x) оказалась четной — распределение симметрич-
но (рис. 26.7).

Рис. 26.7. К примеру 26.1

г) Вычислим требуемую вероятность, учитывая, что значение


1
параметра a уже найдено: a = . Можно было бы использовать
2
124 Глава 2. Случайные величины и функции от них

теорему 26.1 и искать вероятность как интеграл от плотности по


формуле (26.6). Это более сложный способ. Поскольку известна
функция распределения с.в. ξ, проще воспользоваться теоремой
15.2 о применении функции распределения для вычисления ве-
роятностей:
1 1 1 1
≤ ξ ≤ } = P {− ≤ ξ < } =
P {−a ≤ ξ ≤ a} = P {−
2 2 2 2
1 1 1 1 1 1 1 1
= F ( ) − F (− ) = + arcsin − − arcsin(− ) =
2 2 2 π 2 2 π 2
2 1 2 π 1
= arcsin = · = .
π 2 π 6 3
Не забывайте, что теорему 15.2 следует применять очень осто-
рожно: только для непрерывной случайной величины

P {ξ ∈< a, b >} = P {ξ ∈ [a, b)} при ∀a, b ∈ R.


д) Нам осталось найти моду и медиану. Если вы посмотрите
на график плотности (рис. 26.7), то увидите, что моды не суще-
ствует — функция f (x) не имеет максимумов. Она не ограничена
на интервале (−1, 1), что не мешает сходиться несобственному
R
+∞ R
+1
интегралу f (x)dx = f (x)dx = 1 — проверьте!
−∞ −1
Нетрудно установить, что медиана µ = 0. Это вытекает из
симметричности распределения, из графика функции распреде-
ления (рис. 26.6), а можно найти и аналитически из соотношения
1
F (µ) = :
2

1 1 1
F (µ) = + arcsin µ = ⇒ arcsin µ = 0 ⇒ µ = 0.
2 π 2

Пример 26.2. Дана функция


½
a(1 + x) при x ∈ [0, 1],
f (x) =
0 при x∈/ [0, 1].

Найти: а) значение параметра a так, чтобы f (x) была плотно-


стью распределения некоторой случайной величины ξ; б) функ-
цию распределения F (x) случайной величины ξ; в) моду и меди-
ану. Построить графики f (x) и F (x).
§ 26. НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 125

Решение. а) Значение параметра a найдем из условия нор-


мировки (26.5):
Z
+∞ Z1 ¯1
x2 ¯ 3
1= f (x)dx = a(1 + x)dx = a(x + )¯¯ = a,
2 0 2
−∞ 0

2
откуда a = .
3
2
Следовательно, f (x) = (1 + x) при x ∈ [0, 1]. Очевидно,
3
f (x) ≥ 0 при ∀x ∈ R.
б) Найдем функцию распределения F (x) по формуле (26.1):
Zx
F (x) = f (t)dt.
−∞

Поскольку f (x) на разных промежутках задана разными фор-


мулами, придется рассмотреть 3 случая: x ∈ (−∞, 0), x ∈ [0, 1] и
x ∈ (1, +∞) (см. рис. 26.8).
Если x ∈ (−∞, 0), то t ≤ x < 0 и f (t) ≡ 0. Следовательно
F (x) ≡ 0 при x ∈ (−∞, 0).
Если x ∈ (1, +∞), то
Zx Z0 Z1 Zx
F (x) = f (t)dt = f (t)dt + f (t)dt + f (t)dt =
−∞ −∞ 0 1
= 0 + 1 + 0 = 1.

Рассмотрим x ∈ [0, 1]. Тогда


Zx Z0 Zx
F (x) = f (t)dt = f (t)dt + f (t)dt =
−∞ −∞ 0
Zx ¯x µ ¶
2 2 t2 ¯ 2 x2
=0+ (1 + t)dt = (t + )¯¯ = x+ .
3 3 2 0 3 2
0

Проверим, получилась ли F (x) непрерывной. Вычислим


2 1
F (0) = 0; F (1) = (1 + ) = 1. Получилась. Можно записать
3 2
126 Глава 2. Случайные величины и функции от них

ответ: 

0 при x ≤ 0,
F (x) = 2 x2 (26.9)
(x + 2 ) при 0 ≤ x ≤ 1,
3
1 при x ≥ 1.
в) Найдем моду и медиану. Для отыскания моды можно ис-
следовать функцию f (x) на экстремум, но в данной задаче легче
сначала построить график, так как плотность — кусочно-линей-
ная функция (рис. 26.8). По графику видно, что точкой максиму-
ма функции f (x) является x = 1. Следовательно, мода m = 1.

Y
4 y = f(x)
3

2
3

m
0 1 X

Рис. 26.8. К примеру 26.2

1 2 µ2
Медиану найдем аналитически: = F (µ) = (µ + ). По-
2 3 2
сле простейших преобразований получим квадратное уравнение√
2 −2 ± 28
относительно µ: 2µ + 4µ − 3 = 0, откуда µ1,2 = =
√ 4
−1 ± 7 1 √
= . Очевидно, число − (1 + 7) ∈ / [0, 1]. Следователь-
2 √ 2
но, µ = 1/2( 7 − 1) ≈ 0, 82. Построим график функции распре-
деления F (x) (рис. 26.9). На отрезке [0,1] график представляет

Рис. 26.9. К примеру 26.2


§ 26. НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 127

собой параболу, имеющую выпуклость вниз, так как старший ко-


эффициент квадратного трехчлена (26.9) положителен.

Пример 26.3. Представляет интерес рассмотреть случайную
величину смешанного типа. Пусть дан график функции распре-
деления случайной величины ξ (рис. 26.10). Требуется: а) запи-
сать ее аналитическое задание; б) указать возможные значения ξ
и их вероятности; в) найти P {0 ≤ ξ ≤ 1, 5}.

Рис. 26.10. К примеру 26.3

Решение. а) Записав уравнение прямой, проходящей через


1
точки (0, ) и (1,1), и использовав график функции F (x), полу-
2
чим: 

 0 при x ≤ −2,

1
 при − 2 ≤ x ≤ 0,
3
F (x) = x + 1

 при 0 ≤ x ≤ 1,

1 2

при x ≥ 1.
б) Мы видим, что в точках −2 и 0 функцияF (x) делает скачки́
1 1
размера и . Следовательно, с.в. ξ принимает значения −2 и 0
3 6
с вероятностями:
1 1
P {ξ = −2} = , P {ξ = 0} = .
3 6
Очевидно,
P {ξ < −2} = 0;
P {−2 < ξ < 0} = P {−2 ≤ ξ < 0} − P {ξ = −2} =
1 1 1
= F (0) − F (−2) − = − 0 − = 0.
3 3 3
128 Глава 2. Случайные величины и функции от них

Следовательно, возможных значений ξ на интервале (−2, 0) нет


(приращение функции распределения равно нулю). Вычислим
P {0 < ξ ≤ 1} = P {0 ≤ ξ < 1} − P {ξ = 0} + P {ξ = 1} =
1 1 1 1
= F (1) − F (0) − + 0 = 1 − − = .
6 3 6 2
Таким образом, на полуинтервале (0,1] находятся возможные зна-
чения ξ, но каждое из них принимается с нулевой вероятностью,
так как ф.р.F (x) непрерывна на этом промежутке. Очевидно, что
P {ξ > 1} = 0. Какой же можно сделать вывод?
Случайная величина ξ принимает значения: −2 с вероятно-
стью 1/3; 0 с вероятностью 1/6 и непрерывный спектр значений
1 1 1 1
из полуинтервала (0,1] с вероятностью . Проверим: + + =
2 3 6 2
1. Мы видим, что это действительно случайная величина сме-
шанного типа (см. замечание 26.2).
в) Найдем
1 1 2
P {0 ≤ ξ ≤ 1, 5} = P {ξ = 0} + P {ξ ∈ (0, 1]} = + = .
6 2 3
Поскольку F (x) не является непрерывной функцией, она, тем
более, не дифференцируема на всей числовой оси. Плотности рас-
пределения с.в. ξ не существует, хотя формально можно найти
производную функции F (x) на отдельных промежутках:

0 при x < −2; −2 < x < 0; x > 1;
F 0 (x) = 1
 при 0 < x < 1.
2
В точках −2, 0 и 1 производной F 0 (x) не существует и
Z1
1
F 0 (x)dx = 6= 1.
2
0

§ 27. ФУНКЦИИ НЕПРЕРЫВНЫХ СЛУЧАЙНЫХ


ВЕЛИЧИН
Мы уже говорили о том, что если ξ — случайная величина, а
y = g(x) — кусочно-непрерывная числовая функция числового
аргумента, то η = g(ξ) — тоже случайная величина. Она при-
нимает значение y = g(x), если ξ принимает значение x. Так как
§ 27. ФУНКЦИИ НЕПРЕРЫВНЫХ СЛУЧАЙНЫХ ВЕЛИЧИН 129

непрерывная случайная величина ξ принимает каждое фиксиро-


ванное значение с вероятностью нуль, то встает вопрос о поис-
ке плотности и функции распределения случайной величины η.
Можно рассматривать функции двух (ξ, η), трех (ξ, η, ζ) и бо-
лее непрерывных случайных величин: ζ = g(ξ, η), ψ = h(ξ, η, ζ)
и т. д. Подробнее мы займемся этим при изучении систем слу-
чайных величин (случайных векторов), а сейчас рассмотрим во-
прос о распределении и числовых характеристиках функций од-
ной непрерывной случайной величины.
Начнем с функции распределения. Пусть на вероятностном
пространстве {Ω, F, P } задана непрерывная случайная вели-
чина ξ с плотностью распределения fξ (x) и функцией распреде-
ления Fξ (x). Требуется найти распределение случайной величи-
ны η = g(ξ).
Будем предполагать, что с.в. ξ может принимать любые ве-
щественные значения и функция g(x) определена на всей число-
вой прямой. Рассмотрим 3 случая.
А) Функция y = g(x) монотонно возрастает (рис. 27.1). В этом
случае у нее существует обратная функция x = w(y) — тоже

y = g(x)
y
h

0 w(y) X

Рис. 27.1. Случай возрастающей функции

монотонно возрастающая. Найдем функцию распределения слу-


чайной величины η:

Fη (y) = P {η < y} =
(27.1)
P {g(ξ) < y} = P {ξ < w(y)} = Fξ (w(y)).

B) Функция y = g(x) монотонно убывает (см. рис. 27.2). У мо-


нотонно убывающей функции также существует монотонно убы-
вающая обратная: x = w(y). Найдем функцию распределения
130 Глава 2. Случайные величины и функции от них

y = g(x)
y

h x

0 w(y) X

Рис. 27.2. Случай убывающей функции

случайной величины η:
Fη (y) = P {η < y} = P {g(ξ) < y} = P {ξ > w(y)} =
= 1 − P {ξ ≤ w(y)} = 1 − P {ξ < w(y)} = 1 − Fξ (w(y)).
(27.2)
C) Функция y = g(x) не монотонна. Например, она убывает на
промежутке (−∞, a), а потом возрастает на промежутке (a, +∞)
Y

y y = g(x)

h
x
X
w1(y) 0 a w2(y)

Рис. 27.3. Функция переменной монотонности

(рис. 27.3). График обратной функции имеет две однозначные вет-


ви, и, следовательно, каждому y соответствует два значения x:
w1 (y) и w2 (y). Найдем функцию распределения случайной вели-
чины η:
Fη (y) = P {η < y} = P {g(ξ) < y} = P {w1 (y) < ξ < w2 (y)} =
= P {w1 (y) ≤ ξ < w2 (y)} = Fξ (w2 (y)) − Fξ (w1 (y)).
(27.3)

Попробуйте сами рассмотреть случай, когда g(x) сначала
возрастает, потом убывает, и убедиться в том, что
Fη (y) = 1 − Fξ (w2 (y)) + Fξ (w1 (y)). (27.4)
§ 27. ФУНКЦИИ НЕПРЕРЫВНЫХ СЛУЧАЙНЫХ ВЕЛИЧИН 131

Аналогично, рисуя график функции y = g(x), можно рас-


смотреть и другие случаи для немонотонной функции g(x).
Используя соотношение (26.2), можно по функции распре-
деления восстановить плотность распределения случайной вели-
чины η = g(ξ). Докажем следующую теорему.

Теорема 27.1. О вычислении плотности функции непре-


рывной случайной величины.
Пусть непрерывная случайная величина ξ имеет плотность
распределения fξ (x), а функция g(x) строго монотонна и диф-
ференцируема. Тогда плотность распределения случайной ве-
личины η = g(ξ) имеет вид:

fη (y) = fξ (w(y)) · |w0 (y)| , (27.5)

где x = w(y) — функция, обратная к y = g(x).

Доказательство. Рассмотрим случай А. По формуле (27.1)


Fη (y) = Fξ (w(y)). Следовательно, по (26.2)

dFη (y) dFξ (w(y)) dFξ (w(y)) dw(y)


fη (y) = = = · =
dy dy dw dy
= fξ (w(y)) · w0 (y) = fξ (w(y)) · |w0 (y)|,

так как w0 (y) ≥ 0 в силу возрастания функции w(y).


Рассмотрим случай В. По формуле (27.2)

Fη (y) = 1 − Fξ (w(y)).

Следовательно,

dFη (y) d[1 − Fξ (w(y))] dw(y)


fη (y) = = · =
dy dw dy
dFξ (w(y)) dw(y)
=− · = −fξ (w(y))w0 (y) = fξ (w(y))|w0 (y)|,
dw dy

так как w0 (y) ≤ 0 в силу убывания функции w(y). Таким образом,


теорема доказана для любой строго монотонной функции g(x).
132 Глава 2. Случайные величины и функции от них

Замечание 27.1. Если нет строгой монотонности функции g(x),


то следует найти плотность fη (y) отдельно на каждом промежут-
ке монотонности функции g(x) и результаты сложить при каж-
дом y из области значений случайной величины η.
Рассмотрим, например, случай С. По формуле (27.3)

Fη (y) = Fξ (w2 (y)) − Fξ (w1 (y)).

Тогда
dFξ (w2 (y)) dw2 (y) Fξ (w1 (y)) dw1 (y)
fη (y) = · − · =
dw2 dy dw1 dy
= fξ (w2 (y))|w20 (y)| + fξ (w1 (y))|w10 (y)| = fη(2) (y) + fη(1) (y),
(1)
где fη (y) — найденная по формуле (27.5) плотность для x ∈
(2)
∈ (−∞, a), а fη (y) — для x ∈ (a, +∞) (см. рис. 27.3).

Нарисуйте график какой-либо функции y = g(x), три или
четыре раза меняющей монотонность, найдите для нее Fη (y), а
затем fη (y) — это будет хорошей тренировкой для осознания ме-
тода.
Пример 27.1. Пусть случайная величина ξ имеет плотность рас-
пределения 
1
при x ∈ [−8, 1],
fξ (x) = 9 (27.6)
0 при x ∈ / [−8, 1].
Найти плотность и функцию распределения случайной величины
η = ξ 2/3 . Построить их графики.
Эту задачу можно решать двумя путями: сначала найти функ-
цию распределения, строя график функции g(x) = x2/3 , потом
плотность (проделайте этот путь самостоятельно); или сначала
найти плотность по теореме 27.1 и замечанию 27.1, а потом функ-
цию распределения. Мы пойдем именно этим путем.
Изобразим график функции y = x2/3 на отрезке [−8, 1]
(рис. 27.4). Мы видим, что если ξ принимает значения с вероят-
ностью 1 лишь на отрезке [−8, 1], то случайная величина η с ве-
роятностью 1 принимает значения из отрезка [0,4] (зависимость
η от ξ та же, что и зависимость y от x на рис. 27.4). Следователь-
но, fη (y) = 0 при y ∈/ [0, 4]. Рассмотрим y ∈ [0, 4].
Разобьем отрезок [−8, 1] на два промежутка, на каждом из
которых функция g(x) = x2/3 монотонна: [−8, 1] = [−8, 0]∪[0, 1].
§ 27. ФУНКЦИИ НЕПРЕРЫВНЫХ СЛУЧАЙНЫХ ВЕЛИЧИН 133

Y
4
2/3
y y=x
1
y

–1 1
–8 w1(y) w1(y) 0 w (y) X
2

Рис. 27.4. К примеру 27.1

2/3
Возьмем x ∈ [−8, 0] и найдем
p функцию, обратную к y = x . Это
3/2
функция x = −y = − y 3 = w1 (y). Тогда

3 1 3√
w10 (y) = − y 2 = − y.
2 2
По формуле (27.5) получим:
¯ ¯
1 ¯¯ 3 √ ¯¯ 1 √
fη(1) (y) = fξ (w1 (y))|w10 (y)| = − y = y, y ∈ [0, 4].
9¯ 2 ¯ 6

Здесь мы воспользовались тем, что каково бы ни было y ∈ [0, 4],


3√
соответствующее x = w1 (y) = − y ∈ [−8, 0], а это значит, что
2
1
fξ (w1 (y)) = по (27.6).
9
∈ [0, 1]. Тогда обратная функция к y = x2/3
Возьмем теперь x p
будет x = +y 3/2 = + y 3 = w2 (y). По формуле (27.5)
¯ ¯
1 ¯3√ ¯ 1√
fη(2) (y) = fξ (w2 (y))|w20 (y)| = ¯
·¯ y¯ = y, y ∈ [0, 1].
9 2 ¯ 6

(1)
Таким образом, при y ∈ [0, 1] следует сложить функции fη (y) и
(2) (1)
fη (y), а при y ∈ (1, 4] плотность fη (y) = fη (y).
Нам осталось записать ответ для плотности:
1√
3 y при y ∈ [0, 1],

fη (y) = 16 y при y ∈ (1, 4],

0 при y∈/ [0, 4].
134 Глава 2. Случайные величины и функции от них

Сделаем проверку: получилась ли у нас действительно плот-


ность (см. теорему 26.1). Очевидно, fη (y) ≥ 0 при ∀y ∈ R. Про-
верим, равен ли единице интеграл (26.5). Пользуясь аддитивно-
стью определенного интеграла, получим:
Z
+∞ Z0 Z1 Z4
fη (y)dy = fη (y)dy + fη (y)dy + fη (y)dy+
−∞ −∞ 0 1
Z
+∞ Z1 Z4
1√ 1√
+ fη (y)dy = 0 + ydy + ydy + 0 = 1.
3 6
4 0 1

Нам осталось найти функцию распределения случайной величи-


ны η:
Zy
Fη (y) = fη (t)dt.
−∞

Если y ≤ 0, то fη (y) = 0 и Fη (y) = 0. Если y ≥ 4, то


Zy Z
+∞

Fη (y) = fη (t)dt = fη (t)dt = 1.


−∞ −∞

Рассмотрим y ∈ (0, 1]:


Zy Zy √
1 2
Fη (y) = fη (t)dt = tdt = y 3/2 .
3 9
−∞ 0

Рассмотрим y ∈ (1, 4]:


Z1 √ Zy √
1 1 1 1
Fη (y) = tdt + tdt = + y 3/2 .
3 6 9 9
0 1

Запишем ответ:

0 при y ≤ 0,

2
y 3/2 при 0 ≤ y ≤ 1,
Fη (y) = 91 1 3/2

 + y при 1 ≤ y ≤ 4,
9 9
1 при y ≥ 4.
§ 28. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ НЕПРЕРЫВНОЙ С.В. 135

Рис. 27.5. К примеру 27.1 Рис. 27.6. К примеру 27.1

Мы видим, что Fη (y) получилась непрерывной. Построим гра-


фики функций z = fη (y) (рис. 27.5) и z = Fη (y) (рис. 27.6).
Можно провести еще одну проверку — убедиться в том, что
Fη0 (y) = fη (y).

§ 28. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ НЕПРЕРЫВНОЙ


СЛУЧАЙНОЙ ВЕЛИЧИНЫ И ФУНКЦИИ
НЕПРЕРЫВНОЙ СЛУЧАЙНОЙ ВЕЛИЧИНЫ

Изучая курс математического анализа, вы уже видели, что


непрерывным аналогом суммирования является интегрирова-
ние. Случайная величина непрерывного типа принимает непре-
рывный спектр значений, причем каждое значение с вероят-
ностью нуль. Поэтому определить математическое ожидание
непрерывной случайной величины с помощью «дискретной»
суммы (19.1)–(19.2) (как это делалось для дискретной случай-
ной величины) не представляется возможным. Придется приме-
нить «непрерывное суммирование», то есть интегрирование. Для
дискретной случайной величины при вычислении математическо-
го ожидания мы суммировали произведения ее возможных зна-
чений xi и их вероятностей pi . Для непрерывной случайной
величины мы будем «непрерывно суммировать», то есть инте-
грировать произведения значения x случайной величины на со-
ответствующее значение f (x) ее плотности распределения.
Пусть на вероятностном пространстве {Ω, F, P } определена
непрерывная случайная величина ξ с плотностью распределения
f (x).
136 Глава 2. Случайные величины и функции от них

Определение 28.1. Математическим ожиданием случайной


величины ξ называется число

Z
+∞
def
Mξ = xf (x)dx , (28.1)
−∞

если интеграл абсолютно сходится. В противном случае гово-


рят, что математического ожидания не существует.

Свойства математического ожидания для непрерывных слу-


чайных величин абсолютно те же, что и для дискретных:
1) M C = C;
2) M (C1 ξ+C2 η) = C1 M ξ+C2 M η для ∀C1 , C2 ∈ R (линейность);
3) если ξ и η — независимые случайные величины, то

M (ξη) = M ξ · M η;

4) |M ξ| ≤ M |ξ|;
5) Если P {ξ ∈ [a; b]} = 1, то и M ξ ∈ [a; b].
Свойство 1 по-прежнему, относится к вырожденной, то есть
дискретной, случайной величине и приводится как напоминание.
Свойство 4 вытекает из соответствующего свойства интегралов,
а вот свойства 2 и 3 мы пока доказать не в состоянии — они свя-
заны с математическим ожиданием функции двух непрерывных
случайных величин. Мы докажем их позднее, при изучении си-
стем случайных величин.
Докажем 5:

Z
+∞ Za Zb Z
+∞

Mξ = xf (x)dx = xf (x)dx + xf (x)dx + xf (x)dx =


−∞ −∞ a b
Zb Zb
=0+ xf (x)dx ≤ b · f (x)dx = bP {ξ ∈ [a; b]} = b.
a a

Аналогично M ξ ≥ a.
В § 26 мы говорили о симметричных случайных величинах.
Докажем следующее утверждение.
§ 28. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ НЕПРЕРЫВНОЙ С.В. 137

Утверждение 28.1.Если значения плотности непрерывной


случайной величины ξ симметричны относительно точки a, то
есть f (a + x) = f (a − x) для ∀x ∈ R, где a — некоторое веще-
ственное число (в частности, может быть a = 0), то M ξ = a,
если оно существует.

Доказательство. Сделаем в интеграле (28.1) две последова-


тельных замены переменной: сначала x = a − t, потом a + t = u.
Воспользовавшись симметричностью плотности, получим:
Z
+∞ Z
+∞

Mξ = xf (x)dx = (a − t)f (a − t)dt =


−∞ −∞
Z
+∞ Z
+∞

= (a − t)f (a + t)dt = (a − u + a)f (u)du =


−∞ −∞
Z
+∞ Z
+∞

= 2a f (u)du − uf (u)du = 2a − M ξ.
−∞ −∞

Отсюда 2M ξ = 2a, то есть M ξ = a.


Частный случай этого утверждения (при a = 0) совершенно
очевиден: ввиду нечетности функции xf (x)
Z
+∞

Mξ = xf (x)dx = 0,
−∞
если этот интеграл сходится.
Рассмотрим теперь математическое ожидание случайной ве-
личины η, являющейся функцией другой случайной величины ξ,
у которой известно распределение.

Теорема 28.1. Пусть случайная величина η = g(ξ), где ξ —


непрерывная случайная величина с плотностью распределения
fξ (x). Тогда
Z
+∞

M g(ξ) = g(x)fξ (x)dx . (28.2)


−∞
138 Глава 2. Случайные величины и функции от них

Доказательство. Доказательство этой теоремы проведем для


частного случая, когда функция g(x) строго монотонна и диффе-
ренцируема. Пусть она, к тому же, возрастает от−∞ к +∞ при x,
меняющемся от −∞ до +∞. Мы знаем, что для дифференциру-
емой строго монотонной функции всегда существует обратная —
тоже дифференцируемая и строго монотонная. Обозначим функ-
цию, обратную к y = g(x) за x = w(y). Используя теорему 27.1
о вычислении плотности распределения функции случайной ве-
личины и формулу (28.1), получим:
Z
+∞ Z
+∞

M g(ξ) = M η = yfη (y)dy = yfξ (w(y))|w0 (y)|dy. (28.3)


−∞ −∞

Сделаем в последнем интеграле замену переменной: y = g(x).


По свойствам функции g(x) получим интеграл по промежутку
(−∞, +∞). Поскольку обратная функция w(y), как и g(x), стро-
го возрастает, то |w0 (y)| = w0 (y) ≥ 0. Кроме того,

w0 (y)dy = dw(y) = dx,

а w(g(x)) = x. С учетом всего этого из формулы (28.3) найдем:

Z
+∞

M g(ξ) = g(x)fξ (x)dx,


−∞

что и требовалось доказать.

Пример 28.1. Найти математическое ожидание случайной ве-


личины ξ, имеющей плотность14 распределения
½
2(1 − x) при x ∈ [0, 1],
fξ (x) =
0 при x ∈/ [0, 1].
14 В литературе обычно не записывают плотность распределения с помощью

фигурной скобки. Указывают лишь формулу аналитического задания и проме-


жуток, на котором плотность отлична от нуля. Например, «fξ (x) = 2(1 − x) при
x ∈ [0, 1].» Автоматически предполагается, что при всех других x плотность рав-
на нулю. Аналогично, для функции распределения, кроме аналитической форму-
лы, указывают лишь промежуток, на котором она отлична от тождественного ну-
ля и единицы. Например, как в формуле (26.8).
§ 28. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ НЕПРЕРЫВНОЙ С.В. 139

Построить график плотности и вычислить M sin ξ.


Решение. По формуле (28.1) найдем
Z
+∞ Z1 ¯1
¡ x2 x3 ¢¯¯ 1
Mξ = xfξ (x)dx = 2(1 − x) · xdx = 2 − ¯ = .
2 3 0 3
−∞ 0

По формуле (28.2) вычислим, интегрируя по частям:


Z
+∞ Z1
M sin ξ = sin x · fξ (x)dx = 2 (1 − x) sin xdx =
−∞ 0
Z1 ¯1 Z1
¯
= −2 ¯
(1 − x)d cos x = −2(1 − x) cos x¯ + 2 cos xd(1 − x) =
0
0 0
Z1 ¯1
¯
= 2 − 2 cos xdx = 2 − 2 sin x¯¯ = 2 − 2 sin 1.
0
0

Построим график функции y = fξ (x) (рис. 28.1). Найдите само-


стоятельно медиану для данного распределения. Выясните: сов-
падает ли она с M ξ? Подумайте, можно ли, используя график
плотности, сразу ответить на этот вопрос?

Рис. 28.1. К примеру 28.1

Пример 28.2. Найти математическое ожидание случайной ве-


личины η, имеющей плотность распределения
1 −|x|
fη (x) = e , x ∈ R.
2
µ ¶
1
Построить график плотности и ∗ вычислить M .
η2
140 Глава 2. Случайные величины и функции от них

Решение15 . Найдем
Z
+∞ Z
+∞ Z0
1 −|x| 1
Mη = xfη (x)dx = xe dx = xex dx+
2 2
−∞ −∞ −∞
Z
+∞ Z0 Z
+∞ ¯0
1 −x 1 x1 −x 1 x ¯¯
+ xe dx = xde − xde = xe ¯ −
2 2 2 2 −∞
0 −∞ 0
Z0 ¯+∞ Z
+∞
1 1 ¯ 1
− ex dx − xe−x ¯¯ + e−x dx =
2 2 2 0
−∞ 0
¯0 ¯+∞
1 x ¯¯ 1 −x ¯¯ 1 1
=0− e ¯ −0 − e ¯ = − + = 0.
2 −∞ 2 0 2 2

Легко показать, что


Z
+∞

M |η| = xe−x dx = 1,
0

то есть существует.
Построим график функции y = fη (x) (рис. 28.2). Очевидно,
эта функция четная, то есть распределение симметрично. Если

Рис. 28.2. К примеру 28.2

˛+∞
˛
15 Здесь и далее символика «g(x)˛˛ » означает, что рассматриваются
−∞
пределы:
˛+∞
˛
g(x)˛˛ = lim g(B) − lim g(A).
B→+∞ −∞ A→−∞
§ 28. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ НЕПРЕРЫВНОЙ С.В. 141

бы мы были уверены в абсолютной сходимости интеграла для


M η, согласно утверждению 28.1 можно было бы сразу записать,
что M η = 0.
Воспользуемся формулой (28.2) для окончания решения за-
дачи:
µ ¶ Z
+∞ Z
+∞
1 1 1 e−|x|
M 2 = f η (x)dx = dx.
η x2 2 x2
−∞ −∞

Последний интеграл оказался неберущимся (интегрированием по


частям он сводится к интегральной экспоненте). У этого инте-
грала 3 особенности: в нуле и на ±∞. Если бы оказалось, что он
сходится, его можно было бы вычислить приближенно. Поста-
раемся выяснить вопрос о сходимости этого интеграла. Най-
дем степенной эквивалент для подынтегральной функции при
x → 0+:
e−|x| e−x 1
2
= 2 ∼ 2, x → 0 + .
x x x
Вспомним известный интеграл:

Z1 ½
dx сходится при p < 1,
xp расходится при p ≥ 1.
0

R1 dx
Следовательно, 2
расходится. Следовательно, по предель-
0 x
R1 e−x
ному признаку сравнения расходится и 2
dx. В то же время
0 x

Z
+∞ Z
+∞
e−x 1
0≤ dx ≤ e−x dx = ,
x2 e
1 1

R e−x
+∞
то есть dx сходится. Таким образом,
1 x2

Z
+∞ Z
+∞ Z1 Z
+∞
e−|x| e−x e−x e−x
dx = dx = dx + dx
x2 x2 x2 x2
0 0 0 1
142 Глава 2. Случайные величины и функции от них

расходится как сумма сходящегося и расходящегося интегралов.


Поэтому расходится и интеграл

Z
+∞ Z0 Z
+∞
e−|x| ex e−x
dx = dx + dx,
x2 x2 x2
−∞ −∞ 0
µ ¶
1
то есть искомого математического ожидания M не суще-
η2
ствует.
Как видите, при решении вероятностных задач существенно
используется аппарат математического анализа. Только что мы
повторили методы, которые часто используются при выяснении
вопросов о существовании числовых характеристик случайных
величин.
Пример 28.3. Построить график плотности распределения
1
fξ (x) = , x ∈ R,
π(1 + x2 )

(частный случай распределения Коши). Найти математическое


ожидание случайной величины
√ ξ и математическое ожидание слу-
3
ξ
чайной величины η = .
1 + ξ2
При решении задачи нам снова придется использовать аппа-
рат математического анализа.
График функции y = fξ (x) изображен на рис. 28.3. Поскольку
эта функция четная, то, следовательно, ξ — симметричная слу-
чайная величина. Однако мы не можем сразу утверждать, что

Рис. 28.3. К примеру 28.3


§ 28. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ НЕПРЕРЫВНОЙ С.В. 143

M ξ = 0. Мы должны убедиться, что M ξ существует. Рассмот-


рим
Z
+∞ Z
+∞
1 x
Mξ = xfξ (x)dx = dx. (28.4)
π 1 + x2
−∞ −∞

Можно исследовать этот интеграл, разбивая его, как в примере


28.2, на два несобственных интеграла и вычисляя первообраз-
ную подведением x под знак дифференциала. Это более долгий
путь. Можно поступить проще: найти степенной эквивалент для
подынтегральной функции при x → ±∞, так как других особых
точек нет, и сравнить интеграл (28.4) с известным несобственным
интегралом от степенной функции:

Z
+∞ ½
dx сходится при p > 1,
(28.5)
xp расходится при p ≤ 1.
1

Пойдем по более легкому пути:

x x 1
∼ 2 = , при x → ±∞.
1 + x2 x x

Следовательно, по предельному признаку интеграл (28.4) не


R
+∞ x
может сходиться, так как даже dx расходится. Зна-
1 1 + x2
чит, математического ожидания M ξ не существует и мы не имеем
права говорить, что оно равно нулю.
Попробуем вычислить M η по формуле (28.2):

µ √ ¶ +∞ √
Z Z
+∞ √
3
ξ 3
x 1 3
x
Mη = M = f ξ (x)dx = dx.
1 + ξ2 1 + x2 π (1 + x2 )2
−∞ −∞

Мы видим, что получился несобственный интеграл от нечетной


функции. Если он сходится, то равен нулю. Используем тот же
способ исследования — заменим подынтегральную функцию на
эквивалентную:
√3
x x1/3 1
2 2
∼ 4 = 11/3 при x → ±∞.
(1 + x ) x x
144 Глава 2. Случайные величины и функции от них

Следовательно, по формуле (28.5) и предельному признаку срав-


нения несобственных интегралов интеграл
Z
+∞ √ Z−1 √
3
x 3
x
dx = dx+
(1 + x2 )2 (1 + x2 )2
−∞ −∞
Z1 √ Z
+∞ √
3
x 3
x
+ 2 2
dx + dx
(1 + x ) (1 + x2 )2
−1 1
сходится как сумма двух сходящихся интегралов и одного ин-
теграла, не являющегося несобственным (кстати, он равен ну-
лю). Таким образом, M η = 0, и мы избежали необходимости
вычислять очень громоздкий несобственный интеграл, заменой
переменной и разложением на простейшие приводящийся к сум-
ме интегралов от простейших рациональных дробей всех четырех
типов.
Интересно, что M ξ не существовало, а M η существует.
p Ес-
ли вдуматься, то это не удивительно, ведь |η| < |ξ| < |ξ| при
3

|ξ| > 1. Вы не заметили, что мы рановато сделали вывод о су-


ществовании M η? При определении математического ожидания
мы говорили о том, что оно считается существующим, если соот-
ветствующий интеграл абсолютно сходится, то есть существует
абсолютный момент. Покажите сами, что M |η| существует. Это
совсем просто, если вы разобрались с методикой решения дан-
ной задачи.
Вы, наверное, уже почувствовали, что существование мате-
матического ожидания зависит от «скорости» убывания плотно-
сти распределения при x → ±∞.
Если распределение ограничено, то есть плотность отлич-
на от нуля только на конечном промежутке (как в примере 28.1),
то математическое ожидание такой случайной величины суще-
ствует всегда — нужно просто вычислить соответствующий ин-
теграл. В примерах 28.2 и 28.3 мы остановились на более слож-
ных случаях.

§ 29. ДИСПЕРСИЯ И ДРУГИЕ МОМЕНТЫ


НЕПРЕРЫВНЫХ СЛУЧАЙНЫХ ВЕЛИЧИН
Изучая дискретные случайные величины, мы уже видели, что
математическое ожидание случайной величины является ее на-
чальным моментом первого порядка, а дисперсия — централь-
§ 29. ДИСПЕРСИЯ И ДРУГИЕ МОМЕНТЫ НЕПРЕРЫВНЫХ С.В. 145

ным моментом второго порядка. Определения дисперсии и дру-


гих моментов непрерывных случайных величин (кроме математи-
ческого ожидания) в точности совпадают с определениями ана-
логичных моментов дискретных случайных величин, но вычис-
ляются по-другому — через интегралы, что следует из теоремы
28.1.
Повторим определения моментов и сразу распишем их
по формуле (28.2) для непрерывных случайных величин. Диспер-
сию, в силу ее важности, выделим отдельно.
Определение 29.1. Пусть ξ — непрерывная случайная вели-
чина с плотностью распределения f (x).
Дисперсией случайной величины ξ называется число

Z
+∞
def 2
Dξ = M (ξ − M ξ) = (x − M ξ)2 f (x)dx . (29.1)
−∞

Определение 29.2. Начальным моментом порядка k случай-


ной величины ξ называется число

Z
+∞
def k
νk (ξ) = M ξ = xk f (x)dx.
−∞

Определение 29.3. Центральным моментом порядка k слу-


чайной величины ξ называется число

Z
+∞
def
µk (ξ) = M (ξ − M ξ)k = (x − M ξ)k f (x)dx.
−∞

Предполагается, что существуют абсолютные моменты M |ξ|k


и M |ξ − M ξ|k .

Как и для дискретных случайных величин, νo = µo = 1;


ν1 = M ξ, µ1 = 0; ν2 = M ξ 2 , µ2 = Dξ, то есть M ξ и Dξ — тоже
моменты.
146 Глава 2. Случайные величины и функции от них

Если вы вспомните доказательство теоремы 22.1 о свойствах


дисперсии, то поймете, что свойства дисперсии дискретной и
непрерывной случайных величин одинаковы. В доказательстве
мы использовали только определение дисперсии и свойства ма-
тематического ожидания, общие для всех типов случайных вели-
чин. Следовательно, теорема о свойствах дисперсии доказа-
на для случайных величин любого типа.
Вспомним кратко эти свойства:
1) Dξ = M ξ 2 − (M ξ)2 ;
2) DC = 0;
3) D(ξ + C) = Dξ;
4) D(aξ) = a2 Dξ;
5) если ξ и η — независимые случайные величины, то
D(ξ + η) = Dξ + Dη.
Так же как для дискретных, для непрерывных случайных ве-
личин дисперсия является характеристикой рассеивания. Чем
больше дисперсия, тем больше «разброс» значений случай-
ной величины относительно ее математического ожидания. На
рис. 29.1 изображены кривые распределения трех случайных ве-
личин ξ1 , ξ2 и ξ3 . Все три случайные величины имеют одинаковые
математические ожидания M , но разные дисперсии:
Dξ1 < Dξ2 < Dξ3 .

Рис. 29.1. Связь дисперсии и формы кривой распределения

Замечание 29.1. Так же как для дискретных, для непрерыв-


ных случайных величин справедливы: утверждения 22.1 и 22.2
о дисперсии суммы и дисперсии вырожденной случайной вели-
чины; определение центрированной случайной величины и нор-
мированного уклонения 23.1; утверждение 23.1; замечания 24.1
и 24.2 о связи моментов.
§ 29. ДИСПЕРСИЯ И ДРУГИЕ МОМЕНТЫ НЕПРЕРЫВНЫХ С.В. 147

Важную роль в теории вероятностей и математической ста-


тистике играют моменты µ3 и µ4 . Число
µ3
Aξ = 3
σ
называется асимметри́ей. Оно показывает степень несиммет-
ричности распределения. У симметричного распределения все
нечетные центральные моменты (если они существуют) равны ну-
лю (покажите это сами). Простейшим из них является µ3 (µ1 = 0
для любого распределения). Однако µ3 имеет размерность куба
случайной величины. Чтобы получить безразмерную характери-
стику, µ3 делят на σ 3 . На рис. 29.2 изображены кривые распре-
деления двух случайных величин ξ1 и ξ2 . Асимметрия Aξ1 слу-
чайной величины ξ1 отрицательна, а асимметрия Aξ2 случайной

Y
y = fx (x) y = fx (x)
1 2

Ax <0 Ax >0
1 2

0 Mx Mx X
1 2

Рис. 29.2. Связь асимметрии и формы кривой распределения

величины ξ2 положительна. У кривой как бы происходит «сдвиг»


в соответствующую сторону.
Еще одна числовая характеристика — эксце́сс — дает пред-
ставление об «островершинности» распределения. Эксцессом
называют число
µ4
Eξ = 4 − 3.
σ
Деление на σ 4 производят по тем же соображениям, что у асим-
метрии. В следующем пункте мы изучим очень важный нормаль-
ный (или гауссовский) закон распределения вероятностей. Так
вот, у нормального закона эксцесс равен нулю. Если эксцесс от-
рицательный, кривая распределения более полога по сравнению
с кривой нормального закона. Если положительный, то кривая
имеет «более острую вершину».
На рис. 29.3 изображены кривые распределения случайных
величин ξ1 , ξ2 и ξ3 , имеющих одинаковые математические ожи-
дания M , но Eξ1 < 0, Eξ2 = 0, Eξ3 > 0.
148 Глава 2. Случайные величины и функции от них

Рис. 29.3. Связь эксцесса и формы кривой распределения

§ 30. ВАЖНЕЙШИЕ ЗАКОНЫ НЕПРЕРЫВНЫХ


РАСПРЕДЕЛЕНИЙ
Так же как и дискретных, существует бесконечно много непре-
рывных распределений. Изучим те из них, которые встречаются
чаще всего и особенно важны для технических исследований.

30.1. РАВНОМЕРНОЕ РАСПРЕДЕЛЕНИЕ

Говорят, что случайная величина ξ имеет равномерное рас-


пределение (равномерно распределена) на промежутке < a, b >,
если она имеет плотность

 1
при x ∈< a, b >,
fξ (x) = b − a (30.1)
0 при x ∈</ a, b > .

Обозначение: ξ ⊂= R < a, b > .


Для определенности возьмем < a, b >= [a, b]. Свойства слу-
чайной величины ξ не зависят от значения ее плотности в конеч-
ном числе точек, ведь вероятность принять конкретное значение
для любой непрерывной случайной величины равна нулю.
Построим график функции y = fξ (x) (рис. 30.1) и убедим-
ся в корректности определения. Действительно, fξ (x) ≥ 0 при
R
+∞ Rb 1
∀x ∈ R и fξ (x)dx = dx = 1. Согласно замечанию 26.1
−∞ a b−a
функция fξ (x) является плотностью распределения.
Обычно равномерное распределение связывают со случай-
ным бросанием точки на отрезок [a, b]. Плотность постоянна при
§ 30. ВАЖНЕЙШИЕ ЗАКОНЫ НЕПРЕРЫВНЫХ РАСПРЕДЕЛЕНИЙ 149

Рис. 30.1. График плотности равномерного распределения

всех x ∈ [a, b], то есть при «бросании случайной точки на [a, b]»
не отдается предпочтения ни одному из значений.
Найдем числовые характеристики и функцию распределения
равномерного закона:
Z
+∞ Zb
1 a+b
Mξ = xfξ (x)dx = x dx = ;
b−a 2
−∞ a
Z
+∞
2 2
Dξ = M ξ − (M ξ) = x2 fξ (x)dx − (M ξ)2 =
−∞
Zb µ ¶2
2 1 a+b (b − a)2
= x dx − = .
b−a 2 12
a

Подробности вычисления простейших интегралов остаются чи-


тателю.
Так как равномерное распределение симметрично относитель-
a+b
но точки , то медиана
2
a+b
µ = Mξ =
2
(мы бы воспользовались этим фактом сразу, если бы интеграл
для M ξ не вычислялся так просто), а вот моды у равномерного
распределения нет. Зато представляет интерес следующая веро-
ятность:

β−α
P {ξ ∈< α, β >⊂< a, b >} = fξ (x)dx = , (30.2)
b−a
α

как геометрическая.
150 Глава 2. Случайные величины и функции от них

Найдем функцию распределения:



0 при x ≤ a,
Fξ (x) = P {ξ < x} = P {ξ ∈ [a, x)} при x ∈ (a, b],

1 при x ≥ b.

Отсюда по (30.2) получим:




0 при x ≤ a,
Fξ (x) = x−a
b−a при 0 < x ≤ b, (30.3)

1 при b < x.

График функции распределения равномерной случайной ве-


личины ξ изображен на рис. 30.2. Можно было искать ее и непо-
средственно по формуле (26.1). Акцентируем еще раз внимание

Рис. 30.2. График функции равномерного распределения

на основных числовых характеристиках, которые следует запом-


нить:
a+b (b − a)2
Mξ = , Dξ = .
2 12

С равномерным законом распределения связана одна важная


теорема, которая используется при моделировании непрерывных
случайных величин.

Теорема 30.1. Какую бы функцию распределения Fξ (x) ни


имела случайная величина ξ, случайная величина η = Fξ (ξ) ⊂
= R[0; 1], то есть η имеет равномерное распределение на про-
межутке [0; 1].
§ 30. ВАЖНЕЙШИЕ ЗАКОНЫ НЕПРЕРЫВНЫХ РАСПРЕДЕЛЕНИЙ 151

Доказательство. По свойствам функции распределения зна-


чения случайной величины η ∈ [0; 1]. Следовательно плотность
fη (y) ≡ 0 при ∀y ∈
/ [0; 1].
Рассмотрим функцию распределения случайной величины η
при y ∈ [0; 1]:
Fη (y) = P {η < y} = P {Fξ (ξ) < y} =
= P {ξ < Fξ−1 (y)} = Fξ (Fξ−1 (y)) = y.
Тогда fη (y) = Fη0 (y) = y 0 ≡ 1 при y ∈ [0; 1].

Отметим, что при переходе к обратной функции Fξ−1 (y) мы


использовали строгую монотонность функции распределения на
носителе распределения.

30.2. ЭКСПОНЕНЦИАЛЬНОЕ (ПОКАЗАТЕЛЬНОЕ)


РАСПРЕДЕЛЕНИЕ
Говорят, что случайная величина ξ распределена по экспо-
ненциальному (показательному) закону с параметром α > 0,
если она имеет плотность
½ −αx
αe при x ≥ 0,
fξ (x) = (30.4)
0 при x < 0.
Обозначение: ξ ⊂ = Э(α). График функции y = fξ (x) изображен
на рис. 30.3, tgϕ = −α2 .

Рис. 30.3. График плотности экспоненциального распределения

Проверьте самостоятельно корректность определения. Экс-


поненциальный закон распределения имеет, к примеру, случай-
ная величина — время безотказной работы технической систе-
мы (аппаратуры). Математическое ожидание в этом случае часто
называют «среднее время отказа».
152 Глава 2. Случайные величины и функции от них

Вычислим математическое ожидание экспоненциальной слу-


чайной величины:
Z
+∞ Z
+∞
1
Mξ = xfξ (x)dx = α xe−αx dx = .
α
−∞ 0

Последний интеграл берется по частям — найдите его. Дважды


по частям придется интегрировать для того, чтобы вычислить дис-
персию:
Z
+∞
2 2
Dξ = M ξ − (M ξ) = x2 fξ (x)dx − (M ξ)2 =
−∞
Z
+∞ µ ¶2
1 1
=α x2 e−αx dx − = 2.
α α
0

1 1
Итак, M ξ = , Dξ − 2 . Найдем функцию распределения экс-
α α
поненциальной случайной величины
Zx ½
0 при x ≤ 0,
Fξ (x) = fξ (t)dt = (30.5)
1 − e−αx при x ≥ 0.
−∞

При x > 0 значения Fξ (x) были вычислены следующим образом:

Z0 Zx
Fξ (x) = fξ (t)dt + fξ (t)dt =
−∞ 0
Zx ¯x
e−αt ¯¯
=0+α e−αt dt = α = 1 − e−αx .
−α ¯0
0

График функции распределения изображен на рис. 30.4. По


графику плотности видно, что мода m = 0. Медиану же следу-
ет найти, используя аналитическое задание функции распреде-
ления (30.5):
1
= Fξ (µ) = 1 − e−αµ .
2
§ 30. ВАЖНЕЙШИЕ ЗАКОНЫ НЕПРЕРЫВНЫХ РАСПРЕДЕЛЕНИЙ 153

Рис. 30.4. График функции распределения и медиана экспоненциального закона

1 1
Отсюда e−αµ = ⇒ µ = ln 2.
2 α

30.3. НОРМАЛЬНОЕ (ГАУССОВСКОЕ) РАСПРЕДЕЛЕНИЕ


Говорят, что случайная величина ξ имеет нормальное распре-
деление (распределение Гаусса)16 с параметрами α и σ > 0, если
ее плотность имеет вид

(x − a)2
1 −
fξ (x) = √ e 2σ 2 , x ∈ R. (30.6)
σ 2π

Обозначение: ξ ⊂
= N (a, σ).
График плотности нормального закона распределения веро-
ятностей изображен на рис. 30.5. Очевидно, кривая симметрична

Y
(x – a)2
1 1 – 2s2
y= e
s ?2p s ?2p
1
s ?2pe

a – 3s a–s a a+s a + 3s X

Рис. 30.5. Кривая гауссовского распределения

относительно x = a. Следовательно, m = µ = a и если суще-


ствует математическое ожидание, то оно тоже равно a.
16 Впервые это распределение получил Муавр в 1733 году как предел бино-

миального распределения. Позднее оно появилось в работах Гаусса в 1809 году


и в работах Лапласа в 1812 году в связи с исследованиями по теории ошибок и
методу наименьших квадратов.
154 Глава 2. Случайные величины и функции от них

В главе 4 мы узнаем, что вероятность «выхода» случайной


величины ξ за пределы промежутка (a − 3σ, a + 3σ) очень ма-
ла. Поэтому нужно стараться рисовать график так, чтобы пло-
щадь под кривой распределения вне указанного промежутка бы-
ла малой.
Мы еще не доказали корректность определения гауссовской
случайной величины.
Докажем ее, используя то, что17
Z
+∞
2 √
e−x dx = π. (30.7)
−∞

Рассмотрим
Z
+∞ Z
+∞
1 (x−a)2
J = xfξ (x)dx = √ e− 2σ2 dx.
σ 2π
−∞ −∞

Сделаем в последнем интеграле замену переменной:


x−a √ √
√ = t ⇒ x = σ 2 t + a ⇒ dx = σ 2dt. (30.8)
σ 2
Пределы интегрирования изменятся следующим образом:
если x = −∞, то t = −∞,
если x = +∞, то t = +∞.
Получим с учетом (30.7):
Z
+∞
√ Z
+∞
1 −t2 1 2 1 √
J = √ e · σ 2dt = √ e−t dt = √ π = 1.
σ 2π π π
−∞ −∞

Поскольку fξ (x) ≥ 0 при ∀x ∈ R, корректность доказана. Зай-


мемся вычислением математического ожидания, то есть инте-
грала
Z
+∞ (x − a)2
1 −
Mξ = x √ e 2σ 2 dx. (30.9)
σ 2π
−∞
17 Обычно интеграл Эйлера–Пуассона вычисляют в курсе математического
анализа. Мы воспользуемся готовым фактом. Леонард Эйлер (Euler Leonhard,
1707–1783) — швейцарский математик, механик и физик, почти всю свою со-
знательную жизнь проживший в Петербурге.
§ 30. ВАЖНЕЙШИЕ ЗАКОНЫ НЕПРЕРЫВНЫХ РАСПРЕДЕЛЕНИЙ 155

Можно было бы воспользоваться утверждением 28.1 о матема-


тическом ожидании симметричной случайной величины, но тогда
пришлось бы сначала доказать, что интеграл (30.9) абсолютно
сходится. Это можно сделать по признаку сравнения, исполь-
2
зуя неравенство e−x ≤ e−|x| для ∀x ∈ R, |x| ≥ 1. Однако в
данном случае проще вычислить интеграл (30.9), произведя за-
мену (30.8) и подведение под знак дифференциала:
Z
+∞
√ √ Z
+∞
1 2 σ2 2
Mξ = √ (σ 2 t + a)e−t · σ 2dt = √ 2te−t dt +
σ 2π σ 2π
−∞ −∞
√ Z +∞ Z
+∞
aσ 2 2 σ 2 a √
+ √ e−t dt = √ e−t d(t2 ) + √ · π =
σ 2π 2π π
−∞ −∞
¯+∞
σ −t2 ¯¯
= − √ e ¯ + a = a.
2π −∞

Здесь мы снова использовали равенство (30.7).


Чтобы найти дисперсию, нам придется вычислить более
сложный интеграл. Интегралы такого типа часто встречаются в
технических исследованиях, и стоит научиться с ними работать.
Для вычисления произведем замену переменной (30.8) и инте-
грирование по частям:
Z
+∞
2
Dξ = M (ξ − a) = (x − a)2 fξ (x)dx =
−∞
Z
+∞ Z
+∞

1 (x−a)2 1 2
= √ (x − a)2 e− 2σ2 dx = √ 2σ 2 t2 e−t · σ 2dt =
σ 2π σ 2π
−∞ −∞
Z
+∞ Z
+∞ ¯+∞
σ2 −t2 σ2 −t2 σ 2 −t2 ¯¯
=√ t · 2te dt = − √ t · de = − √ te ¯ +
π π π −∞
−∞ −∞
Z
+∞
σ2 2
+√ e−t dt = 0 + σ 2 = σ 2 .
π
−∞

В предпоследнем равенстве мы использовали (30.7) и то, что


2 2
функция t мала по сравнению с et при t → ±∞ (t = o(et ) при
156 Глава 2. Случайные величины и функции от них

t 2
t → ±∞), откуда следует, что te−t = → 0 при t → ±∞.
e t2
(Кто забыл этот факт, может вычислить предел по правилу Ло-
питаля18 .)
Итак, мы выяснили числовые характеристики нормального
распределения:

M ξ = µ = m = a, Dξ = σ 2 .
Очевидно, при изменении значения a = M ξ форма кривой
(см. рис. 30.5) не меняется. Кривая как бы передвигается па-
раллельно самой себе вдоль оси OX в другой «центр». В то
же время √ при изменении среднего квадратического отклоне-
ния σ = Dξ меняется форма кривой. Максимальное значе-
1
ние плотности равно √ — обратно пропорционально значе-
σ 2π
нию σ. Следовательно, при увеличении σ максимум уменьшает-
ся, но так как площадь кривой должна остаться равной единице,
кривая как бы «расползается» в стороны.
На рис. 30.6 изображены графики плотностей для двух нор-
мальных законов распределения с одинаковыми a и разными σ.

Y
1
s1?2p s1 < s2
1
s2?2p

0 а X

Рис. 30.6. Гауссовские кривые при разных с.к.о.


При использовании нормального распределения вам могут
пригодиться следующие соотношения19 : если ξ ⊂
= N (a, σ), то
(2n)!
µ2n (ξ) = σ 2n · = σ 2n · (2n − 1)!!,
2n · n! (30.10)
µ2n+1 (ξ) = 0, n ∈ N.
18 Гийом Франсуа Антуан де Лопиталь (Lhopital Guillaume Francois Antoine

de, 1661–1704) — французский математик.


19 Доказательства формул (30.10) можно найти в [3] или [11].
§ 30. ВАЖНЕЙШИЕ ЗАКОНЫ НЕПРЕРЫВНЫХ РАСПРЕДЕЛЕНИЙ 157

Вычислите сами и убедитесь в том, что для нормального рас-


пределения асимметрия и эксцесс равны нулю, что было уже от-
мечено в § 29:
µ3 µ4
Aξ = = 0, Eξ = − 3 = 0.
σ3 σ4
Если трудно или нет времени вычислить интеграл для поиска µ4 ,
то найдите этот момент по формуле (30.10).
Мы подробно изучили числовые характеристики нормально-
го закона распределения вероятностей. Запишем теперь функ-
цию распределения:
Zx
1 (t−a)2
Fξ (x) = √ e− 2σ2 dt. (30.11)
σ 2π
−∞

Интеграл (30.11) неберущийся: не существует элементарной пер-


вообразной для подынтегральной функции. При каждом x такой
интеграл следует вычислять приближенными методами. Вы сами
понимаете, что при большом объеме работы, связанной с рас-
пределением, каждый раз вычислять такой интеграл крайне
затруднительно. Поэтому для функции распределения нормаль-
ного закона составлены таблицы, но затабулировано лишь рас-
пределение N (0, 1), так как для всех значений a и σ составить
таблицы невозможно. Чтобы пользоваться этими таблица-
ми, необходимо установить связь законов N (a, σ) и N (0, 1) для
произвольных a ∈ R и σ > 0.
Рассмотрим случайную величину ξ0 ⊂ = N (0, 1). Ее плотность
обычно обозначают φ(x) (функция Гаусса). Она имеет вид:

1 x2
φ(x) = fξo (x) = √ e− 2 , x ∈ R; (30.12)

график ее изображен на рис. 30.7. Это распределение иногда на-


зывают «стандартно нормальным».
Кривая нормального распределения с a = 0, σ = 1 получа-
ется «плоской» и «широкой». Обычно для удобства работы ее
рисуют с нарушением масштаба, изображая более «красивый» и
«высокий» график, как на рис. 30.5. Очевидно, это распределе-
ние симметрично. Его числовые характеристики:

M ξo = µ = m = 0, Dξo = 1.
158 Глава 2. Случайные величины и функции от них

Y
2
1 –x
1
y= 1 e 2
?2p
?2p

–3 –2 –1 0 1 2 3 X

Рис. 30.7. Кривая стандартно нормального распределения

Запишем функцию распределения случайной величины ξo . Обо-


значим ее за Φ(x):

Zx t2
1 −
Φ(x) = √ e 2 dt . (30.13)

−∞

Чтобы установить связь функций распределения случайных ве-


личин ξ ⊂
= N (a, σ) и ξ0 ⊂
= N (0, 1), сделаем в интеграле (30.11)
t−a
замену переменной = u ⇒ dt = σdu. Пределы интегриро-
σ
вания:
если t = −∞, то u = −∞,
x−a
если t = x, то u = .
σ
Получим

Zx (t − a)2
1 −
Fξ (x) = √ e 2σ 2 dt =
σ 2π
−∞
x−a x−a
Zσ u2 Zσ u2 µ ¶
1 − 1 − x−a
= √ e 2 σdu = √ e 2 du = Φ .
σ 2π 2π σ
−∞ −∞

Итак,
µ ¶
x−a
Fξ (x) = Φ , (30.14)
σ

где Fξ (x) — функция распределения закона N (a, σ 2 ), а Φ(x) —


закона N (0, 1).
§ 30. ВАЖНЕЙШИЕ ЗАКОНЫ НЕПРЕРЫВНЫХ РАСПРЕДЕЛЕНИЙ 159

Функция Φ(x) затабулирована, но иногда таблицы составля-


ют для другой функции (будьте внимательны при использовании
таблиц!) — для функции Лапласа20 :

Zx
1 t2
Φ0 (x) = √ e− 2 dt. (30.15)

0

Выведем формулы, связывающие функции Φ(x) и Φ0 (x). Так


как распределение N (0, 1) симметрично, то медиана µ = 0 и

Z0
1 1 t2
Φ(0) = = √ e− 2 dt.
2 2π
−∞

Следовательно, для ∀x ∈ R

Zx Z0 Zx
1 2
− t2 1 2
− t2 1 t2
Φ(x) = √ e dt = √ e dt + √ e− 2 dt =
2π 2π 2π
−∞ −∞ 0
1
= Φ(0) + Φ0 (x) = + Φ0 (x).
2
Кроме того, как нетрудно доказать, функция Φ0 (x) — нечетная
и Φ0 (−x) = −Φ0 (x). Это дает возможность составлять таблицы
для Φ0 (x) лишь при положительных x.
Итак,

1
Φ(x) = + Φ0 (x); Φ0 (−x) = −Φ0 (x) . (30.16)
2

Эти формулы нужно не столько запоминать, сколько понимать,


как они получаются, и уметь быстро выводить.
Посмотрим теперь, как, используя таблицы для N (0, 1), мож-
но для ξ ⊂
= N (a, σ) найти вероятность:

P {ξ ∈< α, β >} = P {α ≤ ξ < β} = Fξ (β) − Fξ (α).


20 В литературе нет единой терминологии. Иногда функцией Лапласа назы-

вают Φ(x), иногда Φ0 (x), а иногда даже 2Φ0 (x). Все эти функции объединяют
общим названием — «интеграл вероятностей».
160 Глава 2. Случайные величины и функции от них

По формуле (30.14) получим


µ ¶ µ ¶
β−a α−a
P {ξ ∈< α, β >} = Φ −Φ =
σ σ
µ ¶ µ ¶ (30.17)
β−a α−a
= Φ0 − Φ0 .
σ σ
Нормальный закон распределения играет в теории вероят-
ностей особую роль. Во-первых, он очень часто встречает-
ся. Случайные ошибки, например, как правило, распределены
по нормальному закону. Нормальный закон появляется в иссле-
дованиях, связанных с отклонениями координат падения артил-
лерийских снарядов, с электромагнитными полями и т. д.
Во-вторых, он является предельным законом. Многие другие за-
коны при некоторых условиях приближаются к нормальному.
Кроме того, сумма большого числа независимых случайных
величин при некоторых ограничениях также приблизительно
распределена по нормальному закону. Подробнее мы изучим
эти факты, занимаясь предельными теоремами теории вероят-
ностей.

30.4. РАСПРЕДЕЛЕНИЕ КОШИ


Говорят, что случайная величина ξ имеет распределение Ко-
ши21 с параметрами α и σ > 0, если ее плотность имеет вид:
σ
fξ (x) = , x ∈ R. (30.18)
π(σ 2 + (x − α)2 )

Обозначение: ξ ⊂= K(α, σ). Очевидно, график плотности, изоб-


раженный на рис. 30.8, симметричен относительно x = α, поэто-
му µ = m = α.
Это распределение напоминает нормальное — и по наличию
двух параметров, и по форме кривой, и по связи функций распре-
деления для K(α, σ) и K(0, 1). Однако с моментами дело обсто-
ит несколько иначе. Рассмотрим вопрос о математическом ожи-
дании:
Z
+∞ Z
+∞
σ x
Mξ = xfξ (x)dx = dx. (30.19)
π 2
σ + (x − α)2
−∞ −∞
21 Огюстен Луи Коши (Cauchy Augustin Louis, 1789–1857) — французский
математик.
§ 30. ВАЖНЕЙШИЕ ЗАКОНЫ НЕПРЕРЫВНЫХ РАСПРЕДЕЛЕНИЙ 161

Y
1 s
ps y=
p(s2+(x–a)2)
3
4ps

X
0 a– s a a+ s
?3 ?3

Рис. 30.8. Плотность распределения Коши

Подынтегральная функция имеет особенность только на беско-


нечности. Попробуем выяснить факт существования математи-
ческого ожидания с помощью замены на эквивалентные:
x x 1
∼ 2 = при x → ±∞.
σ 2 + (x − α)2 x x
В примерах § 28 мы уже встречались с применением этого мето-
да и делали вывод: интеграл расходится, математического ожи-
дания не существует. Используя замечание 24.1, можно сделать
вывод и относительно других моментов: случайная величина,
распределенная по закону Коши, не имеет не только математи-
ческого ожидания, но и всех моментов более высоких порядков.
В частности, дисперсии.
Найдем функцию распределения закона Коши:
Zx Zx ¯x
σ dt σ1 t − α ¯¯
Fξ (x) = fξ (t)dt = = arctg =
σ 2 + (t − α)2
π πσ σ ¯−∞
−∞ −∞
µ ¶
1 x−α 1 π 1 1 x−α
= arctg − · − = + arctg .
π σ π 2 2 π σ
(30.20)
Вы можете проверить: для этой функции выполняются все свой-
ства непрерывной функции распределения (рис. 30.9).
Запишем плотность и функцию распределения случайной ве-
личины ξ0 ⊂
= K(0, 1) :
1
fξ0 (x) = , x ∈ R;
π(1 + x2 )
1 1
Fξ0 (x) = + arctg x.
2 π
162 Глава 2. Случайные величины и функции от них

Y
y = Fx(x)
1

1
2

X
0 a

Рис. 30.9. Функция распределения Коши

Распределение Коши встречается, к примеру, при исследовании


излучения частиц.

30.5. РАСПРЕДЕЛЕНИЕ РЭЛЕЯ

Говорят, что случайная величина ξ имеет распределение Рэ-


лея22 с параметром σ > 0, если ее плотность
(x x2
e− 2σ2 x ≥ 0,
fξ (x) = σ 2 (30.21)
0 x < 0.

1
График плотности изображен на рис. 30.10; угол ϕ = arctg 2 ,
√ σ
√ 3
точка перегиба ( 3σ; √ ). Убедитесь самостоятельно в кор-
σ e3

Рис. 30.10. Плотность распределения Рэлея

ректности определения.
Вычислим математическое ожидание случайной величины,
имеющей распределение Рэлея, вновь сводя интеграл к интегра-
22 Джон Уильям Рэлей (Rayleigh John William, 1842–1919) – английский фи-

зик, занимавшийся сложением колебаний, имеющих случайные фазы.


§ 30. ВАЖНЕЙШИЕ ЗАКОНЫ НЕПРЕРЫВНЫХ РАСПРЕДЕЛЕНИЙ 163

лу Эйлера–Пуассона (30.7):

Z
+∞ Z
+∞ x2 Z
+∞
x2 − 2 2σ 2 t2 −t2 √
Mξ = xfξ (x)dx = e 2σ dx = e 2σdt =
σ 2 σ2
−∞ 0 0
¯+∞
√ Z 2 −t2 √ Z
+∞ +∞
−t2
√ ¯
−t2 ¯
= 2 2σ t e dt = − 2σ tde = − 2σte ¯ +
0
0 0
√ r
√ Z −t2
+∞
√ π π
+ 2σ e dt = 0 + 2σ · =σ .
2 2
0

Для вычисления дисперсии сначала найдем

Z
+∞ Z+∞ x2 +∞ √
Z
2 2 x3 − 2 2 2σ 3 t3 −t2 √
M ξ = x fξ (x)dx = 2
e 2σ dx = e 2σdt =
σ σ2
−∞ 0 0
Z
+∞ Z
+∞ Z
+∞
2 3 −t2 2 2 −t2 2 2
= 4σ t e dt = 2σ t e dt = 2σ ue−u du =
0 0 0
¯+∞ Z
+∞ ¯+∞
2
¯
−u ¯ 2
¯
2 −u ¯
= −2σ ue ¯ + 2σ e du = 0 − 2σ e ¯ = 2σ 2 .
−u

0 0
0

Следовательно,
π π
Dξ = M ξ 2 − (M ξ)2 = 2σ 2 − σ 2 · = (2 − )σ 2 .
2 2
Итак,
r
π π 2
Mξ = σ , Dξ = (2 − )σ . (30.22)
2 2
Найдем функцию распределения Рэлея при x > 0 (подробное
вычисление интеграла проведите самостоятельно):
Zx Zx
t − t22 x2
Fξ (x) = fξ (t)dt = 2
e 2σ dt = 1 − e− 2σ2 . (30.23)
σ
−∞ 0
164 Глава 2. Случайные величины и функции от них

Рис. 30.11. Функция распределения Рэлея

Очевидно, при x ≤ 0 функция Fξ (x) ≡ 0 (рис. 30.11).


Вы без труда
√ найдете моду и медиану распределения Рэлея:
m = σ, µ = σ 2 ln 2.

30.6. БЕТА-РАСПРЕДЕЛЕНИЕ

B-распределением23 называется распределение вероятно-
стей, задаваемое плотностью
(
1
xp−1 (1 − x)q−1 при 0 < x < 1,
fξ (x) = B(p,q) (30.24)
0 при x ∈
/ (0, 1),
зависящей от двух параметров: p > 0 и q > 0. Знаменатель
нормирующего множителя B(p, q) — это так называемая бета-
функция, определяемая формулой
Z1
def Γ(p)Γ(q)
B(p, q) = xp−1 (1 − x)q−1 dx = . (30.25)
Γ(p + q)
0

Здесь Γ(α) — гамма-функция (α = p; q; p + q):


Z
+∞
def
Γ(α) = xα−1 e−x dx.
0

Последнее равенство в (30.25) мы оставим без доказательства.


Если p, q ∈ N, то по свойствам Γ-функции
(p − 1)!(q − 1)!
B(p, q) = .
(p + q − 1)!
23 Буква «B» здесь означает не латинское «бе», а большую греческую букву

«бета».
§ 30. ВАЖНЕЙШИЕ ЗАКОНЫ НЕПРЕРЫВНЫХ РАСПРЕДЕЛЕНИЙ 165

Вы без труда запишете выражение для функции B-распреде-


ления:
Zx
1
Fξ (x) = tp−1 (1 − t)q−1 dt, 0 < x < 1. (30.26)
B(p, q)
0

Выбор метода вычисления интегралов (30.25) и (30.26)


зависит от параметров p и q. Здесь может оказаться несобствен-
ный интеграл или интеграл, содержащий иррациональность,
поскольку никаких других ограничений на p и q, кроме положи-
тельности, не накладывается. Чтобы интеграл сходился, необхо-
димо, чтобы порядок степенного эквивалента для подынтеграль-
ной функции был больше −1. Рассмотрим эти эквиваленты при
t → 0+ и t → 1−:
tp−1 (1 − t)q−1 ∼ tp−1 при t → 0+;
p − 1 > −1, так как p > 0;
tp−1 (1 − t)q−1 ∼ (1 − t)q−1 при t → 1−;
q − 1 > −1, так как q > 0.
Следовательно, интегралы (30.25) и (30.26) сходятся при
∀p, q > 0, так как других особенностей, кроме как в точках 0 и 1,
эти интегралы не имеют.
Можно показать, что с.в. ξ, подчиняющаяся B-распределе-
нию, имеет следующие моменты [8]:
p pq
Mξ = , Dξ = .
p+q (p + q)2 (p + q + 1)

Пример 30.1. Случайная ошибка измерения дальности им-


пульсным дально́метром имеет нормальное распределение с σ =
= 50 м. Найти вероятность того, что измеренное значение даль-
ности будет отличаться от истинного не более, чем на 30 м, если
систематическая ошибка дальнометра равна 20 м.
Из условия задачи делаем вывод: ошибка измерения дально-
сти есть случайная величина ξ ⊂= N (20, 50). Требование задачи
будет выполнено, если ошибка измерения по модулю будет не
превосходить 30 м. Следовательно, нас интересует вероятность
P {|ξ| ≤ 30} = P {−30 ≤ ξ ≤ 30} = Fξ (30) − Fξ (−30) =
µ ¶ µ ¶
30 − 20 −30 − 20
=Φ −Φ = Φ(0, 2) − Φ(−1) =
50 50
= Φ0 (0, 2) − Φ0 (−1) = Φ0 (0, 2) + Φ0 (1) ≈ 0, 08 + 0, 34 = 0, 42.
166 Глава 2. Случайные величины и функции от них

При решении этой задачи мы воспользовались таблицами для


функции Лапласа (см. Приложение) и формулами (30.17).
Пример 30.2. На электронное реле воздействует шумовое на-
пряжение ξ, плотность распределения которого имеет вид
x2
x −
fξ (x) = e 4 , x ≥ 0.
2
Определить вероятность срабатывания схемы, если электронное
реле включается всякий раз, когда напряжение на его входе пре-
вышает 2 B.
Если сравнить fξ (x) с плотностью (30.21), то мы увидим,
√ что
имеем дело с распределением Рэлея с параметром σ = 2. Ис-
комая вероятность: P {ξ > 2 B}. Ее можно найти двумя спосо-
бами. Через плотность:

Z
+∞ Z
+∞ x2
x −
P {ξ > 2} = fξ (x)dx = e 4 dx;
2
2 2

через функцию распределения:


P {ξ > 2} = 1 − P {ξ ≤ 2} = 1 − P {ξ < 2} = 1 − Fξ (2).
Второй способ, очевидно, проще, если функция распределения
уже найдена. Воспользуемся им, применив формулу (30.23) при
x = 2:
22

P {ξ > 2} = 1 − (1 − e 4 ) = e−1 ≈ 0, 37.

Пример 30.3. Определить интервал на оси OX, в который с ве-


роятностью 1 попадает случайная точка ξ, если известно, что ее
математическое ожидание равно 1,5, а дисперсия равна 1/3.
Мы уже отмечали, что случайное бросание точки связано с
равномерным распределением. Следовательно, ξ ⊂ = R < a, b >.
При этом
a+b (b − a)2 1
Mξ = = 1, 5, a Dξ = = .
2 12 3
Решая систему двух уравнений с двумя неизвестными a и b, полу-
чим (с учетом того, что a < b): a = 0, 5; b = 2, 5. Следовательно,
искомый интервал (0, 5; 2, 5).
ЛИНЕЙНАЯ ФУНКЦИЯ ОТ ГАУССОВСКОЙ С.В. 167

§ 31. ЛИНЕЙНАЯ ФУНКЦИЯ ОТ ГАУССОВСКОЙ


(НОРМАЛЬНОЙ) СЛУЧАЙНОЙ ВЕЛИЧИНЫ
Пусть есть случайная величина ξ ⊂= N (a, σ), а случайная ве-
личина η связана с ξ линейной зависимостью, то есть η = cξ + b.
По свойствам математического ожидания и дисперсии мы мо-
жем сразу отыскать числовые характеристики случайной вели-
чины η: M η = cM ξ + b = ca + b; Dη = c2 Dξ = c2 σ 2 , но чтобы
знать распределение, этого мало — мы должны найти функцию
распределения или плотность.
Найдем плотность случайной величины η, пользуясь теоре-
мой 27.1, так как линейная функция y = g(x) = cx + b строго
монотонна и дифференцируема. Обратная функция
y−b
x = w(y) = .
c
Тогда по формуле (27.5)
½ y−b ¾ ¯ ¯
1 ( − a)2 ¯1¯
fη (y) = fξ (w(y)) · |w0 (y)| = √ exp − c 2 · ¯¯ ¯¯ =
σ 2π 2σ c
½ 2
¾
1 (y − (ca + b))
= √ exp − .
σ|c| 2π 2(σc)2
(31.1)
Сравнивая найденную плотность с плотностью (30.6), делаем вы-
вод: случайная величина η = cξ + b имеет нормальное распреде-
ление с M η = ca + b; Dη = (σc)2 , то есть cξ + b ∈ N (ca + b, σ|c|).
Линейная функция гауссовской случайной величины имеет
также гауссовское распределение вероятностей.

Пример 31.1. На симметричный ограничитель, характеристика
которого представлена на рис. 31.1, воздействует стационарный
гауссовский шум ξ с нулевым средним и дисперсией 4. Найти

Рис. 31.1. К примеру 31.1


168 Глава 2. Случайные величины и функции от них

плотность вероятности для напряжения η на выходе ограничи-


теля в фиксированный момент времени.
Вообще говоря, стационарный гауссовский шум — это слу-
чайный процесс, а изучение случайных процессов выходит за
рамки данной книги. Однако в каждый фиксированный момент
времени случайный процесс представляет собой случайную ве-
личину, и именно в этой задаче мы можем использовать знако-
мый нам аппарат теории вероятностей.
Мы видим, что с.в. η является кусочно-линейной функцией
случайной величины ξ, причем

P {η = − 21 } = P {ξ ∈ (−∞, −1]}; (31.2)


1
P {η = 2} = P {ξ ∈ [1, +∞)}; (31.3)
P {− 12 <η< 1
2} = P {ξ ∈ (−1, 1)}. (31.4)

Так как распределение с.в. ξ известно: ξ ⊂


= N (0, 2), можно найти
каждую из указанных вероятностей.
Используем формулы (30.14) и (30.16) для поиска вероятно-
сти (31.2):
1
P {η = − } = P {ξ ≤ −1} = P {ξ < −1} = Fξ (−1) =
µ 2 ¶ µ ¶ µ ¶
−1 − 0 1 1 1 1
=Φ = + Φ0 − = − Φ0 ≈
2 2 2 2 2
≈ 0, 5 − 0, 19 = 0, 31.

По симметричности случайной величины ξ вероятность (31.3)


1
P {η = } = P {ξ ∈ [1, +∞)} = P {ξ ∈ (−∞, −1]} =
2 µ ¶
1 1
= − Φ0 ≈ 0, 31.
2 2
Найдем по формуле (30.17) вероятность (31.4):
µ ¶
1 1 1−0
P {− < η < } = P {−1 < ξ < 1} = Φ0 −
2 2 2
µ ¶
−1 − 0
−Φ0 = Φ0 (0, 5) − Φ0 (−0, 5) = 2 · Φ0 (0, 5) ≈ 0, 38.
2
Сумма вероятностей (31.2)–(31.4) равна 1.
ЛИНЕЙНАЯ ФУНКЦИЯ ОТ ГАУССОВСКОЙ С.В. 169

Чтобы полностью выяснить распределение случайной вели-


чины η, следует разобраться, какого она типа. Мы видим, что
с.в. η принимает 2 фиксированных значения −1/2 и 1/2 с поло-
жительными вероятностями, а на промежутке (−1/2, 1/2) изме-
ξ
няется как линейная функция случайной величины ξ: η = . По-
2
скольку ξ — непрерывная случайная величина, то, следователь-
но, и η меняется непрерывно. На этом промежутке с.в. η имеет
аналог плотности, то есть такую функцию fη (y), которая связана
с функцией распределения Fη (y) формулами (26.1) и (26.2), но (!)
только при y ∈ (−1/2, 1/2). Поэтому просто «плотностью рас-
пределения» случайной величины η функцию fη (y) назвать нель-
зя. Проверьте: условие нормировки (26.5) не выполняется. Тем
не менее для отыскания функции fη (y) при y ∈ (−1/2, 1/2) мож-
но использовать те же методы, которые были использованы в
§ 31 для нахождения плотности распределения функции случай-
ной величины ξ. Более того, поскольку ξ ⊂= N (0, 2), то η, как ли-
нейная функция гауссовской случайной величины, имеет «плот-
Mξ Dξ
ность нормального вида» N (a, σ), где a = = 0, σ = = 1:
2 4
1 y2 1 1
fη (y) = √ e− 2 при y ∈ (− , ). (31.5)
2π 2 2
1 1
Функцию fη (y) можно в пределах промежутка (− , ) исполь-
2 2
зовать как плотность с.в. η. Например, вычислить через интеграл
от «плотности» вероятность

Z0,2
P {η ∈ (0; 0, 2)} = fη (y)dy = Fη (0, 2) − Fη (0) =
0
µ ¶ µ ¶
0, 2 − 0 0−0
= Φ0 − Φ0 = Φ0 (0, 2) − 0 ≈ 0, 08.
1 1

Таким образом, оказалось, что с.в. η имеет смешанное рас-


пределение вероятностей:
1 1 1 1
P {η = − } = P {η = } ≈ 0, 31; P {η ∈ (− , )} ≈ 0, 38,
2 2 2 2
причем на этом промежутке случайная величина η обладает
170 Глава 2. Случайные величины и функции от них

«плотностью» (31.5). Смешанный тип распределения подтвер-


ждается и графиком функции распределения Fη (y), изображен-
ным на рис. 31.2.

1
» 0,69 x = Fh(y)
0,5
» 0,31

0 1
– 12 2
X

Рис. 31.2. К примеру 31.1

Мы убедились в том, что в зависимости от преобразующей


функции, случайная величина может преобразоваться в случай-
ную величину другого типа.
Глава 3

СЛУЧАЙНЫЕ ВЕКТОРЫ
(СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН)

В технических расчетах и исследованиях часто приходится


рассматривать одновременно несколько случайных величин. На-
пример, положение центра масс летательного аппарата во вре-
мя движения в каждый момент времени характеризуется тремя
координатами, которые можно рассматривать как систему трех
случайных величин (трехмерный случайный вектор). Случайная
амплитуда и случайная фаза, характеризующие в данный момент
времени случайную помеху на входе системы автоматического
регулирования, образуют систему двух случайных величин (дву-
мерный случайный вектор).
Случайные величины, входящие в систему (компоненты слу-
чайного вектора), могут быть дискретными и непрерывными, за-
висимыми или независимыми между собой, имеющими одинако-
вые или различные распределения и т. п. Изучением совместно-
го «поведения» нескольких случайных величин мы и займемся в
этой главе.
Случайный вектор (система случайных величин) — это мно-
гомерное обобщение одной случайной величины. Характеристи-
ки случайного вектора (функция и плотность распределения, мо-
менты и т. д.) являются многомерными обобщениями аналогич-
ных одномерных характеристик.

§ 32. ПОНЯТИЕ СЛУЧАЙНОГО ВЕКТОРА


И ЕГО ФУНКЦИИ РАСПРЕДЕЛЕНИЯ
Пусть на вероятностном пространстве {Ω, F, P } определены
n случайных величин: ξ1 (ω), ξ2 (ω), . . . , ξn (ω).
При каждом ω ∈ Ω каждая случайная величина принимает
числовое значение. Будучи рассмотренными в совокупности, эти
172 Глава 3. Случайные векторы

значения образуют n-мерный числовой вектор:


~
ξ(ω) = (ξ1 (ω), ξ2 (ω), ..., ξn (ω)).
Таким образом, на множестве Ω оказывается определенной век-
торная функция элементарных исходов ω. Так же, как мы не пи-
сали аргумент ω, рассматривая случайные величины, мы не бу-
дем его писать и рассматривая случайные векторы1 .
Определение 32.1. Вектор ξ~ = (ξ1 , ξ2 , . . . , ξn ), где
ξ1 , ξ2 , . . . , ξn — случайные величины, определенные на
одном вероятностном пространстве {Ω, F, P }, называется
n-мерным случайным вектором (или системой n случай-
ных величин, или n-мерной случайной величиной).

Пример 32.1. Бросим сразу два игральных кубика и рассмот-


рим две случайные величины: ξ1 — число выпавших очков на
первом кубике, ξ2 — на втором. Эти случайные величины об-
разуют случайный вектор (ξ1 , ξ2 ), принимающий значения (1,1),
(1,2), . . . , (1,6), (2,1), (2,2), . . . , (2,6), . . . , (6,6) — то есть значения
(i, j), i = 1, 6, j = 1, 6 — всего 36 значений.
Если размерность вектора невелика, то мы будем писать вме-
сто (ξ1 , ξ2 ) просто (ξ, η), чтобы не загромождать запись индекса-
ми, или (ξ, η, ζ) в трехмерном случае.

Определение 32.2. Пусть ξ~ = (ξ1 , ξ2 , . . . , ξn ) — случай-


ный вектор. Функцией распределения случайного вектора
ξ~ (или совместной функцией распределения случайных ве-
личин ξ1 , ξ2 , . . . , ξn ) называется числовая функция n перемен-
ных xk ∈ R, k = 1, n, определяемая соотношением:

def
Fξ (x1 , ..., xn ) = P {ξ1 < x1 , ξ2 < x2 , . . . , ξn < xn } . (32.1)

Справа в формуле (32.1) стоит вероятность одновременного


осуществления, то есть пересечения n событий:
n
¡\ ¢
P {ξ1 < x1 , . . . , ξn < xn } = P {ξk < xk } .
k=1
1 Обычно под «вектором» понимается матрица-столбец, то есть ξ ~ =
= (ξ1 , . . . , ξn )T . Как правило, мы не будем писать знак транспонирования, если
это не является существенным для изучения свойств случайных векторов.
§ 32. ПОНЯТИЕ СЛУЧАЙНОГО ВЕКТОРА 173

Точнее, это
P {ω ∈ Ω : ξ1 (ω) < x1 , . . . , ξn (ω) < xn } =
n
¡\ ¢
=P {ω ∈ Ω : ξk (ω) < xk } = P (A).
k=1

Множество A ∈ F как пересечение n событий из F. Следова-


тельно, мы можем вычислять P (A), то есть значение функции
распределения.
Для простоты рассуждений и выкладок в дальнейшем мы бу-
дем рассматривать двумерные случайные векторы и только ино-
гда переходить к n-мерному случаю. При этом для n = 2 или
n = 3 будем обозначать совместную функцию распределения
Fξη (x, y) или Fξηζ (x, y, z).
Из определения 32.2 вытекает следующее определение.

Определение 32.3. Функцией распределения двумерного


случайного вектора (ξ, η) (или совместной функцией рас-
пределения случайных величин ξ и η) называется числовая
функция двух числовых переменных

def
Fξη (x, y) = P {ξ < x, η < y} . (32.2)

Из этого определения следует, что

0 ≤ Fξη (x, y) ≤ 1 (32.3)

при ∀(x, y) ∈ R2 .
Посмотрим на совместную функцию распределения с гео-
метрической точки зрения (см. рис. 32.1). Одновременное осу-
ществление событий {ξ < x} и {η < y} означает, что «случайная
точка» (ξ, η) попадает в область2 (Dxy ) = (−∞, x) × (−∞, y).
Мы же вычисляем вероятность этого события:

Fξη (x, y) = P {(ξ, η) ∈ (Dxy )} . (32.4)


2 Символ < a, b > × < c, d > означает прямое произведение промежут-

ков, то есть «двумерный интервал» или прямоугольник, если эти промежутки ко-
нечны.
174 Глава 3. Случайные векторы

Y
y

h (Dxy)

x
0 X
x

Рис. 32.1. Двумерный интервал для случайной точки (ξ, η)

Займемся свойствами двумерной функции распределения, ко-


торые аналогичны свойствам одномерной функции распределе-
ния.

Теорема 32.1. Свойства совместной функции распределе-


ния двух случайных величин.
1. Fξη (x, y) не убывает по каждой из переменных.
2. Fξη (x, y) непрерывна слева по каждой из переменных.
3. lim Fξη (x, y) = lim Fξη (x, y) = x→−∞ lim Fξη (x, y) = 0.
x→−∞ y→−∞
y→−∞

(32.5)
4. x→+∞
lim Fξη (x, y) = 1.
y→+∞

(32.6)
5. lim Fξη (x, y) = Fη (y).
x→+∞
(32.7)
6. lim Fξη (x, y) = Fξ (x).
y→+∞
(32.8)

Замечание 32.1. Любая функция, удовлетворяющая свойствам


1–4 этой теоремы, является функцией распределения некоторо-
го случайного вектора.
Доказательство теоремы 32.1 проводится аналогично одно-
мерному случаю, и мы не будем его приводить. Лучше разберем-
ся подробнее, что именно означает каждое свойство.
1. Неубывание по каждой из переменных означает, что если
x1 < x2 и y1 < y2 , то
Fξη (x1 , y) ≤ Fξη (x2 , y) для ∀y ∈ R;
Fξη (x, y1 ) ≤ Fξη (x, y2 ) для ∀x ∈ R.
§ 32. ПОНЯТИЕ СЛУЧАЙНОГО ВЕКТОРА 175

2. Непрерывность слева по каждой из переменных означает,


что
lim Fξη (x, y) = Fξη (x0 , y) для ∀y ∈ R;
x→x0 −

lim Fξη (x, y) = Fξη (x, y0 ) для ∀x ∈ R.


y→y0 −

3. Совместная функция распределения стремится к нулю, ес-


ли хотя бы одна из переменных x или y стремится к −∞,
поскольку ни одна из случайных величин не может прини-
мать значения, меньшие −∞.
4. Если обе переменные x и y стремятся к +∞, то значе-
ние совместной функции распределения стремится к еди-
нице — вероятности достоверного события:
{−∞ < ξ < +∞, −∞ < η < +∞}.

5. Если устремить x → +∞, то в пределе случайная величина


ξ может принимать любые значения и, следовательно,
Fξη (x, y) = P {ξ < x, η < y} −−−−−→ P {ξ ∈ R, η < y} =
x→+∞
¡ ¢
= P Ω ∩ {η < y} = P {η < y} = Fη (y).
Аналогично при y → +∞.
Предельные свойства двумерной функции распределения можно
изобразить схематически так, как показано на рис. 32.2.
Fx(x)

Y
0 "x 1

"y Fh(y)
0
0 X

0 0
0

Рис. 32.2. Предельные значения двумерной функции распределения

Функцию распределения одной случайной величины ξ мы ис-


пользовали для вычисления вероятности попадания «одномер-
ной случайной точки» ξ в полуинтервал [a, b) (теорема 15.2). Рас-
смотрим аналогичную теорему для двумерного полуинтервала.
176 Глава 3. Случайные векторы

Теорема 32.2. О вероятности попадания случайной точки


(ξ, η) в прямоугольник.
Пусть Fξη (x, y) — функция распределения случайного вектора
(ξ, η). Тогда

P {a ≤ ξ < b, c ≤ η < d} =
(32.9)
= Fξη (b, d) − Fξη (b, c) + Fξη (a, c) − Fξη (a, d).

Доказательство. Если вы посмотрите на рис. 32.3, то увидите,


что расставив «+» и «–» по углам прямоугольника (двумерно-
го полуинтервала [a, b) × [c, d)), легче запомнить формулу (32.9).
Правая часть этой формулы представляет собой алгебраическую
сумму значений совместной функции распределения в углах пря-
моугольника. С какими знаками брать эти значения, указывает
рис. 32.3.
Y

d – +

c –
+

0 a b X

Рис. 32.3. К теореме 32.2

Чтобы доказать формулу (32.9), введем следующие события:


E = {a ≤ ξ < b, c ≤ η < d}, A = {ξ < b, η < d},
B = {ξ < b, η < c}, C = {ξ < a, η < c},
D = {ξ < a, η < d}.
Тогда (с учетом (32.2)) формула (32.9) перепишется в виде:

P (E) = P (A) − P (B) + P (C) − P (D). (32.10)

Докажем (32.10), используя старый прием: представим са-


мое «большое» событие из A, B, C, D и E в виде суммы несов-
местных «маленьких» и используем свойства вероятности. На
рис. 32.4 изображена геометрическая интерпретация рассмат-
риваемых событий: E — событие заключающееся в попадании
§ 32. ПОНЯТИЕ СЛУЧАЙНОГО ВЕКТОРА 177

случайной точки (ξ, η) в прямоугольник (E), A — в квадрант (A)


и т. д. Очевидно, самое «большое» событие — это A. Запишем
его в следующем виде: A = E + B + (D r C). События E, B и
(D rC) несовместны (рис. 32.4), причем C ⊂ D. Следовательно,

(D) (E)
(A)

(B)
(C)

Рис. 32.4. К доказательству теоремы 32.2

по аддитивности вероятности и формуле (6.1) для вероятности


разности событий можно записать:

P (A) = P (E)+P (B)+P (DrC) = P (E)+P (B)+P (D)−P (C).

Выражая отсюда P (E), получим (32.10).

Отметим, что свойства функции распределения и теорема 32.2


справедливы для случайных величин любого типа.
Пример 32.2. Пусть совместная функция распределения слу-
чайных величин ξ и η имеет вид:


 0 при x ≤ 0 или y ≤ 0;

 xy

 6 при x ∈ (0, 3], y ∈ (0, 2];
x
Fξη (x, y) = 3 при x ∈ (0, 3], y > 2; (32.11)


 y2
 при x > 3, y ∈ (0, 2];


1 при x > 3 и y > 2.

Требуется найти P {(ξ, η) ∈ [1, 4) × [1, 3)}.


Отметим сразу же, что для задания функции распределения
Fξη (x, y) достаточно было указать ее значение только лишь при
x ∈ (0, 3], y ∈ (0, 2]. Все остальные значения получаются авто-
матически по теореме 32.1. Проверьте это.
178 Глава 3. Случайные векторы

Для решения задачи изобразим на рис. 32.5 прямоугольники


[0, 3] × [0, 2] и [1, 4) × [1, 3) и отметим в кружках значения функ-
ции распределения на соответствующих множествах по форму-
лам (32.11). Вычислим искомую вероятность по формуле (32.9):

Y
x

3 – 3 +
1

2
0
1 – y
+ xy 2
6
X
0 1 2 3 4
0 0

Рис. 32.5. К примеру 32.2

P {(ξ, η) ∈ [1, 4) × [1, 3)} = P {1 ≤ ξ < 4, 1 ≤ η < 3} =


= Fξη (4, 3) − Fξη (4, 1) + Fξη (1, 1) − Fξη (1, 3) =
1 1 1 1
=1− + − = .
2 6 3 3
Не забудем, что любая функция распределения непрерывна
слева. Впрочем, рассматриваемая функция распределения про-
сто непрерывна при ∀(x, y) ∈ R2 . Если вы найдете по той же
1
формуле P {(ξ, η) ∈ [1, 3) × [1, 2)}, то получите тот же ответ: .
3
Это происходит оттого, что случайная точка (ξ, η) с вероятно-
стью 1 попадает в основной прямоугольник (0, 3] × (0, 2] (про-
верьте!), и какое бы множество на плоскости вы ни взяли, веро-
ятность попасть во все его «части», не лежащие внутри основно-
го прямоугольника, равна нулю.
1
Заметим, что вероятность можно было получить, рассмот-
3
рев отношение площадей прямоугольников. Это напоминает гео-
метрическую вероятность — и не случайно. Потом мы узнаем,
что рассматриваемое распределение называется равномерным и
связывается со случайным бросанием точки в некоторую об-
ласть.
§ 33. ДИСКРЕТНЫЕ СЛУЧАЙНЫЕ ВЕКТОРЫ 179

§ 33. ДИСКРЕТНЫЕ СЛУЧАЙНЫЕ ВЕКТОРЫ


В этом разделе мы будем рассматривать двумерный случай-
ный вектор (ξ, η), где ξ и η — дискретные случайные величины,
определенные на одном и том же вероятностном пространстве
{Ω, F, P }, то есть наблюдаемые в рамках одного и того же слу-
чайного эксперимента, проводимого при осуществлении одного
и того же комплекса условий.
Пусть ξ принимает значения {xi }ni=1 с вероятностями соот-
ветственно {pi }ni=1 , а η — значения {yj }m
j=1 с вероятностями
m
{qj }j=1 .
В этой ситуации случайный вектор называют дискретным или
говорят, что рассматривается система двух дискретных случай-
ных величин.

33.1. МАТРИЦА РАСПРЕДЕЛЕНИЯ ДИСКРЕТНОГО


СЛУЧАЙНОГО ВЕКТОРА
Очевидно, дискретный случайный вектор принимает mn зна-
чений (xi , yj ) при i = 1, n; j = 1, m. Вероятность каждого тако-
го значения зависит от распределений случайных величин ξ и η и
от наличия зависимости между ними:

pij = P {(ξ, η) = (xi , yj )} = P {ξ = xi , η = yj }. (33.1)

Если ξ и η независимые случайные величины, то

pij = P {ξ = xi } · P {η = yj } = pi qj (33.2)

при всех i = 1, n; j = 1, m.
Распределение дискретного случайного вектора удобно зада-
вать в виде таблицы 33.1, которую называют таблицей или мат-
рицей распределения случайного вектора (ξ, η) (или матри-
цей совместного распределения случайных величин ξ и η).

Элементами матрицы распределения являются вероятности


pij . Поэтому матрицу распределения в общем виде иногда запи-
сывают кратко: [pij ]n×m . Очевидно, должно выполняться равен-
ство:
Xn Xm
pij = 1. (33.3)
i=1 j=1
180 Глава 3. Случайные векторы

Таблица 33.1. Матрица совместного распределения


HH η
HH y1 y2 ... yj ... ym
ξ H
x1 p11 p12 ... p1j ... p1m
x2 p21 p22 ... p2j ... p2m
... ... ... ... ... ... ...
xi pi1 pi2 ... pij ... pim
... ... ... ... ... ... ...
xn pn1 pn2 ... pnj ... pnm

Можно найти значения функции распределения дискретного слу-


чайного вектора, если дана его матрица распределения:
X X
Fξη (x, y) = P {ξ < x, η < y} = pij . (33.4)
i:xi <x j:yj <y

Пример 33.1. Производится два независимых измерения неко-


торой случайной величины, многоугольник распределения кото-
рой указан на рис. 33.1. Какова вероятность того, что наимень-
шее из измеренных значений окажется ≤ 2?

Рис. 33.1. К примеру 33.1

Проводя дважды независимые измерения, мы как бы на-


блюдаем значения двух одинаково распределенных случайных
величин.
Обозначим за ξ случайную величину, наблюдаемую первый
раз, а за η — случайную величину, наблюдаемую второй раз. Так
как наблюдения являются реализациями одной и той же слу-
чайной величины, ξ и η имеют один и тот же ряд распределе-
ния, который можно восстановить по многоугольнику на рис. 33.1
(табл. 33.2):
§ 33. ДИСКРЕТНЫЕ СЛУЧАЙНЫЕ ВЕКТОРЫ 181

Таблица 33.2. Ряд распределений с.в. ξ и η

ξ, η 1 2 3 4
pi , qj 0, 1 0, 25 0, 4 0, 25

По независимости наблюдений можно заключить, что


pij = pi · qj , i = 1, 4; j = 1, 4,
и составить матрицу размером 4 × 4 распределения случайного
вектора (ξ, η) (табл. 33.3).

Таблица 33.3. Матрица распределения

HH η
HH 1 2 3 4
ξ H
1 0, 01 0, 025 0, 04 0, 025
2 0, 025 0, 0625 0, 1 0, 0625
3 0, 04 0, 1 0, 16 0, 1
4 0, 025 0, 0625 0, 1 0, 0625

Для контроля счета проверим выполнение условия (33.3):


P
4
pij = 1. Наименьшее из измеренных значений будет ≤ 2 то-
i,j=1
гда и только тогда, когда хотя бы одна из случайных величин ξ и
η примет значение 1 или 2. Следовательно, для того чтобы отве-
тить на вопрос задачи, нужно просуммировать все вероятности
pij , стоящие в первых двух столбцах и первых двух строках мат-
рицы, то есть всего 12 чисел.
Можно пойти более простым путем: перейти к противопо-
ложному событию и вычесть из 1 сумму оставшихся четырех
вероятностей, стоящих на пересечении последних двух строк и
столбцов:
P {min(ξ, η) ≤ 2} = P {хотя бы одна из ξ и η ≤ 2} =
= 1 − P {обе случайные величины > 2} =
= 1 − P {ξ > 2 и η > 2} = 1 − (0, 16 + 0, 1 + 0, 1 + 0, 0625) =
= 0, 5775 ≈ 0, 58.
182 Глава 3. Случайные векторы

Это решение задачи простое. Его можно было бы даже на-


звать «примитивным». Оно показывает, как можно использо-
вать матрицу распределения. Однако если мы рассмотрим не 2, а
3 наблюдения, то подобное решение (с «кубом распределения»!)
будет крайне сложным. Кроме того, это решение существенно
использует независимость отдельных наблюдений.
Поэтому мы решим данную задачу еще одним способом —
с привлечением формулы полной вероятности. Такое решение
при необходимости можно обобщить на случай бо́льшего коли-
чества измерений, не обязательно независимых друг от друга.
Кроме того, решение по формуле полной вероятности интереснее
с идейной точки зрения. Значит, оно «красивее».
Введем гипотезы:
H1 = {ξ приняла значение ≤ 2};
H2 = {ξ приняла значение > 2}.
По ряду распределения ξ очевидно, что
P (H1 ) = 0, 35, P (H2 ) = 0, 65, P (H1 ) + P (H2 ) = 1.
Рассмотрим интересующее нас событие A = {min(ξ, η) ≤ 2}.
Вычислим его вероятность по формуле полной вероятности, для
чего найдем условные вероятности:
P (A/H1 ) = P {η принимает любое значение } = 1;
P (A/H2 ) = P {значение η ≤ 2} = P {η = 1 или η = 2} =
= 0, 1 + 0, 25 = 0, 35.
Тогда
P (A) = P (H1 )P (A/H1 ) + P (H2 )P (A/H2 ) =
= 0, 35 · 1 + 0, 65 · 0, 35 = 0, 5775,
что совпадает с результатом решения первым методом.
Подумайте и придумайте сами третий — самый простой спо-
соб решения задачи, использующий как переход к противопо-
ложному событию, так и независимость случайных величин.

33.2. МАРГИНАЛЬНЫЕ — ЧАСТНЫЕ, ОДНОМЕРНЫЕ


(БЕЗУСЛОВНЫЕ) РАСПРЕДЕЛЕНИЯ ДИСКРЕТНЫХ
СЛУЧАЙНЫХ ВЕЛИЧИН, ВХОДЯЩИХ В СИСТЕМУ
Пусть дана матрица распределения дискретного случайного
вектора (ξ, η) : [pij ]n×m . Попробуем отыскать по этой матри-
§ 33. ДИСКРЕТНЫЕ СЛУЧАЙНЫЕ ВЕКТОРЫ 183

це одномерные или, как их называют, частные распределения, то


есть распределения каждой из случайных величин ξ и η (распре-
деления компонент случайного вектора).
Найдем pi = P {ξ = xi }. Мы знаем, что события {η = yj } при
j = 1, m образуют полную группу, то есть они несовместны и в
S
m
сумме составляют все множество Ω (см. § 16): {η = yi } = Ω.
j=1
Тогда
pi = P {ξ = xi } = P ({ξ = xi } ∩ Ω) =
m
[ m
¡[ ¢
= P ({ξ = xi } ∩ {η = yj }) = P {ξ = xi } ∩ {η = yj } =
j=1 j=1
m
X m
X
= P {ξ = xi , η = yj } = pij .
j=1 j=1
(33.5)

При выводе формулы (33.5) мы воспользовались несовмест-


ностью событий {ξ = xi , η = yj } при j = 1, m, которая сле-
дует из несовместности событий {η = yj }, j = 1, m (рис. 33.2).

W
{h = y1} {h = y2}

aaaaaaa
aaaaaaa
aaaaaaa
aaaaaaa
{x = xi}
{h = y3}

aaaaaaa
aaaaaaa
aaaaaaa
aaaaaaa
aaaaaaa
{h = y } m

Рис. 33.2. К выводу формулы 33.5

Аналогично (33.5) получим формулу для вычисления вероятно-


стей qj = P {η = yj }. Если для получения pi следует просум-
мировать вероятности матрицы распределения по соответствую-
щей строке, то для получения qj — по столбцу. Итак,

m
X n
X
pi = pij ; qj = pij . (33.6)
j=1 i=1
184 Глава 3. Случайные векторы

По найденным pi и qj можно составить ряды распределения для


случайных величин ξ и η. Значения их возьмем из матрицы рас-
пределения.
P
n P
m
Докажите сами, что pi = 1 и qj = 1, где pi и qj вычис-
i=1 j=1
ляются по формуле (33.6).

33.3. УСЛОВНЫЕ РАСПРЕДЕЛЕНИЯ ДИСКРЕТНЫХ


СЛУЧАЙНЫХ ВЕЛИЧИН, ВХОДЯЩИХ В СИСТЕМУ
Пусть для дискретного случайного вектора (ξ, η), определен-
ного на вероятностном пространстве {Ω, F, P }, задана матрица
распределения [pij ]n×m . Предположим, что случайная величина
η приняла одно из своих возможных значений yj . По определе-
нию условной вероятности (10.1) можно найти
def P {ξ = xi , η = yj } pij
pi/j = P {ξ = xi /η = yj } = = , (33.7)
P {η = yj } qj
где qj ищутся по формуле (33.6).
Используя найденные условные вероятности, можно соста-
вить условный ряд распределения случайной величины ξ при
условии, что η приняла значение yj (табл. 33.4):

Таблица 33.4. Условный ряд распределения для ξ

ξ x1 x2 ... xn
p1j p2j pnj
pi/j ...
qj qj qj

Используя (33.6), проверим, получили ли мы действительно


ряд распределения:
Xn Xn n
pij 1 X 1
pi/j = = pij = · qj = 1. (33.8)
i=1
q
i=1 j
qj i=1 qj

Аналогично можно составить условный ряд распределения для


случайной величины η при условии, что ξ приняла значение xi .
Так как def pij
qj/i = P {η = yj /ξ = xi } = , (33.9)
pi
получим ряд (табл. 33.5), где pi ищется по формуле (33.6).
§ 33. ДИСКРЕТНЫЕ СЛУЧАЙНЫЕ ВЕКТОРЫ 185

Таблица 33.5. Условный ряд распределения для η

η y1 y2 ... ym
pi1 pi2 pim
qj/i ...
pi pi pi

Обычно для исследования условных распределений дискрет-


ных случайных величин бывает достаточно условных рядов, но
можно определить и условные функции распределения.

Условной функцией распределения случайной величи-
ны ξ при условии, что дискретная случайная величина η приняла
значение yj , называется функция

def P {ξ < x, η = yj }
Fξ (x/η = yj ) = P {ξ < x/η = yj } =
P {η = yj }

по определению условной вероятности (10.1). Аналогично,

def P {η < y, ξ = xi }
Fη (y/ξ = xi ) = P {η < y/ξ = xi } = .
P {ξ = xi }

Если ξ и η — независимые случайные величины, то, как нам


уже известно, независимыми являются все связанные с ними со-
бытия. Поэтому

pi/j = P {ξ = xi /η = yj } = P {ξ = xi } = pi , i = 1, n (33.10)

и, аналогично, qj/i = qj при j = 1, m. Следовательно, для неза-


висимых случайных величин условные ряды и условные
функции распределения совпадают с безусловными.
Чтобы проверить, являются ли дискретные случайные вели-
чины ξ и η независимыми, нужно проверить выполнение всех
равенств (33.2) или совпадение всех условных рядов распреде-
ления с безусловными.
186 Глава 3. Случайные векторы

33.4. УСЛОВНЫЕ МАТЕМАТИЧЕСКИЕ ОЖИДАНИЯ


ДИСКРЕТНЫХ СЛУЧАЙНЫХ ВЕЛИЧИН
Определение 33.1. Значением условного математического
ожидания случайной величины ξ при условии, что случайная
величина η приняла значение yj , называется число

n
X
def
mξ (yj ) = M (ξ/η = yj ) = xi pi/j , (33.11)
i=1

где условные вероятности pi/j вычисляются по формуле (33.7).

Аналогично можно определить значения условной дисперсии


и других условных моментов случайной величины ξ.
Используя формулы (33.11) и (33.8), можно записать:

P
n
xi pi/j
M (ξ/η = yj ) = i=1
Pn .
pi/j
i=1

Последнее отношение позволяет интерпретировать значение


M (ξ/η = yj ) как центр масс pi/j , расположенных на горизонта-
ли y = yj в точках с абсциссами xi , i = 1, n.
При изменении yj меняется и M (ξ/η = yj ). Следовательно,
условное математическое ожидание можно рассматривать как
функцию
mξ (y) = M (ξ/η = y),

где аргумент y принимает дискретные значения yj , j = 1, m. По-


скольку значения условного математического ожидания зави-
сят от того, какое значение приняла случайная величина η, есте-
ственно определить случайную величину M (ξ/η) = mξ (η) —
условное математическое ожидание случайной величины ξ
при условии η, являющуюся функцией случайной величины η.
Если η приняла значение yj , то случайная величина M (ξ/η)
принимает значение mξ (yj ), вычисляемое по формуле (33.11),
с вероятностью:

P {M (ξ/η) = mξ (yj )} = P {η = yj } = qj , j = 1, m. (33.12)


§ 33. ДИСКРЕТНЫЕ СЛУЧАЙНЫЕ ВЕКТОРЫ 187

Фактически, условное математическое ожидание является слож-


ной функцией, определенной на множестве Ω:
η M (ξ/η)
Ω −−−−→ {yj }m −−−−→ {mξ (yj )}m
j=1 − j=1 .

Здесь M (ξ/η(ω)) = mξ (η(ω)), но аргумент ω мы, как и раньше,


писать не будем.
Таким образом, случайная величина M (ξ/η) принимает m
значений mξ (yj ) с вероятностями qj , то есть распределение непо-
средственно вероятностей у M (ξ/η) и η одинаковы. Различают-
ся только значения этих случайных величин на соответствующих
подмножествах множества Ω.
Обратите внимание на то, что само условное математическое
ожидание является случайной величиной, а в определении 33.1
мы определили именно значение этой случайной величины при
условии, что η приняла значение yj .
Аналогично можно определить случайную величину M (η/ξ),
принимающую n значений
m
X
mη (xi ) = M (η/ξ = xi ) = yj qj/i , i = 1, n, (33.13)
j=1

где условные вероятности qj/i вычисляются по формуле (33.9).


Вероятность каждого значения mη (xi ) можно найти аналогич-
но (33.12):
P {M (η/ξ) = mη (xi )} = P {ξ = xi } = pi , i = 1, n. (33.14)

Попробуем установить связь между условным и безуслов-
ным математическими ожиданиями случайной величины ξ. По
формулам (33.5) и (33.7)
n
X n
X m
X n X
X m
pij
Mξ = xi pi = xi pij = xi · qj =
i=1 i=1 j=1 i=1 j=1
qj
Xm n
X m
X
= qj xi · pi/j = qj · M (ξ/η = yj ).
j=1 i=1 j=1

Мы получили для математического ожидания случайной величи-


ны ξ аналог формулы полной вероятности:
m
X
Mξ = P {η = yj } · M (ξ/η = yj ) , (33.15)
j=1
188 Глава 3. Случайные векторы

ведь события {η = yj }, j = 1, m, образуют полную группу


(см. § 16). Запишите аналогичную формулу для M η.
Свойства условного математического ожидания частично по-
хожи на свойства безусловного. Однако все действия понимают-
ся уже не как действия с числами, а как действия со случайными
величинами, являющимися функциями случайной величины η.

Теорема 33.1. Свойства условного математического ожи-


дания.
1. M (C/η) = C с вероятностью 1.
2. M (C1 ξ1 +C2 ξ2 /η) = C1 M (ξ1 /η)+C2 M (ξ2 /η) — линей-
ность условного математического ожидания.
3. M (ξ1 · ξ2 /η) = M (ξ1 /η) · M (ξ2 /η), если случайные вели-
чины ξ1 и ξ2 условно независимы при условии η 3 .
4. M [M (ξ/η)] = M ξ.
5. M [g(ξ) · h(η)/η] = h(η)M [g(ξ)/η], где g(ξ) и h(η) — слу-
чайные величины, являющиеся функциями ξ и η.
6. M (ξ/η) = M ξ с вероятностью 1, если ξ и η — независи-
мые случайные величины.

Доказательство. Доказательства некоторых свойств мож-


но найти в [2]. Мы докажем свойства 4 и 6.

Для доказательства свойства 4 воспользуемся определени-
ем математического ожидания дискретной случайной величины и
запишем его для случайной величины M (ξ/η):
Xm
M [M (ξ/η)] = mξ (yj ) · P {M (ξ/η) = mξ (yj )} =
j=1
m
X
= M (ξ/η = yj ) · P {η = yj } = M ξ
j=1

по формулам (33.11)–(33.12) и (33.15).


3 Условно независимыми при условии η называются случайные величины ξ
1
и ξ2 , для которых при ∀x1 , x2 ∈ R выполняется равенство:
P {ξ1 < x1 , ξ2 < x2 /η = yj } = P {ξ1 < x/η = yj } · P {ξ2 < x/η = yj },
где yj — любое возможное значение η.
§ 33. ДИСКРЕТНЫЕ СЛУЧАЙНЫЕ ВЕКТОРЫ 189

Свойство 6 сразу следует из соотношения (33.10):


n
X n
X
M (ξ/η = yj ) = xi pi/j = xi pi = M ξ.
i=1 i=1

Таким образом, какое бы значение yj ни приняла случайная ве-


личина η, значения условного математического ожидания M (ξ/η)
будут одни и те же — равные M ξ.

При изучении непрерывных случайных векторов мы снова


встретимся с условными математическими ожиданиями.

33.5. ФУНКЦИИ ДВУХ ДИСКРЕТНЫХ СЛУЧАЙНЫХ


ВЕЛИЧИН
Пусть для дискретных случайных величин ξ и η известна мат-
рица совместного распределения [pij ]n×m . Рассмотрим число-
вую функцию g(x, y) числовых переменных. Тогда ζ = g(ξ, η) бу-
дет случайной величиной, принимающей mn значений g(xi , yj ) с
вероятностями соответственно pij :

P {ζ = g(xi , yj )} = P {ξ = xi , η = yj } = pij ,

i = 1, n; j = 1, m.
Поскольку нам известны все значения случайной величины ζ и
их вероятности, можно составить для ζ ряд распределения, найти
функцию распределения Fζ (z) и математическое ожидание:

n X
X m
M ζ = M g(ξ, η) = g(xi , yj ) · pij . (33.16)
i=1 j=1

При построении ряда распределения, естественно, следует вы-


бросить те значения g(xi , yj ), которые принимаются с нулевой
вероятностью; если же есть одинаковые значения, то соответ-
ствующие вероятности следует сложить — так, как мы поступа-
ли при составлении ряда распределения функции одной дискрет-
ной случайной величины.
190 Глава 3. Случайные векторы

33.6. СМЕШАННЫЕ МОМЕНТЫ СИСТЕМЫ ДИСКРЕТНЫХ


СЛУЧАЙНЫХ ВЕЛИЧИН
В этом пункте мы ограничимся только определением смешан-
ных моментов для дискретных случайных величин. Свойства же
их подробно разберем при изучении смешанных моментов непре-
рывных случайных величин — эти свойства одни и те же.
Пусть дана матрица [pij ]n×m совместного распределения слу-
чайных величин ξ и η, принимающих значения, соответственно,
{xi }ni=1 и {yj }m
j=1 . В рамках определения сразу запишем форму-
лы для вычисления смешанных моментов дискретных случайных
величин, основанные на (33.16).
Определение 33.2. Начальным смешанным моментом по-
рядка k + s случайных величин ξ и η называется число

n X
X m
def
νk,s (ξ, η) = M (ξ k η s ) = xki yjs pij . (33.17)
i=1 j=1

Определение 33.3. Центральным смешанным моментом


порядка k + s случайных величин ξ и η называется число
def
µk,s (ξ, η) = M [(ξ − M ξ)k (η − M η)s ] =
X n X m
(33.18)
= (xi − M ξ)k · (yj − M η)s · pij .
i=1 j=1

При этом, если случайные величины принимают счетное мно-


жество значений, предполагается существование абсолютных
моментов: M |ξ k η s | и M |(ξ −M ξ)k (η −M η)s |, то есть абсолют-
ная сходимость соответствующих рядов.

Очевидно, что
νk,0 (ξ, η) = νk (ξ), ν0,s (ξ, η) = νs (η),
µk,0 (ξ, η) = µk (ξ), µ0,s (ξ, η) = µs (η).
Моменты νk (ξ), νs (η), µk (ξ) и µs (η) при этом называются чи-
стыми моментами. Смешанный момент µ11 называется корре-
ляционным и обозначается Kξη , то есть
def
Kξη = M [(ξ − M ξ)(η − M η)] . (33.19)
§ 33. ДИСКРЕТНЫЕ СЛУЧАЙНЫЕ ВЕКТОРЫ 191

Подробнее мы остановимся на нем в § 36. Будет показано, в част-


ности, что корреляционный момент можно вычислять по более
простой формуле:

Kξη = M (ξη) − M ξM η . (33.20)

Позднее мы узнаем также, почему этот момент выделяется особо.


Пример 33.2. Матрица распределения случайного вектора (ξ, η)
задана таблицей 33.6. Требуется найти:

Таблица 33.6. К примеру 33.2

HH η
H −1 0 1 2
ξ HH
−1 0, 1 0 0, 1 0, 2
0 0, 2 0, 1 0 0, 3

1) частные распределения случайных величин ξ и η;


2) условное распределение для ξ при условии, что η приняла зна-
чение 2;
3) условное распределение для η при условии, что ξ приняла зна-
чение равное −1;
4) M ξ, Dη, Kξη , M (ξ/η = 2), M (η/ξ = −1);
5) P {ξ = 0, 0 ≤ η < 2};

6) совместную функцию распределения случайных величин ξ и
η: Fξη (x, y);
7) ответ на вопрос: «Являются ли ξ и η независимыми случайны-
ми величинами?»
Решение задачи начнем с поиска частных распределений по
формулам (33.6):

ξ −1 0 η −1 0 1 2
pi 0, 4 0, 6 qj 0, 3 0, 1 0, 1 0, 5

Используя эти ряды распределения, можно сразу найти M ξ


и Dη: 2
X
Mξ = xi pi = −1 · 0, 4 + 0 · 0, 6 = −0, 4;
i=1
192 Глава 3. Случайные векторы

4
X
Mη = yj qj = −1 · 0, 3 + 0 · 0, 1 + 1 · 0, 1 + 2 · 0, 5 = 0, 8;
j=1
4
X
Dη = yj2 qj − (M η)2 = 1 · 0, 3 + 1 · 0, 1 + 4 · 0, 5 − 0, 82 = 1, 76.
j=1

Найдем условные распределения по формулам (33.7) и (33.9):

ξ −1 0
0, 2 0, 3 ,
pi/4
0, 5 0, 5

ξ −1 0
то есть
pi/4 0, 4 0, 6

η −1 0 1 2
0, 1 0 0, 1 0, 2 ,
qj/1
0, 4 0, 4 0, 4 0, 4

η −1 1 2
то есть .
qj/1 0, 25 0, 25 0, 5

По условным рядам найдем значения условных математиче-


ских ожиданий, пользуясь формулами (33.11) и (33.13):

M (ξ/η = 2) = −1 · 0, 4 + 0 · 0, 6 = −0, 4;

M (η/ξ = −1) = −1 · 0, 25 + 1 · 0, 25 + 2 · 0, 5 = 1.
Мы видим, что условный ряд распределения для ξ совпадает с
безусловным. Можно ли сразу сделать вывод о независимости
ξ и η? Нет! Случайные величины ξ и η являются независимы-
ми тогда и только тогда, когда все pij = pi qj или все условные
ряды распределения совпадают с безусловными. Мы же видим,
что полученный условный ряд для η не совпадает с безусловным.
К тому же, например, p11 = 0, 1 6= 0, 4 · 0, 3 = p1 · q1 . Следова-
тельно, ξ и η зависимы.
§ 33. ДИСКРЕТНЫЕ СЛУЧАЙНЫЕ ВЕКТОРЫ 193

Найдем вероятность того, что ξ = 0, а η ∈ [0, 2), используя


матрицу распределения. По несовместности событий получаем:

P {ξ = 0, 0 ≤ η < 2} = P {ξ = 0, η = 0} + P {ξ = 0, η = 1} =
= p22 + p23 = 0, 1 + 0 = 0, 1.

Корреляционный момент найдем по формулам (33.19) и (33.16):


2 X
X 4
Kξη = (xi + 0, 4)(yj − 0, 8)pij =
i=1 j=1

= (−1 + 0, 4)(−1 − 0, 8) · 0, 1 + (−1 + 0, 4)(0 − 0, 8) · 0 +


+(−1 + 0, 4)(1 − 0, 8) · 0, 1 + (−1 + 0, 4)(2 − 0, 8) · 0, 2 +
+(0 + 0, 4)(−1 − 0, 8) · 0, 2 + (0 + 0, 4)(0 − 0, 8) · 0, 1 +
+(0 + 0, 4)(1 − 0, 8) · 0 + (0 + 0, 4)(2 − 0, 8) · 0, 3 = −0, 08.

Найдите Kξη самостоятельно по формуле (33.20), сравните


сложность вычислений. Вы должны получить тот же результат.

Нам осталось отыскать функцию распределения Fξη (x, y)
по формуле (33.4). Для одной дискретной случайной величины
функция распределения получалась кусочно-постоянной. Ее
значение менялось в точках, соответствующих возможным зна-
чениям случайной величины.
Для двумерного дискретного случайного вектора функция
распределения также будет кусочно-постоянной, но постоянное
значение она как функция двух переменных будет принимать не
над одномерными полуинтервалами, а над двумерными. Значе-
ния Fξη (x, y) будут меняться на прямых x = xi и y = yj , i = 1, n,
j = 1, m.
Проще всего записывать значения Fξη (x, y) в виде таблицы
(табл. 33.7). Поскольку функция должна получиться непрерыв-
ной слева по каждой из переменных, в верхнюю строку и левый
столбец таблицы сразу заносятся соответствующие полуинтер-
валы для y и x.
Учитывая то, что

Fξη (x, y) = P {ξ < x, η < y},

запишем в первой строке и первом столбце таблицы нули, так как


при x ≤ −1 или y ≤ −1 ни одно из возможных значений ξ и η не
будет строго меньше x и y соответственно.
194 Глава 3. Случайные векторы

Таблица 33.7. К примеру 33.2

HH y
HH y ≤ −1 −1 < y ≤ 0 0<y≤1 1<y≤2 2<y
x H
x ≤ −1 0 0 0 0 0
−1 < x ≤ 0 0 0, 1 0, 1 0, 2 0, 4
0<x 0 0, 3 0, 4 0, 5 1

Можно в правом нижнем углу таблицы сразу поставить 1, так


как при ∀x > 0 и ∀y > 2 все возможные значения ξ и η окажутся
соответственно меньше x и y. Заполним, например, второй стол-
бец таблицы. При −1 < y ≤ 0 существует единственное воз-
можное значение η, меньшее y, — это −1. Если −1 < x ≤ 0, то
существует одно возможное значение ξ, меньшее x, — это также
−1. Следовательно,

Fξη (x, y) = P {ξ < x, η < y} = P {ξ = −1, η = −1} = p11 = 0, 1.

Поместим это число в таблицу и рассмотрим x > 0. Случайная


величина η по-прежнему может принимать лишь одно значение
−1, а случайная величина ξ может принимать уже два значения:
−1 и 0 — оба меньше любого x > 0. Следовательно,

Fξη (x, y) = P ({ξ = −1, η = −1} ∪ {ξ = 0, η = −1}) =


= p11 + p21 = 0, 1 + 0, 2 = 0, 3.

Поместим это значение во второй столбец и нижнюю строку таб-


лицы. Рассуждая аналогично, заполним всю таблицу. Обратите
внимание на то, что в последнем столбце получились значения
функции распределения случайной величины ξ : Fξ (x), а в ниж-
ней строке — Fη (y). Постарайтесь сами объяснить этот факт.

§ 34. НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕКТОРЫ


В этом разделе мы будем рассматривать случайный вектор
(ξ, η), где ξ и η — непрерывные случайные величины, определен-
ные на одном и том же вероятностном пространстве {Ω, F, P },
то есть в рамках одного и того же случайного эксперимента. Как
§ 34. НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕКТОРЫ 195

и ранее, Fξη (x, y) означает совместную функцию распределения


ξ и η.
34.1. ОСНОВНЫЕ ОПРЕДЕЛЕНИЯ.
СВОЙСТВА ДВУМЕРНОЙ ПЛОТНОСТИ
Определение 34.1. Говорят, что случайный вектор (ξ, η) име-
ет непрерывное распределение вероятностей, если суще-
ствует функция fξη (x, y), определенная на всей плоскости R2 ,
такая, что

Zx Zy
Fξη (x, y) = du fξη (u, v)dv . (34.1)
−∞ −∞

Функция fξη (x, y) называется плотностью распределения


случайного вектора (ξ, η) или совместной плотностью рас-
пределения случайных величин ξ и η.

Если функция fξη (x, y), которую для краткости иногда назы-
вают просто «плотность», непрерывна, то можно продифферен-
цировать по x обе части равенства (34.1), пользуясь теоремой
Барроу:
Zy
∂Fξη (x, y)
= fξη (x, v)dv.
∂x
−∞

Дифференцируя еще раз по y, получим:

∂Fξη (x, y)
fξη (x, y) = . (34.2)
∂x∂y

Очевидно, что как порядок дифференцирования в (34.2), так и


порядок интегрирования в (34.1) для непрерывных функций мож-
но изменить.
С геометрической точки зрения справа в формуле (34.1) сто-
ит двойной интеграл
x
fξη (u, v)dudv
(Dxy )

по области (Dxy ) = (−∞, x) × (−∞, y), изображенной еще на


рис. 32.1.
196 Глава 3. Случайные векторы

Если P {(ξ, η) ∈ (D) ⊂ R2 } = 1, то множество (D) называ-


ется носителем двумерного распределения, то есть носитель —
это множество (D) всех точек (x, y), таких, что fξη (x, y) 6= 0.

Попробуем разобраться с физическим смыслом плотности,
выяснив, почему она так называется. Вычислим по теореме 32.2
вероятность попадания значения случайного вектора (ξ, η) в
маленький прямоугольник (∆σ) = [x, x + ∆x) × [y, y + ∆y)
(рис. 34.1):
Y
– +
y+Dy

(Ds)

y –
+

X
x x+Dx

Рис. 34.1. К вопросу о физическом смысле плотности

P {(ξ, η) ∈ (∆σ)} = P {x ≤ ξ < x + ∆x, y ≤ η < y + ∆y} =


= Fξη (x + ∆x, y + ∆y) − Fξη (x + ∆x, y) + Fξη (x, y)−
−Fξη (x, y + ∆y).

Рассмотрим при ∆x → 0, ∆y → 0 следующий предел, где пло-


щадь ∆σ = ∆x · ∆y:
P {(ξ, η) ∈ (∆σ)}
lim =
∆x→0
∆y→0
∆σ
·
1 Fξη (x + ∆x, y + ∆y) − Fξη (x, y + ∆y)
= lim −
∆x→0 ∆y ∆x
∆y→0
¸
Fξη (x + ∆x, y) − Fξη (x, y)
− =
∆x
∂Fξη (x, y + ∆y) ∂Fξη (x, y)
− ∂ 2 Fξη (x, y)
= lim ∂x ∂x = = fξη (x, y).
∆y→0 ∆y ∂x∂y
(34.3)

Формула (34.3) так же, как формула (26.3) объясняет, почему


§ 34. НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕКТОРЫ 197

функция fξη (x, y) называется «плотностью вероятности». Запи-


шем приближенное равенство, которое следует из (34.3):
P {(ξ, η) ∈ ∆σ} ≈ fξη (x, y) · ∆σ. (34.4)

Теорема 34.1. Свойства двумерной плотности.


Пусть fξη (x, y) — плотность распределения случайного векто-
ра (ξ, η). Тогда:
1) fξη (x, y) ≥ 0 при ∀(x, y) ∈ R2 ;
Z+∞ Z+∞

2) fξη (x, y)dxdy = 1 (условие нормировки); (34.5)


−∞ −∞

x
3) P {(ξ, η) ∈ (D) ⊂ R2 } = fξη (x, y)dσ . (34.6)
(D)

Доказательство. 1) Неотрицательность плотности сразу сле-


дует из монотонного неубывания функции Fξη (x, y) по каждой из
переменных и соотношения (34.2).
2) Рассмотрим
x Z
+∞ Z
+∞

fξη (x, y)dxdy = fξη (x, y)dxdy =


R2 −∞ −∞
Zx Zy
= lim fξη (u, v)dudv = lim Fξη (x, y) = 1
x→+∞ x→+∞
y→+∞ y→+∞
−∞ −∞

по свойству двумерной функции распределения (32.6).



3) Это свойство мы докажем, используя приближенное равен-
ство (34.4). Поскольку речь идет о двойном интеграле по области
(D), составим интегральную сумму. Для этого разобьем область
(D) координатными прямыми на n частичных дизъюнктных об-
Sn
ластей (∆σk ) : (D) = (∆σk ) и в каждой (∆σk ) выберем точку
k=1
(xk , yk ) ∈ (∆σk ), k = 1, n. Так как (∆σk ) при k = 1, n не пересе-
каются,
Xn Xn
P {(ξ, η) ∈ (D)} = P {(ξ, η) ∈ (∆σk )} ≈ fξη (xk , yk )∆σk
k=1 k=1
(34.7)
198 Глава 3. Случайные векторы

по формуле (34.4), поскольку с учетом малости (∆σk ) можно при-


ближенно считать их всех прямоугольниками. Выберем ранг раз-
биения λ = max d(∆σk ) и устремим его к нулю в соотноше-
нии (34.7)4 . Функция fξη (x, y) интегрируема по всей плоскости
R2 . Значит, она интегрируема и по области (D) ⊂ R2 . Значит,
любая интегральная сумма независимо от способа разбиения и
выбора точек будет стремиться к двойному интегралу:
n
X x
P {(ξ, η) ∈ (D)} = lim fξη (xk , yk )∆σk = fξη (x, y)dσ.
λ→0
k=1 (D)

Приведенные рассуждения годятся для ограниченной обла-


сти (D). Случай неограниченной области оставим без доказа-
тельства.

Замечание 34.1. Любая функция, удовлетворяющая свойствам


1 и 2 теоремы 34.1 является плотностью распределения некото-
рого случайного вектора.
Из свойств двумерной плотности можно сделать вывод о ее
графике, который называют поверхностью распределения
(рис. 34.2). Поскольку fξη (x, y) ≥ 0 при ∀(x, y) ∈ R2 , ее график

Z z = fxh(x, y)

(V)
(V)
(D) 0 Y
(D)
X

Рис. 34.2. Поверхность распределения

располагается над плоскостью XOY . При стремлении (x, y) к


бесконечно удаленной точке значение fξη (x, y) стремится к ну-
лю, иначе не будет выполняться условие нормировки (34.5). Та-
ким образом, поверхность z = fξη (x, y) представляет собой как
4 Символом d(∆σk ) обозначен диаметр замкнутой области (∆σk ).
§ 34. НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕКТОРЫ 199

бы «бесконечную шляпу» (или «конечную», если fξη (x, y) 6= 0


лишь в ограниченной области). Объем под всей «шляпой» ра-
вен единице в силу (34.5), а вероятность попадания точки (ξ, η)
в область (D) по (34.6) и геометрическому смыслу двойного ин-
теграла равна объему тела (V ), находящегося под «шляпой» над
областью (D):
x
V = fξη (x, y)dσ = P {(ξ, η) ∈ (D)}.
(D)

Аналогично одномерной плотности, мы снова видим, что чем вы-


ше «шляпа», тем больше вероятность для случайной точки (ξ, η)
попасть в соответствующую область.
Сейчас мы разберем достаточно сложный, но очень показа-
тельный пример. Чтобы не загромождать запись, не будем пи-
сать индексы ξη, а будем обозначать плотность и функцию рас-
пределения просто f (x, y) и F (x, y).
Пример 34.1. Дана функция
½
axy, если (x, y) ∈ (D),
f (x, y) =
0, если (x, y) ∈
/ (D),

где (D) = {(x, y) : x2 + y 2 ≤ 1, x ≥ 0, y ≥ 0}.



Найти значение параметра a так, чтобы функция f (x, y) бы-
ла плотностью распределения.
Найти соответствующую функцию распределения F (x, y).
Решение начнем с поиска параметра a. Чтобы f (x, y) была
плотностью распределения, необходимо, чтобы a было положи-
тельно: a > 0. Точное значение параметра a найдем из условия
нормировки (34.5):
x x
1= f (x, y)dxdy = axydxdy.
R2 (D)

Чтобы вычислить двойной интеграл, изобразим область (D) на


рис. 34.3 и расставим пределы, взяв внешнее интегрирование по x.
Получим:

Z1 Z1−x2 Z1 ¯√1−x2 Z1
y 2 ¯¯ 1 − x2 a
1=a dx xy dy = a xdx· ¯ = a x· dx = .
2 0 2 8
0 0 0 0
200 Глава 3. Случайные векторы

Y
1
x2 + y2 =1

(D)

0 x 1 X

Рис. 34.3. К примеру 34.1

Cледовательно, a = 8, а совместная плотность


½
8xy, если (x, y) ∈ (D),
f (x, y) = (34.8)
0, если (x, y)(D).

Будем вычислять совместную функцию распределения по
формуле (34.1):
Zx Zy
F (x, y) = du f (u, v)dv.
−∞ −∞

Вспомним о том, что с геометрической точки зрения значе-


ние функции распределения в точке (x, y) есть вероятность по-
падания случайной точки s в квадрант (Dxy ), изображенный на
рис. 32.1. Из того, что f (x, y)dσ = 1, вытекает, что случай-
(D)
ная точка попадает с вероятностью 1 в область (D). Значит,
вероятность попасть в любое множество плоскости, не пересе-
кающееся с (D), равна нулю. Поэтому если квадрант (Dxy ) не
пересекается с (D), то F (x, y) = 0. Если (Dxy ) полностью со-
держит область (D), то F (x, y) = 1 (рис. 34.4). По рисунку вид-
но, что (Dxy ) не пересекается с (D), если хотя бы одна из пере-
(i)
менных x или y отрицательна (области (Dxy ), i = 1, 3). Пересе-
(4)
чение (Dxy ) ∩ (D) = (D), если x > 1 и y > 1 (область (Dxy ).
Таким образом, нам осталось рассмотреть случаи, когда x > 0
и y > 0, но хотя бы одна из переменных не превосходит 1. Рас-
смотрим несколько таких случаев.
§ 34. НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕКТОРЫ 201

Y
(D)
y
(4)
1 (Dxy)
(1)
(Dxy) (D)

0 1 x X
(2)
(Dxy)
(3)
(Dxy)

Рис. 34.4. К примеру 34.1

1) Пусть y ≥ 1, 0 < x ≤ 1 (рис. 34.5). Чтобы не было пу-


таницы, запишем уравнение окружности в координатах (u, v).
V
y
(Dxy)
1
u2 + v2 =1

X (Dxy) (D)
U

(D)

0 u x 1 U

Рис. 34.5. К примеру 34.1

Тогда
x x
F (x, y) = f (u, v)dudv = 8uv dudv =
(Dxy ) (Dxy )∩(D)

Zx Z1−u2 Zx ¯√1−u2
v 2 ¯¯
=8 du uv dv = 8 udu · ¯ =
2 0
0 0 0

Zx
=4 u(1 − u2 )du = x2 (2 − x2 ).
0
202 Глава 3. Случайные векторы

2) Пусть x ≥ 1, 0 < y ≤ 1 (рис. 34.6). Тогда

V
u2 + v2 =1
1
(D)

(Dxy)
v
(Dxy) (D)
U

0 1 x U

Рис. 34.6. К примеру 34.1


x Zy Z1−v2
F (x, y) = 8uvdudv = 8 dv uvdu =
(Dxy )∩(D) 0 0
Zy ¯√1−v2 Zy
2
u ¯¯
=8 vdv · =4 v(1 − v 2 )dv = y 2 (2 − y 2 ).
2 ¯0
0 0

3) Пусть 0 < x < 1, 0 < y < 1 u x2 + y 2 ≤ 1 (рис. 34.7).

1 u2 + v2 =1

y
(D)
(Dxy)

0 x 1 U

Рис. 34.7. К примеру 34.1

Тогда
Zx Zy Zx Zy
F (x, y) = du 8uvdv = 8 udu · vdv = 2x2 y 2 .
0 0 0 0
§ 34. НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕКТОРЫ 203

V
1
y (Dxy)

u2 + v2 =1

(D)

0 u u x
?1–y2 1 U

Рис. 34.8. К примеру 34.1

4) Пусть 0 < x ≤ 1, 0 < y ≤ 1 и x2 + y 2 > 1 (рис. 34.8).


В этом случае область (Dxy ) ∩ (D) получается достаточно слож-
ной. Для вычисления интеграла при внешнем интегрировании по
любой переменной ее придется
p разбить на две подобласти. На-
пример, вертикалью u = 1 − y 2 (при каждом фиксированном y).
√ 2 √
1−y
R Ry Rx R 2
1−u
Получим F (x, y) = du 8uvdv + du 8uvdv =
0 0
√ 2 0
1−y
√ 2 ¯√1−u2
1−y
R Ry Rx 2¯
=8 udu· vdv+8 udu· v2 ¯¯ = x2 (2−x2 )−(1−y 2 )2 .
0 0
√ 2 0
1−y
Нам осталось записать ответ. Функция F (x, y) получилась
непрерывной:


 0, если x ≤ 0 или y ≤ 0;

 2 2

 y (2 − y ), если x ≥ 1, 0 ≤ y ≤ 1;

 2 2

 x (2 − x ), если y ≥ 1, 0 ≤ x ≤ 1;

 2 2
2x y , если 0 ≤ x < 1,
F (x, y) =

 0 ≤ y < 1, x2 + y 2 ≤ 1;




2 2 2 2
x (2 − x ) − (1 − y ) , если 0 ≤ x ≤ 1,



 0 ≤ y ≤ 1, x2 + y 2 ≥ 1;


1, если x ≥ 1 и y ≥ 1.

В этом примере мы не только подробно разобрались в струк-


туре поиска двумерной функции распределения по плотности, но
и повторили методы вычисления двойных интегралов, без знания
которых невозможно работать со случайными векторами.
204 Глава 3. Случайные векторы

34.2. МАРГИНАЛЬНЫЕ — ЧАСТНЫЕ, ОДНОМЕРНЫЕ


(БЕЗУСЛОВНЫЕ) РАСПРЕДЕЛЕНИЯ НЕПРЕРЫВНЫХ
СЛУЧАЙНЫХ ВЕЛИЧИН, ВХОДЯЩИХ В СИСТЕМУ
Рассмотрим систему непрерывных случайных величин (ξ, η),
заданных на одном и том же вероятностном пространстве
{Ω, F, P }. Допустим, нам известно их совместное распределе-
ние: Fξη (x, y) — совместная функция распределения, fξη (x, y) —
совместная плотность распределения вероятностей.
Изучая свойства совместной функции распределения (теоре-
ма 32.1), мы видели, что, переходя к пределу, можно получить
функции распределения случайных величин ξ и η (формулы (32.7)
и (32.8)):

Fξ (x) = lim Fξη (x, y), Fη (y) = lim Fξη (x, y) . (34.9)
y→+∞ x→+∞

Говоря о распределениях случайных величин, входящих в систе-


му (компонент случайного вектора), мы называем их частными,
одномерными распределениями. Таким образом, по форму-
лам (34.9) мы можем восстановить частные функции распреде-
ления случайных величин ξ и η по их совместной, двумерной
функции распределения.
Попробуем выяснить вопрос о поиске одномерных плотно-
стей fξ (x) и fη (y). Воспользуемся формулой (34.1), выразив в
(34.9) Fξη (x, y) через fξη (u, v):
Zx Zy
Fξ (x) = lim du fξη (u, v)dv =
y→+∞
−∞ −∞
Zx µ Z
+∞ ¶ Zx
= fξη (u, v)dv du = g(u)du,
−∞ −∞ −∞

где за g(u) был обозначен внутренний интеграл, зависящий от u.


(Объяснение возможности предельного перехода под знаком ин-
теграла выходит за рамки данного курса.) В предположении
непрерывности подынтегральной функции воспользуемся теоре-
мой Барроу:
Z
+∞
dFξ (x)
fξ (x) = = g(x) = fξη (x, v)dv. (34.10)
dx
−∞
§ 34. НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕКТОРЫ 205

Поскольку значение определенного интеграла не зависит от пе-


ременной интегрирования, вместо v в (34.10) можно писать y.
Аналогичную формулу можно вывести для fη (y). Итак,

Z
+∞ Z
+∞

fξ (x) = fξη (x, y)dy, fη (y) = fξη (x, y)dx , (34.11)


−∞ −∞

то есть, проинтегрировав совместную плотность распределения


по второй переменной, получим частную плотность распределе-
ния первой случайной величины, а проинтегрировав по первой
переменной — плотность второй из компонент случайного век-
тора.
К сожалению, решить обратную задачу: найти по одномер-
ным распределениям двумерное — без дополнительной инфор-
мации о случайных величинах ξ и η — невозможно. Совместное
распределение зависит не только от распределений самих слу-
чайных величин, но и от характера их зависимости друг от друга,
то есть от условных распределений, изучению которых будет по-
священ следующий раздел.
Таким образом, можно сделать вывод о том, что совместное
распределение содержит больше информации о случайных вели-
чинах, нежели их частные распределения.
Пример 34.2. Совместная двумерная плотность распределения
вероятностей огибающей V и фазы ϕ узкополосного случайного
сигнала имеет вид:

 1 x x2
· · exp{− 2 } при (x, y) ∈ (D),
fV ϕ (x, y) = 2π σ 2 2σ
0 при (x, y) ∈
/ (D),

где (D) = [0, +∞) × [0, 2π]. Найти одномерные плотности огиба-
ющей fV (x) и фазы fϕ (y). Определить типы законов распреде-
ления, найти математические ожидания и дисперсии случайных
величин V и ϕ.
Решение задачи будем проводить по формулам (34.11). При
интегрировании учтем, что при (x, y) ∈
/ (D) плотность

fV ϕ (x, y) ≡ 0.
206 Глава 3. Случайные векторы

Поэтому рассмотрим x ∈ [0, +∞). Получим


Z
+∞ Z0 Z2π Z
+∞

fV (x) = fV ϕ (x, y)dy = + + =


−∞ −∞ 0 2π
2
Z2π x
1 x −
=0+ · 2 · e 2σ 2 dy + 0 =
2π σ
0
x2 Z2π x2
1 x − x −
= · · e 2σ 2 dy = 2 · e 2σ 2 .
2π σ 2 σ
0

Итак, (x x2
e− 2σ2 при x ∈ [0, +∞),
fV (x) = σ 2
0 при x ∈
/ [0, +∞).
Сравнивая это выражение с (30.21), видим, что огибающая V
распределена по закону Рэлея с параметром σ. Нам уже извест-
ны числовые характеристики рэлеевской случайной величины
(30.22): r
π π
MV = σ , DV = (2 − )σ 2 .
2 2
Найдем плотность случайной величины ϕ, рассматривая
y ∈ [0, 2π]:

Z
+∞ Z
+∞ x2
1 x − 2
fϕ (y) = fV ϕ (x, y)dx = · e 2σ dx =
2π σ 2
−∞ 0

Z
+∞ x2
1 x − 2 1 1
= e 2σ dx = ·1= .
2π σ2 2π 2π
0

Здесь мы воспользовались тем, что интеграл от плотности рас-


пределения Рэлея равен 1, в чем вы должны были убедиться в
п. 30.5.
Итак, 
 1
при y ∈ [0, 2π],
fϕ (y) = 2π
0 при y ∈
/ [0, 2π],
§ 34. НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕКТОРЫ 207

то есть фаза ϕ имеет равномерное на [0, 2π] распределение:


ϕ⊂= R[0, 2π]. Воспользуемся известными числовыми характе-
ристиками равномерного распределения при < a, b > = [0, 2π]:

a+b (b − a)2 π2
Mϕ = = π; Dϕ = = .
2 12 3

Пример 34.3. Пусть совместная плотность распределения слу-


чайных величин ξ и η имеет вид:

 1
, если (x, y) ∈ (Dr ),
fξη (x, y) = πr2 (34.12)
0, если (x, y) ∈
/ (Dr ),

где (Dr ) = {(x, y) : x2 + y 2 ≤ r2 } — круг радиуса r с центром


в начале координат. (Потом мы узнаем, что такое распределение
называется равномерным в круге (Dr ).) Требуется найти частные
распределения случайных величин ξ и η.
Для решения задачи построим область (Dr ) на рис. 34.9 и
воспользуемся формулами (34.11). Поскольку вне области (Dr )

Y
r y = +?r 2 –x2

(Dr)

–r 0 x r
X

–r y = –?r 2 –x2

Рис. 34.9. К примеру 34.3

совместная плотность fξη (x, y) ≡ 0, рассмотрим x ∈ [−r, r].


При каждом таком x плотность fξη (x, y) будет отличной от ну-
ля только
√ в том√случае, когда точка (x, y) ∈ (Dr ), то есть
y ∈ [− r2 − x2 ; r2 − x2 ]. Расставим пределы интегрирования
аналогично тому, как это делалось при вычислении двой-
ных интегралов.
√ Кривой входа в данном случае является
√ кри-
вая y = − r2 − x2 , кривой выхода — кривая y = + r2 − x2 .
208 Глава 3. Случайные векторы

Получим:

Z
+∞ rZ2 −x2
1
fξ (x) = fξη (x, y)dy = dy =

πr2
−∞ − r 2 −x2

1 p 2 2
p
2 2
2 r2 − x2
= 2( r − x + r − x ) = .
πr πr2
Итак,
 √
 2 r2 − x2
fξ (x) = при x ∈ [−r, r], (34.13)
 πr2
0 при x ∈
/ [−r, r].

Аналогично (проделайте это сами!) можно получить плотность


случайной величины η. Условие задачи совершенно симметрич-
но относительно ξ и η. Поэтому неудивительно, что вы получите
«похожую» плотность:
 p
 2 r2 − y2
fη (y) = при y ∈ [−r, r], (34.14)
 πr2
0 при y ∈
/ [−r, r].

В дальнейших разделах мы еще неоднократно будем возвра-


щаться к случайным величинам и их распределениям, рассмот-
ренным в этом примере.

34.3. УСЛОВНЫЕ РАСПРЕДЕЛЕНИЯ НЕПРЕРЫВНЫХ


СЛУЧАЙНЫХ ВЕЛИЧИН, ВХОДЯЩИХ В СИСТЕМУ
Рассматривая в § 33 условные распределения для дискрет-
ных случайных величин, мы искали условные вероятности pi/j
по формуле (33.7). Эта формула не может быть применена для
непрерывных случайных величин, так как вероятность принять
любое фиксированное значение для непрерывной случайной ве-
личины равна нулю. В § 26 мы уже обсуждали вопрос о том, что
для непрерывной случайной величины η то значение y считается
возможным, для которого положительна вероятность попадания
η в малую полуокрестность точки y : P {η ∈ [y, y + ∆y)} > 0.
Этим фактом можно воспользоваться для определения условных
распределений.
§ 34. НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕКТОРЫ 209


Определение 34.2. Условной функцией распределения
непрерывной случайной величины ξ при условии, что случай-
ная величина η приняла значение y, называется функция

def
Fξ (x/η = y) = lim P {ξ < x/y ≤ η < y + ∆y} . (34.15)
∆y→0

Мы видим, что условная функция распределения — это функ-


ция двух переменных: x и y, только y считается фиксированным5 .

С геометрической точки зрения под знаком предела в фор-
муле (34.15) стоит вероятность того, что случайная точка (ξ, η)
попадет в бесконечную полосу (∆) = (−∞, x) × [y, y + ∆y),
изображенную на рис. 34.10, при условии, что случайная коорди-
ната η уже находится в указанном промежутке. Воспользуемся
V
y + Dy

h (D)
y

0 x x U

Рис. 34.10. К вопросу об условной функции распределения

определением условной вероятности (10.1) и формулами (26.6) и


(34.6). Из (34.15) следует:
P {ξ < x, y ≤ η < y + ∆y}
Fξ (x/η = y) = lim =
P {y ≤ η < y + ∆y}
∆y→0
s
fξη (u, v)dudv
P {(ξ, η) ∈ (∆)} (∆)
= lim = lim R =
∆y→0 P {η ∈ [y, y + ∆y)} ∆y→0 fη (v)dv
[y,y+∆y)

5 Если вы вдумаетесь в определение 34.2, то поймете, что оно годится и для

дискретных случайных величин, так как событие


{η = y} = lim {y ≤ η < y + ∆y}.
∆y→0
210 Глава 3. Случайные векторы

Rx R
y+∆y
du fξη (u, v)dv
−∞ y
= lim . (34.16)
∆y→0 R
y+∆y
fη (v)dv
y

Применим теорему о среднем для интеграла, стоящего в знаме-


нателе, и для внутреннего интеграла в числителе дроби (34.16).
Получим: существуют такие числа γ1 , γ2 ∈ [y, y + ∆y), что

Z
y+∆y Z
y+∆y

fη (v)dv = fη (γ1 )∆y, fξη (u, v)dv = fξη (u, γ2 )∆y,


y y

причем γ1 → y и γ2 → y при ∆y → 0.
Тогда из (34.16) следует, что

Rx
fξη (u, γ2 )du · ∆y
−∞
Fξ (x/η = y) = lim =
∆y→0 fη (γ1 ) · ∆y
Rx (34.17)
fξη (u, y)du Zx
−∞ fξη (u, y)
= = du.
fη (y) fη (y)
−∞

Сравнивая (34.17) с формулой (26.1), мы видим, что если функ-


цию Fξ (x/η = y) называют условной функцией распределения,
то функцию, стоящую под интегралом в (34.17), разумно назвать
условной плотностью распределения.

Определение 34.3. Условной плотностью распределения


случайной величины ξ при условии, что случайная величина η
приняла значение y, называется функция

def fξη (x, y)


fξ (x/η = y) = , (34.18)
fη (y)

то есть отношение совместной плотности распределения к


«плотности условия».
§ 34. НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕКТОРЫ 211

Сравните это определение с определением условной вероят-


ности (10.1) и запомните аналогичное определение условной плот-
ности η при условии, что ξ приняла значение x:

def fξη (x, y)


fη (y/ξ = x) = . (34.19)
fξ (x)

Вдумчивый читатель сразу задаст вопрос: какое право мы име-


ем называть определенные только что функции плотностями. Ну,
допустим, их неотрицательность очевидна, но ведь условие нор-
мировки мы не проверили! Давайте проверим.
Например, для функции (34.18):
Z
+∞ Z
+∞
fξη (x, y)
fξ (x/η = y)dx = dx =
fη (y)
−∞ −∞
Z
+∞
1 1
= fξη (x, y)dx = · fη (y) = 1
fη (y) fη (y)
−∞

по второй из формул (34.11). Значит, определение 34.3 кор-


ректно.
Из формул (34.18) и (34.19) следует аналог формулы умно-
жения (10.3) для плотностей:

fξη (x, y) = fξ (x/η = y)fη (y) = fη (y/ξ = x)fξ (x) . (34.20)



Как искать условную функцию распределения через услов-
ную плотность, мы видим из формулы (34.17):

Zx
Fξ (x/η = y) = fξ (u/η = y)du . (34.21)
−∞

Из последней формулы вытекает обратная зависимость:


fξ (x/η = y) = Fξ (x/η = y).
∂x
Не забудем, что во всех наших выкладках число y считается фик-
сированным, а плотность — непрерывной функцией.
212 Глава 3. Случайные векторы

Пример 34.4. Найдем условные плотности для случайных вели-


чин из примера 34.3. Воспользуемся формулами (34.18), (34.19)
и (34.12)–(34.14):
1
fξη (x, y) πr 2 1
fξ (x/η = y) = = √ = √ (34.22)
fη (y) 2 r 2 − x2 2 r2 − x2
πr2
p
при (x, y) ∈ (Dr ), то есть |x| 2 2
p≤ r − y и fξ (x/η = y) = 0 при
2 2
/ (Dr ), то есть |x| > r − y . Аналогично,
(x, y) ∈

 √1 при (x, y) ∈ (Dr ), то есть

 2 r2 −y2 √

fη (y/ξ = x) = |y| ≤ r2 − x2 ; (34.23)

 0 при (x, y) ∈
/ (D ), то есть

 √ r
|y| > r2 − x2 .
Таким образом, чтобы по совместной плотности найти услов-
ные, вы должны сначала отыскать частные плотности для каж-
дой случайной величины, а потом воспользоваться формулами
(34.18), (34.19), не забывая об ограничениях на (x, y).
Если известны частные и условные плотности, то по форму-
ле умножения (34.20) можно найти совместную плотность рас-
пределения.

34.4. УСЛОВНЫЕ МАТЕМАТИЧЕСКИЕ ОЖИДАНИЯ


НЕПРЕРЫВНЫХ СЛУЧАЙНЫХ ВЕЛИЧИН
Рассмотрим, как и прежде, две непрерывные случайные ве-
личины ξ и η, определенные на общем вероятностном простран-
стве {Ω, F, P }.
Определение 34.4. Значением условного математического
ожидания случайной величины ξ при условии, что случайная
величина η приняла значение y, называется число

Z
+∞
def
mξ (y) = M (ξ/η = y) = xfξ (x/η = y)dx , (34.24)
−∞

где fξ (x/η = y) — условная плотность распределения ξ при


условии, что η приняла значение y.
§ 34. НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕКТОРЫ 213

Сравните эту формулу с формулой (28.1) для безусловного


математического ожидания и с формулой (33.11).
В п. 33.4 мы говорили о том, что значение условного матема-
тического ожидания дискретной случайной величины интерпре-
тируется как центр масс аналогично безусловному математиче-
скому ожиданию. Точно так же значение условного математиче-
ского ожидания непрерывной случайной величины можно интер-
претировать аналогично безусловному, но следует учитывать то,
что каждое значение условного математического ожидания есть
число, которое зависит от y. Однако каждое y — это значение
случайной величины η, которое зависит от того, какой наступил
элементарный исход. Наступил элементарный исход ω ∈ Ω —
случайная величина η приняла значение y = η(ω) — условное
математическое ожидание принимает значение mξ (y).
Таким образом, аналогично дискретному случаю можно вве-
сти случайную величину M (ξ/η) — условное математическое
ожидание случайной величины ξ при условии η.
Эта случайная величина принимает значения, вычисляемые
по формуле (34.24), когда η принимает различные значения y, то
есть является функцией от η.
Условное математическое ожидание M (ξ/η) показывает, как
влияют значения, принимаемые случайной величиной η на мате-
матическое ожидание случайной величины ξ (подробнее см. [6]).
Функцию mξ (y) называют также функцией регрессии
(или просто регрессией) случайной величины ξ на случайную
величину η, а ее график — линией регрессии ξ на η. Линия ре-
грессии дает наглядное представление о зависимости «в сред-
нем» случайной величины ξ от значений случайной величины η.
Аналогично можно определить случайную величину M (η/ξ),
которая принимает значения

Z
+∞

mη (x) = M (η/ξ = x) = yfη (y/ξ = x)dy , (34.25)


−∞

получив регрессию mη (x) случайной величины η на случайную


величину ξ.
Свойства условного математического ожидания для не-
прерывных случайных величин те же, что и для дискретных (тео-
рема 33.1), но их доказательство выходит за рамки данного
курса.
214 Глава 3. Случайные векторы

Пример 34.5. Найдем значения условных математических ожи-


даний для случайных величин, рассмотренных в примере 34.3.
Воспользуемся результатами, полученными в примере 34.4 и
формулами (34.22)–(34.25). Поскольку при (x, y) ∈
/ (Dr ) услов-
ные плотности равны нулю, рассмотрим y ∈ [−r, r]. Тогда

Z
+∞

mξ (y) = M (ξ/η = y) = xfξ (x/η = y)dx =


−∞
√2 2
r −y
Z
1
= x· √ dx = 0
√ 2 r − x2
2
− r 2 −y 2

для ∀y ∈ [−r, r], так как мы получили интеграл от нечетной функ-


ции по симметричному промежутку. (Можно было вычислить этот
интеграл, подводя x под знак дифференциала.)
Аналогично при ∀x ∈ [−r, r]:

Z
+∞

mη (x) = M (η/ξ = x) = yfη (y/ξ = x)dy =


−∞


rZ2 −x2
y
= p dy = 0.
√ 2 r2 − y2
− r 2 −x2

Следовательно, линии регрессии лежат на осях координат.


В данном примере условные математические ожидания ока-
зались тождественно равными нулю. В общем случае они долж-
ны быть функциями переменных y или x соответственно.

34.5. НЕЗАВИСИМОСТЬ СЛУЧАЙНЫХ ВЕЛИЧИН,


ВХОДЯЩИХ В СИСТЕМУ
Рассмотрим случайный вектор (ξ, η), для компонент которо-
го, случайных величин непрерывного типа, известна совместная
функция распределения Fξη (x, y) и совместная плотность рас-
пределения fξη (x, y). Обозначим, как и ранее, одномерные функ-
ции распределения Fξ (x) и Fη (y), а одномерные плотности fξ (x)
и fη (y).
§ 34. НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕКТОРЫ 215

Изучая условные распределения, мы выяснили, что в случай-


ном векторе «поведение» одной из случайных величин может
влиять на «поведение» другой. В этом разделе мы рассмотрим
случай, когда такого влияния нет, когда случайные величины на-
зывают «независимыми». Это не значит, что ξ и η никак не
связаны между собой: они определены на одном вероятностном
пространстве, они составляют случайный вектор. Независимость
означает, что по тому, какое значение приняла одна из случайных
величин, мы ничего не можем сказать о распределении второй.
Определение независимых случайных величин уже было
дано в § 15. Повторим его и вспомним все, что нам уже известно
о независимых случайных величинах.
Определение 34.5. Случайные величины называются неза-
висимыми, если их совместная функция распределения пред-
ставляется в виде произведения частных функций распреде-
ления:

Fξη (x, y) = Fξ (x) · Fη (y) , ∀x, y ∈ R. (34.26)

Последнее соотношение, очевидно, равносильно следующему:

P {ξ < x, η < y} = P {ξ < x} · P {η < y},

что означает независимость событий {ξ < x} и {η < y} при


∀x, y ∈ R. В § 11 мы отмечали, что понятие независимых со-
бытий — это понятие взаимное. Следовательно, взаимным яв-
ляется и понятие независимых случайных величин: если ξ не
зависит от η, то и η не зависит от ξ.
Мы отмечали также (см. § 15), что для независимых слу-
чайных величин являются независимыми все связанные с ни-
ми события.

Покажем это на примере событий

A = {ξ ∈ [a, b)} и B = {η ∈ [c, d)}.

Рассмотрим

P (AB) = P {ξ ∈ [a, b), η ∈ [c, d)} = P {(ξ, η) ∈ [a, b) × [c, d)}.

Воспользуемся теоремой 32.2 о вероятности попадания случай-


ной точки (ξ, η) в прямоугольник [a, b) × [c, d).
216 Глава 3. Случайные векторы

Используя (34.26), получим:


P (AB) = Fξη (b, d) − Fξη (b, c) + Fξη (a, c) − Fξη (a, d) =
= Fξ (b)Fη (d) − Fξ (b)Fη (c) + Fξ (a)Fη (c) − Fξ (a)Fη (d) =
= [Fξ (b) − Fξ (a)][Fη (d) − Fη (c)] =
= P {ξ ∈ [a, b)} · P {η ∈ [c, d)} = P (A) · P (B).
Обратите внимание на то, что приведенное доказательство
нигде не использовало непрерывность случайных величин. Оно
годится для случайных величин любого типа.
Рассматривая кусочно-непрерывные функции g(x) и h(y), мы
отмечали, что если ξ и η — независимые случайные величи-
ны, то случайные величины g(ξ) и h(η) также являются неза-
висимыми.

Покажем это, например, для случая, когда функции g(x) и
h(y) строго возрастают. Рассмотрим
Fg(ξ),h(η) (x, y) = P {g(ξ) < x, h(η) < y} =
= P {ξ < g −1 (x), η < h−1 (y)} =
= P {ξ < g −1 (x)} · P {η < h−1 (y)} =
= P {g(ξ) < x} · P {h(η) < y} = Fg(ξ) (x)Fh(η) (y),
где за g −1 и h−1 обозначены функции, обратные к g и h.
Это доказательство также годится для случайных величин лю-
бого типа.
Изучая свойства математического ожидания и дисперсии для
случайных величин любого типа, мы отмечали, что если ξ и η —
независимые случайные величины, то
1) M (ξη) = M ξ · M η; (34.27)
2) D(ξ + η) = Dξ + Dη; (34.28)
3) M (ξ/η) = M ξ с вероятностью 1. (34.29)
Для дискретных случайных величин эти свойства доказыва-
ются преобразованиями сумм, так как в случае независимости ξ
и η выполняются соотношения (33.2) и (33.10):
pij = pi · qj ; pi/j = pi ; qj/i = qj при i = 1, n; j = 1, m.
Чтобы доказать формулы (34.27)–(34.29) для непрерывных слу-
чайных величин, нам придется изучить теорему 34.2. С ее по-
мощью мы докажем формулу (34.29) в этом разделе и форму-
лу (34.27), из которой следует (34.28), в п. 35.3, изучив матема-
тическое ожидание функции двух случайных величин.
§ 34. НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕКТОРЫ 217

Теорема 34.2. Свойства плотностей независимых случай-


ных величин.
Пусть ξ и η — случайные величины непрерывного типа. Рав-
носильны следующие три условия:
1) случайные величины ξ и η независимы;
2) fξη (x, y) = fξ (x) · fη (y); (34.30)
3) fξ (x/η = y) = fξ (x), а fη (y/ξ = x) = fη (y), (34.31)
то есть условные плотности распределения совпадают с без-
условными.

Доказательство. Проведем доказательство по схеме:


1) ⇒ 2) ⇒ 3) ⇒ 2) ⇒ 1).
Пусть случайные величины ξ и η независимы, то есть выпол-
няется (34.26). Продифференцируем обе части этого равенства,
используя соотношение (34.2):
∂ 2 Fξη (x, y) ∂ 2 [Fξ (x) · Fη (y)]
fξη (x, y) = = =
∂x∂y ∂x∂y
∂ ∂
= { [Fξ (x) · Fη (y)]}.
∂y ∂x
Вынесем функцию Fη (y), не зависящую от x, за знак частной
производной по x. Получим:
∂ d ∂
fξη (x, y) = [Fη (y) · Fξ (x)] = [Fη (y) · fξ (x)].
∂y dx ∂y
Теперь вынесем за знак частной производной по y функцию fξ (x),
не зависящую от y. Тогда
d
fξη (x, y) = fξ (x) · Fη (y) = fξ (x) · fη (y),
dy
то есть выполняется (34.30).
Пусть имеет место (34.30). Рассмотрим условную плотность
случайной величины ξ при условии, что η приняла значение y и
воспользуемся формулой (34.18):
fξη (x, y) fξ (x) · fη (y)
fξ (x/η = y) = = = fξ (x).
fη (y) fη (y)
218 Глава 3. Случайные векторы

Аналогично доказывается второе равенство в (34.31).


Таким образом, первая часть доказательства завершена. Мы
показали, что для независимости ξ и η необходимо выполнение
как (34.30), так и (34.31).
Докажем теперь, что выполнения хотя бы одного из условий
(34.30) или (34.31) достаточно для того, чтобы случайные вели-
чины ξ и η были независимыми.
Пусть выполняется одно из условий (34.31). Например, пер-
вое. Из определения условной плотности и (34.20) следует, что
fξη (x, y) = fξ (x/η = y) · fη (y) = fξ (x) · fη (y),
то есть имеет место (34.30).
Проинтегрируем равенство (34.30) по области (Dxy ) (см. § 32),
считая все плотности непрерывными и меняя обозначения пере-
менных интегрирования:
x Zx Zy
Fξη (x, y) = fξη (u, v)dudv = du fξ (u)fη (v)dv =
(Dxy ) −∞ −∞
Zx Zy
= fξ (u)du · fη (v)dv = Fξ (x) · Fη (y)
−∞ −∞

по формуле (26.1). Таким образом, (34.26) выполняется и слу-


чайные величины ξ и η являются независимыми.
Теперь мы имеем возможность доказать формулу (34.29) для
непрерывных случайных величин. Рассмотрим с учетом (34.24)
значение условного математического ожидания случайной вели-
чины ξ при условии, что η приняла значение y. По (34.31) полу-
R
+∞ R
+∞
чим: M (ξ/η = y) = xfξ (x/η = y)dx = xfξ (x)dx = M ξ.
−∞ −∞
Оказалось, что случайная величина M (ξ/η) действительно при-
нимает лишь одно значение M ξ при любом значении y случайной
величины η, если случайные величины ξ и η независимы.
Замечание 34.2. Наблюдая значения случайного вектора (ξ, η)
и нанося соответствующие точки на координатную плоскость,
можно получить графическое изображение зависимостей трех
типов между случайными величинами ξ и η (рис. 34.11–34.13).
Если точки располагаются так, как на рис. 34.11, то е́сть ос-
нования предполагать наличие строгой функциональной зависи-
мости между ξ и η. Небольшие отклонения от кривой связаны
§ 34. НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕКТОРЫ 219

со случайными погрешностями в измерениях или при проведе-


нии эксперимента.

Рис. 34.11. Строгая функциональная зависимость

Если точки располагаются как бы в некотором «коридоре»


(рис. 34.12), то зависимость ξ и η более слабая, но, видимо, все-
таки существует.

Рис. 34.12. Слабая зависимость

Если точки располагаются на плоскости без всякой системы


(рис. 34.13), то, скорее всего, случайные величины ξ и η незави-
симы.

Рис. 34.13. Отсутствие зависимости


220 Глава 3. Случайные векторы

Пример 34.6. Вернемся к случайным величинам, рассмотрен-


ным в примерах 34.3–34.5. Попробуем выяснить вопрос об их
независимости.
Частные плотности (34.13) и (34.14), найденные при решении
примера 34.3, оказались четными функциями с ограниченной об-
ластью положительных значений. Следовательно, случайные ве-
личины ξ и η симметричны и у них существуют математические
ожидания: M ξ = 0, M η = 0.
В примере 34.5 мы нашли условные математические ожида-
ния — они оказались тождественно (с вероятностью 1) равны-
ми нулю. Следовательно, наличие равенства M (ξ/η) = M ξ и
M (η/ξ) = M η с вероятностью 1 налицо. Означает ли это незави-
симость случайных величин? Посмотрим на условные и безус-
ловные плотности — формулы (34.22), (34.23), (34.13) и (34.14).
Они, очевидно, не совпадают. Да и соотношение (34.30) не вы-
полнено:
p
4 (r2 − x2 )(r2 − y 2 ) 1
fξ (x) · fη (y) = 6= 2 = fξη (x, y).
π2 r4 πr
Следовательно, случайные величины ξ и η зависимы.
Попутно мы установили, что условие (34.29) не является до-
статочным для независимости случайных величин, а являет-
ся лишь необходимым.
То же самое можно сказать и об условиях (34.27)–(34.28),
что будет показано в § 36.
Пример 34.7. Рассматриваются независимые случайные вели-
чины ξ и η. Случайная величина ξ ⊂ = K(0, 1), то есть распре-
делена по закону Коши с α = 0 и σ = 1. Случайная величина
η ⊂
= R[0, 2], то есть равномерно распределена на отрезке [0, 2].
Требуется найти совместную плотность распределения вероят-
ностей и P {ξ 2 + η 2 ≤ 1}.
Решение задачи начнем с того, что запишем известные плот-
ности распределения:

1
fξ (x) = при x ∈ (−∞, +∞);
π(1 + x2 )

1
при y ∈ [0, 2],
fη (y) = 2
0 при y ∈
/ [0, 2].
§ 34. НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕКТОРЫ 221

Так как ξ и η независимы, воспользуемся формулой (34.30):


fξη (x, y) = fξ (x) · fη (y) =

 1
, если x ∈ (−∞, +∞), y ∈ [0, 2];
= 2π(1 + x2 )
0, если y ∈
/ [0, 2].

Проверьте:
x x 1
fξη (x, y)dxdy = dxdy = 1,
2π(1 + x2 )
R2 (K)

где (K) = (−∞, +∞) × [0, 2].


Мы видим, что аналитическое выражение для совместной
плотности не зависит от y. Тем не менее это функция двух пе-
ременных, и от значения y зависит двумерная область, где эта
плотность отлична от нуля.
Рассмотрим событие {ξ 2 + η 2 ≤ 1}. Оно означает, что
случайная точка (ξ, η) попала в круг (D), изображенный на
рис. 34.14. По формуле (34.6) найдем:

1 y = +?1 –x2

(D) (K)
U

–1 0 1 X
(D)
y = –?1 –x2
–1

Рис. 34.14. К примеру 34.7

x
p = P {ξ 2 + η 2 ≤ 1} = P {(ξ, η) ∈ (D)} = fξη (x, y)dxdy =
(D)
x 1
= dxdy,
2π(1 + x2 )
(D)∩(K)

так как fξη (x, y) = 0 для всех (x, y), не находящихся в полосе K.
222 Глава 3. Случайные векторы

Расставим пределы интегрирования по области (D) ∩ (K),


беря внешнее интегрирование по x:

Z1 Z1−x2 Z1 √
1 1 1 1 − x2
p= dx dy = dx =
2π 1 + x2 2π 1 + x2
−1 0 −1

Z1 √ Zπ/2
1 1 − x2 £ ¤ 1 cos2 tdt
= dx = x = sin t = =
π 1+x 2 π 1 + sin2 t
0 0
Z
+∞ Z
+∞
£ ¤ 1 du 2 du
= tg t = u = = −
π (1 + u2 )(1 + 2u2 ) π 1 + 2u2
0 0
Z
+∞ √ ¯ ¯+∞
1 du 2 √ ¯+∞ 1 ¯
− = arctg 2u¯ − arctg u¯¯ =
¯
π 1 + u2 π 0 π 0
0

2−1
= ≈ 0, 21.
2

При вычислении интеграла пришлось вспомнить и тригоно-


метрическую подстановку Эйлера, и методы вычисления инте-
гралов от функций, рациональных относительно синуса и ко-
синуса, и разложение на простейшие правильной рациональной
дроби, и таблицу интегралов.
Распространим определение независимости на произвольное
количество случайных величин. Рассмотрим n-мерный случай-
ный вектор (ξ1 , ξ2 , . . . , ξn ), то есть систему n ≥ 2 случайных ве-
личин, определенных на одном и том же вероятностном простран-
стве.
В § 11 мы определяли для n случайных событий попарную
независимость и независимость в совокупности, причем из по-
парной независимости не следовала независимость в совокупно-
сти, что показывал пример Бернштейна (пример 11.1). Рассмот-
рим аналогичные понятия для случайных величин.

Определение 34.6. Случайные величины ξ1 , ξ2 , . . . , ξn назы-


ваются попарно независимыми, если любые две из них явля-
ются независимыми, то есть ξi и ξj независимы при ∀i, j = 1, n;
i 6= j.
§ 34. НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕКТОРЫ 223

Случайные величины ξ1 , ξ2 , ..., ξn называются независимыми


в совокупности, если их совместная функция распределения
равна произведению частных функций распределения:

Fξ1 , ξ2 , ..., ξn (x1 , ..., xn ) = Fξ1 (x1 ) · ... · Fξn (xn ). (34.32)

Соотношение (34.32) предполагается выполненным при ∀xk ,


k = 1, n. Положив некоторые xk = +∞, получим аналогичное
равенство для функции распределения любого набора случайных
величин из ξ1 , ..., ξn . Таким образом, из (34.32) следует независи-
мость в совокупности событий {ξk < xk }, k = 1, n, а попарная
независимость случайных величин означает попарную независи-
мость этих событий.
Следовательно, так же как и для событий, для случайных ве-
личин из независимости в совокупности вытекает их попарная
независимость, а обратное неверно.
Вопросы, связанные с многомерными условными распреде-
лениями и независимостью n случайных величин освещаются в
книгах [3, 4, 5, 8]. О независимости бесконечного числа случай-
ных величин можно прочитать в [1, 7].
Пример 34.8. Найти плотность распределения случайного век-
тора (ξ, η), если дана совместная функция распределения:
Fξη (x, y) = (1 − e−ax )(1 − e−by )
при x ≥ 0, y ≥ 0 и положительных параметрах a и b. Что можно
сказать о независимости ξ и η?
Найдем плотность распределения по формуле (34.2):
∂ 2 F (x, y)
fξη (x, y) = = ae−ax · be−by , x ≥ 0, y ≥ 0.
∂x∂y
Мы видим, что как функция, так и плотность распределения
представляют собой произведения двух функций, первая из ко-
торых зависит только от x, а вторая — только от y. Являются ли
эти функции частными функциями и плотностями распределения
соответственно случайных величин ξ и η? Если да, то ξ и η неза-
висимы. Проверим это для функций распределения. По форму-
ле (34.9) найдем
Fξ (x) = lim Fξη (x, y) = lim (1 − e−ax )(1 − e−by ) =
y→+∞ y→+∞

= (1 − e−ax ) lim (1 − e−by ) = 1 − e−ax .


y→+∞
224 Глава 3. Случайные векторы

Аналогично, Fη (y) = 1−e−by . Следовательно, выполняется усло-


вие (34.26), и случайные величины ξ и η независимы.
Найдите самостоятельно одномерные плотности fξ (x) и fη (y)
по формулам (34.11) и убедитесь в том, что выполнено условие
(34.30).
Попробуйте самостоятельно доказать общее утверждение.

Утверждение 34.1. Если совместная функция распределения


случайных величин ξ и η представима в виде произведения двух
одномерных функций распределения:

Fξη (x, y) = F1 (x) · F2 (y)

или совместная плотность распределения представима в ви-


де произведения двух одномерных плотностей:

fξη (x, y) = f1 (x) · f2 (y),

то случайные величины ξ и η независимы, причем F1 (x) =


Fξ (x), F2 (y) = Fη (y), а f1 (x) = fξ (x) и f2 (y) = fη (y).

На практике независимость случайных величин либо выво-


дится из рассмотренных выше соотношений, либо вытекает из
условий случайного эксперимента, и тогда все рассмотренные в
данном разделе свойства независимых случайных величин могут
быть использованы для решения задач.

§ 35. ФУНКЦИИ ДВУХ НЕПРЕРЫВНЫХ СЛУЧАЙНЫХ


ВЕЛИЧИН
35.1. АЛГОРИТМ ПОИСКА РАСПРЕДЕЛЕНИЯ ФУНКЦИИ
ДВУХ НЕПРЕРЫВНЫХ СЛУЧАЙНЫХ ВЕЛИЧИН
Рассмотрим две непрерывные случайные величины ξ и η,
заданные на одном и том же вероятностном пространстве
{Ω, F, P }. Пусть нам известна совместная плотность распреде-
ления этих случайных величин: fξη (x, y).
Если z = g(x, y) — кусочно-непрерывная числовая функ-
ция двух числовых переменных, то ζ = g(ξ, η) — случайная ве-
личина, определенная на том же вероятностном пространстве.
Она является сложной функцией элементарных исходов ω ∈ Ω:
ζ(ω) = g(ξ(ω), η(ω)).
§ 35. ФУНКЦИИ ДВУХ НЕПРЕРЫВНЫХ С.В. 225

Пусть нужно найти распределение случайной величины ζ.


Начнем с функции распределения:
Fζ (z) = P {ζ < z} = P {g(ξ, η) < z}. (35.1)
Мы знаем, что графиком функции двух переменных является по-
верхность, у которой могут быть «холмы» и «впадины». В общем
виде ее нарисовать сложно. Поэтому мы изобразим на рис. 35.1
абстрактную картинку, где поверхность z = g(x, y) построена
как бы в разрезе некоторой плоскостью, параллельной плоско-
сти Y OZ, а во всем остальном рисунок трехмерный.
Z z = g(x, y)

”вода“

g (x, h)

0
(1) Y
(Dz ) (2) (3)
(Dz ) (Dz )
X (x, h)

Рис. 35.1. Поверхность в разрезе

Представьте себе, что прошел сильный дождь, и на на-


шу поверхность налилась вода до уровня z. При этом поверх-
ность z = g(x, y) пересеклась плоскостью — «поверхностью
воды». Те «впадины», которые оказались под «водой», соответ-
ствуют значениям функции g(x, y) < z. Эти значения принима-
ются функцией g(x, y), когда точки (x, y) находятся в областях
(1) (2) (3)
(Dz ), (Dz ), (Dz ) и т. д. на плоскости XOY .
Поскольку зависимость числовых координат z = g(x, y) та
же, что и зависимость значений случайных величин ζ = g(ξ, η),
событие {g(ξ, η) < z} будет выполняться тогда и только тогда,
когда случайная точка (ξ, η) попадет в какую-либо из областей
(k) S (k)
(Dz ), k = 1, 2, . . . , то есть в их объединение: (Dz ). Следо-
k
вательно, мы можем продолжить равенство (35.1) и записать:
[ X
Fζ (z) = P {(ξ, η) ∈ (Dz(k) )} = P {(ξ, η) ∈ (Dz(k) )} (35.2)
k k
226 Глава 3. Случайные векторы

(k)
по аксиоме аддитивности, так как области (Dz ) не пересекают-
(k)
ся и, следовательно, события {(ξ, η) ∈ (Dz )} несовместны.
Каждая из вероятностей (35.2) может быть найдена по фор-
муле (34.6):
X x
Fζ (z) = fξη (x, y)dxdy, (35.3)
k (D (k) )
z

откуда по (26.2) можно получить плотность распределения слу-


чайной величины ζ:
d d X x
fζ (z) = Fζ (z) = fξη (x, y)dxdy. (35.4)
dz dz (k)k (D )
z

Таковы общие идеи поиска распределения функции двух слу-


чайных величин. На практике обычно удается обойтись без по-
строения графика поверхности z = g(x, y) в трехмерном про-
(k)
странстве. Достаточно бывает установить области (Dz ) анали-
тически.
Пример 35.1. Пусть ζ = ξ +iη — комплексное число со случай-
ными вещественной ξ и мнимой η частями, для которых известна
совместная плотность распределения fξη (x, y). Требуется найти
распределения главного значения аргумента arg ζ и модуля |ζ|
этого комплексного числа.
η π π
Рассмотрим частный случай, когда arg ζ = arctg ∈ (− , )
ξ 2 2
Y

h z= x + ih

|z|
arg z
0 X

Рис. 35.2. К примеру 35.1

π π
(рис. 35.2). Пусть z ∈ (− , ). Тогда
2 2
η
Farg ζ (z) = P {arg ζ < z} = P {arctg < z} =
ξ
η (35.5)
= P{ < tgz} = P {η < ξ · tg z}.
ξ
§ 35. ФУНКЦИИ ДВУХ НЕПРЕРЫВНЫХ С.В. 227

В преобразованиях (35.5) мы использовали монотонное возрас-


π π
тание функции arctg x. Отметим, что при z ∈/ (− , ) значение
2 2
η π
вероятности P {arctg < z} будет либо 0 (при z ≤ − ), либо 1
ξ 2
π π π
(при z ≥ ). Поскольку z ∈ (− , ) — любое, но фиксирован-
2 2 2
ное число, tg z в (35.5) — тоже фиксированное число. Для того
чтобы выполнялось событие {η < ξ tg z}, случайная точка (ξ, η)
должна попасть в область (Dz ) = {(x, y) : y < x tg z}. Изоб-
разим эту область на рис. 35.3 (например, для tg z > 0). Кстати,

Y
y = x tgz

(Dz):y < x tgz


h
az
0
x X

Рис. 35.3. К примеру 35.1

угловой коэффициент прямой y = x tg z равен тангенсу угла αz :


π π
tg z = tg αz при z ∈ (− , ). Следовательно, αz = z. Найдем
2 2
функцию распределения arg ζ по (35.5) и (35.3):

x Z
+∞ xZtg z

Farg ζ (z) = fξη (x, y)dxdy = dx fξη (x, y)dy.


(Dz ) −∞ −∞

Осталось подставить конкретную плотность fξη (x, y) и вычис-


лить интеграл, который должен зависеть только от z и не зави-
сеть от x и y.
Рассмотрим теперь вторую случайную величину:
p
|ζ| = ξ 2 + η 2 .
Рассуждая аналогично предыдущему случаю, получим при z > 0:
p
F|ζ| (z) = P {|ζ| < z} = P { ξ 2 + η 2 < z} = P {ξ 2 + η 2 < z 2 } =
x
= P {(ξ, η) ∈ (Qz )} = fξη (x, y)dxdy,
(Qz )
228 Глава 3. Случайные векторы

где область (Qz ) представляет собой открытый круг радиуса z с


центром в начале координат, изображенной на рис. 35.4:
(Qz ) = {(x, y) : x2 + y 2 < z 2 }, 0 < z < +∞.

Y
z x 2 + y2 =z 2

–z 0 x z
X
(Qz)

–z x 2 + y2 < z 2

Рис. 35.4. К примеру 35.1

В зависимости от вида функции fξη (x, y) пределы интегрирова-


ния по области (Qz ) можно расставить в декартовой или поляр-
ной системах координат. В случае ограниченности совместного
распределения ξ и η интегрирование придется проводить по пе-
ресечению областей (Dz ) и (Qz ) соответственно с областью по-
ложительных значений (носителем) совместной плотности.
Пример 35.2. Дана совместная плотность распределения слу-
чайных величин ξ и η:
½ −2(x+y)
4e при x ≥ 0, y ≥ 0;
fξη (x, y) =
0 при x < 0 или y < 0.

Найти функцию распределения и плотность случайной величины


ζ = min(ξ, η). Найти P {ζ < 1} и P {ζ ∈ (2, 3)}.
С подобной задачей мы уже встречались, изучая дискретные
случайные векторы (пример 33.1), и решали ее двумя способами:
используя матрицу распределения и по формуле полной вероят-
ности. Вам было предложено самим отыскать третий способ.
Данную задачу тоже можно решать тремя способами.
Первый способ — отыскать область (Dz ), в которую долж-
на попадать случайная точка (ξ, η), чтобы выполнялось событие
{min(ξ, η) < z}, так как
Fζ (z) = P {ζ < z} = P {min(ξ, η) < z}. (35.6)
§ 35. ФУНКЦИИ ДВУХ НЕПРЕРЫВНЫХ С.В. 229

Попробуйте отыскать ее сами.


Второй способ — по формуле полной вероятности, вводя ги-
потезы H1 = {ξ < z}, H2 = {ξ ≥ z}. Этот способ красив, но для
данной задачи самый длинный.
Наконец, третий способ — заметить, что совместную плот-
ность можно представить в виде произведения двух одномерных
плотностей:

fξη (x, y) = 2e−2x · 2e−2y при x ≥ 0, y ≥ 0.

Проверьте:
Z
+∞ Z
+∞
−2x
2e dx = 2e−2y dy = 1.
0 0

Следовательно, согласно утверждению 34.1 случайные величи-


ны ξ и η независимы. Поразмышляем над вероятностью (35.6).
При z ≤ 0 функция распределения Fζ (z) ≡ 0, так как случайные
величины ξ и η с вероятностью 1 принимают лишь неотрицатель-
ные значения, что видно из условия задачи. Рассмотрим z > 0:

Fζ (z) = P {min(ξ, η) < z} =

= P {хотя бы одна из случайных величин ξ или η < z} =


= 1 − P {обе случайные величины ≥ z} =
= 1 − P {ξ ≥ z, η ≥ z} = 1 − P {ξ ≥ z} · P {η ≥ z} =
Z
+∞ Z
+∞

=1− fξ (x)dx · fη (y)dy =


z z

Z
+∞ Z
+∞
−2x
=1−2 e dx · 2 e−2y dy =
z z

Z
+∞

= 1 − (2 e−2x dx)2 = 1 − e−4z .


z

Проверим: функция
½
0, если z ≤ 0,
Fζ (z) =
1 − e−4z , если z > 0
230 Глава 3. Случайные векторы

удовлетворяет всем свойствам одномерной функции распределе-


ния. Вы не узнали, какое получилось распределение? Тогда най-
дем плотность:
½
0 0, если z ≤ 0,
fζ (z) = Fζ (z) = −4z
4e , если z > 0.

Получилось экспоненциальное распределение с α = 4. Вспом-


ните, чему равны M ζ и Dζ.
Нам осталось найти две вероятности:

P {ζ < 1} = Fζ (1) = 1 − e−4 ≈ 0, 98;


P {ζ ∈ (2, 3)} = Fζ (3) − Fζ (2) = e−8 − e−12 ≈ 0, 000329.
Мы видим, какое облегчение в решении задачи принесла неза-
висимость случайных величин. Если бы ее не оказалось, при-
шлось бы решать задачу одним из первых двух способов, что при
отсутствии независимости было бы тем более громоздко. А вот
переход к противоположному (дополнительному) событию был
бы целесообразен и при первом способе решения задачи.
Мы рассматривали числовые функции двух случайных вели-
чин. Вопросы, связанные с векторными функциями нескольких
случайных величин, можно найти в [1, 2].

35.2. РАСПРЕДЕЛЕНИЕ СУММЫ СЛУЧАЙНЫХ ВЕЛИЧИН.


КОМПОЗИЦИЯ ЗАКОНОВ РАСПРЕДЕЛЕНИЯ
Рассмотрим важный для практики частный случай — рас-
пределение суммы случайных величин ξ и η, для которых извест-
на совместная плотность распределения fξη (x, y).

Если нас интересует сумма ξ + η, то следует взять функцию
g(x, y) = x + y. Действуя так, как указано в § 35.1, построим
поверхность z = x + y. Она представляет собой плоскость, пе-
ресекающую плоскость z = 0 по прямой y = −x (рис. 35.5).

Если провести при фиксированном z плоскость, параллель-
ную плоскости XOY (фиксировать уровень «воды» на высоте z),
то плоскость z = x + y пересечется по прямой, которая спроеци-
руется на плоскость XOY в прямую y = z −x. Остается выбрать
область (Dz ) с той стороны от прямой y = z − x, где поверхность
z = x + y находится ниже уровня z.
Эти рассуждения могут показаться вам слишком сложны-
ми. Они приведены для того, чтобы наглядно проиллюстрировать
§ 35. ФУНКЦИИ ДВУХ НЕПРЕРЫВНЫХ С.В. 231

Z
z

z =x+y

y = –x

z Y
0
(Dz)
y = z –x

z
X

Рис. 35.5. К вопросу о поиске распределения суммы случайных величин

метод, изложенный в п. 35.1. Решение задачи можно понять и без


трехмерных построений.
Рассмотрим функцию распределения случайной величи-
ны ζ = ξ + η:

Fζ (z) = P {ζ < z} = P {ξ + η < z} = P {η < z − ξ} =


x
= P {(ξ, η) ∈ (Dz )} = fξη (x, y)dxdy,
(Dz )

где (Dz ) = {(x, y) : y < z − x} — область, изображенная на


рис. 35.5 и 35.6 при произвольном, но фиксированном z.

Y
z

y = z –x
h
z
x 0 X
(Dz):y < z –x

Рис. 35.6. К вопросу о поиске распределения суммы случайных величин


232 Глава 3. Случайные векторы

Расставим пределы интегрирования по области (Dz ):


Z
+∞ Z
z−x

Fζ (z) = dx fξη (x, y)dy.


−∞ −∞

Найдем плотность распределения случайной величины ζ, исполь-


зуя формулу Лейбница для дифференцирования интеграла, за-
висящего от параметра6 и теорему Барроу о дифференцировании
интеграла с переменным верхним пределом:
Z
+∞ Z
z−x
d ∂
fζ (z) = Fζ (z) = dx · fξη (x, y)dy =
dz ∂z
−∞ −∞

Z
+∞

= fξη (x, z − x)dx.


−∞

Если взять внешнее интегрирование по y, то получится анало-


гичная формула. Итак,

Z
+∞ Z
+∞

fξ+η (z) = fξη (x, z − x)dx = fξη (z − y, y)dy . (35.7)


−∞ −∞

Если ξ и η — независимые случайные величины, то


fξη (x, y) = fξ (x) · fη (y).
Тогда формула (35.7) принимает вид:

Z
+∞ Z
+∞

fξ + η (z) = fξ (x)fη (z − x)dx = fη (y)fξ (z − y)dy . (35.8)


| {z }
незав. −∞ −∞

Интегралы в формуле (35.8) называют интегралами сверт-


ки функций fξ (x) и fη (y).
6 Если подынтегральные функции непрерывны и интегралы сходятся, то
Zb Zb
d ∂
f (x, α)dx = f (x, α)dx.
dα ∂α
a a
§ 35. ФУНКЦИИ ДВУХ НЕПРЕРЫВНЫХ С.В. 233

Определение 35.1. Закон распределения суммы двух и более


независимых случайных величин называют композицией за-
конов распределения слагаемых.

Таким образом, композиция ищется с помощью свертки.

Утверждение 35.1. Композицией двух и более нормальных


законов является нормальный закон.

Иначе говоря, если случайные величины ξk ⊂ = N (ak , σk ),


k = 1, n, являются независимыми, то случайная величина
v
µX
n u n ¶
uX
ξ1 + ... + ξn ⊂
=N ak , t σk2 .
k=1 k=1

То, что математическое ожидание и дисперсия суммы случай-


ных величин равны соответственно сумме математических ожи-
даний и дисперсий слагаемых, вытекает из свойств математиче-
ского ожидания и дисперсии с учетом независимости случайных
величин. Однако то, что распределение получается именно нор-
мальным, нужно доказать.
Для простоты рассмотрим две независимые одинаково рас-
пределенные случайные величины ξ ⊂ = N (0, 1) и η ⊂
= N (0, 1) и
найдем их композицию по формуле (35.8):

Z
+∞
n x2 o n (z − x)2 o
1
fξ+η (z) = √ exp − · exp − dx =
( 2π)2 2 2
−∞

Z
+∞
n x2
1 z2 2xz x2 o
= exp − − + − dx =
2π 2 2 2 2
−∞

n z2 o Z
+∞
1
= exp − exp{−x2 + xz}dx =
2π 2
−∞

n z2 o Z
+∞
n
1 z z2 o
= exp − exp −(x − )2 + dx =
2π 2 2 4
−∞
234 Глава 3. Случайные векторы

n z2 o Z
+∞
n
1 z o z
= exp − exp −(x − )2 d(x − ) =
2π 4 2 2
−∞

1 n z2 o Z
+∞
n o
= exp − exp −t2 dt =
2π 4
−∞

1 n z2 o √ 1 n z2 o
= exp − · π = √ √ exp − √ .
2π 4 2 · 2π 2( 2)2
В выкладках было использовано значение интеграла Эйлера–
Пуассона (30.7). Сравнивая последнее выражение с плотностью

= N (0, 2).
нормального закона (30.6), мы видим, что ξ + η ⊂
Пример 35.3. Даны две независимые случайные величины
ξ ⊂
= R[α, β] и η ⊂
= N (a, σ). Найти распределение случайной ве-
личины ζ = ξ + η, то есть композицию равномерного и нормаль-
ного законов.
Решение, как обычно, начнем с того, что запишем то, что нам
известно: плотности fξ (x) и fη (y) и первую из формул (35.8):
(
1
при x ∈ [α, β],
fξ (x) = β−α
0 при x ∈/ [α, β];

1 n (y − a)2 o
fη (y) = √ exp − при ∀y ∈ R,
σ 2π 2σ 2
Z
+∞

fξ+η (z) = fξ (x)fη (z − x)dx =


−∞

Zβ n (z − x − a)2 o
1 1
= · √ exp − dx =
β − α σ 2π 2σ 2
α
Zβ n (x − (z − a))2 o
1 1
= √ · exp − dx.
β−α σ 2π 2σ 2
α

Подынтегральная функция в последнем интеграле представляет


собой плотность нормального закона N (z − a, σ). Поэтому для
§ 35. ФУНКЦИИ ДВУХ НЕПРЕРЫВНЫХ С.В. 235

его вычисления можно использовать формулы (30.17):


· µ ¶ µ ¶¸
1 β − (z − a) α − (z − a)
fξ+η (z) = Φ0 − Φ0 .
β−α σ σ

Используя таблицы функции Лапласа, можно вычислить значе-


ние плотности fξ+η (z) при каждом конкретном z.
Читателю предлагается записать для вычисления свертки
вторую из формул (35.8) и убедиться в том, что получится на-
много более сложное решение. Это говорит о том, что каждый
раз при поиске композиции законов следует «прикинуть», какую
из сверток лучше записать, чтобы вычисления были проще.
Хорошие примеры по данному вопросу вы можете найти так-
же в книгах [5, 6].

35.3. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ ФУНКЦИИ ДВУХ


СЛУЧАЙНЫХ АРГУМЕНТОВ. МАТЕМАТИЧЕСКОЕ
ОЖИДАНИЕ СУММЫ И ПРОИЗВЕДЕНИЯ
НЕПРЕРЫВНЫХ СЛУЧАЙНЫХ ВЕЛИЧИН
Как и прежде, рассматриваем две непрерывные случайные
величины ξ и η, заданные на одном и том же вероятностном
пространстве. Пусть нам известна их совместная плотность рас-
пределения fξη (x, y). Попробуем выразить математическое ожи-
дание функции одной случайной величины ξ через интеграл от
двумерной плотности.
По формулам (28.2) и (34.11) получим:

Z
+∞ Z
+∞ Z
+∞

M g(ξ) = g(x)fξ (x)dx = g(x) fξη (x, y)dydx =


−∞ −∞ −∞
Z
+∞ Z
+∞

= g(x)fξη (x, y)dxdy.


−∞ −∞
(35.9)

Аналогично можно получить следующую формулу:

Z
+∞ Z
+∞

M g(η) = g(y)fξη (x, y)dxdy. (35.10)


−∞ −∞
236 Глава 3. Случайные векторы

Таким образом, мы имеем возможность выбора оптимально-


го способа вычисления математических ожиданий, дисперсий и
других моментов — либо через одномерные плотности, либо че-
рез двумерные.
Формулы (35.9) и (35.10) являются частными случаями более
общей формулы из теоремы, которую мы сейчас сформулируем,
но оставим без доказательства.
Теорема 35.1. Если g(ξ, η) — случайная величина, а
fξη (x, y) — совместная плотность распределения случайных
величин ξ и η, то

Z
+∞ Z
+∞

M g(ξ, η) = g(x, y)fξη (x, y)dxdy . (35.11)


−∞ −∞

Формула (35.11) позволяет доказать для непрерывных слу-


чайных величин те свойства математического ожидания, которые
были оставлены без доказательства.
Линейность математического ожидания:

M (c1 ξ + c2 η) = c1 M ξ + c2 M η .

Доказательство. Запишем по (35.11)

Z
+∞ Z
+∞

M (c1 ξ + c2 η) = (c1 x + c2 y)fξη (x, y)dxdy =


−∞ −∞
Z
+∞ Z
+∞ Z
+∞ Z
+∞

= c1 xdx fξη (x, y)dy + c2 ydy fξη (x, y)dx =


−∞ −∞ −∞ −∞
Z
+∞ Z
+∞

= c1 xfξ (x)dx + c2 yfη (y)dy = c1 M ξ + c2 M η.


−∞ −∞
§ 35. ФУНКЦИИ ДВУХ НЕПРЕРЫВНЫХ С.В. 237

Математическое ожидание произведения независимых слу-


чайных величин:

M (ξη) = M ξ · M η.

Доказательство. Рассмотрим

Z
+∞ Z
+∞

M (ξη) = xyfξη (x, y)dxdy =


−∞ −∞

Z
+∞ Z
+∞

= xyfξ (x)fη (y)dxdy =


−∞ −∞

Z
+∞ Z
+∞

= xfξ (x)dx · yfη (y)dy = M ξ · M η.


−∞ −∞


Пользуясь только что доказанным свойством, независимо-
стью функций от независимых случайных величин и свойством
дисперсии Dξ = M ξ 2 − (M ξ)2 , мы можем доказать еще одну
интересную формулу для дисперсии произведения независимых
случайных величин:

D(ξη) = Dξ · Dη + Dξ · (M η)2 + Dη · (M ξ)2 (35.12)

oo o o o o
(в частности, D(ξ η ) = D ξ ·D η , где ξ и η — независимые цен-
трированные случайные величины (см. § 23).
Рассмотрим

D(ξη) = M (ξη)2 − (M ξη)2 = M ξ 2 · M η 2 − (M ξ)2 (M η)2 =


= (Dξ + (M ξ)2 )(Dη + (M η)2 ) − (M ξ)2 (M η)2 =
= DξDη + Dξ(M η)2 + Dη(M ξ)2 .

Пример 35.4. Рассмотрим еще раз случайные величины из при-


мера 34.3. Нам известна их совместная плотность распределе-
ния (34.12) и частные плотности (34.13), (34.14).
238 Глава 3. Случайные векторы

Мы уже отмечали в примере 34.6, что M ξ = M η = 0


как математические ожидания симметричных случайных вели-
чин с ограниченными распределениями. Найдем дисперсии Dξ =
= M (ξ − M ξ)2 = Dξ 2 и Dη = M η 2 . Для поиска M ξ 2 у нас есть
две формулы:
Z
+∞ Z
+∞ Z +∞
2 2
Mξ = x fξ (x)dx = x2 fξη (x, y)dxdy.
−∞ −∞ −∞

На первый взгляд вторая сложнее. Подставим выражения для


плотностей и посмотрим, так ли это. По первой формуле
Zr √
2 r2 − x2
M ξ = x2 ·
2
dx.
πr2
−r

Этот интеграл требует для вычисления тригонометрическую


подстановку Эйлера x = r sin t и формулы Валлиса. По второй
формуле
x 1 1 x 2
M ξ2 = x2 2 dxdy = 2 x dxdy.
πr πr
(Dr ) (Dr )

Заглянув в рис. 34.9, расставим пределы интегрирования по (Dr )


в полярных координатах:
Zπ Zr
1
2
Mξ = 2 dϕ ρ2 cos2 ϕ · ρdρ =
πr
−π 0
Zπ ¯ Zπ/2
4 ¯r
1 2 ρ ¯ r4
= cos ϕdϕ · ¯ = ·4 cos2 ϕdϕ =
πr2 4 0 4πr2
−π 0
r2 1!! π r2
= · · = .
π 2!! 2 4
При вычислении мы использовали геометрический смысл опре-
деленного интеграла от неотрицательной функции:
Zπ Zπ/2
2
cos ϕdϕ = 4 cos2 ϕdϕ
−π 0

и формулы Валлиса.
§ 36. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНОГО ВЕКТОРА 239

Аналогично можно найти M η 2 , а можно использовать то, что


все наши формулы совершенно симметричны относительно ξ и
r2 r2
η : M η 2 = . Следовательно, Dξ = Dη = .
4 4
В данном примере оба метода вычисления интеграла оказы-
ваются приблизительно равными по сложности: кому-то легче
вспомнить тригонометрическую подстановку Эйлера, кому-то —
расставить пределы в двойном интеграле. Однако бывают зада-
чи, в которых один из методов приводит к неберущемуся инте-
гралу, а другой — к простейшему.
Поэтому, как уже неоднократно отмечалось, при решении
каждой задачи нужно постараться выбрать оптимальный метод
ее решения.

§ 36. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНОГО


ВЕКТОРА

36.1. СМЕШАННЫЕ МОМЕНТЫ СИСТЕМЫ НЕПРЕРЫВНЫХ


СЛУЧАЙНЫХ ВЕЛИЧИН

Пусть, как и ранее, непрерывные случайные величины ξ и η


определены на одном и том же вероятностном пространстве и
имеют плотность совместного распределения fξη (x, y).
Определения смешанных моментов через математические
ожидания для непрерывных случайных величин совпадают с
определениями для дискретных. Формулы же для их вычисле-
ния — разные. В рамках следующего определения сразу запи-
шем формулы для вычисления моментов, которые основываются
на формуле (35.11).
Определение 36.1. Начальным смешанным моментом по-
рядка k + s системы случайных величин (ξ, η) называется
число
Z
+∞ Z
+∞
def k s
νk,s (ξ, η) = M (ξ η ) = xk y s fξη (x, y)dxdy, (36.1)
−∞ −∞
240 Глава 3. Случайные векторы

а центральным смешанным моментом — число


· ¸
def
µk,s (ξ, η) = M (ξ − M ξ)k (η − M η)s =

Z
+∞ Z
+∞ (36.2)
= (x − M ξ)k (y − M η)s fξη (x, y)dxdy
−∞ −∞

при условии, что все интегралы абсолютно сходятся.

Как и для дискретных случайных величин (см. п. 33.6), из сме-


шанных моментов можно получить чистые (в частности, M ξ, M η,
Dξ, Dη), полагая k или s равными нулю. Моменты нулевого по-
рядка:
ν0,0 = µ0,0 = 1;
моменты первого порядка:
ν1,0 = M ξ, ν0,1 = M η, µ1,0 = µ0,1 = 0;

моменты второго порядка:


ν2,0 = M ξ 2 , ν0,2 = M η 2 , ν11 = M (ξη);
µ2,0 = Dξ, µ0,2 = Dη;
µ11 = Kξη = M (ξ − M ξ)(η − M η).

здесь µ11 = Kξη — корреляционный момент (см. формулы (33.19),


(33.20).

Теорема 36.1. Свойства смешанных моментов.


Для независимых случайных величин ξ и η:
1) νk,s (ξ, η) = νk (ξ) · νs (η). (36.3)
2) µk,s (ξ, η) = µk (ξ) · µs (η). (36.4)
3) Для произвольных случайных величин ξ и η:

D(aξ + bη) = a2 Dξ + b2 Dη + 2abKξη . (36.5)

Эти свойства справедливы для случайных величин любого ти-


па. Доказательства свойств 1 и 2 в дискретном случае основаны
на соотношении (33.2) для вероятностей: pij = pi qj . Одно из них
§ 36. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНОГО ВЕКТОРА 241

(при k = s = 1) мы проводили в § 20: M (ξη) = M ξM η. Анало-


гично можно доказать остальные.
Сейчас мы докажем формулу (36.3) для непрерывных слу-
чайных величин и формулу (36.5) для любых. Формулу же (36.4)
для непрерывного случая читателю предлагается доказать само-
стоятельно.
Доказательство. Рассмотрим начальный смешанный момент
порядка k + s и воспользуемся свойством двумерной плотности
независимых случайных величин:
Z
+∞ Z
+∞

νk,s (ξ, η) = xk y s fξη (x, y)dxdy =


−∞ −∞
Z
+∞ Z
+∞
k
= x fξ (x)dx · y s fη (y)dy = νk (ξ) · νs (η).
−∞ −∞

Тот же результат можно получить, ссылаясь на формулу
(34.27) и свойство независимости функций g(ξ) = ξ k и h(η) = η s
независимых случайных величин ξ и η. Однако это свойство не
было доказано нами в общем случае.
Рассмотрим дисперсию алгебраической суммы двух случай-
ных величин. Будем пользоваться только свойствами математи-
ческого ожидания, общими для всех типов случайных величин:
D(aξ + bη) = M [aξ + bη − M (aξ + bη)]2 =
= M [a(ξ − M ξ) + b(η − M η)]2 =
= M [a (ξ − M ξ)2 + b2 (η − M η)2 + 2ab(ξ − M ξ)(η − M η)] =
2

= a2 Dξ + b2 Dη + 2abKξη .

Замечание 36.1. Формулу (36.5) можно распространить на лю-


бое конечное число слагаемых:
n
X n
X n−1
X n
X
D( ak ξk ) = a2k Dξk + 2 ai aj kij , (36.6)
k=1 k=1 i=1 j=i+1
где kij = Kξi ξj для ∀i, j = 1, n. В частности,
D(aξ + bη + cζ) = a2 Dξ + b2 Dη +
(36.7)
+ c2 Dζ + 2abKξη + 2acKξζ + 2bcKηζ .
242 Глава 3. Случайные векторы

Из приведенных формул следует, что дисперсия суммы слу-


чайных величин равна сумме дисперсий не только для по-
парно независимых случайных величин, но даже для попар-
но некоррелированных — случайных величин, у которых все
корреляционные моменты равны нулю. Это более слабое тре-
бование, чем независимость (см. п. 36.2).
Пример 36.1. Вернемся вновь к случайным величинам, рассмот-
ренным в примере 34.3. Вспомним их совместную плотность рас-
пределения:

 1
при (x, y) ∈ (Dr ),
fξη (x, y) = πr2
0 при (x, y) ∈
/ (D ), r

2 2 2
где (Dr ) = {(x, y) : x + y ≤ r } — круг радиуса r с центром в
начале координат (см. рис. 34.9).
Для этих случайных величин мы уже нашли частные и услов-
ные плотности распределения, безусловные и условные матема-
тические ожидания, дисперсии, причем оказалось, что
M ξ = M η = 0,
2
Dξ = Dη = r4 .

В примере 34.6 было показано, что ξ и η — зависимые случайные


величины.
Вычислим их корреляционный момент:
Kξη = M (ξ − M ξ)(η − M η) =
Z
+∞Z+∞

= M ξη = xyfξη (x, y)dxdy =


−∞−∞

x Zr rZ2 −x2
1 1
= xy · dxdy = 2 xdx ydy = 0,
πr2 πr √
(Dr ) −r − r 2 −x2

так как внутренний интеграл — это интеграл от нечетной функ-


ции по симметричному промежутку. Обратите внимание на то,
что для поиска чистых моментов (математических ожиданий и
дисперсий) у нас был выбор из двух формул (пример 35.4),
а для поиска смешанного момента только одна возможная фор-
мула.
§ 36. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНОГО ВЕКТОРА 243

Продолжим работу со случайными величинами ξ и η, чтобы


осознать, какие возможности дает нам знание свойств моментов
(в частности, математического ожидания и дисперсии).
Рассмотрим случайную величину ζ = 3ξ − η + 4 — линей-
ную функцию двух случайных величин. Найдем ее математиче-
ское ожидание и дисперсию, не используя двойных интегралов
x
Mζ = (3x − y + 4)fξη (x, y)dxdy
R2

и x
Dζ = [(3x − y + 4) − M ζ]2 fξη (x, y)dxdy,
R2

а используя только свойства моментов и известные числовые ха-


рактеристики для ξ и η. Получим:

M ζ = M (3ξ − η + 4) = 3M ξ − M η + 4 = 4;

Dζ = D(3ξ − η + 4) = D(3ξ − η) =
= 32 Dξ + (−1)2 Dη + 2 · 3 · (−1)Kξη =
r2 r2 5
=9· +1· + 0 = r2 .
4 4 2
Если бы ζ оказалась нелинейной функцией, то без двойных
интегралов нам было бы не обойтись. Разве что второй началь-
ный момент можно было бы найти, зная математическое ожида-
ние и дисперсию: M ξ 2 = Dξ + (M ξ)2 .
Краткие выводы. При вычислении числовых характеристик
случайных величин как в дискретном, так и в непрерывном слу-
чае необходимо выбирать оптимальный метод.
Для поиска чистых моментов можно использовать:
• одномерные распределения;
• двумерные распределения;
• свойства математического ожидания и дисперсии.
Для поиска смешанных моментов:
• двумерные распределения;
• свойства смешанных моментов независимых случайных ве-
личин.
244 Глава 3. Случайные векторы

Пример 36.2. Дан случайный вектор (ξ, η), где ξ ⊂ = Э(2),


η ⊂= R[3, 5] — независимые случайные величины. Найти сме-
шанный момент ν1,2 (ξ, η).
Можно было бы решать эту задачу длинным способом: най-
ти совместную плотность распределения и вычислить интеграл,
но лучше воспользоваться независимостью случайных величин
1
и известными числовыми характеристиками: M ξ = , M η = 4,
2
1
Dη = . Получим:
3
ν1,2 (ξ, η) = ν1 (ξ) · ν2 (η) = M ξ · M η 2 =
1 1 49
= M ξ · (Dη + (M η)2 ) = ( + 42 ) = .
2 3 6

36.2. СВОЙСТВА КОРРЕЛЯЦИОННОГО МОМЕНТА.


НЕКОРРЕЛИРОВАННОСТЬ СЛУЧАЙНЫХ ВЕЛИЧИН
Пусть ξ и η — случайные величины произвольного, но одно-
го и того же типа, определенные на общем вероятностном про-
странстве.
В п. 33.6 мы впервые встретились с корреляционным мо-
ментом — центральным смешанным моментом второго порядка
µ11 , который был обозначен за Kξη :

Kξη = M (ξ − M ξ)(η − M η) . (36.8)

Иногда корреляционный момент называют ковариацией и обо-


значают cov(ξ, η). Очевидно, его можно записать по-другому:
oo o o
Kξη = M ξ η , где ξ и η — центрированные случайные величи-
ны (см. § 23).

Теорема 36.2. Свойства корреляционного момента.


Имеют место следующие утверждения:
1) Kξξ = Dξ; (36.9)
2) Kξη = M (ξη) − M ξ · M η; (36.10)
3) Kaξ+b,cη+d = acKξη ; (36.11)
4) если ξ и η независимы, то Kξη = 0;
§ 36. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНОГО ВЕКТОРА 245

5) Kξη = Kηξ (симметрия);


¯ ¯
6) ¯Kξη ¯ ≤ σξ ση .

Доказательство. Свойства 1 и 5 очевидны. Докажем свойство


2, пользуясь линейностью математического ожидания:

Kξη = M (ξ − M ξ)(η − M η) =

= M (ξη − ηM ξ − ξM η + M ξM η) =
= M (ξη) − M η · M ξ − M ξ · M η + M ξ · M η =
= M (ξη) − M ξ · M η.
Свойство 3 доказывается с помощью несложных преобразо-
ваний. Докажите его самостоятельно.
Свойство 4 вытекает из свойства 2 и формулы (34.27), ко-
торая была доказана для непрерывных независимых случайных
величин в п. 35.3, а для дискретных — в § 20.
Свойство 6 следует из первого свойства коэффициента кор-
реляции (см. далее теорему 36.3) и формулы (36.12).
Отметим, что в доказательстве теоремы используются толь-
ко свойства математического ожидания — общие для всех типов
случайных величин. Следовательно, и свойства корреляционно-
го момента одинаковы как для непрерывных, так и для дискрет-
ных случайных величин.

Определение 36.2. Случайные величины ξ и η называются


некоррелированными, если Kξη = 0, то есть

M (ξη) = M ξ · M η.

Мы уже доказали, что если случайные величины независимы,


то их корелляционный момент равен нулю. Следовательно, имеет
место следующее утверждение.

Утверждение 36.1. Из независимости случайных величин


следует их некоррелированность. Обратное неверно: случай-
ные величины могут быть некоррелированными, но зависимы-
ми.
246 Глава 3. Случайные векторы

Это подтверждается примерами 36.1 и 36.3. В примере 36.1


случайные величины ξ и η были некоррелированными и зави-
симыми, хотя строго функциональной зависимости между ними
установлено не было. Приведем пример зависимых функциональ-
но и все-таки некоррелированных случайных величин.
= N (0, 1), а η = ξ 2 , то есть зависимость
Пример 36.3. Пусть ξ ⊂
функциональная. Вычислим Kξη с учетом того, что M ξ = 0:
Kξη = M (ξη) − M ξM η = M (ξη) = M ξ 3 = 0,
так как распределение N (0, 1) симметричное, и все начальные
моменты нечетных порядков равны нулю. Значит, ξ и η некорре-
лированы, хотя и зависимы.
В п. 34.5 мы упоминали о том, что функции независимых
случайных величин суть независимые случайные величины. Это
свойство не выполняется для некоррелированных величин.

Утверждение 36.2. Некоррелированность случайных вели-


чин не влечет за собой некоррелированность функций от этих
величин.
Следующий пример показывает, что возможна ситуация, ко-
гда случайные величины некоррелированны, а функции от них
являются коррелированными случайными величинами.
Пример 36.4. Возьмем случайные величины из примера 36.3:
ξ⊂= N (0, 1), а η = ξ 2 . Мы уже показали, что они являются зави-
симыми, но некоррелированными: Kξη = 0.
Поскольку M ξ = 0, то M η = M ξ 2 = Dξ = 1. Рассмотрим
функции от случайных величин: f (ξ) = ξ 2 , а g(η) = η. Вычислим
корреляционный момент
Kf (ξ),g(η) = M (f (ξ) − M f (ξ))(g(η) − M g(η)) =
= M (ξ 2 − M ξ 2 )(η − M η) = M (ξ 2 − M ξ 2 )2 = M (ξ 2 − 1)2 =
= M ξ 4 − 2M ξ 2 + 1 = M ξ 4 − 2 + 1 = M ξ 4 − 1.
Начальный момент нормального распределения ν4 (ξ) = M ξ 4
можно вычислить по формуле (30.10), а можно непосредственно
через интеграл, что мы и сделаем, так как формула (30.10) не бы-
ла нами доказана. Итак,
Z
+∞ Z
+∞
4 4 1 x2
Mξ = x fξ (x)dx = √ x4 e− 2 dx =

−∞ −∞
§ 36. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНОГО ВЕКТОРА 247

Z
+∞ Z
+∞
1 3 − x2
2 x2 1 x2
= −√ x e d(− ) = − √ x3 de− 2 =
2π 2 2π
−∞ −∞

¯+∞ Z
+∞
1 3 − x2 ¯¯ 1 x2
= −√ x e 2
¯ +√ e− 2 · 3x2 dx =
2π −∞ 2π
−∞

Z
+∞
1 x2
=0+3· √ x2 e− 2 dx = 3 · M ξ 2 = 3.

−∞

Следовательно, Kf (ξ),g(η) = 3 − 1 = 2 6= 0. Таким образом,


рассмотренные функции некоррелированных случайных величин
оказались коррелированными.
Другие примеры, подтверждающие утверждения 36.1–36.2,
можно придумать самим.

36.3. КОЭФФИЦИЕНТ КОРРЕЛЯЦИИ И ЕГО СВОЙСТВА

Рассмотрим произвольного, но одного и того же типа случай-


ные величины ξ и η, определенные на общем вероятностном про-
странстве.
Определение 36.3. Коэффициентом корреляции случайных
величин ξ и η называется число

def Kξη M (ξ − M ξ)(η − M η)


rξη = = √ . (36.12)
σξ ση DξDη

Из определения сразу следует, что

rξξ = 1 , (36.13)

а вообще коэффициент корреляции может быть положительным,


отрицательным и равным нулю. Рассмотрим некоторые его свой-
ства.
248 Глава 3. Случайные векторы

Теорема 36.3. Свойства коэффициента корреляции.


Имеют место следующие утверждения:
1) |rξη | ≤ 1;
2) |rξη | = 1 тогда и только тогда, когда случайные величины ξ и
η связаны линейной зависимостью η = aξ + b, причем знак rξη
совпадает со знаком a;
3) если ξ и η независимые случайные величины, то rξη = 0 (об-
ратное неверно!);
4) raξ+b,cη+d = sign(ac) · rξη ;
5) rξη = rηξ (симметрия).

Доказательство. 1) Рассмотрим для ξ и η нормированные укло-


нения:
o ξ − Mξ o η − Mη
ξн = , ηн = . (36.14)
σξ ση
o o o o
Мы знаем (§ 23), что M ξн = M ηн = 0, Dξн = Dηн = 1.
Перепишем
µ ¶µ ¶
ξ − Mξ η − Mη o o
rξη = M = M (ξн ηн ) =
σξ ση
o o o o
= M (ξн −M ξн )(ηн − M ηн ) = K o o .
ξн ηн

Раскроем по формуле (36.5) дисперсию алгебраической суммы:


o o o o
D(ξн ± ηн ) = Dξн +Dηн ± 2K o o =
ξн ηн (36.15)
= 1 + 1 ± 2rξη = 2(1 ± rξη ) ≥ 0,
так как дисперсия любой случайной величины неотрицательна.
Отсюда |rξη | ≤ 1.
Формула (36.15) потребуется для доказательства свойства 2.
2) Нам нужно доказать необходимость и достаточность.
Докажем сначала необходимость. Пусть для определенности
rξη = +1. Тогда 1 − rξη = 0. Следовательно по формуле (36.15)
o o
и D(ξн − ηн ) = 0, откуда по утверждению 22.2 следует, что
o o
ξн − ηн = C = const с вероятностью 1. Однако M C = C, значит,
o o o o o o
ξн − ηн = C = M (ξн − ηн ) = M ξн −M ηн = 0.
§ 36. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНОГО ВЕКТОРА 249

o o
Из последнего равенства получаем: ξн = ηн с вероятностью 1. Под-
ставим сюда (36.14):
ξ − Mξ η − Mη
= ,
σξ ση
откуда найдем, что с вероятностью 1
ση ση
η= ξ− M ξ + M η = aξ + b,
σξ σξ
ση ση
где a = > 0, b = M η − M ξ.
σξ σξ
Рассмотрите самостоятельно rξη = −1 и получите a < 0.
Достаточность доказывается намного проще. Пусть η = aξ + b.
Тогда Dη = a2 Dξ и
M (ξ − M ξ)(aξ + b − M (aξ + b))
rξη = p =
a2 (Dξ)2
aM (ξ − M ξ)2 a
= = .
|a|Dξ |a|
Следовательно, |rξη | = 1, а знак rξη совпадает со знаком a.
3) Если ξ и η — независимые случайные величины, то
Kξη = 0 по теореме 36.2. Значит, и rξη = 0. То, что обратное
утверждение неверно, также вытекает из прямо пропорциональ-
ной зависимости между rξη и Kξη : либо они оба равны нулю, либо
оба отличны от нуля. Нам остается сослаться на примеры 36.1 и
36.3 после утверждения 36.1.
Свойства 4 и 5 докажите, пожалуйста, самостоятельно, поль-
зуясь свойствами корреляционного момента и дисперсии.

Выводы:
1. Коэффициент корреляции показывает степень и характер
линейной зависимости между случайными величинами.
Чем ближе rξη к единице, тем зависимость ближе к линей-
ной.
2. Равенство нулю коэффициента корреляции не означает от-
сутствие зависимости между случайными величинами. Она
может быть даже строго функциональной при нулевом ко-
эффициенте корреляции.
250 Глава 3. Случайные векторы

3. Некоррелированность случайных величин ξ и η можно про-


верить, вычисляя как Kξη , так и rξη , поскольку между ними
существует прямо пропорциональная зависимость.

Попробуем определить по рис. 36.1 и 36.2 знак коэффициента


корреляции, если на этих рисунках изображены точки, получаю-
щиеся в результате наблюдения значений пары коррелированных

Рис. 36.1. Положительная Рис. 36.2. Отрицательная


корреляция корреляция

случайных величин (ξ, η). Очевидно, в обоих случаях зависимость


не является строго линейной. На рис. 36.1 отражено, что с ро-
стом ξ среднее значение случайной величины η также растет. Сле-
довательно, 0 < rξη < 1 (положительно коррелированные слу-
чайные величины).
Согласно рисунку 36.2 с ростом ξ случайная величина η в
среднем убывает. Значит, −1 < rξη < 0 (отрицательно корре-
лированные случайные величины).
Мы не будем разбирать конкретный пример на вычисление
коэффициента корреляции. Это работа чисто техническая. Для
того чтобы его найти, придется вычислить много моментов: M ξ,
M η, Dξ, Dη, Kξη , и подставить результаты в формулу (36.12).

36.4. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ, ДИСПЕРСИЯ И


КОРРЕЛЯЦИОННАЯ МАТРИЦА n-МЕРНОГО
СЛУЧАЙНОГО ВЕКТОРА

Рассмотрим n-мерный случайный вектор ξ~ = (ξ1 , ξ2 , . . . , ξn )T ,


где ξ1 , ξ2 , . . . , ξn — дискретные или непрерывные случайные ве-
личины, определенные на одном и том же вероятностном про-
странстве.
§ 36. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНОГО ВЕКТОРА 251

Определение 36.4. Математическим ожиданием случайно-


го вектора ξ~ называется числовой вектор, компонентами кото-
рого являются математические ожидания компонент вектора ξ: ~

def
M ξ~ = (M ξ1 , M ξ2 , ..., M ξn )T . (36.16)

Дисперсией случайного вектора ξ~ называется числовой век-


тор, компонентами которого являются дисперсии компонент
~
вектора ξ:
def
Dξ~ = (Dξ1 , Dξ2 , ..., Dξn )T . (36.17)

Основываясь на линейности математического ожидания слу-


чайной величины, покажите, что и математическое ожидание слу-
чайного вектора обладает свойством линейности.

Определение 36.5. Квадратная матрица порядка n, элемен-


тами которой являются корреляционные моменты компонент
вектора ξ~
def
kij = Kξi ξj , i = 1, n; j = 1, n, (36.18)
называется корреляционной (или ковариационной) матри-
def
цей K (или Kξ~): K = [kij ]n .

Поскольку kii = Kξi ξi = Dξi при i = 1, n, на главной диа-


гонали матрицы K стоят дисперсии компонент вектора ξ. ~ Кроме
того, очевидно, что kij = Kξi ξj = Kξj ξi = kji при ∀i, j = 1, n.
Следовательно, элементы корреляционной матрицы симметрич-
ны относительно главной диагонали. Поэтому обычно у корреля-
ционной матрицы не записывают элементов, стоящих ниже (или
выше) главной диагонали, и матрица K имеет «диагональный
вид». Это не означает, что отсутствующие элементы равны нулю.
Просто они симметричны тем, которые стоят выше (или ниже)
главной диагонали.
252 Глава 3. Случайные векторы

Таким образом, корреляционная матрица имеет вид:


 
Dξ1 k12 k13 ... k1n
 Dξ2 k23 ... k2n 
K= (36.19)
... ... ... 
Dξn

Если n = 2 или n = 3, то для случайных векторов (ξ, η)T или


(ξ, η, ζ)T получим:

· ¸ " #
Dξ Kξη Kξζ
Dξ Kξη
K= или K= Dη Kηζ .

Попробуем записать корреляционную матрицу в векторно-


матричной форме. Рассмотрим центрированный вектор
     
ξ1 M ξ1 ξ1 − M ξ 1
o
~ ξ~ − M ξ~ =  ξ2   M ξ2   ξ2 − M ξ2 
ξ= . . . −  . . .  =   (36.20)
...
ξn M ξn ξn − M ξ n
и вспомним, что при перемножении матриц каждая строка пер-
вой матрицы почленно умножается на каждый столбец второй.
Следовательно, при перемножении матрицы-строки на матрицу-
столбец получается число, а при перемножении столбца на стро-
ку — квадратная матрица.
Проверьте самостоятельно следующее равенство для корре-
ляционной матрицы:

o o
K = M [(ξ~ − M ξ)(
~ ξ~ − M ξ)
~ T ] = M [ξ~ξ~T ] . (36.21)

Здесь предполагается, что математическое ожидание случайной


матрицы Φ = [ϕij ]n×m (то есть матрицы, элементами которой
являются случайные величины) есть числовая матрица, состоя-
щая из математических ожиданий:
def
M Φ = [M ϕij ]n×m .
§ 36. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНОГО ВЕКТОРА 253

Из коэффициентов корреляции rξi ξj также можно составить


матрицу, которую называют нормированной корреляционной
матрицей:
 
1 r12 r13 . . . r1n
 1 r23 . . . r2n 
R= ,
. . . . . . . . .
1
def
где rij = rξi ξj , rii = 1, i = 1, n, j = 1, n. Если все ком-
поненты случайного вектора — некоррелированные случайные
величины, то R = E, где E — единичная матрица.
При n = 2 и n = 3 получим:

· ¸ " #
1 rξη rξζ
1 rξη
R= и R= 1 rηζ .
1
1

Теорема 36.4. Свойства корреляционной матрицы.


~
Пусть Kξ~ — корреляционная матрица случайного вектора ξ.
Имеют место следующие свойства:
1) корреляционная матрица есть матрица симметричная;
2) корреляционная матрица неотрицательно определена7 ;
~ — постоянный вектор8 , то
3) если a — число, а C
2
Kaξ+
~ C~ = a Kξ~ ;

4) если A — числовая матрица размера m × n, то

KAξ~ = AKξ~AT .

7 Неотрицательная определенность матрицы K означает, что соответствую-

щая квадратичная форма неотрицательно определена, то есть


n X
X n
kij ui uj ≥ 0
i=1 j=1

для любых вещественных u1 , ..., un .


8 Под постоянным вектором C ~ понимается вектор, компонентами которого
являются вырожденные случайные величины.
254 Глава 3. Случайные векторы

Доказательство. 1) Симметричность корреляционной матри-


цы мы уже отмечали. Она следует из равенства kij = kji ,
∀i, j = 1, n.

2) Докажем неотрицательную определенность. Рассмотрим
n X
X n n X
X n
kij ui uj = M (ξi − M ξi )(ξj − M ξj )ui uj =
i=1 j=1 i=1 j=1

n n
©£X ¤ £X ¤ª
=M (ξi − M ξi )ui · (ξj − M ξj )uj =
i=1 j=1

n
£X ¤2
=M (ξi − M ξi )ui ≥0
i=1

для ∀ui ∈ R, i = 1, n.
Если эти формулы P кажутся вам непонятными, распишите их
при n = 2 без знака — и все станет ясным.
Доказательства свойств 3 и 4 чисто вычислительные и предо-
ставляются для самостоятельной работы читателям.

Пример 36.5. Известны математическое ожидание и корреля-


~ = {ξ, η, ζ}T :
ционная матрица случайного вектора ψ
" #
2 0 −3
~ = {1, −3, 0}T ,
Mψ Kψ~ = 3 1 .
5

Найти математическое ожидание и дисперсию случайной вели-


чины χ = 2ξ + 3η − ζ + 2 и математическое ожидание случайной
величины ϕ = 3ξ 2 + ξη − 4ζ + 1.
Решение задачи начнем с того, что запишем подробно все чис-
ловые характеристики, которые нам известны из условия:
M ξ = 1, M η = −3, M ζ = 0, Dξ = 2, Dη = 3, Dζ = 5, Kξη = 0,
Kξζ = −3, Kηζ = 1.
По линейности математического ожидания получим:

M χ = 2M ξ + 3M η − M ζ + 2 = −5.
§ 37. ЛИНЕАРИЗАЦИЯ ФУНКЦИЙ СЛУЧАЙНЫХ АРГУМЕНТОВ 255

Используя свойства дисперсии и формулу (36.7), вычислим:


Dχ = D(2ξ + 3η − ζ) = 4Dξ + 9Dη + Dζ + 2 · 2 · 3Kξη +
+ 2 · 2 · (−1)Kξζ + 2 · 3 · (−1)Kηζ = 41.
Используя свойства математического ожидания, дисперсии и
корреляционного момента, найдем:

M ϕ = 3M ξ 2 + M (ξη) − 4M ζ + 1 = 3(Dξ + (M ξ)2 )+


+ (Kξη + M ξM η) − 4M ζ + 1 = 7.

Пример 36.6. Известна нормированная корреляционная матри-


~ = {ξ, η, ζ}T :
ца и дисперсия случайного вектора ψ
" #
1 0 1/2
Rψ~ = 1 1/3 , Dψ ~ = {4, 1, 2}T .
1
Найти корреляционную матрицу Kψ~ .
Из формулы (36.12), определяющей коэффициент корреля-
ции, можно найти: Kξη = rξη · σξ · ση и аналогично для Kξζ и
Kηζ .
1 1
По условию задачи rξη = 0, rξζ = , rηζ = , σξ = 2,
2 3
√ 1 √
ση = 1, σζ = 2. Следовательно, Kξη = 0, Kξζ = · 2 · 2 =
√ 2
√ 1 √ 2
= 2, Kηζ = · 1 · 2 = .
3 3
Таким образом,
 √ 
4 0 √ 2
Kψ~ =  1 2/3 .
2
Подумайте: может ли матрица
" #
1 1 −1
K= −2 1
1
быть корреляционной?
256 Глава 3. Случайные векторы

§ 37. ЛИНЕАРИЗАЦИЯ ФУНКЦИЙ СЛУЧАЙНЫХ


АРГУМЕНТОВ
Мы видим, как сложно ищутся законы распределения функ-
ций случайных аргументов, даже если эти функции просты. На
практике, как правило, приходится иметь дело со сложными
функциями. Иногда для характеристики распределения бывает
достаточно знать математическое ожидание и дисперсию. Чтобы
определить их приближенно, для сложных функций применяют
метод линеаризации.
37.1. ЛИНЕАРИЗАЦИЯ ФУНКЦИЙ ОДНОЙ СЛУЧАЙНОЙ
ВЕЛИЧИНЫ
Пусть дана случайная величина ξ, у которой существует ма-
тематическое ожидание M ξ и дисперсия Dξ. Пусть функция g(x)
непрерывно дифференцируема в окрестности точки x0 = M ξ, то
есть g(x) ∈ C 0 (U (M ξ)). Такие функции называют «гладкими»:
в каждой точке с абсциссой из U (M ξ) их график имеет касатель-
ную. Нас интересуют числовые характеристики случайной вели-
чины η = g(ξ).
В теории дифференциального исчисления утверждается, что
в малой окрестности точки x0 график функции g(x) можно заме-
нить касательной, то есть графиком линейной функции. Ана-
литически это связывают с поиском главной линейной части
приращения функции, то есть дифференциала. Можно исполь-
зовать более общий метод, основанный на применении формулы
Тейлора:
g 0 (x0 )
g(x) = g(x0 ) + (x − x0 ) +o(x − x0 ) при x → x0 . (37.1)
| 1!
{z }
главная линейная часть

Подставим x0 = M ξ, а вместо x — случайную величину ξ.


Отбрасывая последнее слагаемое в (37.1), получим приближен-
ное равенство:
o
η = g(ξ) ≈ g(M ξ) + g 0 (M ξ)· ξ= ηe. (37.2)
Фактически мы использовали здесь уравнение касательной, а ма-
лая функция o(x − x0 ) при x → x0 в (37.1) указывает на то, что
погрешность полученного приближения η ≈ ηe можно сделать
сколь угодно малой, если выбрать достаточно малую окрестность
точки M ξ.
§ 37. ЛИНЕАРИЗАЦИЯ ФУНКЦИЙ СЛУЧАЙНЫХ АРГУМЕНТОВ 257

Итак, вместо случайной величины η мы рассматривали ее


приближение — случайную величину ηe, являющуюся линейной
функцией ξ. Отсюда и название метода. Естественно, это при-
ближение будет хорошим, если окрестность U (M ξ) достаточно
мала, а P {ξ ∈ U (M ξ)} — достаточно велика (близка к 1).
Вычислим приближенно числовые характеристики случайной
величины η: M η ≈ M ηe, Dη ≈ Deη , где по (37.2)
o
M ηe = g(M ξ) + g 0 (M ξ) · M ξ = g(M ξ); (37.3)
o o
η = D(g 0 (M ξ) ξ) = [g 0 (M ξ)]2 · Dξ = [g 0 (M ξ)]2 · Dξ. (37.4)
De
Для вычисления M ηe и De
η мы использовали свойства математи-
ческого ожидания, дисперсии и центрированной случайной вели-
чины.
37.2. ЛИНЕАРИЗАЦИЯ ФУНКЦИИ ДВУХ СЛУЧАЙНЫХ
АРГУМЕНТОВ
Этот вопрос полностью аналогичен вопросу, рассмотренному
в п. 37.1.
Пусть даны две случайные величины ξ1 и ξ2 , у которых су-
ществуют математические ожидания M ξ1 = m1 , M ξ2 = m2 и
дисперсии Dξ1 и Dξ2 , а Kξ1 ξ2 — корреляционный момент этих
случайных величин.
Нас интересуют математическое ожидание и дисперсия слу-
чайной величины η = g(ξ1 , ξ2 ), где функция g(x, y) ∈ C 0 (U (M0 )),
то есть класса C 0 в окрестности точки M0 (m1 , m2 ).
Если график функции одной переменной мы заменяли каса-
тельной прямой, то график функции двух переменных заменим
касательной плоскостью, проведенной к поверхности z = g(x, y)
в точке M0 :

zкас − g(M0 ) = gx0 (M0 )(x − m1 ) + gy0 (M0 )(y − m2 ), (37.5)

где zкас — аппликаты точек касательной плоскости, так что в ма-


лой окрестности точки M0 можно заменить z = g(x, y) ≈ zкас .
Подставим в уравнение (37.5) координаты точки M0 , а вместо
x и y случайные величины ξ1 и ξ2 . Тогда
o
η = g(ξ1 , ξ2 ) ≈ g(m1 , m2 ) + gx0 (m1 , m2 ) ξ1 +
o
(37.6)
+ gy0 (m1 , m2 ) ξ2 = ηe.
258 Глава 3. Случайные векторы

Как и в п. 37.1, положим M η ≈ M ηe, Dη ≈ De


η , где
o
M ηe = g(m1 , m2 ) + gx0 (m1 , m2 )M ξ1 +
o
(37.7)
+ gy0 (m1 , m2 )M ξ2 = g(m1 , m2 );

η = [gx0 (m1 , m2 )]2 Dξ1 + [gy0 (m1 , m2 )]2 Dξ2 +


De
(37.8)
+ 2gx0 (m1 , m2 ) · gy0 (m1 , m2 )Kξ1 ξ2 .
При написании формул (37.7), (37.8) мы снова использовали
свойства математического ожидания, дисперсии, формулу (36.5)
и свойства центрированной случайной величины.
Аналогично одномерному случаю, формулу (37.6) можно бы-
ло получить, пользуясь формулой Тейлора для функции двух пе-
ременных.

§ 38. ВАЖНЕЙШИЕ ДВУМЕРНЫЕ ЗАКОНЫ


РАСПРЕДЕЛЕНИЯ

38.1. РАВНОМЕРНОЕ РАСПРЕДЕЛЕНИЕ В ОБЛАСТИ


Говорят, что система случайных величин (случайный вектор)
(ξ, η) имеет равномерное распределение вероятностей в обла-
сти (D), если совместная плотность распределения имеет вид:

1
при (x, y) ∈ (D),
fξη (x, y) = D (38.1)
0 при (x, y) ∈
/ (D),

где D — площадь ограниченной области (D).


Обозначение: (ξ, η) ⊂= R(D).
Это определение корректно: fξη (x, y) ≥ 0 при ∀(x, y) ∈ R2 и
x x 1 1
fξη (x, y)dσ = dσ = · D = 1.
2
D D
R (D)

График плотности — поверхность z = fξη (x, y) — состоит из


1
двух частей: часть плоскости z = D , расположенная над обла-
стью (D), и плоскость z = 0 вне области (D) (рис. 38.1). Объем
1
цилиндра с площадью основания D и высотой равен, есте-
D
ственно, единице. Представляет интерес вероятность попадания
§ 38. ВАЖНЕЙШИЕ ДВУМЕРНЫЕ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ 259

Z
1
D
z = fxh(x, y)

0
Y

(D) (d)

Рис. 38.1. График плотности двумерного равномерного распределения

значения равномерно распределенного случайного вектора в под-


область (d) области (D). По формуле (34.6)
x
P {(ξ, η) ∈ (d) ⊂ (D)} = fξη (x, y)dxdy =
(d)
x 1 (38.2)
1 d
= dxdy = ·d= ,
D D D
(d)

то есть эта вероятность равна отношению площадей как геомет-


рическая.
Если вспомнить то, что говорилось в § 34 о геометрическом
смысле вероятности попадания случайной точки в некоторую
область («объем под шляпой»), то формулу (38.2) можно полу-
чить, вычисляя объем цилиндра с площадью основания d и вы-
1
сотой .
D
Равномерное распределение в плоской области (D) связы-
вают со «случайным бросанием точки (ξ, η)» в область (D) ана-
логично тому, как равномерное распределение на промежутке
< a, b > связывалось с «бросанием случайной точки ξ» на этот
промежуток.
Утверждение 38.1. Случайный вектор (ξ, η) равномерно рас-
пределен в прямоугольнике < a, b > × < c, d >, тогда и толь-
ко тогда, когда каждая из компонент ξ и η имеет равномерное
распределение на промежутках < a, b > и < c, d > соответ-
ственно, и ξ и η независимы.
260 Глава 3. Случайные векторы

Докажите утверждение 38.1 самостоятельно, находя плотно-


сти fξ (x) и fη (y). Постарайтесь сделать это рационально.

38.2. НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ НА ПЛОСКОСТИ


(РАСПРЕДЕЛЕНИЕ ГАУССА)
Прежде чем записывать общее (достаточно громоздкое) вы-
ражение для плотности случайного вектора, распределенного
по Гауссу, рассмотрим две независимые нормально распре-
деленные случайные величины ξ ⊂ = N (a, σξ ) и η ⊂
= N (b, ση ).
Запишем их плотности распределения:
( )
1 (x − a)2
fξ (x) = √ exp − ,
σξ 2π 2σξ2
( ) (38.3)
1 (y − b)2
fη (y) = √ exp − .
ση 2π 2ση2

Тогда в силу (34.30) совместная плотность распределения (плот-


ность распределения случайного вектора (ξ, η) с независимыми
компонентами) будет равна
( )
1 (x − a)2 (y − b)2
fξη (x, y) = exp − + . (38.4)
2πσξ ση 2σξ2 2ση2

Если случайные величины ξ и η не являются независимыми,


то будет естественно, если в выражении для совместной плот-
def
ности появится коэффициент корреляции r = rξη . Говорят, что
случайный вектор (ξ, η) имеет нормальное (гауссовское) рас-
пределение вероятностей, если
1
fξη (x, y) = √ ×
2πσξ ση · 1 − r2
½ · ¸¾
1 (x − a)2 (x − a)(y − b) (y − b)2
× exp − − r + .
1 − r2 2σξ2 σξ ση 2ση2
(38.5)
Мы не будем из-за громоздкости выкладок проверять коррект-
ность этого определения. Можно показать, что

M ξ = a, M η = b, Dξ = σξ2 , Dη = ση2 .
§ 38. ВАЖНЕЙШИЕ ДВУМЕРНЫЕ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ 261

Если ξ и η некоррелированы, то r = 0 и выражение (38.5)


превращается в (38.4). Следовательно, случайный вектор, имею-
щий плотность (38.4) — тоже нормально распределен.
Таким образом, если ξ и η — независимые нормально рас-
пределенные случайные величины, то случайный вектор (ξ, η)
имеет нормальное распределение. В случае отсутствия незави-
симости такого вывода о векторе (ξ, η) сделать нельзя.
Если по совместной плотности (38.5) найти одномерные плот-
ности fξ (x) и fη (y), то окажется, что ξ ⊂= N (a, σξ ), а η ⊂
= N (b, ση ).
Таким образом, если случайный вектор (ξ, η) распределен по
нормальному закону, то его компоненты ξ и η тоже нормально
распределены (даже если они зависимы).
Обратимся снова к формулам (38.4), (38.5). Мы уже отмеча-
ли, что если r = 0, то из (38.5) следует (38.4). Однако в (38.4)
совместная плотность представима в виде произведения част-
ных:
fξη (x, y) = fξ (x)fη (y).
Следовательно, согласно утверждению 34.1 случайные величи-
ны ξ и η независимы.
Мы знаем, что из независимости случайных величин следует
их некоррелированность. Обратное, вообще говоря, было невер-
но. Для нормального же распределения, как только что было по-
казано, из некоррелированности следует независимость. Значит,
нами доказано следующее утверждение.
Утверждение 38.2. Для нормально распределенного слу-
чайного вектора независимость его компонент равносильна
некоррелированности.

Попробуем выяснить вид поверхности распределения, то есть


графика функции fξη (x, y).
Для простоты сначала рассмотрим формулу (38.4). Очевид-
но, наибольшее значение совместной плотности достигается при
показателе степени, равном нулю, то есть при x = a, y = b.
Следовательно, в точке (a, b) = (M ξ, M η) находится максимум
функции fξη (x, y).
Если устремить к ±∞ хотя бы одну из переменных x или y, то
вся функция будет стремиться к нулю:

lim
x→±∞
fξη (x, y) = 0.
(y→±∞)
262 Глава 3. Случайные векторы

Это условие находит отражение в форме графика. Поверхность


должна асимптотически приближаться к плоскости XOY при
стремлении (x, y) к бесконечно удаленной точке.
Чтобы определить форму поверхности, найдем линии уровня,
то есть те кривые (`) на плоскости XOY , значение плотности на
которых постоянно: fξη (x, y) ≡ C при (x, y) ∈ (`). Поскольку
в выражении (38.4) от (x, y) зависит только показатель степени,
то плотность будет принимать одно и то же значение, если будет
постоянен показатель степени:

(x − a)2 (y − b)2
2 + = C1 . (38.6)
2σξ 2ση2

Разделив обе части последнего равенства на C1 , мы полу-


чим каноническое уравнение эллипса с центром в точке (a, b) =
= (M ξ, M√η), с осями,
√ параллельными осям координат, и с полу-
осями σξ 2C1 и ση 2C1 . Эти эллипсы носят название эллип-
сы рассеивания или эллипсы равных вероятностей. В случае
σξ = ση эллипсы превращаются в окружности.
В [3] можно найти, как вычислить вероятность попадания в
эллипс рассеивания.
Построим на основании проведенного исследования схема-
тический график плотности z = fξη (x, y) (рис. 38.2). Поверх-
ность имеет вид симметричной «бесконечной шляпы» с центром
«тульи» в точке (M ξ, M η).

Рис. 38.2. График плотности двумерного нормального распределения


§ 38. ВАЖНЕЙШИЕ ДВУМЕРНЫЕ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ 263

Если аналогично найти линии уровня поверхности, задава-


емой формулой (38.5), то оси эллипсов рассеивания окажутся не
параллельными осям координат. Соответственно «повернется»
и поверхность. Таким образом, по графику плотности можно су-
дить о средних значениях компонент нормального вектора и о на-
личии зависимости между ними.
Если по (38.5) найти условную плотность fξ (x/η = y), то
окажется (см. [3]),√что и она будет гауссовской с параметрами
σ
(a + r σηξ (y − b); σξ 1 − r2 ). Аналогично, плотность fη (y/ξ = x)
σ √
окажется гауссовской с параметрами (b+r σηξ (x−a); ση 1 − r2 ).
Линейные функции
σξ
m1 (y) = a + r (y − b)
ση
и
ση
m2 (x) = b + r (x − a)
σξ
дают значения условных математических ожиданий, то есть яв-
ляются функциями регрессии. Таким образом, «в среднем» ком-
поненты гауссовского вектора зависят друг от друга линейно.

Замечание 38.1. Выражение плотности распределения гаус-
совского случайного вектора в n-мерном случае очень громоздко
и обычно записывается в векторно-матричной форме.
Запишите самостоятельно плотность совместного распреде-
ления n независимых гауссовских случайных величин ξ1 , . . . , ξn ,
= N (ak , σk ), k = 1, n. Вы должны получить функцию n
где ξk ⊂
переменных fξ1 , ...,ξn (x1 , . . . , xn ) = fξ~(~x).
В общем случае говорят, что случайный вектор

ξ~ = (ξ1 , . . . , ξn )T
имеет нормальное (гауссовское) распределение вероятностей,
если
1 n 1 o
fξ~(~x) = √ p exp − (~x − ~a)T K −1 (~x − ~a) ,
( 2π)n · |K| 2

где K = [kij ]n — корреляционная матрица, а K −1 — обратная к


ней; |K| — определитель матрицы K; ~x = (x1 , . . . , xn )T — век-
тор переменных; ~a = (a1 , . . . , an )T — вектор математических
ожиданий.
264 Глава 3. Случайные векторы

Произведение (~x − ~a)T K −1 (~x − ~a) — это квадратичная фор-


ма. Иногда показатель степени у экспоненты так и записывают:
1 P
n
∗ ∗
− Q(~x − ~a), где Q(~x) = kij xi xj , а kij — элементы матри-
2 i,j=1
цы K −1 .
Подробное изучение многомерных распределений, а именно
при n > 2, выходит за рамки данного курса. Это замечание при-
ведено ввиду особой важности многомерного нормального зако-
на. Для него, кстати, справедливо то, что мы говорили о двумер-
ном гауссовском распределении:
1) если ξ~ ⊂
= N , то все ξk ⊂= N , даже если нет независимости;
= N и независимы, то ξ~ ⊂
2) если все ξk ⊂ = N;
3) для нормального случайного вектора некоррелированность
его компонент равносильна независимости.
Подробнее о многомерном нормальном распределении мож-
но прочитать в [3].
Глава 4

ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ
ТЕОРИИ ВЕРОЯТНОСТЕЙ

В этой главе мы будем рассматривать последовательности


случайных величин. Из курса математического анализа извест-
но, что если есть необходимость изучить «поведение» какой-либо
последовательности при больших n, то в такой ситуации помо-
гает изучение предельных свойств этой последовательности при
n → +∞.
Посмотрим, какие пределы изучаются в теории вероятностей.

§ 39. ВИДЫ ВЕРОЯТНОСТНОЙ СХОДИМОСТИ


Рассмотрим бесконечную последовательность случайных ве-
личин ξ1 , ξ2 , . . . , ξn , . . . , определенных на одном и том же ве-
роятностном пространстве {Ω, F, P }, то есть таких случайных
величин, значения которых наблюдаются в результате повторе-
ния одного и того же эксперимента при осуществлении одного и
того же комплекса условий. Это могут быть отдельные наблю-
дения значений одной и той же случайной величины. Тогда мы
будем говорить, что все ξk одинаково распределены, но в об-
щем случае будем предполагать, что случайные величины ξk мо-
гут иметь и разные распределения.
Пусть F1 (x), F2 (x), . . . , Fn (x), . . . — последовательность со-
ответствующих функций распределения, то есть
Fk (x) = P {ξk < x} при k = 1, +∞.

Определение 39.1. Будем говорить, что последовательность


случайных величин {ξn }∞
n=1 сходится к случайной величине ξ
по вероятности, если для ∀ε > 0

P {|ξn − ξ| > ε} −−−−−→ 0 . (39.1)


n→+∞
266 Глава 4. Предельные теоремы теории вероятностей

p.
−−−−→ ξ.
Обозначение: ξn −n→+∞

Разберемся, что означает этот вид сходимости. Рассмотрим
бесконечную последовательность событий
An = {ω ∈ Ω : |ξn (ω) − ξ(ω)| > ε}, n = 1, 2, . . .
Когда-то мы проводили параллель между вероятностью события
и площадью изображающего его множества в диаграммах Вен-
p.
на. Так вот ξn −n→+∞
−−−−→ ξ , когда P (An ) → 0 при n → +∞. Ес-
ли проводить параллель с площадью, то это означает, что пло-
щади соответствующих множеств стремятся к нулю (рис. 39.1).

Рис. 39.1. К вопросу о сходимости по вероятности

Эти множества могут быть вложенными одно в другое, а могут


даже не пересекаться. Их вероятности могут монотонно убывать
или нет, но они стремятся к нулю.

Очевидно, что при этом вероятности противоположных со-
бытий будут стремиться к 1:
P (An ) = P {|ξn − ξ| ≤ ε} −−−−−→ 1.
n→+∞

Определение 39.2. Будем говорить, что последовательность


случайных величин {ξn }∞
n=1 сходится к случайной величине
ξ по распределению, если имеет место сходимость функций
распределения:

Fn (x) −−−−−→ Fξ (x) (39.2)


n→+∞

в каждой точке непрерывности предельной функции — функ-


ции распределения случайной величины ξ.
§ 39. ВИДЫ ВЕРОЯТНОСТНОЙ СХОДИМОСТИ 267

Это определение проще осознать, чем определение сходимо-


сти по вероятности, так как оно связано со сходимостью функ-
циональных последовательностей, знакомых читателю из курса
математического анализа.

Иногда при изучении сходимости функций распределения
допускают, что случайные величины ξn заданы даже на разных
вероятностных пространствах или «вообще не известно, где за-
даны» [1, 2], лишь бы были известны их распределения.

Определение 39.3. Будем говорить, что последовательность
случайных величин {ξn }∞
n=1 сходится к случайной величине ξ
с вероятностью 1 (или «почти наверное»), если

P {ξn −−−−−→ ξ} = 1 . (39.3)


n→+∞

п.н.
Обозначение: ξn −n→+∞
−−−−→ ξ.

При каждом фиксированном ω ∈ Ω мы получаем числовую
последовательность {ξn (ω)}∞n=1 , которая сходится к числу ξ(ω)
на множестве элементарных исходов (на событии), имеющем ве-
роятность 1, то есть при «почти всех» ω ∈ Ω:

P {ω ∈ Ω : ξn (ω) −−−−−→ ξ(ω)} = 1.


n→+∞

Таким образом, множество всех ω ∈ Ω, где такой сходимости нет,


имеет вероятность нуль.


Определение 39.4. Говорят, что последовательность {ξn }∞
n=1
сходится к случайной величине ξ в среднем квадратическом,
если
lim M |ξn − ξ|2 = 0 . (39.4)
n→+∞


Из сходимости в среднем квадратическом вытекает сходи-
мость по вероятности. Из сходимости почти наверное — сходи-
мость по вероятности и по распределению. Подробнее о взаимо-
связи различных типов сходимости можно прочитать в [1].
268 Глава 4. Предельные теоремы теории вероятностей


Отметим одно достаточное условие для того, чтобы имела
место сходимость почти наверное: если ряд

X
P {|ξn − ξ| > ε}
n=1
п.н.
сходится при ∀ε, то ξn −n→+∞
−−−−→ ξ . Таким образом, чтобы име-
ла место сходимость с вероятностью 1, нужно, чтобы вероятно-
сти (39.1) «очень быстро» стремились к нулю.
Отметим также, что в качестве предельной случайной вели-
чины ξ может оказаться и вырожденная случайная величина.
При формулировке предельных теорем теории вероятностей
нам придется иметь дело с бесконечными последовательностями
независимых случайных величин. Это означает, что какой бы
конечный «набор» случайных величин мы ни взяли из этой по-
следовательности, они будут независимыми в совокупности.

§ 40. НЕРАВЕНСТВО ЧЕБЫШËВА


Мы неоднократно говорили о том, что наиболее вероятные
значения случайной величины ξ «тяготеют» к математическому
ожиданию M ξ этой случайной величины. Неравенство Чебы-
шёва, которое будет доказано для дискретных и непрерывных
случайных величин, позволяет оценить вероятность удаления
значений ξ от ее математического ожидания. Это неравенство
показывает также, что чем больше дисперсия, тем больше ве-
роятность удаления значений случайной величины ξ от ее мате-
матического ожидания — тем больше «разброс значений», о ко-
тором мы говорили при изучении дисперсии.
Лемма. Неравенство Маркова1 .
Если случайная величина ξ с вероятностью 1 принимает лишь
неотрицательные значения (ξ ≥ 0) и имеет математическое
ожидание M ξ, то для ∀δ > 0


P {ξ ≥ δ} ≤ . (40.1)
δ

(Очевидно, что бессмысленно брать δ ≤ M ξ.)


1 Это неравенство часто называют первым неравенством Чебышёва.
§ 40. НЕРАВЕНСТВО ЧЕБЫШËВА 269

Доказательство. Рассмотрим непрерывную случайную вели-


чину ξ с плотностью распределения fξ (x). Так как ξ ≥ 0, то
fξ (x) ≡ 0 при x < 0. Следовательно,

Z
+∞ Z
+∞

Mξ = xfξ (x)dx = xfξ (x)dx =


−∞ 0
Zδ Z
+∞ Z
+∞

= xfξ (x)dx + xfξ (x)dx ≥ xfξ (x)dx ≥


0 δ δ
Z
+∞

≥δ· fξ (x)dx = δ · P {ξ ≥ δ}.


δ

Отсюда сразу следует (40.1).


Рассмотрим теперь дискретную случайную величину ξ, при-
нимающую неотрицательные значения {xi }ni=1 с вероятностями
P
n
{pi }ni=1 , pi = 1. Тогда
i=1

n
X X X
Mξ = xi pi = xi pi + xi pi ≥
i=1 i:xi <δ i:xi ≥δ
X X
≥ xi pi ≥ δ · pi = δ · P {ξ ≥ δ}.
i:xi ≥δ i:xi ≥δ


Попробуйте аналогично доказать неравенство

M |ξ|
P {|ξ| ≥ δ} ≤
δ

или вывести его из неравенства Маркова.


Неравенство (40.1) не только будет использовано нами в до-
казательстве неравенства Чебышёва. Это неравенство имеет и
самостоятельное значение, оно часто оказывается полезным при
решении прикладных задач.
270 Глава 4. Предельные теоремы теории вероятностей

Теорема 40.1. Неравенство Чебышёва2 .


Пусть у случайной величины ξ существует дисперсия Dξ. Тогда
для ∀ε > 0 выполняется неравенство:


P {|ξ − M ξ| ≥ ε} ≤ . (40.2)
ε2

(При Dξ ≥ ε2 неравенство очевидно.)

Доказательство. Воспользуемся леммой, где вместо ξ в (40.1)


возьмем случайную величину (ξ − M ξ)2 ≥ 0, а δ = ε2 . Получим:

M (ξ − M ξ)2 Dξ
P {|ξ − M ξ| ≥ ε} = P {(ξ − M ξ)2 ≥ ε2 } ≤ 2
= 2.
ε ε

Следствие. Правило «трёх сигма».


В условиях теоремы 40.1:

1
P {|ξ − M ξ| ≥ 3σξ } ≤ , (40.3)
9

где σξ = Dξ.
Следствие очевидно вытекает из неравенства Чебышёва, ес-
ли положить ε = 3σξ . Неравенство (40.3) гарантирует для лю-
бой случайной величины с конечной дисперсией, что вероятность
удаления ее значений от M ξ на расстояние более 3σξ достаточ-
1
но мала — не более . На самом деле для большинства случай-
9
ных величин эта вероятность существенно меньше. Например,
для нормального закона она равна 0,003. Поэтому на практике
обычно считают, что все возможные значения ξ лежат на проме-
жутке [M ξ − 3σξ ; M ξ + 3σξ ]. Это и называют «правилом трех
сигма».
2 Это неравенство было доказано Чебышёвым в 1866 году и независимо Бье-

нэме в 1853 году. Именем Чебышёва часто называют целую серию неравенств,
так как Чебышёв применил их к доказательству теорем закона больших чисел.
§ 40. НЕРАВЕНСТВО ЧЕБЫШËВА 271

Пример 40.1. Силовой элемент летательного аппарата расчитан


на нагрузку 20 кН. В процессе полета на данный элемент дей-
ствует нагрузка, математическое ожидание которой 15 кН. Опре-
делить вероятность выхода из строя силового элемента.
Для решения этой задачи воспользуемся неравенством Мар-
кова (40.1) при M ξ = 15 кH, δ = 20 кH, где за ξ обозначена
величина нагрузки. Силовой элемент выйдет из строя, если зна-
15
чение ξ превысит 20 кН. Получим: P {ξ ≥ 20} ≤ = 0, 75.
20
Пример 40.2. Среднее квадратическое отклонение ошибки из-
мерения курса самолета σ = 2◦ . Считая математическое ожи-
дание ошибки измерения равным нулю, оценить вероятность то-
го, что ошибка при данном измерении курса самолета будет бо-
лее 5◦ .
Для решения задачи используем неравенство Чебышёва
(40.2) при M ξ = 0◦ , Dξ = σ 2 = 4 град2 , ε = 5◦ , где за ξ обозна-
4
чена ошибка измерения курса: P {|ξ| ≥ 5} ≤ 2 = 0, 16.
5
Пример 40.3. Среднее квадратическое отклонение измерения
азимута равно 300 , а математическое ожидание равно нулю. Оце-
нить вероятность того, что ошибка среднего арифметического
трех независимых измерений не превзойдет 1◦ .
Обозначим ошибку k-го измерения за ξk , k = 1, 2, 3, а сред-
нее арифметическое этих ошибок за η:
ξ1 + ξ2 + ξ3
η= .
3
Тогда по независимости ξk , k = 1, 3,
1 1 1
Dη = (Dξ1 + Dξ2 + Dξ3 ) = · 3 · 0, 52 = ,
9 9 12
так как σξ1 = σξ2 = σξ3 = 300 = 0, 5◦ . Поскольку
1
Mη = (M ξ1 + M ξ2 + M ξ3 ) = 0,
3
по неравенству Чебышёва (40.2) получим:

P {|η| ≤ 1◦ } = 1 − P {|η| > 1◦ } ≥ 1 − =
12
1 11
=1− = = 0, 91(6) > 0, 91.
12 12
272 Глава 4. Предельные теоремы теории вероятностей

Пример 40.4. В процессе испытания образцов на растяжение


измеряется величина возникающего напряжения. Погрешности
измерения характеризуются средним квадратическим отклоне-
нием 0,05 Па (систематических ошибок нет). Испытывается
30 однотипных образцов.
Определить, в каком диапазоне будет лежать среднее ариф-
метическое значение погрешностей измерения с вероятностью
а) 0,8 и б) 0,9.
Обозначим погрешность измерения на k-м образце за ξk ,
k = 1, 30. По условию задачи M ξk = 0 Па, σξk = 0, 05 Па,
k = 1, 30. Следовательно, если за η обозначить среднее арифме-
тическое значение погрешностей:
ξ1 + . . . + ξ30
η= ,
30
то получим: M η = 0 Па,
30 30
1 X 1 X 2 30 · 0, 052 2 0, 052 2
Dη = Dξ k = σξ = Па = Па .
302 302 k
302 30
k=1 k=1

По неравенству Чебышёва (40.2) имеем:



P {|η − M η| ≥ ε} ≤ .
ε2
Чтобы получить диапазон значений η, следует рассмотреть веро-
ятность противоположного события:

P {|η − M η| < ε} ≥ 1 − . (40.4)
ε2
Эта вероятность будет не менее заданного значения p, если

1− ≥ p,
ε2
откуда
s s
Dη 0, 052 0, 05
ε≥ = =p .
1−p 30(1 − p) 30(1 − p)

Подставим p = 0, 8. Получим ε ≥ 0, 02041. Подставим p = 0, 9.


Получим ε ≥ 0, 02886. Поскольку M η = 0, из (40.4) делаем
§ 41. ЗАКОН БОЛЬШИХ ЧИСЕЛ 273

вывод: с вероятностью более 0,8 среднее арифметическое значе-


ние погрешностей лежит в диапазоне (−0, 02041; 0, 02041); с ве-
роятностью более 0,9 устанавливается более широкий интервал:
(−0, 02886; 0, 02886).
Таким образом, неравенство Чебышёва дает не точное значе-
ние вероятности, а только ее оценку. Подробнее о погрешностях
таких оценок можно прочитать в [4].

§ 41. ЗАКОН БОЛЬШИХ ЧИСЕЛ


Пусть ξ1 , ξ2 , . . . , ξn , . . . — последовательность (не обязатель-
но независимых) случайных величин, у которых существуют ма-
тематические ожидания: M ξk = ak , k = 1, +∞.
Определение 41.1. Говорят, что последовательность {ξn }∞
n=1
подчиняется закону больших чисел (для последовательно-
сти выполняется закон больших чисел), если

ξ1 + . . . + ξn a1 + . . . + an p.
− −−−−−→ 0 , (41.1)
n n n→+∞

то есть разность среднего арифметического первых n случай-


ных величин и его математического ожидания по вероятности
стремится к нулю при n → +∞.

Обозначим
def ξ1 + . . . + ξn
ηn = .
n
a1 + . . . + an
Тогда M ηn = и соотношение (41.1) можно пере-
n
писать в равносильной форме:

p.
ηn − M ηn −−−−−→ 0 . (41.2)
n→+∞

В частности, если математические ожидания всех случайных ве-


личин одинаковы: M ξk = a = const, то соотношение (41.1) пе-
репишется в виде:

ξ1 + . . . + ξn p.
−−−−−→ a . (41.3)
n n→+∞
274 Глава 4. Предельные теоремы теории вероятностей

Выясним, каковы достаточные условия выполнения закона


больших чисел.

Теорема 41.1. Теорема Чебышёва.


Если случайные величины ξ1 , ξ2 , . . . , ξn , . . . попарно неза-
висимы и имеют равномерно ограниченные дисперсии:

Dξk ≤ C = const при ∀k = 1, +∞,

то последовательность {ξn }∞
n=1 подчиняется закону больших
чисел.
Доказательство. Докажем выполнение (41.2), для чего со-
гласно (39.1), достаточно доказать, что для ∀ε > 0 имеет место
сходимость:
P {|ηn − M ηn | ≥ ε} −−−−−→ 0. (41.4)
n→+∞

Рассмотрим произвольное ε > 0 и фиксируем его. Воспользуем-


ся неравенством Чебышёва (40.2). Для этого оценим дисперсию
случайной величины ηn , учитывая попарную независимость слу-
чайных величин ξn , n = 1, +∞ :
µ ¶ n
ξ1 + . . . + ξn 1 X
Dηn = D = 2 Dξk ≤
n n
k=1
n
(41.5)
1 X n·C C
≤ 2 C= = .
n n2 n
k=1

Тогда по неравенству Чебышёва


Dηn C
0 ≤ P {|ηn − M ηn | ≥ ε} ≤ ≤ 2 →0 (41.6)
ε2 nε
при n → +∞. По теореме о сжатой переменной получим (41.4).

Следствие.
Если {ξn }∞
n=1 — последовательность попарно независимых
одинаково распределенных случайных величин с конечной
дисперсией, то она подчиняется закону больших чисел:
ξ1 + . . . + ξn p.
−−−−−→ a, где a = M ξk , k = 1, +∞.
n n→+∞
§ 41. ЗАКОН БОЛЬШИХ ЧИСЕЛ 275

Теорема 41.2. Теорема Хинчина.


Если {ξn }∞
n=1 — последовательность независимых одина-
ково распределенных случайных величин, у которых су-
ществуют математические ожидания, то эта последователь-
ность подчиняется закону больших чисел.

(При определении математического ожидания мы отмечали,


что M ξ считается существующим, если существует абсолютный
момент M |ξ|.)
Доказательство теоремы Хинчина использует аппарат харак-
теристических функций и выходит за рамки нашего курса.
Таким образом, если случайные величины одинаково рас-
пределены, то для выполнения закона больших чисел нет необ-
ходимости требовать существования дисперсий, как в следствии
и теореме Чебышёва. Достаточно, чтобы у случайных величин
существовали математические ожидания.
Приведенные теоремы о законе больших чисел позволяют
нам судить о «поведении» среднего арифметического независи-
мых случайных величин. Мы видим, что для одинаково распре-
деленных случайных величин, которыми являются, например,
погрешности в серии измерений, их среднее арифметическое
стремится к математическому ожиданию. Хорошо, если матема-
тическое ожидание погрешностей (систематическая ошибка)
равно нулю. Тогда чем больше измерений проведено, тем ближе
среднее арифметическое к истинному значению измеряемой ве-
личины. Однако если некоторый прибор имеет систематическую
ошибку измерения (например, из-за размера деления шкалы),
то бесполезно производить большое число измерений — сред-
нее арифметическое погрешностей не будет стремиться к нулю и
точность не повысится.
Пример 41.1. Дана последовательность независимых случай-
ных величин ξ1 , . . . , ξn , . . . Случайная величина
√ ξn , n = 1, +∞,

может принимать только три значения: − n, 0, n с вероятно-
стями соответственно
1 2 1
,1 − , .
n+1 n+1 n+1
Примени́м ли к этой последовательности закон больших чисел?
Мы видим, что случайные величины ξn , n = 1, +∞, не яв-
ляются одинаково распределенными. Поэтому для ответа на во-
прос задачи нужно выяснить, выполняются ли условия теоремы
276 Глава 4. Предельные теоремы теории вероятностей

Чебышёва. Найдем дисперсии данных случайных величин. Вы-


числим сначала математические ожидания:
√ 1 √ 1
M ξn = − n · +0+ n· = 0, n = 1, +∞.
n+1 n+1

Тогда
√ 1 √ 1
Dξn = M ξn2 = (− n)2 · + 0 + ( n)2 · =
n+1 n+1
2n 2n
= < = 2, n = 1, +∞.
n+1 n

Все дисперсии оказались равномерно ограниченными. Сле-


довательно, условия теоремы Чебышёва выполняются, и данная
последовательность подчиняется закону больших чисел. По-
скольку все математические ожидания одинаковы и равны нулю
(случайные величины симметричны), то

ξ1 + . . . + ξn p.
−−−−−→ 0.
n n→+∞


Замечание 41.1. Если в соотношениях (41.1)–(41.3) вместо
сходимости по вероятности имеет место сходимость с вероятно-
стью 1 (почти наверное), то говорят, что выполняется усилен-
ный закон больших чисел. В противовес этому термину при
сходимости лишь по вероятности иногда говорят о выполнении
«слабого» закона больших чисел.


Теорема 41.3. Теорема Колмогорова.
Если {ξn }∞
n=1 — последовательность независимых одинако-
во распределенных случайных величин, то для выполнения
усиленного закона больших чисел:

ξ1 + . . . + ξn п.н.
−−−−−→ a,
n n→+∞

необходимым и достаточным условием является существо-


вание у случайных величин ξn , n = 1, +∞, математических
ожиданий, равных a.
§ 42. ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА 277


Таким образом, в случае независимых одинаково распре-
деленных случайных величин сходимость их среднего арифмети-
ческого к математическому ожиданию с вероятностью 1 вытека-
ет из существования абсолютных моментов первого порядка.
Если же независимые случайные величины не являются оди-
наково распределенными, то достаточным условием выполнения
усиленного закона больших чисел является, например, (см. [4])
P
∞ Dξ
n
сходимость ряда 2
. В частности, в условиях теоремы Че-
n=1 n
бышёва также имеет место усиленный закон больших чисел.

Если посмотреть доказательство теоремы 41.1, то станет
очевидным, что достаточное условие для выполнения закона
больших чисел можно ослабить: не требовать равномерной огра-
P
n
ниченности дисперсий, а потребовать, чтобы Dξk = o(n2 )
k=1
при n → +∞. Для зависимых случайных величин достаточным
для выполнения слабого закона является условие
³X
n ´
D ξk = o(n2 ), n → +∞ (теорема Маркова).
k=1

§ 42. ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА


Рассмотрим бесконечную последовательность случайных ве-
личин ξ1 , ξ2 , . . . , ξn , . . .. Обозначим сумму первых n случайных
величин за ψn :
def
ψn = ξ1 + ξ2 + . . . + ξn .
Определение 42.1. Будем говорить, что для последователь-
ности {ξn }∞
n=1 выполняется центральная предельная теоре-
ма, если последовательность {ψn }∞n=1 асимптотически нор-
мальна, то есть сходится к гауссовской случайной величине по
распределению:

1 Rx n 2
o
Fψn (x) = P {ψn < x} −−−−−→ √ exp − (t−a)
2σ 2 dt
n→+∞ σ 2π −∞
(42.1)
для ∀x ∈ R.

Справа в (42.1) стоит функция распределения случайной вели-


чины, распределенной по нормальному закону N (a, σ).
278 Глава 4. Предельные теоремы теории вероятностей

Мы уже знаем, что вычисления, связанные с нормальным за-


коном распределения вероятностей при произвольных парамет-
рах a и σ затруднены (затабулирован закон N (0, 1)). Поэтому
обычно вместо случайной величины ψn рассматривают ее нор-
мированное уклонение, то есть центрированную и нормирован-
ную случайную величину
o ψn − M ψ n
ψ n,н =√ ,
Dψn
имеющую нулевое математическое ожидание и единичную дис-
персию. Тогда при выполнении центральной предельной теоремы
в пределе получается функция распределения для нормального
закона N (0, 1):
o 1 Rx − t2
Fo (x) = P {ψ n,н < x} −−−−−→ √ e 2 dt = Φ(x)
ψn,н n→+∞ 2π −∞
(42.2)
для ∀x ∈ R.
o
Поскольку ψn и ψ n,н линейно связаны, условия (42.1) и (42.2)
равносильны (см. § 31).
Приведем без доказательства теоремы Леви и Ляпунова,
дающие достаточные условия для выполнения центральной пре-
дельной теоремы. Отметим, что они являются следствиями фун-
даментальной теоремы финского математика Линдеберга [4],
доказанной в 1922 году, формулировка которой выходит за рам-
ки нашего курса.

Теорема 42.1. Теорема Леви́.


Если {ξn }∞
n=1 — последовательность независимых одина-
ково распределенных случайных величин с конечными
дисперсиями σ 2 > 0, то для нее выполняется центральная
предельная теорема, то есть имеет место (42.2), где
o ξ1 + . . . + ξn − na
ψ n,н = √ ,
σ n

а a = M ξk , k = 1, +∞.

Если случайные величины ξn не являются одинаково распре-


деленными, то достаточные условия для выполнения централь-
ной предельной теоремы сильно усложняются.
§ 42. ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА 279


Теорема 42.2. Теорема Ляпуно́ва.
Пусть для последовательности независимых случайных вели-
чин {ξn }∞
n=1 существуют все абсолютные центральные момен-
ты порядка 2 + δ:
(k)
µ2+δ = M |ξk − M ξk |2+δ , k = 1, +∞,

при некотором δ > 0. Если дробь Ляпунова


P
n
(k)
µ2+δ
k=1
µs n ¶2+δ −n→+∞
−−−−→ 0,
P
Dξk
k=1

то для последовательности {ξn }∞n=1 выполняется централь-


ная предельная теорема, то есть ψn асимптотически нормаль-
на — имеет место (42.2).
Вывод. При выполнении некоторых ограничений, связанных
с абсолютными центральными моментами порядка выше второ-
го, сумма независимых случайных величин с любыми рас-
пределениями асимптотически нормальна.
Если выполнение закона больших чисел гарантирует опреде-
ленное «поведение» среднего арифметического случайных вели-
чин при больших значениях n, то выполнение центральной пре-
дельной теоремы наряду с неравенствами Чебышёва–Маркова
позволяет вычислять или оценивать конкретные вероятности.
При достаточно больших n для независимых случайных ве-
личин {ξn }∞
n=1 с произвольным распределением из (42.2) следу-
ет, что F o (x) ≈ Φ(x). Поэтому можно записать приближен-
ψn,н
ную формулу (см. п. 30.3):
ψn −M ψn
P {α ≤ √ ≤ β} ≈ Φ(β)−Φ(α) = Φ0 (β)−Φ0 (α) . (42.3)
Dψn
В частности, для одинаково распределенных независимых слу-
чайных величин с M ξk = a, Dξk = σ 2 можно использовать фор-
мулу:
ψn − na
P {α ≤ √ ≤ β} ≈ Φ(β)−Φ(α) = Φ0 (β)−Φ0 (α) . (42.4)
σ n
280 Глава 4. Предельные теоремы теории вероятностей

Из формул (42.3)–(42.4) можно найти и другие вероятности:


ψn
P {α1 ≤ ψn ≤ β1 }, P {α2 ≤ ≤ β2 }
n
и т. д.
Пример 42.1. Время безотказной работы усилителя подчиняет-
ся закону Эрланга с математическим ожиданием 400 ч и диспер-
сией 40 000 ч2 . Испытывается 175 усилителей.
Найти вероятность того, что среднее арифметическое значе-
ние времени безотказной работы усилителей будет находиться в
промежутке от 380 ч до 400 ч.
Обозначим время безотказной работы k-го усилителя за ξk ,
k = 1; 175 (то есть n = 175). Тогда

a = M ξk = 400 ч,
σ 2 = Dξk = 40 000 ч2 ,

откуда σ = 200 ч. Следовательно,

M
√ ψn = na √
= 175 · 400√
= 70 000 ч,
Dψn = σ n = 200 · 175 ≈ 2645, 7513 ч.

Поскольку случайные величины ξk одинаково распределены,


можно воспользоваться теоремой Леви́. Законы распределения
отдельных случайных величин ξk в предельном случае уже не иг-
рают роли. По центральной предельной теореме их сумма

ψn = ξ1 + . . . + ξn

асимптотически нормальна. Среднее арифметическое времени


безотказной работы усилителей есть
ξ1 + . . . + ξn ψn
= .
n n
Тогда искомая вероятность может быть найдена после некото-
рых преобразований по формуле (42.4):
ψn
P {380 ≤ ≤ 400} = P {380 · n ≤ ψn ≤ 400 · n} =
n
380n − na ψn − na 400n − na
= P{ √ ≤ √ ≤ √ }=
σ n σ n σ n
§ 43. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ДЛЯ ИСПЫТАНИЙ БЕРНУЛЛИ 281

380 · 175 − 70 000 ψn − na 400 · 175 − 70 000


= P{ ≤ √ ≤ }≈
2645, 7513 σ n 2645, 7513
ψn − na
≈ P {−1, 32 ≤ √ ≤ 0} ≈ Φ0 (0) − Φ0 (−1, 32) =
σ n
= 0 + Φ0 (1, 32) ≈ 0, 407.
Приближенное значение функции Лапласа Φ0 (1, 32) найдено по
таблицам в Приложении.

§ 43. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ


ДЛЯ ПОСЛЕДОВАТЕЛЬНОСТИ
ИСПЫТАНИЙ БЕРНУЛЛИ

43.1. ТЕОРЕМА ЯКОБА БЕРНУЛЛИ

В самом начале изучения курса мы говорили о том, что ча-


стота события при неограниченном увеличении количества ис-
пытаний стабилизируется около некоторого числа p, назван-
ного вероятностью этого события. Сначала Бюффон и другие
исследователи экспериментально установили этот факт, потом
Я. Бернулли доказал теорему о том, что частота события стре-
мится к его вероятности по вероятности. Докажем эту теорему,
в которой в качестве события, частота которого исследуется, вы-
ступает «успех» в испытаниях Бернулли.

Теорема 43.1. Теорема Бернулли. Пусть a1 , a2 , . . . , an , . . .


— последовательность независимых испытаний с двумя исхо-
дами, то есть испытаний Бернулли, с вероятностью «успеха» p,
а µn — число «успехов» в n первых испытаниях. Тогда

µn p.
−−−−−→ p . (43.1)
n n→+∞

Доказательство. Свяжем с каждым испытанием ak бернул-


лиевскую случайную величину ξk ⊂ = Bp , то есть принимающую
значение 1 с вероятностью p (если наступил «успех») и 0 с веро-
ятностью q = 1 − p (если наступила «неудача»). Иначе говоря,
ξk — число «успехов» в k-м испытании Бернулли. Тогда число
282 Глава 4. Предельные теоремы теории вероятностей

«успехов» µn в n первых испытаниях Бернулли будет равно чис-


лу единиц, принятых случайными величинами ξk при k = 1, n, то
есть µn = ξ1 + . . . + ξn . Мы знаем, что M ξk = p, Dξk = pq при
всех k = 1, +∞, то есть все ξk одинаково распределены и име-
ют конечные дисперсии. Следовательно, по следствию к теореме
Чебышёва о законе больших чисел
µn ξ1 + . . . + ξn p.
= −−−−→ p
n n
при n → +∞.

Поставьте перед собой вопрос: какое вероятностное про-
странство имеется в виду в теореме Бернулли? На каких эле-
ментарных исходах ω мы определяем случайные величины µn ,
n = 1, +∞, и случайные величины ξk ?

Если рассматривается бесконечная последовательность
испытаний Бернулли, то элементарными исходами {ω} счи-
таются бесконечные наборы «успехов» и «неудач». Например,
ω = УННУУНУ... Случайная величина ξk (ω) принимает зна-
чение 1, если у данного ω на k-м месте стоит «У», а осталь-
ные «буквы» какие угодно. Случайная величина µn (ω) принима-
ет значение, равное числу «У» на первых n местах данного ω.
Таким образом, в теореме Бернулли
¯ ¯
¯ µn (ω) ¯
P {ω ∈ Ω : ¯¯ − p¯¯ ≥ ε} −−−−−→ 0,
n n→+∞

а Ω — множество всех бесконечных наборов «успехов» и «не-


удач».

µn p.
То, что −−−−−→ p не означает, что при всех ω ∈ Ω
n n→+∞
µn
значения приближаются к p. Могут существовать элемен-
n
тарные исходы, на которых такой сходимости нет. Например, ес-
ли взять ω = УУУ..., то есть тот элементарный исход, при ко-
тором во всех испытаниях наступили «успехи», то µn (ω) = n,
µn (ω)
а = 1 при всех n и не может стремиться к p < 1.

n
Теорема 43.1 была доказана Якобом Бернулли в кон-
це XVIII века. В 1837 году ее обобщил Пуассон на случай раз-
ных вероятностей в последовательности независимых испытаний
с двумя исходами: если вероятность «успеха» в k-м испытании
равна pk , то
§ 43. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ДЛЯ ИСПЫТАНИЙ БЕРНУЛЛИ 283

ξ1 + . . . + ξn p1 + . . . + pn p.
− −−−−−→ 0,
n n n→+∞

то есть имеет место закон больших чисел в форме (41.1), тогда


как в теореме Бернулли он имеет форму (41.3) для одинаково
распределенных случайных величин. В 1917 году Кантелли3 до-
µn п.н.
казал, что −−−−−→ p.
n n→+∞
Исследования Бернулли и Пуассона положили начало раз-
делу теории вероятностей, который называется «Закон больших
чисел» (термин принадлежит Пуассону). Однако, как мы уже вы-
яснили ранее, для того чтобы считать конкретные вероятности,
одного факта сходимости недостаточно — требуется знать кон-
кретное предельное распределение. Поэтому мы рассмотрим
вопрос о центральной предельной теореме в применении к ис-
пытаниям Бернулли.

43.2. ТЕОРЕМЫ МУАВРА–ЛАПЛАСА


Рассмотрим последовательность испытаний Бернулли
a1 , a2 , . . . , an , . . . .

с вероятностью «успеха» p (0 < p < 1) в каждом испытании.


Обозначим за µn — число «успехов» в n первых испытаниях, а
Pn (m) = P {µn = m} при m = 0, 1, . . . , n.
При малых n (см. § 13) мы вычисляли такие вероятности по
формуле Бернулли (13.1)
Pn (m) = Cnm pm (1 − p)n−m ,

а вероятности типа P {m1 ≤ µn ≤ m2 } получали суммирова-


нием вероятностей Pn (m) при m1 ≤ m ≤ m2 . При больших n
подобные вычисления становятся слишком громоздкими. В этом
разделе мы приведем без доказательства две теоремы Муавра–
Лапласа (в несколько упрощенной формулировке), которые
позволят нам приближенно вычислять указанные вероятности.
Именно эти теоремы в XIX веке положили начало исследовани-
ям, связанным с предельными распределениями сумм случайных
величин — с центральной предельной теоремой.
Мы уже неоднократно связывали с испытаниями Бернулли
последовательность бернуллиевских случайных величин {ξk }∞
k=1
3 Франческо Паоло Канте́лли (Cantelli Francesco Paolo, 1875–?) — итальян-

ский математик.
284 Глава 4. Предельные теоремы теории вероятностей

и отмечали, что µn = ξ1 +. . .+ξn (ξk — число «успехов» в испы-


тании ak ). Поскольку ξk , k = 1, +∞, — независимые одинаково
распределенные случайные величины с конечными дисперсиями
Dξk = p(1 − p) = pq > 0, по теореме Леви́ для них выполняет-
o
ся центральная предельная теорема, то есть как µn , так и µn,н —
асимптотически нормальны. Как использовать это для вычисле-
ния вероятностей, мы увидим из теорем Муавра–Лапласа.
В п. 25.3 мы показали, что биномиальная случайная величи-
на µn имеет математическое ожидание M µn = np и дисперсию
Dµn = npq. Следовательно, нормированным уклонением для µn
o µn − np
является случайная величина µn,н = √ . Эта случайная ве-
npq
личина принимает значения

m − np
xm = √ , m = 0, 1, 2, ..., n . (43.2)
npq

Теорема 43.2. Локальная теорема Муавра–Лапласа.


При сделанных предположениях имеет место соотношение4 :

Pn (m)
lim x2m
=1 . (43.3)
n→+∞ √ 1 · √1 exp{−
npq 2π 2 }

Следствие. При достаточно больших n имеет место приближен-


ное равенство:

1 1 x2
m
Pn (m) ≈ √ · √ e− 2 = 1 . (43.4)
npq 2π
Если вы внимательно посмотрите на выражение в правой ча-
сти (43.4) с учетом (43.2), то увидите, что оно представляет
√ со-
бой значение плотности нормального закона N (np; npq) в
точках x = m. Таким образом, теорема 43.2 устанавливает, что
с ростом n биномиальное распределение приближается к нор-
мальному. Чтобы пользоваться формулой (43.4), нужны табли-
цы плотности нормального закона, но эти таблицы составлены
4 В строгой формулировке утверждается, что соотношение (43.3) имеет ме-

сто равномерно для всех m, при которых xm находится в каком-либо конечном


интервале [4].
§ 43. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ДЛЯ ИСПЫТАНИЙ БЕРНУЛЛИ 285

только для плотности N (0, 1). Поэтому формула (43.4) и запи-


сана в таком — удобном для использования — виде: если вы-
числить сначала xm по формуле (43.2), то по таблицам можно
найти значение плотности случайной величины ξ0 ⊂ = N (0, 1) в
1 − x2m
точке xm : ϕ(xm ) = fξ0 (xm ) = √ e 2 . Затем полученный ре-
√ 2π
зультат следует разделить на npq — и приближенное значение
вероятности Pn (m) найдено.

Теорема 43.3. Интегральная теорема Муавра–Лапласа.


При сделанных выше предположениях для любых a, b ∈ R
имеет место соотношение5 :

¯ Zb x2 ¯
¯ µn − np 1 − ¯
lim ¯P {a ≤ √ ≤ b} − √ e 2 dx¯¯ = 0 .
n→+∞¯ npq 2π
a
(43.5)

Следствие.
При достаточно больших n имеет место приближенное равен-
ство:
µn − np
P {a ≤ √ ≤ b} ≈ Φ(b) − Φ(a) = Φ0 (b) − Φ0 (a) , (43.6)
npq

где Φ(x) — функция распределения нормального закона N (0, 1),


а Φ0 (x) — функция Лапласа (см. § 30).
Формулы (43.4) и (43.6) позволяют использовать асимпто-
o
тическую нормальность случайных величин µn и µn,н для при-
ближенного вычисления указанных вероятностей при достаточ-
но больших n. Из формулы (43.6) можно получить и вероятности
других событий, связанных с µn :
µn
P {m1 ≤ µn ≤ m2 }, P {`1 ≤ ≤ `2 }
n
и т. п. Например, µ ¶ µ ¶
m2 − np m1 − np
P {m1 ≤ µn ≤ m2 } ≈ Φ0 √ − Φ0 √ .
npq npq
5 В строгой формулировке утверждается, что соотношение (43.5) имеет место

равномерно относительно a и b [4].


286 Глава 4. Предельные теоремы теории вероятностей

Кроме того, нестрогие неравенства в этих формулах можно за-


менить строгими, так как гауссовская случайная величина имеет
непрерывный тип распределения, а следовательно, вероятности
принять конкретные значения равны нулю.
Использовать предельные теоремы Муавра–Лапласа реко-
мендуется при np ≥ 10 , так как при p очень близких к 0
или 1 (малых np или nq) теоремы Муавра–Лапласа дают плохое
приближение (см. [4]). Если np ≤ 9, то рекомендуется пользо-
ваться теоремой Пуассона, которая будет доказана в следующем
параграфе.
Пример 43.1. Вероятность выхода из строя за время T одно-
го конденсатора равна 0,2. Определить вероятность того, что за
время T из 100 конденсаторов выйдут из строя: а) ровно 25 кон-
денсаторов; б) менее 30 конденсаторов; в) от 30 до 40 конденса-
торов.
Прежде всего, нам необходимо «увидеть» в этой задаче ис-
пытания Бернулли. Действительно: за время T испытывается
n = 100 конденсаторов. Каждый из них может выйти из строя
(«успех») с вероятностью p = 0, 2 независимо от других. Следо-
вательно, испытания Бернулли налицо. Нас интересуют вероят-
ности: а) P100 (25), б) P {µn < 30} и в) P {30 ≤ µn ≤ 40}.
Вычислим np = 100 · 0, 2 = 20. Следовательно, имеет смысл
воспользоваться теоремами Муавра–Лапласа. По локальной
теореме найдем P100 (25). Вычислим
m − np 25 − 20 5
xm = √ =√ = = 1, 25.
npq 20 · 0, 8 4

Тогда по (43.4)

1 1 1,252 1 1
P100 (25) ≈ · √ e− 2 ≈ ϕ(1, 25) ≈ · 0, 1826 ≈ 0, 046.
4 2π 4 4
Найдем вероятность б) по интегральной теореме Муавра–Лапла-
o
са. Так как µn,н асимптотически нормальна, получим:
½ ¾
µn − np 30 − np
P {µn < 30} = P √ < √ ≈
npq npq
µ ¶ µ ¶
30 − np 30 − 20
≈Φ √ =Φ = Φ(2, 5) ≈ 0, 99.
npq 4
§ 43. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ДЛЯ ИСПЫТАНИЙ БЕРНУЛЛИ 287

Вероятность в) найдем по формуле (43.6):


½ ¾
30 − np µn − np 40 − np
P {30 ≤ µn ≤ 40} = P √ ≤ √ ≤ √ =
npq npq npq
½ ¾
µn − np
= P 2, 5 ≤ √ ≤5 ≈ Φ0 (5) − Φ0 (2, 5) ≈
npq
≈ 0, 5 − 0, 4938 = 0, 0062 ≈ 0, 006.
Приближенные значения всех вероятностей были найдены по
таблицам в Приложении.
Пример 43.2. Узел связи дивизии обслуживает 1000 абонентов.
Каждый из абонентов в среднем занимает линию связи в течение
6 мин за час. а) Какова вероятность того, что число вызовов в
данный момент времени не превысит число каналов, если кана-
лов 130? б) Какое число N каналов надо иметь, чтобы исключить
длительные ожидания? Например, чтобы вероятность превыше-
ния числом вызовов числа каналов была не более 0,003.
Установим наличие испытаний Бернулли. Мы уже рассмат-
ривали аналогичную задачу в примере 13.3. В данный момент
времени проводится n = 1000 испытаний. Каждый из абонен-
тов может занимать линию («успех») или не занимать («неуда-
ча»). Если в среднем абонент занимает линию 6 минут за
1 час = 60 мин, то по геометрической вероятности можно полу-
чить вероятность «успеха»: p = 6/6 = 0, 1. Вычислим np =
= 1000 · 0, 1 = 100 >> 10. Используем интегральную теорему
Муавра–Лапласа для получения ответов как на вопрос а), так и
на вопрос б).
а) Вычислим вероятность, считая случайную величину µn —
число вызовов, то есть число абонентов, в данный момент време-
ни занимающих линию, — асимптотически нормальной:
½ ¾
µn − np 130 − np
P {µn ≤ 130} = P √ ≤ √ ≈
npq npq
µ ¶ µ ¶
130 − 100 30
≈Φ √ =Φ √ ≈ Φ(3, 16) ≈ 0, 999.
100 · 0, 9 90
б) Запишем требуемое неравенство для вероятности:

0, 003 ≥ P {µn > N } = 1 − P {0 ≤ µn ≤ N } =


288 Глава 4. Предельные теоремы теории вероятностей

½ ¾
−np µn − np N − np
=1−P √ ≤ √ ≤ √ ≈
npq npq npq
µ ¶ µ ¶
N − 100 N − 100
≈ 1 − Φ0 √ + Φ0 (−10, 5) ≈ 0, 5 − Φ0 √ .
3 10 3 10
Отсюда µ ¶
N − 100
Φ0 √ ≥ 0, 497.
3 10
N − 100
По таблице в Приложении найдем√ ≥ 2, 75, так как
3 10
функция Лапласа — функция возрастающая. Из последнего не-
равенства определим N :

N ≥ 2, 75 · 3 10 + 100 ≈ 126, 09.

Следовательно, нужно иметь не менее 126 каналов.

43.3. ТЕОРЕМА ПУАССОНА

Рассматривая теоремы Муавра–Лапласа, мы отмечали, что


их рекомендуется использовать при np ≥ 10, то есть при доста-
точно больших n и не слишком малых p. Если np ≤ 9, хорошее
приближение биномиального распределения дает распределение
Пуассона. Рассмотрим теорему Пуассона в несколько упрощен-
ной формулировке.
Пусть имеется последовательность серий испытаний Бернул-
ли, причем вероятность «успеха» меняется по мере увеличения
числа испытаний.
Испытания Бернулли Вероятность успеха
a11 p1
a21 , a22 p2
a31 , a32 , a33 p3
...........................................................
an1 , an2 , an3 , ..., ann pn
...........................................................
Обозначим за µn — число успехов в n-й серии, а

Pn (m) = P {µn = m}, m = 0, n.


§ 43. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ДЛЯ ИСПЫТАНИЙ БЕРНУЛЛИ 289

Теорема 43.4. Теорема Пуассона.


Пусть при сделанных предположениях npn = λ = const6 . То-
гда
λm −λ
lim Pn (m) = e . (43.7)
n→+∞ m!

Доказательство. Фиксируем какое-либо m. Запишем форму-


лу Бернулли (13.1) для Pn (m) и проведем ряд преобразований,
λ
подставив pn = :
n
Pn (m) = Cnm pm
n (1 − pn )
n−m
=
µ ¶m µ ¶n−m
n! λ λ
= · 1− =
(n − m)!m! n n
µ ¶n−m
λm n(n − 1)(n − 2) · ... · (n − m + 1) λ
= · · 1− =
m! nm n
µ ¶n−m
λm n−1 n−2 n−m+1 λ
= ·1· · · ... · · 1− =
m! n n n n
µ ¶µ ¶ µ ¶µ ¶n
λm 1 2 m−1 λ
= · 1− 1− · ... · 1 − 1− ×
m! n n n n
µ ¶−m
λ λm −λ
× 1− → e при n → +∞,
n m!
µ ¶ µ ¶−m
k λ
так как 1 − → 1 при k = 1, m − 1; 1 − → 1,
n n
поскольку m и λ — фиксированные числа, а
µ ¶n "µ ¶−n/λ #−λ
λ 1
1− = 1+ n → e−λ
n (− )
λ
µ ¶
n
по второму замечательному пределу, так как − → −∞ при
λ
n → +∞.
6 В общей формулировке теоремы Пуассона допускается λ = np 6= const
n n
и требуется, чтобы pn → 0, n → +∞ [4]. Соответственно изменяется и форму-
ла (43.7).
290 Глава 4. Предельные теоремы теории вероятностей

Следствие.
Если рассматривается последовательность испытаний Бернул-
ли: a1 , a2 , . . . , an с вероятностью «успеха» p в каждом испыта-
нии, то при достаточно больших n и малых p имеет место при-
ближенная формула:

λm −λ
Pn (m) ≈ e , где λ = np . (43.8)
m!
Отметим сразу, что для биномиальной случайной величины
ξ = µn число np является математическим ожиданием:
M ξ = np, что часто используется при решении задач.
Распределение Пуассона затабулировано. В Приложении
приведены две таблицы для 0, 1 ≤ λ ≤ 9. Одна таблица — для
λm −λ
одиночных значений вероятностей e . На входе этой таб-
m!
лицы два параметра: λ и m. Вторая таблица — для суммарных
k λm e−λ
P
вероятностей . У нее на входе также два параметра:
m=0 m!
λ и k.
Посмотрим на конкретных примерах, как эти таблицы можно
использовать.
Пример 43.3. Вероятность необнаружения брака при проверке
электропневмоклапана в заводском ОТК равна 0,001. Испыты-
вается партия клапанов в количестве 5000 штук. Найти вероят-
ность того, что в партии останется: а) ровно 6 бракованных кла-
панов; б) не менее 4 бракованных клапанов.
Испытание Бернулли налицо: n = 5000, p = 0, 001, число
«успехов» — число бракованных клапанов. Вычислим
np = 5000 · 0, 001 = 5 < 9.
Следовательно, можно использовать теорему Пуассона с пара-
метрами λ = np = 5 и m = 6 для вопроса а):
λm −λ 56
P5000 (6) ≈ e = e−5 ≈ 0, 146223 ≈ 0, 15.
m! 6!
Приближенное значение было найдено по таблице одиночных ве-
роятностей в Приложении при λ = 5, m = 6.
Найдем ответ на вопрос б). «Не менее 4 бракованных кла-
панов» означает, что в партии осталось от 4 до 5000 таких кла-
панов, и мы должны сложить соответствующие вероятности.
§ 43. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ДЛЯ ИСПЫТАНИЙ БЕРНУЛЛИ 291

Проще перейти к дополнительному событию:

P {не менее 4 бракованных клапанов} =

= P {m ≥ 4} = 1 − P {m < 4} = 1 − P {m = 0, 1, 2, 3} =
3
X
= 1 − (Pn (0) + Pn (1) + Pn (2) + Pn (3)) = 1 − P5000 (m) ≈
m=0

X3 X3
λm −λ 5m −5
≈1− e =1− e ≈ 1 − 0, 265026 =
m=0
m! m=0
m!

= 0, 734974 ≈ 0, 73.
Приближенное значение было найдено по таблице суммарных
вероятностей в Приложении при λ = 5, k = 3.
В этом примере в условии были сразу указаны значения p и n.
Бывают задачи, в которых не даны значения этих параметров,
так как они неизвестны или испытаний «очень много». В таких
задачах обычно указывается среднее значение рассматриваемой
биномиальной случайной величины, то есть как раз математиче-
ское ожидание, которое совпадает с np = λ.
Пример 43.4. На радиомаяк-ответчик в течение часа в среднем
поступает 16 запросов. Какова вероятность того, что в течение
30 минут: а) поступит ровно 7 запросов; б) поступит не более двух
запросов?
Мы видим по условию задачи, что испытаний достаточно мно-
го. Например, каждую секунду проводится серия испытаний Бер-
нулли и фиксируется число «успехов» — число запросов. В сред-
нем, поступает 16 запросов в час, то есть 8 запросов за 30 минут.
Раз «в среднем» — значит, таково и математическое ожидание
числа запросов — «успехов» за 30 минут. Таким образом, мож-
но считать λ = np = 8 < 9. Применяем теорему Пуассона. Для
вероятности а) имеем m = 7, λ = 8:

87 −8
Pn (7) ≈ e ≈ 0, 139587 ≈ 0, 14.
7!
Для вычисления вероятности б) в данном случае не нужно пе-
реходить к противоположному событию:

P {не более двух запросов} = P {m = 0, 1, 2} =


292 Глава 4. Предельные теоремы теории вероятностей

2
X X2
λm −λ
= Pn (m) ≈ e ≈ 0, 013754 ≈ 0, 014.
m=0 m=0
m!
Приближенное значение было найдено по таблице суммарных
вероятностей распределения Пуассона в Приложении при λ = 8,
k = 2.
Мы закончили изучение основных предельных теорем теории
вероятностей. Подведем некоторый итог. Мы выяснили, что:
• если проводится большое число испытаний, то объем
работы, связанный с вычислением вероятностей, можно со-
кратить, используя предельные распределения сумм слу-
чайных величин;
• среднее арифметическое n случайных величин с ростом n
«ведет себя» вполне определенным образом, и сделали из
этого некоторые выводы;
• выполнение центральной предельной теоремы и зако-
на больших чисел связано с существованием и свойствами
моментов рассматриваемых случайных величин;
• независимость случайных величин оказывает большое
влияние на «поведение» их сумм;
• нормальный (гауссовский) закон распределения вероятно-
стей играет огромную роль при исследовании случайных
величин.
Еще в древности было замечено, что в массовых случайных
явлениях наблюдается некоторая стабильность, появляются за-
кономерности. При воздействии на какой-либо процесс большо-
го количества случайных факторов, их суммарное действие под-
чиняется вполне определенным законам.
ПРИЛОЖЕНИЕ

ТАБЛИЦЫ

1 1 2
Таблица 1. Таблица значений функции φ(x) = √ e− 2 x

x 0 1 2 3 4 5 6 7 8 9

0, 0 0, 3989 3989 3989 3988 3986 3984 3982 3980 3977 3973
0, 1 3970 3965 3961 3956 3951 3345 3939 3932 3925 3918
0, 2 3910 3902 3894 3885 3876 3867 3857 3847 3836 3825
0, 3 3814 3802 3790 3778 3765 3752 3739 3726 3712 3697
0, 4 3683 3668 3653 3637 3621 3605 3589 3572 3555 3538
0, 5 3521 3503 3485 3467 3448 3429 3410 3391 3372 3352
0, 6 3332 3312 3292 3271 3251 3230 3209 3187 3166 3144
0, 7 3123 3101 3079 3056 3034 3011 2989 2966 2943 2920
0, 8 2897 2874 2850 2827 2803 2780 2756 2732 2709 2685
0, 9 2661 2637 2613 2589 2565 2541 2516 2492 2468 2444
1, 0 0, 2420 2396 2371 2347 2323 2299 2275 2251 2227 2203
1, 1 2179 2155 2131 2107 2083 2059 2036 2012 1989 1965
1, 2 1942 1919 1895 1872 1849 1826 1804 1781 1758 1736
1, 3 1714 1691 1669 1647 1626 1604 1582 1561 1539 1518
1, 4 1497 1476 1456 1435 1415 1394 1374 1354 1334 1315
1, 5 1295 1276 1257 1238 1219 1200 1182 1163 1145 1127
1, 6 1109 1092 1074 1057 1040 1023 1006 0989 0973 0957
1, 7 0940 0925 0909 0893 0878 0863 0648 0833 0818 0804
1, 8 0790 0775 0761 0748 0734 0721 0707 0694 0681 0669
1, 9 0656 0644 0632 0620 0608 0596 0584 0573 0562 0551
2, 0 0, 0540 0529 0519 0508 0498 0488 0478 0468 0459 0449
2, 1 0440 0431 0422 0413 0404 0396 0387 0379 0371 0363
2, 2 0355 0347 0339 0332 0325 0317 0310 0303 0297 0290
2, 3 0283 0277 0270 0264 0258 0252 0246 0241 0235 0229
2, 4 0224 0219 0213 0208 0203 0198 0194 0189 0184 0180
2, 5 0175 0171 0167 0163 0158 0154 0151 0147 0143 0139
2, 6 0136 0132 0129 0126 0122 0119 0116 0113 0110 0107
2, 7 0104 0101 0099 0096 0093 0091 0088 0086 0084 0081
2, 8 0079 0077 0075 0073 0071 0069 0067 0065 0063 0061
2, 9 0060 0058 0056 0055 0053 0051 0050 0048 0047 0046
3, 0 0, 0044 0043 0042 0040 0039 0038 0037 0036 0035 0034
3, 1 0033 0032 0031 0030 0029 0028 0027 0026 0025 0025
3, 2 0024 0023 0022 0022 0021 0020 0020 0019 0018 0018
3, 3 0017 0017 0016 0016 0015 0015 0014 0014 0013 0013
3, 4 0012 0012 0012 0011 0011 0010 0010 0010 0009 0009
3, 5 0009 0008 0008 0008 0008 0007 0007 0007 0007 0006
3, 6 0006 0006 0006 0005 0005 0005 0005 0005 0005 0004
3, 7 0004 0004 0004 0004 0004 0004 0003 0003 0003 0003
3, 8 0003 0003 0003 0003 0003 0002 0002 0002 0002 0002
3, 9 0002 0002 0002 0002 0002 0002 0002 0002 0001 0001
4, 0 0001 0001 0001 0001 0001
294 Приложение

1 Rx − 1 x2
Таблица 2. Таблица значений функции Лапласа Φ0 (x) = √ e 2 dt
2π 0

x 0 1 2 3 4 5 6 7 8 9

0, 0 0, 0000 0040 0080 0120 0159 0199 0239 0279 0319 0359
0, 1 0398 0438 0478 0517 0557 0596 0636 0675 0714 0754
0, 2 0793 0832 0871 0909 0948 0987 1026 1064 1103 1141
0, 3 1179 1217 1255 1293 1331 1368 1406 1443 1480 1517
0, 4 1554 1591 1628 1664 1700 1736 1772 1808 1844 1879
0, 5 1915 1950 1985 2019 2054 2088 2123 2157 2190 2224
0, 6 2257 2291 2324 2356 2389 2421 2454 2486 2517 2549
0, 7 2580 2611 2642 2673 2703 2734 2764 2794 2823 2852
0, 8 2881 2910 2939 2967 2995 3023 3051 3078 3106 3133
0, 9 3159 3186 3212 3238 3264 3290 3315 3340 3365 3389

1, 0 3413 3437 3461 3485 3508 3531 3554 3577 3599 3621
1, 1 3643 3665 3686 3708 3729 3749 3770 3790 3810 3830
1, 2 3849 3869 3888 3907 3925 3943 3962 3980 3997 4015
1, 3 4032 4049 4066 4082 4099 4115 4131 4147 4162 4117
1, 4 4192 4207 4222 4236 4251 4265 4279 4292 4306 4319
1, 5 4332 4345 4357 4370 4382 4394 4406 4418 4429 4441
1, 6 4452 4463 4474 4484 4495 4505 4515 4525 4535 4545
1, 7 4554 4564 4573 4582 4591 4599 4608 4616 4625 4633
1, 8 4641 4648 4656 4664 4671 4678 4686 4693 4699 4706
1, 9 4713 4719 4726 4732 4738 4744 4750 4756 4762 4767

2, 0 4772 4778 4783 4788 4793 4798 4803 4808 4812 4817
2, 1 4821 4826 4830 4834 4838 4842 4846 4850 4854 4857
2, 2 4861 4864 4868 4871 4874 4878 4881 4884 4887 4890
2, 3 4893 4896 4898 4901 4904 4906 4909 4911 4913 4916
2, 4 4918 4920 4922 4924 4927 4929 4930 4932 4934 4936
2, 5 4938 4940 4941 4943 4947 4946 4948 4949 4951 4952
2, 6 4953 4955 4956 4957 4958 4960 4961 4962 4963 4964
2, 7 4965 4966 4967 4968 4969 4970 4971 4972 4973 4974
2, 8 4974 4975 4976 4977 4977 4978 4979 4979 4980 4981
2, 9 4981 4982 4982 4983 4984 4984 4985 4985 4986 4986
ТАБЛИЦЫ 295

λm −λ
Таблица 3. Таблица значений функции e
m!

HH λ
0, 1 0, 2 0, 3 0, 4 0, 5 0, 6
m HH

0 0, 904837 818731 740818 670320 606531 548812


1 090484 163746 222245 268128 303265 329287
2 004524 016375 033337 053626 075816 098786
3 000151 001091 003334 007150 012636 019757
4 000004 000055 000250 000715 001580 002964
5 000002 000015 000057 000158 000356
6 000001 000004 000013 000035
7 000001 000003

HH λ
0, 7 0, 8 0, 9 1, 0 2, 0 3, 0
m HH

0 0, 496585 449329 406570 367879 135335 049787


1 347610 359463 365913 367879 270671 149361
2 121663 143785 164661 183940 270671 224042
3 028388 038343 049398 061313 180447 224042
4 004968 007669 011115 015328 090224 168031
5 000695 001227 002001 003066 036089 100819
6 000081 000164 000300 000511 012030 050409
7 000008 000019 000039 000073 003437 021604
8 000002 000004 000009 000859 008101
9 000001 000191 002701
10 000038 000810
11 000007 000221
12 000001 000055
13 000013
14 000003
15 000001
296 Приложение

Продолжение табл. 3

HH λ
4, 0 5, 0 6, 0 7, 0 8, 0 9, 0
m HH

0 0, 018316 006738 002479 000912 000335 000123


1 073263 033690 014873 006383 002684 001111
2 146525 084224 044618 022341 010735 004998
3 195367 140374 089235 052129 028626 014994
4 195367 175467 133853 091226 057252 033737
5 156293 175467 160623 127717 091604 060727
6 104194 146223 160623 149003 122138 091090
7 059540 104445 137677 149003 139587 117116
8 029770 065278 103258 130377 139587 131756
9 013231 036266 068838 101405 124077 131756
10 005292 018133 041303 070983 099262 118580
11 001925 008242 022529 045171 072190 097020
12 000642 003434 011262 026350 048127 072765
13 000197 001321 005199 014188 029616 050376
14 000056 000472 002228 007094 016924 032384
15 000015 000157 000891 003311 009026 019431
16 000004 000049 000334 001448 004513 010930
17 000001 000014 000118 000596 002124 005786
18 000004 000039 000232 000944 002893
19 000001 000012 000085 000397 001370
20 000004 000030 000159 000617
21 000001 000010 000061 000264
22 000003 000022 000108
23 000001 000008 000042
24 000003 000016
25 000001 000006
26 000002
27 000001
ТАБЛИЦЫ 297

k λm
P
Таблица 4. Таблица значений функции e−λ
m=0 m!

HH λ
0, 1 0, 2 0, 3 0, 4 0, 5 0, 6
k HH

0 0, 904837 0, 818731 0, 740818 0, 670320 0, 606531 0, 548812


1 0, 995321 0, 982477 0, 963063 0, 938448 0, 909796 0, 878099
2 0, 999845 0, 998852 0, 996400 0, 992074 0, 985612 0, 976885
3 0, 999996 0, 999943 0, 999734 0, 999224 0, 998248 0, 996642
4 1, 000000 0, 999998 0, 999984 0, 999939 0, 999828 0, 999606
5 1, 000000 1, 000000 0, 999999 0, 999996 0, 999986 0, 999962
6 1, 000000 1, 000000 1, 000000 1, 000000 0, 999999 0, 999997
7 1, 000000 1, 000000 1, 000000 1, 000000 1, 000000 1, 000000

HH λ
0, 7 0, 8 0, 9 1, 0 2, 0 3, 0
k HH

0 0, 496585 0, 449329 0, 406570 0, 367879 0, 135335 0, 048797


1 0, 844195 0, 808792 0, 772483 0, 735759 0, 406006 0, 199148
2 0, 965858 0, 952577 0, 937144 0, 919699 0, 676677 0, 423190
3 0, 994246 0, 990920 0, 986542 0, 981012 0, 857124 0, 647232
4 0, 999214 0, 998589 0, 997657 0, 996340 0, 947348 0, 815263
5 0, 999909 0, 999816 0, 999658 0, 999406 0, 983437 0, 916082
6 0, 999990 0, 999980 0, 999958 0, 999917 0, 995467 0, 966491
7 0, 999998 0, 999999 0, 999997 0, 999990 0, 998904 0, 988095
8 1, 000000 1, 000000 1, 000000 0, 999999 0, 999763 0, 996196
9 1, 000000 0, 999954 0, 998897
10 0, 999992 0, 999707
11 0, 999999 0, 999928
12 1, 000000 0, 999983
13 0, 999996
14 0, 999999
15 1, 000000
298 Приложение

Продолжение табл. 4

HH λ
4, 0 5, 0 6, 0 7, 0 8, 0 9, 0
k HH

0 0, 018316 0, 006738 0, 002479 0, 000912 0, 000335 0, 000123


1 0, 091579 0, 040428 0, 017352 0, 007295 0, 003019 0, 001234
2 0, 238105 0, 124652 0, 061970 0, 029636 0, 013754 0, 006232
3 0, 433472 0, 265026 0, 151205 0, 081765 0, 042380 0, 021228
4 0, 628839 0, 440493 0, 285058 0, 172991 0, 099632 0, 054963
5 0, 785132 0, 615960 0, 445681 0, 300708 0, 191236 0, 115690
6 0, 889326 0, 772183 0, 606304 0, 449711 0, 313374 0, 206780
7 0, 948866 0, 866628 0, 743981 0, 598714 0, 452961 0, 323896
8 0, 978636 0, 931806 0, 847239 0, 729091 0, 592548 0, 455652
9 0, 991867 0, 968172 0, 916077 0, 830496 0, 716625 0, 587408
10 0, 997159 0, 986305 0, 957380 0, 901479 0, 815887 0, 705988
11 0, 999084 0, 994547 0, 979909 0, 946650 0, 888077 0, 803008
12 0, 999726 0, 997981 0, 991173 0, 973000 0, 936204 0, 875773
13 0, 999923 0, 999202 0, 996372 0, 987188 0, 965820 0, 926149
14 0, 999979 0, 999774 0, 998600 0, 994282 0, 982744 0, 958533
15 0, 999994 0, 999931 0, 999491 0, 997593 0, 991770 0, 977964
16 0, 999998 0, 999980 0, 999825 0, 999041 0, 996283 0, 988894
17 0, 999999 0, 999994 0, 999943 0, 999637 0, 998407 0, 994680
18 0, 999999 0, 999998 0, 999982 0, 999869 0, 999351 0, 997573
19 0, 999999 0, 999999 0, 999994 0, 999955 0, 999748 0, 998943
20 1, 000000 0, 999999 0, 999998 0, 999985 0, 999907 0, 999560
21 1, 000000 0, 999999 0, 999995 0, 999967 0, 999824
22 0, 999999 0, 999998 0, 999989 0, 999932
23 1, 000000 0, 999999 0, 999997 0, 999974
24 0, 999999 0, 999999 0, 999990
25 1, 000000 0, 999999 0, 999996
26 1, 000000 0, 999998
27 0, 999999
28 1, 000000
ЛИТЕРАТУРА

[1] Боровков А. А. Теория вероятностей М.: Наука, 1986,


431 с.
[2] Бочаров П. П., Печинкин А. В. Теория вероятностей. М.,
1994, 165 с.
[3] Вентцель Е. С. Теория вероятностей. М.: Наука, 1969,
576 с.
[4] Гнеденко Б. В. Курс теории вероятностей. М.: Наука, 1988,
447 c.
[5] Иоффе А. Я. и др. Вероятностные методы в прикладной ки-
бернетике. М.: ВИКИ, 1976, 426 с.
[6] Иоффе А. Я., Марков В. М., Петухов Г. Б. Теория веро-
ятностей. Л.: ЛВИКА, 1966, 260 c.
[7] Лоэв М. Теория вероятностей. М., 1962, 719 с.
[8] Прохоров Ю. В., Розанов Ю. А. Теория вероятностей.
СМБ.: Наука, 1973, 397 c.
[9] Реньи А. Письма о вероятности. М.: Мир, 1970, 53 с.
[10] Рыбников К. А. История математики. М.: Изд-во МГУ,
1994, 386 с.
[11] Смирнов Н. В., Дунин-Барковский И. В. Краткий курс
математической статистики для технических приложений.
М.: Физматгиз, 1959, 436 с.
[12] Чистяков В. П. Курс теории вероятностей. М.: Наука,
1987, 248 с.
Èðèíà Âèêòîðîâíà ÕÐÓÙ¨ÂÀ
ÒÅÎÐÈß ÂÅÐÎßÒÍÎÑÒÅÉ
Ó÷åáíîå ïîñîáèå

ËÐ ¹ 065466 îò 21.10.97
Ãèãèåíè÷åñêèé ñåðòèôèêàò 78.01.07.953.Ï.004173.04.07
îò 26.04.2007 ã., âûäàí ÖÃÑÝÍ â ÑÏá
Èçäàòåëüñòâî «ËÀÍÜ»
lan@lpbl.spb.ru; www.lanbook.com
192029, Ñàíêò-Ïåòåðáóðã, Îáùåñòâåííûé ïåð., 5.
Òåë./ôàêñ: (812)412-29-35, 412-05-97, 412-92-72.
Áåñïëàòíûé çâîíîê ïî Ðîññèè: 8-800-700-40-71

Ïîäïèñàíî â ïå÷àòü 20.07.09.


Áóìàãà îôñåòíàÿ. Ãàðíèòóðà Ëèòåðàòóðíàÿ. Ôîðìàò 84×108 1/32.
Ïå÷àòü îôñåòíàÿ. Óñë. ï. ë. 15,96. Òèðàæ 2000 ýêç.

Çàêàç ¹ .
Îòïå÷àòàíî â ïîëíîì ñîîòâåòñòâèè
ñ êà÷åñòâîì ïðåäîñòàâëåííûõ äèàïîçèòèâîâ
â ÎÀÎ «Èçäàòåëüñêî-ïîëèãðàôè÷åñêîå ïðåäïðèÿòèå «Ïðàâäà Ñåâåðà».
163002, ã. Àðõàíãåëüñê, ïð. Íîâãîðîäñêèé, ä. 32.
Òåë./ôàêñ (8182) 64-14-54; www.ippps.ru

Вам также может понравиться