Вы находитесь на странице: 1из 612

МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ УКРАИНЫ

НАЦИОНАЛЬНЫЙ ТЕХНИЧЕСКИЙ УНИВЕРСИТЕТ


"Харьковский политехнический институт"

С. П. Иглин

Теория вероятностей
и математическая статистика
на базе MATLAB

Учебное пособие

Утверждено
редакционно-издательским
советом университета,
протокол № 1 от 20.01.2005 г.

Харьков НТУ «ХПИ» 2006

1
ББК 22.171
І 26
УДК 519.2, 681.142.2

Р е ц е н з е н т и: А. Д. Тевяшев, д-р техн. наук, проф., Харківський


національний університет радіоелектроніки;
В. Б. Фінкельштейн, д-р техн. наук, проф., Харків-
ська державна академія міського господарства.

Розглядається курс теорії ймовірностей і математичної статистики в ме-


жах програми для технічних вузів. Усі розділи орієнтовані на широке застосуван-
ня математичного пакета MATLAB.
Призначено для студентів, аспірантів, викладачів, що використають у
своїй діяльності цей математичний апарат і MATLAB.

Іглін С. П.
Теорія ймовірностей та математична статистика на базі MATLAB:
Навч. посіб. – Харків: НТУ "ХПІ", 2006. – 612 c. – Рос. мовою.
ІSBN 966-593-466-X
Рассматривается курс теории вероятностей и математической статистики
в пределах программы для технических вузов. Все разделы ориентированы на
широкое применение математического пакета MATLAB.
Предназначено для студентов, аспирантов, преподавателей, использую-
щих в своей деятельности этот математический аппарат и MATLAB.

Іл. 167. Табл. 10. Бібліогр.: 45 назв.


ББК 22.171
ІSBN 966-593-466-X  С. П. Іглін, 2006.

2
Введение

Зачем нужна ещё одна книга по теории вероятностей и математиче-


ской статистике? Ведь есть такие прекрасные учебники, задачники и ре-
шебники, как [4, 5, 6, 7, 8, 9, 13, 22, 28, 30, 35, 43], пособия [18, 29, 33,
39] и много другой литературы. В частности, в последние годы были из-
даны книги [20, 23] и другие, которые также нашли своего читателя. Но
одна важная особенность развития вычислительных технологий в
настоящее время привела к возникновению нового направления в учеб-
ной литературе. Эта особенность – появление мощных математических
пакетов, позволяющих максимально упростить процесс подготовки зада-
чи, её решения и анализа результатов. Применяя такие программные
продукты, как Maple, Mathcad, Mathematica или MATLAB, многие мате-
матические задачи можно решить с помощью одной команды. Это могут
быть, например:
• конечное или дифференциальное уравнение;
• различные аналитические выкладки (дифференцирование, интегри-
рование, вычисление предела);
• задачи линейной алгебры (проблема собственных значений, обраще-
ние матрицы);
• задачи статистики, как в нашем случае: построение гистограммы,
подбор теоретического распределения по выборке, дисперсионный
анализ и многое другое.
Математические пакеты находят широкое применение и в исследо-
ваниях, и в образовании. Сегодня проведение лабораторных работ в
компьютерном классе уже стало стандартом обучения в техническом
вузе. Поэтому появились учебники нового поколения, которые в макси-
мальной степени используют при изучении различных курсов те или
иные программные средства и, в частности, математические пакеты.
Обычно в названии такой книги фигурирует изучаемый курс и
используемый программный продукт. Здесь можно отметить такие учеб-

3
ники и учебные пособия, как [2] (теория вероятностей и математическая
статистика, Mathcad и Statistica), [10] (уравнения математической физи-
ки, Maple), [15] (вариационное исчисление, математическая статистика и
теория графов, MATLAB), [24] (аналитическая геометрия и линейная ал-
гебра, MATLAB), [26] (сопротивление материалов, Mathcad), [34] (анализ
данных и статистика, Stadia и Statgraphics), [37, 38] (различные разделы
высшей математики, Mathcad). Из зарубежных изданий можно выделить
[40, 41, 44], в которых используются SPSS, Statistica, MATLAB, Mathcad,
Maple.
Из всех перечисленных выше пакетов MATLAB [3, 11, 27] привлёк
наше внимание прежде всего своей универсальностью. С его помощью
можно проводить и обучение, и серьёзные научные исследования.
Освоив его во время учёбы в вузе, будущий специалист сможет приме-
нять его и дальше в своей работе. MATLAB в одинаковой мере хорошо
приспособлен и для теоретических выкладок, и для вычислений. В него
включено ядро Maple, который является общепризнанным лидером в об-
ласти символических вычислений. А сам MATLAB и его многочислен-
ные расширения, описанные, например, в [12, 19, 25], прекрасно работа-
ют с числами. Обширный список литературы по MATLAB и его расши-
рениям есть на сайтах [31] (на русском языке) и [42] (на английском).
Для привлечения клиентов производитель MATLAB компания
MathWorks Inc. позволяет вузам приобретать его со значительными скид-
ками. Это делает систему MATLAB, на наш взгляд, наиболее подходя-
щей средой для обучения студентов методам решения математических и
прикладных задач.
Среди прочих расширений в MATLAB есть специальный инстру-
ментарий для решения задач статистики [45]. Некоторые его функции
описаны на сайте [31], и этот список постоянно расширяется. В отличие
от специализированных статистических пакетов, MATLAB позволяет ис-
пользовать решение статистических задач как составную часть других
исследований. С помощью MATLAB, например, можно собрать экспери-

4
ментальные данные с прибора, установленного в одном месте Земли; об-
работать эту информацию; результаты обработки использовать в других
символических и численных расчётах как исходные данные; а по ре-
зультатам расчётов сгенерировать отчёт и отправить его в другое место
Земли.
Как и многие программы, написанные под Windows, MATLAB мо-
жет встраиваться в другие приложения этой системы и работать с ними
совместно, динамически обмениваясь данными. В частности, автором
этой книги разработан механизм совместной работы системы MATLAB и
динамической web-страницы [14], что даёт возможность публиковать в
сети Интернет интерактивные учебники с прямым доступом к MATLAB.
В частности, именно по такой технологии создана и размещена в Интер-
нете и электронная версия данной книги, доступная по адресу [16]. На
ней читатель может найти все программы из этой книги, запустить их на
счёт прямо со страницы и получить нужные ему результаты. Можно так-
же свободно переписать архив электронной версии, чтобы в дальнейшем
работать с ним на своем компьютере локально.
Эти соображения и привели к необходимости написать учебник по
теории вероятностей и математической статистике с использованием
MATLAB. Первая попытка систематического изложения вузовского кур-
са математической статистики с решением задач в среде MATLAB была
предпринята автором во второй части книги [15]. Как показали отзывы
читателей и опыт преподавания в вузе, одного курса статистики мало.
Обычно в технических вузах читается объединённый курс теории веро-
ятностей и математической статистики, поэтому удобно иметь под рукой
один учебник по этим курсам. Кроме того, для решения как учебных, так
и практических задач по статистике нужно полное описание всех стати-
стических функций MATLAB с примерами их применения. Это и
предопределило структуру настоящей книги.

5
Содержание и структура книги
Первая и вторая части посвящены соответственно теории вероятно-
стей и математической статистике. Эти части книги написаны на основе
лекций, практических и лабораторных занятий, которые автор на протя-
жении более чем 20 лет преподаёт студентам Национального техническо-
го университета "Харьковский политехнический институт" [15, 17, 32].
Объём, содержание и порядок изложения материала в этих частях соот-
ветствует программе курса теории вероятностей и математической стати-
стики для технических вузов. При написании второй части была сохране-
на структура соответствующих глав предыдущей книги автора [15]. Не-
которые доказательства опущены (в частности, теорем Гливенко-Кантел-
ли и Колмогорова и ряда критериев), т. к. они доказываются только в
университетских курсах. Их доказательства можно найти, например, на
сайте [36].
Почти все главы первой и второй частей построены примерно оди-
наково. По ходу изложения теоретического материала рассматриваются
примеры. Если их решение не может быть получено устным счётом, при-
меняется MATLAB. При этом решение везде доводится до численного
результата, при необходимости рисуется график. Но MATLAB использу-
ется не только для решения примеров. Он применяется также при гро-
моздких выкладках. Например, нахождение плотности распределения
суммы двух независимых нормальных величин сводится к вычислению
несобственного интеграла, который берётся с помощью MATLAB. В кон-
це каждой главы следуют контрольные вопросы для самопроверки.
Во вторую часть "Математическая статистика" включена глава 16 по
генерации вариантов индивидуальных домашних заданий (ИДЗ), а для
первой части "Теория вероятностей" в электронной версии книги имеет-
ся по 30 вариантов ИДЗ для каждой темы.
В конце книги – два приложения. В первом рассмотрены некоторые
приёмы статистической обработки данных в среде MATLAB. Если вы
раньше никогда не работали с MATLAB, чтение книги целесообразно на-

6
чать с него. Во втором приложении описано содержимое электронной
версии книги.
Для облегчения перекрёстных ссылок все формулы, определения,
теоремы, рисунки и т. п. имеют двойную нумерацию, включающую но-
мер главы. Конец примера, определения или доказательства отмечен
символом . Портреты учёных, помещённые в книге, взяты из Интерне-
та.
В электронной версии книги, размещённой на сайте автора в Интер-
нете, приведено описание всех функций MATLAB Statistics Toolbox с
примерами по каждой функции. Некоторые примеры взяты из
официальной документации [45], но многие написаны заново. Расшире-
ны также комментарии, отмечены найденные ошибки. Формулы взяты из
[1, 21, 45]. Эта часть книги дополнена описанием некоторых статистиче-
ских функций, которых нет в MATLAB Statistics Toolbox. Они разработа-
ны пользователями MATLAB, размещены на сайте [42] и доступны для
свободного копирования.

Совместная работа с MATLAB


Электронная версия, размещённая на сайте автора [16], включает в
себя механизм взаимосвязи с MATLAB. Для её чтения понадобится
Internet Explorer версии 4.0 или выше. Другие браузеры не поддерживают
в должной мере всевозможные динамические эффекты. В частности, для
совместной работы с MATLAB необходимо размещать на web-странице в
динамическом режиме результаты работы MATLAB, что можно реализо-
вать только при использовании этого браузера. Поэтому при написании
электронного варианта книги был использован Internet Explorer и язык
программирования VBScript. Как правило, этот браузер автоматически
устанавливается при установке на компьютер системы Windows.
Документ можно загрузить как непосредственно с web-страницы,
так и переписав архив на жёсткий диск компьютера. При использовании
второго варианта распакуйте архив в любую папку, сохраняя структуру

7
его папок. После этого никакой инсталляции не требуется: весь документ
состоит только из web-страниц, рисунков к ним, запакованных файлов с
примерами, таблиц стилей и файлов сценариев. В корневой папке нахо-
дится главный файл электронной версии книги index.html. Загрузив его,
вы попадёте в оглавление. Далее следуйте по обычным перекрёстным
ссылкам.

Рисунок 1 – Настройка обозревателя на совместную


работу с MATLAB

8
В электронный вариант книги встроен механизм взаимосвязи с
MATLAB, описанный в [14]. Для правильной совместной работы с
MATLAB нужно изменить некоторые настройки вашего обозревателя.
Выполните следующие действия.
1. Войдите в меню Сервис | Свойства обозревателя.
2. Откройте страницу Безопасность.
3. Выберите зону Интернет.
4. Включите уровень безопасности Другой.
5. Найдите переключатель Использование элементов ActiveX, не по-
меченных как безопасные (это в конце списка). Переключите фла-
жок в положение Предлагать, как показано на рис. 1.
6. Нажмите кнопку OK, чтобы принять изменение, и обновите загруз-
ку страницы.
Эти действия нужно повторить и для других зон (п. 3 вышеприве-
денного списка).
Если при загрузке любой страницы обозреватель ограничивает отоб-
ражение активного содержимого, нужно разрешить его, как показано на
рис. 2.

Рисунок 2 – Разрешите загрузку активного содержимого

9
Теперь ваш обозреватель готов к совместной работе с MATLAB. За-
грузив страницу с локального диска компьютера или через Интернет, вы
сможете подключить MATLAB, установленный на вашем компьютере
(если он там, конечно, есть). При загрузке каждой страницы (главы кни-
ги) появляется вопрос: Разрешить ли загрузку ActiveX элементов, не
помеченных как безопасные? Нужно ответить Да, т. к. в данном случае
таким элементом является MATLAB.
Ну и, конечно, для совместной работы с MATLAB нужен сам
MATLAB версии 5, 6 или 7. Если его нет, то вы сможете только читать
электронную версию книги в интерактивном режиме, но посчитать свои
задачи вам не удастся. Для полноценной работы с книгой инсталлируйте
на свой локальный компьютер MATLAB. Полная его версия занимает от
одного до трёх дисков и требует для своей установки более 800 Мбайт.
Но, если отказаться от некоторых инструментариев (в MATLAB они на-
зываются Toolboxes), то можно значительно сократить объём дискового
пространства. При решении задач из этой книги нам понадобятся
следующие инструментарии:
• Symbolic Toolbox (для символьных вычислений);
• Optimization Toolbox (для решения задач оптимизации);
• Statistics Toolbox (для статистики, в этой книге он используется бо-
льше всего).
Их нужно установить обязательно. Можно сэкономить место на дис-
ке, отказавшись от одной из двух справочных служб: или в формате
HTML, или в формате PDF. Они полностью дублируют друг друга. Пер-
вая из них по умолчанию загружается во внутренний браузер MATLAB,
но доступна также для просмотра через Internet Explorer, а вторая может
быть прочитана с помощью Acrobat Reader.
К сожалению, в MATLAB-6.0 и 6.1 есть проблемы с кодировкой не-
которых символов кириллицы. В частности, буква я (ASCII-код 255, т. е.
все единицы в двоичной системе), видимо, используется разработчиками
MATLAB в своих, служебных целях, т. к. она не воспринимается даже в

10
комментариях. Если у вас установлена такая версия, замените везде в об-
ластях ввода маленькую букву я на большую Я. Начиная с версии 6.5,
эта проблема решена, поэтому при возможности установите эту или бо-
лее позднюю версию. В электронном варианте книги описываются функ-
ции той версии Statistics Toolbox, которая поставляется с MATLAB-7.
В том месте книги, где нужно будет что-то посчитать, вы встретите
область ввода, область вывода и кнопку "Посчитать". На рис. 3 показано,
как они выглядят в электронной версии книги. Там они "живые": если в
область ввода ввести какие-либо команды MATLAB (или изменить
имеющиеся там) и нажать на кнопку "Посчитать", то команды из области
ввода будут пересланы в MATLAB, запущены на счет, а результаты воз-
вращены в область вывода на web-страницу.

Кнопка Область ввода


ввода Область вывода
Кнопка "Посчитать"
"Посчитать" Область Область вывода
Кнопка "Посчитать" Область ввода Область вывода

Рисунок 3 – Область ввода, область вывода и кнопка "Посчитать"

11
При первом нажатии на кнопку "Посчитать" к web-странице под-
ключается MATLAB (если он, конечно, установлен на вашем компью-
тере). Его пиктограмму можно увидеть на панели задач. Пока web-стра-
ница загружена, её экземпляр MATLAB остаётся подключенным к ней, и
можно считать программы, состоящие из нескольких фрагментов, раз-
мещённых в различных областях ввода. При закрытии окна web-страни-
цы автоматически закрывается и связанный с ней экземпляр MATLAB.
Поэтому, если нужно временно перейти к другой главе книги, не теряя
результаты счёта на текущей, открывайте новую web-страницу в новом
окне браузера. Электронная версия книги по умолчанию загружает каж-
дую новую страницу (главу) в новом окне.
В печатном варианте книги эти области – лишь иллюстрация. Вот
как они выглядят:

Это - образец области ввода. Сюда вводятся команды MATLAB.


Это - образец области вывода.
Сюда MATLAB направляет результаты своей работы.

Они набраны вот таким шрифтом, а область ввода заключена в


рамку и выделена светло-серым фоном. Кнопки "Посчитать" нет. Если у
вас нет электронной версии книги и доступа в Интернет, можно посту-
пить так. Запустите MATLAB на своем компьютере, откройте редактор-
отладчик и введите туда команды из каждой области ввода вручную. По-
том посылайте их на счёт.

12
Часть I. Теория вероятностей
Глава 1. Комбинаторика
Для вычисления вероятностей нам нужно будет подсчитывать ко-
личество вариантов наступления тех или иных событий. Поэтому перед
изучением теории вероятностей рассмотрим некоторые понятия, связан-
ные с комбинаторикой. Данная глава носит вспомогательный характер.
Если вы изучали этот раздел математики раньше, можно её пропустить.

1.1. Основные определения

Рисунок 1.1 – Сколькими способами можно Рисунок 1.2 – Чарльз


рассадить за столом Алису, Мартовского Зайца, Лютвидж Доджсон
Ореховую Соню и Сумасшедшего Шляпника? (Льюис Кэрролл)

Как и любая математическая дисциплина, комбинаторика возникла


из потребностей реальной жизни. Например: сколькими способами мож-
но рассадить за чайным столом четырёх персонажей сказки Льюиса Кэр-
ролла, показанных на рис. 1.1? (Charles Lutwidge Dodgson (Lewis Carroll),
1832-1898, рис. 1.2; автор иллюстрации Джон Тенниел). Или: сколько су-
ществует вариантов распределения 10 предметов на 3 кучки по 2, 3 и 5

13
предметов? А если некоторые из предметов одинаковые? Эти и другие
вопросы рассматриваются в разделе математики, который называется
комбинаторикой.
Определение 1.1. Комбинаторикой называется раздел математики,
который изучает выбор и расположение (упорядочение) объектов, а так-
же методы подсчёта общего количества способов, которыми это можно
сделать. 
Очевидно, ответы на сформулированные выше вопросы не зависят
от того, какие именно предметы, люди или персонажи рассматриваются.
Так, вместо героев сказки с рис. 1.1 мы могли бы рассматривать любые 4
предмета, например: , ,  и . Поэтому естественным представ-
ляется как-то перенумеровать предметы и рассматривать вместо них их
номера. В каком же порядке их нумеровать? В принципе это всё равно,
т. к. при любой последовательной нумерации всегда соблюдается взаим-
но-однозначное соответствие (биекция) между предметами и номерами.
Можно, например, применить лексикографическое (алфавитное) упоря-
дочение. Тогда при использовании русского языка авторучка будет пред-
метом номер 1, кассета – 2, ножницы – 3 и телефон – 4. Но при
упорядочении по английскому алфавиту нумерация уже будет другой:
cassette – 1, pen – 2, scissors – 3 и telephone – 4. Будем считать, что мы
как-то определились в этом вопросе и перенумеровали наши предметы.
Поэтому в дальнейшем, когда мы будем говорить о предметах, на практи-
ке мы будем использовать натуральные числа.
При подсчёте количества вариантов мы будем руководствоваться
двумя правилами, которые сформулируем в виде теорем с почти очевид-
ными доказательствами. Первое правило относится к последовательному
выполнению нескольких действий.
Теорема 1.1 (правило умножения). Пусть требуется совершить
одно за другим 2 действия, причём первое действие можно совершить n
способами, а второе – k способами. Тогда общее количество способов,
которыми можно совершить эти 2 действия, равно nk.
Доказательство. Для каждого из n способов совершения 1-го дей-

14
ствия есть k вариантов продолжения (выполнения 2-го действия). Всего,
таким образом, имеем k + k + … (всего n раз) = nk способов. 
Эта теорема допускает обобщение на случай нескольких последова-
тельно выполняемых действий.
Следствие 1.1. Пусть требуется совершить одно за другим n дей-
ствий, причём первое действие можно совершить k1 способами, второе –
k2 способами, …, и n-е действие – kn способами. Тогда общее количество
способов, которыми можно совершить все n действий, равно
n

N n= k 1 k 2 …k n =∏ k i . (1.1)
i=1

Доказательство строим по индукции. Для n = 2 данное утверждение


уже доказано. Пусть оно имеет место для n = m: Nm = k1k2…km. Докажем,
что тогда оно справедливо и для n = m + 1. Эти m + 1 действий можно
рассматривать как проведение вначале m действий, а затем ещё одного, и
применить к ним теорему 1.1. Тогда Nm+1 = Nmkm+1 = k1k2…kmkm+1. По индук-
ции утверждение доказано. 

Если действия производятся последовательно, то количества


способов перемножаются.

1-е действие 2-е действие n-е действие


k1 вариантов k2 вариантов ... kn вариантов

Всего Nn = k1k2 ... kn вариантов

Рисунок 1.3 – Количество способов при последовательном выполнении


действий

15
Эта ситуация показана на рис. 1.3. Обратите внимание: даже если
действия производятся одновременно, часто их можно рассматривать как
последовательные.
Пример 1.1. В группе 14 юношей и 10 девушек. Сколько пар можно
составить, чтобы на вечеринке все ребята перетанцевали со всеми де-
вушками?
Решение. Очевидно, чтобы составить пару, нужно сначала выбрать
одного партнёра (например, юношу), а потом – девушку, или наоборот.
Т. е. нужно последовательно выполнить два действия, а, значит, приме-
нить правило умножения. В данном примере 1-е действие можно выпол-
нить 14-ю способами, а второе – 10-ю. Поэтому общее количество раз-
личных смешанных пар равно 14 × 10 = 140. 
Пример 1.2. На следующий день после вечеринки та же группа в
полном составе (24 человека) пришла на рейтинговую контрольную ра-
боту. По ней выставляются не оценки, а распределяются места по
рейтингу: 1-е, 2-е и т. д. до последнего. Сколько различных вариантов
первых трёх мест существует?
Решение. Чтобы распределить призовые места, нужно сначала вы-
брать лучшую работу (есть 24 варианта), затем добавить вторую (из 23
оставшихся), и, наконец, выяснить, какая из оставшихся 22 работ претен-
дует на третье место. Общее количество различных вариантов будет рав-
но 24 × 23 × 22 = 12144. 
Второе правило, которое мы рассмотрим, относится к выполнению
одного из нескольких действий.
Теорема 1.2 (правило сложения). Пусть требуется совершить одно
из двух действий, причём первое действие можно совершить n способа-
ми, а второе – k способами. Тогда общее количество способов, которыми
можно совершить это действие, равно n + k.
Доказательство. Мы выполняем всего лишь одно действие, в кото-
ром имеем выбор из n способов совершения 1-го действия или k спосо-
бов выполнения 2-го действия. Всего, таким образом, имеем выбор из
k + n способов. 

16
Разумеется, и эта теорема, как и предыдущая, допускает обобщение
на случай выбора одного из нескольких действий.
Следствие 1.2. Пусть требуется совершить одно из n действий, при-
чём первое действие можно совершить k1 способами, а второе – k2 спосо-
бами, …, и n-е действие – kn способами. Тогда общее количество спосо-
бов, которыми можно совершить это действие, равно
n
N n= k 1+k 2+… k n=∑ k i . (1.2)
i =1

Доказательство проводим по индукции. Для n = 2 данное утвержде-


ние уже доказано. Пусть оно имеет место для n = m: Nm = k1 + k2 + … + km.
Докажем, что тогда оно справедливо и для n = m + 1. Этот выбор из m + 1
действий можно рассматривать как выбор из двух возможностей: осуще-
ствление одного из первых m действий или осуществление еще одного,
(m + 1)-го действия. Применим к этим двум вариантам выбора теоре-
му 1.2. Тогда Nm+1 = Nm + km+1 = k1 + k2 + … + km + km+1, и утверждение доказа-
но. 

Если производятся выбор одного из вариантов, то количества


способов складываются.

На рис. 1.4 показан такой выбор.


Пример 1.3. Студент решил подарить своей девушке новый мобиль-
ный телефон. Салон оказался маленьким: в нём нашлось всего 10 моде-
лей Motorola, 15 – Nokia, 12 – Samsung и 14 – Ericsson. Сколько вариант-
ов выбора есть у нашего студента?
Решение. Т. к. он по бедности решил подарить только один телефон
(выполнить одно действие из четырёх), то у него есть возможность выбо-
ра из 10 + 15 + 12 + 14 = 51 модели. 
Разумеется, оба эти правила можно применять и совместно.
Пример 1.4. Если бы студент был побогаче и решил бы купить в
том же салоне 2 новых телефона, то (решение) у него было бы
51 × 51 = 2601 возможностей выбора (мы предполагаем, что он мог ку-

17
пить и две одинаковые модели, поэтому 51 умножается не на 50, а на
51). 

1-е действие
k1 вариантов

2-е действие
k2 вариантов
Всего Nn = k1 + k2 + ... + kn вариантов

...

n-е действие
kn вариантов

Рисунок 1.4 – Количество способов при выборе одного из вариантов

После рассмотрения этих двух правил переходим к изучению основ-


ных объектов комбинаторики: перестановок, размещений, сочетаний,
разбиений. Заметим вначале, что существуют два различных вида мно-
жеств: с повторениями элементов и без. В классическом определении
множества все его элементы считаются различными, а повторения про-
сто не учитываются. Так, множество {a, b, a, c} эквивалентно множеству
{a, b, c}, и повторение элемента a ничего не означает. Но в комбинаторик-
е нам нужно будет различать такие множества. Поэтому, если в исходном
множестве допускаются повторения, то мы будем подчёркивать, что со-
ответствующий комбинаторный объект (перестановка, разбиение и т. д.)
рассматривается на множестве с повторениями. На рис. 1.5, а показано
множество без повторений его элементов, а на рис. 1.5, б – с повторения-
ми. Во втором случае, чтобы не отступать от общепринятых терминов
теории множеств, обычно говорят, что в множестве есть элементы раз-
личных типов. Так, можно считать, что на рис. 1.5, б есть 3 элемента 1-го
типа, 3 – 2-го и т. д. Чтобы их различать, будем применять обозначения с

18
нижним индексом. Например, 11, 12 и 13 – это три различных элемента
1-го типа.

Рисунок 1.5 – Примеры множеств: а – без повторений его


элементов, б – с повторениями

1.2. Перестановки
Здесь мы рассмотрим перестановки на множестве без повторений.
Пусть задано множество A из n элементов. Перенумеровав элементы
множества, будем рассматривать множество A целых чисел от 1 до n:
A = {1, 2, …, n}. (1.3)
Фигурные скобки означают, что элементы множества A не
упорядочены. Их можно записать в любом порядке, всё равно останется
множество A. Пример такого множества – на рис. 1.5, а. Чтобы подчерк-
нуть, что его элементы не упорядочены, мы рисуем множество в виде
круга или овала.
Определение 1.2. Пусть задано множество A (1.3). Перестановкой
называется любое линейное упорядочение его элементов (расположение
их в ряд). 
Будем обозначать любую перестановку перечислением её элементов
в круглых скобках, а на рисунках заключать её элементы в прямоуголь-
ную рамку.

19
Рисунок 1.6 – Основное множество (а) и некоторые
перестановки его элементов (б)

Пример 1.5. (2, 3, 1, 6, 4, 5, 7) – одна из перестановок семи элементов.


Здесь круглые скобки означают упорядочение. Перестановки
(2, 3, 1, 6, 4, 5, 7) и (6, 4, 3, 1, 5, 7, 2) – разные, хотя множество их элементов
A = {1, 2, 3, 4, 5, 6, 7} – одно и то же. Оно показано на рис. 1.6, а, а полу-
ченные из него перестановки – на рис. 1.6, б. 
Сколько же всего существует перестановок из n элементов? Обозна-
чим это число Pn (от англ. the permutation – перестановка).
Теорема 1.3. Общее количество перестановок из n элементов равно:
Pn = n!. (1.4)
Доказательство проведём по индукции. Для пустого множества бу-
дем полагать P0 = 0! = 1 по определению. При n = 1 теорема верна: один
предмет можно расположить в ряд единственным способом: (1). Точно
так же легко формула (1.4) проверяется для n = 2: возможны лишь два ва-
рианта размещения двух предметов в ряд: (1, 2) и (2, 1). Пусть теорема
верна для n = k: Pk = k!. Куда можно добавить (k + 1)-й предмет?
На рис. 1.7 мы видим, что его можно поместить или перед всеми,
или после 1-го, или после 2-го, …, или после последнего k-го предмета –
всего (k + 1) возможность. Имеем два последовательно осуществляемых
действия:
1. расположение в ряд k предметов – k! вариантов;
2. добавление к ним еще одного предмета – (k + 1) возможность.

20
Рисунок 1.7 – Количество способов добавления (k + 1)-го
предмета в любую перестановку из k предметов

По теореме 1.1 умножаем варианты и имеем: Pk+1 = k!(k + 1) =


= (k + 1)!. Значит, по индукции теорема доказана. 
В MATLAB для работы с перестановками есть функции factorial,
perms и randperm. Вот их описания.
• factorial(n) – вычисляет произведение всех целых чисел от 1 до
n, т. е. prod(1:n). Т. к. в MATLAB используются числа с двойной
точностью, которые имеют 15 цифр после запятой, точное вычисле-
ние факториала возможно только при n ≤ 21. При больших значениях
n в возвращаемом результате верными будут только 15 первых цифр.
• randperm(n) – возвращает случайную перестановку целых чисел
от 1 до n.
• perms(1:n) или perms(v), где v – вектор длины n, создает матрицу
с n! строками и n столбцами со всеми возможными перестановками
элементов вектора v (каждая строка – одна перестановка). Эта функ-
ция практически применима только при n < 10. Уже при n = 11 выход-
ная матрица занимает больше 3 Гбайт. Ниже приведены примеры
вызова этих функций.

P100=factorial(100) % кол-во перестановок из 100 элементов


OneP10=randperm(10) % случайная перестановка из 10 эл-тов
AllP3=perms(1:3) % все перестановки из 3 элементов
P100 =
9.332621544394410e+157

21
OneP10 =
4 1 5 7 10 6 9 2 8 3
AllP3 =
3 2 1
3 1 2
2 3 1
2 1 3
1 2 3
1 3 2

Определение 1.3. Перестановка (1, 2, …, n) (в порядке нумерации)


называется начальной, или исходной, или основной. 
Какую именно из n! перестановок считать основной, зависит только
от нумерации элементов. Если бы мы пронумеровали элементы множе-
ства A по-другому, то и основная перестановка была бы другой. Это как
тарировка прибора: если сместить шкалу, то и положение нуля изменит-
ся. Определив основную перестановку, мы тем самым ввели в рассмотре-
ние некую шкалу перестановок. Остальные перестановки мы будем срав-
нивать с основной. Насколько далеко та или иная перестановка отстоит
от основной, зависит от количества инверсий в ней.
Определение 1.4. Количество инверсий в перестановке – это коли-
чество пар элементов (не обязательно соседних), в которых следующий
элемент имеет меньший номер, чем предыдущий. 
Пример 1.6. Рассмотрим первую из перестановок на рис. 1.6, б:
(2, 3, 1, 6, 4, 5, 7). Подсчитаем количество инверсий в ней.
Решение. Перечислим все пары: (2, 3), (2, 1), (2, 6), (2, 4), (2, 5),
(2, 7), (3, 1), (3, 6), (3, 4), (3, 5), (3, 7), (1, 6), (1, 4), (1, 5), (1, 7), (6, 4),
(6, 5), (6, 7), (4, 5), (4, 7) и (5, 7). Инверсии подчёркнуты – всего их 4.
Другой вариант. Считаем количество элементов левее 1: их 2. Удаля-
ем единицу: (2, 3, 6, 4, 5, 7) и считаем количество элементов левее 2: их
нет (0). Далее удаляем двойку: (3, 6, 4, 5, 7) и считаем количество эле-
ментов левее 3: их тоже нет. Продолжаем. После удаления тройки:
(6, 4, 5, 7) находим, что левее 4 есть 1 элемент, после удаления 4: (6, 5, 7)
левее 5 – 1 элемент; и в (6, 7) левее 6 нет элементов. Суммируем найден-

22
ные числа – это и есть количество инверсий: 2 + 0 + 0 + 1 + 1 + 0 = 4. 
Определение 1.5. Транспозицией называется операция замены ме-
стами двух любых элементов перестановки. 
Обратите внимание: транспозиция – это действие, а инверсия – это
состояние пары элементов. Транспозиция переводит одну перестановку в
другую. При этом, как мы докажем дальше, всегда меняется количество
инверсий в ней.
Определение 1.6. Транспозиция называется элементарной, если она
меняет местами соседние элементы перестановки. 
На рис. 1.8 показаны элементарная (а) и не элементарная (б) транс-
позиции.

Рисунок 1.8 – Элементарная (а) и не элементарная (б)


транспозиции

Теорема 1.4. Любая элементарная транспозиция меняет количество


инверсий на 1.
Доказательство. При элементарной транспозиции меняется поря-
док только двух последовательно стоящих элементов. Положение каждо-
го из них относительно любых других не изменяется. Поэтому из всех
пар элементов при элементарной транспозиции только в одной меняется
порядок элементов: в той, которая соответствует переставляемым эле-
ментам. Значит, количество инверсий увеличивается или уменьшается на
1. 
Теорема 1.5. От любой перестановки к любой другой можно пере-

23
йти не более чем за (n – 1) транспозицию.
Доказательство построим в виде алгоритма. Такого рода доказа-
тельства называются конструктивными (в отличие от доказательств су-
ществования, которые только устанавливают факт существования какого-
либо объекта или свойства, но не показывают, как его найти). Пусть ис-
ходная перестановка: (i1, i2, …, in), а конечная (o1, o2, …, on). Тогда шаги ал-
горитма будут такими.
Шаг 1. Если в исходной перестановке o1 находится не на первом ме-
сте, то меняем o1 с первым элементом.
Шаг 2. Если после этого o2 находится не на втором месте, то меняем
o2 со вторым элементом.

Шаг n – 1. Если после расстановки (n – 2) элементов on–1 находится
на последнем, n-м месте, то меняем on–1 с on. 
Описанный в доказательстве алгоритм является простейшим алго-
ритмом линейного упорядочения. Мы видим, что, если допускаются не
элементарные транспозиции, то он решает задачу не более чем за (n – 1)
шагов. Если же возможны замены только соседних элементов, то слож-
ность этого алгоритма возрастает с линейной до квадратичной. Получаем
"пузырьковый" алгоритм: в процессе упорядочения элементы множества
ведут себя как пузырьки воздуха в жидкости. Вообще тема линейного
упорядочения интересна сама по себе, но она напрямую не связана с ма-
териалом, необходимым для теории вероятностей, поэтому пусть она
остаётся читателю для самостоятельных исследований. А мы продолжа-
ем изучать перестановки.
Теорема 1.6. Любая транспозиция может быть представлена как по-
следовательность нечётного количества элементарных транспозиций.
Доказательство. Пусть нам нужно заменить местами элементы i и
k, а между ними находится m ≥ 0 элементов перестановки. Здесь мы бук-
вой i обозначили элемент, стоящий левее, а k – правее. Проведём элемен-
тарные транспозиции (т. е. мы опять строим конструктивное доказатель-
ство). Вначале мы перемещаем элемент i на m мест вправо, и ещё на
одно место, чтобы он оказался за элементом k. Всего, таким образом, мы

24
сделали m + 1 элементарную транспозицию. Теперь перемещаем элемент
k влево. Для того, чтобы поместить его на место элемента i, нужно
осуществить m элементарных транспозиций. Общее количество элемен-
тарных транспозиций, как видим, равно (2m + 1) – число нечётное. 
Следствие 1.3. Любая транспозиция изменяет чётность количества
инверсий.
Доказательство следует из теорем 1.4 и 1.6. Элементарная транспо-
зиция изменяет количество инверсий на 1, т. е. меняет чётность количес-
тва инверсий. Любая транспозиция может быть представлена в виде
нечётного количества элементарных транспозиций, а нечётному количес-
тву изменений чётности также соответствует изменение чётности. 
При доказательстве теоремы 1.6 мы указали лишь один способ, как
свести любую транспозицию к последовательности элементарных транс-
позиций. Но, может быть, существует другая последовательность эле-
ментарных транспозиций (с чётным их количеством), которая в результа-
те даёт нашу транспозицию? Оказывается, нет! С этим интересным фак-
том связаны следующие определение и теорема.
Определение 1.7. Перестановка называется чётной, если она стано-
вится основной после чётного количества транспозиций, и нечётной,
если после нечётного. 
Следующая теорема является ключевой для понимания того, что все
n! перестановок делятся на два непересекающихся класса: чётные и не-
чётные.
Теорема 1.7. Любая перестановка является или чётной, или нечёт-
ной, но не той и другой одновременно.
Доказательство. Пусть задана чётная перестановка, т. е. такая, от
которой мы можем перейти к исходной за чётное количество транспози-
ций. Каждая транспозиция меняет чётность количества инверсий, а в
итоге мы получаем натуральную перестановку, в которой 0 инверсий
(чётное число). Но мы провели чётное количество транспозиций, следо-
вательно, в исходной перестановке также было чётное число инверсий. А
от такой перестановки мы никогда не сможет перейти к исходной за
нечётное количество транспозиций, т. к. каждая транспозиция меняет ко-

25
личество инверсий на 1. Поэтому чётными будут только такие переста-
новки, которые имеют чётное количество инверсий. По принципу исклю-
чённого третьего получаем, что нечётными будут только такие переста-
новки, которые имеют нечётное количество инверсий. Но количество ин-
версий для каждой перестановки однозначно определено, поэтому любая
перестановка может быть или чётной, или нечётной, но не той и другой
сразу. 
Попробуйте самостоятельно написать программу определения чёт-
ности перестановки. Для начала используйте алгоритм из доказательства
теоремы 1.5.
Теорема 1.8. Количество чётных и нечётных перестановок одинако-
во и равно n!/2.
Доказательство. Используем тот факт, что основной может быть
любая перестановка. Если мы как-то перенумеруем объекты, то тем са-
мым определим основную перестановку (1, 2, …, n – 1, n). Пусть в этом
случае имеется k+ чётных перестановок и k– нечётных. Если в этой же
перестановке два последних предмета перенумеровать наоборот, то
основной уже будет перестановка (1, 2, …, n, n − 1). В этом варианте
пусть будет m+ чётных перестановок и m– нечётных. С одной стороны,
должно выполняться m+ = k+ и m– = k–, т. к.
обе перестановки состоят из одинакового
количества элементов. С другой стороны,
перестановки, которые в первом случае
были чётными, во втором будут нечёт-
ными и наоборот: m+ = k– и m– = k+. Отсюда
следует k+ = k–. А, т. к. k+ + k– = n!, то
k+ = k− = n!/2. 
Возможно, наиболее известный
пример чётных и нечётных перестано-
вок – это игра Сэма Лойда "Пятнадцать"
(Sam Loyd, 1841-1911, рис. 1.9). Если вы
Рисунок 1.9 – Сэм Лойд вытащите из коробки и поменяете
местами две какие-либо косточки, например, 14 и 15, то уже никогда не

26
сможете разместить их в правильном порядке, играя по правилам. Дело в
том, что у этой игры есть интересная особенность: любой "правильный"
ход не изменяет чётности перестановки косточек (если расположить их в
одну строку, как печатный текст, слева направо и сверху вниз). Изменить
чётность можно, лишь нарушив правила и произведя транспозицию
"вручную": достав две косточки из коробки и поменяв их местами.
Таким образом, все возможные позиции в этой игре можно разделить на
два класса: чётные и нечётные. Позиции, которые принадлежат одному
классу, можно перевести одну в другую путём перемещения косточек по
правилам, а те, что принадлежат разным – нет. При этом чётным удобно
назвать тот класс, которому принадлежит основная позиция. В алгебре
подобные классы называются классами эквивалентности (в данном
случае – эквивалентности относительно взаимного перевода одной
позиции в другую по правилам игры).
В MATLAB игра "Пятнадцать" загружается командой fifteen, как
показано ниже. На рис. 1.10 изображено её окно.

fifteen

Рисунок 1.10 – Интерфейс игры "Пятна-


дцать" в MATLAB

27
Задачи на перестановки обычно формулируются так. Имеется мно-
жество некоторых объектов. Сколько существует вариантов их линейного
упорядочения или взаимного расположения? Вот несколько типичных
примеров.
Пример 1.7. Сколькими способами можно рассадить за столом пер-
сонажей сказки "Алиса в стране чудес" с рис. 1.1?
Решение. P4 = 4! = 24. 
Пример 1.8. К кассе одновременно подошли 5 человек. Сколько су-
ществует вариантов их расстановки в очередь?
Решение. P5 = 5! = 120. 
Пример 1.9. Сколько существует вариантов взаимного расположе-
ния героев басни Ивана Андреевича Крылова (1769-1844, рис. 1.11), по-
казанных на рис. 1.12?

Рисунок 1.11 – И. А. Крылов Рисунок 1.12 – Сколько суще-


ствует способов взаимного рас-
положения музыкантов?

28
Решение. В этой задаче речь идёт не о линейном упорядочении, а о
взаимном расположении, т. е. о рассадке по кругу. При такой постановке
предполагается, что циклическая перестановка всех объектов не меняет
их взаимного расположения. Поэтому, чтобы получить правильный от-
вет, нужно число перестановок Pn = n! разделить на количество цикличе-
ских перестановок (или пересадок), которое равно n. В результате полу-
чаем (n – 1)! = 3! = 6 вариантов взаимного расположения музыкантов, ко-
торые, очевидно, не влияют на качество их исполнения.
Можно рассуждать и так. Один предмет можно разместить произ-
вольно, т. к. циклические перестановки не учитываются. Поэтому коли-
чество вариантов взаимного расположения n объектов равно количеству
перестановок остальных (n – 1) объектов, т. е. Pn–1 = (n – 1)!. 

1.3. Размещения
Следующий комбинаторный объект, с которым мы познакомимся –
это размещения. Здесь также используется множество (1.3) без повторе-
ний, но мы упорядочиваем не все элементы A, а предварительно выбира-
ем из A некоторое подмножество его элементов.
Определение 1.8. Размещением из n элементов по k, где 0 ≤ k ≤ n, на-
зывается перестановка k элементов, выбранных из множества, состояще-
го из n элементов. 
Как следует из определения, различные размещения могут отличать-
ся друг от друга как выбранными элементами, так и их расположением
(упорядочением). На рис. 1.13 показаны основное множество из n = 7 эле-
ментов (а) и некоторые его размещения по k = 4 элемента (б).
Пример 1.10. Перечислим все размещения из 3 элементов по 2. Как
обычно, считаем, что A = {1, 2, 3}.
Решение. Искомые размещения – это: (1, 2); (2, 1); (1, 3); (3, 1); (2, 3)
и (3, 2). В каждом из них выбраны какие-либо 2 элемента из трёх и упо-
рядочены. 
Найдём общее количество размещений из n элементов по k. Это чис-
k
ло обозначается An (от англ. the arranging – размещение).

29
Рисунок 1.13 – Основное множество (а) и некоторые
размещения его элементов (б)

Теорема 1.9. Общее количество размещений из n элементов по k


равно:

k n!
An =n ( n−1 ) ( n− 2) …( n−k +1 ) = . (1.5)
( n−k ) !

Доказательство. Применим правило умножения (теорема 1.1 и


следствие 1.1). Чтобы построить размещение, мы должны указать (т. е.
выбрать из A) 1-й элемент, затем 2-й, 3-й, и т. д., и, наконец, k-й. Всего в
A есть n элементов, поэтому 1-е действие можно сделать n способами.
После выборки 1-го элемента у нас остаётся (n – 1) элементов, поэтому
2-е действие можно выполнить (n – 1) способами. Аналогично, 3-е дей-
ствие (выборка 3-го элемента) осуществляется (n – 2) способами, и т. д.,
и, наконец, выборка последнего, k-го элемента – (n – k + 1) способами.
Нам нужно произвести последовательно все эти действия, поэтому об-
щее количество вариантов находится по правилу умножения – получаем
(1.5). 
В стандартном MATLAB и его расширениях нет встроенных функ-
ций для работы с размещениями. Но формула (1.5) легко реализуется в
виде prod(n-k+1:n) или factorial(n)/factorial(n-k). Полный
список всех размещений также нетрудно построить. Для этого берём
список перестановок из n элементов (функция perms), оставляем в нём k
первых столбцов, а затем удаляем повторяющиеся строки. Вот как выгля-
дит эта функция.

30
function A=arranges(n,k)
% Функция A=arranges(n,k) возвращает все размещения
% из n элементов по k

if (n<1)|(k>n),
A=[];
else
P=perms(1:n); % сначала - полный список перестановок
A=P(:,1:k); % взяли k первых столбцов
A=unique(A,'rows'); % оставили только уникальные строки
end
return

Её нужно записать в файл с именем arranges.m и поместить в каку-


ю-либо папку, доступную MATLAB. При вызове этой функции, как и для
perms, можно задавать только малые значения n < 10. Вот пример вычис-
ления количества размещений и генерации полного списка размещений.

Afrom30to16 = prod(30-16+1:30) % A из 30 по 16
A=arranges(5,3) % все размещения из 5 по 3
Afrom30to16 =
3.042648073975910e+021
A =
1 2 3
1 2 4
...
5 4 2
5 4 3

Для сокращения размера листинга здесь напечатаны не все 60, а


только несколько первых и последних размещений из 5 по 3.
В задачах на размещения обычно требуется выбрать из n объектов
какое-то их количество k, а затем ещё и упорядочить их. Вот типичные
примеры.
Пример 1.11. В соревнованиях участвуют 8 команд. Сколько суще-

31
ствует вариантов распределения 1-го, 2-го и 3-го мест?
Решение. Здесь из n = 8 объектов (команд) выбираются k = 3, кото-
3
рые затем упорядочиваются. Поэтому ответом будет A8 =8⋅7⋅6=336 ва-
риантов. 
Пример 1.12. Сколько существует различных 4-значных кодов, со-
ставленных из неповторяющихся цифр от 0 до 9?
Решение. Здесь из n = 10 цифр выбираются k = 4, которые затем упо-
4
рядочиваются. Считаем: существует A10 =10⋅9⋅8⋅7=5040 различных ко-
дов. 
Пример 1.13. Имеются наклейки 5 цветов. Для маркировки товара
применяются 2 или 3 наклейки разных цветов. Сколько товаров можно
так пометить?
Решение. Из n = 5 объектов (наклеек) нужно выбрать k = 2 или k = 3 и
расположить их в ряд, т. к. разные товары можно пометить наклейками
одних и тех же цветов, но по-разному расположенными. Находим
2 3
A5 =5⋅4=20 и A5 =5⋅4⋅3=60 . Далее нам нужно выполнить одно дей-
ствие из двух: пометить товар или двумя наклейками, или тремя. По пра-
вилу сложения всего имеем 20 + 60 = 80 вариантов метки товаров. 

1.4. Сочетания
Вновь используем множество (1.3) элементов без повторений. Здесь
мы будем выбирать из него некоторое подмножество элементов, но не бу-
дем их упорядочивать.
Определение 1.9. Сочетанием из n элементов по k, где 0 ≤ k ≤ n, на-
зывается подмножество из k элементов, выбранных из множества,
состоящего из n элементов. 
Различные сочетания отличаются друг от друга только выбранными
элементами. Их взаимное расположение не имеет значения. На рис. 1.14
показаны основное множество из n = 7 элементов (а) и некоторые его со-
четания по k = 4 элемента (б).

32
Рисунок 1.14 – Основное множество (а) и некото-
рые сочетания его элементов (б)

Пример 1.14. Перечислим все сочетания из 3 элементов по 2. Как и


раньше, считаем, что A = {1, 2, 3}.
Решение. Искомые сочетания – это: {1, 2}; {1, 3} и {2, 3}. Мы берём
их в фигурные скобки, т. к. это подмножества, и элементы в них не упо-
рядочены. 
Общее количество сочетаний из n элементов по k обычно обознача-
k
ется C n (от англ. the combination – сочетание).
Теорема 1.10. Общее количество сочетаний из n элементов по k рав-
но:
k
An n!
C kn = = . (1.6)
P n ( n−k ) ! k !
k
Доказательство. Сравним количество размещений An и сочетаний
k
C n . Размещений будет больше, чем сочетаний, т. к. в размещениях учи-
тывается порядок следования элементов, а в сочетаниях – нет. Каждому
сочетанию (подмножеству из k элементов A) соответствует столько раз-
мещений, сколько существует перестановок из k элементов, т. е. Pk.
k k
Поэтому C n будет меньше An в Pk раз. 

33
k
Число C n называется также биномиальным коэффициентом, т. к.
оно участвует в разложении n-й степени суммы двух чисел по биному
Ньютона:
n n n−1 n ( n−1 ) n−2 2
( p+ q ) = pn+ p q+ p q +…+
1! 2!
n (1.7)
+C kn p n −k q k +…+q n=∑ C kn pn −k q k .
k =0

Эту формулу обычно доказывают в курсе математического анализа


при изучении второго замечательного предела. Там же выводятся свой-
ства биномиальных коэффициентов:
k
C n =C n ;
n−k (1.8)
k k−1 k
C n =C n−1+C n −1 . (1.9)
Поэтому здесь они приведены без доказательства.
В MATLAB биномиальные коэффициенты и полный список сочета-
ний вычисляются с помощью функции nchoosek, которая имеет такой
синтаксис:
• nchoosek(n,k) – для целых неотрицательных скаляров n и k воз-
k
вращает биномиальный коэффициент C n , вычисленный по форму-
ле (1.6). Для больших значений n и k в возвращаемом результате 15
верных цифр.
k
• nchoosek(v,k) – для вектора v длины n возвращает матрицу с C n
строками и k столбцами. Каждая строка результата содержит по k
элементов вектора v, т. е. является сочетанием. Этот вариант синтак-
сиса реально применим только для n ≤ 15. Вот пример вызова функ-
ции nchoosek.

Cfrom30to16 = nchoosek(30,16) % C из 30 по 16
C = nchoosek(1:5,3) % все сочетания из 5 по 3
Cfrom30to16 =
145422675

34
C =
1 2 3
1 2 4
1 2 5
1 3 4
1 3 5
1 4 5
2 3 4
2 3 5
2 4 5
3 4 5

В Statistics Toolbox есть также функция combnk. Она описана в элек-


тронной версии книги.
Рассмотрим некоторые задачи на сочетания. В них обычно требуется
найти число вариантов выбора из множества в n элементов подмноже-
ства из k элементов. Другая постановка: найти количество вариантов раз-
биения множества из n элементов на два подмножества, в одном из кото-
рых k элементов. Вот некоторые типичные формулировки.
Пример 1.15. В соревнованиях участвуют 12 команд. Сколько суще-
ствует вариантов финальных пар?
Решение. Здесь, в отличие от примера 1.11, мы не указываем, кто
займёт 1-е место, а кто 2-е. Мы здесь находим число вариантов выбора
из n = 12 объектов любых k = 2 без их упорядочения. Поэтому ответом бу-
8 12 ! 11⋅12
дет C 12= = =66 различных пар. 
2 !⋅10! 2
Пример 1.16. Сколько существует вариантов разбиения студенче-
ской группы из 25 человек на две подгруппы, в каждой из которых от 10
до 15 человек?
Решение. Разбить группу на 2 части – это значит выбрать одну из
частей (вторая останется невыбранной). Выбрать 10 человек из 25 можно
10 11
C 25 способами, 11 – C 25 , и т. д. Поскольку мы должны совершить толь-
ко одно из этих 6 действий, применяем правило сложения. Общее коли-

35
чество вариантов равно сумме этих значений:
10 11 12 13 14 15
C +C +C +C +C +C . Считаем с помощью MATLAB:
25 25 25 25 25 25

C=0; % начальное значение


for k=10:15,
C=C+nchoosek(25,k);
end
fprintf('Общее количество вариантов = %d.\n',C);
Общее количество вариантов = 25852920. 

Обратите внимание: здесь номера групп фиксированные (подгруппы


упорядоченные). Поэтому, если все студенты перейдут из своей подгруп-
пы в другую, то мы получим другое сочетание. 
Пример 1.17. Вы придумали новый вариант домино, на костяшках
которого выбито от 0 до 8 точек. Сколько всего костяшек в нём будет?
Решение. Если бы не было дупелей, мы имели бы всевозможные
неупорядоченные выборки по k = 2 элемента из n = 9. Всего таких выбо-
2 9! 8⋅9
рок C 9= = =36 . К ним ещё нужно прибавить 9 дупелей. Итого
2 !⋅7 ! 2
будет 45 костяшек. Эту задачу можно решить и другим способом, ис-
пользуя сочетания с повторением (см. далее раздел 1.8.). 

1.5. Разбиения
Разбиения – это обобщение сочетаний. Сочетание можно рассматри-
вать как разбиение множества элементов на две части, одну из которых
мы выбираем, а вторую оставляем невыбранной. Но ведь множество эле-
ментов можно разбивать не только на 2, но и на большее число частей!
Определение 1.10. Разбиением из n элементов по k1, k2, …, km, где
m
∀ki ≥ 0 и ∑ k i =n , называется представление множества из n элементов
i =1

в виде суммы m непересекающихся подмножеств, в каждом из которых


содержится соответственно k1, k2, …, km элементов. 

36
Различные разбиения отличаются друг от друга набором элементов,
входящих в подмножества. Но количество элементов в каждом подмно-
жестве фиксировано. В 1-е подмножество должно входить k1 элементов,
во второе – k2, и т. д.. Сами подмножества упорядочены (т. е. указано, ка-
кое из них первое, какое второе и т. д.), а элементы в них – нет. На
рис. 1.15 показаны основное множество из n = 7 элементов (а) и некото-
рые его разбиения по k1 = 4, k2 = 2 и k3 = 1 элементов (б).

Рисунок 1.15 – Основное множество (а)


и некоторые разбиения его элементов (б)

Пример 1.18. Основное множество A = {1, 2, 3, 4, 5}. Разобьём его


на m = 3 подмножества с k1 = 1, k2 = 3, k3 = 1.
Решение. Возможные варианты:
({1}, {2, 3, 4}, {5}), ({2}, {1, 3, 4}, {5}), ({3}, {1, 2, 4}, {5}), ({4}, {1, 2, 3}, {5}),
({1}, {2, 3, 5}, {4}), ({2}, {1, 3, 5}, {4}), ({3}, {1, 2, 5}, {4}), ({5}, {1, 2, 3}, {4}),
({1}, {2, 4, 5}, {3}), ({2}, {1, 4, 5}, {3}), ({4}, {1, 2, 5}, {3}), ({5}, {1, 2, 4}, {3}),
({1}, {3, 4, 5}, {2}), ({3}, {1, 4, 5}, {2}), ({4}, {1, 3, 5}, {2}), ({5}, {1, 3, 4}, {2}),
({5}, {2, 3, 4}, {1}), ({2}, {3, 4, 5}, {1}), ({3}, {2, 4, 5}, {1}), ({4}, {2, 3, 5}, {1}).

37
Само разбиение мы пишем в круглых скобках, т. к. подмножества,
входящие в него, упорядочены. А вот элементы каждого подмножества
не упорядочены, поэтому подмножества записаны в фигурных скобках.
Обратите внимание: разбиения ({1}, {2, 3, 4}, {5}) и ({5}, {2, 3, 4}, {1}) –
разные, т. к. 1-е и 3-е подмножества содержат различные элементы. 
Разбиения являются обобщениями сочетаний, поэтому общее коли-
чество разбиений из n по k1, k2, …, km обозначают той же буквой C, но с
другими индексами, а именно: Cn(k1, k2, …, km).
Теорема 1.11. Общее количество разбиений из n элементов по k1, k2,
…, km равно:

n! n!
C n (k 1 , k 2 , …, k m ) = = .
k 1 !⋅k 2 !⋅…⋅k m ! m (1.10)
∏ ki !
i=1

Доказательство проведём по индукции. При m = 1 имеем тривиаль-


ный случай "разбиения" на 1 подмножество, и в этом случае формула
(1.10) верна. При m = 2 получаем из (1.10) формулу для биномиального
коэффициента (1.6), которую мы доказали. Пусть теорема верна для раз-
биения на m = l подмножеств. Докажем, что в этом случае она будет вер-
на и для m = l + 1. Разбиение на (l + 1) подмножеств можно представить в
виде последовательности двух действий: сначала мы выделяем из n эле-
ментов одно, последнее подмножество, состоящее из kl+1 элементов, а за-
тем оставшиеся (n − ki+1) элементов разбиваем на l подмножеств. Первое
k l +1
действие можно выполнить C n способами (это сочетание), а второе –
Cn(k1, k2, …, kl) способами, т. к. мы предполагаем, что при m = l теорема
верна. Применяем правило умножения:
k l+1
C n ( k 1 , k 2 , …k l , k l +1 )=C n C n −k ( k 1 , k 2 , …k l ) =
l+1

n! ( n−k l +1 ) ! n! (1.11)
= ⋅ = ;
k l+1 !⋅(n −k l +1) ! k 1 !⋅k 2 !⋅… k l ! k 1 !⋅k 2 !⋅… k l !⋅k l +1 !

и, т. о., теорема доказана по индукции. 

38
Функций для работы с разбиениями в MATLAB нет. Поэтому для
вычисления количества разбиений нужно запрограммировать формулу
(1.10), а для генерации полного списка разбиений можно использовать,
например, такой алгоритм.
Шаг 1. Задаём числа k1, k2, …, km. Находим (или задаём) n. С помо-
щью функции perms генерируем все перестановки из n элементов – дву-
мерный массив P размером n! × n, каждая строка которого – перестанов-
ка.
Шаг 2. Условно разделяем массив P вертикальными линиями на m
подмассивов P1, P2, …, Pm ширины соответственно k1, k2, …, km. В них мы
будем формировать подмножества разбиений.
Шаг 3. В каждом из подмассивов P1, P2, …, Pm сортируем каждую
строку. Это нужно для того, чтобы пометить повторяющиеся разбиения
для их дальнейшего удаления.
Шаг 4. Удаляем из массива P (не из отдельных подмассивов P1, P2,
…, Pm, а именно из целого массива P!) повторяющиеся строки.
Вот как может выглядеть функция MATLAB для генерации полного
списка разбиений. Она будет работать только для небольших размерно-
стей.

function P=partitions(k)
% Функция P=partitions(k) возвращает все разбиения
% из n=sum(k) элементов по k(1), k(2), ..., k(end).

n=sum(k); % количество элементов


P=perms(1:n); % нашли все перестановки
ek=cumsum(k); % номер последнего столбца каждого Pk
bk=[1 ek(1:end-1)+1]; % номер первого столбца каждого Pk
for j=1:length(k), % сортируем строки в Pk
P(:,bk(j):ek(j))=sort(P(:,bk(j):ek(j)),2);
end
P=unique(P,'rows'); % оставляем уникальные строки
return

39
Эту функцию нужно записать в файл partitions.m и поместить в ка-
кую-либо папку, доступную MATLAB. Ниже приведен пример вычисле-
ния количества разбиений и генерации полного списка разбиений.

k=[10 18 12]; % количества элементов в группах


C = factorial(sum(k))/prod(factorial(k)); % Cn(k1,k2,...)
fprintf('Количество разбиений из %d по (',sum(k));
fprintf('%d,',k(1:end-1));
fprintf('%d):\nC = %20.0f\n',k(end),C);
P=partitions([1 3 1]) % все разбиения из 5 по 1, 3, 1
Количество разбиений из 40 по (10,18,12):
C = 73316892771922784
P =
1 2 3 4 5
1 2 3 5 4
1 2 4 5 3
1 3 4 5 2
2 1 3 4 5
2 1 3 5 4
2 1 4 5 3
2 3 4 5 1
3 1 2 4 5
3 1 2 5 4
3 1 4 5 2
3 2 4 5 1
4 1 2 3 5
4 1 2 5 3
4 1 3 5 2
4 2 3 5 1
5 1 2 3 4

40
5 1 2 4 3
5 1 3 4 2
5 2 3 4 1

В полученной матрице P каждая строка – это одно разбиение. Пер-


вый элемент строки – это первое подмножество, следующие 3 элемента –
второе подмножество, и последний элемент – третье. Сравните этот ре-
зультат с примером 1.18.
В задачах на разбиения обычно задаётся основное множество эле-
ментов, и требуется разбить его на 3, 4 или более подмножеств. При раз-
биении на 2 подмножества мы фактически получаем задачу на сочета-
ния. Вот примеры задач на разбиения.
Пример 1.19. Сколько существует способов расселить 10 студентов
по 3 комнатам в общежитии: двух 3-местных и одной 4-местной?
10 ! 5⋅6⋅7⋅8⋅9⋅10
Решение. C 10 ( 3 , 3, 4 )= = =4200 вариантов. 
3!⋅3 !⋅4 ! 36
Пример 1.20. Сколько существует способов разбить 25 студентов на
3 подгруппы, если в каждой подгруппе должно быть не менее 8 человек?
Решение. Всего существует 3 варианта разбиения на указанные под-
группы: это на (9, 8, 8); (8, 9, 8) и (8, 8, 9) человек. Нам нужно выбрать
один из этих вариантов, поэтому применяем правило сложения. Общее
число вариантов будет равно C25(9, 8, 8) + C25(8, 9, 8) + C25(8, 8, 9). Вычис-
ляем с помощью MATLAB.

C = 3*factorial(25)/(factorial(8)^2*factorial(9));
fprintf('Общее количество вариантов C = %20.0f.\n',C);
Общее количество вариантов C = 78879264750. 

Пример 1.21. Сколько существует способов разбить 25 студентов на


3 подгруппы, если в каждой подгруппе должно быть не менее 6 человек?
Решение. В предыдущем примере мы сразу увидели, что возможны
только 3 варианта разбиения. Здесь количество вариантов значительно
больше. Мы сначала должны сгенерировать все эти варианты разбиения,

41
а потом подсчитать для каждого из них количество разбиений и сложить.
Поручим эту работу MATLAB. Вначале мы проверим, возможны ли во-
обще какие-либо варианты разбиения. Если такие варианты есть, найдём
их все. Для этого с помощью функции fullfact (полный факторный
эксперимент, см. электронную версию) генерируем все возможные соче-
тания количеств студентов в подгруппах, а затем отбираем те из них, для
которых сумма равна 25. В данном случае выясняется, что всего таких
вариантов 36. Теперь для каждого из них по формуле (1.10) вычисляем
C25(k1, k2, k3) и складываем. Для ускорения счёта все нужные факториалы
вычисляем один раз.

n=25; % размер группы


kmin=[6 6 6]; % минимальное количество в подгруппе
m=length(kmin); % количество подгрупп
r=n-sum(kmin); % остаток
if r<0,
error('Решение невозможно!');
elseif r==0,
k=kmin; % единственный вариант разбиения
else
k=fullfact((r+1)*ones(m,1))-1; % все варианты от 0 до r
num=find(sum(k,2)==r); % подходящие номера
k=k(num,:); % выбрали нужные строки
k=k+repmat(kmin,size(k,1),1); % прибавили kmin
end
npart=size(k,1); % количество вариантов разбиений
fprintf('Количество вариантов групп = %d.\n',npart);
fmax=max(max(k)); % чтобы считать факториалы 1 раз
fact(1)=1;
for i1=2:fmax, % считаем все факториалы 1 раз
fact(i1)=fact(i1-1)*i1;
end
factn=factorial(n); % числитель всех Cn(k1,k2,...)
C=0; % считаем количество разбиений
for i1=1:npart,

42
C=C+factn/prod(fact(k(i1,:)));
end
fprintf('Количество разбиений на группы = %20.0f.\n',C);
Количество вариантов групп = 36.
Количество разбиений на группы = 567526197150. 

1.6. Перестановки с повторениями


Раньше мы полагали, что все элементы основного множества A (1.3)
различные. Это соответствует аксиомам теории множеств, согласно кото-
рым, например, множество {1, 1, 2, 3} – это всё равно, что {1, 2, 3}. На-
чиная с этого раздела, нам нужно будем различать такие множества.
Поэтому будем говорить, что в множестве есть элементы разных типов.
Пример такого множества – на рис. 1.5, б.
Определение 1.11. Пусть в множестве A есть k1 элементов 1-го типа,
k2 – 2-го типа, …, km – m-го типа, а общее количество элементов равно
k1 + k2 + … + km = n. Такое множество называется множеством с повторе-
ниями. 
Определение 1.12. Перестановкой с повторениями называется
перестановка (в смысле определения 1.2) элементов множества с повто-
рениями, в которой элементы одного типа неразличимы. 
Пример 1.22. В множестве A = {1, 1, 2, 3} есть 2 элемента первого
типа, 1 второго и 1 третьего. Построить перестановки с повторениями.
Решение. Если мы строим обычные перестановки, то нужно разли-
чать два элемента 1-го типа и писать, например, так: A = {11, 12, 2, 3}. То-
гда перестановки (11, 2, 12, 3) и (12, 2, 11, 3) – разные. Но, если мы рассмат-
риваем перестановки с повторениями, то должны считать оба элемента
1-го типа неразличимыми. Поэтому вместо двух обычных перестановок
будет только одна перестановка с повторениями: (1, 2, 1, 3). Руководству-
ясь этими соображениями, строим все перестановки с повторениями:
(1, 1, 2, 3); (1, 1, 3, 2); (1, 2, 1, 3); (1, 2, 3, 1); (1, 3, 1, 2); (1, 3, 2, 1); (2, 1, 1, 3);
(2, 1, 3, 1); (2, 3, 1, 1); (3, 1, 1, 2); (3, 1, 2, 1); (3, 2, 1, 1) – всего 12 перестано-
вок. 

43
Из этого примера видно, что перестановок с повторениями оказа-
лось меньше, чем обычных перестановок (без повторений). Общее коли-
чество перестановок с повторениями обозначается Pn(k1, k2, …, km).
Теорема 1.12. Общее количество перестановок из n элементов с по-
вторениями по k1, k2, …, km равно:

n! n!
P n ( k 1 , k 2 , …, k m ) =C n ( k 1 , k 2 , …, k m)= = m .
k 1 !⋅k 2 !⋅…⋅k m ! (1.12)
∏ ki !
i=1

Доказательство. Пусть в множестве A имеется k1 элементов 1-го


типа. В перестановках без повторений они различимы, а в перестановках
с повторениями – нет. Поэтому всем перестановкам без повторений, в ко-
торых k1 элементов 1-го типа стоят на одних и тех же местах, но могут
меняться между собой, соответствует одна перестановка с повторениями.
Общее количество всех перестановок без повторений, в которых k1 эле-
ментов 1-го типа стоят на одних и тех же местах, но могут меняться меж-
ду собой, равно P k =k 1 !. Поэтому, если мы исключаем возможные
1

перестановки элементов 1-го типа между собой, мы должны уменьшить


Pn = n! в P k =k 1 ! раз. Применяя эти рассуждения к элементам 2-го, 3-го
1

и других типов, получаем в итоге формулу (1.12). 


В MATLAB формулу (1.12) нужно программировать вручную, гото-
вой функции нет. Чтобы сформировать полный список перестановок с
повторениями, можно использовать функцию perms, в которой задать
множество (вектор) с повторениями. Если потом удалить из полученной
матрицы повторяющиеся строки, то мы и получим все перестановки с
повторениями (для небольших размерностей). В следующем примере мы
находим количество перестановок с повторениями для больших разме-
ров задачи, а для задачи небольшого размера, кроме того, и строим все
перестановки с повторениями.

k=[10 18 12]; % количества повторений элементов


P = factorial(sum(k))/prod(factorial(k)); % Pn(k1,k2,...)

44
fprintf(['Количество перестановок из %d '...
'элементов\nс повторениями по ('],sum(k));
fprintf('%d,',k(1:end-1));
fprintf('%d) P = %20.0f\n',k(end),P);
AP=perms([1 1 2 2 2 3]); % все перестановки
AP=unique(AP,'rows') % оставили неповторяющиеся
p=size(AP,1) % количество перестановок с повторениями
Количество перестановок из 40 элементов
с повторениями по (10,18,12) P = 73316892771922784
AP =
1 1 2 2 2 3
1 1 2 2 3 2
1 1 2 3 2 2
...
3 2 2 1 1 2
3 2 2 1 2 1
3 2 2 2 1 1
p =
60

Здесь для сокращения листинга оставлены только 6 из 60 перестано-


вок с повторениями.
Ниже приводятся несколько типичных формулировок задач на пере-
становки с повторениями. В них задаётся некоторое основное множество
с повторяющимися элементами, и нужно найти количество вариантов ли-
нейного упорядочения всех этих элементов.
Пример 1.23. Для маркировки товара используется метка из 6 по-
лос, из которых 2 синие, 3 красные и 1 зелёная. Сколько товаров можно
ими пометить?
6! 4⋅5⋅6
Решение. P 6 ( 2,3, 1) = = =60. См. также последний
2 !⋅3 !⋅1 ! 2

45
листинг. 
Пример 1.24. Сколькими способами можно поставить в ряд 3 книги
1-го вида, 2 – 2-го, 2 – 3-го и одну – 4-го?
8! 4⋅5⋅6⋅7⋅8
Решение. P 4 ( 3, 2,2, 1) = = =1680. 
3!⋅2!⋅2!⋅1! 2⋅2
Пример 1.25. Сколькими способами можно расставить по кругу 3
предмета 1-го вида, 2 – 2-го, 2 – 3-го и один – 4-го?
Решение. Здесь нужно исключить циклические перестановки. Мы
уже рассматривали подобный пример 1.9. Очевидно, мы должны приме-
нить здесь первый вариант рассуждений и разделить результат приме-
ра 1.24 на n = 8. Получаем 1680/8 = 210 вариантов. 

1.7. Размещения с повторениями


Здесь возможны различные толкования. Во-первых, можно рассмат-
ривать множество с повторениями, а выборку элементов из него и их
упорядочение осуществлять по определению 1.8. То есть сначала выби-
рать любой элемент, затем любой из оставшихся (n – 1)-го элементов, мо-
жет быть, из той же группы, что и первый, и т. д. k раз. Во-вторых, мож-
но взять обычное множество (1.3) без повторений, но при выборе эле-
ментов из него разрешить выбирать одинаковые. При таком подходе
предполагается, что после выбора очередного элемента исходное множе-
ство восстанавливается, и на каждом этапе построения размещения мы
имеем выбор из n исходных элементов. И, наконец, в-третьих, можно
объединить эти две возможности: из множества с повторениями разре-
шить выбирать одни и те же элементы. Эти три схемы продемонстриро-
ваны на рис. 1.16.
Определение 1.13. Размещением с повторениями по схеме 1 назы-
вается перестановка с повторениями любого подмножества множества с
повторениями. 

46
Рисунок 1.16 – Размещения с повторениями: а – схема 1, б – схема 2,
в – схема 3

Определение 1.14. Размещением с повторениями по схеме 2 назы-


вается перестановка с повторениями любого подмножества обычного
множества, если при выборке элементов из него разрешено на каждом
шаге выбирать одинаковые. 

47
Определение 1.15. Размещением с повторениями по схеме 3 назы-
вается перестановка с повторениями любого подмножества множества с
повторениями, если при выборке элементов из него разрешено на каж-
дом шаге выбирать одинаковые. 
Очевидно, между схемами 2 и 3 практически нет разницы: не всё ли
равно, сколько экземпляров каждого объекта есть в множестве, если мы
можем выбирать сколько угодно раз каждый элемент! А вот схема 1
несколько иная. Если посмотреть ещё раз на рис. 1.16, то видим, что в
схеме 1, какое бы размещение мы ни строили, элементы 4 и 5 мы не мо-
жем выбрать более двух раз каждый, а остальные – больше трёх раз. В
схемах же 2 и 3 любой элемент можно выбирать любое количество раз.
Схемы 2 и 3 более простые, чем 1. Но, если в схеме 1 каждый объект
в исходном множестве повторяется достаточное количество раз, то фак-
тически мы имеем схему 2 или 3. Если, например, нужно выбирать k = 5
элементов, а в исходном множестве есть не менее чем по 5 экземпляров
объектов каждого вида, то схема 1 становится схемой 2 или 3.
Мы выведем общую формулу для 2-й и 3-й схем, а для 1-й приведём
только алгоритмы построения полного списка размещений.
Теорема 1.13. Общее количество размещений из n элементов по k с
повторениями по определению 1.14 (схема 2) равно:
( ) k
Ank rep = n . (1.13)

Доказательство аналогично доказательству теоремы 1.9. Применя-


ем правило умножения. Чтобы построить размещение, мы должны ука-
зать (т. е. выбрать из A) 1-й элемент, затем 2-й, 3-й, и т. д., и, наконец, k-й.
Всего в A есть n элементов, поэтому 1-е действие можно сделать n спосо-
бами. После выборки 1-го элемента множество A восстанавливается, и в
нём снова будет n элементов. Поэтому 2-е действие также можно выпол-
нить n способами. Аналогично, все остальные действия также выполня-
ются n способами. Нам нужно произвести последовательно все эти дей-
ствия, поэтому общее количество вариантов находится по правилу умно-
жения – получаем (1.13). 

48
Теорема 1.14. Общее количество размещений из n элементов по k с
повторениями по определению 1.15 (схема 3) равно:
k k
An ( k 1 , k 2 , … , k m) = m . (1.14)

Доказательство. Применяем правило умножения. Чтобы построить


размещение, мы должны указать (т. е. выбрать из A) 1-й элемент, затем
2-й, 3-й, и т. д., и, наконец, k-й. Всего в A есть n элементов, но среди них
только m разных. Поэтому 1-е действие можно сделать m способами. По-
сле выборки 1-го элемента множество A восстанавливается, и в нём сно-
ва будет m разных элементов. Поэтому 2-е действие также можно выпол-
нить m способами. Аналогично, все остальные действия также выполня-
ются m способами. Нам нужно произвести последовательно все эти дей-
ствия, поэтому общее количество вариантов находится по правилу умно-
жения – получаем (1.14). 
Рассмотрим алгоритмы построения полного списка размещений с
повторениями. В первой схеме проще всего построить вначале все пере-
становки с повторениями (функция perms), затем в полученном массиве
оставить k первых столбцов, и, наконец, удалить повторяющиеся строки.

A=[1 1 2 2 2 3]; % исходное множество


k=3; % количество элементов в размещении
P=perms(A); % полный список перестановок
A1=P(:,1:k); % оставили k столбцов
A1=unique(A1,'rows') % оставили уникальные строки
fprintf('Количество размещений = %d.\n',size(A1,1));
A1 =
1 1 2
1 1 3
1 2 1
1 2 2
1 2 3
1 3 1

49
1 3 2
2 1 1
2 1 2
2 1 3
2 2 1
2 2 2
2 2 3
2 3 1
2 3 2
3 1 1
3 1 2
3 2 1
3 2 2
Количество размещений = 19.

Для реализации второй схемы удобнее всего использовать функцию


fullfact, которая строит план полного факторного эксперимента. Она
сразу возвращает нужный результат: все размещения. Эта функция вхо-
дит в Statistics Toolbox и описана в электронной версии книги.

n=5; % объем выборки


k=2; % количество элементов в размещении
A2=fullfact(repmat(n,1,k)) % размещения
fprintf('Количество размещений = %d.\n',size(A2,1));
A2 =
1 1
2 1
3 1
...
2 5

50
3 5
4 5
5 5
Количество размещений = 25.

Здесь результат очевиден, поэтому для сокращения листинга остав-


лены только несколько начальных и конечных размещений.
Схема 3 отличается от 2-й тем, что вместо всех элементов исходного
множества нужно использовать неповторяющиеся.

A=[1 1 3 3 3 4]; % исходное множество с повторениями


k=4; % количество элементов в размещении
Au=unique(A); % группы
m=length(Au); % число групп
A3=fullfact(repmat(m,1,k)); % размещения (номера)
A3=Au(A3); % размещения (элементы A)
A3=unique(A3,'rows') % оставили уникальные строки
fprintf('Количество размещений = %d.\n',size(A3,1));
A3 =
1 1 1 1
1 1 1 3
1 1 1 4
1 1 3 1
1 1 3 3
...
4 4 3 4
4 4 4 1
4 4 4 3
4 4 4 4
Количество размещений = 81.

51
Здесь опять для сокращения листинга оставлены только несколько
начальных и конечных размещений.
При решении задач на размещения с повторениями прежде всего
нужно разобраться, по какой схеме проводятся выборки. Если по 1-й –
придётся подсчитывать количество вариантов напрямую. А если по 2-й
или 3-й, то пользуемся формулами (1.13) или (1.14).
Пример 1.26. Сколько различных 6-значных шифров можно соста-
вить из цифр числа 112223345, если цифры могут повторяться, но 1 – не
более 2 раз, 2 – не более 3 раз, и т. д.?
Решение. В задачах с такой формулировкой исходное множество во-
обще может быть не задано, а просто сказано, что такой-то предмет мо-
жет повторяться не более такого-то количества раз. Здесь после выборки
очередного числа исходное множество не восстанавливается до исходно-
го, поэтому имеем 1-ю схему. Готовой формулы у нас нет – считаем коли-
чество вариантов.

A=[1 1 2 2 2 3 3 4 5]; % исходное множество


k=6; % количество элементов в размещении
P=perms(A); % полный список перестановок
A1=P(:,1:k); % оставили k столбцов
A1=unique(A1,'rows'); % оставили уникальные строки
fprintf('Количество размещений = %d.\n',size(A1,1));
Количество размещений = 3630. 

Пример 1.27. Сколько существует различных 5-значных чисел, не


начинающихся с нуля?
Решение. В десятичной системе всего имеется 10 различных цифр,
а мы должны выбрать 5 из них, причём допускаются повторения. Имеем
2-ю схему, но с некоторым изменением: первую цифру мы можем выби-
рать не из 10 возможных, а только из 9. Доказательство теоремы 1.13
дает нам метод решения этой задачи: искомое число вариантов равно
9 × 104 = 90000. 
Пример 1.28. Из шести источников в микросхему постоянно посту-

52
пают сигналы трёх типов: из двух – первого типа, из трёх – второго и из
одного – третьего. Микросхема выбирает последовательно 4 входных
сигнала и выдает эту последовательность в виде выходного сигнала.
Сколько вариантов выходных сигналов существует?
Решение. Здесь после выборки каждого входного сигнала исходное
множество восстанавливается, значит, это не 1-я схема. В исходном мно-
жестве из шести сигналов есть повторяющиеся, значит, это и не 2-я схе-
ма. Следовательно, имеем 3-ю схему: выборка из множества с
повторениями и восстановлением исходного множества после каждой
выборки. Количество различных элементов m = 3, выбираем k = 4 элемен-
та. Всего имеем mk = 34 = 81 вариант выходного сигнала. 

1.8. Сочетания с повторениями


Как и в размещениях с повторениями, здесь есть несколько различ-
ных определений.
Определение 1.16. Пусть задано множество A из n элементов с по-
вторениями k1, k2, …, km. Сочетанием с повторениями по схеме 1 из n по
k называется любое подмножество из k элементов множества A (возмож-
но, повторяющихся). 
Определение 1.17. Пусть задано множество A из n элементов. Соче-
танием с повторениями по схеме 2 из n по k называется любое подмно-
жество из k элементов, при образовании которого после выборки каждо-
го элемента множество A восстанавливается до исходного. 
Определение 1.18. Пусть задано множество A из n элементов с по-
вторениями k1, k2, …, km. Сочетанием с повторениями по схеме 3 из n по
k называется любое подмножество из k элементов множества A (возмож-
но, повторяющихся), при образовании которого множество A восстанав-
ливается после выборки каждого элемента. 
Эти три схемы продемонстрированы на рис. 1.17, который отличает-
ся от рис. 1.16 только тем, что сочетания показаны кружками, а не прямо-
угольниками, т. к. они, в отличие от размещений – неупорядоченные под-
множества.

53
Рисунок 1.17 – Сочетания с повторениями: а – схема 1,
б – схема 2, в – схема 3

54
Здесь, как и для размещений с повторениями, наиболее сложной яв-
ляется 1-я схема. Но, если в схеме 1 каждый объект в исходном множе-
стве повторяется достаточное количество раз, то фактически мы имеем
схему 2 или 3. Если, например, нужно выбирать k = 5 элементов, а в ис-
ходном множестве есть не менее чем по 5 экземпляров объектов каждого
вида, то схема 1 становится схемой 2 или 3.
Для схемы 1 мы не будем выводить общей формулы, а приведём
только алгоритм построения полного списка таких сочетаний. Зная его,
можно найти и их количество. Строить список проще всего с помощью
функции nchoosek, в которой задать вектор с повторениями. Если из по-
строенных сочетаний удалить повторяющиеся строки, то получим все
сочетания с повторениями по схеме 1.

A = [1 1 2 2 2 2 3 3 3 4 5]; % исходное множество


k=3; % количество элементов в сочетании
C=nchoosek(A,k); % все сочетания
C1=unique(C,'rows') % оставили уникальные строки
fprintf('Количество сочетаний = %d.\n',size(C1,1));
C1 =
1 1 2
1 1 3
1 1 4
1 1 5
1 2 2
1 2 3
1 2 4
1 2 5
1 3 3
1 3 4
1 3 5
1 4 5

55
2 2 2
2 2 3
2 2 4
2 2 5
2 3 3
2 3 4
2 3 5
2 4 5
3 3 3
3 3 4
3 3 5
3 4 5
Количество сочетаний = 24.

А вот для сочетаний с повторениями по схеме 2 можно указать их


общее количество.
Теорема 1.15. Общее количество сочетаний из n элементов по k с
повторениями по схеме 2 равно:

( n +k−1 ) !
f kn = =C kn+k−1=C nn −1
+k −1 . (1.15)
k !⋅( n−1 ) !

Доказательство. После выбора 1-го элемента мы восстанавливаем


исходное множество, т. е. добавляем в него один элемент. После выборки
2-го делаем то же самое, и т. д. всего k – 1 раз (после выбора последнего
элемента восстанавливать исходное множество уже не надо). Значит,
фактически мы выбирали k элементов из множества с n + k – 1 элемента-
k
ми. Общее число таких подмножеств равно C n+k −1 . 
Для построения списка всех сочетаний по схеме 2 можно с помо-
щью функции fullfact построить все размещения, как это было сдела-
но в разделе 1.7., затем каждую строку рассортировать, а потом удалить
повторяющиеся строки. В следующем примере сначала по формуле

56
(1.15) находится число сочетаний с повторениями для больших значений
n и k, а затем генерируется полный список сочетаний с повторениями для
небольших n и k. Даже он оказывается весьма внушительным, поэтому
листинг приведен с сокращениями.

fprintf('f(50,12) = %20.0f\n',nchoosek(50+12-1,12));
n=9; % объем выборки
k=2; % количество элементов в размещении
A2=fullfact(repmat(n,1,k)); % размещения
A2=sort(A2,2); % сочетания
A2=unique(A2,'rows') % оставили уникальные строки
fprintf('Количество сочетаний = %d.\n',size(A2,1));
f(50,12) = 1742058970275
A2 =
1 1
1 2
1 3
...
8 8
8 9
9 9
Количество сочетаний = 45.

И, наконец, для сочетаний с повторениями по схеме 3 имеет место


следующая теорема.
Теорема 1.16. Общее количество сочетаний из n элементов по k с
повторениями k1, k2, …, km по схеме 3 равно:

( m+k −1) !
f kn ( k 1 , k 2 , …, k m ) = f km= =C km+k−1=C m−1
m+k−1 . (1.16)
k !⋅( m−1 ) !

Доказательство. Все сочетания будут такими же, как для множества


A с неповторяющимися элементами (по одному из каждой группы), если

57
их выбирать по схеме 2. Поэтому общее количество сочетаний по теоре-
ме 1.15 равно (1.16). 
Для генерации всех сочетаний мы опять воспользуемся списком раз-
мещений, каждое из которых сортируем, чтобы выявить одинаковые. За-
тем оставляем только по одному экземпляру каждого сочетания. В
следующем примере сначала по формуле (1.16) находится число сочета-
ний с повторениями для больших значений m и k, а затем генерируется
полный список сочетаний с повторениями для небольших m и k.

fprintf('f(8+16+14+7+9+8+20,12) = %20.0f\n',...
nchoosek(7+12-1,12));
A=[1 1 3 3 3 4]; % исходное множество с повторениями
k=4; % количество элементов в сочетании
Au=unique(A); % группы
m=length(Au); % число групп
A3=fullfact(repmat(m,1,k)); % размещения (номера)
A3=sort(A3,2); % сочетания
A3=unique(A3,'rows');% оставили уникальные строки
A3=Au(A3) % сочетания (элементы A)
fprintf('Количество сочетаний = %d.\n',size(A3,1));
f(8+16+14+7+9+8+20,12) = 18564
A3 =
1 1 1 1
1 1 1 3
1 1 1 4
1 1 3 3
1 1 3 4
1 1 4 4
1 3 3 3
1 3 3 4
1 3 4 4
1 4 4 4

58
3 3 3 3
3 3 3 4
3 3 4 4
3 4 4 4
4 4 4 4
Количество сочетаний = 15.

Пример 1.29. В урне имеется 5 белых шаров, 3 красных и 2 чёрных.


Наугад вынимается 3 шара. Сколько существует вариантов раскраски
этих троек?
Решение. Тройка неупорядоченная, поэтому данная задача – на со-
четания. Исходное множество из 10 элементов имеет повторения, поэто-
му это не схема 2. После выборки каждого шара исходное множество не
пополняется, поэтому это не схема 3. Остается схема 1: из множества
элементов с повторениями выбирается неупорядоченное подмножество
из трёх элементов, и после выборки каждого шара основное множество
не пополняется. Для этой схемы применяем непосредственный подсчёт.
Здесь белые шары обозначены номером 1, красные – 2 и чёрные – 3.

A = [1 1 1 1 1 2 2 2 3 3]; % исходное множество шаров


k=3; % сколько шаров вытягиваем
C=nchoosek(A,k); % все сочетания
C1=unique(C,'rows') % оставили уникальные строки
fprintf('Количество сочетаний = %d.\n',size(C1,1));
C1 =
1 1 1
1 1 2
1 1 3
1 2 2
1 2 3
1 3 3
2 2 2

59
2 2 3
2 3 3
Количество сочетаний = 9. 

Пример 1.30. Это повторение приме-


ра 1.17, раздел 1.4. Мы придумали новый
вариант домино, на костяшках которого
выбито от 0 до 8 точек. Сколько всего ко-
стяшек в нем будет?
Решение. В основном множестве 9
элементов (числа от 0 до 8), и они не по-
вторяются. Любая костяшка домино – это
Рисунок 1.18 – Костяшка неупорядоченное подмножество из двух
тримино 7-2-5
элементов, которые могут и повторяться
(дупель). Поэтому имеем задачу на сочетания с повторениями по схеме
( 9+2−1 ) ! 10 ! 9⋅10
2. Считаем: f 29= = = = 45. Если бы мы занялись
2 !⋅( 9−1) ! 2 !⋅8 ! 2
изготовлением тримино, на костяшках которого было бы от 0 до 8 точек
(см. рис. 1.18), то нам понадобилось бы
( 9+3−1) ! 11 ! 9⋅10⋅11
f 39= = = =165 треугольных костяшек, чтобы
3!⋅( 9−1 ) ! 3!⋅8! 6
охватить все возможные комбинации. Эта задача решена при условии,
что порядок следования чисел не важен: по или против часовой стрелки.
Если же на костяшке с тремя разными числами важен порядок обхода, то
результат будет иным. Попытайтесь решить эту задачу самостоятель-
но. 
Пример 1.31. В урне имеется 5 белых шаров, 3 красных и 2 чёрных.
Наугад по одному вынимается 3 шара, причём после выемки каждого
шара исходное количество шаров восстанавливается. Сколько существу-
ет вариантов раскраски этих троек?
Решение. Порядок шаров в тройке не важен, поэтому имеем задачу
на сочетания. Исходное множество – с повторениями, поэтому это не

60
схема 2. После выбора каждого элемента исходное множество восстанав-
ливается, поэтому имеем схему 3. Считаем:
( 3+3−1 ) ! 5! 4⋅5
f 310 ( 5, 3, 2) = f 33= = = =10. Нетрудно даже перечис-
3 !⋅( 3−1) ! 3!⋅2! 2
лить эти варианты: {ббб}, {ббк}, {ббч}, {бкк}, {бкч}, {бчч}, {ккк},
{ккч}, {кчч}, {ччч}. 

1.9. Решение задач


Разумеется, всё многообразие комбинаторных объектов не ограни-
чивается рассмотренными выше случаями. Существуют разбиения с по-
вторениями, хаотики и другие объекты. Но во многих случаях вполне до-
статочно материала, изложенного в этой главе. При решении комбина-
торных задач прежде всего нужно ответить на следующие вопросы.
1. Что является основным множеством?
2. Повторяются ли элементы основного множества? Если повторяются,
имеем схемы с повторением, а нет – без него.
3. Что выбирается? Всё множество, его часть или несколько частей?
При выборе всего множества имеем перестановку, части – размеще-
ние или сочетание, нескольких частей – разбиение.
4. Восстанавливается ли исходное множество после выборки
элемента? Или, иными словами, допускается ли многократная вы-
борка одного и того же элемента? От ответа на этот вопрос зависит
выбор схемы размещения или сочетания с повторением.
5. Упорядочиваются ли элементы выборки (выборок)? При упорядоче-
нии имеем перестановки или размещения, а без него – сочетания
или разбиения (хотя бывают и разбиения с упорядочением, мы их не
рассматривали).
В зависимости от ответов на эти вопросы мы можем получить пере-
становки, сочетания, размещения, разбиения с повторениями по различ-
ным схемам или без них. В следующих примерах (их можно использо-

61
вать для работы в аудитории) приведены только указания и подсказки.
Закончите их самостоятельно.
Пример 1.32. Папа, мама и двое детей собираются в поход. Им нуж-
но распределить по рюкзакам 50 различных предметов. Сколькими
способами это можно сделать, если папе дать 20 предметов, маме – 15,
старшему сыну – 10, а младшей дочери – 5?
Указания к решению. Основное множество здесь – это 50 предме-
тов. Они разные, следовательно, имеем схему без повторений. Это мно-
жество нужно разбить на 4 подмножества. Элементы основного множе-
ства не восстанавливаются. Выборки не упорядочиваются. После такого
анализа приходим к выводу, что данная задача – на разбиение без повто-
рений. Применяем формулу (1.10). 
Пример 1.33. В электричке 10 вагонов. Бригада из 4 контролёров
начинает проверку в разных вагонах. Сколько существует вариантов на-
чала работы?
Указания к решению. Основное множество – 10 вагонов. Они все
разные (схема без повторений). Выбрать нужно 4 вагона для начала рабо-
ты контролёров. После выбора вагона одним контролёром другой уже не
имеет права занять тот же вагон – исходное множество не восстанавлива-
ется. Каждый контролёр начинают работу в своем вагоне, значит, выбор-
ка упорядочивается. Имеем размещения без повторений – применяем
формулу (1.5). 
Пример 1.34. В урне 6 шаров: 3 белых, 2 чёрных и 1 красный. Нау-
гад выбираются и расставляются в ряд 4 шара. Сколько есть вариантов
решения?
Указания к решению. Исходное множество – это 6 шаров. Множе-
ство с повторениями. Выбирается одна часть – 4 шара. После выборки
каждого шара исходное множество не восстанавливается. Выборка упо-
рядочивается. Получаем размещения с повторениями по 1-й схеме. Для
неё у нас нет общей формулы. Считаем с помощью MATLAB по алгорит-

62
му, изложенному в разделе 1.7. Если бы шары не расставлялись в ряд, мы
бы имели задачу о сочетаниях с повторениями по схеме 1. 
Пример 1.35. Сколько существует способов рассадить группу сту-
дентов из 25 человек в аудитории, в которой есть столько же мест?
Указания к решению. Основное множество здесь – студенты. Даже
если среди студентов есть близнецы, по смыслу задачи считаем, что это
множество без повторений. Рассадить нужно всех студентов, поэтому
выбирается всё множество. Каждый студент выбирается для рассадки
один раз – многократной выборки нет. Места можно перенумеровать,
поэтому выборка упорядочивается (каждому студенту – своё место со
своим номером). Имеем задачу на перестановку без повторений, её реше-
ние – (1.4). Можно также считать основным множеством места, которые
упорядочиваются в порядке рассадки на них студентов (например, в ал-
фавитном порядке). 
Пример 1.36. Сколько существует способов рассадить группу сту-
дентов из 25 человек в аудитории, в которой есть 30 мест?
Указания к решению. Здесь основное множество – это 30 мест (не-
повторяющиеся элементы), из которых нужно выбрать 25 (также без по-
вторения) для рассадки студентов. Каждому студенту нужно выделить
конкретное место, поэтому выборка упорядочивается. Получаем задачу
на размещения без повторений, которая решается по формуле (1.5). 
Пример 1.37. Сколько существует способов расположения в ряд 6
шаров: 3 белых, 2 чёрных и 1 красного?
Указания к решению. Основное множество – 6 шаров, это множе-
ство с повторениями. Выбираются все шары (без повторений), и они ли-
нейно упорядочиваются. Имеем перестановку с повторениями, применя-
ем формулу (1.12). 
Иногда приходится суммировать (по правилу сложения вариантов)
несколько вариантов, перемножать их по правилу умножения или отбра-
сывать некоторые варианты. Вот примеры.

63
Пример 1.38. Имеется 10 различных предметов. Сколькими спосо-
бами их можно расставить в ряд, чтобы два заданных предмета оказа-
лись рядом?
Указания к решению. Видно, что это задача на перестановки без
повторений. Если бы не было дополнительного требования о двух задан-
ных предметах, стоящих рядом, то решением было бы P10 = 10!. Но не во
всех 10! перестановках предметы 9 и 10 стоят рядом (в силу свободной
нумерации элементов множества мы для удобства обозначили заданные
предметы последними номерами). Первые 8 предметов могут размещать-
ся как угодно – для них имеем 8! перестановок. В каждую из них предме-
ты 9 и 10 можно вставить только парой. Это можно сделать в 9 местах:
перед первым предметом, после первого, и т. д., и после последнего,
восьмого. В каждое из этих мест можно вставить или пару (9, 10), или
(10, 9) – всего 2 варианта. По правилу умножения имеем всего 8! × 9 × 2
вариантов. Решите эту же задачу, когда в перестановке из 10 предметов
требуется, чтобы 3 заданных находились рядом (между собой эти 3 пред-
мета могут быть в любом порядке). 
Пример 1.39. Имеется 10 различных предметов. Сколькими спосо-
бами их можно расставить в ряд, чтобы два заданных предмета не оказа-
лись рядом?
Указания к решению. Этот пример похож на предыдущий. Осталь-
ные 8 предметов можно расставить произвольно. Осталось посчитать ко-
личество вариантов расстановки оставшихся двух предметов (обозначим
их, как и в предыдущем примере, номерами 9 и 10). Предмет 9 можно
расположить на любом из 9 мест (или перед всеми, или после 1-го, или
после 2-го, и т. д., или после 8-го). В любом из этих вариантов на долю
10-го остается 8 мест, чтобы он не очутился рядом с 9-м (нарисуйте и
проверьте!). По правилу умножения вариантов всего 8! × 9 × 8 вариантов.
Эту задачу можно решить и другим способом. Два заданных пред-
мета могут быть или рядом, или не рядом, третье исключается. Всего

64
имеется 10! вариантов расположения 10 предметов, из них 9! × 2 вариан-
тов, когда два заданных предмета расположены рядом (см. предыдущий
пример). Остаётся 10! – 9! × 2 = 9! × 8 вариантов, когда 2 заданных предме-
та расположены не рядом. 
Пример 1.40. В 2 автомобиля должны сесть 8 человек, причём в
каждый автомобиль должно сесть не менее 3 человек. Сколькими спосо-
бами это можно сделать?
Указания к решению. Если бы было точно задано, сколько человек
должно сесть в 1-й автомобиль, а сколько во 2-й, мы бы имели задачу о
разбиениях или, поскольку здесь всего 2 подмножества, о сочетаниях. Её
k
решением было бы C 8 , где k – количество человек, которые должны
сесть в один из автомобилей. Но у нас k не задано. Поэтому нужно найти
k
все возможные варианты k, посчитать для них C 8 и сложить. Чтобы в
каждый из автомобилей могло сесть не менее 3 человек, мы должны
взять k = 3, 4 или 5. Так как мы выбираем один из вариантов, то должны
применить правило сложения. Общее количество вариантов равно
3 4 5
C 8+C 8 +C 8 . 
Если вывод общей формулы вызывает затруднения, иногда проще
подсчитать количество вариантов вручную или составить простую про-
грамму. Вот пример.
Пример 1.41. В фойе театра 4 друга одновременно сдали куртки в
раздевалку и получили 4 номерка. Сколько существует вариантов разда-
чи номерков, при которых ни один из них не получит назад свою куртку?
Решение. Всего есть 4! вариантов раздачи номерков. Очевидно,
только 1 из них является правильным (пусть это будет основная переста-
новка). Нет ни одного варианта, когда ровно 3 человека получат свои но-
мерки (почему?). Для 2 угадываний количество вариантов еще считается
легко, а вот для 1 и 0 уже достаточно трудно. Мы не выводили общей
формулы для количества беспорядков, поэтому построим общий список

65
перестановок, а затем отберём нужные и подсчитаем их количество.

n=4; % общее количество предметов


k=0; % сколько должно совпасть
p0=1:n; % эталон - основная перестановка
p=perms(p0); % все перестановки
c=sum(p==repmat(p0,size(p,1),1),2); % кол-во совпадающих
eqk=length(find(c==k)); % перестановки с k совпадениями
fprintf(['Количество совпадений %d имеют '...
'%d перестановок.\n'],k,eqk);
Количество совпадений 0 имеют 9 перестановок. 

1.10. Контрольные вопросы к главе 1


1. Когда применяется правило умножения вариантов, а когда сложения?
2. Есть две схемы опыта. Первая: один кубик бросается 10 раз; а вто-
рая – 10 кубиков бросаются одновременно. Что общего у этих схем
и чем они отличаются? Что можно вычислить в том и другом слу-
чае? Как?
3. Составьте программу определения чётности перестановки.
4. Что больше: количество размещений из n по m или количество соче-
таний? Почему? Во сколько раз?
5. Что больше: количество перестановок с повторениями или без? По-
чему? Во сколько раз?

66
Глава 2. События и их вероятности
Теория вероятностей, как и любой
другой раздел математики, возникла из
потребностей человечества. Вначале это
были азартные игры: кости, карты и т. п.
Игроки задумывались: почему, например,
при бросании двух игральных костей ком-
бинация 6 + 6 выпадает редко? И насколь-
ко редко? А другие комбинации выпадают
чаще? Затем люди заметили, что подоб-
ные рассуждения применимы и к другим
областям человеческой деятельности.
Например, знаменитые опыты Бюффона
(Georges-Louis Leclerc, Comte de Buffon,
1707-1788, рис. 2.1) и Пирсона (Karl
Рисунок 2.1 – Жорж-Луи Pearson, 1857-1936, рис. 2.2) по бросанию
Леклерк де Бюффон монеты, приведенные в таблице 2.1, пока-
зывают, что примерно в половине случаев монета падает гербом вверх.
Причём чем больше проведено опытов,
тем ближе к 0,5 доля опытов, в которых
выпал герб. Но почему так происходит?
И можно ли утверждать, что с ростом ко-
личества опытов эта доля ещё больше
приблизится к 0,5? Эти и многие другие
явления подвели людей к пониманию ве-
роятности как предела частоты появления
события. Но, как оказалось, такое опреде-
ление не всегда бывает удобным. Поэто-
му возник другой подход, основанный на
понятии события – нового математиче-
ского объекта, для которого вероятность
является его числовой характеристикой. Рисунок 2.2 – Карл Пирсон

67
Этот путь оказался весьма плодотворным, и на нём базируется весь
современный математический аппарат теории вероятностей.

Таблица 2.1. Опыты Бюффона и Пирсона

Опыт Число Число выпа- Частость (отно-


бросаний дений герба сительная доля)
Опыт Бюффона 4040 2048 0,5069
1-й опыт Пирсона 12000 6019 0,5016
2-й опыт Пирсона 24000 12012 0,5005

2.1. События и действия над ними


Геометрия изучает фигуры и тела, векторная алгебра – векторы, тео-
рия матриц – матрицы. Эти математические объекты являются абстрак-
циями предметов и явлений окружающей нас жизни. Векторами описы-
ваются скорость, сила, ускорение; с помощью матриц можно, например,
задать напряжённое состояние в точке твёрдого тела, и т. д. Для различ-
ных объектов вводятся операции отношения, действия, числовые харак-
теристики. Например, векторы могут быть равными или не равными, их
можно складывать, умножать на скаляр, вычислять модуль, выполнять
другие действия.
Точно так же и теория вероятностей оперирует с математическими
объектами, которые называются событиями. Как и другие математиче-
ские объекты, они представляют собой абстракции явлений окружающей
действительности.
Определение 2.1. Событием называется любой факт окружающей
действительности, который может произойти или не произойти в зависи-
мости от непредсказуемых заранее условий. 
Примерами событий могут быть появление герба при бросании мо-
неты или туза при вытягивании карты из колоды, авария на данном

68
участке трассы, поступление заказа на фирму в течение дня. Как
правило, событие является результатом испытания (опыта, эксперимен-
та), но не всегда эта связь легко формализуется. Так, если для появления
герба испытанием является бросание монеты, для аварии – проезд
автомобиля по данному участку, то что является испытанием для
поступления заказа? То, что человек шёл мимо офиса? Или что он
получил информацию о товаре из рекламы? Ведь человек в обычных
условиях свободно реализует свое право покупать или не покупать тот
или иной товар. Поэтому в данном случае испытанием можно считать
решение каждого теоретически возможного клиента сделать заказ или
нет.
Определение 2.2. Испытанием (опытом, экспериментом) называ-
ется любое действие, явление, решение и т. п., результатом которого яв-
ляется наступление или не наступление события. 
Итак, мы определили новый математический объект – событие.
Переходим к изучению его свойств. Вначале отметим два крайних слу-
чая: достоверное и невозможное событие.
Определение 2.3. Событие называется достоверным, если оно все-
гда произойдёт при данном наборе определяющих факторов (при любом
испытании). 
Например, если на калькуляторе или компьютере считать 2 × 2, то
мы получим 4, но не всегда: возможны сбои, отключения питания и т. п.
Поэтому событие 2 × 2 = 4 является всё же не достоверным, а только
близким к нему. Другими примерами событий, близких к достоверным,
являются падение монеты плашмя, а не на ребро, при её бросании на
твердую поверхность, падение игральной кости на грань, а не на ребро
или угол, и т. д.. Абсолютно достоверное событие – это математическая
абстракция.
Определение 2.4. Событие называется невозможным, если оно ни-
когда не произойдёт при данном наборе определяющих факторов (при
любом испытании). 

69
Как и достоверное событие, невозможное событие – это математиче-
ская абстракция. События, близкие к невозможным: падение монеты на
ребро, кости на угол или ребро, взрыв Солнца как сверхновой звезды в
течение ближайших миллионов лет.
Определение 2.5. Событие называется случайным, если оно не яв-
ляется ни достоверным, ни невозможным. 
Случайные события обычно обознача-
ют большими буквами (латинскими или
русскими): A, G, Г и т. д. Удобно выбирать в
качестве обозначения "осмысленную" бук-
ву. Например, выпадение герба удобно
обозначить буквой Г. Можно также ставить
всевозможные индексы и применять другие
символы. Так, вытягивание карты червон-
ной масти можно обозначить Ч или ♥, а для
появления того или иного числа на верхней
грани кости при её бросании использовать
обозначения К1, К2 и т. д. Для достоверного
Рисунок 2.3 – Джон Венн
события применяется обозначение I, а для
невозможного – O или ∅.
События удобно изображать на рисунках в виде диаграмм Венна
(John Venn, 1834-1923, рис. 2.3). Пример такой диаграммы показан на
рис. 2.4. Достоверному событию I соответствует весь лист (охватываю-
щий прямоугольник). Невозможное событие ∅ – это точка (или вообще
ничего). Случайные события A, B, C и D показаны различными геометри-
ческими фигурами. Геометрический смысл диаграммы Венна следую-
щий. Пусть маленький предмет (материальная точка) бросается на лист с
диаграммой Венна. Считается, что она точно туда попадёт (достоверное
событие I). Осуществлению события A соответствует её попадание в об-
ласть фигуры, соответствующей событию A (см. далее геометрическое
определение 2.18 вероятности). Если считать, что область замкнутая, то
попадание на границу также соответствует осуществлению события A.

70
Рисунок 2.4 – Диаграмма Венна

Определение 2.6. Событие B на-


зывается противоположным собы-
тию A, если оно состоит в том, что A
не происходит. 
Противоположное событие
обозначается чертой вверху: A – это
событие, противоположное A. Когда
события описываются словами, пере-
ход к противоположному событию
соответствует частице "не". На
рис. 2.5 показаны события A и A .
Очевидно, что ∅= I , I =∅, а
( A ) = A . Примеры противоположных
Рисунок 2.5 – Взаимно противо- событий: Г = Р ; ♥ – это вытягива-
положные события ние карты другой, не червонной ма-
сти (считается, что в колоде нет пу-
стышек и джокеров).

71
Определение 2.7. Случайные события называется равновозможны-
ми, если условия опыта не позволяют утверждать, что одно из них будет
происходить чаще другого. 
Примеры равновозможных событий (с достаточной степенью точно-
сти): выпадение любого числа на верхней грани при бросании кости, вы-
тягивание любой карты из перемешанной колоды, выпадение герба и
решки при бросании монеты. Правильность последнего факта подтвер-
ждают опыты Бюффона и Пирсона (табл. 2.1). Кстати, интересно было
бы узнать, сохраняется ли это свойство для монет достоинством в 1 и 2 €,
изготовленных из двух сортов металла разной плотности. Возможно, кто-
нибудь из читателей проведёт такой опыт и опубликует его результаты.
Тогда можно будет дополнить таблицу 2.1.
Все невозможные события по определению считаются равновоз-
можными между собой; все достоверные – тоже.
На диаграммах Венна равновозможные события изображают фигу-
рами обязательно одинаковой площади и желательно одинаковой формы.
Так, на рис. 2.4 события C и D – равновозможные.
Определение 2.8. События называется совместными, если они мо-
гут произойти вместе, и несовместными, если не могут. 
Например, событие ♥ (вытягивание карты червонной масти) и К10
(вытягивание десятки) – совместные, т. к. можно вытянуть 10♥. Но под
словом "вместе" понимается не обязательно одновременность. Сов-
местность подразумевает, что появление одного события не исключает
появления другого независимо от времени. Например, пусть в урне есть
2 красных шара и 2 синих, и шары вытягиваются последовательно без
возврата. Обозначим буквами К и С вытягивание шара соответствующе-
го цвета, а нижним индексом – номер вытягивания. Тогда события К1, К2
и С3 – совместные, а К1, К2 и К3 – нет (трёх красных шаров нет).
На диаграммах Венна совместные события изображают
перекрывающимися фигурами, а несовместные – неперекрывающимися.
На рис. 2.4 события A и B – совместные, а C и D – нет.
Определение 2.9. Несколько событий A1, A2, …, An называется по-
парно несовместными, если каждое из них несовместно с любым дру-

72
гим, т. е. появление любого из них исключает появление любого друго-
го. 
На том же рис. 2.4 события A, C и D – попарно несовместные, B, C и
D – тоже.
Определение 2.10. События A, B,
C, ... образуют полную группу событий,
если в результате опыта обязательно
произойдёт хотя бы одно из них. 
Например, при бросании монеты
события Г и Р образуют полную груп-
пу (мы уже отмечали, что падение мо-
неты на ребро считаем ∅). События
полной группы могут быть и совмест-
ными. Полную группу, например, обра-
зуют события П>50 – в течение дня в ма-
газин зашло больше 50 покупателей, и
П<100. На диаграммах Венна события
Рисунок 2.6 – Полня группа со-
бытий
полной группы целиком закрывают
лист I, при этом они могут перекры-
ваться между собой (рис. 2.6).
Может так оказаться, что
несколько событий удовлетворяют
сразу трём условиям: они являются
несовместными, равновозможными и
образуют полную группу. Тогда их
называют схемой случаев.
Определение 2.11. Схемой слу-
чаев называется полная группа не-
совместных равновозможных собы-
тий. 
Рисунок 2.7 – Схема случаев
На диаграммах Венна события

73
схемы случаев обычно изображают одинаковыми неперекрывающимися
прямоугольниками или квадратами, покрывающими лист I, как показано
на рис. 2.7. Примеры схемы случаев: Г и Р при бросании монеты, ♠, ♥, ♦
и ♣ при вытягивании карты из правильной колоды, К1, К2, …, К6 при бро-
сании кости.
Понятие полной группы событий – очень удобный инструмент для
доказательства различных теорем. Если есть возможность её ввести,
нужно это сделать. Можно, например, изображать события группы на
диаграммах Венна очень мелкими фигурками одинаковой площади (в
пределе – точками) так, чтобы их не пересекали никакие линии. Дальше
мы будем использовать этот приём.
Теперь рассмотрим действия над событиями. Одно действие – вы-
числение противоположного события – мы уже фактически ввели в
рассмотрение с помощью определения 2.6. Это пример унарной опера-
ции: B= A. Другие операции – бинарные.
Определение 2.12. Суммой двух
событий A и B называется событие,
которое заключается в том, что проис-
ходит или событие A, или событие B,
или оба. Действие для получения сум-
мы называется сложением. 
Обозначение суммы: C = A + B
или C = A ∪ B. Примеры сложения со-
бытий: при бросании кости
К2 + К4 + К6 – это выпадение чётного
количества очков; при вытягивании
карты из колоды ♥ + К10 – это вытяги-
вание любой карты червонной масти
или любой десятки. При словесном Рисунок 2.8 – Сложение событий
описании событий сложению соответ-
ствует союз "или". На диаграмме Венна сумма событий – это общая об-
ласть внутри фигур. На рис. 2.8 показана ситуация, когда складываются

74
два совместных события A и B. При этом получается односвязная
область. При сложении несовместных событий соответствующая область
на диаграмме Венна может быть двусвязной, как, например, для события
C + D на рис. 2.4.
Определение 2.12 допускает очевидное обобщение и на случай сло-
жения нескольких событий. Сформулируйте его самостоятельно.
Запишем свойства сложения. Их доказательства следуют из опреде-
ления суммы и диаграмм Венна и настолько очевидны, что мы их опус-
каем:
• A + B = B + A (коммутативный закон);
• (A + B) + C = A + (B + C) (ассоциативный закон);
• A + A = A;
• A + I = I;
• A + ∅ = A;
• I + ∅ = I;
• A+ A= I ;
• для полной группы событий (в том числе и для схемы случаев)
n

∑ Ai = I .
i=1

Следующее действие – умножение.


Определение 2.13. Произведением двух событий A и B называется
событие, которое заключается в том, что происходит и событие A, и со-
бытие B. Действие для получения произведения называется умножени-
ем. 
Обозначение произведения: C = A × B, C = A ∩ B, C = A ⋅ B или C = AB.
Примеры умножения событий: при бросании монеты Г × Р = ∅; при вытя-
гивании карты из колоды ♥ × К10 – это вытягивание 10♥. На диаграмме
Венна произведению событий соответствует общая область внутри фи-
гур, а при словесном описании событий – союз "и". На рис. 2.9 событие
AB показано незаштрихованным.

75
Аналогично определяется умно-
жение нескольких событий. Свойства
умножения событий, как и сложения,
доказываются легко с помощью диа-
грамм Венна и определений:
• A × B = B × A (коммутативный за-
кон);
• (A × B) × C = A × (B × C) (ассоциа-
тивный закон);
• (A + B) × C = A × C + B × C (дистри-
бутивный закон);
• A × A = A;
• A × I = A;
Рисунок 2.9 – Умножение собы-
тий • A × ∅ = ∅;
• I × ∅ = ∅;
• A× A=∅;
• для любых несовместных собы-
тий A и B, в том числе и для лю-
бой пары событий схемы случаев:
A × B = ∅.
И еще одно действие над
событиями – вычитание.
Определение 2.14. Разностью
двух событий A и B называется собы-
тие, которое заключается в том, что
происходит событие A, но не происхо-
дит событие B. Действие для получе-
ния разности называется вычитани-
ем.  Рисунок 2.10 – Вычитание собы-
тий
Обозначается разность C = A – B
или C = A \ B. На рис. 2.10 событие A – B показано штриховкой. Пример

76
разности: если Кч – выпадение чётного числа очков при бросании кости,
а К2 – выпадение 2, то Кч – К2 – это выпадение 4 или 6. Другой пример:
если П>50 – событие, означающее, что в течение дня в магазин зашло
больше 50 покупателей, а П<60 – зашло меньше 60 покупателей, то
П>50 – П<60 = П>59.
Свойства разности событий, которые
легко доказываются из её определения и диа-
грамм Венна:
• правило, сводящее вычитание к умно-
жению и вычислению противополож-
ного события: A−B= A− A⋅B=
= A⋅B; в соответствии с этим прави-
лом при словесном описании событий
их разность обозначается "и не";
• A – A = ∅;
• A− A= A и A− A= A ;
Рисунок 2.11 – Аугустус • если A и B – несовместные, то A – B =
де Морган
= A и B – A = B;
• A−( B+C ) = A− B−C= ( A− B ) −C= A⋅B−C = A⋅B⋅C .
Следующие два правила носят имя де Моргана (Augustus De
Morgan, 1806-1871, рис. 2.11):

A+ B= A⋅B ; A⋅B= A+ B . (2.1)

Доказательство первого правила умещается в одну строчку:

A+ B= I −( A+ B )= I⋅A⋅B= I⋅( A⋅B )= A⋅B . (2.2)

А второе сводится к первому заменами A=C ; B= D и переходом к


противоположным событиям:

C+ D=C⋅D ⇒ C⋅D=C+ D ⇒ A⋅B=A+ B . (2.3)

77
Обычные алгебраические выкладки не всегда приводят к пра-
вильному результату. Например, A – B + B вовсе не равно A, а
равно A + B (проверьте с помощью диаграммы Венна). Точно
так же A + B – B = A – B, а не A.

Особенно внимательно нужно относиться к приведению подобных.


Если выносить за скобки общий множитель можно по дистрибутивному
закону, то даже переставлять местами слагаемые не всегда можно. Лучше
всего проверять каждое действие с помощью диаграмм Венна.
Пример 2.1. Как правильно вычислить A + B – B?
Решение. A+ B− B= ( A+ B )⋅B= A⋅B+B⋅B= ( A− B ) +∅= A− B . 
Пример 2.2. Доказать, что (A + C) ⋅ (B + C) = A ⋅ B + C.
Решение. (A + C) ⋅ (B + C) = A⋅B+A⋅C+B⋅C+C⋅C = A⋅B+
+ (A + B) ⋅ C + C= A ⋅ B + (A + B) ⋅ C + C ⋅ I = A ⋅ B + (A + B + I) ⋅ C = A ⋅ B + I ⋅ C =
= A ⋅ B + C. 
Пример 2.3. Как правильно вычислить A – B + B?
Решение. A− B+B= A⋅B+B= | используем результат предыдущего
примера | = ( A+ B )⋅( B+ B ) = ( A+B )⋅I = A+B . 
Пример 2.4. Три стрелка стреляют по мишени. Обозначим попада-
ние i-го стрелка в мишень через Пi. Выразить через П1, П2 и П3 следую-
щие события:
• Р3 – все стрелки попали;
• Р0 – никто не попал;
• Р1 – ровно один стрелок попал;
• Р2 – ровно два стрелка попали;
• Х1 – хотя бы один стрелок попал;
• Х2 – хотя бы два стрелка попали.
Какие из этих событий совместны, а какие нет? Какие образуют пол-
ную группу?
Решение. Для того, чтобы все стрелки попали, нужно, чтобы и 1-й

78
стрелок попал, и 2-й, и 3-й. Выделенному здесь союзу "и" соответствует
умножение событий, поэтому Р3 = П1 ⋅ П2 ⋅ П3.
Следующее событие: никто не попал. Для этого нужно, чтобы и 1-й
стрелок не попал, и 2-й не попал, и 3-й не попал. Союзу "и" соответству-
ет умножение мобытий, а частице "не" – переход к противоположному
событию. Поэтому Р 0= П 1⋅П 2⋅П 3 .
Далее – событие Р1: ровно один стрелок попал. Для этого нужно,
чтобы 1-й стрелок попал и при этом 2-й не попал и 3-й тоже не попал,
или 2-й попал и при этом 1-й не попал и 3-й тоже не попал, или 3-й по-
пал и при этом 1-й не попал и 2-й тоже не попал. Союзу "или" соответ-
ствует сложение событий, союзу "и" – умножение, а частице "не" – пере-
ход к противоположному событию. Поэтому имеем:
Р 1= П 1⋅П 2⋅П 3 + П 1⋅П 2⋅П 3+ П 1⋅П 2⋅П 3 .
Теперь уже нетрудно составить словесную формулу, соответствую-
щую ровно двум попаданиям. Чтобы было ровно 2 попадания, нужно,
чтобы 1-й стрелок попал и 2-й попал и 3-й не попал, или (закончите
самостоятельно еще две части фразы). Результат:
Р 2= П 1⋅П 2⋅П 3+ П 1⋅П 2⋅П 3+ П 1⋅П 2⋅П 3 .
Хотя бы один стрелок попал – это значит: или один стрелок попал,
или 2, или 3. Поэтому: Х 1= Р 1 Р 2  Р 3= | теперь сюда можно подста-
вить выражения для Р1, Р2 и Р3 |. Получится длинное выражение. Но это
событие можно получить и проще: хотя бы один стрелок попал – это со-
бытие, противоположное событию "никто не попал". Поэтому
Х 1= Р 0 = П 1⋅П 2⋅П 3 .
И, наконец, событие "хотя бы 2 стрелка попали". Для этого нужно,
чтобы или 2 стрелка попали, или 3. Имеем: Х 2 =Р 2 Р 3= | подставляем
соответствующие выражения |.
О совместности. Очевидно, события, начинающиеся со слов
"ровно…", взаимно несовместны: если, например, попали ровно 2 стрел-
ка, то уж точно не 3 и не 0. Все они, вместе взятые, образуют полную

79
группу несовместных событий. Но она не является схемой случаев, т. к.
эти события в общем случае не равновозможные. Полную группу также
образуют:
• Х1 и Р0;
• Х2, Х1 и Р0;
• Х2, Р1 и Р0;
• … (продол-
жите сами).
Событие Х1
(хотя бы один
стрелок попал)
совместно с Р1,
Р2, Р3 и Х2; а Х2 –
с Р2, Р3 и Х1. Со-
отношения меж-
ду событиями в Рисунок 2.12 – События в примере 2.4
данной задаче по-
казаны на рис. 2.12. 

2.2. Различные определения вероятностей


Обратимся ещё раз к таблице 2.1. Мы видим, что с ростом числа
опытов (обозначим его n) растёт и количество выпадений герба m, и при
этом отношение m / n приближается к 0,5. На уровне наших обыденных
представлений можно утверждать, что именно это число 0,5 и нужно
считать вероятностью выпадения герба. Но как это сформулировать ма-
тематически? Понятно, что раз n возрастает, нужно применять формули-
ровку в виде предела при n → ∞. Вспомним обычное определение преде-
ла lim x n =C . Константа C называется пределом числовой последова-
n→ ∞

тельности {xn}, если для любого сколь угодно малого заданного наперёд
числа ε > 0 можно указать такой номер N, начиная с которого все члены

80
последовательности будут отличаться от C по модулю меньше, чем на ε:
∀ n > N: | xn – C | < ε. Здесь не зря выделено слово "все". В обычном
пределе мы можем быть уверены, что, как только мы сделаем n > N, то
все члены последовательности подойдут к C ближе, чем на ε. Со
случайными событиями это не так. Можем ли мы достоверно
утверждать, что, например, если мы сделаем больше, чем 24000
бросаний монеты, частота появления герба будет отличаться от 0,5
меньше, чем на ε = 0,0005? С большой долей вероятности, наверное, да,
но стопроцентно – нет: у нас нет возможности вывести зависимость N от
ε, как мы это делали в обычном пределе. Поэтому для случайных
событий понятие предела будет несколько иным.
Здесь нам придётся несколько забежать вперёд и ввести в рассмот-
рение случайную величину. Подробно о случайных величинах мы будем
говорить в главе 3, но для статистического определения вероятности
нужно ввести одну такую величину уже сейчас. Пусть мы проделали n
опытов (фиксированное количество). Интересующее нас событие A про-
явилось в этих опытах m раз. Если другой раз проделать n опытов, то m
может оказаться другим, для третьей серии – третьим, и т. д. Говорят, что
величина m – случайная: её значения в каждой серии опытов в общем
случае разные. Поэтому частота (говорят: частость) m / n появления со-
бытия A – тоже случайная величина. Очевидно, 0 ≤ m / n ≤ 1. Именно эта
величина с ростом n стремится к некоторому пределу P, но не достовер-
но, а только с большой долей достоверности. Сформулируем понятие та-
кого предела в общем случае, для последовательности случайных ве-
личин {Xn}, а затем дадим через него определение вероятности.
Определение 2.15. Детерминированная (неслучайная) константа C
называется пределом последовательности случайных величин {Xn}, если
для любых сколь угодно малых заданных наперёд положительных чисел
ε и δ существует такой номер N, начиная с которого вероятность того, что
Xn будет отличаться от C больше, чем на ε, будет меньше δ: ∀ n > N:
P(| Xn – C | > ε) < δ. 

81
Определение 2.16 (статистическое определение вероятности).
Вероятностью события A называется предел (в смысле определе-
ния 2.14) случайной величины m / n при n → ∞:

m
P ( A )= lim .  (2.4)
n →∞ n
Определение 2.17. Если предел (2.4) существует, то событие A на-
зывается статистически устойчивым. 
Обозначается вероятность большой латинской буквой P (от англ. the
probability – вероятность), а в скобках указывается событие.
Сравним определения 2.15 и 2.16. В определении 2.16 мы вычисля-
ем вероятность как предел в смысле определения 2.15, в котором уже фи-
гурирует вероятность. Это – основное противоречие статистического
определения вероятности. У него есть ещё один недостаток: нужно про-
вести много опытов (n → ∞), чтобы убедиться в том, что исследуемое со-
бытие статистически устойчиво, и найти его вероятность. Поэтому на
практике чаще применяется другое определение вероятности, которое
называется классическим. Оно основано на приписывании каждому со-
бытию (математическому объекту) числовой меры: вероятности.
У геометрической фигуры есть площадь, у тела – объём, у вектора –
модуль, у квадратной матрицы – детерминант. Это всё числовые характе-
ристики различных математических объектов. Точно так же для события
(а это тоже математический объект!) можно ввести в рассмотрение его
числовую характеристику: вероятность. Такое определение вероятности
называется классическим. Обычно его формулируют для схемы случаев.
Пусть опыт сводится к схеме из n случаев, из которых m случаев благо-
приятствуют появлению события A (т. е. A происходит в результате этих
m случаев). Например, если в колоде из 52 карт есть 13 карт червонной
масти, то событию Ч (вытягивание червы) благоприятствуют m = 13 слу-
чаев из n = 52, входящих в схему.
Определение 2.18 (классическое определение вероятности). Ве-
роятностью события A называется отношение числа благоприятствую-
щих случаев m к общему числу случаев схемы n:

82
m
P ( A )= . (2.5)
n
Вероятность достоверного события равна 1. Вероятность невозможного
события равна 0. Вероятность любого случая схемы равна 1 / n. 
Как видим, при таком подходе к вычислению вероятностей нам нет
нужды проводить много опытов, чтобы найти P(A). Но надо быть заранее
уверенным, что мы имеем дело именно со схемой случаев, т. е. априори
считать события схемы равновозможными. Проще ли это, чем проводить
много опытов для вычисления предела (2.4)? Наверное, да. Ведь призна-
вая случаи схемы равновозможными, мы тем самым учитываем многове-
ковой опыт человечества и здравый смысл.
Рассмотрим несколько примеров вычисления вероятности событий
по классическому определению.
Пример 2.5. В колоде из 52 карт по 13 карт каждой масти. Какова
вероятность вытягивания червы (события Ч)?
Решение. Опыт здесь – вытягивание карты. Вытягивание любой
карты, как показывает многовековой опыт, события равновозможные.
Всего имеем n = 52 случая схемы. В колоде есть 13 карт червонной масти,
поэтому событию Ч благоприятствуют m = 13 случаев. Считаем:
P(Ч) = 13 / 52 = 0,25. 
Пример 2.6. Бросаются 2 игральных кости. Какова вероятность
того, что сумма очков на верхних гранях будет равна 10? Не меньше 10?
Решение. Опыт – бросание двух костей. Все комбинации равновоз-
можны – имеем схему случаев. Каждая кость может лечь шестью граня-
ми, а костей две. По принципу умножения вариантов имеем общее число
случаев схемы n = 36. Подсчитаем количество благоприятствующих слу-
чаев. Чтобы сумма чисел на верхних гранях была равна 10, нужно, чтобы
выпала одна из комбинаций: 4 + 6; 5 + 5; 6 + 4 (всего m = 3 варианта).
Поэтому P(С=10) = 3 / 36 = 1 / 12. Во второй части задачи по-прежнему
n = 36, но добавляются благоприятствующие случаи: 5 + 6; 6 + 5; 6 + 6.
Всего, таким образом, m = 6, а P(С≥10) = 6 / 36 = 1 / 6. См. также далее при-
мер 6.5. 

83
Пример 2.7. Бросаются 8 игральных костей. Какова вероятность
того, что сумма очков на верхних гранях будет в пределах от 30 до 40?
Решение. Принцип решения тот же, что и в предыдущем примере,
но из-за больших чисел применим для вычислений MATLAB. Общее ко-
личество случаев схемы n = 68. Подсчитаем m. Для этого с помощью
функции fullfact (см. электронную версию книги) построим матрицу
полного 8-факторного эксперимента на 6 уровнях. Уровни каждого фак-
тора возьмем в виде чисел 1, 2, 3, 4, 5 и 6. Тогда строки этой матрицы –
все возможные сочетания чисел на верхних гранях всех восьми костей.
Осталось сложить элементы каждой строки и найти количество строк, в
которых сумма элементов не меньше 30 и не больше 40. Затем вычисля-
ем вероятность.

nc = 8; % количество костей
n=6^nc % общее число случаев
x=sum(fullfact(6*ones(1,nc)),2); % матрица ПФЭ 6^nc, сумма
m=length(find((x>=30)&(x<=40))) % число благопр. случаев
p=m/n % вероятность события
n =
1679616
m =
632180
p =
0.37638364959610 

Пример 2.8. Монета бросается 3 раза (или 3 монеты бросаются од-


новременно, т. к. порядок выпадения гербов мы не фиксируем). Какова
вероятность выпадения двух гербов?
Решение. Каждая монета может лечь двумя сторонами, и эти собы-
тия равновозможны. Всего монет три, поэтому по принципу умножения
вариантов имеем схему из n = 23 = 8 случаев. Количество благоприятных
случаев – это количество неупорядоченных выборок из двух гербов по
2
трём бросаниям: m=C 3 =3 . Искомая вероятность p = 3 / 8. 

84
Пример 2.9. Монета бросается 40 раз. Какова вероятность того, что
количество выпадений герба будет от 15 до 25? Будет не больше 10?
Решение. Эта задача отличается от предыдущей тем, что вместо вы-
числения конкретного числа выпадений герба нужно найти сумму таких
значений для заданного интервала. Кроме того, числа здесь большие чис-
ла, поэтому применим для вычислений MATLAB. Биномиальный коэф-
фициент считаем с помощью функции nchoosek.

nexp=40; % количество опытов


n=2^nexp % общее число вариантов
m1=[];
for k=15:25,
m1=[m1 nchoosek(nexp,k)];
end
m1=sum(m1) % число благоприятных вариантов
p1=m1/n % вероятность события
m2=[];
for k=0:10,
m2=[m2 nchoosek(nexp,k)];
end
m2=sum(m2) % число благоприятных вариантов
p2=m2/n % вероятность события
n =
1.099511627776000e+012
m1 =
1.010791520232000e+012
p1 =
0.91930953224801
m2 =
1.221246132000000e+009
p2 =
0.00111071688661

Посмотрите на решение. Вероятность выпадения герба 0,5, и при 40


бросаниях монеты число гербов не должно сильно отличаться от 20.
Поэтому вероятность того, что количество выпадений герба будет в пре-

85
делах от 15 до 25, достаточно высока. А вот вероятность того, что выпа-
дет не больше 10 гербов, очень мала: чуть больше 0,1%. См. также бино-
миальное распределение, раздел 4.1. 
Пример 2.10 (задача контролёра). Имеется партия из 20 изделий,
среди которых 5 бракованных. Наугад выбирается 8 изделий. Какова ве-
роятность того, что среди них ровно 2 бракованных?
Решение. Т. к. изделия отбираются наугад, у нас нет оснований счи-
тать, что один вариант отбора чем-то предпочтительнее другого. Поэто-
му считаем все варианты отбора равновозможными. Имеем схему случа-
ев и, следовательно, можем применить классическое определение веро-
ятности. Подсчитаем общее количество вариантов выбора 8 изделий из
20 имеющихся. Порядок выбора нам не важен, поэтому общее число слу-
8
чаев схемы равно числу сочетаний из 20 по 8: n=C 20 . Теперь найдем
количество благоприятствующих случаев. Чтобы интересующее нас со-
бытие наступило, нужно, чтобы среди 8 выбранных изделий было ровно
2 бракованных, а остальные 6 были небракованные. Бракованные изде-
лия мы выбираем из 5 имеющихся, и порядок неважен, поэтому количе-
2
ство вариантов такого выбора равно числу сочетаний из 5 по 2: C 5 . Но
у нас есть ещё и небракованные изделия (всего их 15), и из них можно
выбирать 6 предметов также различными способами. Количество этих
6
способов равно C 15 . Каждый вариант выбора бракованных изделий
можно сочетать с каждым вариантом выбора небракованных, поэтому
общее количество благоприятствующих случаев схемы подсчитывается
2 6
по правилу умножения вариантов. Оно равно m=C 5 C 15 , а искомая ве-
роятность:
2 6
C 5 C 15
P ( Б 2 )= . (2.6)
C 820

Здесь искомое событие обозначено Б2. Числа достаточно большие,


поэтому используем для вычислений MATLAB.

86
n=nchoosek(20,8) % общее число случаев
m=nchoosek(5,2)*nchoosek(15,6) % число благопр. случаев
p=m/n % вероятность события
n =
125970
m =
50050
p =
0.39731682146543

См. также гипергеометрическое распределение, раздел 4.2. 


Попробуйте решить самостоятельно такую задачу. В урне 10 шаров:
5 синих, 3 красных и 2 чёрных. Наугад вытягиваются 4 шара. Какова ве-
роятность, что среди них 2 синих, 2 красных и ни одного чёрного?
Подсказка: в числителе будет произведение не двух, а трёх биномиаль-
ных коэффициентов. Теперь придумайте и решите аналогичную задачу с
шарами 4 цветов.
Пример 2.11. В ряд случайным образом расставлены 10 предметов.
Какова вероятность, что два определённых предмета окажутся рядом?
Решение. Считаем, что любая перестановка равновозможна. Все
они несовместны и образуют полную группу, следовательно, имеем схе-
му случаев. Общее число событий равно числу перестановок из 10 пред-
метов: n = P10 = 10!. Подсчитаем количество благоприятствующих случа-
ев. Чтобы два выбранных предмета находились рядом, нужно, чтобы они
занимали места 1 и 2 или 2 и 3 и т. д. аж до 9 и 10 – всего 9 вариантов. На
каждой из этих позиций предметы могут стоять в любом порядке (2
перестановки), значит, всего имеем 9 × 2 = 18 вариантов расположения
выбранных двух предметов. В каждом из этих вариантов остальные 8
предметов могут располагаться как угодно (есть 8! перестановок). По
принципу умножения вариантов имеем: m = 18 × 8!. Считаем вероятность:
18⋅8 ! 18
P ( A )= = =0,2 .  (2.7)
10 ! 9⋅10
Пример 2.12. Те же 10 предметов разложены по кругу. Какова веро-

87
ятность, что два определённых предмета окажутся рядом?
Решение. Очевидно, общее число вариантов расстановки 10 пред-
метов будет тем же: n = P10 = 10!. А вот количество благоприятствующих
случаев изменится. Чтобы два выбранных предмета находились рядом
при их расстановке по кругу, нужно, чтобы они занимали места 1 и 2 или
2 и 3 и т. д., 9 и 10, а также 10 и 1 – всего 10 вариантов. Остальные рассу-
ждения остаются в силе. На каждой из 10 позиций предметы могут сто-
ять в любом порядке (2 перестановки), значит, всего имеем 10 × 2 = 20 ва-
риантов расположения наших двух предметов. В каждом из них осталь-
ные 8 предметов располагаются как угодно (всего 8! перестановок),
поэтому: m = 20 × 8!, а искомая вероятность:
20⋅8 ! 20 2
P ( A )= = = .  (2.8)
10 ! 9⋅10 9
Пример 2.13. Точка попадает на единичный отрезок, и попадание в
каждую его точку равновозможно. Какова вероятность её попадания в
часть [0; 1/3]?
Решение. Точек на отрезках [0; 1] и [0; 1/3] бесконечное множество,
поэтому нельзя рассматривать попадание в конкретную точку как случай
схемы, т. к. вероятность такого события равна 0, а попытка вычислить
m / n приводит к неопределённости. Здесь удобнее в качестве случаев схе-
мы взять попадание точки в 1-ю треть отрезка [0; 1/3], 2-ю треть
[1/3; 2/3] и 3-ю треть [2/3; 1]. Тогда ответ очевиден: P(П[0; 1/3]) = 1/3.
См. также непрерывное равномерное распределение, раздел 4.6. 
Хорошо, если в примере 2.13 границы интервала, вероятность попа-
дания в который вычисляется, являются рациональными числами. В этом
случае всегда можно найти конечный отрезок, умещающийся целое чис-
ло раз во всех нужных частях, и взять в качестве случая схемы попадание
в него. Но, допустим, в примере 2.13 нужно найти вероятность попада-

ния в отрезок [ 0;
1
√2 ] . Здесь схему случаев построить не удается, т. к.

не существует никакого конечного отрезка, даже самого маленького, ко-

88
торый умещался бы целое число раз и в [ 0;
1
√2], ив
[√ ]
1
2
; 1 . В этой

ситуации нам поможет еще одно определение вероятности, геометриче-


ское.
Определение 2.19 (геометрическое определение вероятности).
Вероятностью события A называется отношение меры области, благо-
приятствующей наступлению события A, к мере всей области:

σ ( A)
P ( A )= .  (2.9)
σ(I )
Под мерой области в различных задачах понимается длина отрезка,
площадь фигуры или объём тела.
Пример 2.14. Точка попадает в круг радиуса 2, и попадание в каж-
дую его точку равновозможно. Какова вероятность её попадания в квад-
рат со стороной 1, целиком лежащий внутри круга?
Решение. Здесь мерой области является её площадь. Считаем:
1
σ(I) = 4π; σ(A) = 1; и искомая вероятность P ( A )= ≈ 0,079577. 

При построении
диаграмм Венна удобно
каждое событие рисо-
вать фигурой, площадь
которой равна вероят-
ности события (если
площадь всего листа
принять равной 1). То-
гда геометрическое
определение вероятно-
сти обретает наглядную
форму.
Возможны и дру-
гие варианты, несводи-
Рисунок 2.13 – Бесконечная полная группа не-
мые к схеме случаев. совместных событий

89
Например, на рис. 2.13 показана диаграмма Венна для бесконечной пол-
ной группы несовместных событий. Первое событие имеет вероятность
1/2, второе – 1/4, …, P(An) = 2–n, и т. д. до бесконечности. Здесь также не
существует события с наименьшей вероятностью, которое можно было
бы принять в качестве случая схемы. См. также геометрическое распре-
деление, раздел 4.3.

2.3. Основные теоремы о вероятностях


Мы научились вычислять вероятности простых событий по класси-
ческому и геометрическому определениям. Но события можно склады-
вать, умножать, вычитать, находить противоположное. Что при этом
происходит с вероятностями? Рассмотрим соответствующие теоремы.
Доказательства дадим для схемы случаев, но принцип доказательств бу-
дет такой же и для бесконечных полных групп несовместных событий, и
для геометрического определения вероятности.
Начнем с самой простой теоремы: о вероятности противоположного
события.
Теорема 2.1. Вероятность противоположного события
P ( A )=1− P ( A ) .
Доказательство. Пусть событию A благоприятствуют m случаев
схемы, в которой всего n случаев. В силу несовместности и полноты слу-
чаев схемы событию A благоприятствуют остальные n – m случаев.
n−m m
Считаем: P ( A )= =1− =1− P ( A ) . 
n n
Геометрическая иллюстрация к этой теореме – это диаграмма Венна
на рис. 2.5. Если принять площадь всего листа I за 1, а площадь, ограни-
ченная фигурой A, равна p, то площадь оставшейся незаштрихованной
части A как раз и будет 1 – p.
Пример 2.14. В ряд случайным образом расставлены 10 предметов.
Какова вероятность, что два определённых предмета не окажутся рядом?
Решение. В примере 2.11 мы нашли вероятность события, противо-
положного данному: что эти 2 предмета окажутся рядом: P(A) = 0,2.

90
Поэтому P ( A )=1− P ( A )= 0,8 . 
Для следующих теорем нужно ещё ввести в рассмотрение некото-
рые понятия.
Определение 2.20. Событие B называется независимым от события
A, если P(B) не зависит от того, произошло A или нет. Если же P(B) зави-
сит от того, произошло A или нет, то B называется зависимым от A. 
Пример 2.15. В урне есть 3 белых шара, 2 красных и 4 синих. Шары
последовательно вынимаются из урны без возврата. Зависит ли событие
Б2 (вторым вытягивается белый шар) от Б1 (первым вытягивается белый
шар)?
Решение. Пусть Б1 произошло. Тогда в урне осталось 2 белых шара,
2 красных и 4 синих. Вытягивание 2-го белого шара сводится к схеме из
8 случаев, из которых 2 благоприятствуют Б2. Поэтому P(Б2) = 2 / 8 = 0,25.
Если же Б1 не произошло, т. е. первым был вытащен не белый шар, то в
этом случае в урне остаётся 3 белых шара и 5 не белых, и
P(Б2) = 3 / 8 = 0,375. Как видим, вероятность Б2 зависит от того, произо-
шло Б1 или нет, поэтому Б2 зависимо от Б1. 
Определение 2.21. Вероятность события при условии, что произо-
шло другое событие, называется условной вероятностью. 
Она обозначается наклонной чертой /, после которой ставится
обозначение события-условия. Так, в примере 2.15: P(Б2/Б1) = 0,25, а
P ( Б 2 / Б 1)=0,375 . А условие независимости B от A выглядит так:
P ( B / A )= P ( B/ A ) = P ( B ) .
Теперь рассмотрим следующую теорему: о вероятности произведе-
ния событий. Заметим, что есть смысл рассматривать только совместные
события, т. к. произведение несовместных событий есть событие невоз-
можное, и его вероятность равна 0.
Теорема 2.2. Вероятность произведения двух событий P(AB) =
= P(A) ⋅ P(B/A).
Доказательство. Пусть в схеме из n случаев событию A благоприят-
ствуют m случаев, событию B – l случаев, а их произведению AB – k слу-
чаев. Очевидно, k ≤ m; k ≤ l; m ≤ n; l ≤ n. Диаграмма Венна для этих собы-

91
тий показана на рис. 2.14.

Рисунок 2.14 – Схема случаев для двух совместных событий

Левая часть доказываемого равенства: P(AB) = k / n. В правой части


1-й сомножитель P(A) = m / n. Рассмотрим 2-й сомножитель P(B/A). Собы-
тие A уже произошло, поэтому при вычислении P(B/A) мы должны счи-
тать, что общее количество случаев схемы равно уже не n, а только m.
Среди этих m случаев благоприятствуют событию B/A только k, поэтому
P(B/A) = k / m. Тогда P(A) ⋅ P(B/A) = (k / m) (m / n) = k / n = P(AB). 
Следствие 2.1. P(AB) = P(B) ⋅ P(A/B).
Доказательство следует из коммутативности умножения событий:
P(AB) = P(BA) = P(B) ⋅ P(A/B). Проверьте это по диаграмме Венна на
рис. 2.14. 
Из теоремы 2.2 и следствия 2.1 следуют формулы для вычисления
условных вероятностей:

P ( AB ) P ( AB )
P ( B / A )= ; P ( A/ B )= . (2.10)
P ( A) P(B)

92
Следствие 2.2. Если событие B не зависит от A, то вероятность
произведения событий равна произведению вероятностей событий-со-
множителей: P(AB) = P(A) ⋅ P(B).
Доказательство следует из определения независимости B от A: в
этом случае P(B) = P(B/A). 
Следствие 2.3. Если событие B не зависит от A, то и A не зависит от
B.
Доказательство. Пусть B не зависит от A. Тогда P(AB) =
= P(A) ⋅ P(B) = P(B) ⋅ P(A). Но в общем случае P(AB) = P(B) ⋅ P(A/B). Отсюда
следует, что P(A/B) = P(A), а, значит, A не зависит от B. Поэтому мы мо-
жем говорить о взаимно независимых событиях. 
Следствие 2.4. Для трёх событий P(ABC) = P(A) ⋅ P(B/A) ⋅ P(C/(AB)).
Доказательство основано на коммутативности произведения собы-
тий. Имеем:
P(ABC) = P((AB)C) = P(AB) ⋅ P(C/(AB)) = P(A) ⋅ P(B/A) ⋅ P(C/(AB)). 
Разумеется, это свойство можно применять и для произведения
большего числа событий.
Пример 2.14. В урне находятся 2 шара с буквами М и 2 с буквами А.
Шары случайным образом вытягиваются по одному и расставляются в
ряд. Какова вероятность, что будет сложено слово МАМА?
Решение. Шары вытягиваются последовательно. Нам нужно, чтобы
1-я буква была М, и 2-я буква – А, и 3-я буква – М, и 4-я – А. Союзу "и"
соответствует умножение событий, поэтому наше событие равно произ-
ведению четырёх событий: М1 ⋅ А2 ⋅ М3 ⋅ А4 (здесь индекс внизу – номер
вытягивания). По теореме умножения вероятностей
P(М1А2М3А4) = P(М1)P(А2/М1) ⋅ P(М3/(М1А2))P(А4/(М1А2М3)). Считаем веро-
ятности. Каждое из четырёх вытягиваний сводится к схеме случаев. Для
1-го вытягивания общее количество случаев схемы n = 4, а благоприят-
ствуют событию М1 m = 2 случая. Поэтому P(М1) = 2 / 4 = 1 / 2. Далее счи-
таем вероятность А2/М1. Событие М1 произошло, поэтому в урне оста-
лись 2 буквы А и одна М. Опять имеем схему случаев, и P(А2/М1) = 2 / 3.
Теперь в урне остались по одной букве А и М (событие М1А2

93
произошло). Поэтому P(М3/(М1А2)) = 1 / 2. И, наконец, т. к. в урне
осталась единственная буква А, то P(А4/(М1А2М3)) = 1. Перемножаем:
P(М1А2М3А4) = 1 / 6. 
Пример 2.15. Два стрелка одновременно (или по очереди, это не-
важно) стреляют по мишени. Вероятность попадания у 1-го стрелка 0,9, а
у 2-го – 0,7. Какова вероятность, что оба попадут? Оба не попадут? Хотя
бы один попадёт?
Решение. Обозначим события: П1 – 1-й стрелок попал, П2 – 2-й по-
пал. Из смысла задачи есть все основания считать, что события П1 и П2 –
независимые. Чтобы было 2 попадания (обозначим это событие Р2 – ров-
но 2 стрелка попали), нужно, чтобы и 1-й стрелок попал, и 2-й. Союзу
"и" соответствует умножение, поэтому Р2 = П1П2. Вероятность произведе-
ния независимых событий равна произведению вероятностей событий-
сомножителей: P(Р2) = 0,9 ⋅ 0,7 = 0,63. Событие Р0 (ровно 0 попаданий,
т. е. никто не попал) наступит тогда, когда и 1-й стрелок не попадёт, и 2-
й не попадёт. Частице "не" соответствует переход к противоположному
событию, поэтому Р 0= П 1 П 2 . Вероятности противоположных событий:
P ( П 1 )=1− P ( П 1 ) =0,1; P ( П 2 ) =1−P ( П 2) =0,3. Т. к. события П1 и П2 –
независимые, то и им противоположные независимы, поэтому
P ( Р 0 )= P ( П 1 ) P ( П 2 ) =0,03. И, наконец, рассмотрим событие Х1 (хотя бы
один стрелок попал). Оно является противоположным по отношению к
Р0, значит, P(Х1) = 1 – P(Р0) = 0,97. 
Пример 2.16. Имеется группа из n случайно выбранных человек.
Какова вероятность, что хотя бы у двух из них совпадёт день рождения
(без учёта года и 29 февраля)? Сколько человек должно быть в группе,
чтобы эта вероятность превысила 0,5?
Решение. Если n > 365, то по принципу исключения вероятность
совпадения дней рождения будет равна 1. Действительно, в самом худ-
шем случае у 365 человек дни рождения различные, но у 366-го наверня-
ка с кем-то совпадёт. С другой стороны, при n = 1 искомая вероятность
равна 0 (вообще нет совпадений). Поэтому при увеличении n от 1 до 366
вероятность совпадения дней рождения будет изменяться (как подсказы-

94
вает интуиция, увеличиваться) от 0 до 1. Нам нужно построить эту зави-
симость p(n), а затем найти наименьшее целое решение неравенства
p(n) ≥ 0,5.
В задачах, где встречаются слова "существует хотя бы один", всегда
удобно перейти к противоположному событию "не существует ни одно-
го". Эта задача как раз такого класса. Несмотря на то, что в условии на-
писано "хотя бы у двух", речь здесь всё-таки идет о хотя бы одном совпа-
дении дней рождения. Обозначим это событие через Сn. Тогда противо-
положное событие С n – среди n человек нет ни одного совпадения дней
рождения. Мы уже знаем, что P ( С 1) =1, а P ( С >365 )=0. Рассмотрим
нахождение P ( С n ) . Очевидно, задача не зависит от того, в каком поряд-
ке перенумеровать людей, поэтому перенумеруем их. Пусть у 1-го чело-
века день рождения припадает на какой-то конкретный день из имею-
щихся 365. Чтобы произошло событие С 2 , нужно, чтобы у 2-го челове-
ка день рождения выпал на какой-либо из 354 оставшихся. По классиче-
364
скому определению вероятности P ( С 2 )= . Далее, у 3-го человека
365
день рождения должен попасть на один из 363 оставшихся. В силу неза-
364 363
висимости дней рождения P ( С 3) = ⋅ . Теперь уже нетрудно по-
365 365
строить общую формулу:
n
364 363 366−n 366−i
P ( С n )= ⋅ ⋅…⋅ =∏ . (2.11)
365 365 365 i=1 365

Отняв от 1 вычисленную величину, получим P(Сn). Осталось найти


то значение n, при котором P(Сn) начнет превышать 0,5. Поручим эту ра-
боту MATLAB. Вычислим по формуле (2.11) вероятности P ( С n ) , затем
найдём P(Сn) и построим их график (рис. 2.15), и, наконец, определим та-
кое n, начиная с которого вероятность совпадения дней рождения превы-
сит 0,5. Покажем его на графике.

95
pcrit=0.5; % критическое значение вероятности
q=1; % вероятности несовпадения
for i=2:366,
q=[q q(end)*(366-i)/365]; % накапливаем
end
p=1-q; % вероятности совпадения
nmin=min(find(p>=pcrit)); % минимальное n с p>=pcrit
fprintf('При n>=%d вероятность P(Cn)>=%3.1f.\n',...
nmin,pcrit);
plot(1:366,p,'k-',nmin,p(nmin),'ko'); % рисуем график
xlim([1 366]); % границы по оси OX
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10) % шрифт
title('\bfВероятность совпадения дней рождения')
xlabel('\itn') % метка оси OX
ylabel('\itP\rm(\itC_n\rm)') % метка оси OY
При n>=23 вероятность P(Cn)>=0.5. 

Вероятность совпадения дней рождения


1

0.8

0.6
P(C n)

0.4

0.2

0
50 100 150 200 250 300 350
n

Рисунок 2.15 – Вероятности совпадения дней рождения в груп-


пе из n человек

96
Довольно неожиданный результат: оказывается, достаточно иметь
группу из 23 случайно отобранных человек, чтобы вероятность совпаде-
ния дней рождения была больше, чем 1 / 2.
И, наконец, третья теорема позволяет вычислить вероятность суммы
событий. Здесь, в отличие от умножения, можно рассматривать как сов-
местные, так и несовместные события. Более общим здесь является слу-
чай совместных событий, показанный на рис. 2.14.
Теорема 2.3. Вероятность суммы двух событий P(A + B) = P(A) +
+ P(B) − P(AB).
Доказательство. Пусть в схеме из n случаев событию A благоприят-
ствуют m случаев, событию B – l случаев, а их произведению AB – k слу-
чаев. Из рис. 2.14 видно, что событию A + B благоприятствуют m + l – k со-
бытий. Величину k нужно отнимать, чтобы не учитывать дважды те слу-
чаи схемы, которые входят и в A, и в B. Поэтому
m+l −k m l k
P ( A+ B ) = = + − = P ( A ) + P ( B )− P ( AB ) . 
n n n n
Следствие 2.5. Если события A и B несовместны, то P(A + B) =
= P(A) + P(B).
Доказательство. Если A и B несовместны, то P(AB) = 0, и
P(A + B) = P(A) + P(B). 
Следствие 2.6. Вероятность суммы трех событий P(A + B + C) = (это
уже доказательство) = P((A + B) + C) = P(A + B) + P(C) – P((A + B)C)=
=P(A) + P(B) – P(AB) + P(C) − P(AC + BC) = P(A) + P(B) + P(C) – P(AB) –
− (P(AC) + P(BC) – P(ACBC)) = P(A) + P(B) + P(C) – P(AB) – P(AC) – P(BC) +
+ P(ABC). 
Постройте диаграмму Венна для этого случая и посмотрите, площа-
ди каких кусочков нужно складывать и вычитать.
Пример 2.17 (продолжение примера 2.15). Найти вероятность собы-
тия Р1 (ровно один стрелок попадёт).
Решение. Ровно один стрелок попадает – это значит 1-й стрелок по-
падёт и 2-й нет или 2-й попадёт и 1-й нет. Заменив слова операциями,
получим: Р 1= П 1 П 2+ П 1 П 2 . Слагаемые здесь несовместные, т. к. в 1-м

97
слагаемом содержится, например, множитель П1, а во 2-м – П 1 , а они не
могут осуществиться одновременно. Поэтому применяем следствие 2.5:
P ( Р 1 ) = P ( П 1 П 2 )+ P ( П 1 П 2 ) . Далее переходим к сомножителям. Они
независимы, значит, P ( Р 1 ) = P ( П 1 ) P ( П 2 )+P ( П 1 ) P ( П 2 ) . Считаем:
P(Р1) = 0,9 ⋅ 0,3 + 0,1 ⋅ 0,7 = 0,34. Обратите внимание: Р0, Р1 и Р2 образуют
полную группу несовместных событий, поэтому сумма их вероятностей
равна 1. Вероятности событий Р0, Р1 и Р2 можно получить ещё и так:
нужно раскрыть скобки в выражении (0,9 + 0,1) (0,7 + 0,3), перемножая
отдельные слагаемые. Здесь 1-я скобка – это вероятности попадания и
промаха 1-го стрелка, а 2-я – 2-го. Разберитесь самостоятельно,
вероятности каких событий дадут полученные 4 числа. 
Пример 2.18. Пусть теперь стреляют 3 стрелка. Вероятности попа-
даний: P(П1) = 0,9; P(П2) = 0,7 и P(П3) = 0,5. Попадания считаются незави-
симыми. Найти вероятности событий, перечисленных в примере 2.4.
Решение. События уже построены. Вычисляем вероятности.
• P(Р3) = P(П1 ⋅ П2 ⋅ П3) = P(П1) P(П2) P(П3) = 0,9 ⋅ 0,7 ⋅ 0,5 = 0,315.

• P ( Р 0 ) = P ( П 1⋅П 2⋅П 3 )= P ( П 1 ) P ( П 2 ) P ( П 3)=0,1⋅0,3⋅0,5=0,015.

• P ( Р 1 ) = P ( П 1⋅П 2⋅П 3 )+ P ( П 1⋅П 2⋅П 3 )+ P ( П 1⋅П 2⋅П 3 ) =


= P ( П 1 ) P ( П 2 ) P ( П 3)+ P ( П 1 ) P ( П 2 ) P ( П 3 ) +P ( П 1 ) P ( П 2 ) P ( П 3 )=

= 0,9 ⋅ 0,3 ⋅ 0,5 + 0,1 ⋅ 0,7 ⋅ 0,5 + 0,1 ⋅ 0,3 ⋅ 0,5 = 0,185.

• P ( Р 2 )= P ( П 1⋅П 2⋅П 3 ) + P ( П 1⋅П 2⋅П 3 )+ P ( П 1⋅П 2⋅П 3 ) =


= P ( П 1 ) P ( П 2 ) P ( П 3)+ P ( П 1 ) P ( П 2 ) P ( П 3 ) +P ( П 1 ) P ( П 2 ) P ( П 3 )=

= 0,9 ⋅ 0,7 ⋅ 0,5+ 0,9 ⋅ 0,3 ⋅ 0,5 + 0,1 ⋅ 0,7 ⋅ 0,5 = 0,485.

• P ( Х 1)= P ( Р 0 )=1−P ( Р 0 ) =1−0,015=0,985 .

• P(Х2) = P(Р2 + Р3) = P(Р2) + P(Р3) = 0,485 + 0,315 = 0,8. 

98
2.4. Формула полной вероятности. Формулы Байеса
Познакомимся ещё с одним приёмом вычисления вероятностей
сложных событий. Вначале, как обычно, новые определения. Мы уже
знакомы со схемой случаев: это полная система несовместных равновоз-
можных событий. Если же события полной группы только несовмест-
ные, но не обязательно равновозможные, то они называются гипотезами.
Определение 2.22. Гипотезами называется полная группа несов-
местных событий. 
Гипотезы обозначаются латинской буквой H (от англ. hypothesis –
гипотеза) с индексом внизу: номером гипотезы. Из определения следует,
что:
n

∑ P ( H i )=1. (2.12)
i =1

Действительно: гипотезы – несовместные события, поэтому вероят-


ность их суммы равна сумме вероятностей. Но они также образуют пол-
ную группу, поэтому сумма вероятностей равна 1. Обычно гипотезы вво-
дят в рассмотрение в тех задачах, где они (одна из них) предшествуют
событию, вероятность которого нужно посчитать. Рассмотрим несколько
примеров. Пока что мы просто выясним, что здесь является гипотезами,
а решим эти задачи дальше.
Пример 2.19. В урне 3 белых шара, 2 красных и 4 синих. Из урны
последовательно вытягиваются 2 шара (без возврата). Требуется найти
вероятность того, что 2-й шар будет белым. Что здесь является гипотеза-
ми?
Решение. Вытягиванию 2-го шара предшествует вытягивание 1-го,
который может быть или белым, или красным, или синим. Здесь собы-
тию Б2 предшествует одно из трёх несовместных событий Б1, К1 или С1,
которые образуют полную группу. Это и есть гипотезы в данной задаче:
H1 = Б1; H2 = К1; H3 = С1. 
Пример 2.20. Рабочий берёт для сборки микросхему одного из трёх
заводов, которые по внешнему виду неразличимы. Всего имеется в на-

99
личии 50% микросхем 1-го завода, 30% – 2-го и 20% – 3-го. Среди ми-
кросхем 1-го завода 5% бракованных, 2-го – 2% и 3-го – 10%. Требуется
определить, какова вероятность у рабочего взять бракованную микросхе-
му. Что здесь является гипотезами?
Решение. Выбранная микросхема изготовлена каким-то заводом,
поэтому гипотезами здесь будет выбор рабочим микросхемы определён-
ного завода: H1 – 1-го, H2 – 2-го и H3 – 3-го. Хотя здесь оба действия (вы-
бор завода-изготовителя и выбор схемы) выполняются одновременно,
удобно считать, что эти действия выполняются последовательно: сначала
случайно выбирается завод-изготовитель, а затем – плата его произ-
водства. 
Пример 2.21. В 1-й урне 3 белых шара и 4 чёрных, а во 2-й – 5 бе-
лых и 2 чёрных. Из первой урны берут 2 шара и, не глядя, перекладыва-
ют их во вторую урну, после чего из 2-й урны вынимают один шар. Тре-
буется найти вероятность того, что это шар белый. Что здесь является ги-
потезами?
Решение. Вытягиванию шара из 2-й урны предшествует переклады-
вание двух шаров из 1-й урны во 2-ю. Различные варианты такого пе-
рекладывания и есть гипотезы в данной задаче. Всего таких гипотез три:
H1 – перекладываются 2 белых шара, H2 – 1 белый и 1 чёрный, и H3 – два
чёрных. 
Могут быть и более сложные случаи. Например, можно рассматри-
вать 3 урны с шарами разного цвета. Сначала какое-то количество шаров
перекладывается из 1-й урны во 2-ю, затем какое-то другое (или такое
же) количество шаров перекладывается из 2-й урны в 3-ю, а затем уже из
3-й урны вытягивается шар, и требуется найти вероятность того, что он
определённого цвета. Такие задачи решаются "с конца". Гипотезами для
последнего вытягивания являются различные варианты перекладывания
шаров из 2-й урны в 3-ю. При вычислении вероятностей гипотез (а они
нам будут нужны) каждую из них нужно рассматривать как событие, ко-
торое в свою очередь зависит от нескольких гипотез: вариантов перекла-
дывания из 1-й урны во 2-ю.

100
Как же найти вероятность события A, которому предшествует одна
из гипотез H1, H2, …, Hn? У нас сначала выполняется одна из гипотез
(или H1, или H2, …, или Hn), и затем событие A. По правилам сложения
и умножения событий имеем результирующее событие
n n
A= IA=
( )
∑Hi
i=1
A= ∑ H i A (множитель A вносится в скобки в силу дис-
i =1

трибутивного закона). Вычисляем вероятность этого события. Слагаемые


n
здесь несовместные из-за гипотез, поэтому P ( A )=∑ P ( H i A ) . Сомно-
i=1

жители в каждом слагаемом в общем случае могут быть зависимыми,


поэтому:
n
P ( A )=∑ P ( H i ) P ( A/ H i ) . (2.13)
i=1

Определение 2.23. Формула (2.13) называется формулой полной ве-


роятности (часто применяется сокращение ФПВ). 
ФПВ позволяет вычислить вероятность события, которое происхо-
дит после реализации одной из гипотез. Если A не зависит от гипотез, то
все P(A/Hi) = P(A), этот множитель выносится в (2.13) за знак суммы, и в
силу (2.10) получаем тождество P(A) = P(A). Поэтому ФПВ обычно при-
меняют, когда A зависит от гипотез. В результате для P(A) получается не-
которое средневзвешенное значение из всех P(A/Hi), где в качестве весо-
вых коэффициентов выступают вероятности гипотез.
Продолжим решение примеров 2.19-2.21.
Пример 2.19 (продолжение). Применяем для решения ФПВ (2.13).
Первые множители – это вероятности гипотез: P(H1) = 3/9; P(H2) = 2/9;
P(H3) = 4/9. Мы их считаем по классическому определению вероятностей:
всего в схеме 9 случаев, из них 3 благоприятствуют H1, 2 – H2 и 4 – H3.
Теперь вычисляем вторые сомножители – условные вероятности Б2 при
условии наступления той или иной гипотезы. Здесь опять имеем схему
случаев, но их общее число уже не 9, а 8 (первый шар вытянут). После

101
H1 белых шаров осталось 2, а после H2 и H3 – 3. Поэтому P(Б2/H1) = 2 / 8; а
P(Б2/H2) = P(Б2/H3) = 3 / 8. Считаем по ФПВ:
3 2 2 3 4 3 24 1
P ( Б 2 )= ⋅ + ⋅ + ⋅ = = . 
9 8 9 8 9 8 72 3
Пример 2.20 (продолжение). Вероятности гипотез: P(H1) = 0,5;
P(H2) = 0,3; P(H3) = 0,2. Вторые множители ФПВ: P(Б/H1) = 0,05;
P(Б/H2) = 0,02; P(Б/H3) = 0,1. Применяем ФПВ: P(Б) = 0,5 ⋅ 0,05 +
+ 0,3 ⋅ 0,02 + 0,2 ⋅ 0,1 = 0,051. 
Пример 2.21 (продолжение). Гипотезами здесь являются варианты
перекладывания шаров из 1-й урны во 2-ю. Нахождение их вероятно-
стей – это типичная задача контролёра (см. пример 2.10). Действительно:
в 1-й урне есть 7 предметов (шаров), из которых 3 белых. Наугад вытяги-
ваются 2 шара, и требуется найти вероятности того, что среди них будет
2, 1 или 0 белых. Поэтому для вычисления P(Hi) применяем формулу
(2.6), разумеется, с другими числами:
2 0 1 1 0 2
C3 C4 1 C 3C4 4 C3C 4 2
P ( H 1 )= 2 = ; P ( H 2 )= 2 = ; P ( H 3 )= 2 = . (2.14)
C 7
7 C 7
7 C 7
7

Сумма вероятностей гипотез в силу (2.12) должна получиться рав-


ной 1. Если это не так, ищите ошибки.
Переходим к вычислению вторых сомножителей ФПВ (2.13). После
добавления двух шаров во вторую урну их там стало 9. При этом после
H1 там стало 7 белых шаров из 9, поэтому P(Б2/H1) = 7 / 9. После H2 коли-
чество белых шаров равно 6, и P(Б2/H2) = 6 / 9. И, наконец, после H3 во 2-й
урне осталось 5 белых шаров, поэтому P(Б2/H3) = 5 / 9. Считаем:
1 7 4 6 2 5 41
P ( Б 2 )= ⋅ + ⋅ + ⋅ = ≈ 0,6508. 
7 9 7 9 7 9 63
А теперь рассмотрим обратную задачу. Пусть событие A может на-
ступить после одной из гипотез H1, H2, …, Hn, и оно наступило. Какова
вероятность того, что этому предшествовала гипотеза H1, или H2, или
любая другая Hi? Мы можем найти априорные вероятности гипотез (они
входят в ФПВ как первые сомножители). Здесь же задача иная: событие

102
A уже произошло, и нужно переоценить гипотезу, или, иными словами,
дать апостериорную оценку её вероятности. В наших обозначениях: тре-
буется найти P(Hi/A). По формуле для условной вероятности (2.10) име-
ем:

P ( H i A ) P ( H i ) P ( A/ H i )
P ( H i / A )= = . (2.15)
P ( A) P ( A)

Определение 2.24. Формулы (2.15) называются формулами Байеса


(Thomas Bayes, 1702-1761, см. рис. 2.16). 
Обычно говорят не об одной, а о
нескольких формулах Байеса, т. к. по
(2.15) можно переоценивать вероятность
не одной, а всех гипотез. В знаменателе
формул Байеса находится P(A), вычис-
ленная по ФПВ, а в числителе – одно
слагаемое ФПВ. Поэтому сумма всех
апостериорных вероятностей гипотез
P(Hi/A), вычисленных по (2.15), будет
равна 1.
Пример 2.22 (обратный приме-
ру 2.19). В урне 3 белых шара, 2 красных
Рисунок 2.16 – Томас Байес
и 4 синих. Из урны последовательно вы-
тягиваются 2 шара (без возврата). Второй шар оказался белым. Какова
вероятность, что 1-й шар был белым? красным? синим?
Решение. Апостериорные вероятности гипотез вычисляем по фор-
мулам Байеса (2.15). В знаменателе будет полная вероятность P(Б2) = 1 / 3,
найденная в примере 2.19. В числителях – соответственно 1-е, 2-е и 3-е
слагаемые ФПВ: P(H1Б2) = 1 / 12; P(H2Б2) = 1 / 12 и P(H3Б2) = = 1 / 6. Вычис-
ляем: P(H1/Б2) = 0,25; P(H2/Б2) = 0,25 и P(H2/Б2) = 0,5. Как видим, апосте-
риорные вероятности отличаются от априорных. Например, априорная
вероятность вытащить 1-й белый шар равна 1 / 3. Но если вытащенный 2-
й шар оказался белым, то вероятность того, что и 1-й тоже был белым,

103
равна уже не 1 / 3, а только 1 / 4. 
Пример 2.23 (обратный примеру 2.20). Рабочий берёт для сборки
микросхему одного из трёх заводов, которые по внешнему виду нераз-
личимы. Всего имеется в наличии 50% микросхем 1-го завода, 30% – 2-
го и 20% – 3-го. Среди микросхем 1-го завода 5% бракованных, 2-го – 2%
и 3-го – 10%. Выбранная микросхема оказалась бракованной. Какова ве-
роятность, что она изготовлена на 1-м заводе? 2-м? 3-м?
Решение. Полная вероятность появления бракованного изделия
P(Б) = 0,051. Эта величина будет в знаменателе формул Байеса. В числи-
телях будут величины: P(H1Б) = 0,025; P(H2Б) = 0,006 и P(H3Б) = 0,02. Вы-
числяем апостериорные вероятности: P(H1/Б) = 0,490196; P(H2/Б) =
= 0,117647; P(H3/Б) = 0,392157. 
Пример 2.24 (обратный примеру 2.21). В 1-й урне 3 белых шара и
4 чёрных, а во 2-й – 5 белых и 2 чёрных. Из первой урны берут 2 шара и,
не глядя, перекладывают их во вторую урну, после чего из 2-й урны вы-
нимают один шар. Он оказался белым. Какова вероятность того, что из 1-
й урны во 2-ю были переложены 2 белых шара? 1 белый и 1 чёрный? 2
чёрных?
Решение. Принцип тот же, что и в предыдущих примерах. Делим
каждое слагаемое ФПВ на полную вероятность: P(H1/Б) = 7/41 ≈ 0,17073;
P(H2/Б) = 24/41 ≈ 0,58537; P(H3/Б) = 10/41 ≈ 0,2439. 
Иногда выбор гипотез не очевиден. Нужно рассмотреть различные
варианты, чтобы выбрать наиболее подходящий. Главное, чтобы собы-
тия, выбираемые в качестве гипотез, были взаимно несовместными и об-
разовывали полную группу. Рассмотрим две похожие задачи, в которых
гипотезы выбираются по-разному.
Пример 2.25. Три стрелка стреляют по мишени независимо друг от
друга. Вероятности попаданий: P(П1) = 0,9; P(П2) = 0,7 и P(П3) = 0,5. По-
сле стрельбы в мишени оказались 2 пробоины. Какова вероятность, что
их сделали 2-й и 3-й стрелки?
Решение. Здесь в качестве гипотез удобно взять все возможные ва-
рианты попаданий или не попаданий всех трёх стрелков. Каждый из трёх

104
стрелков может попасть или не попасть, и по принципу умножения име-
ем 8 различных вариантов. Все они несовместны и образуют полную
группу, поэтому являются гипотезами. Вот они и их вероятности:
• H 1 = П 1 П 2 П 3 ; P ( H 1 ) =0,9⋅0,7⋅0,5=0,315 ;
• H 2 =П 1 П 2 П 3 ; P ( H 2 )=0,1⋅0,7⋅0,5=0,035;
• H 3 = П 1 П 2 П 3 ; P ( H 3 ) =0,9⋅0,3⋅0,5=0,135 ;
• H 4= П 1 П 2 П 3 ; P ( H 4 )=0,9⋅0,7⋅0,5=0,315 ;
• H 5 =П 1 П 2 П 3 ; P ( H 5 )=0,9⋅0,3⋅0,5=0,135 ;
• H 6 = П 1 П 2 П 3 ; P ( H 6) =0,1⋅0,7⋅0,5=0,035;
• H 7 = П 1 П 2 П 3 ; P ( H 7) =0,1⋅0,3⋅0,5=0,015;
• H 8 =П 1 П 2 П 3 ; P ( H 8 )=0,1⋅0,3⋅0,5=0,015 .
Вторые множители ФПВ – это условные вероятности события Р2
(ровно 2 попадания) при условии реализации той или иной гипотезы.
Очевидно, что, если будут реализованы гипотезы H2, H3 или H4, то Р2
точно произойдёт, поэтому P(Р2/H2) = P(Р2/H3) = P(Р2/H4) = 1. Для осталь-
ных гипотез P(Р2/Hi) = 0. В выражении для ФПВ из 8 слагаемых останет-
ся только 3: P(Р2) = 0,035 ⋅ 1 + 0,135 ⋅ 1 + 0,315 ⋅ 1 = 0,485 (сравните с приме-
рами 2.4 и 2.18). Теперь понятно, как применить формулу Байеса для вы-
числения P(H2/Р2): берём первое слагаемое ФПВ и делим на сумму. Ре-
зультат: P(H2/Р2) = 0,035 / 0,485 ≈ 0,072165. 
Пример 2.26. Три стрелка стреляют по мишени независимо друг от
друга. Вероятности попаданий: P(П1) = 0,9; P(П2) = 0,7 и P(П3) = 0,5. По-
сле стрельбы в мишени оказались 2 пробоины. Какова вероятность, что
2-й стрелок попал?
Решение. В этой задаче выбор гипотез более очевиден: либо 2-й
стрелок попал, либо нет: H1 = П2; H 2 = П 2 . Их вероятности: P(H1) = 0,7;
P(H2) = 0,3. Рассмотрим теперь вторые множители ФПВ: условные веро-
ятности Р2/H1 и Р2/H2. Если 2-й стрелок попал, то 2 попадания будут в
том случае, если 1-й попал и 3-й не попал, или 1-й не попал и 3-й попал.
Формула для этого события: Р 2 / H 1= П 1 П 3+ П 1 П 3 . Считаем вероят-

105
ность: P(Р2/H1) = 0,9 ⋅ 0,5 + 0,1 ⋅ 0,5 = 0,5. Если же 2-й стрелок не попал, то
2 попадания могут быть только тогда, когда и 1-й, и 3-й стрелки попали:
Р2/H2 = П1П3. Вероятность этого события: P(Р2/H2) = 0,9 ⋅ 0,5 = 0,45. Счита-
ем по ФПВ: P(Р2) = 0,7 ⋅ 0,5 + 0,3 ⋅ 0,45 = 0,485 (сравните с примерами 2.4,
2.18 и 2.25). Апостериорная вероятность 1-й гипотезы – это отношение
1-го слагаемого ФПВ к сумме: P(H1/Р2) = 0,35 / 0,485 ≈ 0,72165. 

2.5. Контрольные вопросы к главе 2


1. Что называется событием? Что называется опытом? Какая связь
между ними?
2. Какие бывают события?
3. Что такое диаграмма Венна?
4. Будет ли событие, противоположное противоположному, совпадать с
исходным? Как связаны вероятности противоположных событий?
5. Какие события называются совместными? несовместными? взаимно
несовместными? Как они изображаются на диаграммах Венна?
6. Что такое полная группа событий? Обязательно ли события полной
группы взаимно несовместны?
7. Является ли система гипотез частным случаем полной группы собы-
тий?
8. Является ли схема случаев частным случаем системы гипотез?
9. Какие действия над событиями существуют? Что при этом происхо-
дит с вероятностями?
10. Какие вы знаете определения вероятностей?
11. Чем отличается определение предела обычной числовой последова-
тельности от предела последовательности случайных величин?
12. Как вычислить вероятность разности событий?
13. Выведите ФПВ.
14. Выведите формулы Байеса.

106
Глава 3. Случайные величины
На практике исследователь чаще всего сталкивается с результатом
эксперимента в виде случайной величины. Поэтому переходим к их изу-
чению.

3.1. Виды случайных величин


Определение 3.1. Случайной величиной называется величина, кото-
рая в результате опыта принимает то или иное случайное значение. 
Обычно случайная величина обозначается большой буквой, а её воз-
можные значения – такой же маленькой (может быть, с индексом) или
числами. Вот некоторые примеры.
• Число на верхней грани кости при её бросании X. Возможные значе-
ния X: 1, 2, …, 6. Эти числа можно обозначить x1, x2, …, x6. Всего у
данной величины 6 возможных значений.
• Число покупателей в магазине в течение дня X. Возможные значения
этой величины: 0, 1, 2, …. Здесь верхний предел неизвестен. В тео-
ретических исследованиях удобно считать, что возможные значения
X – все целые неотрицательные числа (бесконечное множество зна-
чений x0, x1, x2, …, xn, …).
• Время работы изделия до отказа T. Здесь возможные значения – не-
отрицательные действительные числа. Мы не знаем максимального
значения, поэтому также считаем, что t ∈ [0; ∞).
Связь между случайной величиной и случайным событием: приня-
тие случайной величиной X конкретного значения xi или попадание X в
заданный промежуток являются случайными событиями. Поэтому при
описании случайных величин мы будем задавать вероятности этих собы-
тий.
Посмотрите на различия в трёх вышеприведенных примерах. В пер-
вом множество возможных значений является конечным (6 значений). Во
втором мы имеем бесконечное, но счётное множество значений (все зна-
чения можно перенумеровать). И, наконец, в третьем примере возмож-

107
ные значения целиком заполняют некоторый конечный или бесконечный
промежуток. Если вы изучали теорию множеств, то знаете, что множе-
ство действительных чисел в любом промежутке является несчётным.
Вот по этому критерию (структура области возможных значений) и клас-
сифицируют случайные величины. Их делят на дискретные и непрерыв-
ные, а дискретные, в свою очередь, на конечнозначные и бесконечноз-
начные (рис. 3.1).
Определение 3.2. Случайная величина называется дискретной, если
множество её возможных значений конечно или является бесконечным
счётным множеством. 

Случайные величины

Дискретные Непрерывные

Конечнозначные Бесконечнозначные

Рисунок 3.1 – Классификация случайных величин

Определение 3.3. Случайная величина называется непрерывной,


если множество её возможных значений целиком заполняет некоторый
промежуток или систему промежутков. 
Определение 3.4. Дискретная случайная величина называется ко-
нечнозначной, если множество её возможных значений конечно. 
Определение 3.5. Дискретная случайная величина называется бес-
конечнозначной, если множество её возможных значений является беско-
нечным счётным множеством. 
В соответствии с этими определениями сумма чисел на верхних гра-

108
нях двух бросаемых костей является дискретной конечнозначной величи-
ной, количество бросаний монеты до появления первого герба –
дискретной бесконечнозначной, а диаметр обрабатываемой детали – не-
прерывной.
Могут быть и смешанные, дискретно-непрерывные величины.
Например, множеством возможных значений может быть отрезок [0; 1] и
все целые положительные числа от двух: 2, 3, ….
Другая классификация, независимая от приведенной на рис. 3.1 – это
разделение случайных величин на одномерные (скалярные) и многомер-
ные (векторные). Все те величины, которые мы выше рассматривали –
это одномерные, или скалярные случайные величины.
Определение 3.6. Многомерной случайной величиной, или системой
случайных величин, или случайным вектором называется совокупность
нескольких рассматриваемых совместно случайных величин. 
Мы рассмотрим многомерные случайные величины в главе 5.

3.2. Дискретные случайные величины


Пусть X – дискретная случайная величина. Обозначим её возможные
значения x1, x2, …, xn (и, может быть, … до бесконечности, если X – бес-
конечнозначная). В результате опыта X принимает (и принимает наверня-
ка) одно из своих возможных значений. Поэтому события (X = xk) –
несовместные и образуют полную группу (конечную или бесконечную),
а сумма их вероятностей равна 1. Обозначив pk = P(X = xk), получим
основное правило, которому подчиняются вероятности принятия дис-
кретной случайной величиной её возможных значений:
n

∑ pk =1 (3.1)
k =1

для конечнозначной величины и



∑ pk =1 (3.2)
k =1

109
для бесконечнозначной. Часто его называют условием нормировки. Ве-
роятности являются безразмерными величинами.
Эта суммарная единичная вероятность каким-то образом распреде-
лена между pk, и величина X с вероятностной точки зрения будет полно-
стью описана, если будет задано это распределение. Оно так и называет-
ся: распределение, или закон распределения. Физическая аналогия – рас-
пределение суммарной единичной массы между отдельными материаль-
ными точками.
Определение 3.7. Законом распределения дискретной случайной ве-
личины называется любое правило, по которому всем возможным значе-
ниям xk случайной величины X ставятся в соответствие вероятности их
появления pk. 
Фактически закон распределения – это функциональная зависимость
pk от xk. Её можно задавать разными способами. Во-первых, это может
быть таблица. Она называется рядом распределения.
Пример 3.1. В таблице 3.1 показан ряд распределения случайной ве-
личины X – суммы чисел на верхних гранях двух костей при их броса-
нии. Возможные значения этой величины – целые числа от 2 до 12. Веро-
ятности таких событий мы научились находить в главе 2. 

Таблица 3.1. Пример ряда распределения


дискретной случайной величины

xk 2 3 4 5 6 7 8 9 10 11 12
1 2 3 4 5 6 5 4 3 2 1
pk
36 36 36 36 36 36 36 36 36 36 36

Другой вариант – график, который называется многоугольником рас-


пределения.
Пример 3.2. Построим с помощью MATLAB многоугольник распре-
деления. Предполагаем, что ряд распределения (таблица вида 3.1) задан.
Результат – на рис. 3.2.

110
x=[0.2 1 2.1 3 3.7 4]; % задали x(i)
p=[0.08 0.15 0.3 0.2 0.15 0.12]; % задали p(i)
p=p/sum(p); % нормировали до единичной суммы
plot(x,p,'k-',x,p,'k.') % многоугольник распределения
ylim([0 0.4])
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10) % шрифт
title('\bfМногоугольник распределения') % заголовок
xlabel('\itx_k') % метка оси OX
ylabel('\itp_k') % метка оси OY

Многоугольник распределения
0.4

0.35

0.3

0.25

0.2
pk

0.15

0.1

0.05

0
0 0.5 1 1.5 2 2.5 3 3.5 4
xk

Рисунок 3.2 – Многоугольник распределения 

Если исследуемая величина бесконечнозначная, то ряд или много-


угольник распределения использовать не удаётся: мы ведь не можем про-
тянуть таблицу или график в бесконечность! В этом случае закон распре-
деления нужно задавать в аналитическом виде: pk = f(xk). Конечно же, этот
вид может использоваться и для конечнозначных величин.

111
Пример 3.3 аналитического закона распределения для конечнознач-
ной величины: вероятность появления различного количества гербов при
3 бросаниях монеты:

{
k
C3
; k ∈ { 0, 1, 2, 3} ;
pk = 8 (3.3)
0 ; k ∉ { 0, 1, 2, 3 } .

В этом распределении участвуют биномиальные коэффициенты, и


оно называется биномиальным, см. раздел 4.1. 
Пример 3.4. А вот аналитический закон распределения для дискрет-
ной бесконечнозначной величины: количества бросаний той же монеты
до первого появления герба:
1
pk = k ; k∈ℕ . (3.4)
2
В этом случае условие нормировки (3.2) – это сумма бесконечно
убывающей геометрической прогрессии, поэтому само распределение
называется геометрическим, см. раздел 4.3. 
Следующая характеристика случайной величины – это функция рас-
пределения. Её другие названия: интегральная функция распределения,
интегральный закон распределения. В англоязычной литературе приме-
няется термин the cumulative distribution function. Эта характеристика го-
дится и для дискретных, и для непрерывных величин.
Определение 3.8. Функцией распределения случайной величины X
называется вероятность принятия ею значений, меньших конкретного
числа x, рассматриваемая как функция x:

F ( x)= P ( X < x) .  (3.5)


Функция распределения является вероятностью, поэтому она без-
размерная. Обычно она обозначается большой буквой, чаще всего F(⋅).
Если возможны неоднозначные толкования, используются несколько
букв, например: F(x), G(y). Когда аргумент не совпадает с обозначением
переменной, внизу ставят индекс. Так, Fx(t) – функция распределения

112
случайной величины X, аргумент которой обозначен буквой t. Рас-
смотрим свойства функции распределения.
Свойство 3.1. Функция распределения – это вероятность некоторого
события, поэтому 0 ≤ F(x) ≤ 1. 
Свойство 3.2. F(–∞) = P(X < –∞) = 0. 
Свойство 3.3. F(∞) = P(X < ∞) = 1. 

Рисунок 3.3 – К доказательству неубывания


функции распределения

Свойство 3.4. Функция распределения неубывающая: ∀ x2 > x1:


F(x2) ≥ F(x1). Для доказательства этого свойства рассмотрим события A, B
и C, показанные на рис. 3.3: A = (X < x1); B = (x1 ≤ X < x2); и С = (X < x2). Вид-
но, что A и B – несовместные, а C = A + B. Поэтому P(C) = P(A) + P(B). Но
P(A) = F(x1), P(C) = F(x2), а P(B) ≥ 0, значит, F(x2) ≥ F(x1). 
Свойство 3.5. Вероятность попадания величины в полуинтервал
равна разности значений функции распределения на его концах:
P(x1 ≤ X < x2) = F(x2) – F(x1). Справедливость этого свойства следует из пре-
дыдущего, т. к. P(B) = P(C) – P(A). 
Для дискретной величины значение функции распределения в лю-
бой точке x – это сумма вероятностей во всех точках, меньших x:

F ( x)= ∑ pk . (3.6)
∀ x k <x

Пример 3.2 (продолжение). Найти функцию распределения случай-


ной величины, многоугольник распределения которой мы построили.
Решение. Для вычисления функции распределения применяем
определение (3.5) и правило (3.6). Возможные значения X – это 0,2; 1;

113
2,1; 3; 3,7 и 4. Если аргумент x ≤ 0,2, то у X нет ни одного возможного
значения, меньшего, чем это x. Поэтому ∀ x ≤ 0,2: F(x) = 0. Следующий
участок: 0,2 < x ≤ 1. Если аргумент x принимает любое значение из этого
полуинтервала, то левее его есть только одно возможное значение X: 0,2,
и вероятность его принятия равна 0,08. Поэтому ∀ x ∈ (0,2; 1]: F(x) = 0,08.
Следующий полуинтервал – это (1; 2,1]. Если взять любое число x из это-
го полуинтервала, то левее его есть 2 возможных значения: 0,2 и 1 с
вероятностями их принятия соответственно 0,08 и 0,15. Суммируем их
по формуле (3.6), и имеем: ∀ x ∈ (1; 2,1]: F(x) = 0,08 + 0,15 = 0,23. Далее
рассматриваем любую точку из (2,1; 3]. Слева от неё – 3 возможных зна-
чения с вероятностями 0,08, 0,15 и 0,3. Поэтому ∀ x ∈ (2,1; 3]:
F(x) = 0,23 + 0,3 = 0,53. Повторяя это процесс для всех участков, получа-
ем:

{
0; x∈( −∞ ; 0,2 ] ;
0,08; x∈ ( 0,2; 1 ] ;
0,23; x∈ ( 1; 2,1 ] ;
F ( x ) = 0,53; x ∈( 2,1; 3 ] ; (3.7)
0,73; x∈ ( 3 ; 3,7 ] ;
0,88; x∈ ( 3,7; 4 ] ;
1; x∈ ( 4; +∞ ) .

График функции распределения дискретной величины представляет


ступенчатую ломаную. Нарисуем её средствами MATLAB (рис. 3.4).

F=cumsum(p); % значения функции распределения


x1=[x(1)-0.5 x x(end)+0.5]; % добавки слева и справа
F1=[0 F 1];
figure; % новая фигура
stairs(x1,F1,'k-'); % ломаная
xl=xlim; % границы рисунка
yl=ylim;
hold on

114
plot(x,F1(1:end-2),'k.') % добавили точки
hh=get(gca);
hp=hh.Position; % положение осей на фигуре
for i=1:length(F),
xi=x1(2+i:-1:1+i); % координаты стрелок
Fi=[F(i) F(i)];
xi=(xi-xl(1))/(xl(2)-xl(1))*hp(3)+hp(1); % нормализуем
Fi=(Fi-yl(1))/(yl(2)-yl(1))*hp(4)+hp(2); % стрелки
annotation('arrow',xi,Fi); % добавляем стрелки
end
hold off
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10) % шрифт
title('\bfФункция распределения') % заголовок
xlabel('\itx') % метка оси OX
ylabel('\itF\rm(\itx\rm)') % метка оси OY

Функция распределения
1

0.8

0.6
F (x)

0.4

0.2

0
-1 0 1 2 3 4 5
x

Рисунок 3.4 – Функция распределения 

115
В стандартном MATLAB и его расширениях нет простых средств
для рисования стрелок. Их можно добавить на рисунок как аннотации, а
для этого нужно пересчитать абсолютные координаты в относительные
(нормализованные). Именно так нарисованы полуинтервалы на рис. 3.4.
В электронной версии приведены многочисленные примеры графиков
функций различных распределений. В случае дискретных величин для
упрощения они нарисованы без стрелок и точек, показаны только сами
ступенчатые ломаные.

3.3. Непрерывные случайные величины


Если случайная величина X – непрерывная, то её возможные значе-
ния целиком заполняют всю числовую ось или некоторые её участки. Та-
кое множество точек является несчётным, и мы уже не можем задать ве-
роятность принятия каждого конкретного значения. Не вдаваясь в по-
дробное изучение теории множеств, отметим следующий факт. Если
множество возможных значений счётно, то для каждого k-го значения
можно задать pk, при котором условие нормировки (3.2) выполняется
(ведь числовые ряды бывают сходящимися!). Именно так мы задавали
закон распределения бесконечнозначной дискретной величины в приме-
ре 3.4. Если же множество возможных значений несчётно (например,
точки отрезка), то ряд (3.2) просто не удаётся построить, т. к. точки от-
резка нельзя перенумеровать. Поэтому закон распределения непрерыв-
ной случайной величины построить нельзя. А вот функцию распределе-
ния – можно. Более того, можно утверждать, что для непрерывной слу-
чайной величины её функция распределения F(x) непрерывна. Действи-
тельно, любой скачёк соответствует конечной вероятности принятия дан-
ного значения, а это для непрерывных величин невозможно (это уже дис-
кретная или, по крайней мере, дискретно-непрерывная величина). Поэто-
му в некоторых учебниках по теории вероятностей условие непрерывно-
сти F(x) задают как определение непрерывной случайной величины.
Определение 3.9. Случайная величина X называется непрерывной,
если её функция распределения F(x) непрерывна. 

116
Все остальные свойства F(x) остаются в силе: это функция
неубывающая, меняется от 0 при x → –∞ до 1 при x → +∞. Но при вы-
числении вероятности попадания в промежуток мы можем свободно до-
бавлять или отбрасывать концы промежутка, т. к. в непрерывной величи-
не учёт или неучёт конечного (или даже счётного) числа точек не влияет
на вероятность:
P ( x1⩽ X ⩽ x2 ) = P ( x1 < X ⩽ x 2) = P ( x1 ⩽X < x 2 )=
= P ( x1 < X <x 2) =F ( x2 ) −F ( x 1 ) . (3.8)

Графики F(x) для различных видов распределений есть в электрон-


ной версии. Если заменить вероятности массами, то можно провести та-
кую аналогию. Дискретную величину можно сравнить с системой мате-
риальных точек, имеющих какие-то массы. Тогда непрерывная величи-
на – это тело с распределённой в нём массой. Для системы материальных
точек можно вычислить (или задать) массы отдельных точек, а для тела с
распределённой массой нужно задавать плотность. Массу тела тогда
можно посчитать с помощью интеграла, тогда как для системы точек мы
просто складывали массы.
В этой аналогии ключевым является слово "плотность". В непре-
рывной величине мы не можем задать вероятность принятия ею конкрет-
ного значения, так же как в теле с распределённой массой мы не можем
посчитать массу одной точки. Но для тела мы задаём плотность распре-
деления массы, а для непрерывной случайной величины – плотность рас-
пределения вероятностей по всем её значениям.
Определение 3.10. Плотностью распределения непрерывной слу-
чайной величины X называется предел отношения вероятности её попа-
дания в малый интервал шириной ∆x вблизи точки x к ширине интервала
∆x при ∆x → 0:
P ( x⩽X < x+Δ x )
f ( x )= lim .  (3.9)
Δ x →0 Δx
Другие названия: плотность вероятностей, дифференциальная функ-
ция распределения, дифференциальный закон распределения. Англий-

117
ское название: the partial distribution function. Из формулы (3.9) видно,
что размерность f(x) будет обратной к размерности X. Например, если X –
размер детали (м), то размерность f(x) для неё будет м–1. Вот некоторые
свойства плотности распределения.
Свойство 3.6. Плотность распределения есть производная от функ-
ции распределения:
dF ( x )
f ( x )= . (3.10)
dx

Действительно, по свойству функции распределения


P(x ≤ X < x + ∆x) = F(x + ∆x) – F(x), откуда по определению производной
следует, что f(x) = F' (x). 
Свойство 3.7. Так как F(x) неубывающая, то f(x) ≥ 0. 
Свойство 3.8 – обратное к свойству 3.6:
x

F x ( x ) =∫ f x ( t ) dt . (3.11)
−∞

Здесь аргумент плотности распределения обозначен через t, т. к. x –


верхний предел интегрирования. Для доказательства используем тот
факт, что Fx(x) является одной из первообразных для fx(x). Все первооб-
разные отличаются друг от друга только на константу, поэтому всегда
x

можно записать, что F x ( x ) =∫ f x ( t ) dt+C , где нижний предел a выбран


a

произвольно, а значение константы C определяется этим выбором. Опре-


−∞ a

делим C из условия, что Fx(–∞) = 0: ∫ f x ( t ) dt+C=C −−∞


∫ f x ( t ) dt=0 ;
a
a
откуда значение константы C=∫ f x ( t ) dt . Тогда
−∞
a x x

F x ( x ) = ∫ f x ( t ) dt+∫ f x ( t ) dt=∫ f x ( t ) dt . 
−∞ a −∞

Свойство 3.9. Учитывая, что F(+∞) = 1, из предыдущего свойства


имеем:

118
+∞


−∞
f ( x ) dx=1.  (3.12)

Это условие называется условием нормировки плотности распреде-


ления. Оно используется вместо (3.1) и (3.2). Смысл его показан на
рис. 3.5: площадь под кривой графика f(x) равна 1.

Рисунок 3.5 – График плотности распределения

Свойство 3.10. Вероятность попадания непрерывной величины в


интервал (или отрезок, или полуинтервал) равна интегралу от плотности
распределения по этому интервалу:
x2

P  x1 X  x2  =∫ f  x  dx . (3.13)
x1

Доказательство следует из определения 3.8 функции распределения


и свойства 3.2:
x2 x1 x2

P ( x1< X < x2 )= F ( x 2 )− F ( x 1 )= ∫ f ( x ) dx−∫ f ( x ) dx=∫ f ( x ) dx . 


−∞ −∞ x1

119
Это свойство проиллюстрировано на рис. 3.5: площадь криволиней-
ной трапеции, ограниченной снизу осью Ox, сверху графиком функции
y = f(x), а с боков – вертикальными прямыми x = x1 и x = x2, равна выраже-
нию (3.13).
На рис. 3.5 показана также полоска бесконечно малой ширины dx,
площадь которой представляет собой элементарную вероятность
dp = f(x)dx. С этим обозначением условие нормировки (3.12) становится
ещё больше похожим на (3.1)-(3.2).
Пример 3.5. Плотность распределения случайной величины задана
с точностью до неизвестного множителя k:

{
f ( x )=
k ( x−1 ) ;
0;
x∈ [ 1; 3 ] ;
x∉ [ 1; 3 ] .
(3.14)

Требуется вычислить этот множитель k, найти функцию распределе-


ния и построить графики f(x) и F(x).
Решение выполняем с помощью MATLAB. Множитель k находим
из условия нормировки (3.12). Вычисляем интеграл от f(x) в заданных
пределах, приравниваем его 1, и из этого уравнения находим k:

syms x k % описали символические переменные


x1=1; % границы интервала
x2=3;
f=k*(x-1); % плотность распределения
fprintf('f(x)=%s\n',char(f))
I1=int(f,x,x1,x2); % считаем интеграл
ks=solve(I1-1,k); % решаем уравнение I1=1
fprintf('Множитель k=%s\n',char(ks))
f(x)=k*(x-1)
Множитель k=1/2

Подставляем полученное значение k в выражение для f(x) и строим


её график. Он показан на рис. 3.6.

fs=subs(f,k,ks); % подставили решение


disp('Плотность распределения:')

120
fprintf(['f(x)=%s; %d<=x<=%d;\nf(x)=0 '...
'вне этого отрезка.\n'],char(fs),x1,x2)
xp1=x1-0.25*(x2-x1); % границы рисунка
xp2=x2+0.25*(x2-x1);
xp=linspace(xp1,xp2,1000); % абсциссы для графика
fp=subs(fs,x,xp).*(xp>=x1).*(xp<=x2); % ординаты
plot(xp,fp) % рисуем график
ylim([0 1.2*max(fp)]); % границы по вертикали
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10) % шрифт
title('\bfПлотность распределения') % заголовок
xlabel('\itx') % метка оси OX
ylabel('\itf\rm(\itx\rm)') % метка оси OY
Плотность распределения:
f(x)=1/2*x-1/2; 1<=x<=3;
f(x)=0 вне этого отрезка.

Плотность распределения

0.8
f(x)

0.6

0.4

0.2

0
0.5 1 1.5 2 2.5 3 3.5
x

Рисунок 3.6 – График плотности распределения в примере 3.6

121
Для вычисления функции распределения используем свойство 3.8.
Подынтегральная функция (3.14) имеет различные аналитические выра-
жения в различных интервалах, поэтому в зависимости от верхнего пре-
дела в формуле (3.11) интеграл придётся разбивать на несколько слагае-
x
мых. При x < x1: f(x) = 0, и здесь F ( x ) =∫ 0dt =0 . Если верхний предел
−∞
x1 x

x ∈ [x1; x2], то разбиваем интеграл на два: F ( x ) = ∫ 0dt +∫ k ( t−1 ) dt . И,


−∞ x1

наконец, при x > x2 на интервале интегрирования (–∞; x] есть 2 точки


переключения аналитических выражений для f(x), поэтому интеграл
x1 x2 x

(3.11) разбивается на 3 слагаемых: F ( x ) = ∫ 0dt +∫ k ( t−1 ) dt +∫ 0 dt =1 .


−∞ x1 x2

Как видим, на 1-м и 3-м участках функция распределения равна соответ-


ственно 0 и 1, и требуется вычислить её лишь на 2-м. Вычисляем и
строим график (рис. 3.7).

F=int(fs,x,x1,x); % ф-ция распределения на среднем участке


disp('Функция распределения:')
fprintf(['F(x)=0; x<%d;\nF(x)=%s; %d<=x<=%d;\n'...
'F(x)=1; x>%d.\n'],x1,char(F),x1,x2,x2)
Fp=subs(F,x,xp).*(xp>=x1).*(xp<=x2)+...
ones(size(xp)).*(xp>x2); % ординаты
figure; % новая фигура
plot(xp,Fp) % рисуем график
ylim([0 1.2]); % границы по вертикали
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10) % шрифт
title('\bfФункция распределения') % заголовок
xlabel('\itx') % метка оси OX
ylabel('\itF\rm(\itx\rm)') % метка оси OY
ylabel('\itf\rm(\itx\rm)') % метка оси OY
Функция распределения:
F(x)=0; x<1;

122
F(x)=1/4*x^2+1/4-1/2*x; 1<=x<=3;
F(x)=1; x>3.

Функция распределения

0.8
f(x)

0.6

0.4

0.2

0
0.5 1 1.5 2 2.5 3 3.5
x

Рисунок 3.7 – График функции распределения в примере 3.6 

3.4. Числовые характеристики случайных величин


Рассмотренные выше закон, функция и плотность распределения яв-
ляются функциональными характеристиками случайных величин: они
задаются в виде некоторых функций возможных значений X. Помимо
этого, для описания случайных величин применяются и различные чи-
словые характеристики. Каждая из них, будучи одним числом, описывает
какую-то одну особенность случайной величины. Но все они в целом
дают какое-то (а иногда и полное) описание случайной величины.
Прежде всего исследователя обычно интересует некоторое среднее
значение, вокруг которого группируются все возможные значения слу-
чайной величины. В каждом опыте мы ожидаем, что проявится это или
близкое значение. Мы будем записывать математическую формулу для

123
вычисления этой величины, поэтому она так и называется: среднее, или
математическое ожидание (сокращенно МО). В англоязычной литературе
применяется термин the mean. Обозначается оно M(X), или mx, или Mx.
Определение 3.11. Математическим ожиданием или средним слу-
чайной величины X называется сумма произведений всех возможных
значений величины X на вероятности их появления. При этом слово
"сумма" должно пониматься обобщённо: для дискретной конечнозначной
величины – это обычная сумма:
n
m x = ∑ xk pk ; (3.15)
k=1

для дискретной бесконечнозначной – сумма ряда:



m x = ∑ xk pk ; (3.16)
k=1

а для непрерывной – интеграл:


+∞
m x =∫ x f ( x ) dx .  (3.17)
−∞

По сути дела математическое ожидание случайной величины – это


некоторое средневзвешенное её значение, где в качестве весов выступа-
ют вероятности появления тех или иных значений. Для непрерывной ве-
личины таким весовым коэффициентом является элементарная вероят-
ность dp = f(x)dx. Размерность mx совпадает с размерностью X.
Свойство 3.11. МО детерминированной величины C (константы)
равно ей самой. Доказательство. Действительно, такая величина прини-
мает единственное значение C с вероятностью 1, и по (3.15): M(C) = C. 
Для дискретной конечнозначной величины МО существует всегда. А
для дискретной бесконечнозначной или непрерывной величины МО мо-
жет и не существовать, если ряд (3.16) или несобственный интеграл
(3.17) расходятся.
Для многих конкретных видов распределения в MATLAB есть гото-
вые функции для вычисления МО и другой числовой характеристики –

124
дисперсии (см. дальше этот раздел). Они приведены в электронной вер-
сии.
Пример 3.6. Рассмотрим непрерывную величину с плотностью рас-
пределения

1
f ( x )= . (3.18)
π ( x 2+1 )

Функция распределения вычисляется по формуле (3.11):


x
1 dt 1
F ( x ) = π ∫ 2 = π arctg x+ π .
−∞ t +1 ( 2 ) (3.19)

Но попытка вычислить МО по формуле (3.17) приводит к интегралу:


+∞
1 t dt
m x= π ∫ 2 , (3.20)
−∞ t +1

который расходится. Поэтому у этой величины математического ожида-


ния нет. 
Пример 3.2 (продолжение). Найти МО дискретной конечнозначной
величины, для которой мы уже построили многоугольник и функцию
распределения.
Решение. Вычисляем по формуле (3.15).

mx=sum(x.*p); % считаем МО
fprintf('Математическое ожидание Mx=%8.5f.\n',mx);
Математическое ожидание Mx= 2.43100. 

Пример 3.5 (продолжение). Найти МО непрерывной величины, для


которой мы построили ранее плотность и функцию распределения.
Решение. Вычисляем по формуле (3.17).

mx=int(x*fs,x,x1,x2); % вычисляем МО
fprintf('Математическое ожидание Mx=%s=%8.5f.\n',...
char(mx),eval(mx))

125
Математическое ожидание Mx=7/3= 2.33333. 

Как видим, и для дискретных, и для непрерывных величин вычисле-


ние МО с помощью MATLAB сводится к одной команде.
Что же делать, если, как в примере 3.6, МО не существует? В этом
случае в качестве "средних" значений используются другие числовые ха-
рактеристики, не связанные с вычислением ряда или интеграла. Это мода
и медиана. Как и у МО, их размерности совпадают с размерностью
самой величины X.
Определение 3.12. Мода случайной величины – это наиболее веро-
ятное её значение (т. е. которое чаще всего встречается). 
Для дискретной величины мода – это такое xk, для которого макси-
мальна pk, а для непрерывной – такое x, при котором максимальна f(x). В
общем случае они не совпадают с математическими ожиданиями. В зави-
симости от вида многоугольника распределения или графика f(x) распре-
деления бывают унимодальными (один максимум – одна мода) и полимо-
дальными (несколько мод). Бывают также распределения, у которых все
возможные значения являются модами. Они называются равномерными.
Например, случайная величина X – число на верхней грани игральной
кости при её бросании имеет 6 возможных значений (1, 2, 3, 4, 5 и 6) с
одинаковыми вероятностями 1/6. Все они являются модами.
Пример 3.2 (продолжение). Найти моду дискретной конечнознач-
ной величины.
Решение. Определяем то значение xk, для которого pk максимальна.

[pmax,ipmax]=max(p); % pmax и номер точки


modx=x(ipmax); % мода распределения
fprintf('Мода =%5.2f.\n',modx);
Мода = 2.10. 

Пример 3.5 (продолжение). Найти моду непрерывной величины.


Решение. Определяем то значение x, для которого f(x) максимальна.

126
[fmax,ifmax]=max(fp); % максимальная f(x)
modx=xp(ifmax); % мода распределения
fprintf('Мода =%5.2f.\n',modx);
Мода = 3.00. 

Определение 3.13. Медиана случайной величины – это такое значе-


ние xm, при котором функция распределения F(xm) = 0,5. 
Для непрерывной величины, все значения которой сосредоточены в
одном промежутке, можно сказать и так: медиана – это такое значение xm,
что вероятность принятия меньших значений такая же, как и вероятность
принятия бóльших. Медиана делит площадь под кривой плотности рас-
пределения пополам (рис. 3.8, а). Если на значение 0,5 приходится точка
разрыва F(x) (такое возможно в дискретных величинах), то она считается
медианой, как показано на рис. 3.8, б. И, наконец, если на значение 0,5
приходится горизонтальный участок графика функции распределения,
берётся его середина. Этот случай показан на рис. 3.8, в.
Пример 3.2 (продолжение). Найти медиану дискретной конечно-
значной величины.
Решение. Для дискретной величины медиана может приходиться на
горизонтальный участок графика F(x) или на точку разрыва. Проверяем:
если F(x) = 0,5 приходится на точку разрыва, то это и есть медиана. Если
же F(x) = 0,5 достигается в двух точках, берём середину соединяющего
их отрезка.

imed=find(F==0.5); % есть ли точки, где F(x)=0.5


if isempty(imed), % нет таких точек
imed=min(find(F>0.5)); % номер точки разрыва через 0.5
medx=x(imed); % медиана
else % есть такие точки
medx=mean(x(imed:imed+1)); % середина отрезка с F(x)=0.5
end
fprintf('Медиана =%5.2f.\n',medx);
Медиана = 2.10. 

127
Рисунок 3.8 – Медиана распределения

128
Пример 3.5 (продолжение). Найти медиану непрерывной величи-
ны.
Решение. У нас есть аналитическое выражение для F(x). Приравни-
ваем его 0,5 и решаем полученное уравнение.

medx=eval(solve(F-0.5)); % ищем медиану


medx=medx(find((medx>=x1)&(medx<=x2))); % нужное решение
fprintf('Медиана =%8.5f.\n',medx);
Медиана = 2.41421. 

Но всё-таки мода и медиана применяются в исследованиях реже,


чем МО. Обобщением математического ожидания является момент m-го
порядка.
Определение 3.14. Моментом (начальным моментом) m-го порядка
случайной величины называется сумма произведений всех возможных
значений величины X в m-й степени на вероятности их появления. 
Момент величины X обозначается M(Xm) или αm. Как и в математи-
ческом ожидании (3.15)-(3.17), сумма понимается в обобщённом смысле.
Это обычная сумма для дискретной конечнозначной величины:
n
α m=∑ x mk pk ; (3.21)
k =1

сумма ряда для дискретной бесконечнозначной величины:



α m= ∑ x k pk ;
m
(3.22)
k =1

и интеграл для непрерывной:



α m=∫ x f ( x ) dx .
m
(3.23)
−∞

Из определения видно, что МО – это начальный момент 1-го поряд-


ка: mx = α1.
Иногда говорят, что момент m-го порядка – это математическое ожи-

129
дание от m-й степени X, как и записано в обозначении M(Xm). Пока что
мы не вводили в рассмотрение функцию случайной величины (в данном
случае степень). Мы будем их изучать дальше, в главе 6. А здесь заме-
тим, что под словами "m-я степень X" подразумевается, что все возмож-
ные значения случайной величины X возводятся в m-ю степень. Первая
часть фразы "математическое ожидание от …" означает взвешенную сум-
му с вероятностями в качестве весов. Здесь мы опять немного забегаем
вперёд и используем тот факт, что если, например, у случайной величи-
ны X значение xk проявляется с вероятностью pk, то с той же самой веро-
m
ятностью pk у величины Xm будет проявляться значение x k . Размерность
m-го момента равна m-й степени размерности X.
Если в дискретной конечнозначной величине известны только её
возможные значения x1, x2, …, xn, а вероятности pk неизвестны, для их на-
хождения достаточно знать все моменты до (n–1)-го порядка включи-
тельно. Вместе с условием нормировки (3.1) они дают систему линейных
алгебраических уравнений для нахождения pk:

{
p1+ p2+…+ p n =1;
x1 p1+ x 2 p 2 +…+ x n pn=α 1= mx ;
2 2 2
x1 p1+ x 2 p 2+…+ xn pn =α 2 ; (3.24)

xn1 −1 p 1+ x n−1
2 p 2+…+ x n−1
n pn =α n−1 .

Эта система имеет единственное решение, т. к. её главный определи-


тель является определителем Вандермонда (Alexandre-Théophile
Vandermonde, 1735-1796), который отличен от нуля. Но не все решения
этой системы годятся. У нас ещё есть условия неотрицательности веро-
ятностей: pk ≥ 0, поэтому в системе (3.24) нельзя задавать произвольные
моменты αk, иначе можем получить нереализуемые на практике законы
распределения. Система (3.24) лишь показывает, что, если у нас есть ре-
альные моменты до (n–1)-го порядка включительно, то мы можем по ним
однозначно восстановить закон распределения дискретной n-значной
величины.

130
Но для дискретной бесконечнозначной и непрерывной величин пол-
ностью задать закон (функцию, плотность) распределения можно только
по бесконечной совокупности моментов.
Вычислим несколько первых начальных моментов для примеров 3.2
и 3.5 (продолжение).

disp('Начальные моменты:');
for i=1:5,
alpha=sum(x.^i.*p); % момент i-го порядка
fprintf('Alpha(%d)=%12.5f\n',i,alpha);
end
Начальные моменты:
Alpha(1)= 2.43100
Alpha(2)= 7.24970
Alpha(3)= 23.60689
Alpha(4)= 81.01697
Alpha(5)= 287.89826

disp('Начальные моменты:');
for i=1:5,
alpha=int(x^i*fs,x,x1,x2); % момент i-го порядка
fprintf('Alpha(%d)=%s=%12.5f\n',i,...
char(alpha),eval(alpha));
end
Начальные моменты:
Alpha(1)=7/3= 2.33333
Alpha(2)=17/3= 5.66667
Alpha(3)=71/5= 14.20000
Alpha(4)=547/15= 36.46667
Alpha(5)=2005/21= 95.47619 

Кроме начальных, в приложениях часто используются центральные


моменты.
Определение 3.15. Центральным моментом m-го порядка случай-
ной величины называется сумма произведений всех возможных значений

131
величины X, из которых вычтено её МО, в m-й степени на вероятности
их появления. 
m
Обозначаются центральные моменты M((X – mx)m), или M ( X̊ ) , или
µm. Символ X̊ означает центрированную величину, т. е. такую, из всех
значений которой вычтено МО. Формулы для вычисления центральных
моментов отличаются от формул (3.21)-(3.23) для начальных моментов
только тем, что из значений X вычитается МО:
n
m
μm=∑ ( xk −m x ) p k ; (3.25)
k =1


μm=∑ ( xk −m x ) p k ;
m
(3.26)
k =1

+∞
m
μm=∫ ( x−m x ) f ( x ) dx . (3.27)
−∞

Размерность центрального момента m-го порядка, как и начального,


равна m-й степени размерности X. Иногда говорят, что центральный мо-
мент m-го порядка – это математическое ожидание m-й степени центри-
рованной случайной величины, как записано в обозначении M((X–mx)m).
Здесь справедливы те же замечания по поводу функции случайной ве-
личины, которые были высказаны выше для начальных моментов.
Свойство 3.12. Первый центральный момент всегда равен 0.
Доказательство. Мы ограничимся доказательством этого факта
только для непрерывной величины:
+∞ +∞ +∞
μ1=∫ ( x−m x ) f ( x ) dx = ∫ xf ( x ) dx −mx ∫ f ( x ) dx =mx −mx =0 .  (3.28)
−∞ −∞ −∞

Для дискретных величин доказательство такое же, проведите его


самостоятельно.
Центральные моменты выражаются через начальные. Вот выраже-
ния для нескольких первых центральных моментов. Здесь они выведены
для непрерывной величины, но, заменив интегралы суммами, получим
такие же выражения и для дискретных величин. Проделайте это сами:

132
+∞
μ2= ∫ ( x − 2 xmx + mx ) f ( x ) dx =α 2−2 mx α 1+ mx =α 2 −α1 ; (3.29)
2 2 2 2

−∞

+∞
μ3= ∫ ( x −3 x m x +3 xmx − mx ) f ( x ) dx=
2 2 2 3

−∞ (3.30)
2 3 3
=α 3−3 mx α 2 +3m x α 1−m x =α 3−3α 2 α1 +2α 1 ;
+∞
μ4 =∫ ( x −4 x mx +6 x mx −4 xm x +mx ) f ( x ) dx =
4 3 2 2 3 4
−∞
2 3 4 2 4
(3.31)
=α 4 −4 m x α3 +6m x α 2− 4m x α 1+m x =α 4− 4α 3 α 1+6 α1 α 2−3α 1 .

Формулы вида (3.24) имеют место и здесь. Вот несколько первых


центральных моментов для примеров 3.2 и 3.5 (продолжения).

disp('Центральные моменты:');
for i=1:5,
mu=sum((x-mx).^i.*p); % момент i-го порядка
fprintf('Mu(%d)=%12.5f\n',i,mu);
end
Центральные моменты:
Mu(1)= 0.00000
Mu(2)= 1.33994
Mu(3)= -0.53191
Mu(4)= 3.75172
Mu(5)= -3.67639

disp('Центральные моменты:');
for i=1:5,
mu=int((x-mx)^i*fs,x,x1,x2); % момент i-го порядка
fprintf('Mu(%d)=%s=%12.5f\n',i,char(mu),eval(mu));
end
Центральные моменты:
Mu(1)=0= 0.00000
Mu(2)=2/9= 0.22222
Mu(3)=-8/135= -0.05926
Mu(4)=16/135= 0.11852

133
Mu(5)=-128/1701= -0.07525 

Обычно в приложениях используются центральный момент 2-го по-


рядка, а также безразмерные величины, связанные с центральными мо-
ментами 3-го и 4-го порядка.
Определение 3.16. Дисперсией случайной величины называется её
2-й центральный момент. 
2
Обозначения дисперсии: D(X), Dx, σ x . Английский термин – the
variance. Размерность дисперсии равна квадрату размерности X. Форму-
лы для её вычисления следуют из (3.25)-(3.27) при m = 2. Для дискретной
конечнозначной величины:
n
2
D x =∑ ( x k − mx ) pk ; (3.32)
k=1

для дискретной бесконечнозначной:



D x =∑ ( x k − mx ) pk ;
2
(3.33)
k=1

и для непрерывной:
+∞
2
D x =∫ ( x− mx ) f ( x ) dx . (3.34)
−∞

Свойство 3.13. Для детерминированной величины C (константы)


дисперсия равна 0.
Доказательство. Действительно, детерминированная величина C
принимает единственное значение C с вероятностью 1, её МО равно C, и
в (3.32) остаётся одно слагаемое, в котором 1-й сомножитель (C –
− C) = 0. 
Свойство 3.14. Дисперсия случайной величины положительна.
Доказательство (для непрерывной величины). Интеграл (3.34)
берётся в положительном направлении, и каждый из сомножителей не-
отрицателен. Поэтому Dx ≥ 0. Осталось исключить случай Dx = 0. Плот-

134
ность распределения f(x) ≥ 0, причем f(x) ≠ const, иначе не будет выпол-
няться условие нормировки (3.12). Значит, есть какой-то малый, но ко-
нечный отрезок, на котором f(x) > 0.
Из этого отрезка наверняка можно выбрать такой вложенный в него
отрезок, все точки которого лежат по одну сторону от mx, т. е. во всех
точках которого (x – mx)2 > 0. Но тогда интеграл по этому отрезку от
(x – mx)2f(x) будет строго положительным, а, значит, Dx > 0. 
Для дискретной величины проведите доказательство самостоятель-
но.
Свойство 3.15. Дисперсия равна второму начальному моменту ми-
нус квадрат первого начального момента. Или: дисперсия равна МО
квадрата случайной величины минус квадрат её МО.
Доказательство уже проведено – это формула (3.29). 
Дисперсия характеризует меру разброса значений x вокруг МО. На
рис. 3.9 показаны графики плотностей распределения трёх случайных ве-
личин: X, Y и Z. Площадь под каждой кривой равна 1, МО также взяты
одинаковыми. А дисперсии различны: чем более полого проходит график
плотности распределения, тем больший разброс у значений X вокруг
МО, а, значит, и больше дисперсия. На рисунке показан случай, когда
Dx < Dy < Dz.
Наряду с математическим ожиданием дисперсия – одна из основных
числовых характеристик случайной величины. Для вычисления МО и
дисперсии различных распределений в MATLAB есть готовые функции.
Они описаны в электронном варианте книги.
Определение 3.17. Среднеквадратичным отклонением (СКО) слу-
чайной величины называется квадратный корень из её дисперсии. 

135
Рисунок 3.9 – Дисперсия – мера разброса возможных значений
вокруг МО

136
Другие названия: стандартное отклонение, стандарт. Англоязычные
термины: standard deviation, standard. Обозначение: σx. Вычисление:

σ x= √ Dx . (3.35)

Из свойств 3.13 и 3.14 видно, что для детерминированной величины


σx = 0, а для случайной σx > 0. Как и дисперсия, СКО характеризует раз-
брос значений случайной величины вокруг её МО, но преимущество
СКО в том, что оно имеет такую же размерность, как и X, в то время как
размерность дисперсии равна квадрату размерности X.
Определение 3.18. Асимметрией случайной величины называется
отношение 3-го центрального момента к кубу СКО. 
Английский термин: the skewness. Обозначения: A(X) или ax. Асим-
метрия является безразмерной величиной (она специально так введена).
Формула для её вычисления:
μ3
a x= . (3.36)
σ3x

Как следует из его названия, этот параметр характеризует несиммет-


ричность (скошенность) многоугольника или графика плотности распре-
деления. Для того, чтобы 3-й центральный момент (а, значит, и асиммет-
рия) были отрицательными, нужно, чтобы среди отрицательных отклоне-
ний значений величины от mx преобладали большие, а среди положитель-
ных – маленькие. Тогда многоугольник или график плотности распреде-
ления будут скошены вправо, как показано на рис. 3.10, а. Наоборот, по-
ложительными µ3 и ax будут тогда, когда среди отрицательных отклоне-
ний значений величины от mx будут преобладать маленькие, а среди по-
ложительных – большие. График f(x) (или многоугольник распределения)
при этом будет скошен влево (рис. 3.10, б).
И еще одна числовая характеристика – эксцесс.
Определение 3.19. Эксцессом случайной величины называется от-
ношение 4-го центрального момента к 4-й степени СКО (квадрату дис-
персии), из которого вычтено число 3. 

137
Рисунок 3.10 – Асимметрия – характеристика несиммет-
ричности графика f(x)

В англоязычной литературе используется термин the kurtosis.


Обозначается эксцесс: E(X) или ex. Он является безразмерной величиной
и вычисляется по формуле:
μ4
e x= −3 . (3.37)
σ 4x

Центральный момент 4-го порядка положительный, и его отношение


к квадрату дисперсии тоже больше нуля. А тройка отнимается для того,

138
чтобы полученная величина могла быть и положительной, и отрицатель-
ной для различных распределений. В частности, для широко распро-
странённого нормального распределения (см. раздел 4.8.), как будет
показано, эксцесс, вычисленный по формуле (3.37), равен нулю. Именно
для этого и отнимается тройка, а другие распределения сравниваются с
нормальным.

Рисунок 3.11 – Эксцесс – характеристика формы вершины


графика f(x)

Что же характеризует эксцесс? Посмотрите на рис. 3.11. Здесь пока-


заны кривые плотности распределения с одинаковыми МО и СКО. Что-

139
бы уменьшить µ4, нужно, чтобы малых отклонений от mx было побольше,
а больших – поменьше. Тогда эксцесс будет отрицательным. Этот вари-
ант показан на рис. 3.11, а. Он характеризуется "плосковершинностью"
графика f(x). Наоборот, если больших отклонений от mx будет больше, а
малых – меньше, то µ4 увеличится, и ex станет положительным. Такой
"островершинный" график f(x) показан на рис. 3.11, б.
Закончим примеры 3.2 и 3.5: посчитаем дисперсию, СКО, асиммет-
рию и эксцесс.

Dx=sum((x-mx).^2.*p); % дисперсия
Sx=Dx^0.5; % СКО
Ax=sum((x-mx).^3.*p)/Sx^3; % асимметрия
Ex=sum((x-mx).^4.*p)/Dx^2-3; % эксцесс
fprintf('Дисперсия Dx=%8.5f;\n',Dx);
fprintf('Среднеквадратичное отклонение Sx=%8.5f;\n',Sx);
fprintf('Асимметрия Ax=%8.5f;\n',Ax);
fprintf('Эксцесс Ex=%8.5f.\n',Ex);
Дисперсия Dx= 1.33994;
Среднеквадратичное отклонение Sx= 1.15756;
Асимметрия Ax=-0.34294;
Эксцесс Ex=-0.91042.

Dx=simple(int((x-mx)^2*fs,x,x1,x2)); % дисперсия
Sx=simple(Dx^0.5); % СКО
Ax=simple(int((x-mx)^3*fs,x,x1,x2)/Sx^3); % асимметрия
Ex=simple(int((x-mx)^4*fs,x,x1,x2)/Dx^2-3); % эксцесс
fprintf('Дисперсия Dx=%s=%8.5f;\n',char(Dx),eval(Dx));
fprintf('Среднеквадратичное отклонение Sx=%s=%8.5f;\n',...
char(Sx),eval(Sx));
fprintf('Асимметрия Ax=%s=%8.5f;\n',char(Ax),eval(Ax));
fprintf('Эксцесс Ex=%s=%8.5f.\n',char(Ex),eval(Ex));
Дисперсия Dx=2/9= 0.22222;
Среднеквадратичное отклонение Sx=1/3*2^(1/2)= 0.47140;
Асимметрия Ax=-2/5*2^(1/2)=-0.56569;
Эксцесс Ex=-3/5=-0.60000. 

140
3.5. Контрольные вопросы к главе 3
1. Что называется случайной величиной? Какие они бывают?
2. Что такое условие нормировки? Как оно записывается для различ-
ных видов случайных величин?
3. Можно ли для непрерывных величин задать закон распределения?
Почему?
4. Можно ли для дискретных величин задать плотность распределения?
Почему?
5. Для каких величин можно задать функцию распределения?
6. Для каких величин МО совпадает с медианой, а для каких нет?
7. Что характеризуют МО, медиана и мода?
8. Что характеризуют дисперсия, асимметрия, эксцесс?
9. Какую еще числовую характеристику, кроме дисперсии и СКО, мож-
но использовать для оценки разброса?

141
Глава 4. Некоторые виды распределений
В предыдущей главе были рассмотрены общие понятия о случай-
ных величинах и их распределениях. В этой главе мы продолжим изуче-
ние случайных величин, но уже на конкретных примерах. Мы рассмот-
рим некоторые распределения, которые часто встречающиеся на практи-
ке. Графики функций, плотностей и законов распределения для них при-
ведены в электронной версии книги, поэтому здесь они не повторяются.
В каждом разделе этой главы есть названия соответствующих функций
MATLAB для работы с данным распределением, описанные в электрон-
ной версии.

4.1. Биномиальное
Определение 4.1. Рассмотрим
следующую схему испытаний. Пусть
проводится n одинаковых независи-
мых опытов, в каждом из которых
возможен один из двух взаимоис-
ключающих исходов, которые мы
условно назовём успех (событие У)
и неуспех (событие Н). Обозначим
P(У) = p; P(Н) = 1 – p = q. Такая схема
испытаний называется схемой с не-
зависимой повторной выборкой или
схемой Бернулли (Jacob Bernoulli,
1654-1705, рис. 4.1). 
Примеры испытаний по схеме
Бернулли: Рисунок 4.1 – Джейкоб Бернулли
• бросание монеты (например, У – это появление герба; p = 1 / 2);
• бросание игральной кости (например, У – это появление на верхней
грани одного из чисел 5 или 6; p = 1 / 3);
• в урне 4 чёрных шара и 6 белых, и после каждого вытягивания шар

142
возвращается в урну (можно, например, считать событием У появле-
ние чёрного шара; в этом случае p = 0,4).
В испытаниях по схеме Бернулли все опыты проходят в одинаковых
условиях, и результат каждого следующего не зависит от предыдущих. В
последнем примере после каждого вытягивания шар возвращается в
урну, поэтому иногда схему Бернулли называют схемой с повторной
восстанавливаемой независимой выборкой. Именно с этой схемой связа-
на случайная величина, распределение которой называется биномиаль-
ным.
Определение 4.2. Рассмотрим случайную величину X – количество
успехов в n испытаниях по схеме Бернулли. Её распределение называет-
ся биномиальным. 
Какие же возможные значения есть у величины X? Если мы прово-
дим n испытаний, то событие У может и не разу не проявиться, и 1 раз, и
2, и т. д. до n включительно. Поэтому величина X, имеющая биномиаль-
ное распределение, является дискретной и конечнозначной. Всего у нее
n + 1 значений: 0, 1, 2, …, n.
Выведем закон биномиального распределения, т. е. найдем P(X = k)
для всех возможных значений k. Опыты независимые, значит, вероятно-
сти событий перемножаются. Поэтому вероятность каждой серии из n
испытаний, в которой проявилось k успехов, равна pkqn–k. Осталось выяс-
нить, сколько всего таких серий может быть. Каждую серию можно
представить в виде последовательности n букв, среди которых k букв У и
n – k букв Н. Посмотрите главу 1: количество таких последовательностей
k
равно числу сочетаний из n по k: C n . Каждая из этих серий будет несов-
местна с остальными (они отличаются результатом хотя бы одного опы-
k
та), поэтому одинаковые вероятности pkqn–k нужно сложить C n раз. Име-
ем закон биномиального распределения:
k k n −k
pk =C n p q . (4.1)

Выражение для pk зависит от двух параметров: общего числа испы-


таний n и вероятности успеха в каждом испытании p. Поэтому говорят,

143
что биномиальное распределение двухпараметрическое. Третий пара-
метр q не является независимым: q = 1 – p.
Проверим условие нормировки (3.1):
n

∑ C kn pk qn −k=( q+ p )n =1. (4.2)


k =0

Здесь сумма вероятностей p0 + p1 + … + pn – это разложение выраже-


ния (q + p)n = 1 по биному Ньютона, поэтому данное распределение и на-
зывается биномиальным.
В MATLAB вычисление закона биномиального распределения реа-
лизовано с помощью функции binopdf, а функции распределения –
binocdf. Они описаны в электронной версии книги, там же приведены
графики многоугольников и функций биномиального распределения.
Пример 4.1. Монета бросается 40 раз. Какова вероятность того, что
герб выпадет ровно 18 раз?
Решение. Имеем схему Бернулли из n = 40 опытов с вероятностью
успеха p = 0,5. Считаем с помощью MATLAB.

n=40; % количество опытов


p=0.5; % вероятность успеха
k=18; % количество успехов
P=binopdf(k,n,p) % считаем вероятность
P =
0.10311874739273 

Пример 4.2. Проводится 100 опытов по схеме Бернулли с вероятно-


стью успеха 0,4. Найти вероятность того, что количество успехов будет в
пределах от 35 до 50.
Решение этого примера от предыдущего отличается только тем, что
нужно найти несколько вероятностей и просуммировать их.

n=100; % количество опытов


p=0.4; % вероятность успеха

144
k=35:50; % количество успехов
P=sum(binopdf(k,n,p)) % считаем вероятность
P =
0.85290178458582 

Выведем МО биномиального распределения, используя формулу


(3.15):
n n n
n! n!
m x =∑ k C kn pk q n −k =∑ k p k qn −k = ∑ p k q n−k =
k=0 k =1 k ! ( n −k ) ! k =1 ( k−1 ) ! ( n− k ) !

n
( n−1 ) !
= pn ∑ p k−1 q( n −1 )− ( k−1 )=
k =1 ( k−1 ) ! ( ( n−1 ) − ( k −1 ) ) !

n−1


= k−1=m;
k=m+1;
k=1⇒ m=0 ;
k=n⇒ m=n−1;
= pn ∑ ∥ ( n−1) !
m=0 m ! ( ( n−1 ) −m ) !
pm q ( n−1) −m =

n−1
n−1
= pn ∑ C mn−1 pm q( n−1) −m =np ( q+ p ) =np .
m=0

Окончательно имеем:

m x =np . (4.3)

Получили правдоподобный результат: если проводится n независи-


мых опытов, а вероятность успеха в каждом из них равна p, то "в сред-
нем" ожидается np успехов.
Для вычисления дисперсии используем свойство 3.15 и формулу
(3.32):
n n
n!
D x = ∑ k 2 C kn pk q n−k −m2x = ∑ k 2 p k qn−k − n2 p 2=
k=0 k =1 k ! ( n−k ) !
n
n!
=∑ k p k qn−k −n2 p 2=
k =1 ( k−1 ) ! ( n−k ) !
n
( n−1) !
=np ∑ k pk−1 q( n−1) −( k −1 ) −n2 p 2=
k=1 ( k −1) ! ( ( n−1) −( k−1) ) !

145
n−1


= k−1=m ; k=1 ⇒m=0 ;
k=m+1; k=n ⇒ m=n−1;
=np ∑ ∥
( m+1 )( n−1 ) ! m ( n −1 )−m 2 2
m=0 m ! ( ( n−1 )− m ) !
p q −n p =

n −1 n−1
=np ∑ mC mn−1 pm q( n−1) −m+np ∑ C mn−1 pm q( n−1 ) −m− n2 p 2 .
m=0 m=0

Первая сумма – это математическое ожидание биномиального рас-


пределения с n – 1 опытами, вероятностью успеха p и вероятностью
неуспеха q. По формуле (4.3) она равна (n – 1) p. А вторая сумма – это
условие нормировки (3.2), но тоже для n – 1 опытов, она равна 1. Поэто-
му:
2 2 2 2 2 2 2 2
D x =np ( n−1) +np− n p =n p −np +np−n p = np ( 1− p )=npq .
Дисперсия биномиального распределения:

D x =npq . (4.4)

Аналогично выводятся другие характеристики биномиального рас-


пределения (асимметрия, эксцесс). Проделайте это самостоятельно.
Вычисление МО и дисперсии биномиального распределения реали-
зовано в MATLAB в виде функции binostat, описанной в электронной
версии. Другие функции MATLAB для работы с биномиальным распре-
делением используются в статистике:
• binoinv – квантили биномиального распределения;

• binornd – генератор случайных чисел с биномиальным распределе-


нием;
• binofit – оценка параметра p биномиального распределения по
данным наблюдений.
Их описания также есть в электронной версии книги.
Обобщением схемы Бернулли является схема, в которой проводятся
n независимых опытов, но вероятности успеха в каждом опыте разные:
p1, p2, …, pn. В этом случае, чтобы найти P(X = k), нужно раскрывать не
n-ю степень суммы (q + p), как в формуле (4.2), а произведение сомножи-
телей вида (qi + pi), которое тоже равно 1:

146
n

∏ ( qi + pi )=1. (4.5)
i=1

Сгруппировав затем слагаемые с k сомножителями p и n – k сомно-


жителями q, мы получим P(X = k). Удобнее всего это сделать, введя в
рассмотрение функцию:
n

f ( z ) = ∏ ( qi + p i z ) . (4.6)
i=1

Определение 4.3. Функция (4.6) называется производящей. 


Она является многочленом n-й степени. После раскрытия скобок ко-
эффициенты при zk и будут искомыми вероятностями P(X = k).
Пример 4.3. Проводится 10 независимых опытов, в которых вероят-
ность успеха pi постепенно уменьшается от 0,9 с шагом 0,05 до 0,45.
Найти вероятности любого количества успехов.
Решение. Строим производящую функцию (4.6) и раскрываем скоб-
ки. Коэффициенты при различных степенях и будут искомыми вероятно-
стями.

p=[0.9:-0.05:0.45]; % вероятности успехов


q=1-p; % вероятности неуспехов
n=length(p); % количество опытов
syms z % символическая переменная
f=prod(p*z+q); % производящая функция
P=sym2poly(f); % коэффициенты полинома
fprintf('P(X=%2.0f)=%14.12f\n',[n:-1:0;P]);
P(X=10)=0.015506741250
P(X= 9)=0.085985170312
P(X= 8)=0.205067553750
P(X= 7)=0.276325160625
P(X= 6)=0.232351308125
P(X= 5)=0.127017701250
P(X= 4)=0.045566615625
P(X= 3)=0.010553474375
P(X= 2)=0.001503883125

147
P(X= 1)=0.000118493438
P(X= 0)=0.000003898125 

4.2. Гипергеометрическое
Определение 4.3. Пусть имеется M предметов, среди которых K от-
меченных. Наугад выбираются N предметов. Гипергеометрическим назы-
вается распределение случайной величины X – количества отмеченных
предметов среди выбранных. 
Примеры таких задач:
• в урне есть заданное количество шаров двух цветов; из неё наугад
вытягивается какое-то количество шаров, и требуется найти вероят-
ность того, что среди вытянутых будет заданное количество шаров
каждого цвета;
• среди M деталей есть K бракованных, а контролёр выбирает наугад
N деталей, и требуется найти вероятность того, что среди них k бра-
кованных.
В этих примерах предметы можно вытягивать как одновременно,
так и последовательно. Результат от этого не меняется, т. к. порядок вы-
борки предметов нам не важен. В отличие от схемы Бернулли, предметы
после вытягивания не возвращаются обратно, поэтому такую схему опы-
тов часто называют схемой с повторной невосстанавливаемой независи-
мой выборкой.
Возможные значения X (обозначим их k) – это целые неотрицатель-
ные числа (количество предметов), причём их число конечно, поэтому X
является дискретной конечнозначной величиной. Сверху возможные зна-
чения ограничены как числом вытягиваемых предметов N, так и числом
отмеченных предметов K: количество отмеченных предметов среди вы-
тянутых k не может превысить любое из этих чисел: k ≤ min(N, K). Теперь
рассмотрим ограничение на k снизу. Это число должно быть неотрица-
тельным: k ≥ 0. Но не всегда возможно k = 0. Например, если среди M = 6
предметов есть K = 4 отмеченных (и только M − K = 2 неотмеченных), а
вытягивается N = 3 предмета, то, очевидно, что хотя бы 1 отмеченный

148
предмет будет вытащен, т. к. количество вытягиваемых предметов N
больше, чем количество неотмеченных M – K. Поэтому k не может быть
меньше, чем количество вытягиваемых предметов N минус количество
неотмеченных M – K: k ≥ max(0, N – M + K).
Выведем закон гипергеометрического распределения – найдем
P(X = k). Т. к. предметы отбираются наугад, у нас нет оснований считать,
что один вариант отбора чем-то предпочтительнее другого. Поэтому счи-
таем все варианты отбора равновозможными. Имеем схему случаев и,
следовательно, можем применить классическое определение вероятности
(2.5). Подсчитаем общее количество вариантов выбора N предметов из M
имеющихся. Порядок выбора нам не важен, поэтому общее число случа-
N
ев схемы равно числу сочетаний из M по N: C M . Теперь найдём количе-
ство благоприятствующих событию (X = k) случаев. Чтобы (X = k) насту-
пило, нужно, чтобы среди N выбранных предметов было ровно k отме-
ченных, а остальные N – k были неотмеченные. Отмеченные предметы
мы выбираем из K имеющихся, и порядок неважен, поэтому количество
k
вариантов такого выбора равно числу сочетаний из K по k: C K . Но у нас
есть ещё и неотмеченные предметы (всего их M – K), и из них можно вы-
бирать N – k предметов различными способами. Количество этих спосо-
N −k
бов равно C M − K . Каждый вариант выбора отмеченных предметов мож-
но сочетать с каждым вариантом выбора неотмеченных, поэтому общее
количество благоприятствующих случаев схемы подсчитывается по пра-
k N−k
вилу умножения вариантов. Оно равно C K C M −K , а искомая вероятность
(закон гипергеометрического распределения) равна:
k N−k
C K C M −K
pk = . (4.7)
C MN

Данное распределение является трёхпараметрическим, т. к. оно за-


висит от трёх параметров: M, K и N. Условие нормировки (3.1) имеет
здесь вид:

149
min ( N , K ) k N −k
C K C M −K
∑ C MN
=1 . (4.8)
k =max ( 0, N −M +K )

Мы не сможем его проверить "вручную", т. к. для этого нужно знать


некоторые свойства биномиальных коэффициентов, которые мы не изу-
чали. Поэтому используем для проверки MATLAB. Опишем символиче-
ские формулы для вычисления факториала, биномиального коэффициен-
та и вероятности (4.7), а затем просуммируем. При этом необязательно
задавать индексы суммирования в таком сложном виде, как в формуле
(4.8), т. к. в системе MATLAB биномиальный коэффициент вычисляется
корректно: если верхний индекс больше нижнего или отрицательный, он
равен нулю. Поэтому зададим суммирование по k от 0 до N.

syms M K N k m
mf=sym('m!'); % функция факториал
CKk=subs(mf,m,K)/subs(mf,m,k)/subs(mf,m,K-k);
CMKNk=subs(mf,m,M-K)/subs(mf,m,N-k)/subs(mf,m,M-K-(N-k));
CMN=subs(mf,m,M)/subs(mf,m,N)/subs(mf,m,M-N);
pk=CKk*CMKNk/CMN;
norm=simple(symsum(pk,k,0,N))
norm =
1

Точно так же при помощи MATLAB вычислим МО и дисперсию ги-


пергеометрического распределения. Математическое ожидание вычисля-
ем по формуле (3.15), а для нахождения дисперсии используем свойство
(3.29). Нижеприведенный фрагмент кода является продолжением преды-
дущего:

mx=simple(symsum(k*pk,k,0,N))
Dx=simple(simple(symsum(k^2*pk,k,0,N)-mx^2))
mx =
K/M*N
Dx =

150
-K*N*(M-N)*(-M+K)/(M-1)/M^2

Получили:

NK
m x= ; (4.9)
M

NK ( M − K ) N −1 NK ( M − K ) ( M − N )
D x=
M
2 (1−
M −1
= ) 2
M ( M −1)
. (4.10)

Результат для МО правдоподобный: доля отмеченных предметов в


их общем количестве равна K/M, а выбираются наугад N предметов.
Поэтому "в среднем" будет NK/M отмеченных предметов среди выбран-
ных.
В MATLAB имеются следующие функции для работы с гипергео-
метрическим распределением:
• hygepdf – закон распределения (4.7);

• hygecdf – функция распределения;

• hygeinv – квантили распределения;

• hygernd – генератор случайных чисел, имеющих гипергеометриче-


ское распределение;
• hygestat – МО и дисперсия (4.9)-(4.10).
Пример 4.4. В урне 50 белых шаров и 30 чёрных. Наугад выбирают-
ся 20 шаров. Какова вероятность того, что среди них будет 6 чёрных ша-
ров?
Решение. Имеем гипергеометрическое распределение с параметра-
ми K = 30; M = 50 + 30 = 80; N = 20. Нужно найти P(X = 6). Решаем с помо-
щью MATLAB.

P=hygepdf(6,80,30,20)
P =
0.15751612647040 

151
Пример 4.5. На склад поступила партия из 5000 изделий, среди ко-
торых имеется 200 бракованных. Контролёр наудачу выбирает для про-
верки 100 изделий. Какова вероятность того, среди них будет не более 5
бракованных?
Решение. Данная задача отличается от предыдущей только цифрами
и тем, что нужно найти не одну вероятность, а несколько, и просуммиро-
вать их.

P=sum(hygepdf([0:5],5000,200,100))
P =
0.79004589090097 

Гипергеометрическое распределение обладает интересной особен-


ностью: при большом количестве предметов M → ∞, но постоянной доле
отмеченных предметов K/M = p оно переходит в биномиальное с парамет-
рами N и p. Говорят, что биномиальное распределение является асимпто-
тическим для гипергеометрического при M → ∞ и K/M = p = const. Этот
результат нетрудно объяснить: если количество предметов очень боль-
шое, то невосстанавливаемая выборка мало отличается от
восстанавливаемой.
Теорема 4.1. При M → ∞ и K/M = p = const гипергеометрическое рас-
пределение с параметрами M, K, N переходит в биномиальное с парамет-
рами N, p.
Доказательство. Нам нужно доказать, что при указанных в форму-
лировке теоремы условиях вероятность (4.7) имеет своим пределом (4.1),
где n = N. Вычисляем предел:
k N−k
C C K ! ( M −K ) ! N ! ( M − N ) !
lim K NM −K = lim =
M →∞ CM M →∞ k ! ( K− k ) ! ( N − k ) ! ( M − K − N +k ) ! M !


= C kN =
N!

k ! ( N −k ) !
=C kN lim
K ! ( M − K ) ! (M − N ) !
M →∞ ( K −k ) ! ( M − K −N +k ) ! M !
.

Сокращаем попарно факториалы, оставляя последние сомножители:

152
( K −k +1) …K ( M − K − N +k +1) …( M − K )
pk =C kN lim .
M →∞ ( M − N +1) …M
Первая группа в числителе содержит k сомножителей, вторая – N − k,
а в знаменателе N сомножителей. Первые k сомножителей знаменателя
мы будем сокращать с первой группой сомножителей числителя, а по-
следние N – k – со второй:
( K −k +1) …K ( M − K− N + k+1 ) … ( M − K )
pk =C kN lim lim =
M →∞ ( M − N +1 ) … ( M − N +k ) M →∞ ( M − N +k +1 ) …M

=C kN lim
M →∞ ( MK−− k+1 …
K
N +1 M − N +k )
lim (
M −K − N +k +1 M − K
M − N +k +1
M →∞

M )
.

При M → ∞ также и K → ∞, причем K/M = p = const. Все остальные


числа конечные. Поэтому каждый из сомножителей в 1-м пределе стре-
мится к p, а всего таких сомножителей k. По этой же причине каждый из
N – k сомножителей 2-го предела стремится к 1 – p. Поэтому
N −k
pk =C kN p k ( 1− p ) , и теорема доказана. 
Пример 4.6. Начиная с каких значений параметров, гипергеометри-
ческое распределение будет отличаться от биномиального с n = 50 и
p = 0,4 не более, чем на 1%?
Решение. Для сравнения нужно, чтобы в гипергеометрическом рас-
пределении было N = 50, а возможные значения k были в пределах от 0 до
50. Поэтому количество отмеченных предметов K должно быть не мень-
ше 50. Чтобы обеспечить p = 0,4, надо для K = 50 взять общее количество
предметов M = 125. Данные параметры гипергеометрического распреде-
ления – минимальные, которые позволяют сравнивать его с эталонным
биномиальным. Если расхождения в вероятностях pk будут для них
больше 1%, нужно увеличивать M и K, сохраняя все время соотношение
между ними K/M = p. Удобнее всего увеличивать M с шагом 5, а K – с ша-
гом 2. Так делаем до тех пор, пока не будет достигнута максимальная
разница в pk не более 1%.
Реализуем этот алгоритм и нарисуем на одном графике многоуголь-
ники распределений: сплошной линией – эталонного биномиального и
штриховой – найденного гипергеометрического (рис. 4.2).

153
p=0.4; % параметры эталонного
n=50; % биномиального распределения
k=[0:n]; % интервал аргументов
pbin=binopdf(k,n,p); % вероятности бином. распр.
K=50; % начальное гипергеометрическое
M=125; % распределение
phyge=hygepdf(k,M,K,n); % начальные вероятности
[m,im]=max(abs(phyge-pbin)); % max разность и номер точки
delta=m/pbin(im); % относительная погрешность
while delta>0.01, % пока не будет достигнута точность
M=M+5; % новые значения параметров
K=K+2;
phyge=hygepdf(k,M,K,n); % новые вероятности
[m,im]=max(abs(phyge-pbin));
delta=m/pbin(im); % относительная погрешность
end
fprintf(['При M=%d; K=%d; N=%d достигается '...
'точность %7.5f%%.\n'],M,K,n,100*delta);
plot(k,pbin,'k-',k,pbin,'k.',k,phyge,'k:',k,phyge,'k.')
xlim([5 35]) % границы по оси Ox
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10) % шрифт
title('\bfМногоугольники распределения') % заголовок
xlabel('\itk') % метка оси OX
ylabel('\itp_k') % метка оси OY
При M=2540; K=1016; N=50 достигается точность 0.99882%.

4.3. Геометрическое
Пусть проводятся испытания по схеме Бернулли. Когда следует ожи-
дать первого появления события У? В принципе оно может проявиться
сразу же в первом испытании. Но, может оказаться, что в первом испыта-
нии будет Н, а У проявится только во второй раз. Ещё менее вероятно, но
все же возможно, что первый раз У будет только в 3-м испытании, или в
4-м и т. д. до бесконечности. Вот эта случайная величина – количество
испытаний по схеме Бернулли до появления 1-го успеха и имеет геомет-

154
рическое распределение.

Многоугольники распределения
0.12

0.1

0.08

0.06
pk

0.04

0.02

0
5 10 15 20 25 30 35
k

Рисунок 4.2 – Гипергеометрическое распределение отличается


от биномиального не более чем на 1%

Определение 4.4. Геометрическим называется распределение слу-


чайной величины X – количества испытаний по схеме Бернулли до пер-
вого появления события У. 
Возможные значения X: 1, 2, 3 и т. д. до бесконечности, поэтому
данная величина является дискретной бесконечнозначной. Геометриче-
ское распределение зависит от одного параметра: вероятности p появле-
ния события У в каждом испытании по схеме Бернулли. Второй пара-
метр q = 1 – p, т. е. он не является независимым. Поэтому геометрическое
распределение является однопараметрическим.
Выведем закон геометрического распределения. Если вероятность
события У p = 1, то У проявится в первом же испытании, и в этом случае
p1 = 1, а остальные pk = 0. Это случай является тривиальным, он соответ-

155
ствует достоверному событию У. Другой тривиальный случай – это не-
возможное событие У: p = 0. В этом случае У никогда не проявится, и все
pk = 0. Для этого случая условие формировки не выполняется, т. к. здесь
событие У никогда не произойдёт. Рассмотрим теперь общий, нетри-
виальный случай, когда 0 < p < 1. Для того, чтобы было X = 1, нужно, что-
бы событие У проявилось сразу, в первом же испытании. Вероятность
этого события равна p, поэтому p1 = p. Чтобы было X = 2, нужно, чтобы в
1-м событии было Н, а во 2-м – У. Испытания в схеме Бернулли незави-
симые, поэтому p2 = P(Н) P(У) = qp. Для X = 3 необходимо, чтобы в пер-
вых двух испытаниях было Н, а в третьем – У, и тогда
p3 = P(Н) P(Н) P(У) = q2p. В общем случае, чтобы событие У проявилось
только в n-м испытании, необходимо, чтобы в первых n – 1 испытаниях
были Н, а в n-м – У. Умножая вероятности независимых испытаний, име-
ем закон геометрического распределения:
k−1
pk = p q . (4.11)

Проверим условие нормировки (3.2):



p
p∑ q
k−1
=∥0< q<1∥= =1. (4.12)
k=1 1−q

Ряд в этой формуле является бесконечно убывающей геометриче-


ской прогрессией, отсюда и происходит название распределения: геомет-
рическое.
Математическое ожидание вычисляем по формуле (3.16):

m x= p ∑ k q
k−1
. (4.13)
k =1

Проверяем полученный ряд на сходимость. По признаку Даламбера:


k
( k+1 ) q
lim k −1
=q<1 , (4.14)
k →∞ k q

поэтому ряд сходится, и, следовательно, МО геометрического распреде-

156
ления существует. Для вычисления суммы ряда (4.13) будем рассматрив-
ать её как функцию аргумента q:

S ( q ) =∑ k q
k−1
. (4.15)
k=1

Степенные ряды можно почленно дифференцировать и интегриро-


вать в области их сходимости. Воспользуемся тем, что функция S(q) яв-
ляется производной от другого сходящегося ряда:

q
S 1 ( q ) =∑ q =
k
, (4.16)
k=1 1−q
поэтому находим mx почленным дифференцированием (4.16) с последую-
q ' 1−q+q p
щим умножением на p: m x = p
1−q
=p ( )
( 1− q)
2 =
( 1−q )
2 , или оконча-

тельно:
1
m x= . (4.17)
p
Получили правдоподобный результат: если вероятность успеха рав-
на p, но нужно в среднем провести 1 / p испытаний, чтобы успех проявил-
ся.
Вычисляем дисперсию по свойству (3.29):

1
D x= p ∑ k q
2 k−1
2.
− (4.18)
k =1 p
Ряд в 1-м слагаемом сходится (проверьте это самостоятельно), а его сум-
ма

T ( q ) =∑ k q
2 k −1
(4.19)
k=1

является производной от функции



q
T 1 ( q ) =∑ k q =q S ( q ) =
k
2. (4.20)
k=1 ( 1− q)
Дифференцируем, умножаем на p и вычитаем квадрат МО:

157
2
q ′ 1 ( 1− q) + 2q ( 1−q ) 1
D x= p
(
( 1−q ))2 − 2= p
p ( 1−q)
4 − 2=
p
1+ q 1 1+q 1
=p 3− 2 = 2 − 2;
( 1− q) p p p
или окончательно:
q
D x= 2. (4.21)
p
Для работы с геометрическим распределением в MATLAB есть сле-
дующие функции:
• geopdf – закон распределения (4.11);

• geocdf – функция распределения;

• geoinv – квантили распределения (раздел 9.1.);

• geornd – генератор случайных чисел с геометрическим распре-


делением;
• geostat – МО (4.17), почему-то с лишним множителем q, и дис-
персия (4.21).
Они описаны в электронной версии книги.
Пример 4.7. Проводятся испытания по схеме Бернулли с парамет-
ром p = 0,05 до первого успеха. Какова вероятность того, что понадобится
не более 10 испытаний?
Решение. Вероятность того, что первый успех проявится в k-м ис-
пытании, есть pk для геометрического распределения. Нам нужно про-
суммировать эти вероятности от 1 до 10. Решаем:

P=sum(geopdf([1:10],0.05))
P =
0.38119990772354 

158
4.4. Пуассоновское
Это распределение было введено в
рассмотрение Пуассоном (Simeon-Denis
Poisson, 1781-1840, рис. 4.3). Вначале – не-
которые определения.
Определение 4.5. Поток событий –
это однотипные события, происходящие в
случайные моменты времени. 
Примеры: поступление заказов в фир-
му, поток покупателей в магазин, отказы в
однотипных изделиях (например, поломки
турбин). По сути своей поток событий –
это однотипные события, случайность ко-
Рисунок 4.3 – Симеон-Дени
торых состоит в том, что они происходят в
Пуассон
случайные моменты времени. На рис. 4.4
показана шкала времени и события потока.

События потока

...

0 t

Рисунок 4.4 – Поток событий

Нам нужно будет определять вероятность наступления того или ино-


го количества событий потока на заданном отрезке [t1, t2], поэтому свя-
жем с потоком событий случайную величину X – количество событий на
[t1, t2]. Эта величина является дискретной бесконечнозначной: её возмож-
ные значения – это 0, 1, 2 и т. д. до бесконечности. Вероятность
pk = P(X = k) зависит, как от параметров, от границ отрезка t1 и t2. В прило-
жениях часто встречаются потоки, в которых pk зависит только от длины
отрезка t = t2 – t1, и не зависит от места расположения отрезка [t1, t2] на чи-

159
словой оси. Это означает, что поток обладает примерно постоянными
свойствами на всём интервале его рассмотрения, и количество событий
на [t1, t2] не зависит от того, сколько событий произошло раньше.
Определение 4.6. Поток событий называется потоком без последей-
ствия, если вероятность наступления того или иного количества собы-
тий в [t1, t2] не зависит от того, сколько событий произошло до момента
t1. 
В потоке без последействия мы можем переносить начало оси вре-
мени t = 0 куда угодно, в частности, в точку t1, и тогда pk будет зависеть
только от одного параметра – длины отрезка t = t2 – t1. Будем в дальней-
шем обозначать эту вероятность pk(t) (см. рис. 4.5). Если же поток обла-
дает последействием, то pk будет зависеть от двух параметров – границ
отрезка: pk(t1, t2). Очевидно, для любой длины отрезка (или его границ)
должно выполняться условие нормировки (3.2).

0 0 t

pk( t ) не меняется

Рисунок 4.5 – В потоке без последействия можно переносить


начало оси t в любую точку

Другое важное свойство потока связано с анализом бесконечно ма-


лых величин. Мы привыкли записывать дифференциал функции в виде
произведения производной в данной точке на бесконечно малое прира-
щение (дифференциал) аргумента. В общем случае дифференциал функ-
ции dy и дифференциал аргумента dx являются бесконечно малыми ве-
личинами одного порядка малости. В частности, бесконечно малая веро-
ятность dp = f(x)dx, где f(x) – плотность распределения. В применении к
потоку это означает, что вероятность наступления того или иного количе-
ства событий за бесконечно малое время dt является бесконечно малой
величиной. Если события происходят не очень часто (за одним событием
не может сразу, в тот же момент, наступить другое), то за бесконечно ма-

160
лое время dt может произойти не более одного события. В соответствии с
общими принципами анализа бесконечно малых величин мы должны
считать, что p1(t, t + dt) является бесконечно малой величиной одного по-
рядка малости с dt:

p1 ( t , t +dt ) =λ ( t ) dt . (4.22)

Коэффициент пропорциональности λ(t) естественно назвать плотно-


стью событий. Размерность этой величины [λ(t)] = с–1. А вот большего ко-
личества событий за время dt в таком потоке уже произойти не может. С
точки зрения теории вероятностей это невозможные события, а с точки
зрения анализа бесконечно малых величин pk(t, t + dt) является бесконеч-
но малой величиной высшего порядка малости по сравнению с dt, если
k > 1.
Определение 4.7. Поток событий называется ординарным, если ве-
роятность наступления одного события за бесконечно малое время dt яв-
ляется бесконечно малой величиной одного порядка малости с dt, а веро-
ятность наступления более чем одного события за бесконечно малое вре-
мя dt является бесконечно малой величиной высшего порядка малости
по сравнению с dt. 
В таком потоке за время dt может произойти или 1 событие с вероят-
ностью (4.22), или 0 событий с вероятностью 1 – λ(t)dt (см. рис. 4.6).

dt dt

0 t

за время dt произойдет 0 или 1 событие

Рисунок 4.6 – В ординарном потоке за время dt может


произойти не более 1 события

Определение 4.8. Поток событий называется простейшим или


пуассоновским, если он ординарный и в нём отсутствует последей-

161
ствие. 
Пуассоновский поток ординарный, поэтому для него (4.22) имеет
место. Но из-за отсутствия последействия p1(t, t + dt) на самом деле зави-
сит только от dt, а от t не зависит, поэтому плотность событий λ должна
быть постоянной, и тогда:

{ p0 ( dt ) =1− λ dt ;
p1 ( dt )= λ dt ;
(4.23)

а вероятности другого количества событий за время dt в силу ординарно-


сти равны нулю. Выведем, исходя из этого соотношения и свойств
пуассоновского потока, pk(t) – вероятность наступления k событий на от-
резке длиной t. Начало координат мы можем выбирать где угодно, поэто-
му выберем его сразу после какого-либо события, как показано на
рис. 4.7. Тогда за нулевой отрезок времени, очевидно, не произойдет ни
одного события:

{
p 0 ( 0 ) =1;
p 1 ( 0 ) =0; (4.24)

p k ( 0 )=0 ;

B
A
dt

0 t
t t+dt

Рисунок 4.7 – К выводу pk(t)

Обозначим события:

162
• Ak – наступление k событий на отрезке длиной t;
• Bk – наступление k событий на отрезке длиной dt (в силу ординарно-
сти возможны только B0 и B1 с вероятностями (4.23), а ∀ k ≥ 2:
Bk = ∅);
• Ck – наступление k событий на отрезке длиной t + dt.
Вывод pk(t) начнём с p0(t). Чтобы не произошло ни одного события
на отрезке длиной t + dt, нужно, чтобы не произошло ни одного события
на отрезке длиной t и не произошло ни одного события на следующем за
ним отрезке длиной dt. В наших обозначениях это:
C 0= A 0⋅B 0 . (4.25)
Сомножители независимые (последействие в потоке отсутствует), поэто-
му перемножаем вероятности:
p 0 ( t+dt ) = p0 ( t ) p0 ( dt ) = p0 ( t )( 1− λ dt )= p0 ( t )− λ p0 ( t ) dt . (4.26)
Учитывая, что p0(t + dt) – p0(t) = dp0(t), имеем после деления на dt диффе-
ренциальное уравнение для p0(t):
dp 0
+λ p0=0. (4.27)
dt
Далее выведем уравнение для p1(t). Это единственное событие мо-
жет произойти или на отрезке длиной t, или на следующем за ним отрез-
ке длиной dt:

C 1= A1⋅B0 + A0⋅B 1 . (4.28)

Слагаемые здесь несовместные, а сомножители – независимые, поэтому:

p 1 ( t+dt ) = p1 ( t ) p0 ( dt ) + p0 ( t ) p1 ( dt ) = p1 ( t ) −λ p1 ( t ) dt+ λ p0 ( t ) dt . (4.29)

Здесь опять p1(t + dt) – p1(t) = dp1(t), и после деления на dt получаем диф-
ференциальное уравнение для p1(t):
dp 1
+λ p 1 =λ p 0 . (4.30)
dt
Теперь рассмотрим общий случай: k событий потока на отрезке дли-

163
ной t + dt. Как они распределяются между отрезками длиной t и dt? В
силу ординарности на отрезке длиной dt может быть или 0, или 1 собы-
тие, поэтому на отрезок длиной t приходится соответственно k или k – 1
событий:
C k = Ak⋅B0 + A k−1⋅B1 . (4.31)
Здесь, как и раньше, слагаемые несовместные, а сомножители независи-
мые, поэтому:
pk ( t+dt )= p k ( t ) p0 ( dt ) + pk −1 ( t ) p1 ( dt ) =
= p k ( t ) −λ pk ( t ) dt +λ p k−1 ( t ) dt . (4.32)

Обозначая pk(t + dt) – pk(t) = dpk(t), после деления на dt имеем:


dp k
+ λ p k =λ p k−1 . (4.33)
dt
Уравнения (4.27), (4.30), (4.33) представляют из себя рекуррентную
систему дифференциальных уравнений для вероятностей pk(t):

{
dp 0
+λ p0 =0 ;
dt
(4.34)
dp k
+λ p k = λ pk −1 ; k ⩾1 .
dt
Начальные условия для этих уравнений – (4.24). Решаем уравнение для
k = 0:
dp 0 dp dp
+λ p0 =0 ; 0 =−λ p 0 ; ∫ 0 =−λ ∫ dt ; ln p 0 =−λ t+ln C 0 ; p0 ( t ) =C 0 e−λ t .
dt dt p0
Подставляем начальное условие: p 0  0 =C 0 =1; и окончательно имеем:
−λt
p0 ( t ) =e . (4.35)

Теперь решаем уравнение для k = 1. Общее решение соответствую-


щего однородного уравнения:
dp 1 dp dp
+λ p1 =0; 1 =−λ p1 ; ∫ 1 =−λ∫ dt ; ln p 1=−λ t+ln C 1 ; p1 ( t )=C 1 e−λ t .
dt dt p1
Находим теперь частное решение неоднородного уравнения методом ва-

164
риации произвольной постоянной:
dp 1 −λt * −λt ' −λt −λt
+λ p1 =λ e ; p1 ( t ) =C 1 ( t ) e ; C 1 ( t ) e = λ e ;
dt
' * −λ t
C 1 ( t ) =λ ; C 1 ( t ) =λ t ; p 1 ( t )= λ te ;
Записываем общее решение и находим произвольную постоянную
−λt −λ t
из начального условия (4.24): p1 ( t ) =C 1 e + λ te ; p1 ( 0) =C 1=0 ; и име-
ем:
−λt
p1 ( t ) =λ te . (4.36)
Найдем ещё p2(t), чтобы выявить закономерность. Общее решение
соответствующего однородного уравнения будет таким же, как и для p0(t)
и p1(t):
dp 2 dp dp
+λ p 2 =0 ; 2 =−λ p2 ; ∫ 2 =−λ ∫ dt ; ln p2 =−λ t +ln C 2 ; p2 ( t )=C 2 e −λ t .
dt dt p2
Как видим, оно будет одинаковым для любых k. Теперь находим частное
решение неоднородного уравнения:
dp 2 2 −λ t * −λt ' −λt 2 −λ t
+λ p2=λ te ; p 2 ( t ) =C 2 ( t ) e ; C 2 ( t ) e = λ te ;
dt
2 2
' 2 (λ t ) * ( λ t ) −λ t
C 2 ( t ) =λ t ; C 2 ( t ) = ; p2 ( t ) = e .
2 2
Записываем общее решение и находим произвольную постоянную:
2
−λ t ( λ t ) −λt
p2 ( t ) =C 2 e + e ; p2 ( 0 )=C 2=0. Имеем выражение для p2(t):
2
2
( λ t ) −λt
p2 ( t ) = e . (4.37)
2
Теперь уже нетрудно подметить закономерность. При k = 3 общее ре-
шение соответствующего однородного уравнения будет таким же, а при
нахождении частного решения неоднородного уравнения в правой части
будет не λ2t, а λ3t2/2. После интегрирования это даст (λt)3/6. Затем, при
k = 4, правая часть λ4t3/6 даст после интегрирования (λt)3/24, и т. д. По
сути дела, мы провели доказательство (хотя и не очень строгое) по мето-

165
ду математической индукции следующей формулы:
k
( λ t ) −λ t
pk ( t )= e ; k =0, 1, 2, … . (4.38)
k!

Это – вероятность наступления любого количества событий в пуассо-


новском потоке за заданное время t. "В среднем" за время t наступает λt
событий (λ – это плотность событий в потоке), но точное распределение
вероятностей событий задается формулой (4.38). Нарисуем графики
нескольких функций (рис. 4.8).

lambda=0.5; % параметр
t=linspace(0,20,500); % время
p=exp(-lambda*t); % p0
figure
plot(t,p,'k'); % рисуем p0(t)
h=text(0.3,0.97,'\itp\rm_0(\itt\rm)'); % метка
set(h,'FontName','Times New Roman Cyr','FontSize',10)
hold on
for k=1:6, % другие графики
p=p.*(lambda*t)/k; % pk(t)
plot(t,p,'k'); % рисуем pk(t)
[pm,im]=max(p); % максимум и номер точки
tm=t(im); % аргумент в этой точке
h=text(tm+0.3,pm+0.03,['\itp\rm_' num2str(k)...
'(\itt\rm)']); % метка
set(h,'FontName','Times New Roman Cyr','FontSize',10)
end
hold off
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',14) % шрифт
title('\bfВероятности в пуассоновском потоке') % заголовок
xlabel('\itt') % метка оси OX
ylabel('\itp_k\rm(\itt\rm)') % метка оси OY

166
Вероятности в пуассоновском потоке
1 p (t)
0

0.8

0.6
pk(t)

0.4 p1(t)
p2(t)
p3(t)
p4(t) p (t)
0.2 5 p6(t)

0
0 5 10 15 20
t

Рисунок 4.8 – Вероятности событий в пуассоновском потоке

Зафиксируем в формуле (4.38) время t, и обозначим a = λt. Это без-


размерная величина, её смысл – среднее количество событий в пуассо-
новском потоке за данное фиксированное время. Теперь случайная ве-
личина X – это количество событий в пуассоновском потоке за фиксиро-
ванное время.
Определение 4.9. Пуассоновским называется распределение случай-
ной величины X – количества событий в пуассоновском потоке за задан-
ное фиксированное время. 
Закон пуассоновского распределения получаем из (4.38), обозначая
λt = a = const:
k
a −a
pk = e ; k=0, 1, 2, … . (4.39)
k!
Это однопараметрическое распределение: оно зависит от одного пара-
метра a – среднего количества событий в пуассоновском потоке за
рассматриваемое время. Проверяем условие нормировки (3.2):

167
k 1 2 k

( )

∑ ak ! e−a =e−a 1+
a a a
+ +…+ +… =e−a e a =1.
1! 2! k! (4.40)
k =0

Ряд в скобках сходится к ea, поэтому условие нормировки выполня-


ется. Вычисляем МО пуассоновского распределения по формуле (3.16):

∥ ∥
∞ k ∞ k −1
a −a a k−1=m ; k =1 ⇒ m=0
m x =∑ k e =a e−a ∑ = =
k=0 k! k=1 ( k−1 ) ! k= m+1; k=∞ ⇒ m=∞
m 2 m

( )

a a a a
=a e−a ∑ =a e−a 1+ + +…+ +… =a e−a e a= a .
m=0 m! 1! 2 ! m!
Результат:
m x =a . (4.41)
Этот результат интуитивно очевиден: если средняя плотность событий в
потоке λ, то за время t в среднем произойдет λt = a событий.
Дисперсию вычисляем с использованием свойства (3.29):
∞ k ∞ k−1
a ka
D x =∑ k 2 e−a −a2 =a e−a ∑ − a2 =
k=0 k! k =1 ( k−1 ) !

∥ ∥
( m +1 ) a m 2

k−1=m ; k=1 ⇒ m=0
=a e ∑
−a
= −a =
k= m+1 ; k=∞ ⇒ m=∞ m=0 m!
∞ ∞ m m
a −a a −a
=a ∑ m e +a ∑ e −a 2=a 2+a−a 2=a .
m=0 m! m=0 m !

Дисперсия пуассоновского распределения равна:

D x =a . (4.42)

Ранее мы говорили, что размерность МО совпадает с размерностью X, а


размерность дисперсии равна квадрату размерности X. Полученный ре-
зультат (4.41)-(4.42) не противоречит этому, т. к. наша величина X – без-
размерная (это количество событий).
Функции MATLAB для работы с пуассоновским распределением:
• poisspdf – закон распределения;

• poisscdf – функция распределения;

168
• poissinv – квантили пуассоновского распределения;

• poissrnd – генератор случайных чисел, имеющих пуассоновское


распределение;
• poisstat – МО и дисперсия, вычисляемые по формулам (4.41) и
(4.42);
• poissfit – максимально правдоподобная оценка параметра пуассо-
новского распределения по данным наблюдений.
Они описаны в электронной версии книги.
Пример 4.8. Поток автомобилей на загородной дороге является
пуассоновским со средней плотностью 10 автомобилей в час. Какова ве-
роятность того, что в течение часа проедет ровно 6 автомобилей?
Решение. Имеем: λ = 10 час–1, t = 1 час, поэтому параметр пуассо-
новского распределения a = λt = 10. Нам нужно найти вероятность того,
что X = 6. Решаем:

lambda=10; % плотность
t=1; % время
a=lambda*t; % параметр пуассоновского распределения
p=poisspdf(6,a) % искомая вероятность
p =
0.06305545800345 

Пример 4.9. На более оживлённой трассе поток автомобилей также


является пуассоновским, но уже со средней плотностью 20 автомобилей
в минуту. Какова вероятность того, что в течение 10 минут проедет не
более 180 автомобилей?
Решение. Здесь λ = 20 мин–1, t = 10 мин, и параметр пуассоновского
распределения a = λt = 200. Считаем сумму вероятностей от 0 до 180:

lambda=20; % плотность
t=10; % время
a=lambda*t; % параметр пуассоновского распределения

169
p=sum(poisspdf([0:180],a)) % искомая вероятность
p =
0.08222890483660 

Как гипергеометрическое распределение при увеличении объёма


выборки переходит в биномиальное, так и биномиальное с ростом числа
опытов n переходит в пуассоновское. Нужно только, чтобы при n → ∞ од-
новременно и p → 0 так, чтобы np оставалось постоянным. Именно это
число и будет параметром a предельного пуассоновского распределения.
Теорема 4.2. При n → ∞, p → 0 так, что np = a = const, биномиальное
распределение с параметрами n и p переходит в пуассоновское с пара-
метром a.
Доказательство. Найдем предел выражения (4.1) при указанных
условиях. Должно получиться (4.39):
k n −k
n! a a
lim C kn p k q n−k =lim
n→ ∞ ( )( )
n →∞ k ! ( n−k ) ! n
1−
n
=
k n−k
a ( n−k +1) ( n−k +2 ) …n
= lim
k! n →∞ n k (1− an ) =
n
a
k lim ( 1− )
a n−k+1 n−k+ 2 n n
= lim ( … )
n →∞
= k
k! n n n a
lim ( 1− )
n →∞

n n →∞
k −a
a k −1 k −2 k− k e
= lim ( 1−
n )
lim (1−
n )
…lim ( 1−
n ) 1
.
k! n →∞ n →∞ n →∞
k
Число k – конечное, поэтому lim ( 1−a/ n ) =1, и каждый из преде-
n→ ∞

лов lim 1− k−1 , k−2


n→ ∞ ( n ) lim 1−
n→ ∞ ( n )
, … также равен единице. Поэтому
действительно:
k
a −a
lim C kn pk q n−k = e , (4.43)
n →∞ k!
np=a=const

и теорема доказана. 

170
Пример 4.10. Какими должны быть параметры биномиального рас-
пределения, чтобы оно отличалось от пуассоновского с параметром a = 5
не более чем на 1%?
Решение. Начнем с n = 10 и, соответственно, p = 0,5. Биномиальное
распределение конечнозначное, а пуассоновское – бесконечнозначное.
Поэтому мы можем сравнивать pk только для k от 0 до n. Найдем относи-
тельную разность между вероятностями биномиального и пуассоновско-
го распределений для этих значений k. Если полученная разность больше
1%, увеличиваем n в биномиальном распределении до тех пор, пока раз-
личие между ним и пуассоновским не уменьшится до 1%.
Нарисуем на одном графике многоугольники распределений: сплош-
ной линией – эталонного пуассоновского и штриховой – найденного би-
номиального (рис. 4.9).

a=5; % параметр эталонного пуассоновского распределения


n=10; % начальное биномиальное распределение
p=a/n;
k=[0:n]; % интервал аргументов
pbin=binopdf(k,n,p); % вероятности бином. распределения
ppois=poisspdf(k,a); % вероятности пуасс. распределения
[m,im]=max(abs(ppois-pbin)); % max разность и номер точки
delta=m/ppois(im); % относительная погрешность
while delta>0.01, % пока не будет достигнута точность
n=n+1; % новые значения параметров
p=a/n;
k=[0:n]; % интервал аргументов
pbin=binopdf(k,n,p); % вероятности бином. распределения
ppois=poisspdf(k,a); % вероятности пуасс. распределения
[m,im]=max(abs(ppois-pbin)); % max разность и номер
delta=m/ppois(im); % относительная погрешность
end
fprintf(['При n=%d; p=%12.10f достигается '...
'точность %7.5f%%.\n'],n,p,100*delta);
plot(k,ppois,'k-',k,ppois,'k.',k,pbin,'k:',k,pbin,'k.')
xlim([0 15]) % границы по оси Ox

171
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',14) % шрифт
title('\bfМногоугольники распределения') % заголовок
xlabel('\itk') % метка оси OX
ylabel('\itp_k') % метка оси OY
При n=254; p=0.0196850394 достигается точность 0.99836%. 

Многоугольники распределения
0.2

0.15

0.1
pk

0.05

0
0 5 10 15
k

Рисунок 4.9 – Биномиальное распределение отличается от


пуассоновского не более чем на 1%

Иногда можно применять теоремы 4.1 и 4.2 последовательно.


Пример 4.11. В партии из 10000 изделий имеется 20 бракованных.
Найти вероятность того, что среди выбранных наугад 50 изделий будет
не менее 2 бракованных.
Решение. Формально мы здесь имеем гипергеометрическое распре-
деление с параметрами M = 10000, K = 20 и N = 50. Нужно найти сумму
вероятностей для k от 2 до максимально возможного значения. Из-за
большого M мы можем заменить гипергеометрическое распределение

172
биномиальным с параметрами n = N и p = K/M. В свою очередь, в силу ма-
лого значения p биномиальное распределение можно заменить пуассо-
новским с параметром a = np. В докомпьютерную эру у нас не было воз-
можности считать большие биномиальные коэффициенты вручную,
поэтому мы использовали только пуассоновское распределение. Теперь
же мы можем вычислить вероятности для всех трёх распределений и
оценить погрешность.

M=10000; % параметры гипергеометрического распределения


K=20;
N=50;
k=[0:1]; % значения аргументов
Phyge=1-sum(hygepdf(k,M,K,N));
p=K/M; % параметр биномиального распределения
Pbino=1-sum(binopdf(k,N,p));
a=p*N; % параметр пуассоновского распределения
Ppois=1-sum(poisspdf(k,a));
fprintf('Phyge=%12.10f;\n',Phyge)
fprintf('Pbino=%12.10f; погрешность = %7.4f%%\n',...
Pbino,abs(Pbino-Phyge)/Phyge*100)
fprintf('Ppois=%12.10f; погрешность = %7.4f%%\n',...
Ppois,abs(Ppois-Phyge)/Phyge*100)
Phyge=0.0043951401;
Pbino=0.0045971882; погрешность = 4.5971%
Ppois=0.0046788402; погрешность = 6.4549% 

4.5. Экспоненциальное
Вернёмся к пуассоновскому потоку, но рассмотрим его с несколько
иной точки зрения. В предыдущем разделе мы рассматривали дискрет-
ную случайную величину X – количество событий потока за заданное
фиксированное время. Величина X, как мы выяснили, имеет пуассо-
новское распределение.
А теперь рассмотрим другую величину T – интервал времени между
двумя последовательными событиями пуассоновского потока. Эта ве-

173
личина будет непрерывной, и её возможные значения t ≥ 0.
Определение 4.10. Экспоненциальным или показательным называ-
ется распределение случайной величины T – интервала времени между
двумя последовательными событиями пуассоновского потока. 
Выведем плотность экспоненциального распределения. По опреде-
лению 3.10 плотность распределения – это предел отношения вероятно-
сти попадания T в малый интервал к ширине этого интервала при усло-
вии, что ширина стремится к нулю. А в терминах дифференциального
исчисления f(t) – это отношение P(t ≤ T < t + dt) / dt. Поэтому вычислим ве-
роятность попадания T в бесконечно малый интервал (t, t + dt). Ещё раз
напоминаем, что для непрерывных величин вместо интервала (t, t + dt)
можно брать отрезок [t, t + dt] или любой из полуинтервалов.

A B

dt

0 t
t t+dt

Рисунок 4.10 – Вычисление P(t ≤ T < t + dt)

На рис. 4.10 показано интересующее нас событие C = (T ∈ (t, t + dt)).


Для наступления этого события должны произойти 2 события:
• A – за время t не произойдёт ни одного события;
• B – за время dt произойдёт 1 событие.
В силу отсутствия последействия мы можем при вычислении P(A) и
P(B) переносить начало координат в любую точку, а сами события A и B
будут независимыми, т. к. соответствующие интервалы не перекрывают-
ся. Поэтому:

174
P ( t ⩽T <t +dt ) = P ( A ) P ( B ) = p0 ( t ) p 1 ( dt ) . (4.44)

Подставляем выражения для p0(t) (4.35) и p1(dt) (4.23):


−λ t
P ( t ⩽T <t +dt ) =e λ dt , (4.45)

где λ – плотность событий в потоке. Разделив эту вероятность на dt, по-


лучим плотность экспоненциального распределения:

{
−λ t
f ( t ) = λ e ; t⩾0; (4.46)
0; t<0.

Экспоненциальное распределение является однопараметрическим:


оно зависит от одного параметра λ – плотности событий в пуассоновском
потоке.
Функцию распределения вычисляем по формуле (3.11). На интерва-
ле t ∈ (–∞, 0), очевидно, F(t) = 0. Вычисляем на промежутке t ∈ [0, ∞):
t
t
F ( t )=∫ λ e−λ τ d τ=−e−λ τ∣0=1−e−λt . (4.47)
0

Имеем выражение для функции экспоненциального распределения:

{
−λ t
F ( t )= 1−e ; t ⩾0; (4.48)
0; t <0.

Вычисляем МО по формуле (3.17):

∥ ∥
∞ ∞ ∞
u=t ; du=dt ; −λ t ∞
m t = ∫ t f ( t ) dt=∫ λ t e−λ t dt= −λ t −λ t =∣−t e ∣0 +∫ e−λ t dt =
−∞ 0 dv =λ e dt ; v=−e ; 0

t 1 1 1
( )

=− lim −0 − e−λt∣0 =− ( 0−1 ) = . Результат:
t →∞ e λt λ λ λ

1 (4.49)
mt = .
λ
Этот результат интуитивно очевиден: если средняя плотность событий в

175
потоке равна λ событий в единицу времени, то среднее время между со-
бытиями как раз и равно 1/λ. Например, при средней плотности 5 собы-
тий в секунду среднее время между событиями будет 0,2 сек.
Для вычисления дисперсии используем свойство (3.29):

∥ ∥
∞ ∞ 2
1 u=t ; du= 2tdt ;
Dt =∫ t2 f ( t ) dt −m2t =∫ λ t 2 e−λ t dt − = −λt −λt =
−∞ 0 λ 2 dv =λ e dt ; v=−e ;
2

mt 1 2 1
1
( t
) 1

=−t 2 e−λ t∣0 +2∫ te−λt dt − 2 =− lim λt −0 + 2 λ − 2 = 2 − 2 = 2 .
0 λ t →∞ e λ λ λ λ
Имеем:

1
Dt = 2. (4.50)
λ
В MATLAB имеются следующие функции для работы с экспоненци-
альным распределением, описанные в электронной версии книги:
• exppdf – плотность распределения;

• expcdf – функция распределения;

• expinv – квантили распределения;

• exprnd – генератор случайных чисел, имеющих экспоненциальное


распределение;
• expstat – МО и дисперсия;

• explike – функция максимального правдоподобия;

• expfit – оценка параметра экспоненциального распределения по


данным наблюдений.

Во всех вышеперечисленных функциях параметром экспоненциального


распределения считается не плотность событий λ, а обратная ей величи-
на µ = 1 / λ (среднее время между соседними событиями).

Пример 4.12. Поток заказов на фирму является пуассоновским со


средней плотностью 5 заказов в час. Сотрудник только что принял заказ

176
и хочет отлучиться на 15 минут. Какова вероятность, что в течение этого
времени не поступит новый заказ?
Решение. Обозначим через T случайную величину – время ожида-
ния следующего заказа. Так как поток заказов пуассоновский, T имеет
экспоненциальное распределение с параметром λ = 5 час–1. Нам нужно
найти вероятность того, что T > 0,25 (здесь единица измерения часы). По
формуле (3.8) эта вероятность равна разности значений функции распре-
деления на концах интервала (0,25; ∞). Считаем:

lambda=5; % параметр экспоненциального распределения


mu=1/lambda; % обратный ему
P=1-expcdf(0.25,mu) % считаем искомую вероятность
P =
0.28650479686019 

Как видим, ему не стоит отлучаться на столь долгий срок.

4.6. Равномерное непрерывное


Это очень простое распределение.
Определение 4.11. Непрерывное рас-
пределение величины X называется равно-
мерным на отрезке [a, b], если все её возмож-
ные значения сосредоточены на этом отрез-
ке, а плотность распределения на этом отрез-
ке постоянная. 
Равномерно распределены, например,
Рисунок 4.11 – Результат погрешность наблюдений между двумя со-
измерения – равномерно
седними делениями шкалы прибора
распределённая на отрезке
[k – 0,5; k + 0,5] случайная (рис. 4.11), фаза случайных колебаний и во-
величина обще любая непрерывная величина, для ко-
торой есть основания предполагать, что все её значения в некотором
промежутке равновозможные.

177
Из условия нормировки (3.12) следует, что плотность непрерывного
равномерного распределения имеет выражение:

{
1
; x∈ [ a ; b ] ;
f ( x )= b−a (4.51)
0; x∉ [ a ; b ] .

Как видим, это распределение является двухпараметрическим: оно


зависит от двух параметров a и b. Функцию распределения вычисляем по
формуле (3.11). У нас есть 2 точки переключения аналитического
выражения для f(x): a и b. Они разделяют числовую ось на 3 части:
(−∞; a), [a; b] и (b; ∞). Поступаем так же, как в примере 3.5. При x < a:
a
f(x) = 0, и здесь F ( x ) = ∫ 0dt =0 . Если верхний предел x ∈ [a; b], то
−∞
a x
dt x−a
разбиваем интеграл на два: F ( x ) = ∫ 0dt +∫ = . И, наконец,
−∞ a b−a b−a
при x > b на интервале интегрирования (–∞; x] есть 2 точки переключения
аналитических выражений для f(x), поэтому интеграл (4.51) разбивается
a b x
dt
на 3 слагаемых: F ( x ) = ∫ 0dt +∫ +∫ 0dt =1. Получаем выражение
−∞ a b−a b
для функции равномерного непрерывного распределения:

{
0; x< a;
x−a
F ( x)= ; x∈ [ a ; b ] ; (4.52)
b−a
1; x>b.

Математическое ожидание непрерывного равномерного распределе-


ния вычисляем по (3.17):
b


∞ b
xdx x2 b2− a2 b+a
m x =∫ xf ( x ) dx =∫ = = = .
−∞ a b−a 2 ( b−a ) a 2 ( b−a ) 2
Получаем ожидаемый результат: МО равномерного распределения лежит
в середине отрезка [a; b]:

178
b+ a
m x= . (4.53)
2
Найдём дисперсию по свойству (3.29):
b


∞ b 2 2
2 2 x2 dx ( b+a ) x3 ( b+a ) b3 −a 3
D x = ∫ x f ( x ) dx −m x =∫ − = − = −
−∞ a b− a 4 3 ( b−a ) a 4 3 ( b−a )
2 2
( b+a ) b2 +ab+a 2 b2+2 ab+a2 b 2−2 ab+ a2 ( b−a )
− = − = = .
4 3 4 12 12
Дисперсия непрерывного равномерного распределения равна 1 / 12 квад-
рата ширины отрезка [a; b]:
2
( b−a )
D x= . (4.54)
12
Функции MATLAB для работы с непрерывным равномерным рас-
пределением:
• unifpdf – плотность распределения;

• unifcdf – функция распределения;

• unifinv – квантили распределения;

• unifrnd – генератор случайных чисел с равномерным непрерывным


распределением; для этих целей имеется также стандартная
функция rand;
• unifstat – МО и дисперсия равномерного распределения;

• unifit – оценка параметров равномерного распределения по


данным наблюдений.
Они описаны в электронной версии книги.
Пример 4.13. Автобусы движутся регулярно с интервалом 20 минут.
Пассажир, не зная расписания, подошёл к остановке. Какова вероят-
ность, что ему придется ждать не более 5 минут?
Решение. Пусть T – время ожидания автобуса. Эта величина имеет
равномерное распределение на отрезке [0; 20] минут. Нужно вычислить

179
P(T ∈ [0; 5]) = F(5) – F(0). Данная задача решается устно:
P(T ∈ [0; 5]) = 5/20 = 0,25. 

4.7. Равномерное дискретное


Определение 4.12. Распределе-
ние дискретной конечнозначной ве-
личины X называется равномерным с
параметром n, если её возможные
значения есть 1, 2, …, n, а вероятно-
сти их одинаковы. 
Примеры равномерного дискрет-
ного распределения: число на верх-
ней грани кости при её бросании
(n = 6); результат бросания монеты Рисунок 4.12 – При честной игре
(n = 2, здесь нужно обозначить, напри- в рулетку вероятность выпадения
всех секторов одинаковая
мер, Г = 1, Р = 2); результат игры в ру-
летку или колесо фортуны (рис. 4.12).
По своей сути дискретное равномерное распределение является при-
менением идеи равновозможности к случайным величинам. Закон дис-
кретного равномерного распределения имеет вид:

{
1
; k ∈{ 1, …, n } ;
pk = n (4.55)
0; k ∉{ 1, …, n } ;

где {1, …, n} – множество целых чисел от 1 до n. Данное распределение


является однопараметрическим: оно зависит от общего количества слу-
чаев схемы n. Очевидно, условие нормировки (3.1) выполняется. Найди-
те функцию дискретного равномерного распределения самостоятельно.
Вычисляем МО по формуле (3.15):
n
1 1 n ( n+1) n+1
m x =∑ k pk = ( 1+2+…+n ) = = . Результат:
k=1 n n 2 2

180
n +1
m x= . (4.56)
2
Теперь вычисляем дисперсию с использованием формулы (3.29):
n 2
2 2 1 2 2 2 ( n+1)
D x = ∑ k pk −mx = ( 1 + 2 +…+n ) − =
k=1 n 4
( n+1 )( 2n+1) n2+2 n+1 2 ( 2n2 +3n+1 )−3 (n 2+2 n+1) n2 −1
= − = = .
6 4 12 12
Если вы забыли, как вычисляется сумма 1 2 + 22 + … + n2, посчитайте её
самостоятельно с помощью MATLAB. Имеем выражение для дисперсии
дискретного равномерного распределения:
2
n −1
D x= . (4.57)
12
В MATLAB имеются такие функции для работы с дискретным
равномерным распределением:
• unidpdf – закон распределения;

• unidcdf – функция распределения;

• unidinv – квантили распределения;

• unidrnd – генератор случайных чисел с дискретным равномерным


распределением;
• randsample – случайные числа, имеющие дискретное равномерное
распределение, с повторениями и без;
• unidstat – МО и дисперсия дискретного равномерного распределе-
ния.
Их описания есть в электронной версии книги.
Пример 4.14. В "Колесе фортуны" 32 сектора, один из них – "Приз".
Какова вероятность выиграть приз?
Решение очевидно: p = 1 / 32. 

181
4.8. Нормальное
В заключение этой главы
мы рассмотрим ещё одно рас-
пределение, которое называется
нормальным или гауссовским
(Carl Friedrich Gauß, 1777-1855,
рис. 4.13).
Чтобы увидеть, насколько
широко распространено это
распределение, приведём сле-
дующий пример. Пусть коорди-
Рисунок 4.13 – Портрет наты случайной точки на плос-
Карла Фридриха Гаусса на купюре 10 кости {X, Y} являются независи-
немецких марок мыми и имеют одинаковый за-
кон распределения: аналитические выражения для их плотностей распре-
деления f(x) и f(y) одинаковые (рис. 4.14). При повороте осей координат
на некоторый угол α новые координаты {U, V} уже могут оказаться зави-
симыми. Так вот, если существует ещё хотя бы одна повёрнутая система
координат {U, V}, в которой законы распределения координат тоже неза-
висимые и одинаковые, то распределение уже не может быть никаким
другим, кроме как нормальным.
Но вывод нормального распределения из этого условия очень слож-
ный. Мы выведем выражение для плотности нормального распределения
из более жёсткого условия: при повороте системы координат на любой
угол α законы распределения новых координат остаются независимыми
и имеют такое же аналитическое выражение f(⋅).
Запишем выражение для вероятности попадания двумерной случай-
ной величины, координаты которой в исходной системе обозначены
{X, Y}, а в повернутой – {U, V}, в бесконечно малую область dS:

dp= f ( x ) dx⋅f ( y ) dy = f ( u ) du⋅ f ( 0 ) dv . (4.58)

182
y
v dp = f(x)f(y)dS = f(u)f(0)dS

u
dS

α x
0

Рисунок 4.14 – К выводу плотности нормального


распределения

Более подробно мы будем изучать многомерные случайные величины в


следующей, 5-й главе, но формула (4.58) интуитивно понятна: коор-
динаты независимы, поэтому элементарные вероятности по координатам
перемножаются. В любой прямоугольной декартовой системе координат
бесконечно малый элемент площади равен произведению дифференциа-
лов координат:
dS =dx dy =du dv , (4.59)
поэтому получаем уравнение для определения вида функции f(⋅):

f ( x ) f ( y ) = f ( u ) f ( 0) . (4.60)

Здесь u= √ x2 +y 2 , а f(0) = k = const. Уравнения вида (4.60) называются


функциональными, в них требуется найти вид функции f(⋅), для которого
имеет место данное уравнение. Для решения (4.60) перейдём от
функционального уравнения к дифференциальному. Для этого продиф-

183
ференцируем (4.60) по x и y:

{
df ( x ) df ( u ) x
f ( y )= k ;
dx du u
(4.61)
df ( y ) df ( u ) y
f ( x )= k .
dy du u
Исключим переменную u:

k df ( u ) f ( y ) df ( x ) f ( x ) df ( y )
= = . (4.62)
u du x dx y dy

Во второй и третьей частях равенства разделим переменные:

1 df ( x ) 1 df ( y )
= =b=const. (4.63)
x f ( x) dx y f ( y ) dy

Слева – функция аргумента x, а справа – y, поэтому обе части равны


константе, которую мы обозначили b. Т. о., мы перешли от функциональ-
ного уравнения к дифференциальному. Решаем его:
b x2
1 df ( x ) df ( x ) b x2
=b ; =b x dx ; ln f ( x ) = +ln C ; f ( x ) =Ce 2 .
x f ( x ) dx f (x) 2
Найдём константы b и C. Плотность распределения неотрицательная,
поэтому C > 0. Должно выполняться условие нормировки (3.12), и для
сходимости несобственного интеграла обязательно нужно, чтобы было
1
b < 0. Обозначим b=− 2 , где будем считать σ > 0 (далее мы увидим, что
σ
параметр σ является СКО):
x2

f ( x )=Ce 2σ2
. (4.64)

Ищем константу C из условия нормировки:

∥ ∥
2
x
2
+∞ − x 2 +∞ − t
C∫ e 2σ
dx = σ =t ; dx+∞=σ dt+∞; =C σ ∫ e 2 dt =C σ J =1.
−∞
x=σ t ; x∣−∞ ⇒ t∣−∞ −∞

Здесь через J обозначен несобственный интеграл. По формуле Ньютона-

184
Лейбница он не берётся в конечном виде (первообразная не выражается
через элементарные функции), но из-за того, что он несобственный, его
можно вычислить, перейдя к полярным координатам. Мы воспользуемся
тем, что значение определённого или несобственного интеграла не зави-
сит от того, какой буквой обозначена переменная интегрирования. Вы-
числяем:
x2 y2 x 2 +y 2

∥ ∥
+∞ +∞
2 − − − x=ρ cosφ ; dS =ρ d ρ d φ ;
J =∫ e 2
dx ∫ e 2
dy=∬ e 2
dS = ∞ 2π =
−∞ −∞ D∞ y=ρ sin φ ; D ∞ ⇒ ρ∣0 ; ∣φ∣0

ρ d ρ=2 π (−e )∣ = 2π ⇒
ρ2 2π ∞ −ρ2 ρ2
− −
=∬ e 2
ρ d ρ d φ=∫ d φ∫ e 2 2
0
D∞ 0 0
1
⇒ J =√ 2π ⇒ C= .
σ √ 2π
Полученное значение C подставляем в (4.64) и получаем выражение для
плотности нормального распределения. Обычно его рассматривают в бо-
лее общем виде: разрешают смещение по горизонтали на произвольную
величину, которую мы обозначим m (как увидим дальше, это будет МО
нормального распределения):
( x−m)2
1 −
2 σ2
(4.65)
f ( x )= e .
σ √2 π
Определение 4.13. Распределение непрерывной величины X называ-
ется нормальным или гауссовским, если его плотность имеет вид
(4.65). 
Это распределение зависит от двух параметров: m и σ, т. е. является
двухпараметрическим. Для вычисления плотности нормального распре-
деления (4.65) в MATLAB есть функция normpdf, описанная в электрон-
ной версии книги. Её график и формулу (4.65) можно увидеть на вышед-
шей уже из употребления купюре в 10 немецких марок (рис. 4.13) слева
от портрета К. Ф. Гаусса.
Вычислим функцию нормального распределения:

185
∥ ∥
x x ( t−m )2 t−m
1 −
2σ2 σ =u; dt =σ du ;
F ( x ) =∫ f ( t ) dt= ∫ e dt = x−m
=
−∞ σ √ 2 π −∞ x
t =σ u+m; t∣ ⇒ u∣
−∞
σ
−∞
x−m 2
σ u
1 −
= ∫
√ 2 π −∞
e 2 du .

Полученный интеграл не берётся в конечном


виде. Когда он был несобственным, мы смогли
его вычислить путём перехода к полярным коор-
динатам, а здесь он определённый, и в различных
задачах его нужно вычислять для произвольного
верхнего предела. Раньше у нас не было компью-
теров, и в любом учебнике или задачнике по тео- Рисунок 4.15 –
рии вероятностей и математической статистике Пьер-Симон Лаплас
обязательно в конце книги были таблицы интеграла Лапласа (Pierre-
Simon Laplace, 1749-1827, рис. 4.15), который отличается от нужного нам
только нижним пределом 0 вместо –∞:
t u2 t u2
1 − 1 −
Φ ( t )= ∫
√2 π 0
e 2 du= ∫
√ 2 π −∞
e 2 du −0,5 . (4.66)

Интеграл Лапласа – нечётная функция, и таблицы для неё составлялись


только для t ≥ 0. Используя таблицы интеграла Лапласа, можно было вы-
числять функцию нормального распределения "вручную" по формуле:

F ( x ) =Φ ( x−m
σ )+0,5. (4.67)

Теперь же в любом математическом пакете есть процедуры для вы-


числения функции нормального распределения (4.67). В MATLAB это
normcdf.
Найдём параметры нормального распределения. Начнём с математи-
ческого ожидания, которое вычисляем по формуле (3.17):

186
∥ ∥
( x−m) 2
+∞
1 − +∞ x−m
m x =∫ x f ( x ) dx = ∫ xe 2σ2
dx= σ =t ; dx =σ dt ; =
−∞ σ √ 2 π −∞ x=σ t+m;
+∞ +∞
x∣−∞ ⇒ t∣−∞
2 2 2
+∞ t +∞ t +∞ t
1 − − m −
= ∫ ( σ t+ m) e 2 dt = σ ∫ te 2 dt + ∫ e 2 dt =
√ 2π −∞ √ 2π −∞ √ 2π −∞
σ m
= 0+ √ 2π=m .
√ 2π √ 2π
Первое слагаемое – это сходящийся несобственный интеграл от нечёт-
ной функции в симметричных бесконечных пределах. Следовательно, он
равен 0. А второй интеграл мы вычисляли раньше: он равен √ 2 π . Ре-
зультат: МО нормального распределения равно параметру m:

m x =m. (4.68)

Дисперсию вычисляем по формуле (3.34):


+∞ +∞ ( x−m )2
2 1 2

2σ 2
D x = ∫ ( x− mx ) f ( x ) dx = ∫ ( x−m ) e dx =
−∞ σ √ 2 π −∞

∥ x− m

2 2
t
+∞ 2 +∞ −t
1 2 −2
= σ =t ; dx=σ dt ; = ∫ ( σ t ) e dt= σ
∫ 2 dt=
t
2
e
+∞ +∞
x=σ t+ m ; x∣−∞ ⇒ t∣−∞ √ 2π −∞ √ 2 π −∞

∥ ∥
t2

2 t2 +∞

=
u=t ; dv=t e

t2
dt ; 2 −
= σ −te 2 ( ∣
−∞+ ∫ e
+∞ −
t2
2
2
)
dt = σ ( 0+√ 2π ) .
du=dt ; v=−e 2
; √ 2π −∞ √ 2π
Т. о., дисперсия нормального распределения равна σ2, а СКО σ:
2
D x =σ ; σ x = σ . (4.69)

Для вычисления асимметрии нормального распределения использу-


ем формулу (3.36):
+∞ +∞ ( x−m) 2
1 3 1 3

2σ2
a x = 3 ∫ ( x− mx ) f ( x ) dx= 4 ∫ ( x−m ) e dx=
σ x −∞ σ √ 2π −∞

187

x− m

+∞ t2 +∞ t2
dx=σ dt ; = 1 ∫ ( σ t ) 3 e 2 dt = 1 ∫ t3 e 2 dt=0 ,
− −
= σ =t ; 3
x∣−∞ ⇒ t∣−∞ σ √ 2π −∞ √ 2 π −∞
+∞ +∞
x=σ t + m;
т. к. это сходящийся несобственный интеграл от нечётной функции в
симметричных пределах. Нормальное распределение симметричное:

a x =0. (4.70)

И, наконец, эксцесс нормального распределения вычисляем по фор-


муле (3.37):
+∞ +∞ ( x−m )2
1 4 1 4

2 σ2
e x = 4 ∫ ( x−m x ) f ( x ) dx −3= 5 ∫ ( x−m ) e dx−3=
σ x −∞ σ √ 2 π −∞


x− m

2
+∞ t
1 4 −
= σ =t ; dx=σ dt ; = 4 ∫ ( σ t ) e 2 dt−3=
x=σ t + m ; x∣−∞ ⇒ t∣−∞ σ √ 2π −∞
+∞ +∞

∥ ∥
t2

3 2
1
+∞ t2
4 −2
u=t ; dv =t e dt ;
= ∫t e dt−3= −
t2 =
√ 2 π −∞ du=3t dt ;
2
v=−e 2
;
+∞


2 2

( )
t +∞ t
1 3 − 2 − 0+ 3 √ 2 π
= −t e 2 −∞ +3 ∫ t e 2 dt −3= −3=0.
√ 2π −∞ √ 2π
Второе слагаемое (интеграл) уже встречалось при вычислении диспер-
сии, оно равно √ 2 π , а эксцесс нормального распределения равен нулю:

e x =0. (4.71)

Именно для этого и вычитается число 3 из отношения 4-го центрального


момента к квадрату дисперсии: чтобы эксцесс нормального распределе-
ния был равен нулю. Остальные распределения теперь можно сравнивать
с нормальным по форме вершины графика f(x): более островершинные
имеют ex > 0, а плосковершинные ex < 0.
Кроме указанных выше функций normpdf и normcdf, в MATLAB
имеются такие функции для работы с нормальным распределением:
• norminv – квантили нормального распределения;

188
• normrnd – генератор случайных чисел с нормальным распределе-
нием; можно также использовать стандартную функцию randn;
• normstat – МО и дисперсия нормального распределения;

• normlike – функция максимального правдоподобия;

• normfit – оценки параметров нормального распределения.


Пример 4.15. Величина X имеет нормальное распределение с пара-
метрами m = 5 и σ = 2. Какова вероятность, что она находится в пределах
от 4 до 7?
Решение. Вычисляем с помощью MATLAB:

p=diff(normcdf([4 7],5,2))
p =
0.53280720734256 

Мы уже сформулировали и доказали


несколько предельных теорем. Так, при опре-
делённых условиях гипергеометрическое рас-
пределение переходит в биномиальное, а бино-
миальное – в пуассоновское. Вот ещё одна тео-
рема такого же типа.
Теорема 4.3. При n → ∞ биномиальное
распределение с параметрами n и p переходит в
нормальное с параметрами mx = np и
σ x = √ n p q.  Рисунок 4.16 – Абрахам
Эта теорема называется теоремой Муавра- де Муавр
Лапласа (Abraham de Moivre, 1667-1754, рис. 4.16, и Pierre-Simon Laplace,
1749-1827, рис. 4.15). Её доказательство мы отложим до главы 7, где она
будет просто следствием из центральной предельной теоремы теории ве-
роятностей. Но сами теоремы сформулируем здесь и покажем, как они
применяются.
Замена биномиального распределения нормальным несколько отли-

189
чается от замены гипергеометрического биномиальным или биномиаль-
ного пуассоновским. В тех случаях все распределения были дискретны-
ми, и мы просто заменяли pk одного распределения на pk другого. Здесь
же мы заменяем дискретное распределение непрерывным, т. е. как бы
"размазываем" целые значения от 0 до n на всю числовую ось (−∞; +∞).
На практике это означает, что мы заменяем вероятность pk биномиально-
го распределения вероятностью попадания нормальной величины в ин-
тервал (k – 0,5; k + 0,5). Правда, при этом p0 будет заменяться на
P(X ∈ (–0,5; 0,5)), а не на P(X ∈ (–∞; 0,5)), а pn – на P(X ∈ (n – 0,5; n + 0,5)), а
не на P(X ∈ (n – 0,5; +∞)), но при больших n эта погрешность весьма
незначительна и стремится к нулю с ростом n.
Обычно рассматривают две формулировки теоремы Муавра-Лапла-
са, которые называют локальной и интегральной теоремами.
Локальная теорема Муавра-Лапласа применяется для вычисле-
ния вероятности того, что в схеме Бернулли с большим числом испыта-
ний n, вероятностью успеха p и вероятностью неуспеха q произойдет
ровно k событий-успехов. Заменяя биномиальное распределение нор-
мальным, мы должны вместо pk взять P(X ∈ (k – 0,5; k + 0,5)), т. е. вычис-
лить F(k + 0,5) – F(k – 0,5). Но при больших n интервал (k – 0,5; k + 0,5) ма-
лый, поэтому по теореме о среднем можно заменить F(k + 0,5) −
− F(k − 0,5) значением производной в средней точке, т. е. f(k), умноженной
на ширину интервала 1. Поэтому локальный вариант теоремы Муавра-
Лапласа заключается в том, что при больших n закон биномиального рас-
пределения примерно равен:

pk ≈ F ( k +0,5 )− F ( k−0,5 )=
2
k +0,5 ( k−n p )
1 − (4.72)
= ∫ f ( x ) dx≈ f ( k )⋅1=
√ 2π n p q
e 2n pq
.
k −0,5

Интегральная теорема Муавра-Лапласа используется в том слу-


чае, когда нужно вычислить вероятность того, что количество успехов в
испытаниях по схеме Бернулли будет в пределах от k1 до k2. В этом слу-

190
чае искомая вероятность приближённо равна F(k2 + 0,5) – F(k1 – 0,5):
k2

∑ pk ≈ F ( k 2+0,5 )− F (k 1−0,5) =
k =k 1
(4.73)
k +0,5−n p k −0,5−n p
=Φ 2
(
√ n pq
−Φ 1
√n p q) (.
)
Раньше при решении задач на биномиальное распределение при
больших n и при p, не очень близких к 0 и 1, у нас не было другого выбо-
ра, кроме применения теоремы Муавра-Лапласа. Современные математи-
ческие пакеты дают нам возможность решить задачу обоими способами
и сравнить результаты.
Пример 4.16. Проводится 200 испытаний по схеме Бернулли с веро-
ятностью успеха 0,4. Какова вероятность того, что событие У произойдет
ровно 100 раз? Не более 100 раз? Какова погрешность от замены бино-
миального распределения нормальным в том и другом случае?
Решение. Вычисляем нужные вероятности для биномиального рас-
пределения, затем для нормального и сравниваем их.

n=200; % параметры биномиального распределения


p=0.4;
k=100;
P100bin=binopdf(k,n,p);
Ple100bin=sum(binopdf([0:k],n,p));
mu=n*p; % параметры нормального распределения
sigma=(n*p*(1-p))^0.5;
P100norm=normpdf(k,mu,sigma);
Ple100norm=normcdf(k+0.5,mu,sigma);
disp([' Биномиальное '...
'Нормальное Погрешность'])
fprintf('P(X =%d) %14.8f %14.8f %14.8f%%\n',...
k,P100bin,P100norm,abs(P100bin-P100norm)/P100bin*100)
fprintf('P(X<=%d) %14.8f %14.8f %14.8f%%\n',...

191
k,Ple100bin,Ple100norm,...
abs(Ple100bin-Ple100norm)/Ple100bin*100)
Биномиальное Нормальное Погрешность
P(X =100) 0.00095062 0.00089275 6.08745626%
P(X<=100) 0.99831521 0.99845640 0.01414293% 

Пример 4.17. Проводятся испытания по схеме Бернулли с вероятно-


стью успеха 0,3. Сколько испытаний нужно провести, чтобы погреш-
ность локальной теоремы Муавра-Лапласа была не больше 1%?
Решение. Будем считать, что при n = 10 нужная точность не достига-
ется. Вычислим вероятности биномиального распределения для всех воз-
можных значений k и сравним их с вероятностями нормального распре-
деления, вычисленными по локальной формуле Муавра-Лапласа (4.72).
Если относительная погрешность больше 1%, увеличиваем n в биноми-
альном распределении до тех пор, пока различие между ним и нормаль-
ным не уменьшится до 1%.
Нарисуем на одном графике: сплошной линией – плотность нор-
мального распределения и штриховой – закон биномиального распреде-
ления (рис. 4.17). Нарисуем также график изменения относительной по-
грешности с ростом n (рис. 4.18).

n=200; % параметры биномиального распределения


p=0.3; % параметр биномиального распределения
q=1-p;
n=10; % начальное значение
delta=0.1; % относительная погрешность, считаем большой
nall=[]; % абсциссы для графика относительных погрешностей
dall=[]; % ординаты для графика относительных погрешностей
while delta>0.01, % пока не будет достигнута точность
n=n+1; % новые значения параметров
k=[0:n]; % интервал аргументов
pbin=binopdf(k,n,p); % вероятности бином. распределения

192
mu=n*p; % параметры норм. распределения
sigma=(n*p*q)^0.5;
pnorm=normpdf(k,mu,sigma); % вероятности норм. распр.
[m,im]=max(abs(pnorm-pbin)); % max разность и номер
delta=m/pnorm(im); % относительная погрешность
nall=[nall n]; % накапливаем абсциссы
dall=[dall delta]; % накапливаем ординаты
end
fprintf('При n=%d достигается точность %7.5f%%.\n',...
n,100*delta);
plot(k,pnorm,'k-',k,pbin,'k.',k,pbin,'k:')
xlim([mu-3*sigma mu+3*sigma]) % границы по оси Ox
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',14) % шрифт
title('\bfЛокальная теорема Муавра-Лапласа') % заголовок
xlabel('\itk') % метка оси OX
ylabel('\itp_k\rm, \itf\rm(\itx\rm)') % метка оси OY
figure
plot(nall,dall,'k')
xlim([nall(1) nall(end)]) % границы по оси Ox
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',14) % шрифт
title('\bfЗависимость погрешности от \rm\itn') % заголовок
xlabel('\itn') % метка оси OX
ylabel('\delta') % метка оси OY
При n=703 достигается точность 0.99672%. 

193
Локальная теорема Муавра-Лапласа
0.035

0.03

0.025

0.02
pk, f(x)

0.015

0.01

0.005

0
180 190 200 210 220 230 240
k

Рисунок 4.17 – Замена биномиального распределения


нормальным

Зависимость погрешности от n
0.12

0.1

0.08

0.06
δ

0.04

0.02

0
100 200 300 400 500 600 700
n

Рисунок 4.18 – Погрешность от замены биномиального


распределения нормальным при разных n

194
4.9. Контрольные вопросы к главе 4
1. При каких условиях можно заменять гипергеометрическое распреде-
ление биномиальным? Биномиальное пуассоновским? Биномиаль-
ное нормальным?
2. Велика ли будет погрешность, если в интегральной теореме Муавра-
Лапласа не учитывать +0,5 и –0,5? При каком объеме выборки по-
грешность от неучёта этих слагаемых будет меньше 1%?
3. Поток автобусов данного маршрута является пуассоновским с плот-
ностью 3 автобуса в час. На одну остановку подошёл пассажир,
когда от неё только что отошёл автобус, а на другую – в случайный
момент времени. Требуется определить в том и другом случае веро-
ятность того, что им придётся ожидать автобус не более 20 минут. У
кого из них эта вероятность больше? Почему?
4. Поток автобусов 1-го маршрута является пуассоновским с плотно-
стью 3 автобуса в час, а автобусы 2-го маршрута ходят регулярно че-
рез каждые 20 минут. К остановке в случайный момент времени
подошли 2 пассажира: один на 1-й автобус, другой на 2-й. Каково
среднее время ожидания у каждого из них? Каковы вероятности, что
каждому из них придется ждать свой автобус не более 10 минут?
5. Решите предыдущую задачу, если пассажиры подошли к остановке в
тот момент, когда от неё только что отошли автобусы 1-го и 2-го
маршрутов.
6. Какая вероятность выше: угадать 6 номеров из 49 или 5 из 36?

195
Глава 5. Многомерные случайные величины
По своей классификации случайные величины делятся, с одной сто-
роны, на дискретные и непрерывные, а с другой – на одномерные и
многомерные. Общие свойства одномерных величин были рассмотрены
в главе 3, а некоторые часто встречающиеся виды распределений – в гла-
ве 4. Сейчас мы переходим к изучению свойств многомерных величин.
По определению 3.6 многомерная случайная величина, или система слу-
чайных величин, или случайный вектор – это совокупность нескольких
рассматриваемых совместно случайных величин. Именно из-за сов-
местного рассмотрения нескольких координат появляются новые харак-
теристики, которые мы и изучим. При этом подробно будут рассмотрены
только двумерные величины, т. к. добавление уже второй координаты
приводит к появлению новых свойств. Для векторов бóльших размерно-
стей будут даны только определения.

5.1. Дискретные случайные векторы


Начнём с примера.
Пример 5.1. Случайно выбранную пару обуви можно характеризо-
вать с двух точек зрения:
1. круг клиентов (мужская, женская или универсальная);
2. размер.
При таком рассмотрении каждая пара обуви является реализацией
двумерной случайной величины {К, Р}. Первая координата К этого век-
тора дискретная трёхзначная величина, а вторая Р – также дискретная, но
множество её возможных значений определяется стандартами сущест-
вующих размеров. Можно также добавить третью координату Ц (цвет),
тогда величина {К, Р, Ц} будет уже трёхмерной. Если использовать
дискретную шкалу цветов, то и координата Ц будет дискретной. Раз-
мерность вектора можно и далее наращивать, всё более полно характери-
зуя обувь. Так, кроме размера обуви, есть ещё полнота, материал и т. д. 

196
Этот пример показывает, что многомерные дискретные величины не
так уж и редко встречаются на практике. Любой ассортимент продукции
можно рассматривать с этой точки зрения.
Будем обозначать двумерный случайный вектор {X, Y}, трёхмерный
{X, Y, Z}, а для многомерного (m-мерного) использовать обозначение
{X1, X2, …, Xm}, т. е. номер размерности ставить в виде верхнего индекса.
Нижний индекс оставим для обозначения номера точки в m-мерном про-
странстве, т. е. возможного значения случайного вектора. Для двумерно-
го вектора k-я точка обозначается {xk, yk}, для трёхмерного {xk, yk, zk}, а
1 2 m
для m-мерного { xk , xk , …, x k } . Общее количество возможных значений
многомерной конечнозначной случайной величины будем обозначать n.
5.1.1. Многомерный закон распределения
Как и в случае одномерных величин, мы должны научиться характе-
ризовать случайный вектор с вероятностной точки зрения. Очевидно,
случайный вектор будет полностью определён в вероятностном смысле,
если будет указано правило, по которому любому возможному значению
вектора будет поставлена в соответствие вероятность его появления.
Определение 5.1. Закон распределения двумерного дискретного слу-
чайного вектора {X, Y} – это любое правило, по которому возможным
значениям {xk, yk} ставятся в соответствие вероятности их появления
pk. 
Аналогично даётся определение и для вектора более высоких раз-
мерностей.
Один из способов задания закона – это таблица (ряд распределения).
В таблице 5.1 показан пример такого ряда. Первый столбец таблицы –
это заголовки, в остальных приводятся конкретные возможные значения
координат случайного вектора и вероятностей их появления. Для вероят-
ностей должно выполняться условие нормировки (3.1) или (3.2).

197
Таблица 5.1. Ряд распределения двумерной
дискретной случайной величины

xk x1 x2 … xn
yk y1 y2 … yn

pk p1 p2 … pn

Для трёхмерной величины в эту таблицу нужно добавить ещё одну


строку со значениями zk, для величин больших размерностей будет до-
бавляться несколько строк.
Если какие-либо значения по некоторым координатам повторяются,
то ряд распределения может иметь вид, показанный в таблице 5.2. При
X = x1 возможные значения Y – это y11, y12 и y13, при X = x2 возможны Y = y21
или y22, и т. д. Здесь возможные значения Y нужно нумеровать двумя ин-
дексами: первый – это номер значения X, а второй – номер значения Y
при этом значении X. Если в таблице 5.2 разбить ячейки в 1-й строке, то
получим таблицу 5.1.

Таблица 5.2. Ряд распределения двумерной дискретной


случайной величины при повторяющихся значениях

xk x1 x2 x3 …
yk y11 y12 y13 y21 y22 y31 …

pk p11 p12 p13 p21 p22 p31 …

Ещё один вариант ряда распределения показан в таблице 5.3. Чтобы


перейти к такому виду от таблицы 5.1 или 5.2, нужно в 1-ю строку зане-
сти все неповторяющиеся значения xi, в 1-й столбец – все неповторяю-
щиеся значения yk, заполнить остальные клетки нужными вероятностя-
ми, а в пустые клетки поставить нули. И наоборот, чтобы перейти от дву-

198
мерной таблицы 5.3 к линейной 5.1, нужно взять все pik ≠ 0, занести их в
последнюю строку таблицы 5.1 или 5.2, а первые строки заполнить со-
ответствующими xi и yk. Условие нормировки для таблицы 5.3 выглядит
так:

Таблица 5.3. Ряд распределения двумерной дискретной


случайной величины в виде двумерной таблицы

yj\xi x1 x2 x3 … xk
y1 p11 p21 p31 … pk1
y2 p12 p22 p31 … pk2
y3 p13 p23 p32 … pk3
… … … … … …

yn p1n p2n p3n … pkn

k n

∑ ∑ p ij =1. (5.1)
i =1 j =1

Такой вид ряда распределения (в виде двумерной таблицы) удобен


только для двумерной величины. Для трёхмерной величины нужно уже
заполнять трёхмерную таблицу, для 4-мерной – 4-мерную и т. д.
Другой способ задания закона распределения – графический, но он
может применяться только для двумерной величины, где по таблице 5.3
можно построить поверхность. Для величин размерности больше 2 мож-
но строить различные двумерные сечения m-мерной функции.
И, наконец, третий способ задания закона распределения – аналити-
ческий, при котором вероятности задаются в виде функции точки:

pk = f ( x k ) . (5.2)

Для бесконечнозначных величин (хотя бы по одной координате),


очевидно, подходит только третий вариант: аналитическое задание зако-

199
на распределения. Таблица или график покажут только часть допу-
стимых значений.
Пример 5.2. Двумерная дискретная случайная величина {X, Y}
имеет возможные значения xi в виде целых чисел от –5 до 5, а возможные
значения yj – это числа от 0 до 1 с шагом 0,2. Закон распределения за-
даётся формулой:
−0,25 ( x i −1,5) 2+0,4 ( xi −1,5)( y j−0,4) −5( y j−0,4) 2
p ij = ke , (5.3)

где k – множитель, подбираемый из условия нормировки (5.1). Найти


этот множитель и нарисовать график двумерного закона распределения.
Решение. Задаём значения xi и yj, создаём из них сетку и находим на
ней закон распределения (5.3). Далее, суммируя все значения, вычисляем
и печатаем нормирующий множитель k. И, наконец, рисуем график дву-
мерного закона распределения (рис. 5.1).

xi=[-5:1:5]; % возможные значения


yj=[0:0.2:1];
[x,y]=meshgrid(xi,yj); % создали сетку
pij=exp(-0.25*(x-1.5).^2+0.4*(x-1.5).*(y-0.4)-...
5*(y-0.4).^2);
k=1/sum(sum(pij)); % нормирующий множитель
fprintf('Множитель k=%12.8f\n',k);
pij=pij*k; % нормируем
mesh(x,y,pij,'LineWidth',2,'EdgeColor',[0 0 0]) % рисуем
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title('\bfДвумерный закон распределения')
xlabel('\itx_i')
ylabel('\ity_j')
zlabel('\itp_{ij}')
Множитель k= 0.07549707

200
Двумерный закон распределения

0.08

0.06

0.04
pij

0.02

0
1
5
0.5
0
yj 0 -5
xi

Рисунок 5.1 – График двумерного закона распределения 

5.1.2. Многомерная функция распределения


Кроме закона распределения, для дискретной величины можно зада-
вать также многомерную функцию распределения. Для одномерной ве-
личины функция распределения F(x) определялась как вероятность при-
нятия случайной величиной X значений, меньших x (определение 3.8).
Аналогично определяется и многомерная функция распределения, но
требуется одновременное принятие всеми координатами X1, X2, …, Xm
значений, меньших соответственно x1, x2, …, xm (напоминаем, что здесь
верхний индекс здесь не показатель степени, а номер координаты).
Определение 5.2. Двумерной функцией распределения случайного
вектора {X, Y} называется вероятность одновременного выполнения двух
неравенств: X < x и Y < y, рассматриваемая как функция аргументов x и y:

F ( x , y )=P ( ( X <x ) ∩ ( Y < y ) ) .  (5.4)

201
Геометрически это означает вероятность попадания случайного век-
тора {X, Y} в заштрихованную область на рис. 5.2.

y
F(x, y) = P((X<x)∩(Y<y))

(x, y)

x
0

Рисунок 5.2 – Геометрический смысл двумерной


функции распределения

Аналогично определяется функция распределения трёхмерной ве-


личины:

F ( x , y , z ) =P ( ( X < x )∩ ( Y < y ) ∩ ( Z < z ) ) (5.5)

и m-мерной:

(
F ( x )= P ∩ ( X j < x j ) .
j=1 ) (5.6)

Как и в одномерном случае, многомерная функция распределения


применяется не только для дискретных, но и для непрерывных величин.

202
Свойства многомерной функции распределения очень похожи на соот-
ветствующие свойства одномерной F(x) (свойства 3.1-3.5). Их доказа-
тельства почти очевидны, поэтому просто перечислим их.
Свойство 5.1. Многомерная функция распределения – это вероят-
ность некоторого события, поэтому 0 ≤ F(x) ≤ 1. 
Свойство 5.2. Если хотя бы один из аргументов ∃ xj → –∞, то
F(x) = 0. 
Свойство 5.3. Если все аргументы ∀ xj → +∞, то F(x) = 1. 
Свойство 5.4. Многомерная функция распределения является неу-
бывающей функцией любого своего аргумента. 
А вот свойства, аналогичного свойству 3.5, для многомерной ве-
личины нет. В одномерном случае свойство 3.5 определяет вероятность
попадания величины в заданный полуинтервал. Но уже для двумерной
величины область может быть более сложной, и вероятность попадания
случайного вектора в эту область удобно вычислять не через функцию
распределения, а другими способами. В частности, для дискретной ве-
личины нужно просто просуммировать вероятности pk (или pij) для всех
точек, попадающих в область.
Пример 5.2 (продолжение). Построить график двумерной функции
распределения заданной дискретной величины.
Решение. Вычислить функцию распределения очень просто: нужно
сложить вероятности по всем точкам с координатами, меньшими теку-
щей точки. А вот стандартной функции для рисования двумерной функ-
ции распределения дискретной величины в MATLAB нет. Поэтому изоб-
разим её с помощью функции fill3, которая применяется для рисова-
ния произвольно ориентированных в пространстве многоугольников.

xi=[-5:1:5]; % возможные значения


Fij=cumsum(cumsum(pij,1),2); % F(x,y)
Fije=[zeros(1,size(Fij,2));Fij]; % добавили 0 строку

203
Fije=[zeros(size(Fije,1),1),Fije]; % и 0 столбец
xie=[2*xi(1)-xi(2),xi,2*xi(end)-xi(end-1)]; % расширили xi
yje=[2*yj(1)-yj(2),yj,2*yj(end)-yj(end-1)]; % расширили yj
figure % новая фигура
hold on % задержка для рисования нескольких объектов
for i=1:size(Fije,2),
for j=1:size(Fije,1),
fill3(xie([i i+1 i+1 i]),yje([j j j+1 j+1]),...
ones(1,4)*Fije(j,i),'w'); % верхний прямоугольник
fill3(xie([i i+1 i+1 i]),yje([j j j+1 j+1]),...
zeros(1,4),'w'); % нижний
fill3(xie([i i+1 i+1 i]),ones(1,4)*yje(j),...
[0 0 ones(1,2)*Fije(j,i)],'w'); % передний
fill3(xie([i i+1 i+1 i]),ones(1,4)*yje(j+1),...
[0 0 ones(1,2)*Fije(j,i)],'w'); % задний
fill3(ones(1,4)*xie(i),yje([j j+1 j+1 j]),...
[0 0 ones(1,2)*Fije(j,i)],'w'); % левый
fill3(ones(1,4)*xie(i+1),yje([j j+1 j+1 j]),...
[0 0 ones(1,2)*Fije(j,i)],'w'); % правый
end
end
hold off % выключили задержку
xlim([xie(1) xie(end)]) % границы по осям
ylim([yje(1) yje(end)])
zlim([0 1])
view(3) % точка просмотра
grid on % сетка
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title('\bfДвумерная функция распределения')
xlabel('\itx')
ylabel('\ity')
zlabel('\itF\rm(\itx\rm,\ity\rm)')

204
Двумерная функция распределения

1
F (x,y)

0.5

0
1
5
0.5
0
0 -5
y x

Рисунок 5.3 – График двумерной функции распределения 

5.1.3. Одномерные законы распределения


Вернемся к таблице 5.3. Каждая её ячейка pij определяет вероятность
одновременного осуществления двух событий: (X = xi) и (Y = yj), а вся та-
блица задаёт двумерный закон распределения. Но ведь каждая координа-
та вектора {X, Y} сама является дискретной случайной величиной и, сле-
довательно, имеет свой закон распределения! Достаточно ли таблицы 5.3
для построения законов распределения величин X и Y? Очевидно, да:
ведь двумерный закон распределения полностью определяет статистиче-
ское поведение величины {X, Y}. Как же, используя таблицу 5.3, по-
строить, например, закон распределения X? Пусть требуется найти
P(X = x1). При этом Y может принимать или значение y1, или y2, и т. д.,
или yn. События (Y = y1), (Y = y2), …, (Y = yn) несовместные, поэтому соот-
ветствующие вероятности складываются. Значит, чтобы получить
p x = P ( X = x 1 ) , нужно сложить p11, p12, …, p1n. Аналогично вычисляется
1

205
p x = P ( X = x2 )= p21 + p22+…+ p 2 n , и т. д. Следовательно, чтобы полу-
2

чить закон распределения X, нужно сложить строки таблицы 5.3 (т. е.


сложить вероятности по всем yj). Будем обозначать его p x . Нетрудно
i

видеть, что сложение столбцов таблицы 5.3 дает закон распределения Y,


который обозначим p y . j

Для трёхмерной величины сложение вероятностей по одной коорди-


нате даёт двумерный закон распределения оставшихся двух координат, а
сложение по двух координатам – одномерный закон распределения тре-
тьей. Обобщая этот принцип, получаем: если в законе распределения m-
мерной величины просуммировать вероятности по каким-либо l коорди-
натам, то получим закон распределения оставшихся m – l координат.
Пример 5.2 (продолжение). Найти одномерные законы распределе-
ния координат X и Y и построить многоугольники распределения.
Решение. Суммирование строк дает p x , а суммирование столб-
i

цов – p y . Строим полученные многоугольники распределения (рис. 5.4


j

и 5.5).

pxi=sum(pij,1); % закон распределения X


pyj=sum(pij,2)'; % закон распределения Y, сделали строкой
figure, plot(xi,pxi,'k',xi,pxi,'k.')
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title('\bfЗакон распределения\rm \itX')
xlabel('\itx_i'), ylabel('\itp_i')
figure, plot(yj,pyj,'k',yj,pyj,'k.')
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title('\bfЗакон распределения\rm \itY')
xlabel('\ity_j'), ylabel('\itp_j')

206
Закон распределения X
0.35

0.3

0.25

0.2
pi

0.15

0.1

0.05

0
-5 0 5
xi

Рисунок 5.4 – Многоугольник распределения координаты X

Закон распределения Y
0.35

0.3

0.25

0.2
pj

0.15

0.1

0.05

0
0 0.2 0.4 0.6 0.8 1
yj

Рисунок 5.5 – Многоугольник распределения координаты Y 

207
5.1.4. Одномерные функции распределения
По определению 3.8 одномерная функция распределения F(x) коор-
динаты X – это вероятность события (X < x). Это соответствует попада-
нию точки на плоскости в заштрихованную область слева от вертикаль-
ной прямой на рис. 5.6.

y
F(x) = P(X<x)

x x
0

Рисунок 5.6 – Функция распределения F(x) – это


вероятность попадания в заштрихованную область

Для дискретной величины F(x) будет кусочно-постоянной. Чтобы


найти F(x) по таблице 5.3, нужно просуммировать все pij слева от верти-
кальной прямой, которая рассекает таблицу по заданному значению x,
как показано на рис. 5.7, а. Но при построении одномерного закона рас-
пределения p x мы уже просуммировали строки, поэтому F(x) можно
i

строить и по одномерному закону с помощью формулы (3.6), как показа-


но на рис. 5.7, б.
Третий вариант построения F(x) – это через двумерную функцию
распределения F(x, y). По определению 5.2 F(x, y) – это вероятность од-
новременного осуществления двух событий: (X < x) и (Y < y), а F(x) по

208
определению 3.8 – это вероятность одного события: (X < x), а Y может
принимать любое значение: (Y < +∞). Поэтому можно записать, что

F ( x )= lim F ( x, y ) . (5.7)
y →+∞

Это видно также из рисунков 5.6 и 5.2: если на рис. 5.2 двигать точку
(x, y) вверх по вертикальной прямой до бесконечности, то заштрихован-
ная область станет такой, как на рис. 5.6.

yj \ xi

xi
Таблица 5.3 px
Σ i

x
Суммируем p x −
i

x получаем F(x)
Суммируем pij −
получаем F(x)

Рисунок 5.7 – Нахождение F(x) по двумерному (а) и одномерному (б)


законам распределения

Аналогично находится одномерная функция распределения F(y):


• по двумерному закону распределения (т. е. по таблице 5.3) суммиро-
ванием pij выше горизонтальной черты, соответствующей данному
уровню y;
• по одномерному закону p y суммированием вероятностей, соответ-
j

ствующих значениям yj < y;


• по двумерной функции распределения: F ( y ) = lim F ( x , y ) .
x →+∞

Для многомерных величин функции распределения различных коор-

209
динат получим, устремляя к +∞ остальные аргументы в многомерной
функции распределения. Например, из F(x, y, z) можно получить F(x, z),
если y → +∞, и F(x), если y → +∞ и z → +∞. Можно также суммировать
нужные вероятности в многомерных или одномерных законах распреде-
ления.
Пример 5.2 (продолжение). Найти аналитические выражения и по-
строить графики одномерных функций распределения F(x) и F(y).
Решение. У нас есть выражения для одномерных законов p x и i

p y , поэтому воспользуемся ими для построения одномерных функций


j

распределения. Графики F(x) и F(y) для упрощения строим без стрелок, в


таком же виде, как в электронной версии книги. Они показаны на рис. 5.8
и 5.9.

Fx=cumsum(pxi); % одномерная функция распределения X


Fy=cumsum(pyj); % одномерная функция распределения Y
disp('Одномерная функция распределения F(x):')
fprintf('%8.5f<x<=%8.5f: F(x)=%12.8f\n',...
[[-inf xi];[xi inf];[0 Fx]])
disp('Одномерная функция распределения F(y):')
fprintf('%8.5f<y<=%8.5f: F(y)=%12.8f\n',...
[[-inf yj];[yj inf];[0 Fy]])
figure % новая фигура
stairs(xi,Fx,'k')
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',14); % шрифт
title('\bfФункция распределения\rm \itF\rm(\itx\rm)')
xlabel('\itx')
ylabel('\itF\rm(\itx\rm)')
figure % новая фигура
stairs(yj,Fy,'k')
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',14); % шрифт
title('\bfФункция распределения\rm \itF\rm(\ity\rm)')

210
xlabel('\ity')
ylabel('\itF\rm(\ity\rm)')

Одномерная функция распределения F(x):


-Inf<x<=-5.00000: F(x)= 0.00000000
-5.00000<x<=-4.00000: F(x)= 0.00000845
-4.00000<x<=-3.00000: F(x)= 0.00016977
-3.00000<x<=-2.00000: F(x)= 0.00205388
-2.00000<x<=-1.00000: F(x)= 0.01553089
-1.00000<x<= 0.00000: F(x)= 0.07459870
0.00000<x<= 1.00000: F(x)= 0.23329910
1.00000<x<= 2.00000: F(x)= 0.49478584
2.00000<x<= 3.00000: F(x)= 0.75909297
3.00000<x<= 4.00000: F(x)= 0.92302435
4.00000<x<= 5.00000: F(x)= 0.98542296
5.00000<x<= Inf: F(x)= 1.00000000
Одномерная функция распределения F(y):
-Inf<y<= 0.00000: F(y)= 0.00000000
0.00000<y<= 0.20000: F(y)= 0.12325998
0.20000<y<= 0.40000: F(y)= 0.34348914
0.40000<y<= 0.60000: F(y)= 0.61060011
0.60000<y<= 0.80000: F(y)= 0.83051052
0.80000<y<= 1.00000: F(y)= 0.95339653
1.00000<y<= Inf: F(y)= 1.00000000

211
Функция распределения F (x)
1

0.8

0.6
F (x)

0.4

0.2

0
-5 0 5
x

Рисунок 5.8 – График одномерной функции распределения F(x)


Функция распределения F (y)
1.4

1.2

0.8
F (y)

0.6

0.4

0.2

0
0 0.2 0.4 0.6 0.8 1
y

Рисунок 5.9 – График одномерной функции распределения


F(y) 

212
5.1.5. Условные законы и функции распределения
Вернёмся к примеру 5.1. Мы уже умеем находить закон распределе-
ния всех пар обуви по размерам или по кругу клиентов. Это будут одно-
мерные законы распределения. С их помощью можно, например, узнать
распределение всей выпускаемой обуви по размерам. Но гораздо больше
информации нам даст распределение по размерам отдельно мужской
обуви, отдельно женской и отдельно универсальной. Такую информацию
дают условные законы распределения.
Определение 5.3. Условным законом распределения координаты X
случайного вектора {X, Y} называется одномерный закон распределения
X при условии, что Y принимает заданное значение из числа возмож-
ных. 
Обозначается условный закон p x / y , p x / y и т. д. То есть фактиче-
i 1 i 2

ски мы будем иметь столько законов распределения X, сколько есть зна-


чений Y. В применении к примеру 5.1 это значит, что можно построить
закон распределения размеров отдельно мужской обуви, отдельно жен-
ской и отдельно универсальной: всего 3 закона. И наоборот, можно по-
строить закон распределения обуви заданного размера по группам клиен-
тов: какая часть обуви данного размера является мужской, какая – жен-
ской, и какая – обувью универсального назначения. Это значит, что мы
можем задавать условные законы распределения p y / x , p y / x и т. д. j 1 j 2

Определение для этих законов симметричное к определению 5.3.


Для вычисления условного закона распределения обратимся к опре-
делению условной вероятности (2.10). Вероятность
p x / y =P (( X = x i ) / (Y = y j ) ) . Это – условная вероятность, и по формуле
i j

(2.10) она равна:

P ( ( X = x i )∩(Y = y j )) pij
p x / y =P (( X = x i ) / ( Y = y j ) )= = . (5.8)
i j
P (Y = y j ) py j

Из этой формулы следует простое правило вычисления условного


закона распределения p x / y , проиллюстрированное на рис. 5.10. Нужно
i j

213
взять безусловные вероятности pij (j-ю строку таблицы 5.3) и разделить
каждое из этих чисел на их сумму. Но эта сумма уже была вычислена
раньше: это безусловная вероятность p y . Поэтому иногда говорят, что
j

условная вероятность равна безусловной, деленной на вероятность усло-


вия.

Рисунок 5.10 – Вычисление условных законов распределения p x / y i j

Точно так же вычисляется условная вероятность p y / x :


j i

p ij
py /x= . (5.9)
j i
px i

Для случайных векторов с размерностью больше двух можно вычис-


лять условные законы распределения заданных координат при условии,
что оставшиеся принимают заданные значения. Логика тут та же: нужно
делить вероятности многомерного закона на вероятности соответствую-
щих условий.
Пример 5.2 (продолжение). Найти условные законы распределения
p x / y и p y / x . Построить соответствующие графики.
i j j i

Решение. У нас есть двумерный закон pij и одномерные p x и p y .


i j

Условные законы получаем по (5.8) и (5.9). Графики показаны на

214
рис. 5.11 и 5.12. Чтобы не затенять рисунок метками, изобразим много-
угольники условных распределений разными оттенками серого: от чёр-
ного для p x / y и p y / x до почти белого для p x / y и p y / x .
i 1 j 1 i n j k

pxiyj=pij./repmat(pyj',1,length(pxi)); % усл. вероятности


pyjxi=pij./repmat(pxi,length(pyj),1);
figure % новая фигура
hold on % задержка для рисования нескольких графиков
for j=1:length(yj), % рисуем графики
plot(xi,pxiyj(j,:),'k.') % точки
plot(xi,pxiyj(j,:),'Color',ones(1,3)*(j-1)/length(yj))
end
hold off % выключили задержку
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title('\bfУсловные законы распределения\rm \itp_{xi/yj}')
xlabel('\itx_i')
ylabel('\itp_{xi/yj}')
figure % новая фигура
hold on % задержка для рисования нескольких графиков
for i=1:length(xi), % рисуем графики
plot(yj,pyjxi(:,i)','k.') % точки
plot(yj,pyjxi(:,i)','Color',ones(1,3)*(i-1)/length(xi))
end
hold off % выключили задержку
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title('\bfУсловные законы распределения\rm \itp_{yj/xi}')
xlabel('\ity_j')
ylabel('\itp_{yj/xi}')

215
Условные законы распределения pxi/yj
0.35

0.3

0.25

0.2
pxi/yj

0.15

0.1

0.05

0
-5 0 5
xi

Рисунок 5.11 – Условные законы распределения p x / y i j

Условные законы распределения pyj/xi


0.35

0.3

0.25

0.2
pyj/xi

0.15

0.1

0.05

0
0 0.2 0.4 0.6 0.8 1
yj

Рисунок 5.12 – Условные законы распределения p y / x 


j i

216
Зная условные законы распределения p x / y и p y / x , нетрудно по
i j j i

формуле (3.6) построить условные функции распределения F(x/yj) и


F(y/xi).
Пример 5.2 (продолжение). Найти условные функции распределе-
ния F(x/yj) и F(y/xi). Построить графики.
Решение. Строим F(x/yj) и F(y/xi) по (3.6). Как и для условных зако-
нов распределения, рисуем графики разными оттенками серого: от чёр-
ного для наименьших значений условия до почти белого для наи-
больших. Они показаны на рис. 5.13 и 5.14.

Fxyj=cumsum(pxiyj,2)'; % условные функции распределения


Fyxi=cumsum(pyjxi,1);
figure % новая фигура
hold on % задержка для рисования нескольких графиков
for j=1:length(yj), % рисуем графики
stairs(xi',Fxyj(:,j),'Color',ones(1,3)*(j-1)/length(yj))
end
hold off % выключили задержку
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title(['\bfУсловные функции распределения'...
'\rm \itF\rm(\itx\rm,\ity_j\rm)'])
xlabel('\itx_i')
ylabel('\itF\rm(\itx\rm,\ity_j\rm)')
figure % новая фигура
hold on % задержка для рисования нескольких графиков
for i=1:length(xi), % рисуем графики
stairs(yj',Fyxi(:,i),'Color',ones(1,3)*(i-1)/length(xi))
end
hold off % выключили задержку
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title(['\bfУсловные функции распределения'...
'\rm \itF\rm(\ity\rm,\itx_i\rm)'])
xlabel('\ity_j')
ylabel('\itF\rm(\ity\rm,\itx_i\rm)')

217
Условные функции распределения F (x,yj )
1.4

1.2

0.8
F (x,yj )

0.6

0.4

0.2

0
-5 0 5
xi

Рисунок 5.13 – Условные функции распределения F(x,yj)

Условные функции распределения F (y,x )


i
1.4

1.2

0.8
F (y,xi)

0.6

0.4

0.2

0
0 0.2 0.4 0.6 0.8 1
yj

Рисунок 5.14 – Условные функции распределения F(y,xi) 

218
5.1.6. Числовые характеристики
Для одномерных величин мы определяли следующие числовые ха-
рактеристики:
• математическое ожидание (3.15)-(3.16);
• мода (определение 3.12);
• медиана (определение 3.13);
• начальные моменты (3.21)-(3.22);
• центральные моменты (3.25)-(3.26);
• дисперсия (3.32)-(3.33);
• среднеквадратичное отклонение (3.35);
• асимметрия (3.36);
• эксцесс (3.37).
У нас есть одномерные законы распределения, поэтому для каждой
координаты случайного вектора можно определить все эти характеристи-
ки, причём как безусловные, так и условные. Если при этом использовать
таблицу 5.1, то суммы будут одинарными, а если таблицу 5.3 – двойны-
ми. Например, по таблице 5.1 МО считаются так:
n n

m x =∑ x i p i ; my =∑ y i p i ; (5.10)
k =1 k=1

а если использовать таблицу 5.3, то так:


k n k k n n

m x =∑ ∑ x i p ij =∑ xi p x ; m y =∑ ∑ y j p ij =∑ y j p y .
i j
(5.11)
i=1 j =1 i =1 i=1 j=1 j=1

Чтобы посчитать условные МО m x/ y и m y / x , нужно в формулах


j i

(5.11) вместо безусловных вероятностей p x и p y взять условные


i j

p x / y и p y / x . Аналогично считаются безусловные и условные диспер-


i j j i

сии, асимметрии, эксцессы, моды, медианы, начальные и центральные


моменты.
Условные и безусловные МО связаны следующим соотношением,

219
которое мы сформулируем в виде теоремы.
Теорема 5.1 (о полном математическом ожидании). Математиче-
ское ожидание условных МО равно безусловному МО:

M ( m x/ y )= mx ; M ( my / x )=m y .
j i
(5.12)

Доказательство. В силу симметрии достаточно доказать первую


формулу из (5.12). Пусть закон распределения задан в виде таблицы 5.3.
Это не нарушает общности, т. к. от закона в виде таблиц 5.1 и 5.2 всегда
можно перейти к двумерной таблице 5.3.
Найдем условные МО по определению с использованием формулы
(5.8):
k k
pij
m x/ y = ∑ xi p x / y =∑ xi . (5.13)
j
i=1
i j
i=1 py j

Теперь вычисляем МО этих условных МО:


n n k n k
pij
M ( m x/ y )= ∑ m x/ y p y = ∑ ∑ xi p y = ∑ ∑ x i pij =m x , (5.14)
j
j=1
j j
j =1 i=1 py j
j
j=1 i =1

и теорема доказана. 
Для многомерных величин вводят в рассмотрение и другие число-
вые характеристики, связанные с взаимодействием координат.
Определение 5.4. Моментом (начальным моментом) (k1, k2)-го по-
рядка дискретной двумерной случайной величины называется сумма
произведений всех возможных значений координаты X в k1-й степени на
соответствующие значения координаты Y в k2-й степени и на вероятности
их появления:
k n
k k2
M ( X 1Y ) =αk k =∑ ∑ x ki
1 2
1 k
y j 2 pij .  (5.15)
i=1 j =1

Иногда такие моменты называют смешанными, и указывают сум-


марный порядок k1 + k2. Если говорят "смешанный момент 2-го порядка",
то неоднозначностей не возникает: понятно, что это момент (1, 1)-го по-

220
рядка. Но уже для смешанных моментов 3-го порядка (и более высоких)
нужно уточнять, какого порядка момент по каждой координате.
Если закон распределения задан в виде одномерной таблицы 5.1, то
в формуле (5.15) вместо двойной суммы будет одинарная. Для m-мерных
случайных величин при задании начального момента нужно указывать
степени по каждой переменной. В частности, МО каждой координаты –
это начальный момент 1-го порядка по данной координате и 0-го по всем
остальным.
Определение 5.5. Центральным моментом (k1, k2)-го порядка дис-
кретной двумерной случайной величины называется сумма произведе-
ний всех возможных значений координаты X, из которых вычтено её МО,
в k1-й степени на соответствующие значения координаты Y, из которых
вычтено её МО, в k2-й степени и на вероятности их появления
k n
k k
M ( X̊ k Y̊ k ) =μ k k =∑ ∑ ( xi −m x ) ( y j −m y ) pij . 
1 2

1 2
1 2
(5.16)
i=1 j=1

При использовании таблицы 5.1 вместо таблицы 5.3 в формуле


(5.16) будет одинарная сумма вместо двойной. Как и начальные момен-
ты, моменты (5.16) часто называют смешанными с указанием суммарно-
го порядка. Смешанный центральный момент 2-го порядка всего один:
µ11, для моментов высших порядков нужно указывать порядок по X и Y.
Это нужно также делать для величин размерности больше 2.
Центральные моменты 1-го порядка по какой-либо координате и 0-
го порядка по остальным всегда равны нулю. Это следует из свой-
ства 3.12. Как и для одномерных величин, центральные моменты можно
выразить через начальные, если раскрыть и перемножить многочлены от
xi и yj в формуле (5.16).
Наиболее часто в приложениях используется смешанный централь-
ный момент 2-го порядка по каким-либо двум координатам и 0-го поряд-
ка по остальным, а также безразмерная величина, с ним связанная.
Определение 5.6. Ковариационным моментом двух заданных коор-
динат случайного вектора X называется смешанный центральный мо-
мент 2-го порядка по этим координатам и 0-го порядка по остальным. 

221
Для двумерного вектора ковариационный момент всего один; его
обозначают mxy:
k n
m xy= M ( X̊ Y̊ ) =μ11 =∑ ∑ ( xi −m x )( y j −m y ) p ij . (5.17)
i=1 j =1

Он характеризует взаимодействие координат X и Y случайного век-


тора. Если с ростом значений X значения Y "в среднем" также возраста-
ют, то mxy > 0. Слова "в среднем" нужно понимать так. Пусть в табли-
це 5.3 значения xi увеличиваются слева направо, а yj – сверху вниз. Если
при этом бóльшие вероятности pij будут в клетках вдоль главной диагона-
ли, а меньшие – в правом верхнем и левом нижнем углах, как показано
на рис. 5.15, то "в среднем" с ростом X возрастает и Y, и в этом случае
mxy > 0.

yj \ xi возрастает меньшие вероятности


возрастает

Таблица 5.3
mxy > 0

меньшие вероятности большие вероятности

Рисунок 5.15 – В этом законе распределения


ковариационный момент mxy > 0

Для трёхмерного вектора существует 3 ковариационных момента:


mxy, myz и mxz. Нетрудно подсчитать, что в m-мерной случайной величине
2
всего существует C m различных смешанных центральных моментов
2-го порядка. Обычно их записывают в виде симметричной матрицы раз-

222
мером m × m, в которой на главной диагонали размещают дисперсии.
Такая матрица называется ковариационной.
Определение 5.7. Ковариационной матрицей K случайного вектора
X размерности m называется симметричная матрица размером m × m,
каждый элемент которой kij является центральным моментом 2-го поряд-
ка: 1-го по координате Xi и 1-го по Xj:

Dx mx x … mx x

( )
1 1 2 1 m

mx x Dx … mx x
K= . 
2 1 2 2 m
(5.18)
… … … …
mx x m 1 mx xm 2 … Dx m

Из (5.17) следует, что эта матрица действительно будет симметрич-


ной. Напоминаем: здесь верхний индекс – номер координаты.
Асимметрия и эксцесс были введены в рассмотрение как безразмер-
ные величины, связанные с 3-м и 4-м центральными моментами. Точно
так же для ковариационного момента тоже можно ввести в рассмотрение
безразмерную величину, с ним связанную. Она называется коэффициен-
том корреляции.
Определение 5.8. Коэффициентом корреляции двух заданных коор-
динат случайного вектора X называется отношение ковариационного мо-
мента для этих координат к произведению СКО этих координат:
μk k
ρk k = .  1 2
(5.19)
1 2
σk σk 1 2

Для двумерной величины коэффициент корреляции ρxy всего один,


2
для m-мерной есть C m различных в общем случае коэффициентов кор-
реляции, по одному для каждой пары переменных. Обычно их записыва-
ют в виде симметричной матрицы с единицами на главной диагонали, ко-
торая называется корреляционной.
Определение 5.9. Корреляционной матрицей R случайного вектора
X размерности m называется симметричная матрица размером m × m,
каждый недиагональный элемент которой rij является коэффициентом

223
корреляции координат Xi и Xj, а на главной диагонали находятся едини-
цы:

( )
ρx x
1 2 … ρx x1 m

ρ 1 … ρx x
R= x x . 
2 1 2 m
(5.20)
… … … …
ρx x m 1 ρx x
m 2 … 1

Корреляционная матрица отличается от ковариационной нормиров-


кой: чтобы получить R, нужно каждый kij элемент K разделить на произ-
ведение СКО переменных с номерами i и j.
Пример 5.2 (окончание). Найти условные и безусловные МО, дис-
персии, асимметрии, эксцессы, а также ковариационный момент и коэф-
фициент корреляции двумерной дискретной случайной величины {X, Y}.
Безусловные характеристики напечатать, а условные изобразить на гра-
фиках. Проверьте самостоятельно теорему о полном МО.
Решение. В нашем распоряжении есть все необходимые данные:
безусловные и условные законы распределения и формулы для вычисле-
ния нужных числовых характеристик. Вычисляем. Условные характери-
стики рисуем на графиках: МО – на рис. 5.16, дисперсии – рис. 5.17,
асимметрии – рис. 5.18 и эксцессы – рис. 5.19.

mx=sum(xi.*pxi);
my=sum(yj.*pyj);
disp('Безусловные математические ожидания:')
fprintf('Mx=%16.10f; My=%16.10f\n',mx,my)
mxyj=sum(pxiyj.*repmat(xi,length(yj),1),2)'; % усл. Mx/yj
myxi=sum(pyjxi.*repmat(yj',1,length(xi))); % усло. My/xi
figure % новая фигура
subplot(1,2,1) % левая половина графика
plot(yj,mxyj,'k',yj,mxyj,'k.') % график Mx/yj
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title('\bfУсловные МО\rm \itm_{x\rm/\ityj}')

224
xlabel('\ity_j')
ylabel('\itm_{x\rm/\ityj}')
subplot(1,2,2) % правая половина графика
plot(xi,myxi,'k',xi,myxi,'k.') % график My/xi
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title('\bfУсловные МО\rm \itm_{y\rm/\itxi}')
xlabel('\itx_i')
ylabel('\itm_{y\rm/\itxi}')
Dx=sum((xi-mx).^2.*pxi);
Dy=sum((yj-my).^2.*pyj);
disp('Безусловные дисперсии:')
fprintf('Dx=%16.10f; Dy=%16.10f.\n',Dx,Dy)
disp('Безусловные среднеквадратичные отклонения:')
fprintf('sx=%16.10f; sy=%16.10f\n',Dx^0.5,Dy^0.5)
Dxyj=sum(pxiyj.*(repmat(xi,length(yj),1)-...
repmat(mxyj',1,length(xi))).^2,2)'; % условные Dx/yj
Dyxi=sum(pyjxi.*(repmat(yj',1,length(xi))-...
repmat(myxi,length(yj),1)).^2); % условные Dy/xi
figure % новая фигура
subplot(1,2,1) % левая половина графика
plot(yj,Dxyj,'k',yj,Dxyj,'k.') % график Dx/yj
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title('\bfУсловные дисперсии\rm \itD_{x\rm/\ityj}')
xlabel('\ity_j')
ylabel('\itD_{x\rm/\ityj}')
subplot(1,2,2) % правая половина графика
plot(xi,Dyxi,'k',xi,Dyxi,'k.') % график Dy/xi
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title('\bfУсловные дисперсии\rm \itD_{y\rm/\itxi}')
xlabel('\itx_i')
ylabel('\itD_{y\rm/\itxi}')

225
Ax=sum((xi-mx).^3.*pxi)/Dx^1.5;
Ay=sum((yj-my).^3.*pyj)/Dy^1.5;
disp('Безусловные асимметрии:')
fprintf('Ax=%16.10f; Ay=%16.10f\n',Ax,Ay)
Axyj=sum(pxiyj.*(repmat(xi,length(yj),1)-...
repmat(mxyj',1,length(xi))).^3,2)'./Dxyj.^1.5; % Ax/yj
Ayxi=sum(pyjxi.*(repmat(yj',1,length(xi))-...
repmat(myxi,length(yj),1)).^3)./Dyxi.^1.5; % Ay/xi
figure % новая фигура
subplot(1,2,1) % левая половина графика
plot(yj,Axyj,'k',yj,Axyj,'k.') % график Ax/yj
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title('\bfУсловные асимметрии\rm \ita_{x\rm/\ityj}')
xlabel('\ity_j')
ylabel('\ita_{x\rm/\ityj}')
subplot(1,2,2) % правая половина графика
plot(xi,Ayxi,'k',xi,Ayxi,'k.') % график Ay/xi
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title('\bfУсловные асимметрии\rm \ita_{y\rm/\itxi}')
xlabel('\itx_i')
ylabel('\ita_{y\rm/\itxi}')
Ex=sum((xi-mx).^4.*pxi)/Dx^2-3;
Ey=sum((yj-my).^4.*pyj)/Dy^2-3;
disp('Безусловные эксцессы:')
fprintf('Ex=%16.10f; Ey=%16.10f\n',Ex,Ey)
Exyj=sum(pxiyj.*(repmat(xi,length(yj),1)-...
repmat(mxyj',1,length(xi))).^4,2)'./Dxyj.^2-3; % Ex/yj
Eyxi=sum(pyjxi.*(repmat(yj',1,length(xi))-...
repmat(myxi,length(yj),1)).^4)./Dyxi.^2-3; % Ey/xi
figure % новая фигура
subplot(1,2,1) % левая половина графика
plot(yj,Exyj,'k',yj,Exyj,'k.') % график Ex/yj

226
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title('\bfУсловные эксцессы\rm \ite_{x\rm/\ityj}')
xlabel('\ity_j')
ylabel('\ite_{x\rm/\ityj}')
subplot(1,2,2) % правая половина графика
plot(xi,Eyxi,'k',xi,Eyxi,'k.') % график Ey/xi
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title('\bfУсловные эксцессы\rm \ite_{y\rm/\itxi}')
xlabel('\itx_i')
ylabel('\ite_{y\rm/\itxi}')
mxy=sum(sum(pij.*repmat(xi-mx,length(yj),1).*...
repmat(yj'-my,1,length(xi)))); % 2-й смешанный момент
rxy=mxy/(Dx*Dy).^0.5; % коэффициент корреляции
fprintf('Второй смешанный момент Mxy=%16.10f\n',mxy)
fprintf('Коэффициент корреляции Rxy=%16.10f\n',rxy)
Безусловные математические ожидания:
Mx= 1.5120130957; My= 0.4277487429
Безусловные дисперсии:
Dx= 2.0034430242; Dy= 0.0729961979.
Безусловные среднеквадратичные отклонения:
sx= 1.4154303318; sy= 0.2701780856
Безусловные асимметрии:
Ax= -0.0549555310; Ay= 0.1998704942
Безусловные эксцессы:
Ex= -0.1194545532; Ey= -0.6972617889
Второй смешанный момент Mxy= 0.0571622676
Коэффициент корреляции Rxy= 0.1494757807

227
Условные МО mx/yj Условные МО my/xi
2 0.7

1.8 0.6

1.6 0.5

my/xi
mx/yj

1.4 0.4

1.2 0.3

1 0.2
0 0.5 1 -5 0 5
yj xi

Рисунок 5.16 – Условные математические ожидания

Условные дисперсии D x/yj Условные дисперсии D y/xi


1.98 0.08

0.075
1.96
0.07
D y/xi
D x/yj

1.94 0.065

0.06
1.92
0.055

1.9 0.05
0 0.5 1 -5 0 5
yj xi

Рисунок 5.17 – Условные дисперсии

228
Условные асимметрии ax/yj Условные асимметрии ay/xi
-0.02 0.8

-0.04 0.6

-0.06 0.4

ay/xi
ax/yj

-0.08 0.2

-0.1 0

-0.12 -0.2
0 0.5 1 -5 0 5
yj xi

Рисунок 5.18 – Условные асимметрии

Условные эксцессы ex/yj Условные эксцессы ey/xi


-0.06 0

-0.08
-0.2
-0.1
ey/xi
ex/yj

-0.12 -0.4

-0.14
-0.6
-0.16

-0.18 -0.8
0 0.5 1 -5 0 5
yj xi

Рисунок 5.19 – Условные эксцессы 

229
5.1.7. Независимость и некоррелированность
Для событий мы вводили понятия зависимости и независимости
(определение 2.19). Событие B считается независимым от A, если P(B) не
зависит от того, произошло A или нет. Согласно следствию 2.2 вероят-
ность произведения независимых событий равна произведению вероят-
ностей. Аналогичное понятие можно ввести и для многомерных случай-
ных величин, в частности, дискретных. Здесь событием является приня-
тие той или иной координатой конкретного значения. Поэтому независи-
мость, например, координаты X от Y состоит в том, что P(X = xi) не зави-
сит от того, какое значение принимает Y, и это должно выполняться для
всех xi. Иными словами, закон распределения X не должен зависеть от
того, при каком yj он вычисляется.
Определение 5.10. Координата X случайного вектора {X, Y} называ-
ется независимой от координаты Y, если любой условный закон распре-
деления p x / y совпадает с безусловным p x :
i j i

∀ y j ∀ xi : px / y = px . 
i j i (5.21)
Теорема 5.2. Если в двумерном векторе {X, Y} координата X не зави-
сит от Y, то и Y не зависит от X.
Доказательство. Если X не зависит от Y, то все условные законы
распределения p x / y одинаковые и совпадают с безусловным p x . Тогда
i j i

из (5.8) следует, что

∀ x i ∀ y j : pij = p x p y , i j
(5.22)

т. е. двумерный закон распределения равен произведению одномерных


(аналог следствия 2.2). Но в этом случае симметричная к (5.8) формула
(5.9) дает:
p ij
∀ x i∀ y j : p y / x = = py , (5.23)
j i
px i
j

а равенство всех условных законов p y / x распределения безусловному j i

p y и означает независимость Y от X. 
j

230
В двумерной величине с независимыми координатами все возмож-
ные значения (с ненулевыми вероятностями) всегда можно занести в
ячейки прямоугольной таблицы, такой, как таблица 5.3. В матрице веро-
ятностей pij все строки и столбцы будут пропорциональны, а её элементы
будут вычисляться по (5.22). Т. е. если X и Y независимые, то двумерный
закон распределения однозначно восстанавливается по одномерным.
Поэтому, если в прикладных исследованиях удастся доказать независи-
мость координат двумерной случайной величины, то это позволит значи-
тельно сократить объём необходимой информации: вместо матрицы дву-
мерного закона распределения достаточно хранить два вектора одномер-
ных законов.
Пример 5.3. Если в примере 5.2 в формуле (5.3) среднее слагаемое в
показателе экспоненты отсутствует:
−0,25 ( x i −1,5) 2−5 ( y j−0,4 )2
pij = ke , (5.24)

то координаты X и Y будут независимыми. Действительно, в этом случае


все pij представимы в виде произведения двух сомножителей, один из ко-
торых зависит только от xi, а другой – только от yj. Значит, все условные
законы распределения совпадают с безусловными, и координаты X и Y
независимы. Проверьте это самостоятельно. Все условные величины: за-
коны и функции распределения, числовые характеристики будут совпа-
дать с безусловными. См. также далее многомерное нормальное распре-
деление, раздел 5.2.4. 
Для величин размерности больше 2 можно рассматривать зависи-
мость и независимость различных координат. Например, может оказать-
ся, что в трёхмерном векторе {X, Y, Z} координаты X и Y зависимы между
собой, но каждая из них независима с Z. Имеем 2 группы координат, в
каждой из которых координаты зависимы между собой, но координаты
из разных групп независимы. В этом случае вместо 3-мерной таблицы,
задающей закон распределения для {X, Y, Z}, достаточно иметь 2-мерную
таблицу для {X, Y} и 1-мерную для Z. Если же все три координаты неза-
висимы, то для полного статистического описания {X, Y, Z} вообще до-

231
статочно иметь 3 одномерных закона распределения (по каждой коор-
динате в отдельности). Аналогично решается вопрос для многомерных
величин бóльших размерностей. Иногда удается разделить m координат
на группы взаимно независимых координат.
Следующее понятие, которое связано с независимостью – это некор-
релированность.
Определение 5.11. Две координаты случайного Xi и Xj вектора X на-
зываются некоррелированными, если их ковариационный момент, а, сле-
довательно, и коэффициент корреляции равны нулю. 
Теорема 5.3. Если в двумерном векторе {X, Y} координаты X и Y не-
зависимые, то они некоррелированные.
Доказательство. Пусть X и Y независимые. Тогда двумерные веро-
ятности равны произведению одномерных (5.22), и ковариационный мо-
мент по (5.17) равен произведению 1-х центральных моментов коорди-
нат:
k n k n
m xy= ∑ ∑ ( x i −m x )( y j −m y ) pij =∑ ( xi − mx ) p x ∑ ( y j −m y ) p y .
i j
(5.25)
i =1 j=1 i=1 j =1

Но по свойству 3.17 1-й центральный момент всегда равен нулю,


поэтому mxy = 0, а в силу (5.19) и коэффициент корреляции ρxy = 0. 
Замечание 5.1. Обратное, вообще говоря, неверно. Координаты X и
Y могут быть зависимыми, но некоррелированными. В таблице 5.4 при-
веден двумерный закон распределения такой величины.

Таблица 5.4. Пример зависимых, но некоррелированных величин

yj\xi –1 0 1
–1 0 0,2 0
0 0,2 0,2 0,2
1 0 0,2 0

232
Из-за симметрии точек и равенства вероятностей здесь mxy = 0, но
условные законы распределения, например, p x /−1 =( 0 1 0 )
i
и

p x / 0=
i ( 13
1 1
3 3 )
отличаются. Поэтому здесь X и Y являются некоррели-

рованными, но зависимыми. 
Т. о., класс некоррелированных величин более обширный, чем класс
независимых. Можно сказать, что множество независимых величин яв-
ляется подмножеством множества некоррелированных величин. Но для
некоторых величин эти понятия эквивалентны (см. раздел 5.2.4).

5.2. Непрерывные случайные векторы


Как и в одномерном случае, здесь вместо законов распределения бу-
дут плотности, вместо сумм – интегралы, а вместо конечных вероятно-
стей – бесконечно малые. Функции распределения применимы и для не-
прерывных случайных величин, но они уже будут не ступенчатыми (дис-
кретными), а непрерывными.

5.2.1. Многомерная функция и плотность распределения


Для непрерывного случайного вектора мы не можем задать вероят-
ность принятия им конкретного значения: их здесь слишком много. Но
можно задать вероятность того, что каждая координата не превышает не-
которого конкретного значения. Тем самым мы введём в рассмотрение
многомерную функцию распределения F(x) (определение 5.2). Если для
дискретных векторов она была дискретной, то для непрерывных будет
непрерывной. Но все свойства 5.1-5.4 по-прежнему имеют место.
Вместо многомерного закона распределения для непрерывного век-
тора вводится в рассмотрение многомерная плотность распределения.
Определение 5.12. Двумерной плотностью распределения f(x,y)
случайного вектора {X, Y} называется предел отношения вероятности по-
падания вектора {X, Y} в малую область ∆S, когда ∆S → 0, стягиваясь в
точку (x, y):

233
P ( { X , Y } ∈Δ S )
f ( x, y ) = lim .  (5.26)
Δ S →0 ΔS
Конечно, предполагается,
y что такой предел существует и
dS не зависит ни от вида области
y + ∆y ∆S, ни от того, как именно она
стягивается в точку. Поэтому
y
можно взять ∆S = ∆x∆y, как пока-
зано на рис. 5.20. Учитывая гео-
x
метрический смысл двумерной
0 x x + ∆x функции распределения
(рис. 5.2), вероятность попада-
Рисунок 5.20 – К выводу двумерной ния в заштрихованный прямо-
плотности распределения угольник на рис. 5.20 выражает-
ся через функцию распределения так:

P ( { X , Y } ∈Δ S ) =F ( x+Δ x , y+ Δ y ) −
(5.27)
− F ( x , y+ Δ y ) −F ( x+Δ x , y )+ F ( x , y ) .

Тогда по теореме о смешанных частных производных, которая изу-


чается в курсе анализа, имеем свойство 5.5: двумерная плотность рас-
пределения равна второй смешанной частной производной от двумерной
функции распределения:
2
∂ F ( x , y)
f ( x, y ) = .  (5.28)
∂ x∂ y
Аналогично вычисляется m-мерная плотность распределения:
m
∂ F ( x)
f ( x )= . (5.29)
∂ x1 ∂ x2 … ∂ xm

Здесь у нас нет номера точки, как в дискретном векторе, поэтому номер
координаты мы поставили внизу.

234
Другие свойства многомерной плотности распределения.
Свойство 5.6. Так как многомерная функция распределения F(x)
неубывающая по каждому из своих аргументов, то f(x) ≥ 0. 
Свойство 5.7. Из (5.26) и определения двойного интеграла следует,
что вероятность попадания вектора {X, Y} в некоторую область D есть
двойной интеграл от двумерной плотности распределения f(x, y) по этой
области:

P ( { X , Y } ∈D ) =∬ f ( x , y ) dS .  (5.30)
( D)

По аналогии вероятность попадания трёхмерного вектора в некото-


рую пространственную область равна тройному интегралу от f(x, y, z) по
этой области, а для m-мерного – m-мерному:

P ( X ∈Ωm )= ∫ f ( x ) d Ωm . (5.31)
( Ωm )

Свойство 5.8. Если в формуле (5.30) взять в качестве области инте-


грирования бесконечную область, показанную штриховкой на рис. 5.2, то
вероятность попадания в неё по определению 5.2 есть функция распреде-
ления:
x y

F ( x , y ) = ∫ ∫ f ( ξ , η) d ξ d η.  (5.32)
−∞ −∞

Аналогичная формула имеет место для m-мерной величины: чтобы полу-


чить функцию распределения F(x), нужно интегрировать по каждой
координате от –∞ до текущего значения.
Свойство 5.9. Если проинтегрировать плотность распределения по
всей бесконечной области (двумерной или многомерной), получим веро-
ятность попадания нашего вектора куда-нибудь, т. е. 1 (условие нор-
мировки):
+∞ +∞

∫ ∫ f ( x , y ) dxdy=1.  (5.33)
−∞ −∞

235
Пример 5.4. Двумерная случайная величина {X, Y} равномерно рас-
пределена в треугольнике, ограниченном осями координат и прямой
3x + 4y + 12 = 0. Найти выражение для двумерной плотности распределе-
ния и построить её график. Построить график двумерной функции рас-
пределения.
Решение. Случайная величина имеет равномерное распределение,
поэтому внутри треугольника значение плотности распределения равно
постоянной величине: f(x, y) = c, а вне его плотность распределения равна
нулю. Значение c находим из условия нормировки (5.33). Оно будет
обратным по величине к площади треугольника: c = 1 / S∆.
Вычисляем c и строим график плотности распределения (рис. 5.21).

syms x y % символические переменные


MyLine=3*x+4*y+12; % левая часть уравнения
sx=solve(MyLine,x); % решаем относительно x
sy=solve(MyLine,y); % решаем относительно y
x0s=subs(sx,y,sym('0')); % точка пересечения с осью OX
y0s=subs(sy,x,sym('0')); % точка пересечения с осью OY
x0=eval(x0s); y0=eval(y0s); % преобразовали в число
xl=min(0,x0); xr=max(0,x0); % границы графика
yl=min(0,y0); yr=max(0,y0);
xmin=xl-0.1*(xr-xl); xmax=xr+0.1*(xr-xl); % границы
ymin=yl-0.1*(yr-yl); ymax=yr+0.1*(yr-yl);
S=abs(x0s*y0s/2); % площадь треугольника
cs=1/S; % нормировочный коэффициент
c=eval(cs);
fprintf('Площадь треугольника S=%s;\n',char(S))
fprintf('Внутри треугольника f(x,y)=%s;\n',char(cs))
disp('Вне треугольника f(x,y)=0')
figure; % новая фигура
plot3([0 x0 0 0],[0 0 y0 0],[c c c c],'k',...
[0 x0 0 0],[0 0 y0 0],[0 0 0 0],'k',...
[0 0],[0 0],[0 c],'k',[x0 x0],[0 0],[0 c],'k',...
[0 0],[y0 y0],[0 c],'k')
set(get(gcf,'CurrentAxes'),...

236
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
da=daspect; % получили масштабы по осям
da(1:2)=min(da(1:2)); % одинаковые масштабы
daspect(da); % установили одинаковые масштабы
xlim([xmin xmax]); % границы по осям
ylim([ymin ymax]);
box on % ограничивающий прямоугольник
title('\bfДвумерная плотность распределения') % заголовок
xlabel('\itx') % метки осей
ylabel('\ity')
zlabel('\itf\rm(\itx\rm,\ity\rm)')
Площадь треугольника S=6;
Внутри треугольника f(x,y)=1/6;
Вне треугольника f(x,y)=0

Двумерная плотность распределения

0.2

0.15
f(x,y)

0.1

0.05

0
0 0
-1 -1
-2
-2 -3
-3 -4
y x

Рисунок 5.21 – График двумерной плотности распределения

Теперь перейдём к рисованию двумерной функции распределения.


Нам нужно для каждой точки (x, y) вычислить интеграл от f(x, y) по обла-

237
сти, показанной штриховкой на рис. 5.2. При этом в области интегриро-
вания могут оказаться разные части треугольника, в котором распределе-
на наша величина. Проще всего решить задачу путём дискретизации ве-
личины. Для этого построим достаточно мелкую двумерную сетку, в ко-
торой зададим постоянные ненулевые значения вероятностей во всех
точках внутри треугольника. Значения вероятностей выберем из условия
нормировки, чтобы их сумма была равна 1. Во всех точках вне треуголь-
ника оставим нулевые вероятности. Т. е. получим таблицу вида 5.3 с
большим количеством клеток по обоим направлениям. Теперь, как и для
дискретной величины, значения функции распределения можно полу-
чить, дважды применяя функцию cumsum. График двумерной функции
распределения показан на рис. 5.22.

xt=linspace(xmin,xmax,50); % точки по оси OX


yt=linspace(ymin,ymax,50); % точки по оси OY
[Xt,Yt]=meshgrid(xt,yt); % сетка
Zt=inpolygon(Xt,Yt,[0 x0 0 0],[0 0 y0 0]); % 1 внутри
Zt=Zt/sum(sum(Zt)); % сумма по всем точкам равна 1
Fxy=cumsum(cumsum(Zt,1),2); % F(x,y)
figure; % новая фигура
surf(Xt,Yt,Fxy) % график двумерной функции распределения
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
xlim([xmin xmax]); % границы по осям
ylim([ymin ymax]);
zlim([0 1]);
da=daspect; % получили масштабы по осям
da(1:2)=min(da(1:2)); % одинаковые масштабы
daspect(da); % установили одинаковые масштабы
box on % ограничивающий прямоугольник
title('\bfДвумерная функция распределения') % заголовок
xlabel('\itx') % метки осей
ylabel('\ity')
zlabel('\itF\rm(\itx\rm,\ity\rm)')

238
Двумерная функция распределения

1
F (x,y)

0.5

0
0 0
-1 -1
-2
-2 -3
-3 -4
y x

Рисунок 5.22 – График двумерной функции распределения 

5.2.2. Одномерные функции и плотности распределения


Начнём с одномерных функций распределения. Используя (5.7), по-
лучаем:
x +∞

F ( x ) =F ( x ,+∞ ) =∫ d ξ ∫ f ( ξ , η) dη ;
−∞ −∞
y +∞ (5.34)
F ( y ) = F (+∞, y ) =∫ d η ∫ f ( ξ , η ) d ξ .
−∞ −∞

Теперь, дифференцируя по x (или, соответственно, по y), получаем


одномерную плотность распределения. Производная от определённого
интеграла по переменному верхнему пределу равна подынтегральной
функции, вычисленной на верхнем пределе, поэтому

239
+∞
dF ( x )
f ( x)= =∫ f ( x , y ) dy ;
dx −∞
+∞ (5.35)
dF ( y )
f ( y )= = ∫ f ( x , y ) dx .
dy −∞

Значит, чтобы получить из двумерной плотности распределения


f(x,y) одномерную по какой-либо координате, нужно её проинтегрировать
по другой координате по интервалу (–∞, +∞). По сути дела, если мы в
условии нормировки (5.33) перейдём от двойного интеграла к повторно-
му:
+∞ +∞ +∞ +∞

−∞ −∞
(
∫ ∫ f ( x , y ) dx dy= ∫ ∫ f ( x , y ) dy
−∞ −∞
) dx=1, (5.36)

то внутренний интеграл даст одномерную плотность распределения. Для


дискретных величин мы складывали вероятности (раздел 5.1.3.), для не-
прерывных интегрируем плотность распределения.
Обобщая на многомерные величины, отметим без доказательства,
что плотность распределения некоторых координат m-мерного вектора X
можно получить, интегрируя m-мерную плотность распределения f(x) по
остальным координатам по интервалам (−∞, +∞).
Пример 5.4 (продолжение). Найти одномерные функции и плотно-
сти распределения и построить их графики.
Решение. Рассмотрим вычисление f(x). Нам нужно интегрировать
f(x, y) по y в интервале (−∞, +∞). Проведём вертикальную линию (линию
интегрирования), соответствующую заданному значению x, как показано
на рис. 5.23. Сдвигая её по горизонтали, т. е. задавая различные значения
x, мы после интегрирования вдоль этой прямой получим значение f(x)
при заданном x. Подынтегральная функция f(x, y) = c внутри треугольника
и равна 0 вне его. Поэтому, если x ∉ [xl; xr], то f(x) = 0. Если же
x ∈ [xl; xr], то нужно просто умножить c = const на ширину той части
интервала интегрирования, в которой f(x, y) = c. Эта ширина зависит от x.

240
Она равна длине той части вертикальной прямой, которая попадает в за-
штрихованный треугольник.

y
x
0 x

линия интегрирования
при вычислении f(x)

Рисунок 5.23 – Линия интегрирования при вычислении


f(x)

Плотность распределения f(y) вычисляется так же. Вычисляем одно-


мерные плотности распределения и строим их графики (рис. 5.24 и 5.25).

syms x y % символические переменные


fxs=sy*cs*sign(y0); % символическое выражение для f(x)
fys=sx*cs*sign(x0); % символическое выражение для f(y)
disp('Одномерные плотности распределения:')
fprintf('f(x)=%s для %d<=x<=%d;\n',char(fxs),xl,xr);
disp('f(x)=0 вне этого интервала')
fprintf('f(y)=%s для %d<=y<=%d;\n',char(fys),yl,yr);
disp('f(y)=0 вне этого интервала')
xt=linspace(xmin,xmax,1000); % точки по оси OX
yt=linspace(ymin,ymax,1000); % точки по оси OY
fx=subs(fxs,x,xt); % f(x)
fx(find((xt<xl)|(xt>xr)))=0; % 0 вне интервала [xl,xr]
fy=subs(fys,y,yt); % f(y)

241
fy(find((yt<yl)|(yt>yr)))=0; % 0 вне интервала [yl,yr]
figure; % новая фигура
plot(xt,fx,'k') % график f(x)
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title(['\bfОдномерная плотность распределения'...
'\rm \itf\rm(\itx\rm)'])
xlabel('\itx') % метки осей
ylabel('\itf\rm(\itx\rm)')
figure; % новая фигура
plot(yt,fy,'k') % график f(y)
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title(['\bfОдномерная плотность распределения'...
'\rm \itf\rm(\ity\rm)'])
xlabel('\ity') % метки осей
ylabel('\itf\rm(\ity\rm)')

Одномерные плотности распределения:


f(x)=1/8*x+1/2 для -4<=x<=0;
f(x)=0 вне этого интервала
f(y)=2/9*y+2/3 для -3<=y<=0;
f(y)=0 вне этого интервала

242
Одномерная плотность распределения f(x)
0.5

0.4

0.3
f(x)

0.2

0.1

0
-5 -4 -3 -2 -1 0 1
x

Рисунок 5.24 – Одномерная плотность распределения f(x)

Одномерная плотность распределения f(y)


0.7

0.6

0.5

0.4
f(y)

0.3

0.2

0.1

0
-3.5 -3 -2.5 -2 -1.5 -1 -0.5 0 0.5
y

Рисунок 5.25 – Одномерная плотность распределения f(y)

243
Теперь переходим к функциям распределения. Если бы нужно было
только построить графики, можно было бы воспользоваться готовой дву-
мерной функцией распределения: взять в ней последнюю строку и по-
следний столбец. Но нам нужно найти аналитические выражения для
F(x) и F(y), поэтому интегрируем f(x) и f(y), подставляем в них нужные
точки и рисуем графики (рис. 5.26 и 5.27).

Fxs=int(fxs,x,xl,x); % символическое выражение для F(x)


Fys=int(fys,y,yl,y); % символическое выражение для F(y)
disp('Одномерные функции распределения:')
fprintf('F(x)=0, если x<%d;\n',xl)
fprintf('F(x)=%s, если %d<=x<=%d;\n',char(Fxs),xl,xr)
fprintf('F(x)=1, если x>%d;\n',xr)
fprintf('F(y)=0, если y<%d;\n',yl)
fprintf('F(y)=%s, если %d<=y<=%d;\n',char(Fys),yl,yr)
fprintf('F(y)=1, если y>%d.\n',yr)
Fx=subs(Fxs,x,xt); % F(x)
Fx(find(xt<xl))=0; % слева F(x)=0
Fx(find(xt>xr))=1; % справа F(x)=1
Fy=subs(Fys,y,yt); % F(y)
Fy(find(yt<yl))=0; % слева F(y)=0
Fy(find(yt>yr))=1; % справа F(y)=1
figure; plot(xt,Fx,'k') % график F(x)
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title(['\bfОдномерная функция распределения'...
'\rm \itF\rm(\itx\rm)'])
xlabel('\itx') % метки осей
ylabel('\itF\rm(\itx\rm)')
xlim([xmin xmax]); ylim([0 1.1])
figure; plot(yt,Fy,'k') % график F(y)
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт

244
title(['\bfОдномерная функция распределения'...
'\rm \itF\rm(\ity\rm)'])
xlabel('\ity') % метки осей
ylabel('\itF\rm(\ity\rm)')
xlim([ymin ymax]); ylim([0 1.1])
Одномерные функции распределения:
F(x)=0, если x<-4;
F(x)=1/16*x^2+1+1/2*x, если -4<=x<=0;
F(x)=1, если x>0;
F(y)=0, если y<-3;
F(y)=1/9*y^2+1+2/3*y, если -3<=y<=0;
F(y)=1, если y>0.

Одномерная функция распределения F (x)

0.8

0.6
F (x)

0.4

0.2

0
-4 -3.5 -3 -2.5 -2 -1.5 -1 -0.5 0
x

Рисунок 5.26 – Одномерная функция распределения F(x)

245
Одномерная функция распределения F (y)

0.8

0.6
F (y)

0.4

0.2

0
-3 -2.5 -2 -1.5 -1 -0.5 0
y

Рисунок 5.27 – Одномерная функция распределения F(y) 

5.2.3. Условные функции и плотности распределения


Определение 5.13. Условной плотностью распределения координа-
ты X случайного вектора {X, Y} называется одномерная плотность рас-
пределения X при условии, что Y принимает заданное значение из числа
возможных. 
Обозначаются условные плотности распределения f(x/y) и f(y/x).
Каждая из них является функцией двух аргументов: собственно аргумен-
та и параметра (значения другой переменной). Рассмотрим, как вычисля-
ется, например, f(x/y). Для этого найдём вероятность попадания вектора
{X, Y} в бесконечно малую площадь dS = dxdy, такую, как показана на
рис. 5.20, если заменить малые конечные приращения бесконечно малы-
ми. С одной стороны, в силу определения 5.11:

P ( { X , Y } ∈dS ) = f ( x , y ) dS . (5.37)

246
С другой стороны, мы можем рассматривать событие {X, Y} ∈ dS как
произведение двух событий: (X ∈ [x, x + dx]) ∩ (Y ∈ [y, y + dy]). По теоре-
ме 2.2 о вероятности произведения двух событий имеем другое выраже-
ние:
P ( { X , Y } ∈dS ) = P ( ( X ∈ [ x , x+dx ] ) ∩( Y ∈[ y , y+ dy ] ) )=
= P ( X ∈[ x , x+dx ] )⋅P (( Y ∈[ y , y+dy ]) / ( X ∈ [ x , x+dx ] ) )= (5.38)
= f ( x ) dx⋅f ( y / x ) dy = f ( x ) f ( y/ x ) dS .

Сравнивая эти формулы, имеем выражение для условной плотности рас-


пределения:

f ( x , y) f (x, y)
f ( y / x)= = +∞ .
f ( x) (5.39)
∫ f ( x , y ) dy
−∞

Т. о., чтобы получить условную плотность распределения, нужно


двумерную плотность распределения разделить на одномерную (без-
условную) плотность распределения условия. Здесь опять прослеживает-
ся аналогия с дискретными величинами (5.8): там мы делили соответ-
ствующие законы распределения. Аналогично:

f ( x , y) f (x, y)
f ( x/ y ) = = +∞ .
f (y) (5.40)
∫ f ( x , y ) dx
−∞

Для случайных векторов с размерностью больше двух можно вычис-


лять условные плотности распределения заданных координат при усло-
вии, что остальные принимают конкретные значения. Для этого нужно
делить многомерную плотность распределения на плотности распределе-
ния соответствующих условий.
Пример 5.5. Трёхмерная непрерывная случайная величина {X, Y, Z}
задана плотностью распределения f(x, y, z). Вычислить f(x/y) и f(x/(y, z)).
Решение. Для нахождения f(x/y) вначале вычисляем двумерную
плотность распределения, интегрируя по оставшейся координате z:

247
+∞

f ( x, y ) =∫ f ( x , y , z ) dz , (5.41)
−∞

а затем применяем формулу (5.40). А f(x/(y, z)) вычисляем по правилу де-


ления многомерной плотности распределения на плотность распределе-
ния условий:

f ( x, y , z ) f (x, y, z)
f ( x/ ( y , z ) ) = = +∞ .
f ( y , z) (5.42)
∫ f ( x , y , z ) dx
−∞

Интегрируя условные плотности распределения f(x/y) и f(y/x), полу-


чим функции распределения F(x/y) и F(y/x):
x y

F ( x / y )= ∫ f ( ξ / y ) d ξ ; F ( y / x ) =∫ f ( η/ x ) d η.  (5.43)
−∞ −∞

Обратите внимание: интегрировать нужно при постоянном условии.


Пример 5.4 (продолжение). Найти условные функции и плотности
распределения и построить их графики.
Решение. Условные плотности распределения вычисляем по форму-
лам (5.39)-(5.40). Полученные выражения имеют место для всех точек
внутри треугольника, а вне его плотности распределения равны нулю.
Вычисляем f(x/y) и f(y/x) на сетке и строим графики (рис. 5.28 и 5.29).

fxys=simple(cs/fys); % символическое выражение для f(x/y)


fyxs=simple(cs/fxs); % символическое выражение для f(y/x)
disp('Условные плотности распределения:')
fprintf('f(x/y)=%s внутри треугольника;\n',char(fxys))
disp('f(x/y)=0 вне треугольника;')
fprintf('f(y/x)=%s внутри треугольника;\n',char(fyxs))
disp('f(y/x)=0 вне треугольника.')
Zt=inpolygon(Xt,Yt,[0 x0 0 0],[0 0 y0 0]); % 1 внутри
fxy=subs(fxys,y,Yt).*Zt; % f(x/y) на сетке
fyx=subs(fyxs,x,Xt).*Zt; % f(y/x) на сетке
figure; % новая фигура

248
surf(Xt,Yt,fxy) % график f(x/y)
colormap('white')
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
xlim([xmin xmax]); % границы по осям
ylim([ymin ymax]);
da=daspect; % получили масштабы по осям
da(1:2)=min(da(1:2)); % одинаковые масштабы
daspect(da); % установили одинаковые масштабы
box on % ограничивающий прямоугольник
title(['\bfУсловная плотность распределения'...
'\rm \itf\rm(\itx\rm/\ity\rm)'])
xlabel('\itx') % метки осей
ylabel('\ity')
zlabel('\itf\rm(\itx\rm/\ity\rm)')
view(135,20) % точка просмотра
figure; % новая фигура
surf(Xt,Yt,fyx) % график f(y/x)
colormap('white')
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
xlim([xmin xmax]); % границы по осям
ylim([ymin ymax]);
da=daspect; % получили масштабы по осям
da(1:2)=min(da(1:2)); % одинаковые масштабы
daspect(da); % установили одинаковые масштабы
box on % ограничивающий прямоугольник
title(['\bfУсловная плотность распределения'...
'\rm \itf\rm(\ity\rm/\itx\rm)'])
xlabel('\itx') % метки осей
ylabel('\ity')
zlabel('\itf\rm(\ity\rm/\itx\rm)')
view(135,20) % точка просмотра
Условные плотности распределения:
f(x/y)=3/4/(y+3) внутри треугольника;
f(x/y)=0 вне треугольника;
f(y/x)=4/3/(x+4) внутри треугольника;
f(y/x)=0 вне треугольника.

249
Условная плотность распределения f(x/y)

15

10
f(x/y)

0 -4
-3
-2 -2
-1
0 0
x
y
Рисунок 5.28 – Условная плотность распределения f(x/y)

Условная плотность распределения f(y/x)

6
f(y/x)

0 -4
-3
-2 -2
-1
0 0
x
y
Рисунок 5.29 – Условная плотность распределения f(y/x)

250
Условные функции распределения находим путём интегрирования
выражений для условных плотностей. Рисуем их графики (рис. 5.30 и
5.31).

Fxys=simple(int(fxys,x,sx*(x0<0),x)); % симв. F(x/y)


Fyxs=simple(int(fyxs,y,sy*(y0<0),y)); % симв. F(y/x)
disp('Условные функции распределения:')
fprintf('F(x/y)=%s внутри треугольника;\n',char(Fxys))
disp('F(x/y)=0 или 1 вне треугольника;')
fprintf('F(y/x)=%s внутри треугольника;\n',char(Fyxs))
disp('F(y/x)=0 или 1 вне треугольника.')
Fxyn=subs(Fxys,{x,y},{Xt,Yt}).*Zt; % F(x/y) на сетке
Fyxn=subs(Fyxs,{x,y},{Xt,Yt}).*Zt; % F(y/x) на сетке
num1=find((cumsum(Zt,2)>0)&(Zt==0));
Fxyn(num1)=1; % точки, где F(x/y)=1
num2=find((cumsum(Zt,1)>0)&(Zt==0));
Fyxn(num2)=1; % точки, где F(y/x)=1
figure; % новая фигура
surf(Xt,Yt,Fxyn) % график F(x/y)
colormap('white')
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
xlim([xmin xmax]); % границы по осям
ylim([ymin ymax]);
zlim([0 1]);
da=daspect; % получили масштабы по осям
da(1:2)=min(da(1:2)); % одинаковые масштабы
daspect(da); % установили одинаковые масштабы
box on % ограничивающий прямоугольник
title(['\bfУсловная функция распределения'...
'\rm \itF\rm(\itx\rm/\ity\rm)'])
xlabel('\itx') % метки осей
ylabel('\ity')
zlabel('\itF\rm(\itx\rm/\ity\rm)')
figure; % новая фигура
surf(Xt,Yt,Fyxn) % график F(y/x)
colormap('white')

251
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
xlim([xmin xmax]); % границы по осям
ylim([ymin ymax]);
zlim([0 1]);
da=daspect; % получили масштабы по осям
da(1:2)=min(da(1:2)); % одинаковые масштабы
daspect(da); % установили одинаковые масштабы
box on % ограничивающий прямоугольник
title(['\bfУсловная функция распределения'...
'\rm \itF\rm(\ity\rm/\itx\rm)'])
xlabel('\itx') % метки осей
ylabel('\ity')
zlabel('\itF\rm(\ity\rm/\itx\rm)')
Условные функции распределения:
F(x/y)=(3/4*x+y+3)/(y+3) внутри треугольника;
F(x/y)=0 или 1 вне треугольника;
F(y/x)=(x+4/3*y+4)/(x+4) внутри треугольника;
F(y/x)=0 или 1 вне треугольника.

Условная функция распределения F (x/y)

1
F (x/y)

0.5

0
0 0
-1
-2
-2
-3 -4
y x
Рисунок 5.30 – Условная функция распределения F(x/y)

252
Условная функция распределения F (y/x)

1
F (y/x)

0.5

0
0 0
-1
-2
-2
-3 -4
y x
Рисунок 5.31 – Условная функция распределения F(y/x) 

5.2.4. Числовые характеристики


Принцип их вычисления – тот же, что и для дискретных векторов,
но вместо суммирования применяется интегрирование. Если предвари-
тельно найдены одномерные плотности распределения, то для каждой
координаты непрерывного случайного вектора можно вычислить:
• математическое ожидание (3.17);
• моду (определение 3.12);
• медиану (определение 3.13);
• начальные моменты (3.23);
• центральные моменты (3.27);
• дисперсию (3.34);
• среднеквадратичное отклонение (3.35);
• асимметрию (3.36);
• эксцесс (3.37).

253
Если одномерных плотностей нет, а есть только многомерные, то
можно использовать и их, по ходу дела применяя формулу (5.35). Напри-
мер, МО координаты Y трёхмерного вектора {X, Y, Z} можно вычислять
так:
+∞
m y =∫ y f ( y ) dy=∭ y f ( x , y , z ) dV , (5.44)
−∞ Ω∞

где Ω∞ – всё трёхмерное пространство.


При использовании безусловных одномерных плотностей распреде-
ления мы получим безусловные числовые характеристики, а при исполь-
зовании условных – условные. Как и для дискретных векторов, имеет ме-
сто теорема 5.1 о полном математическом ожидании. Доказывается она
так же, но вместо сумм будут интегралы. Проведите это доказательство
самостоятельно.
Для непрерывных векторов, как и для дискретных, вводят в рассмот-
рение различные начальные и центральные моменты (определения 5.4 и
5.5), ковариационные моменты и их матрицу (определения 5.6 и 5.7), ко-
эффициенты корреляции и корреляционную матрицу (определения 5.8 и
5.9). Определение 5.10 независимости координат случайного вектора
имеет место и здесь, если заменить слова "закон распределения" на
"плотность распределения". При независимых координатах непрерывно-
го вектора многомерная плотность распределения равна произведению
одномерных. Теорема 5.2 также справедлива. То же самое относится и к
некоррелированности.
Пример 5.6. Двумерная непрерывная величина имеет равномерное
распределение в ромбе с вершинами (2; 0), (–2; 0), (0; 1), (0; –1)
(рис. 5.32). Являются ли её координаты X и Y независимыми? некоррели-
рованными?
Решение. Плотность распределения постоянна внутри ромба и рав-
на c = 1 / S = 0,25. В силу симметрии области mx = 0; my = 0; mxy = 0; ρxy = 0.
Следовательно, X и Y некоррелированные. Но условная плотность рас-
пределения f(y/x) зависит от x. Например, при x = 1 (вертикальная прямая
на рис. 5.32) f(y/1) отлична от нуля для y ∈ [–0,5; 0,5] и постоянна в этом

254
интервале: f(y/1) = 1. А f(y/0) отлична от нуля уже в отрезке y ∈ [−1; 1] и
равна в нём f(y/0) = 0,5. Поэтому координаты X и Y являются зависимы-
ми. 
y

−2 0 1 2 x

−1

Рисунок 5.32 – Здесь координаты X и Y


некоррелированные, но зависимые

Пример 5.4 (окончание). Найти условные и безусловные МО, дис-


персии, асимметрии, эксцессы, а также ковариационный момент и коэф-
фициент корреляции двумерной непрерывной случайной величины
{X, Y}. Безусловные характеристики напечатать, а условные ещё и изоб-
разить на графиках.
Решение. У нас есть необходимые символические выражения для
безусловных и условных плотностей распределения. Вычисляем. Услов-
ные характеристики рисуем на графиках (рис. 5.33 и 5.34).

Mxs=int(x*fxs,x,xl,xr); % МО Mx
Mys=int(y*fys,y,yl,yr); % МО My
Dxs=int((x-Mxs)^2*fxs,x,xl,xr); % дисперсия Dx
Dys=int((y-Mys)^2*fys,y,yl,yr); % дисперсия Dy
Axs=int((x-Mxs)^3*fxs,x,xl,xr)/Dxs^(3/2); % асимметрия Ax

255
Ays=int((y-Mys)^3*fys,y,yl,yr)/Dys^(3/2); % асимметрия Ay
Exs=int((x-Mxs)^4*fxs,x,xl,xr)/Dxs^2-3; % эксцесс Ex
Eys=int((y-Mys)^4*fys,y,yl,yr)/Dys^2-3; % эксцесс Ey
Mxy=int(int(cs*(x-Mxs)*(y-Mys),y,0,sy)*sign(y0),x,xl,xr);
Rxy=simple(Mxy/(Dxs*Dys)^(1/2));
disp('Безусловные числовые характеристики:')
fprintf('математическое ожидание Mx=%s=%14.10f;\n',...
char(Mxs),eval(Mxs))
fprintf('математическое ожидание My=%s=%14.10f;\n',...
char(Mys),eval(Mys))
fprintf('дисперсия Dx=%s=%14.10f;\n',char(Dxs),eval(Dxs))
fprintf('дисперсия Dy=%s=%14.10f;\n',char(Dys),eval(Dys))
fprintf('асимметрия Ax=%s=%14.10f;\n',char(Axs),eval(Axs))
fprintf('асимметрия Ay=%s=%14.10f;\n',char(Ays),eval(Ays))
fprintf('эксцесс Ex=%s=%14.10f;\n',char(Exs),eval(Exs))
fprintf('эксцесс Ey=%s=%14.10f;\n',char(Eys),eval(Eys))
fprintf(['смешанный центральный момент'...
'Mxy=%s=%14.10f;\n'],char(Mxy),eval(Mxy))
fprintf('коэффициент корреляции Rxy=%s=%14.10f.\n',...
char(Rxy),eval(Rxy))
Mxys=simple(int(fxys*x,x,0,sx)*sign(x0)); % M(x/y)
Myxs=simple(int(fyxs*y,y,0,sy)*sign(y0)); % M(y/x)
Dxys=simple(int(fxys*(x-Mxys)^2,x,0,sx)*sign(x0));
Dyxs=simple(int(fyxs*(y-Myxs)^2,y,0,sy)*sign(y0));
Axys=simple(int(fxys*(x-Mxys)^3,x,0,sx)*...
sign(x0)/Dxys^(3/2)); % A(x/y)
Ayxs=simple(int(fyxs*(y-Myxs)^3,y,0,sy)*...
sign(y0)/Dyxs^(3/2)); % A(y/x)
Exys=simple(int(fxys*(x-Mxys)^4,x,0,sx)*...
sign(x0)/Dxys^2-3);
Eyxs=simple(int(fyxs*(y-Myxs)^4,y,0,sy)*...
sign(y0)/Dyxs^2-3);
disp('Условные числовые характеристики:')
fprintf('математическое ожидание M(x/y)=%s;\n',char(Mxys))
fprintf('математическое ожидание M(y/x)=%s;\n',char(Myxs))
fprintf('дисперсия D(x/y)=%s;\n',char(Dxys))
fprintf('дисперсия D(y/x)=%s;\n',char(Dyxs))
fprintf('асимметрия A(x/y)=%s;\n',char(Axys))

256
fprintf('асимметрия A(y/x)=%s;\n',char(Ayxs))
fprintf('эксцесс E(x/y)=%s;\n',char(Exys))
fprintf('эксцесс E(y/x)=%s.\n',char(Eyxs))
figure % новая фигура
subplot(1,2,1) % левая половина графика
plot(yt,subs(Mxys,y,yt),'k') % график M(x/y)
xlim([yl yr]) % границы графика по оси OX
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',14); % шрифт
title('\bfУсловное МО\rm \itm_{x\rm/\ity}')
xlabel('\ity')
ylabel('\itm_{x\rm/\ity}')
subplot(1,2,2) % правая половина графика
plot(xt,subs(Myxs,x,xt),'k') % график M(y/x)
xlim([xl xr]) % границы графика по оси OX
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',14); % шрифт
title('\bfУсловное МО\rm \itm_{y\rm/\itx}')
xlabel('\itx')
ylabel('\itm_{y\rm/\itx}')
figure % новая фигура
subplot(1,2,1) % левая половина графика
plot(yt,subs(Dxys,y,yt),'k') % график D(x/y)
xlim([yl yr]) % границы графика по оси OX
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',14); % шрифт
title('\bfУсловная дисперсия\rm \itD_{x\rm/\ity}')
xlabel('\ity')
ylabel('\itD_{x\rm/\ity}')
subplot(1,2,2) % правая половина графика
plot(xt,subs(Dyxs,x,xt),'k') % график D(y/x)
xlim([xl xr]) % границы графика по оси OX
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',14); % шрифт
title('\bfУсловная дисперсия\rm \itD_{y\rm/\itx}')
xlabel('\itx')
ylabel('\itD_{y\rm/\itx}')
Безусловные числовые характеристики:

257
математическое ожидание Mx=-4/3= -1.3333333333;
математическое ожидание My=-1= -1.0000000000;
дисперсия Dx=8/9= 0.8888888889;
дисперсия Dy=1/2= 0.5000000000;
асимметрия Ax=-1/15*8^(1/2)*9^(1/2)= -0.5656854249;
асимметрия Ay=-2/5*2^(1/2)= -0.5656854249;
эксцесс Ex=-3/5= -0.6000000000;
эксцесс Ey=-3/5= -0.6000000000;
смешанный центральный момент Mxy=-1/3= -0.3333333333;
коэффициент корреляции Rxy=-1/2= -0.5000000000.
Условные числовые характеристики:
математическое ожидание M(x/y)=-2/3*y-2;
математическое ожидание M(y/x)=-3/8*x-3/2;
дисперсия D(x/y)=4/27*(y+3)^2;
дисперсия D(y/x)=3/64*(x+4)^2;
асимметрия A(x/y)=0;
асимметрия A(y/x)=0;
эксцесс E(x/y)=-6/5;
эксцесс E(y/x)=-6/5.

Условное МО mx/y Условное МО my/x


0 0

-0.5
-0.5
mx/y

my/x

-1

-1
-1.5

-2 -1.5
-3 -2 -1 0 -4 -2 0
y x

Рисунок 5.33 – Условные МО mx/y и my/x

258
Условная дисперсия D x/y Условная дисперсия D y/x
1.4 0.8

1.2 0.7

0.6
1
0.5
0.8
D x/y

D y/x
0.4
0.6
0.3
0.4
0.2
0.2 0.1

0 0
-3 -2 -1 0 -4 -2 0
y x

Рисунок 5.34 – Условные дисперсии Dx/y и Dy/x 

Условные распределения – равномерные, поэтому относительные


характеристики (асимметрии и эксцессы) оказались постоянными, и мы
их не рисуем.

5.2.5. Многомерное нормальное распределение


Для одномерных величин мы изучали много различных видов рас-
пределения (глава 4). В многомерном случае мы ограничимся всего од-
ним, но часто встречающимся распределением: нормальным. Подробно
мы рассмотрим только двумерный случай.
Определение 5.14. Двумерным нормальным распределением называ-
ется распределение непрерывного случайного вектора {X, Y}, двумерная
плотность распределения которого имеет вид:

259
1 1
f ( x , y )=
2 π σ x σ y √ 1−ρ
2
exp −
(
2 (1−ρ 2)
×

 (5.45)
))
2 2

×
( ( x− mx )
σx
2 −
2ρ ( x−m x )( y− m y ) ( y−m y )
σx σ y
+ 2
σy
.

Это распределение зависит от пяти параметров: mx, my, σx, σy и ρ.


Выражение для f(x, y) является симметричным относительно одновре-
менной замены x ↔ y, mx ↔ my и σx ↔ σy. Параметры σx и σy должны быть
положительными, а ρ ∈ [–1; 1]. При ρ → ±1 в выражении для плотности
распределения возникает неопределённость вида ||0/0||, которую мы да-
лее раскроем.
Докажем, что mx и my – это МО координат X и Y соответственно, σx и
σy – их СКО, а ρ – коэффициент корреляции. Для этого вычислим одно-
мерную плотность распределения, например, f(x). Ввиду громоздкости
вычислений применяем MATLAB. Опишем необходимые символические
переменные (действительные), построим функцию (5.45) и проинтегри-
руем её по y ∈ (−∞; +∞) в соответствии с (5.35).

syms x y mx my sx sy r real
fxy=1/(2*pi*sx*sy*(1-r^2)^(1/2))*exp(-1/(2*(1-r^2))*...
((x-mx)^2/sx^2-2*r*(x-mx)*(y-my)/(sx*sy)+...
(y-my)^2/sy^2));
fx=int(fxy,y,-inf,inf)
fx =
PIECEWISE([1/2*exp(-1/2*(x^2-
2*x*mx+mx^2)/sx^2)/pi^(1/2)/sx/
(1-r^2)^(1/2)*signum(sy)*2^(1/2)/(-1/(-1+r^2))^(1/2),
-signum(-2+2*r^2) = 1],[Inf, otherwise])

Полученное выражение зависит от знаков σy и ρ2 – 1. У нас σy > 0,


ρ ∈ [−1; 1]. Подставим нужные выражения и уточним f(x). Положительная
функция интегрируется в положительном направлении, поэтому ре-
зультат наверняка должен получиться положительным. Поэтому, чтобы

260
выбрать нужное значение квадратного корня, добавим операцию вычис-
ления модуля.

fx=simple(simple(abs(subs(fx,{sym('signum(sy)'),...
sym('-signum(-2+2*r^2)')},{1,1}))))
fx =
1/2*exp(-1/2*(x-mx)^2/sx^2)/pi^(1/2)*2^(1/2)/abs(sx)

Получили плотность одномерного нормального распределения


(4.65). Следовательно, параметры mx и σx являются соответственно МО и
СКО координаты X вектора {X, Y}. В силу симметрии (5.45) можно
утверждать, что my и σy – это МО и СКО Y.
Найдем теперь ковариационный момент (определение 5.6). Вначале
вычислим внутренний интеграл по y ∈ (–∞; +∞).

Int1=int(fxy*(x-mx)*(y-my),y,-inf,inf)
Int1 =
PIECEWISE([1/2*signum(sy)*r*sy*(x-mx)^2*
exp(-1/2*(x^2-2*x*mx+mx^2)/sx^2)*2^(1/2)/
(-1/(-1+r^2))^(1/2)/(1-r^2)^(1/2)/sx^2/pi^(1/2),
-signum(-2+2*r^2) = 1],[Inf, otherwise])

Получили ту же многозначность. Подставим σy > 0, ρ ∈ [–1; 1] и вы-


берем нужное решение.

Int1=subs(Int1,{sym('signum(sy)'),...
sym('-signum(-2+2*r^2)')},{1,1})
Int1 =
1/2*r*sy*(x-mx)^2*exp(-1/2*(x^2-2*x*mx+mx^2)/sx^2)*
2^(1/2)/(-1/(-1+r^2))^(1/2)/(1-r^2)^(1/2)/sx^2/pi^(1/2)

Теперь интегриуем по x ∈ (–∞; +∞).

Kxy=int(Int1,x,-inf,inf)
Kxy =
r*sy/(-1/(-1+r^2))^(1/2)/(1-r^2)^(1/2)*sx*signum(sx)

261
Подставим нужный знак σx > 0.

Kxy=subs(Kxy,sym('signum(sx)'),1)
Kxy =
r*sy/(-1/(-1+r^2))^(1/2)/(1-r^2)^(1/2)*sx

Осталось сократить в знаменателе два множителя:


(-1/(-1+r^2))^(1/2) и (1-r^2)^(1/2). Это проще сделать вручную,
т. к. MATLAB не всегда вычисляет арифметическое значение корня. В
итого получим, что Kxy = ρσxσy. Отсюда следует, что коэффициент корре-
ляции двумерного нормального распределения равен его параметру ρ.
Мы знаем, что, если координаты X и Y независимые, то они некорре-
лированные, а обратное утверждение в общем случае не имеет места
(теорема 5.3 и замечание 5.1). Но для двумерного нормального распреде-
ления понятия независимости и некоррелированности эквивалентны.
Действительно, если в выражении (5.45) положить ρ = 0 (некоррелиро-
ванность), то
2 2

f ( x, y ) =
1
2πσ xσy
exp − 2
2σ x
2

(
( x− mx ) ( y−m y )
2
2σ y
=
2
) (5.46)
( x−mx ) ( y−m y)
− −
1 2 σ 2x 1 2 σ 2y
= e e = f ( x ) f ( y) ,
σ x √2 π σy √2 π

т. е. координаты X и Y в этом случае независимые. Для независимых


величин, как известно, условная плотность распределения совпадает с
безусловной: f(y/x) = f(y).

Пусть теперь ρ ≠ 0. Вычислим условную плотность распределения в


этом случае. Используем формулу (5.39):

fyfx=simple(simple(fxy/fx))
fyfx =
1/sx/sy/(-2*pi*(-1+r^2))^(1/2)*exp(1/2*(-sx*y+sx*my+
sy*r*x-sy*r*mx)^2/(r-1)/(r+1)/sx^2/sy^2)*abs(sx)

262
Несмотря на двойное применение функции simple, выражение по-
лучилось не очень простым. Упростим его дополнительно вручную:
2

f ( y / x )=
∣σ x∣
σ x σ y √ 2 π ( 1−ρ )
2
exp −
(
(−σ x y+σ x m y+σ y ρ x−σ y ρ mx )
2 2 2
2 ( 1−ρ ) σ x σ y
=
)
2

( ( )
)
σy
( y−m y )− ρ ( x− mx )
1 σx
= exp − =
√ 2 π σ y √ 1−ρ 2 2
2 σ y ( 1−ρ
2
)
2

( ( ( ))
)
σy
y− my + ρ ( x− mx )
1 σx
= exp − .
σ y √ 1−ρ 2 √ 2π
2 2
2σ y ( 1−ρ )
Получилось опять нормальное распределение. Его параметры яв-
ляются условными МО и СКО:

σy
m y / x= my +ρ ( x− mx ) ;
σx (5.47)
σ y/ x =σ y √ 1−ρ2 ;

и тогда условная плотность распределения имеет вид:


2
( y−my / x )

1 2 σ 2y/ x
(5.48)
f ( y / x )= e .
σ y/ x √ 2π

Очевидно, выражение для f(x/y) будет симметричным. Заметим, что


в условной плотности распределения (5.48) от условия x зависит только
my/x, но не σy/x.
Плотность многомерного нормального распределения (5.45) в
MATLAB можно вычислить с помощью функции mvnpdf, описанной в
электронной версии книги. Горизонтальные сечения графика функции
f(x, y) = const – это кривые 2-го порядка:

263
2 2
( x−mx ) 2ρ ( x− mx )( y−m y ) ( y− my ) 2
2 − + 2 =λ ⩾0 . (5.49)
σx σx σ y σy
Из-за того, что ρ ∈ [–1; 1], полученное выражение будет неотрицатель-
ным (проверьте!), поэтому мы обозначили его λ2. Для дальнейших вы-
кладок вспомните исследование кривых 2-го порядка. Выясним тип кри-
вой (5.49). Обозначим коэффициенты при квадратах переменных:
1 ρ 1
A= 2; B=− ; C= 2 ; (5.50)
σx σx σ y σy
и вычислим
2
2 1−ρ
AC −B = 2 2 . (5.51)
σ xσ y
Получается, что при ρ ≠ ±1 кривая (5.49) является кривой эллиптического
типа, а при ρ = ±1 – параболического. Если ρ ≠ ±1, то кривая эллиптиче-
ского типа (5.49) может быть приведена к главным осям путем парал-
лельного переноса:

{ x= x 1+m x ;
y= y1 +m y ; (5.52)

и последующего поворота на угол, определяемый из уравнения:

2B 2ρ σ x σ y
tg 2α= = . (5.53)
A−C σ 2x −σ 2y
Формулы поворота имеют вид:

{ x 1=ξ cos α−ηsin α ;


y 1=ξ sin α+ ηcosα ;
(5.54)

а уравнение поверхности (5.49) в новых координатах (ξ, η):


2 2
ξ η 2
2 + 2 =λ ,
(5.55)
σξ ση
где новые коэффициенты:

264
{
2 2
1 cos α 2ρ sin α cosα sin α
= − + 2 ;
σ 2ξ σ 2x σ xσ y σy
2 2 (5.56)
1 sin α 2ρsin α cos α cos α
2= 2 + + 2 .
ση σx σx σ y σy
В новых координатах (ξ, η) выражение (5.49) переходит в (5.55), поэтому
плотность распределения (5.45) будет иметь вид:
2

f ( ξ, η )=
1
e
− 1
2( ξ2 + η
2
2 ( 1−ρ ) σ ξ σ η
2 ). (5.57)
2π σ x σ y √1−ρ
2

Не преобразовывая этого выражения до конца, видим, что новые коорди-


наты независимые.
Рассмотрим теперь случай, когда ρ = ±1. В этом случае в (5.45) есть
неопределённость ||0/0||, но экспонента стремится к нулю быстрее, чем
степенная функция. Поэтому, если выражение в показателе (5.49) не об-
ращается в нуль, то f(x, y) = 0. Но при ρ = ±1 выражение (5.49) сворачива-
ется в полный квадрат. Поэтому показатель (5.49) обращается в нуль,
когда
x−m x y− my
∓ =0, (5.58)
σx σy
причём верхний знак соответствует ρ = 1, а нижний ρ = –1. Именно на
этой прямой f(x, y) → ∞. При ρ → ±1 поверхность (5.45) превращается в
острый "гребешок". Попробуйте в разделе 17.11 (в электронной версии)
задать ρ, достаточно близкое к 1 или –1, и посмотреть, какой график по-
лучится.
При ρ = ±1 все возможные значения X и Y связаны соотношением
(5.58), что соответствует детерминированной линейной зависимости Y от
X (или X от Y). При этом угловой коэффициент линейной зависимости Y
от X будет положительным при ρ = 1 и отрицательным при ρ = –1. Факти-
чески вместо двух координат вектора будем иметь только одну, а другая
линейно выражается через неё. В главе 6 мы подробно будем изучать
такие функции.

265
Обобщением двумерного является многомерное нормальное распре-
деление. Выражение для его многомерной плотности приведено в элек-
тронной версии книги. В MATLAB имеются две функции для работы с
многомерным нормальным распределением:
• mvnpdf – плотность распределения;
• mvnrnd – случайные числа c многомерным нормальным распределе-
нием.

5.3. Контрольные вопросы к главе 5


1. Как задаётся закон распределения трёхмерной дискретной случай-
ной величины? Как по нему найти двумерные и одномерные
законы? Сколько всего их будет?
2. Будет ли выполняться условие нормировки (5.2) для независимых
дискретных величин X и Y, если двумерный закон распределения
восстанавливать по одномерным по формуле (5.22)?
3. Как в трёхмерной величине {X, Y, Z} получить двумерную функцию
распределения координат {X, Y}? Двумерный закон распределения
(для дискретных величин)? Двумерную плотность распределения
(для непрерывных)?
4. Из доказательства теоремы 5.2 известно, что для независимых ве-
личин двумерный закон распределения равен произведению одно-
мерных (5.22). Верно ли обратное? Т. е. можно ли утверждать, что,
если (5.22) выполняется, то величины независимые?
5. Докажите теорему о полном МО для непрерывных векторов.
6. Проверьте в примерах 5.2 и 5.4 теорему о полном МО. Выполняется
ли она?
7. Решите пример 5.3. Являются ли здесь величины X и Y независимы-
ми? Будут ли они некоррелированными?
8. В примере 5.4 в одной из угловых точек треугольника f(x/y) и f(y/x)
обращаются в бесконечность. Почему?
9. Убедитесь, что выражение в левой части (5.49) является неотрица-
тельным.

266
Глава 6. Функции случайных величин
Пример 6.1. Пусть имеются случайные величины F – условно-по-
стоянные издержки производства, P – цена единицы продукции, а C –
условно-переменные издержки на единицу продукции, и известны их за-
коны распределения (или трёхмерный закон, если эти величины зависи-
мые). Объём продаж, соответствующий точке безубыточности, находится
по формуле:
F
V= . (6.1)
P−C
Как найти закон распределения случайной величины V? 
Пример 6.2. Случайные величины T1, T2, …, Tn – время эксплуата-
ции элемента схемы, а
T = f ( T 1 , T 2 , …, T n ) (6.2)
– время эксплуатации всего прибора (известная функция). Зная законы
распределения T1, T2, …, Tn и вид функции (6.2), требуется найти закон
распределения величины T. 
Подобные задачи часто встречаются в экономике, физике, технике и
других отраслях человеческой деятельности. Общая их постановка сле-
дующая. Есть случайная величина, в общем случае l-мерная, X. Она пол-
ностью определена в статистическом смысле, т. е. для неё известны
многомерный закон распределения, если она дискретная, или многомер-
ная плотность распределения, если она непрерывная. От X зависит дру-
гой вектор Y, в общем случае другой размерности m. Это значит, что за-
даны m функций l переменных, связывающие координаты X и Y:

{
Y 1= y 1 ( X 1 , X 2 , …, X l ) ;
Y 2= y 2 ( X 1 , X 2 ,…, X l ) ;
(6.3)

Y m = y m ( X 1 , X 2 ,…, X l ) .

Иными словами, задано функциональное преобразование от l-мерного


вектора X к m-мерному Y:

267
Y = y ( X ), (6.4)
где y – вектор-функция вектора-аргумента. Требуется определить сов-
местный закон распределения координат Y (в дискретном случае) или их
совместную плотность распределения (в непрерывном). Как правило,
dim(Y) ≤ dim(X).
Далее при необходимости по закону (плотности) распределения на-
ходятся другие характеристики: функции распределения, МО, дисперсии
и т. д. (безусловные и условные).

6.1. Дискретные величины

6.1.1. Одномерные дискретные величины


Таблица 6.1. Закон распределения одномерной
дискретной случайной величины

xk x1 x2 … xn
pk p1 p2 … pn

Начнём изучение функций случайных величин с дискретного одно-


мерного случая. Пусть X – одномерная дискретная величина с заданным
законом распределения (таблица 6.1), а Y – одномерная дискретная ве-
личина, зависящая от X:
Y = y ( X ). (6.5)
Требуется найти закон распределения Y, т. е. её возможные значения
yk и вероятности их появления pk. Рассмотрим, как это сделать. Пусть
вначале функция (6.5) взаимно-однозначная для всех возможных xk, т. е.
каждому xk соответствует единственное yk = y(xk), и, наоборот, каждое yk
получается из единственного xk. В этом случае событие (X = xk) произой-
дёт тогда и только тогда, когда произойдёт событие (Y = yk), и вероятность
этого события равна pk. Поэтому в данном случае решение задачи сво-

268
дится к добавлению в таблицу 6.1 ещё одной, третьей строки, в ячейки
которой записываются значения yk = y(xk) (таблица 6.2). При необходимо-
сти столбцы этой таблицы можно переставить, чтобы yk монотонно воз-
растали.

Таблица 6.2. Закон распределения функции одномерной


дискретной случайной величины (3-я и 2-я строки)

xk x1 x2 … xn
pk p1 p2 … pn
yk y(x1) y(x2) … y(xn)

Пример 6.3. Величина X имеет биномиальное распределение с пара-


метрами n = 10 и p = 0,2, а Y = X2. Найти закон распределения Y и по-
строить многоугольник распределения.
Решение. Решаем задачу с помощью MATLAB. Вначале находим за-
кон распределения X, а затем добавляем значения yk. Таблицу закона рас-
пределения печатаем по вертикали, чтобы она вместилась на странице.
Строим многоугольник распределения величины Y (рис. 6.1).

n=10; % параметры биномиального распределения


p=0.2;
xk=[0:n]; % возможные значения X
pk=binopdf(xk,n,p); % закон биномиального распределения
yk=xk.^2; % возможные значения Y
disp('Законы распределения X и Y')
disp(' xk pk yk')
fprintf('%8.0f %12.10f %8.0f\n',[xk;pk;yk])
plot(yk,pk,'k-',yk,pk,'k.')
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
xlim([yk(1) yk(end)]); % границы по оси OX
title('\bfЗакон распределения\rm \itY') % заголовок

269
xlabel('\ity_k') % метки осей
ylabel('\itp_k')
Законы распределения X и Y
xk pk yk
0 0.1073741824 0
1 0.2684354560 1
2 0.3019898880 4
3 0.2013265920 9
4 0.0880803840 16
5 0.0264241152 25
6 0.0055050240 36
7 0.0007864320 49
8 0.0000737280 64
9 0.0000040960 81
10 0.0000001024 100

Закон распределения Y
0.35

0.3

0.25

0.2
pk

0.15

0.1

0.05

0
0 20 40 60 80 100
yk

Рисунок 6.1 – Многоугольник распределения


величины Y = X2 

270
Рассмотрим теперь случай, когда функция (6.5) не является взаимно-
однозначной: одному xk по-прежнему соответствует единственное значе-
ние yk, но некоторые yk могут получаться из нескольких xk. Пусть, напри-
мер, значение yk получается из r различных значений X: x k , 1
x k , …,
2

x k . В этом случае событие (Y = yk) происходит при наступлении одного


r

из r несовместных событий: ( X = x k ) ,
1
( X =xk ),
2
…, ( X = x k ) , и только
r

в этом случае. По следствию 2.5 к теореме 2.3 имеем правило вычисле-


ния вероятности pk события (Y = yk):
r
pk =∑ p k .i
(6.6)
i=1

На практике это означает следующее. Если после построения


таблицы 6.2 мы увидим, что в 3-й строке есть одинаковые yk, то нужно
объединить соответствующие столбцы, сложив вероятности во 2-й
строке. В 1-й строке при этом можно оставить несколько значений xk,
просто перечислив их. Из всех их получается одно yk.
Пример 6.4. Величина X имеет биномиальное распределение с
параметрами n = 10 и p = 0,2, а Y = (X – 5)2. Найти закон распределения Y и
построить многоугольник распределения.
Решение. Этот пример отличается от предыдущего другим видом
функциональной зависимости (6.5). Здесь нескольким xk соответствует
одно yk, поэтому при построении закона распределения Y нужно будет
применять правило (6.6). После построения закона распределения X
вычисляем возможные значения Y, находим неповторяющиеся значения
и вычисляем вероятности их появления по формуле (6.6). Строим
многоугольник распределения величины Y (рис. 6.2).

n=10; % параметры биномиального распределения


p=0.2;
xk=[0:n]; % возможные значения X
pxk=binopdf(xk,n,p); % закон биномиального распределения

271
yxk=(xk-5).^2; % возможные значения Y
yk=unique(yxk); % уникальные значения Y
for k=1:length(yk), % суммируем pk
num=find(yxk==yk(k)); % совпадающие номера
pyk(k)=sum(pxk(num)); % суммируем по ним
end
disp('Закон распределения Y')
disp(' yk pk')
fprintf('%8.0f %12.10f\n',[yk;pyk])
plot(yk,pyk,'k-',yk,pyk,'k.')
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
xlim([yk(1) yk(end)]); % границы по оси OX
title('\bfЗакон распределения\rm \itY') % заголовок
xlabel('\ity_k') % метки осей
ylabel('\itp_k')
Закон распределения Y
yk pk
0 0.0264241152
1 0.0935854080
4 0.2021130240
9 0.3020636160
16 0.2684395520
25 0.1073742848

272
Закон распределения Y
0.35

0.3

0.25

0.2
pk

0.15

0.1

0.05

0
0 5 10 15 20 25
yk

Рисунок 6.2 – Многоугольник распределения


величины Y = (X – 5)2 

6.1.2. Многомерные дискретные величины


Вначале рассмотрим случай, когда размерности векторов X и Y оди-
наковые (разные размерности будут исследованы дальше). Начнём с дву-
мерных величин. Величины бóльших размерностей исследуются анало-
гично.
Пусть задан закон распределения двумерного дискретного слу-
чайного вектора {X, Y}, например, в виде таблицы 5.3 или аналитическо-
го выражения pij = f(xi, yj), где xi и yj – возможные значения координат X и
Y соответственно. Задано также функциональное преобразование

{
U = u ( X ,Y ) ;
V =v ( X , Y ) ;
(6.7)

и требуется найти закон распределения вектора {U, V}.

273
Принцип здесь тот же, что и для одномерных величин. Если преоб-
разование (6.7) взаимно-однозначное, то каждая точка {ui, vj} получается
из единственной точки {xi, yj}, и P((U = ui) ∩ (V = vj)) =
= P((X = xi) ∩ (Y = yj)) = pij. Если же какая-либо точка {ui, vj} получается из
нескольких точек {xi, yj} (т. е. (6.7) не является взаимно-однозначным), то
нужно суммировать вероятности pij по тем {xi, yj}, которые после при-
менения преобразования (6.7) переходят в одну {ui, vj}. Этот же подход
применяется и для величин бóльших размерностей.
Пример 6.5. Исходные данные для него взяты из примера 5.2. Дву-
мерная дискретная случайная величина {X, Y} имеет возможные значе-
ния xi в виде целых чисел от –5 до 5, а возможные значения yj – это числа
от 0 до 1 с шагом 0,2. Закон распределения задается формулой (5.3), где
k – множитель, подбираемый из условия нормировки (5.1). Случайный
вектор {U, V} связан с {X, Y} соотношениями:

{UV =Y= X−0,1


+10 Y −5;
X +1.
(6.8)

Найти закон распределения {U, V} и построить его график.


Решение. Вначале находим нормирующий множитель k, как в при-
мере 5.2. Затем преобразовываем прямоугольные матрицы в векторы-
столбцы, т. е. переходим от закона в виде таблицы 5.3 к закону в виде та-
блицы 5.1. Так проще вычислять {ui, vj} по формуле (6.8). Далее находим
повторяющиеся точки и суммируем в них вероятности. И, наконец,
строим график закона распределения (рис. 6.3). Здесь точки {ui, vj} распо-
ложены нерегулярно, поэтому рисуем точечный график.

xi=[-5:1:5]; % возможные значения


yj=[0:0.2:1];
[x,y]=meshgrid(xi,yj); % создали сетку
pij=exp(-0.25*(x-1.5).^2+0.4*(x-1.5).*(y-0.4)-...
5*(y-0.4).^2);
k=1/sum(sum(pij)); % нормирующий множитель
pij=pij*k; % нормируем
x=x(:); % переформатируем в вектор-столбец

274
y=y(:);
pij=pij(:);
u=x+10*y-5; % новые аргументы
v=y-0.1*x+1;
uv=u+i*v; % комплексный вектор для сравнения
uvuni=unique(uv); % ищем уникальные строки
for k=1:length(uvuni), % суммируем pij
num=find(uv==uvuni(k)); % совпадающие номера
pk(k)=sum(pij(num)); % суммируем по ним
end
stem3(real(uvuni),imag(uvuni),pk','k-','filled')
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title('\bfЗакон распределения\rm \{\itU\rm, \itV\rm\}')
xlabel('\itu_k') % метки осей
ylabel('\itv_k')
zlabel('\itp_k')
view(120,35) % выбрали точку просмотра

Закон распределения {U, V}

0.08

0.06

0.04
pk

0.02
-10
0
0.5 0
1
1.5
2
2.5 10 uk
vk

Рисунок 6.3 – График распределения величины {U, V} 

275
Если размерности векторов разные, то задача решается так же. По
известным точкам вектора X вычисляются точки вектора Y, и, если
встретятся одинаковые, суммируются соответствующие вероятности.
Пример 6.6. Используются те же исходные данные из примера 5.2.
Случайная величина Z является функцией вектора {X, Y}:
2 2
Z = X + 25Y . (6.9)

Найти закон распределения Z и построить многоугольник распределения.


Решение строится, как из кубиков, из кусочков решений предыду-
щих примеров. Из решения примера 6.5 мы берём нахождение норми-
рующего множителя k у закона распределения {X, Y}, нахождение воз-
можных значений величины Z и вероятностей их появления. А из ре-
шения примера 6.4 берём печать результатов и построение многоуголь-
ника распределения (рис. 6.4).

xi=[-5:1:5]; % возможные значения


yj=[0:0.2:1];
[x,y]=meshgrid(xi,yj); % создали сетку
pij=exp(-0.25*(x-1.5).^2+0.4*(x-1.5).*(y-0.4)-...
5*(y-0.4).^2);
k=1/sum(sum(pij)); % нормирующий множитель
pij=pij*k; % нормируем
x=x(:); % переформатируем в вектор-столбец
y=y(:);
pij=pij(:);
z=round((x.^2+25*y.^2)*1e10)*1e-10; % округляем
zk=unique(z); % ищем уникальные значения
for k=1:length(zk), % суммируем pij
num=find(z==zk(k)); % совпадающие номера
pk(k)=sum(pij(num)); % суммируем по ним
end
disp('Закон распределения Z')

276
disp(' zk pk')
fprintf('%8.0f %12.10f\n',[zk';pk])
plot(zk',pk,'k-',zk',pk,'k.')
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',14); % шрифт
xlim([zk(1) zk(end)]); % границы по оси OX
title('\bfЗакон распределения\rm \itZ') % заголовок
xlabel('\itz_k') % метки осей
ylabel('\itp_k')
Закон распределения Z
zk pk
0 0.0245716623
1 0.0848393774
2 0.0762615825
4 0.0752121726
5 0.1463630693
8 0.0744539782
9 0.0468823756
10 0.0981952968
13 0.1061162975
16 0.0200134421
17 0.0448417445
18 0.0399826010
20 0.0512924503
25 0.0463916050
26 0.0140210530
29 0.0170031668
32 0.0106151560
34 0.0140448169
41 0.0075460727
50 0.0013520798

277
Закон распределения Z
0.16

0.14

0.12

0.1

0.08
pk

0.06

0.04

0.02

0
0 10 20 30 40 50
zk
Рисунок 6.4 – Многоугольник распределения
величины Z = X2 + 25Y2 

Как видим, если задан конкретный закон распределения (числа), то


закон распределения функции случайных величин находится достаточно
просто. Гораздо интереснее аналитические задачи, когда требуется не
просто построить закон распределения (найти числа), но и исследовать
его.
Пример 6.7. Случайные величины X и Y независимые и имеют дис-
кретные равномерные распределения с параметрами k и n соответствен-
но. Найти закон распределения их суммы Z = X + Y.
Решение. Возможные значения xi – это целые числа от 1 до k, и ве-
роятности их появления одинаковые: 1 / k. Возможные значения yj – это
целые числа от 1 до n, и вероятности их появления также одинаковые:
1 / n. В силу независимости X и Y совместный закон распределения равен
произведению одномерных законов, поэтому он будет иметь вид, пока-
занный в таблице 6.3.

278
Таблица 6.3. Ряд распределения двумерной дискретной
равномерной величины с независимыми координатами

yj\xi 1 2 3 … k
1 1 / nk 1 / nk 1 / nk … 1 / nk
2 1 / nk 1 / nk 1 / nk … 1 / nk
3 1 / nk 1 / nk 1 / nk … 1 / nk
… … … … … …
n 1 / nk 1 / nk 1 / nk … 1 / nk

Возможные значения Z – это целые числа от 2 до k + n. Подсчитаем


вероятности их появления. Событие (Z = 2) = (X = 1) ∩ (Y = 1), ему соответ-
ствует левая верхняя ячейка таблицы 6.3. Поэтому P(Z = 2) = 1 / nk.
Следующее событие (Z = 3) – это сумма двух несовместных собы-
тий: (X = 2) ∩ (Y = 1) и (X = 1) ∩ (Y = 2). Его вероятность равна сумме веро-
ятностей слагаемых: P(Z = 3) = 2 / nk.
Теперь рассматриваем событие (Z = 4). Это уже будет сумма трёх не-
совместных событий: (X = 3) ∩ (Y = 1), (X = 2) ∩ (Y = 2) и (X = 3) ∩ (Y = 1).
Чтобы найти его вероятность, нужно сложить числа в ячейках, выделен-
ных в таблице 6.3 затенённым фоном. Получим: P(Z = 4) = 3 / nk.
Этот принцип суммирования применим вплоть до Z = min(n, k) + 1,
т. е. пока мы не достигнем ближайшего из двух углов таблицы 6.3: право-
го верхнего или левого нижнего. Вероятность этих событий, очевидно,
равна min(n, k) / nk.
Далее наша диагональ движется вправо (если таблица 6.3 вытянута
в ширину) или вниз (если в высоту). При этом количество ячеек в ней
остается постоянным и равным min(n, k). Поэтому, пока мы не достигнем
значения Z = max(n, k) + 1, вероятности всех событий тоже будут равны
min(n, k)/nk.
При дальнейшем движении диагональ на каждом шаге уменьшает

279
свою длину на 1. Поэтому закон распределения Z имеет вид:

{
l −1
; l ∈[ 2, min ( n, k ) +1 ] ;
nk
min ( n, k )
pl = ; l ∈[ min ( n , k ) +2, max ( n, k ) +1 ] ; (6.10)
nk
n+k+1−l
; l ∈[ max ( n , k ) +2, n+k ] .
nk

Рассмотрим частный случай (примеры 2.6 и 3.1). Бросаются 2 иг-


ральных кости. Построить закон распределения случайной величины Z –
суммы очков на верхних гранях.
Здесь случайная величина X – число на верхней грани 1-й кости, а
Y – 2-й. Эти величины независимые и имеют равномерные распределе-
ния с k = n = 6. По формуле (6.10) строим ряд распределения величины
Z = X + Y (таблица 3.1). 
Пример 6.8. Случайные величины X и Y независимые и имеют
пуассоновские распределения с параметрами λ и µ соответственно.
Найти закон распределения их суммы Z = X + Y.
Решение. Возможные значения X и Y – целые неотрицательные чис-
ла, поэтому и возможными значениями Z также будут целые неотрица-
тельные числа. Закон пуассоновского распределения имеет вид (4.39). У
нас X и Y независимые, поэтому двумерный закон распределения будет
произведением одномерных:
i j
λ μ −( λ+μ)
pij = e ; i=0, 1, 2, … ; j=0, 1, 2, … . (6.11)
i! j !
Если попытаться изобразить этот закон распределения в виде табли-
цы 6.3, то первая строка и первый столбец будут начинаться не с 1, а с 0,
а сама таблица будет бесконечной и в ширину, и в высоту. Но такое пред-
ставление поможет понять, какие zl повторяются, чтобы просуммировать
вероятности. Событие (Z = l) – это сумма несовместных событий:
(X = l) ∩ (Y = 0), (X = l – 1) ∩ (Y = 1), (X = l – 2) ∩ (Y = 2), …, (X = 0) ∩ (Y = l).
Поэтому, как и в предыдущем примере, нужно суммировать вероятности,

280
расположенные на каждой побочной диагонали. Из-за бесконечного раз-
мера таблицы таких диагоналей тоже будет бесконечное количество. Вы-
числяем:
l l − ( λ+μ ) l
λ i μl−i − ( λ+μ ) e−( λ+μ ) l! e
P ( Z =l )=∑ e = ∑ λ i l −i
μ = ∑ C i λi μ l−i .
i=0 i ! ( l −i ) ! l ! i=0 i! ( l −i ) ! l ! i =0 l
Сумма сворачивается по биному Ньютона в (λ+µ)l, поэтому распределе-
ние величины Z также будет пуассоновским с параметром (λ+µ):

l
( λ+μ ) (6.12)
pl = e−( λ+μ) ; l=0, 1, 2, … .
l!

Говорят, что пуассоновское распределение является статистически


устойчивым к сложению (дискретное равномерное распределение таким
свойством не обладает). Результат (6.12) нетрудно объяснить, если вспо-
мнить определение пуассоновского распределения. Если в одном пуассо-
новском потоке средняя плотность событий λ, в другом, независимом от
первого – µ, а мы отмечаем все события обоих потоков, то естественно
предположить, что результирующий поток также будет пуассоновским с
плотностью, равной сумме плотностей обоих потоков. 
6.1.3. Числовые характеристики
После нахождения закона распределения функции случайной ве-
личины можно вычислить различные функции распределения и число-
вые характеристики (одномерные и многомерные, условные и безуслов-
ные). Соответствующие формулы и готовые фрагменты программ есть в
главе 3 для одномерных величин и в главе 5 для многомерных. Ими мож-
но дополнить примеры 6.3-6.6. Проделайте это самостоятельно.
Но рассмотренная выше теория позволяет не только вычислять чи-
словые характеристики, но и установить некоторые их свойства в допол-
нение к свойствам 3.11-3.15. Рассмотрим их. Первые два свойства – о по-
стоянном множителе.
Свойство 6.1. Постоянный множитель можно выносить за знак МО:

281
M ( C X ) =C m x . (6.13)
Доказательство. Пусть случайная величина X имеет некоторый за-
кон распределения (таблица 6.1), а Y = CX. Возможные значения величи-
ны Y – это yi = Cxi, а вероятности их появления – те же pi, что и у xi. Нахо-
n n n
дим МО величины Y: M ( CX ) =m y =∑ y i p i=∑ Cxi pi =C ∑ x i pi =C m x ,
i=1 i=1 i =1

что и требовалось доказать. 


Свойство 6.2. Постоянный множитель выносится за знак дисперсии
в квадрате:
2
D ( C X ) =C D x . (6.14)
Доказательство проводим так же. Пусть случайная величина X име-
ет некоторый закон распределения, а Y = CX. Возможные значения ве-
личины Y – это yi = Cxi, а вероятности их появления – те же pi, что и у xi.
n
2
Находим дисперсию величины Y: D ( C X ) =D y =∑ ( y i −m y ) pi =
i=1

n n
2 2
= ∑ (C x i −C mx ) pi =C 2 ∑ ( xi −m x ) pi =C 2 D x , что и требовалось дока-
i =1 i =1

зать. 
Отсюда следует, что постоянный сомножитель выносится за знак
СКО по модулю:
σ ( C X )=√ D y =√ C 2 D x =∣C∣D x . (6.15)
Следующая пара свойств относится к сумме случайных величин.
Свойство 6.3. МО суммы случайных величин равно сумме МО сла-
гаемых:
M ( X +Y ) =m x +m y . (6.16)
Доказательство. Пусть двумерная случайная величина {X, Y} зада-
на своим законом распределения (таблица 5.3), а Z = X + Y. Возможные
значения величины Z – это все различные числа вида zl = xi + yj, где xi –

282
допустимые значения X, а yj – допустимые значения Y. Вероятности их
появления – это pij, если xi + yj встречается один раз, или сумма pij в
случае повторяющихся значений. Обозначим эти вероятности через pl.
Ищем МО величины Z: M ( X +Y ) =m z =∑ z l p l . Если в этом выражении
∀l

некоторые pl образованы сложением из-за того, что есть повторяющиеся


числа xi + yj, то распишем эти слагаемые на отдельные выражения вида
k n k n k n
(xi + yj)pij: M ( X +Y ) =∑ ∑ ( x i + y j ) p ij = ∑ ∑ x i p ij +∑ ∑ y j p ij =m x +m y ,
i=1 j=1 i=1 j=1 i=1 j=1

что и требовалось доказать. 


Для любого конечного числа слагаемых это свойство выполняется
по индукции.
Из свойств 6.1, 6.3 и 3.11 следует, что вычисление МО является ли-
нейной операцией:
m m
M
( i =1
)
∑ C i X i +b =∑ C i M ( X i )+b.
i=1
(6.17)

Свойство 6.4. Дисперсия суммы двух случайных величин равна


сумме дисперсий слагаемых плюс удвоенный ковариационный момент:
D ( X +Y ) = D x + D y + 2m xy . (6.18)
Доказательство. Пусть двумерная случайная величина {X, Y} зада-
на своим законом распределения, а Z = X + Y. Возможные значения ве-
личины Z – это все различные числа вида zl = xi + yj, где xi – допустимые
значения X, а yj – допустимые значения Y. Вероятности их появления –
это pij, если xi + yj встречается один раз, или сумма pij в случае повторяю-
щихся значений. Обозначим эти вероятности через pl. Ищем дисперсию
2
величины Z: D ( X +Y ) =D z =∑ ( z l −mz ) pl . Если в этом выражении не-
∀l

которые pl образованы сложением из-за того, что есть повторяющиеся


числа xi + yj, то запишем отдельные слагаемые:
k n k n
2 2
D ( X +Y ) = ∑ ∑ ( x i+ y j − mx − my ) p ij =∑ ∑ ( ( x i −mx ) +( y j − my ) ) pij =
i =1 j =1 i=1 j =1

283
k n k n k n
2 2
= ∑ ∑ ( x i −mx ) pij +2 ∑ ∑ ( x i− mx )( y j − my ) pij + ∑ ∑ ( y j −m y ) p ij =
i =1 j=1 i =1 j=1 i=1 j=1

= D x +2 mxy +D y , что и требовалось доказать. 


В частности, для некоррелированных величин (и, следовательно, для
независимых) дисперсия суммы равна сумме дисперсий:

D ( X +Y ) = D x + D y . (6.19)

При выводе дисперсии суммы большего количества случайных ве-


личин нужно будет раскрывать квадрат суммы нескольких слагаемых,
что дает сумму всех квадратов и сумму всех удвоенных произведений, а
это приводит к сумме дисперсий и удвоенных ковариационных моментов
для всех пар координат. В частности, дисперсия суммы трёх случайных
величин равна:

D ( X +Y +Z ) = D x + D y + D z +2 m xy +2 m xz+ 2 m yz . (6.20)

А дисперсия линейной функции нескольких случайных величин бу-


дет вычисляться так:
m m m
D
m
( m
) ( m
i=1
)
∑ C i X i +b = D ∑ C i X i + D ( b ) = D ∑ C i X i =
i=1
m−1 m
( i=1
) (6.21)
2
= ∑ ∑ C i C j mx x =∑ C D ( X i ) +2 ∑
i j i ∑ C i C j mx x ¿ .i j
i =1 j =1 i=1 i =1 j=i+1

Здесь постоянная величина b не зависит от всех Xi, т. к. её закон распре-


деления один и тот же (δ-функция). Поэтому дисперсия b записывается в
виде отдельного слагаемого, и она равна нулю, как дисперсия константы.
И, наконец, ещё одна пара свойств касается произведения случай-
ных величин.
Свойство 6.5. МО произведения двух случайных величин равно
произведению МО сомножителей плюс их ковариационный момент:

M ( XY )=m x m y +m xy . (6.22)

284
Доказательство. Пусть двумерная случайная величина {X, Y} зада-
на своим законом распределения, а Z = XY. Возможные значения величи-
ны Z – это все различные числа вида zl = xiyj, где xi – допустимые значения
X, а yj – допустимые значения Y. Вероятности их появления – это pij, если
xiyj встречается один раз, или сумма pij в случае повторяющихся значе-
ний. Обозначим эти вероятности через pl. Ищем МО величины Z:
M ( X Y ) =m z =∑ z l pl . Если в этом выражении некоторые pl образованы
∀l

сложением из-за того, что есть повторяющиеся числа xiyj, то распишем


эти слагаемые на отдельные выражения вида (xiyj)pij:
k n k n
M ( X Y ) =∑ ∑ ( xi y j ) p ij =∑ ∑ ( (( xi −m x )+ mx )( ( y j −m y ) +m y )) p ij =
i=1 j=1 i=1 j =1
k n k n k n
= ∑ ∑ ( x i −mx )( y j − my ) p ij + mx ∑ ∑ ( y j − my ) p ij + my ∑ ∑ ( xi −m x ) p ij +
i =1 j =1 i =1 j=1 i=1 j=1
k n
+m x my ∑ ∑ pij = mxy +m x m y .
i=1 j=1

Вторая и третья суммы по свойству 3.12 обращаются в нуль (это 1-е цен-
тральные моменты), а четвёртая равна единице по условию нормиров-
ки. 
В частности, для некоррелированных величин (и, следовательно, для
независимых) МО произведения равно произведению МО:

M ( X Y ) =m x m y . (6.23)

Свойство 6.6. Дисперсия произведения двух независимых случай-


ных величин равна:
2 2
D ( X Y ) = D x D y + mx D y +m y D x . (6.24)
2 2
Доказательство. D ( X Y ) = M ( ( X Y −M ( XY ) ) )=M ( ( XY −m x m y ) ) =
2 2 2 2 2 2 2 2
= M ( X Y −2 XYm x my +mx m y )= M ( X Y ) −2 mx my M ( XY )+ mx m y =
2 2 2 2 2 2
= M ( X ) M ( Y ) −2m x my +mx m y .
Величины X и Y независимые, поэтому и X2 и Y2 также независимые, и

285
мы можем представить M(X2Y2) = M(X2)M(Y2). Далее используем свой-
ство 3.15, по которому D x = M ( X 2 ) −m2x :
2 2 2 2 2 2
D ( X Y ) =( Dx + mx )( D y +m y )−m x m y = D x D y +mx D y +m y D x , что и требо-
валось доказать. 

6.2. Непрерывные величины

6.2.1. Одномерные непрерывные величины


Пусть непрерывная случайная величина X задана своей плотностью
распределения f(x), а Y зависит от неё по заданному закону (6.5). Найдём
плотность распределения f(y). Вначале рассмотрим случай, когда функ-
ция (6.5) взаимно-однозначная во всём интервале возможных значений X
и Y. Из курса математического анализа известно, что такая функция обя-
зательно должна быть монотонной: или монотонно-возрастающей, как
показано на рис. 6.5, а, или монотонно-убывающей, как на рис. 6.5, б.

y y

y + dy
y y
y + dy
dy > 0 dy < 0
x x
0 x x +dx 0 x x +dx
dx > 0 dx > 0

Рисунок 6.5 – Взаимно-однозначная функция:


монотонно-возрастающая (а) и монотонно-убывающая (б)

286
P ( x⩽ X < x+dx )
По определению f ( x ) = , но событие (x ≤ X < x + dx)
dx
происходит тогда и только тогда, когда (y ≤ Y < y + dy) для монотонно-воз-
растающей величины или (y + dy ≤ Y < y) для монотонно-убывающей. Зна-
чит, и вероятности этих событий одинаковые. Теперь можно найти плот-
ность распределения Y. Для монотонно-возрастающей функции:
P ( y⩽Y < y+dy ) P ( x⩽ X < x+dx ) dx
f ( y )= = = f ( x ( y ) ) x' ( y ) ,
dy dx dy
где x(y) – функция, обратная (6.5), а x'(y) – её производная. Для моно-
тонно-убывающей функции нужно вместо dy взять –dy, чтобы плотность
распределения получилась положительной:
P ( y+dy⩽Y < y ) P ( x⩽ X < x+dx ) dx
f ( y )=
−dy
=
dx

dy ( )
= f ( x ( y ) )( − x ' ( y ) ) .
Объединяя эти случаи, получаем выражение для плотности распределе-
ния f(y) в случае монотонной зависимости (6.5):

f ( y )= f ( x ( y ) )∣x ' ( y )∣. (6.25)


Пример 6.9. Пусть X имеет равномерное распределение на проме-
жутке (0; 1]:

f ( x)=
{
1; x ∈ ( 0 ; 1 ] ;
0 ; x ∉(0 ; 1 ] ;
(6.26)

а Y зависит от X следующим образом:


ln X (6.27)
Y =− ,
λ
где λ > 0. Найти плотность распределения Y.
Решение. Нарисуем графики функций (6.26) и (6.27). Они показаны
на рис. 6.6, а и б. Функция (6.27) монотонно-убывающая на промежутке
(0; 1]. Найдём обратную функцию и модуль её производной, при этом ар-
гумент и функцию обозначим маленькими буквами (конкретные значе-
ния случайных величин X и Y):

x=e
−λ y
; x '=−λ e
−λ y
; ∣x'∣= λ e
−λ y
. (6.28)

287
f(x ) y

y = − lnX
1 λ

0 1 x 0 1 x

а б

Рисунок 6.6 – Графики функций f(x) (а) и Y = y(X) (б) в примере 6.9

Плотность распределения f(x) имеет различные аналитические выраже-


ния на различных промежутках. Применяем формулу (6.25) на каждом из
них.
• x ∈ (–∞; 0]: здесь функция (6.27) вообще не определена (нет никаких
y), поэтому здесь f(y) = 0.
• x ∈ (0; 1] ⇔ y ∈ [0; +∞): здесь f(x) = 1; поэтому f(y) = f(x(y))|x'(y)| =
= 1⋅λe−λy = λe−λy;
• x ∈ (1; +∞] ⇔ y ∈ (–∞; 0): здесь f(x) = 0; поэтому f(y) = f(x(y))|x'(y)| = 0.
Имеем для величины Y экспоненциальное распределение с парамет-
ром :

f ( y )=
{ 0;
−λ y
y<0 ;
λ e ; y⩾ 0.
 (6.29)

Пример 6.10. Величина X имеет нормальное распределение с пара-


метрами mx и σx:

288
2
( x−mx )

1 2 σ 2x
f ( x)= e , (6.30)
σ x √2 π

а Y линейно зависит от X:

Y =kX +b . (6.31)
Найти закон распределения Y.
Решение. Находим функцию, обратную к (6.31), и модуль её произ-
водной:

y−b 1 1
x= ; x ' = ; ∣x '∣= . (6.32)
k k ∣k∣

На всём интервале изменения x ∈ (–∞; +∞) плотность распределения име-


ет одно и то же аналитическое выражение (6.30), и этому интервалу соот-
ветствует y ∈ (–∞; +∞). Считаем по формуле (6.25):
2

(( )
y−b
f ( y )= f ( x ( y ) )∣x ' ( y )∣=
1
exp −
k
−m x ) 1
=
σ x √ 2π 2 σ 2x ∣k∣
2

( )
2
( y−( km x+b ))
=
1
σ x ∣k∣√ 2 π
exp −
(( y−b−km x )
2 2
2 k σx
=
1
)
σ x∣k∣√ 2π
exp − 2 2
2 k σx
.

Получаем для величины Y нормальное распределение с параметра-


ми my = kmx + b и σy = |k|σx:
2
( y−( km x +b ) )

1 2 k 2 σ2x
(6.33)
f ( y )= e .
∣k∣σ x √ 2 π

Как видим, здесь соблюдаются (6.17) и (6.21), но получен и более общий


результат: любое линейное преобразование нормальной величины даёт
величину нормальную. 
Пример 6.11. Построить генератор случайных чисел, имеющих
распределение с плотностью:

289
{
3
( )
f ( y )= k y −8 y+11 ; y∈ [ 1; 3 ] ;
0; y∉ [ 1; 3 ] ; (6.34)

где множитель k подбирается из условия нормировки.


Решение. В Statistics Toolbox есть много различных генераторов
случайных чисел (см. главу 20 в электронной версии), но все возможные
законы не могут быть охвачены даже теоретически. Рассмотрим принцип
построения генератора случайных чисел, имеющих заданное непрерыв-
ное распределение. Для этого воспользуемся формулой (6.25). Взяв ве-
личину X с заданным законом распределения (например, равномерным),
и правильно подобрав функцию Y = y(X), получим величину Y с нужным
распределением. Тогда можно сгенерировать равномерную выборку {xi},
а затем вычислить yi = y(xi), и выборка {yi} будет иметь заданный закон
распределения.
Если взять равномерное распределение X, то, какой бы ни была
функция x(y), первый множитель f(x(y)) = 1 или 0, поэтому f(y) = |x'(y)| или
0. У нас f(y) задана, поэтому, определив нормирующий множитель k, мы
тем самым найдём модуль производной обратного преобразования. Бу-
дем строить монотонно-возрастающую функцию y(x), поэтому возьмем
положительную x'(y) = f(y). В нижеприведенном фрагменте мы находим
нормирующий множитель k и строим график плотности распределения
f(y) (рис. 6.7).

syms x y k % описали символические переменные


y1=1; % границы интервала, в котором f(y)>0
y2=3;
f=k*(y^3-8*y+11); % выражение для f(y)
cn=int(f,y,y1,y2)-1; % условие нормировки
k1=solve(cn,k); % находим k
fprintf('Нормирующий множитель k=%s=%16.10f\n',...
char(k1),eval(k1))
fy=subs(f,k,k1);
fprintf('Плотность распределения f(y)=%s\n',char(fy))
ypl=linspace(y1,y2);

290
fypl=subs(fy,y,ypl);
plot(ypl,fypl,'k-') % график плотности распределения
xlim([y1 y2]) % границы графика по осям
ylim([0 1.05*max(fypl)])
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title('\bfПлотность распределения\rm \itY') % заголовок
xlabel('\ity') % метки осей
ylabel('\itf\rm(\ity\rm)')
Нормирующий множитель k=1/10= 0.1000000000
Плотность распределения f(y)=1/10*y^3-4/5*y+11/10

Плотность распределения Y

1.4

1.2

0.8
f(y)

0.6

0.4

0.2

0
1 1.5 2 2.5 3
y
Рисунок 6.7 – График плотности распределения (6.34)

Чтобы по x'(y) построить y(x), нужно проинтегрировать x'(y), а затем


найти обратную функцию. Произвольную постоянную интегрирования
определяем из условия, что левая граница y = 1 переходит в левую грани-
цу x = 0, т. к. функции x(y) и y(x) возрастающие. Подобранное значение k

291
при этом гарантирует, что правая граница y = 3 перейдет в правую
границу x = 1.
После интегрирования находим обратную функцию. Если их полу-
чается несколько, выбираем ту, которая переводит отрезок [0; 1] в [1; 3].

xy=int(fy,y); % интегрируем
c=-subs(xy,y,y1); % определили постоянную
xy=xy+c; % обратное преобразование
disp('Обратное преобразование:')
fprintf('x=%s\n',char(xy))
sol=solve(xy-x,y); % находим обратное преобразование
lsol=length(sol); % количество найденных решений
fprintf('Количество найденных решений = %d\n',lsol)
yb=[subs(sol,x,0) subs(sol,x,1)]; % решения в точках 0 и 1
vn=find(sum(abs(yb-repmat([y1 y2],lsol,1)),2)<1e3*eps);
solvn=simple(sol(vn)); % упростили нужное решение
fprintf('Подходит решение %d:\ny=%s\n',vn,char(solvn))
Обратное преобразование:
x=1/40*y^4-2/5*y^2+11/10*y-29/40
Количество найденных решений = 4
Подходит решение 3:
y=-1/6*(96+6*(667-2880*x+6*(12696-101430*x+
258000*x^2+48000*x^3)^(1/2))^(1/3)-138/(667-
2880*x+6*(12696-101430*x+258000*x^2+
48000*x^3)^(1/2))^(1/3)-720/(667-2880*x+
6*(12696-101430*x+258000*x^2+
48000*x^3)^(1/2))^(1/3)*x)^(1/2)+1/6*6^(1/2)*
(32-(667-2880*x+6*(12696-101430*x+258000*x^2+
48000*x^3)^(1/2))^(1/3)+23/(667-2880*x+6*
(12696-101430*x+258000*x^2+48000*
x^3)^(1/2))^(1/3)+120/(667-2880*x+6*(12696-
101430*x+258000*x^2+48000*x^3)^(1/2))^(1/3)*x+
396/(96+6*(667-2880*x+6*(12696-101430*x+

292
258000*x^2+48000*x^3)^(1/2))^(1/3)-
138/(667-2880*x+6*(12696-101430*x+258000*x^2+
48000*x^3)^(1/2))^(1/3)-720/(667-2880*x+6*
(12696-101430*x+258000*x^2+48000*
x^3)^(1/2))^(1/3)*x)^(1/2))^(1/2)

Даже после упрощения выражение для обратной функции получи-


лось очень длинным, но это и не удивительно: это решение уравнения
4-й степени.
И, наконец, генерируем случайную выборку с распределением
(6.34). Для этого берём равномерно распределенную выборку {xi}, а за-
тем вычисляем {yi}. Строим гистограмму выборки (рис. 6.8), на которой
показываем в том же масштабе плотность распределения f(y).

ns=10000; % размер выборки


nr=round(ns^0.5); % количество интервалов
xi=unifrnd(0,1,ns,1); % равномерная выборка в [0;1]
yi=subs(solvn,x,xi); % выборка с плотностью f(y)
figure
hist(yi,nr); % гистограмма
hold on % задержка для рисования на одном графике
plot(ypl,fypl*ns*(y2-y1)/nr,'k--')
hold off % выключили задержку
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',14); % шрифт
title('\bfГистограмма распределения\rm \itY') % заголовок
xlabel('\ity_j') % метки осей
ylabel('\itn_j')

293
Гистограмма распределения Y
350

300

250

200
nj

150

100

50

0
1 1.5 2 2.5 3
yj

Рисунок 6.8 – Гистограмма распределения (6.34) 

Пусть теперь функция (6.5) не является монотонной. В этом случае


обратная функция будет неоднозначной, как показано на рис. 6.9.

y
dy
y + dy
y

x2 +dx2 x4 +dx4 x
0 x1 x1 +dx1 x2 x3 x3 +dx3 x4
dx1 dx2 dx3 dx4

Рисунок 6.9 – Функция, обратная к немонотонной,


является неоднозначной

294
Обозначим через n количество участков монотонности функции y(x).
Каждый из них имеет свою обратную функцию X = xi(Y). Событие
(y ≤ Y < y + dy) произойдёт при наступлении хотя бы одного из n несов-
местных событий Ai = (xi ≤ X < xi + dxi) или Ai = (xi + dxi ≤ X < xi) в зависимо-
сти от возрастания или убывания функции X = xi(Y). По следствию 2.5 из
n

теоремы 2.3 P ( y⩽Y < y+dy )=∑ P ( Ai ) , поэтому


i =1

n
P ( y⩽Y < y+dy ) P ( Ai ) ∣dx i∣ n
f ( y )= =∑ =∑ f ( x i ( y ) )∣x 'i ( y )∣. (6.35)
dy i =1 ∣dx ∣
i dy i =1

В случае дискретной величины мы суммировали вероятности повто-


ряющихся значений, а здесь нужно суммировать плотности распределе-
ния по тем dxi, которые соответствуют одному dy.
Пример 6.12. Величина X имеет равномерное распределение в ин-
тервале (–π; π), а Y = cosX. Найти распределение Y.
Решение. Плотность распределения X имеет выражение:

{
1
; x∈ (−π ; π ) ;
f ( x)= 2 π (6.36)
0 ; x∉ (−π ; π ) .

Её график показан на рис. 6.10, а. На интервале возможных значений


X функция Y = cosX является немонотонной (рис. 6.10, б). У неё здесь два
интервала монотонности: (−π; 0) и (0; π). Следовательно, обратная функ-
ция (рис. 6.10, в) неоднозначная. На интервале x ∈ (0; π) обратной функ-
цией будет x1 = arccosy, а на интервале x ∈ (−π; 0) – x1 = −arccosy. Все воз-
можные значения Y сосредоточены в интервале (−1; 1). Вне его f(y) = 0, а
в этом интервале f(y) ищем по формуле (6.35):

f ( y )=
1
∣−
1
+
1
∣ 1
=
1
2π √ 1− y 2 2 π √ 1− y2 π √ 1− y 2
. (6.37)

295
f(x )
1

−π 0 π x

а x
π

y x1 = arccosy
1 y = cos x
−π π 1
0 x 0 y

x2 = − arccosy

−π

б в

Рисунок 6.10 – Плотность распределения f(x) (а), прямая (б) и


обратная (в) функции в примере 6.10

График f(y) показан на рис. 6.11, а, а на рис. 6.11, б изображена функ-


ция распределения, аналитическое выражение для которой имеет вид:

{
0; y<−π ;
y
1 1
F ( y ) =∫ f ( η) d η= π arcsin y+ ; −π⩽ y<π ; (6.38)
−∞ 2
1; y⩾π .

Это распределение так и называется: распределение "арксинус". 

296
f(y )

F( y )
1

1
π

−π 0 π y −π 0 π y

а б

Рисунок 6.11 – Плотность распределения f(y) (а)


и функция распределения F(y) (б) в примере 6.10

6.2.2. Многомерные непрерывные величины


Рассмотрим вначале двумерный случай: непрерывный вектор {X, Y}
задан своей двумерной плотностью распределения f(x, y), и есть функ-
циональное преобразование:

{ U=u( X , Y ) ;
V =v ( X , Y ) .
(6.39)

Требуется найти двумерную плотность распределения f(u, v) вектора


{U, V}. Пусть функциональное преобразование (6.39) взаимно-одно-
значное, т. е. существует единственное однозначное обратное преобразо-
вание

{ X = x (U , V );
Y = y (U , V ) . (6.40)

Это значит, что точка M0(x0, y0) после применения (6.39) преобразуется в
единственную точку N0(u0, v0), а эта точка после применения (6.40)
преобразуется в единственную точку, причём в ту же самую M0(x0, y0). Бу-

297
дем также считать функции (6.39) и (6.40) непрерывными и дифферен-
цируемыми.
Выделим бесконечно малую окрестность dSxy на плоскости xOy в
окрестности M0(x0, y0). На плоскости uOv ей соответствует бесконечно
малая область dSuv в окрестности точки N0(u0, v0). Площади областей так-
же будем обозначать dSxy и dSuv. Событие ({X, Y} ∈ dSxy) происходит тогда
и только тогда, когда ({U, V} ∈ dSuv), поэтому их вероятности одинаковые.
Тогда
P ( { U ,V } ∈dS uv ) P ( { X , Y } ∈dS xy ) dS xy dS
f ( u, v )= = = f ( x ( u , v ) , y ( u , v ) ) xy .
dS uv dS xy dS uv dS uv
Осталось найти отношение площадей бесконечно малых элементов
dSxy / dSuv. Эта величина является двумерным аналогом модуля производ-
ной |x'(y)| в формуле (6.25). В одномерном случае |x'(y)| – это коэффици-
ент растяжения длины бесконечно малого элемента dy при преобразова-
нии, обратном к (6.5). Здесь, в двумерном случае, dSxy / dSuv – это коэффи-
циент растяжения площади бесконечно малого элемента при преобразо-
вании (6.40). Найдём его. Для этого выделим бесконечно малый элемент
двумя парами близко расположенных линий: u = u0; u = u0 + du и v = v0;
v = v0 + dv. На плоскости uOv эти линии прямые, поэтому dSuv – это прямо-
угольник. Он показан на рис. 6.12, а. Его площадь равна: dSuv = |dudv|.
Теперь проведём эти же линии на плоскости xOy. Преобразование
(6.40) в общем случае нелинейное, значит, эти линии уже не обязательно
будут прямыми. Параметрические уравнения, например, линии u = u0
получаются, если подставить это выражение в (6.40):

{ x=x ( u0 , v ) ;
y= y ( u0 , v ) .
(6.41)

Аналогично получаются уравнения остальных трёх линий.

298
v y v = v0 + dv
v = v0 + dv dSxy
N2 N3 dSuv M2 v = v0

M3 M0 u = u0
N0 N1
v = v0 M1
u x
0 0
u = u0 + du
u = u0 u = u0 + du

Рисунок 6.12 – Бесконечно малые элементы


площади dSuv (а) и dSxy (б)

Координаты точек на плоскости uOv: N0(u0, v0), N1(u0 + du, v0),


N2(u0, v0 + dv) и N3(u0 + du, v0 + dv). Соответствующие точки на плоскости
xOy имеют координаты: M0(x0, y0), M1(x1, y1), M2(x2, y2) и M3(x3, y3), где с
точностью до бесконечно малых величин высшего порядка малости

{ x 0=x ( u0 , v0 ) ;
y 0= y ( u0 , v 0 ) ;
(6.42)

{ x1 = x ( u0 +du , v 0 )= x0 + x'u du ;
'
y 1= y ( u0 +du , v 0 )= y 0+ y u du ;
(6.43)

{ x 2= x ( u0 , v 0+ dv )= x0 + x'v dv ;
'
y 2= y ( u0 , v 0+ dv )= y 0+ y v dv ;
(6.44)

{ x 3= x ( u0+ du, v0 +dv )= x 0+ x 'u du+ x'v dv ;


' '
y 3= y (u 0+du , v 0+ dv )= y 0+ y u du+ y v dv ;
(6.45)

а все частные производные берутся в точке M0. С точностью до бесконеч-


но малых величин высшего порядка малости фигура M0M1M3M2 – это па-
раллелограмм, поэтому его площадь dSxy можно найти как модуль век-

299
торного произведения M 0 M 1× M 0 M 2 . Считаем:

∣∣ ∣
i j k

∣ ∣ ∣
i j k ' '
' ' xu yu
M 0 M 1× M 0 M 2= x 2−x 1 y2 −y 1 0 = xu y u 0 dudv= dudv k .
x 3−x 1 y 3− y 1 0 ' ' x 'v y'
v
xv yv 0
Определитель, входящий в это выражение, называется якобианом преоб-
разования (6.40), и обозначается:

∣ ∣
' '
x, y xu yu
J ( )
u ,v
= '
xv
'.
yv
(6.46)

Если вы вспомните курс математического анализа, то заметите, что мо-


дуль якобиана участвует в вычислении кратных интегралов в криволи-
нейных координатах. Площадь dSxy вычисляется по формуле:

dS xy= J
∣ ( )∣∣
x, y
u ,v
dudv∣, (6.47)

а двумерная плотность распределения:

∣ ( )∣
f ( u, v )= f ( x ( u , v ) , y ( u , v ) ) J
x,y
u,v
. (6.48)

Эта формула является двумерным аналогом одномерного случая


(6.25). При неоднозначном обратном преобразовании (6.40) нужно сум-
мировать выражения вида (6.48) по всем областям однозначности.
Если задано преобразование трёхмерной величины {X, Y, Z} в
трёхмерную {U, V, W}:

{
U =u ( X , Y , Z ) ;
V =v ( X , Y , Z ) ; (6.49)
W =w ( X , Y , Z ) ;
то задача решается аналогично. Предположим, что существует
единственное обратное преобразование:

300
{
X =x ( U , V , W ) ;
Y = y (U , V , W ) ; (6.50)
Z = z ( U ,V , W ) .

Вероятности попадания векторов {X, Y, Z} и {U, V, W} в соответствующие


бесконечно малые области одинаковые: P({X, Y, Z}) ∈ dΩxyz =
= P({U, V, W}) ∈ dΩuvw. Поэтому
P ( { U , V ,W } ∈d Ωuvw ) P ( { X ,Y , Z } ∈ d Ω xyz ) d Ωxyz
f ( u, v , w ) = = =
d Ωuvw d Ω xyz d Ωuvw
d Ωxyz
= f ( x ( u , v , w ) , y ( u, v , w ) , z ( u, v , w ) )
.
d Ωuvw
Отношение объёмов бесконечно малых элементов вычисляется так
же, как и площадей в двумерном случае. Элемент объёма выделяется
тремя парами близко расположенных поверхностей: u = u0 и u = u0 + du;
v = v0 и v = v0 + dv; w = w0 и w = w0 + dw. В системе координат Ouvw
выделенный элемент будет прямоугольным параллелепипедом, и его
объём dΩuvw = |dudvdw|. Но в системе Oxyz этот элемент, хотя и останется
параллелепипедом (с точностью до бесконечно малых величин высшего
порядка малости), но не будет уже ни прямоугольным, ни даже прямым.
Его объём можно вычислить как модуль смешанного произведения трёх
векторов, выходящих из точки M0, что также даёт для отношения
объёмов модуль якобиана преобразования (6.50):

∣ ∣
' ' '
xu yu zu
x,y,z
J (
u, v , w
'
)
= x 'v '
yv
'
'
zv .
'
(6.51)

xw yw zw

Проделайте этот вывод самостоятельно. В результате получим:

∣(
f ( u, v , w ) = f ( x ( u , v , w ) , y ( u , v , w ) , z ( u , v , w ) ) J
u,v ,w )∣
x, y , z
. (6.52)

301
Отметим без вывода, что этот же принцип применим и к векторам
более высоких размерностей. Если задано взаимно-однозначное преоб-
разование (6.4), то

f ( y )= f ( x ( y ) ) J
∣ ( )∣ x
y
, (6.53)

где X = x(Y) – преобразование, обратное к (6.4).


Пример 6.13. Величины X и Y – независимые и имеют нормальные
распределения с нулевыми МО и одинаковыми СКО. Считая {X, Y} пря-
моугольными декартовыми координатами, найти совместную плотность
распределения координат {X1, Y1} прямоугольной декартовой системы,
повёрнутой относительно {X, Y} на заданный угол α без смещения нача-
ла координат, как показано на рис. 6.13, а. Будут ли величины X1 и Y1 не-
зависимыми?

y1 y y z M
M θ
x1

r
ρ z
y
α ϕ y
x x x, ρ x0 ϕ
0 0
y
x

а б в

Рисунок 6.13 – Поворот системы координат (а), полярные (б) и


сферические (в) координаты

Решение. Одномерные плотности распределения X и Y:


x2 y2
1 − 2 1 − 2
(6.54)
f ( x)= e 2σ ; f ( y)= e 2σ ;
σ √ 2π σ √ 2π

а двумерная плотность распределения независимых величин – это произ-


ведение одномерных плотностей:

302
x 2+ y 2
1 −
2σ 2

f ( x, y ) = 2e . (6.55)
2πσ
При повороте на угол α старые координаты выражаются через новые по
формулам:

{ x= x1 cosα− y1 sin α ;
y= x 1 sin α+ y 1 cos α . (6.56)

Это преобразование взаимно-однозначное. Его якобиан:

J
( xx ,, yy )=∣−sin
1 1
cos α
α
sin α =1.
cos α ∣ (6.57)

Подставим (6.56) в (6.54). Числитель в показателе экспоненты:


2 2
x 2+ y 2= ( x 1 cos α− y1 sin α ) +( x 1 sin α+ y1 cosα ) = x 21+ y12 ; поэтому
x 21 +y 21 x 12 y 21
1 −
2σ 2 1 −
1 − 2 2
(6.58)
f ( x1 , y 1)= 2
e = e 2σ e 2σ ;
2π σ σ √ 2π σ √ 2π
т. е. распределение каждой из координат X1, Y1 также является нормаль-
ным с нулевым МО и тем же самым СКО. Следовательно, новые коорди-
наты независимы. Вспомните: именно из этих условий мы выводили
плотность нормального распределения в разделе 4.8. Во-первых, исход-
ные f(x) и f(y) должны быть одинаковыми, а X и Y независимыми. А во-
вторых, после поворота новые координаты X1 и Y1 должны остаться неза-
висимыми, а аналитические выражения для f(x1) и f(y1) – теми же, что для
f(x) и f(y). 
Пример 6.13. Величины X и Y – независимые и имеют нормальные
распределения с нулевыми МО и одинаковыми СКО. Считая {X, Y} пря-
моугольными декартовыми координатами, найти совместную плотность
распределения полярных координат {Ρ, Φ}, если полярная система сов-
мещена с декартовой стандартным образом, как показано на рис. 6.13, б.
Будут ли величины Ρ и Φ независимыми?
Решение. Как и в предыдущем примере, одномерные плотности
распределения имеют вид (6.54), а совместная (двумерная) плотность

303
распределения – (6.55). Формулы перехода от полярных координат к де-
картовым записываются так:

{ x=ρ cos φ;
x=ρ sin φ .
(6.59)

Данное преобразование является взаимно-однозначным, его якобиан:

J ( ρx ,, φy )=∣−ρsin
cos φ
φ
sin φ
ρ cos φ
=ρ. ∣ (6.60)

Вычисляем по формуле (6.48):


ρ2
ρ − 2
f (ρ , φ)= 2
e 2σ . (6.61)
2πσ
Полученное распределение вообще не зависит от полярного угла ϕ. Это
значит, что распределение по ϕ является равномерным. Так как
ϕ ∈ [0; 2π), то в выражении (6.61) множитель 1 / 2π можно считать плот-
ностью распределения ϕ, а всё остальное – плотностью распределения
полярного радиуса ρ (см. далее пример 6.21). Получили: f(ρ, ϕ) = f(ρ) f(ϕ).
Значит, полярные координаты Ρ и Φ независимые. 
Пример 6.15. Величины X, Y и Z – независимые и имеют нормаль-
ные распределения с нулевыми МО и одинаковыми СКО. Считая
{X, Y, Z} прямоугольными декартовыми координатами, найти совмест-
ную плотность распределения сферических координат {R, Θ, Φ}, считая
сферическую систему совмещённой с декартовой стандартным образом,
как на рис. 6.13, в. Будут ли сферические координаты R, Θ, Φ независи-
мыми?
Решение. Как и в двух предыдущих примерах, совместная (трёх-
мерная) плотность распределения равна произведению одномерных:
x 2 +y 2 +z 2
1 −
2σ2
f ( x, y , z ) = 3 e . (6.62)
2 3
( 2π ) σ
Формулы перехода от сферических координат к декартовым:

304
{
x=r sin θcos φ;
y=r sin θ sin φ ; (6.63)
z=r cosθ.
Вычисляем якобиан преобразования (6.63):

∣ ∣∣
x'r y 'r z 'r


sin θcos φ sin θsin φ cosθ
x, y ,z
J (
r ,θ ,φ
= x'θ
'
) ' '
y θ z θ = r cos θcos φ r cos θsin φ −r sin θ =
' ' −r sin θsin φ r sin θcos φ 0
xφ yφ z φ

=cos θ ∣r cos θcos φ r cosθ sin φ


−r sin θsin φ r sinθ cosφ
+r sin θ ∣
sin θ cosφ

sin θsin φ
−r sin θsin φ r sin θcos φ
= ∣
2 2 2 2 3 2
=r cos θsin θ+ r sin θ= r sin θ. Результат:

J ( xr ,,θy,φ, z )= r sin θ.
2
(6.64)

По формуле (6.52) вычисляем совместную плотность распределения


{R, Θ, Φ}:
r2
r 2 sin θ −

2

f ( r , θ, φ ) = 3 e . (6.65)
2 3
( 2π ) σ
Полученное распределение не зависит от долготы ϕ (является рав-
номерным по ϕ). Множитель 1 / 2π можно выделить в выражении (6.65) и
считать его f(ϕ). Широта θ ∈ [0; π], и в выражении (6.65) выделяется
множитель sinθ, который вместе с постоянным нормирующим со-
множителем можно рассматривать как f(θ). Остаётся только функция от
r, которая является одномерной плотностью распределения f(r). Т. о., сов-
местную плотность распределения координат R, Θ, Φ можно предста-
вить в виде произведения одномерных плотностей. Следовательно, рас-
пределение каждой сферической координаты независимо от остальных.
При этом распределение Φ будет равномерным, Θ распределена по сину-
соидальному закону, а распределение R мы рассмотрим подробно в
примере 6.22. 

305
6.2.3. Функция многомерной непрерывной величины
Если в преобразовании (6.3)-(6.4) dim(Y) > dim(X), мы обычно мо-
жем отбросить лишние (зависимые от остальных) координаты Y. Поэто-
му, как правило, размерность Y не превышает размерности X. Иногда это
вообще может быть одна функция l-мерного вектора X:
Y = y ( X )= y ( X 1 , X 2 , …, X l ) . (6.66)
Пусть для непрерывного вектора X задана многомерная плотность
распределения f(x), и есть преобразование (6.3)-(6.4) к вектору Y мень-
шей размерности. В частном случае это может быть даже преобразова-
ние к одномерной величине (6.66). Требуется найти совместную плот-
ность распределения f(y) (или одномерную плотность f(y) для преобразо-
вания (6.66)).
Эта задача решается следующим образом. Дополним вектор Y до
размерности l новыми координатами так, чтобы преобразование (6.3)
стало взаимно-однозначным. Например, в преобразовании (6.66) можно
просто переобозначить l – 1 координат вектора X:

{
y 1= x 1 ;

(6.67)
y l−1 = xl −1 ;
y l = y ( x 1 , x 2 ,…, x l ) .

Если функция (6.66) допускает однозначное решение относительно xl, то


преобразование (6.67) является взаимно-однозначным, т. к. обратное
преобразование находится так:

{
x1 =y 1 ;

xl−1= yl −1 ; (6.68)
xl = y−1 ( y 1 ,…, y l−1 , yl ) ;

где через y–1 обозначена функция, обратная к (6.66) относительно xl. Но,
конечно, (6.67) не является единственно возможным вариантом дополне-

306
ния преобразования до l-мерного. Важно только, чтобы дополненное
преобразование было взаимно-однозначным.
Затем по формуле (6.53) находим плотность распределения l-мерно-
го вектора Y. И, наконец, по формулам, аналогичным (5.35), вычисляем
плотность распределения вектора Y меньшей размерности. Для этого ин-
тегрируем в пределах (–∞; +∞) по дополнительным переменным.
Пример 6.16. Задана многомерная плотность распределения f(x)
координат l-мерного вектора X, и одна функция y этих l переменных вида
(6.66). Требуется найти f(y).
Решение. Дополним функцию (6.66) до функционального преоб-
разования обозначениями (6.67). Будем предполагать, что обратное
преобразование (6.68) однозначное. Найдём его якобиан:

∣ ∣
∂ xl
1 … 0
∂ y1
… … … … ∂x
x
J( )
y
=
0 … 1
∂ xl = l .
∂ yl −1
∂ yl
(6.69)

∂ xl
0 … 0
∂ yl

Многомерная плотность распределения f(y) координат вектора Y имеет


вид:

∣ ( )∣
f ( y )= f ( x ( y ) ) J
x
y
= f ( y 1 , …, y l −1 , y−1 ( y 1 ,…, y l −1 , y l ))
∣ ∣
∂ xl
∂ yl
. (6.70)

Теперь интегрируем по y1, y2, …, yl–1:


+∞ +∞

f ( y ) = ∫ … ∫ f ( y 1 ,…, y l−1 , y−1 ( y 1 ,…, y l−1 , y ) )


−∞ −∞
∣ ∣
∂ xl
∂y
dy 1 … dy l−1 .  (6.71)

Пример 6.17. Двумерный вектор {X, Y} имеет плотность распреде-


ления f(x, y), а Z = X + Y. Найти f(z) и F(z).
Решение. Дополняем величину Z до двумерной:

307
{TZ == XX +Y
;
. (6.72)

Обратное преобразование:

{YX==TZ −T; . (6.73)

Это преобразование – взаимно-однозначное. Его якобиан:

J ( xt ,, zy )=∣10 −11∣=1 . (6.74)

Совместная плотность распределения вектора {T, Z}:

f tz ( t , z ) = f xy ( t , z−t ) . (6.75)

Здесь, чтобы не было неоднозначного толкования, у плотностей распре-


деления проставлены нижние индексы, показывающие, для каких имен-
но величин берётся плотность распределения. Теперь вычисляем одно-
мерную плотность распределения f(z):
+∞

f ( z ) = ∫ f xy ( t , z−t ) dt . (6.76)
−∞

Функция распределения по (3.11) находится как интеграл от плотно-


сти:
z z +∞

F ( z ) =∫ f ( ζ ) d ζ =∫ d ζ ∫ f xy ( t , ζ−t ) dt . (6.77)
−∞ −∞ −∞

Но функция распределения может быть найдена и по более простой


формуле:

F ( z ) =P ( X +Y < z ) = P ( { X , Y } ∈ D ) =∬ f xy ( x , y ) dS , (6.78)
D

где область интегрирования D показана на рис. 6.14, а. Интегралы (6.77)


и (6.78) отличаются друг от друга только заменой переменных x = t,
y = ζ – t, и изменением порядка интегрирования. 

308
y y

z =x +y
D D z = xy
0 x 0 x

а б

Рисунок 6.14 – Область интегрирования


для функций z = x + y (а) и z = xy (б)

Пример 6.18. Двумерный вектор {X, Y} имеет плотность распреде-


ления f(x, y), а Z = XY. Найти f(z) и F(z).
Решение. Как и в предыдущем примере, дополняем величину Z до
двумерной:

{TZ == XXY; . (6.79)

Обратное преобразование:

{
X =T ;
Z (6.80)
Y= .
T

Оно взаимно однозначное. Его якобиан:

∣ ∣
z
1 − 2
x, y t =1 .
J ( )
t,z
=
0
1 t
(6.81)
t

Совместная плотность распределения вектора {T, Z}:

f tz ( t , z ) = f xy ( t , zt )∣1t ∣; (6.82)

309
а одномерная плотность распределения f(z):
+∞ 0 +∞

f ( z ) =∫ f
−∞
xy ( )∣ ∣
t,
z 1
t t
dt =−∫ f
−∞
xy ( )
t,
z dt
t t
+∫ f
0
xy (t , zt ) dtt . (6.83)

Функция распределения имеет вид:


z z +∞ 0
F ( z ) =∫ f ( ζ ) d ζ =∫ d ζ
−∞ −∞
( ∫ f xy ( t , ζt ) dtt −∫
0 −∞
( ζt ) dtt )
f xy t , (6.84)

или
F ( z ) =P ( XY < z ) = P ( { X , Y } ∈ D )=∬ f xy ( x , y ) dS ,
D (6.85)

где область интегрирования показана на рис. 6.14, б. 


Пример 6.19. Величины X и Y независимые и имеют каждая равно-
мерное распределение на отрезке [0; 1]. Найти плотность и функцию рас-
пределения их суммы Z = X + Y.
Решение. Совместная плотность распределения независимых ве-
личин равна произведению одномерных. В нашем случае fxy(x, y) = 1 в
квадрате [0; 1] × [0; 1] и равна нулю вне его. Дополняем величину Z до
двумерной, как в примере 6.17. Плотность распределения f(z) по формуле
(6.76):
+∞ 1

f ( z ) = ∫ f x ( t ) f y ( z−t ) dt =∫ f y ( z−t ) dt . (6.86)


−∞ 0

Делаем замену переменной: y= z −t ; dt=−dy ; t∣10 → y∣z−1


z . Получаем:
z

f ( z ) = ∫ f y ( y ) dy . (6.87)
z −1

Интервал интегрирования показан на рис. 6.15, а. Это интервал шириной


1, его правая граница – это параметр z, а левая – z – 1. Если z < 0, то в
интервале интегрирования [z – 1; z] подынтегральная функция fy(y) = 0,
поэтому здесь f(z) = 0. При 0 ≤ z < 1 (этот случай показан на рис. 6.15, а

310
z

сплошными линиями) f ( z ) =∫ dy= z . На следующем интервале 1 ≤ z < 2,


0

который показан на рис. 6.15, а штрих-пунктирными линиями,


1

f ( z ) = ∫ dy=2−z . И, наконец, при z ≥ 2 в интервале интегрирования


z −1

[z − 1; z]: fy(y) = 0, поэтому и f(z) = 0. Результат:

{
0; z∉ [ 0; 2 ) ;
f ( z )= z ; 0⩽ z<1; (6.88)
2− z ; 1⩽ z<2.

fy(y) f(z)

1 1

y z

y=z−1 0 y=z 1 0 1 2

Рисунок 6.15 – Вычисление f(z) (а) и её график (б)

Функцию распределения вычислим двумя способами: по формулам


(6.77) и (6.78), и сравним результаты. Вначале вычисляем по (6.77). При
z < 0: F(z) = 0. На следующем промежутке 0 ≤ z < 1:
z z 2
z
F ( z ) = ∫ f ( ζ ) d ζ =∫ ζ d ζ= . Далее считаем на промежутке 1 ≤ z < 2:
−∞ 0 2
z

)∣
z 1 z 2 2

−∞ 0 1
1
F ( z ) = ∫ f ( ζ ) d ζ =∫ ζ d ζ+∫ ( 2− ζ ) d ζ= + 2 ζ−
2
ζ
2 ( 1
=−
z
2
+2 z −1 . И,

наконец, при z ≥ 2, очевидно, F(z) = 1. Окончательный результат:

311
{
0; z <0;
2
z
; 0⩽ z<1;
F ( z )= 2 2 (6.89)
z
− + 2 z−1; 1⩽ z <2;
2
1; z ⩾2.

y F(z)

1 y=z−1 1

D x z
0 1 0 1 2
x=z z=x+y

Рисунок 6.16 – Вычисление F(z) (а) и её график (б)

На рис. 6.16, б показан график этой функции, а на рис. 6.16, а – принцип


вычисления F(z) по формуле (6.78). Здесь штриховкой показана область,
в которой fxy(x, y) = 1. Для каждого постоянного z нужно вычислять двой-
ной интеграл по области D ниже и левее линии x + y = z. Из-за единичной
fxy(x, y) внутри квадрата интегрирование сводится к вычислению площади
отсекаемой части квадрата. При z < 0 эта прямая проходит ниже и левее
заштрихованного квадрата, поэтому здесь F(z) = 0. Случай 0 ≤ z < 1 пока-
зан на рис. 6.16, а сплошной линией. На оси Ox отсекается отрезок дли-
ной z, и площадь отсекаемого треугольника равна F ( z ) = z 2 / 2. При уве-
личении z прямая x + y = z движется направо вверх. Когда 1 ≤ z < 2, она от-
секает от квадрата треугольник в правом верхнем углу. Это случай пока-
зан на рис. 6.16, а штрих-пунктирной линией. Сторона отсекаемого тре-
угольника равна 2 – z, его площадь равна (2 − z)2/2, а оставшаяся площадь,
2
( 2− z )
равная функции распределения, будет: F ( z ) =1− =
2

312
2
z 1
=− +2 z − . При z ≥ 2 прямая x + y = z оставляет весь квадрат слева и
2 2
ниже себя, поэтому здесь F(z) = 1. Как видим, при любом способе вычис-
ления F(z) одна и та же. 
Пример 6.20. Каждая из трёх независимых величин имеет равно-
мерное распределение на отрезке [0; 1]. Найти плотность распределения
их суммы.
Решение. Мы уже нашли плотность распределения суммы двух не-
зависимых равномерно распределённых величин (6.88). Прибавим к ним
ещё и третью. Обозначим её через U, а сумму трёх величин через V. Име-
ем: V = Z + U, а fuz(u, z) = fu(u)fz(z) в силу независимости слагаемых. Далее
применяем формулу (6.76):
+∞ 1

f ( v ) = ∫ f u ( t ) f z ( v−t ) dt =∫ f z ( v−t ) dt ; (6.90)


−∞ 0

т. к. первый сомножитель fu(t) отличен от нуля только на промежутке


(0; 1]. Теперь, как и в примере 6.19, делаем замену переменной: z = v – t;
1 v−1
dt = –dz; t∣0 → z∣v . Получаем:
v

f ( v ) = ∫ f z ( z ) dz . (6.91)
v−1

Подынтегральная функция и интервал интегрирования (вертикаль-


ная полоса шириной 1) показаны на рис. 6.17, а. При v < 0: fz(z) = 0, поэто-
му и fv(v) = 0. Сдвигаем интервал интегрирования вправо. Случай 0 ≤ v < 1
показан на рис. 6.17, а сплошной линией. В этом промежутке
v 2
v
f ( v ) =∫ zdz= . Следующий промежуток 1 ≤ v < 2 изображён на
0 2
рис. 6.17, а штриховой линией. Интегрируем по нему:
v
2 1

)∣ =−v + 3v− 32 .
1 v

∣ (
2
z z
f ( v ) = ∫ zdz+∫ ( 2− z ) dz= + 2 z− 2

v−1 1 2 v−1 2 1

313
fz(z) f(v)

1 1
0,75
0,5
z v
0 1 2 0 1 2 3
z=y−1 z=y

Рисунок 6.17 – Вычисление f(v) (а) и ее график (б)

Двигаем промежуток интегрирования дальше. При 2 ≤ v < 3 имеем:


2

)∣
2 2 2
( v−1 ) v 2
v−1
(
f ( v ) = ∫ ( 2− z ) dz= 2 z−
z
2 v−1
=2− 2 ( v−1 )+
2 2
9
= −3 v+ .
2
Когда промежуток интегрирования сдвинется еще дальше вправо,
при v ≥ 3, на нём подынтегральная функция опять нулевая, и f(v) = 0. Име-
ем выражение для f(v):

{
0; v∉ [ 0 ; 3 ) ;
v2
; 0⩽v<1 ;
2
f ( v )= 2 3 (6.92)
−v +3 v− ; 1⩽v<2 ;
2
2
v 9
−3 v+ ; 2⩽ v<3 .
2 2

График этой функции показан на рис. 6.17, б. 


В следующей главе мы увидим, как ведёт себя сумма большого чис-
ла слагаемых при определённых условиях.
Пример 6.21. Величины X и Y – независимые и имеют нормальные
распределения с нулевыми МО и одинаковыми СКО. Найти плотность
распределения величины Ρ= √ X 2+Y 2 .
Решение. Если считать X и Y декартовыми координатами точки на
плоскости, то случайная величина Ρ является полярным радиусом. До-

314
полним её полярным углом Φ до двумерного вектора {Ρ, Φ}. В приме-
ре 6.14 мы нашли совместную плотность распределения полярных коор-
динат (6.61). Чтобы теперь найти одномерную плотность распределения
f(ρ), нужно проинтегрировать f(ρ, ϕ) по ϕ во всем промежутке его изме-
2π ρ2 2 π ρ2
ρ − ρ −
f ( ρ ) =∫ ∫ d φ= σ 2 e 2 σ , и это выраже-
2 2
нения: f ( ρ , φ ) d φ= 2
e 2σ
0 2π σ 0

ние имеет место на всем промежутке изменения ρ, т. е. ∀ρ ≥ 0:

{
0; ρ<0 ;
2

f (ρ)= ρ − ρ 2 (6.93)

2e ; ρ⩾0 .
σ
Это распределение называется рэлеевским в
честь Джона Уильяма Стратта Рэлея (John
William Strutt Rayleigh, 1842-1919, рис. 6.18).  В
MATLAB Statistics Toolbox есть следующие функ-
ции для работы с рэлеевским распределением,
описанные в электронной версии книги:
• raylpdf – плотность рэлеевского распреде-
ления;
• raylcdf – функция рэлеевского распределе-
ния; Рисунок 6.18 – Джон
Уильям Стратт Рэлей
• raylinv – квантили рэлеевского распределе-
ния;
• raylrnd – случайные числа с рэлеевским распределением;
• raylstat – числовые характеристики рэлеевского распределения;
• raylfit – оценка параметра рэлеевского распределения.
Пример 6.22. Величины X, Y и Z – независимые и имеют нормаль-
ные распределения с нулевыми МО и одинаковыми СКО. Найти плот-
ность распределения величины R= √ X 2+Y 2+ Z 2 .
Решение. Будем считать X, Y и Z декартовыми координатами точки
на плоскости. Тогда R – это сферический радиус точки. Дополним ве-

315
личину R двумя другими сферическими координатами: Θ и Φ. Совмест-
ная плотность распределения сферических координат {R, Θ, Φ} была
найдена в примере 6.15: это (6.55). Что найти теперь одномерную плот-
ность распределения f(r), нужно проинтегрировать f(r, θ, ϕ) по θ и ϕ в
промежутках их изменения:
2π π r2 r2 r2
r 2 sin θ 2π⋅2r 2 2 r2 −

− −
2 σ2 2σ2 2

f ( r )= ∫ d φ∫ 3 e d θ= 3 e = π 3 e 2σ .
0 0 σ
(2 π) σ3 2
( 2π ) σ 3 2

Это выражение имеем место на всем промежутке изменения r, т. е.


∀r ≥ 0:

{√
0; r<0 ;
2
r
f ( r )= 2 r2 −
2 σ2 (6.94)
e ; r⩾0 .
π σ3

Это распределение называется распреде-


лением Максвелла в честь Джеймса Клерка
Максвелла (James Clerk Maxwell, 1831-1879,
рис. 6.19). Оно широко используется в стати-
стической физике. 
Пример 6.23. Величины X и Y – независи-
мые и имеют нормальные распределения с МО
mx, my и СКО σx, σy. Найти плотность распреде-
ления их суммы.
Решение. Совместная плотность распре-
деления независимых величин равна произве- Рисунок 6.19 – Джеймс
дению одномерных плотностей: Клерк Максвелл

2 2

f ( x, y ) =
1
2π σ x σ y
exp −
(
( x− mx ) ( y−m y )
2
2σ x
− 2
2σ y
.
) (6.95)

Дополняем величину Z = X + Y до двумерной, как в примере 6.17. По


(6.76) имеем:

316
2 2

( )
( t−mx ) ( z−t−m y )
+∞ +∞
1
f ( z ) =∫ f xy ( t , z−t ) dt = ∫ exp − 2 σ 2 − 2 σ 2 dt .
−∞ 2 π σ x σ y −∞ x y

Из-за громоздкости посчитаем этот интеграл с помощью MATLAB.

syms t z mx my sx sy real % символические переменные


fxy=1/(2*pi*sx*sy)*exp(-(t-mx)^2/(2*sx^2)-...
(z-t-my)^2/(2*sy^2)); % f(x,y)
fz=simple(simple(int(fxy,t,-inf,inf))); % f(z)
pretty(fz) % печатаем в красивом виде
2
1/2 / 1 \1/2 (z~ - my~ - mx~)
1/2 2 |----------------| exp(- 1/2 -----------------) signum(sx~ sy~)
| 2 2 | 2 2
\pi (sy~ + sx~ )/ sy~ + sx~

Учитывая, что σx > 0 и σy > 0, имеем результат: сумма независимых


нормально распределённых величин с произвольными параметрами име-
ет нормальное распределение с МО, равным сумме МО слагаемых, и
дисперсией, равной сумме дисперсий. Что касается числовых парамет-
ров, то этот результат уже был доказан: это свойства 6.3 и 6.4. Новым
здесь является сохранение нормальности при суммировании. Очевидно,
по индукции этот результат обобщается на сумму любого числа нормаль-
ных независимых слагаемых. Нормальное распределение, как и пуассо-
новское (см. пример 6.8), является устойчивым к суммированию. 
6.2.4. Числовые характеристики
Свойства 6.1-6.6, доказанные в разделе 6.1.3. для функций дискрет-
ных векторов, имеют место и здесь. Доказательства будут отличаться
только тем, что вместо сумм появятся интегралы. Проведите эти доказа-
тельства самостоятельно.
Рассмотрим теперь вычисление числовых характеристик. Для функ-
ций дискретных векторов, рассмотренных в разделе 6.1.3., эта задача ре-
шается через закон распределения. Чтобы найти, например, my, нужно
построить закон распределения дискретного вектора Y = y(X). Для дис-

317
кретных величин такое построение сводится к нахождению yk = y(xk), в то
время как pk не изменяются. Поэтому, чтобы найти my, нужно было
вычислить yk = y(xk). Для непрерывных величин ситуация несколько иная.
Здесь для вычисления my не нужно в явном виде вычислять f(y) по фор-
муле (6.25). Достаточно заметить, что элементарная вероятность попада-
ния величины X в промежуток ширины dx равна вероятности попадания
величины Y в соответствующий промежуток ширины dy:

f ( y ) dy= P ( Y ∈ [ y ; y+ dy ) ) = P ( X ∈[ x ; x+dx ) ) = f ( x ) dx . (6.96)

Здесь записано выражение для монотонно-возрастающей однозначной


функции. Для монотонно-убывающей и немонотонной функций это вы-
ражение очевидным образом модифицируется: нужно поменять местами
границы промежутка или взять сумму по интервалам монотонности. Но
в любом случае будем иметь выражение для my:
+∞ +∞
m y =∫ y f ( y ) dy= ∫ y ( x ) f ( x ) dx . (6.97)
−∞ −∞

Если f(y)dy представляет из себя сумму по нескольким участкам мо-


нотонности, то выражение в правой части (6.97) учитывает все слагае-
мые этой суммы. По таким же формулам вычисляются и другие число-
вые характеристики. Например, дисперсия:
+∞ +∞
2 2
D y = ∫ ( y−m y ) f ( y ) dy= ∫ ( y ( x )− my ) f ( x ) dx . (6.98)
−∞ −∞

Аналогичный подход используется и для функции нескольких не-


прерывных аргументов. Здесь на каждом участке взаимной однозначно-
сти:

f ( y ) dy=P ( Y ∈ [ y ; y+dy ) ) = P ( X ∈ d Ωm)= f ( x ) dx 1 dx 2 …dx m , (6.99)

поэтому МО можно вычислять по формуле:

318
+∞ +∞ +∞
m y =∫ y f ( y ) dy=∫ … ∫ y ( x ) f ( x ) dx 1 dx 2 …dx m , (6.100)
−∞ −∞ −∞

а дисперсию – по формуле:
+∞ +∞ +∞
2 2
D y =∫ ( y−m y ) f ( y ) dy= ∫ … ∫ ( y ( x ) −m y ) f ( x ) dx1 dx 2 …dx m . (6.101)
−∞ −∞ −∞

Таким образом, если нужно вычислить только числовые характери-


стики функции непрерывной величины (или непрерывных величин), то
нет необходимости искать в явном виде выражение для плотности рас-
пределения.
Пример 6.24. Двумерная случайная величина {X, Y} имеет равно-
мерное распределение в треугольнике, ограниченном осями координат и
прямой 3x + 4y + 12 = 0 (см. пример 5.4). Найти МО, дисперсию, СКО,
асимметрию и эксцесс случайной величины Z = X2 – 2XY.
Решение. Здесь нужно вычислять громоздкие интегралы, поэтому
решим эту задачу с помощью MATLAB. Опишем необходимые символи-
ческие переменные. Найдём нормирующий множитель в выражении для
f(x, y) (этот фрагмент возьмём из примера 5.4). Вычислим нужные число-
вые характеристики и напечатаем их.

syms x y % символические переменные


MyLine=3*x+4*y+12; % левая часть уравнения
z=x^2-2*x*y; % заданная функция
sx=solve(MyLine,x); % решаем относительно x
sy=solve(MyLine,y); % решаем относительно y
x0s=subs(sx,y,sym('0')); % точка пересечения с осью OX
y0s=subs(sy,x,sym('0')); % точка пересечения с осью OY
x0=eval(x0s); % преобразовали в число
y0=eval(y0s);
S=abs(x0s*y0s/2); % площадь треугольника
cs=1/S; % нормировочный коэффициент
c=eval(cs);
mz=int(int(z*cs,y,0,sy)*sign(y0),x,0,x0)*sign(x0); % МО
Dz=int(int((z-mz)^2*cs,y,0,sy)*sign(y0),...

319
x,0,x0)*sign(x0); % дисперсия
Sz=Dz^0.5; % СКО
Az=int(int((z-mz)^3*cs,y,0,sy)*sign(y0),...
x,0,x0)*sign(x0)/Sz^3; % асимметрия
Ez=int(int((z-mz)^4*cs,y,0,sy)*sign(y0),...
x,0,x0)*sign(x0)/Dz^4-3; % эксцесс
fprintf('Числовые характеристики величины z=%s\n',char(z))
fprintf('МО M(z)=%s=%12.8f;\n',char(mz),eval(mz));
fprintf('дисперсия D(z)=%s=%12.8f;\n',char(Dz),eval(Dz));
fprintf('СКО S(z)=%s=%12.8f;\n',char(Sz),eval(Sz));
fprintf('асимметрия A(z)=%s=%12.8f;\n',char(Az),eval(Az));
fprintf('эксцесс E(z)=%s=%12.8f;\n',char(Ez),eval(Ez));
Числовые характеристики величины z=x^2-2*x*y
МО M(z)=2/3= 0.66666667;
дисперсия D(z)=92/9= 10.22222222;
СКО S(z)=1/9*92^(1/2)*9^(1/2)= 3.19722102;
асимметрия A(z)=673/11109*92^(1/2)*9^(1/2)= 1.74323231;
эксцесс E(z)=-329236779/111936400= -2.94128433; 

6.3. Контрольные вопросы к главе 6


1. Дополните решение примеров 6.3 – 6.6 вычислением различных
функций и законов распределения (одномерных, условных, без-
условных), а также числовых характеристик: МО, дисперсий, асим-
метрий, эксцессов.
2. Выведите формулу (6.52).
3. Докажите эквивалентность интегралов (6.77) и (6.78).
4. Докажите эквивалентность интегралов (6.84) и (6.85).
5. Вычислите функцию распределения F(v) в примере 6.20 двумя
способами.
6. Докажите свойства 6.1-6.6 для функций непрерывных векторов.

320
Глава 7. Предельные теоремы теории вероятностей
Теория вероятностей изучает закономерности массовых явлений.
Хотя результат отдельного опыта предвидеть невозможно, результат до-
статочно большой серии опытов уже можно предсказать вполне опре-
делённо. Это свойство устойчивости массовых явлений приводит к тому,
что при большом числе опытов случайности нивелируются, взаимно по-
гашаются, и суммарный результат серии опытов становится известным
почти достоверно. Математическая формулировка этого принципа назы-
вается "закон больших чисел".
В узком смысле слова "закон больших
чисел" – это ряд теорем, в которых для тех
или иных условий устанавливается факт
приближения средних характеристик серии
опытов к некоторым постоянным величи-
нам.
Другая группа теорем устанавливает
тот факт, что при определённых условиях
сумма большого числа случайных величин
как угодно близко приближается к нормаль- Рисунок 7.1 –
но распределенной величине. Общее их на- П. Л. Чебышёв
звание – "центральная предельная теорема
теории вероятностей и следствия из неё".
И те, и другие теоремы изучают предельное поведение случайных
величин, поэтому часто их называют предельными теоремами теории ве-
роятностей. Они рассматриваются в этой главе.

7.1. Закон больших чисел


7.1.1. Неравенство Чебышёва
Теорема 7.1 – неравенство Чебышёва (Пафнутий Львович Че-
бышёв, 1821-1894, рис. 7.1). Вероятность того, что отклонение случайной
величины X от её математического ожидания mx будет больше заданной

321
величины η > 0 или равно ей, не превышает дисперсии этой величины Dx,
деленной на η2:

Dx
P (∣ X −mx∣⩾η )⩽ 2 . (7.1)
η
Геометрическая иллюстрация к этой теореме приведена на рис. 7.2.

вероятность попадания
в эти области не превышает Dx
/η2
график f (x)

mx x
η η

Рисунок 7.2 – К доказательству неравенства Чебышёва

Доказательство мы приведём только для непрерывной случайной


величины. Для дискретной нужно заменить интегралы суммами. Проде-
лайте это самостоятельно.
Запишем выражение для дисперсии (3.34), а затем разобьём весь ин-
тервал интегрирования (−∞, +∞) на 3 участка:

322
+∞ mx−η
2
D x =∫ ( x− mx ) f ( x ) dx =
−∞ −∞
∫ ( x−mx )2 f ( x ) dx +
mx +η +∞ (7.2)
+ ∫ ( x− mx )2 f ( x ) dx+ ∫ ( x−mx )2 f ( x ) dx ,
mx −η mx+η

где f(x) – плотность распределения величины X. Каждое слагаемое в пра-


вой части – неотрицательное, т. к. это интеграл от неотрицательной
функции в положительном направлении. Поэтому, если отбросить сред-
нее слагаемое, получим неравенство:
mx −η +∞

∫ ( x−m x)2 f ( x ) dx+ ∫ ( x− mx )2 f ( x ) dx⩽ D x .


−∞
(7.3)
m x+η

Здесь во всех точках на обоих интервалах интегрирования |x – mx| ≥ η. Для


перехода к (7.1) заменим первый множитель под интегралом меньшей ве-
личиной η2. От этого неравенство (7.3) только усилится:
m x−η

( )
+∞
η
2

−∞
f ( x ) dx+ ∫ f ( x ) dx ⩽ D x . (7.4)
mx+η

Каждый из интегралов в скобках – вероятность попадания в интервалы


(−∞; mx – η) и (mx + η; +∞) соответственно. Отсюда получаем (7.1). 
Пример 7.1. Правило "kσ". Имеется случайная величина X с неиз-
вестным распределением. Найти вероятность того, что взятое наугад её
значение x (оно называется реализацией) будет находиться в интервале
(mx − kσx; mx + kσx).
Решение. Возьмём η = kσx. Из неравенства Чебышёва (7.1) следует,
что вероятность её выхода из интервала (mx – kσx; mx + kσx) не превышает
1 / k2. Вероятность противоположного события P(X ∈ (mx − kσx; mx + kσx)) >
> 1 − 1 / k2. Самая нижняя оценка, очевидно, P(X ∈ (mx − kσx; mx + kσx)) =
= 1 − 1 / k2. В частности, правилу "3σ" соответствует P = 8 / 9, а правилу
"5σ" – P = 24 / 25 = 96%. Но это самая нижняя оценка, которая годится для
любого распределения. Если же вид распределения заранее известен, то
можно дать более точную оценку попадания в заданный интервал. Для

323
этого нужно взять разность значений функции распределения на верхнем
и нижнем пределах. Вот примеры правила "3σ" для нескольких распре-
делений.
disp('Правило "3sigma" для различных распределений:')
m=0; % параметры нормального распределения
s=1;
x=[m-3*s;m+3*s];
fprintf('Нормальное: p=%8.5f%%\n',...
diff(normcdf(x,m,s))*100)
a=0; % параметры равномерного распределения
b=1;
[m,v]=unifstat(a,b); % МО и дисперсия
s=v^0.5; % СКО
x=[m-3*s;m+3*s];
fprintf('Равномерное: p=%8.5f%%\n',...
diff(unifcdf(x,a,b))*100)
mu=1; % параметр экспоненциального распределения
[m,v]=expstat(mu); % МО и дисперсия
s=v^0.5; % СКО
x=[m-3*s;m+3*s];
fprintf('Экспоненциальное: p=%8.5f%%\n',...
diff(expcdf(x,mu))*100)
b=1; % параметр рэлеевского распределения
[m,v]=raylstat(b); % МО и дисперсия
s=v^0.5; % СКО
x=[m-3*s;m+3*s];
fprintf('Рэлеевское: p=%8.5f%%\n',diff(raylcdf(x,mu))*100)
Правило "3sigma" для различных распределений:
Нормальное: p=99.73002%
Равномерное: p=100.00000%
Экспоненциальное: p=98.16844%
Рэлеевское: p=99.43725%

Как видим, если вид распределения заранее известен, то правилу


"3σ" соответствует вероятность, значительно больше, чем 8 / 9 ≈
≈ 88,89%. 

324
7.1.2. Сходимость по вероятности
Для дальнейших теорем нам понадобятся некоторые свойства преде-
лов по вероятности. Мы ввели такой предел в разделе 2.2. (определе-
ние 2.14). Основное его отличие от обычного состоит в том, что здесь
нужно задавать не одну сколь угодно малую величину, а две.
При доказательстве свойств предела по вероятности в случае необ-
ходимости будем заменять в определении 2.14 строгие неравенства на
нестрогие. Очевидно, смысл понятия от этого не изменится.
Теорема 7.2. Если в последовательности случайных величин {Xn}
МО всех величин постоянное: M(Xn) = C, а lim D ( X n )= 0 (здесь обыч-
n→ ∞
ный предел числовой последовательности), то последовательность слу-
чайных величин {Xn} сходится по вероятности к константе C:
lim X n=C .
n→ ∞
Иллюстрация этой теоремы – на рис. 7.3. С ростом n график плотно-
сти распределения f(x) не смещается относительно МО, но "сплющивает-
ся", всё более приближаясь к δ-функции Дирака.
Доказательство. Докажем сходимость по вероятности {Xn} к C. За-
дадим сколь угодно малые ε и δ. Как выбрать номер N, начиная с которо-
го ∀ Xn будет выполняться P(|Xn – C| > ε) < δ? Воспользуемся тем, что
lim D ( X n )= 0. Это значит, что для любого сколь угодно малого заданно-
n→ ∞

го наперёд числа найдется номер N, начиная с которого дисперсии всех


последующих величин будут меньше этого числа. В частности, для мало-
го числа ε2δ тоже найдётся такое N, начиная с которого D(Xn) < ε2δ. Пока-
жем, что это и есть тот самый нужный нам номер, начиная с которого вы-
полняется P(|Xn − C| > ε) < δ. По неравенству Чебышёва (7.1):

D( X n)
P (∣ X n−C∣⩾ε)⩽ <δ.  (7.5)
ε2
Условия M(Xn) = C и lim D ( X n )=0 являются достаточными, но не
n→ ∞

необходимыми условиями сходимости по вероятности {Xn} к C. Число-


вая последовательность {Xn} может сходиться по вероятности к детерми-

325
нированной величине C и при других, менее жёстких условиях. В
частности, МО всех Xn не обязательно должны быть равны C. Они могут
лишь стремиться к C: lim M ( X n ) =C , как показано на рис. 7.4. Этого
n→ ∞

тоже вполне достаточно, чтобы существовал предел по вероятности


lim X n=C .
n ∞

f(x)

M(X n) = C

Рисунок 7.3 – Поведение {Xn} при M(Xn) = C; D(Xn) → 0

Теорема 7.3. Если в последовательности случайных величин {Xn}:


lim M ( X n )=C , а lim D ( X n )= 0 (здесь имеются в виду обычные пределы
n→ ∞ n→ ∞

числовых последовательностей), то вероятностный предел lim


n→ ∞
X n=C .

326
f(x)

M(Xn)

C x

Рисунок 7.4 – Поведение {Xn} при M(Xn) → C; D(Xn) → 0

Доказательство. Нам нужно доказать сходимость по вероятности


{Xn} к C. Зададим сколь угодно малые ε и δ, и попытаемся выбрать номер
N, начиная с которого ∀ Xn будет выполняться P(|Xn – C| > ε) < δ. Для этого
2ε η ε
по выбранным ε и δ вычислим величины: η= , ε1= 2 = 3 и
3
2
4ε δ
ε2= . Соотношение между этими величинами показано на рис. 7.5.
9
Из предела МО lim M ( X n ) =C следует, что для выбранного нами ε1 су-
n→ ∞

327
ществует такой номер N1, начиная с которого |M(Xn) – C| ≤ ε1. А из предела
дисперсий lim D ( X n )=0 следует, что для нашего ε2 существует такой
n→ ∞

номер N2, начиная с которого D(Xn) ≤ ε2. Возьмём теперь N = max(N1, N2), и
рассмотрим поведение случайной величины Xn для всех n > N.
Неравенство Чебышёва дает:

D ( X n) ε2
P (∣ X n− M ( X n )∣⩾η) ⩽ ⩽ =δ . (7.6)
η2 η2

Но мы выбрали ε, η и ε1 так, что область |Xn – C| ≥ ε является подобластью


области |Xn – M(Xn)| ≥ η, поэтому вероятность выполнения условия
|Xn – C| ≥ ε также меньше δ. Следовательно, {Xn} сходится по вероятности
к C. 

вероятность попадания
в эти области меньше, чем D(Xn )/η 2 = δ

M(Xn)

N x
ε1
η η
ε ε
n

Рисунок 7.5 – К доказательству теоремы 7.3

328
Можно доказать и обратную теорему: если {Xn} сходится по вероят-
ности к детерминированной величине C, то M(Xn) → C, а D(Xn) → 0 при
n → ∞. Проделайте это самостоятельно.

7.1.3. Теоремы Чебышёва и Маркова


Эти теоремы устанавливает поведение среднего арифметического
случайных величин, когда число слагаемых неограниченно возрастает.
Теорема 7.4 (Чебышёва). При n → ∞ среднее арифметическое оди-
наково распределённых независимых величин Xi сходится по вероятно-
сти к МО каждой из них.
Доказательство. У нас M(Xi) = mx (одинаковые для всех), а D(Xi) = Dx
(также одинаковые). Рассмотрим поведение среднего арифметического n
независимых величин с одинаковыми распределениями:
n
1
Y n= ∑X .
n i =1 i
(7.7)

Некоторые из распределений устойчивы к суммированию, другие нет.


Например, сумма нормальных величин имеет нормальное распределение
(пример 6.23), сумма пуассоновских – пуассоновское (пример 6.8), но
сумма равномерных величин уже не будет иметь равномерное распреде-
ление (примеры 6.19, 6.20). Поэтому в общем случае закон распределе-
ния Y не обязательно будет совпадать с законами распределения Xi. Но
МО суммы любых величин всегда равно сумме МО (свойство 6.3), а дис-
персия суммы независимых величин равна сумме дисперсий (свой-
ство 6.4 и следствие из него):

n n n n

M ( )
∑ X i =∑ M ( X i )=nm x ;
i=1 i=1
D ( )
∑ X i =∑ D ( X i )=nD x .
i =1 i =1
(7.8)

Теперь умножаем сумму величин на постоянный множитель 1 / n. При


вычислении МО постоянный множитель выносится по свойству 6.1, а
при вычислении дисперсии выносится его квадрат (свойство 6.2):

329
1 1 Dx
M ( Y n )= n mx =m x ; D ( Y n )= 2 n Dx = . (7.9)
n n n

Последовательность {Yn} удовлетворяет условиям теоремы 7.2:


M(Yn) = mx = const; lim D ( Y n )=0, поэтому {Yn} сходится по вероятности к
n→ ∞

mx, что и требовалось доказать. 


А теперь пусть Xi по-прежнему независимые, но имеют различные
МО и различные дисперсии. Как ведёт себя
их среднее арифметическое при n → ∞?
Теорема 7.5 (обобщённая теорема Че-
бышёва). Пусть величины Xi независимые,
имеют МО mi и дисперсии Di, причём диспер-
сии ограничены: существует некоторое число
L такое, что ∀i: Di < L. Тогда при n → ∞ их
среднее арифметическое Yn (7.7) сходится по
вероятности к пределу среднего арифметиче-
ского МО, если такой предел существует.
Доказательство проводим так же, как и
для теоремы 7.4. Вначале находим МО и дис-
Рисунок 7.6 –
персию суммы n слагаемых Xi: А. А. Марков
n n n n n n

M ( )
∑ X i = ∑ M ( X i ) = ∑ mi ;
i =1 i=1 i=1
D ( )
∑ X i =∑ D ( X i )=∑ Di ;
i=1 i =1 i=1
(7.10)

а затем вычисляем эти величины для Yn:


n n
1
M ( Y n )= ∑ m ; D ( Y n )= 12 ∑ Di .
n i =1 i
(7.11)
n i=1
Рассмотрим последовательность {Yn}. По условию теоремы суще-
ствует предел M(Yn), который мы обозначим через C: ∃lim M ( Y n ) =C .
n →∞

Найдём теперь lim D ( Y n ) . В силу ограниченности Di:


n→ ∞

330
n
1
D ( Y n )= ∑ D i< nnL2 = Ln ,
n2 i=1
(7.12)

поэтому lim D ( Y n )=0. Последовательность {Yn} удовлетворяет услови-


n→ ∞

ям теоремы 7.3, следовательно, она сходится по вероятности к C, что и


требовалось доказать. 
Но даже если Xi зависимые, при некоторых условиях их среднее
арифметическое сходится по вероятности к МО Xi (если они одинаковые)
или к пределу среднего арифметического МО (если он существует). Ведь
свойство 6.3 имеет место не только для независимых величин. Эту теоре-
му сформулировал и доказал Андрей Андреевич Марков (1856-1922,
рис. 7.6).
Теорема 7.6 (Маркова). Даже если величины Xi зависимые, но
n
lim
1
n→ ∞ n
2
D
( ) ∑ X i =0,
i =1
(7.13)

то теорема Чебышёва также имеет место.


Доказательство. Если все Xi имеют одинаковые МО, то и для зави-
симых, и для независимых Xi: M(Yn) = mx = const. Для различных МО:
n
1
M ( Y n )= ∑ m , и в этом случае будем предполагать, что, как и в теоре-
n i=1 i
ме 7.5, ∃lim M ( Y n )=C . А предел дисперсии величины Yn:
n →∞

n
lim D (Y n )=lim
n→ ∞ n→ ∞
1
n2
D
(∑ )
i =1
X i =0 . (7.14)

Поэтому выполняются условия теоремы Чебышёва (или обобщённой


теоремы Чебышёва), а, значит, {Yn} сходится по вероятности к mx или
C=lim M ( Y n ) , что и требовалось доказать. 
n →∞

331
7.1.4. Теоремы Бернулли и Пуассона
Эта группа теорем устанавливает связь между статистическим опре-
делением вероятности (2.4) и классическим (2.5).
Теорема 7.7 (Бернулли). При n → ∞ в испытаниях по схеме Бернул-
ли (определение 4.1) частота появления события У сходится по вероятно-
сти к его вероятности p:
M
lim =p. (7.15)
n→ ∞ n

Здесь количество успехов обозначено прописной буквой M, т. к. оно


рассматривается как случайная величина. В статистическом определении
вероятности (2.4) для обозначения конкретного значения величины M ис-
пользовалась строчная буква m.
Доказательство. В схеме Бернулли проводится n независимых опы-
тов, в каждом из которых событие У может проявиться с вероятностью p
или не проявиться с вероятностью q = 1 – p. Поэтому введём в рассмотре-
ние независимые случайные величины X1, X2, …, Xn, каждая их которых
представляет количество успехов в соответствующем испытании. Испы-
тания проводятся в одинаковых условиях, поэтому все Xi имеют одина-
ковые распределения (оно называется распределением Бернулли). Коли-
чество успехов – это целое число, значит, каждая Xi – дискретная. В од-
ном испытании может проявиться не более одного успеха (или 0, или 1),
поэтому каждая Xi – двузначная: её возможные значения 1 и 0, а соответ-
ствующие вероятности p и q. Найдем МО и дисперсию Xi:

M ( X i )=0⋅q+1⋅p= p;
2 2 (7.16)
D ( X i )=( 0− p) ⋅q+( 1− p ) ⋅p= p 2 q+ q2 p= pq .

Количество успехов в n испытаниях – это количество успехов в 1-м


испытании плюс количество успехов во 2-м испытании плюс и т. д.,
n
поэтому M = ∑ X i , а случайная величина Yn = M / n удовлетворяет всем
i =1

условиям теоремы Чебышёва: это среднее арифметическое независимых

332
величин с одинаковым распределением. Такая величина при n → ∞ схо-
дится по вероятности к МО каждой из них, т. е. к p. 
Обобщением теоремы Бернулли является теорема Пуассона, которая
устанавливает поведение частоты появления события У, когда вероятно-
сти успехов в различных испытаниях разные.
Теорема 7.8 (Пуассона). Если в каждом из независимых испытаний
вероятность успеха pi различная, но существует предел среднего арифме-
тического pi при n → ∞, то частота события при n → ∞ сходится по веро-
ятности к среднему арифметическому pi.
Доказательство проводится так же, как для теоремы Бернулли.
Каждая из независимых Xi является дискретной и двузначной: её возмож-
ные значения 0 и 1, а вероятности их проявления pi и qi = 1 – pi. Числовые
характеристики Xi: M(Xi) = pi; D(Xi) = piqi. Среднее арифметическое Xi
удовлетворяет условиям обобщённой теоремы Чебышёва: существует
предел среднего арифметического МО, а дисперсии ограничены сверху
значением max(piqi) = 0,25. Поэтому случайная величина Yn = M / n при
n → ∞ сходится по вероятности к пределу среднего арифметического
МО. 

7.2. Центральная предельная теорема


7.2.1. Характеристические функции
При доказательстве центральной предельной теоремы весьма удоб-
ным является аппарат характеристических функций. Рассмотрим их.
Определение 7.1. Характеристической функцией случайной ве-
личины X называется МО величины eitX, где i2 = –1, рассматриваемое как
функция действительного аргумента t:
it X
g ( t )= M ( e ).  (7.17)
Математическое ожидание вычисляется по формулам (3.15)-(3.17),
принципам, изложенным в разделе 6.13, и формуле (6.97). Если X – дис-
кретная величина с возможными значениями xk и вероятностями их появ-

333
ления pk, то характеристическая функция вычисляется по формуле:
i t xk
g ( t )= ∑ e pk. (7.18)
∀k

Для непрерывной величины с плотностью распределения f(x) харак-


теристическая функция находится так:
+∞
g ( t )= ∫ e
itx
f ( x ) dx . (7.19)
−∞

При необходимости внизу ставят индекс той величины, для которой


вычисляется характеристическая функция. Например, gx(t) – характери-
стическая функция величины X, а gy(t) – характеристическая функция Y.
Характеристическая функция для непрерывной величины (7.19) –
это интеграл Фурье от её плотности распределения в комплексной фор-
ме, поэтому по g(t) можно восстановить f(x) с помощью обратного преоб-
разования Фурье:
+∞
1
f ( x )= ∫ e−i t x g ( t ) dt .
2 π −∞
(7.20)

Как известно из курса анализа, если f(x) кусочно-непрерывная и аб-


солютно интегрируемая на числовой оси (у нас это выполняется), то
преобразование Фурье является взаимно-однозначным, поэтому по f(x)
находится единственная g(t), и наоборот, по g(t) находится единственная
f(x).
Свойство 7.1. Если Y = kX, где k = const, то gy(t) = gx(kt).
Доказательство. gy(t) = M(eitY) = M(eitkX) = M(ei(kt)X) = gx(kt). 
n
Свойство 7.2. Если Y =∑ X k , и Xk – независимые, то
k=1

g y ( t )= ∏ g x ( t ) .
k
k =1

334
n

g ( t )= M ( e )=M (∏ e n n

)
it Xk
it X k it X k
Доказательство. y
k =1
=∏ M ( e )=
k=1 k=1

= ∏ g x ( t ) . Здесь используется свойство (6.23): МО произведения неза-


k
k =1

висимых величин равно произведению МО. 


Пример 7.2. Найти характеристическую функцию константы.
Решение. Константа (детерминированная величина) принимает
единственное свое значение C с вероятностью 1. Считаем по формуле
(7.18): gx(t) = eitC⋅1 = eitC. 
Пример 7.3. Случайная величина X – дискретная, двузначная, при-
нимает значения 1 и 0 с вероятностями соответственно p и q. Например,
это может быть количество успехов в одном испытании по схеме Бернул-
ли. Найти характеристическую функцию этой величины.
Решение. Считаем по формуле (7.18): gx(t) = e0it⋅q + e1it⋅p = = peit + q. 
Пример 7.4. Случайная величина X имеет биномиальное распреде-
ление с параметрами n и p. Найти её характеристическую функцию.
Решение. Закон биномиального распределения имеет вид (4.1).
Ищем характеристическую функцию по формуле (7.18):
n n
k n
g x ( t ) = ∑ ei t k C kn pk qn−k =∑ C kn ( p ei t ) q n −k =( p ei t +q ) . Последнее равен-
k=0 k=0

ство следует из бинома Ньютона. Этот результат следует также из свой-


ства 7.2. 
Пример 7.5. Случайная величина X имеет пуассоновское распреде-
ление (4.39) с параметром a. Найти её характеристическую функцию.
it k
a −a −a ∞ ( a e )
∞ it kk
e it it

g x ( t ) =∑ e =e ∑
−a a e a ( e −1)
Решение. = e e =e =
k=0 k! k =0 k !
( )
=e a cos t+i sin t −1 . Третье равенство – это вычисление суммы ряда для
экспоненты. 