Открыть Электронные книги
Категории
Открыть Аудиокниги
Категории
Открыть Журналы
Категории
Открыть Документы
Категории
С. П. Иглин
Теория вероятностей
и математическая статистика
на базе MATLAB
Учебное пособие
Утверждено
редакционно-издательским
советом университета,
протокол № 1 от 20.01.2005 г.
1
ББК 22.171
І 26
УДК 519.2, 681.142.2
Іглін С. П.
Теорія ймовірностей та математична статистика на базі MATLAB:
Навч. посіб. – Харків: НТУ "ХПІ", 2006. – 612 c. – Рос. мовою.
ІSBN 966-593-466-X
Рассматривается курс теории вероятностей и математической статистики
в пределах программы для технических вузов. Все разделы ориентированы на
широкое применение математического пакета MATLAB.
Предназначено для студентов, аспирантов, преподавателей, использую-
щих в своей деятельности этот математический аппарат и MATLAB.
2
Введение
3
ники и учебные пособия, как [2] (теория вероятностей и математическая
статистика, Mathcad и Statistica), [10] (уравнения математической физи-
ки, Maple), [15] (вариационное исчисление, математическая статистика и
теория графов, MATLAB), [24] (аналитическая геометрия и линейная ал-
гебра, MATLAB), [26] (сопротивление материалов, Mathcad), [34] (анализ
данных и статистика, Stadia и Statgraphics), [37, 38] (различные разделы
высшей математики, Mathcad). Из зарубежных изданий можно выделить
[40, 41, 44], в которых используются SPSS, Statistica, MATLAB, Mathcad,
Maple.
Из всех перечисленных выше пакетов MATLAB [3, 11, 27] привлёк
наше внимание прежде всего своей универсальностью. С его помощью
можно проводить и обучение, и серьёзные научные исследования.
Освоив его во время учёбы в вузе, будущий специалист сможет приме-
нять его и дальше в своей работе. MATLAB в одинаковой мере хорошо
приспособлен и для теоретических выкладок, и для вычислений. В него
включено ядро Maple, который является общепризнанным лидером в об-
ласти символических вычислений. А сам MATLAB и его многочислен-
ные расширения, описанные, например, в [12, 19, 25], прекрасно работа-
ют с числами. Обширный список литературы по MATLAB и его расши-
рениям есть на сайтах [31] (на русском языке) и [42] (на английском).
Для привлечения клиентов производитель MATLAB компания
MathWorks Inc. позволяет вузам приобретать его со значительными скид-
ками. Это делает систему MATLAB, на наш взгляд, наиболее подходя-
щей средой для обучения студентов методам решения математических и
прикладных задач.
Среди прочих расширений в MATLAB есть специальный инстру-
ментарий для решения задач статистики [45]. Некоторые его функции
описаны на сайте [31], и этот список постоянно расширяется. В отличие
от специализированных статистических пакетов, MATLAB позволяет ис-
пользовать решение статистических задач как составную часть других
исследований. С помощью MATLAB, например, можно собрать экспери-
4
ментальные данные с прибора, установленного в одном месте Земли; об-
работать эту информацию; результаты обработки использовать в других
символических и численных расчётах как исходные данные; а по ре-
зультатам расчётов сгенерировать отчёт и отправить его в другое место
Земли.
Как и многие программы, написанные под Windows, MATLAB мо-
жет встраиваться в другие приложения этой системы и работать с ними
совместно, динамически обмениваясь данными. В частности, автором
этой книги разработан механизм совместной работы системы MATLAB и
динамической web-страницы [14], что даёт возможность публиковать в
сети Интернет интерактивные учебники с прямым доступом к MATLAB.
В частности, именно по такой технологии создана и размещена в Интер-
нете и электронная версия данной книги, доступная по адресу [16]. На
ней читатель может найти все программы из этой книги, запустить их на
счёт прямо со страницы и получить нужные ему результаты. Можно так-
же свободно переписать архив электронной версии, чтобы в дальнейшем
работать с ним на своем компьютере локально.
Эти соображения и привели к необходимости написать учебник по
теории вероятностей и математической статистике с использованием
MATLAB. Первая попытка систематического изложения вузовского кур-
са математической статистики с решением задач в среде MATLAB была
предпринята автором во второй части книги [15]. Как показали отзывы
читателей и опыт преподавания в вузе, одного курса статистики мало.
Обычно в технических вузах читается объединённый курс теории веро-
ятностей и математической статистики, поэтому удобно иметь под рукой
один учебник по этим курсам. Кроме того, для решения как учебных, так
и практических задач по статистике нужно полное описание всех стати-
стических функций MATLAB с примерами их применения. Это и
предопределило структуру настоящей книги.
5
Содержание и структура книги
Первая и вторая части посвящены соответственно теории вероятно-
стей и математической статистике. Эти части книги написаны на основе
лекций, практических и лабораторных занятий, которые автор на протя-
жении более чем 20 лет преподаёт студентам Национального техническо-
го университета "Харьковский политехнический институт" [15, 17, 32].
Объём, содержание и порядок изложения материала в этих частях соот-
ветствует программе курса теории вероятностей и математической стати-
стики для технических вузов. При написании второй части была сохране-
на структура соответствующих глав предыдущей книги автора [15]. Не-
которые доказательства опущены (в частности, теорем Гливенко-Кантел-
ли и Колмогорова и ряда критериев), т. к. они доказываются только в
университетских курсах. Их доказательства можно найти, например, на
сайте [36].
Почти все главы первой и второй частей построены примерно оди-
наково. По ходу изложения теоретического материала рассматриваются
примеры. Если их решение не может быть получено устным счётом, при-
меняется MATLAB. При этом решение везде доводится до численного
результата, при необходимости рисуется график. Но MATLAB использу-
ется не только для решения примеров. Он применяется также при гро-
моздких выкладках. Например, нахождение плотности распределения
суммы двух независимых нормальных величин сводится к вычислению
несобственного интеграла, который берётся с помощью MATLAB. В кон-
це каждой главы следуют контрольные вопросы для самопроверки.
Во вторую часть "Математическая статистика" включена глава 16 по
генерации вариантов индивидуальных домашних заданий (ИДЗ), а для
первой части "Теория вероятностей" в электронной версии книги имеет-
ся по 30 вариантов ИДЗ для каждой темы.
В конце книги – два приложения. В первом рассмотрены некоторые
приёмы статистической обработки данных в среде MATLAB. Если вы
раньше никогда не работали с MATLAB, чтение книги целесообразно на-
6
чать с него. Во втором приложении описано содержимое электронной
версии книги.
Для облегчения перекрёстных ссылок все формулы, определения,
теоремы, рисунки и т. п. имеют двойную нумерацию, включающую но-
мер главы. Конец примера, определения или доказательства отмечен
символом . Портреты учёных, помещённые в книге, взяты из Интерне-
та.
В электронной версии книги, размещённой на сайте автора в Интер-
нете, приведено описание всех функций MATLAB Statistics Toolbox с
примерами по каждой функции. Некоторые примеры взяты из
официальной документации [45], но многие написаны заново. Расшире-
ны также комментарии, отмечены найденные ошибки. Формулы взяты из
[1, 21, 45]. Эта часть книги дополнена описанием некоторых статистиче-
ских функций, которых нет в MATLAB Statistics Toolbox. Они разработа-
ны пользователями MATLAB, размещены на сайте [42] и доступны для
свободного копирования.
7
его папок. После этого никакой инсталляции не требуется: весь документ
состоит только из web-страниц, рисунков к ним, запакованных файлов с
примерами, таблиц стилей и файлов сценариев. В корневой папке нахо-
дится главный файл электронной версии книги index.html. Загрузив его,
вы попадёте в оглавление. Далее следуйте по обычным перекрёстным
ссылкам.
8
В электронный вариант книги встроен механизм взаимосвязи с
MATLAB, описанный в [14]. Для правильной совместной работы с
MATLAB нужно изменить некоторые настройки вашего обозревателя.
Выполните следующие действия.
1. Войдите в меню Сервис | Свойства обозревателя.
2. Откройте страницу Безопасность.
3. Выберите зону Интернет.
4. Включите уровень безопасности Другой.
5. Найдите переключатель Использование элементов ActiveX, не по-
меченных как безопасные (это в конце списка). Переключите фла-
жок в положение Предлагать, как показано на рис. 1.
6. Нажмите кнопку OK, чтобы принять изменение, и обновите загруз-
ку страницы.
Эти действия нужно повторить и для других зон (п. 3 вышеприве-
денного списка).
Если при загрузке любой страницы обозреватель ограничивает отоб-
ражение активного содержимого, нужно разрешить его, как показано на
рис. 2.
9
Теперь ваш обозреватель готов к совместной работе с MATLAB. За-
грузив страницу с локального диска компьютера или через Интернет, вы
сможете подключить MATLAB, установленный на вашем компьютере
(если он там, конечно, есть). При загрузке каждой страницы (главы кни-
ги) появляется вопрос: Разрешить ли загрузку ActiveX элементов, не
помеченных как безопасные? Нужно ответить Да, т. к. в данном случае
таким элементом является MATLAB.
Ну и, конечно, для совместной работы с MATLAB нужен сам
MATLAB версии 5, 6 или 7. Если его нет, то вы сможете только читать
электронную версию книги в интерактивном режиме, но посчитать свои
задачи вам не удастся. Для полноценной работы с книгой инсталлируйте
на свой локальный компьютер MATLAB. Полная его версия занимает от
одного до трёх дисков и требует для своей установки более 800 Мбайт.
Но, если отказаться от некоторых инструментариев (в MATLAB они на-
зываются Toolboxes), то можно значительно сократить объём дискового
пространства. При решении задач из этой книги нам понадобятся
следующие инструментарии:
• Symbolic Toolbox (для символьных вычислений);
• Optimization Toolbox (для решения задач оптимизации);
• Statistics Toolbox (для статистики, в этой книге он используется бо-
льше всего).
Их нужно установить обязательно. Можно сэкономить место на дис-
ке, отказавшись от одной из двух справочных служб: или в формате
HTML, или в формате PDF. Они полностью дублируют друг друга. Пер-
вая из них по умолчанию загружается во внутренний браузер MATLAB,
но доступна также для просмотра через Internet Explorer, а вторая может
быть прочитана с помощью Acrobat Reader.
К сожалению, в MATLAB-6.0 и 6.1 есть проблемы с кодировкой не-
которых символов кириллицы. В частности, буква я (ASCII-код 255, т. е.
все единицы в двоичной системе), видимо, используется разработчиками
MATLAB в своих, служебных целях, т. к. она не воспринимается даже в
10
комментариях. Если у вас установлена такая версия, замените везде в об-
ластях ввода маленькую букву я на большую Я. Начиная с версии 6.5,
эта проблема решена, поэтому при возможности установите эту или бо-
лее позднюю версию. В электронном варианте книги описываются функ-
ции той версии Statistics Toolbox, которая поставляется с MATLAB-7.
В том месте книги, где нужно будет что-то посчитать, вы встретите
область ввода, область вывода и кнопку "Посчитать". На рис. 3 показано,
как они выглядят в электронной версии книги. Там они "живые": если в
область ввода ввести какие-либо команды MATLAB (или изменить
имеющиеся там) и нажать на кнопку "Посчитать", то команды из области
ввода будут пересланы в MATLAB, запущены на счет, а результаты воз-
вращены в область вывода на web-страницу.
11
При первом нажатии на кнопку "Посчитать" к web-странице под-
ключается MATLAB (если он, конечно, установлен на вашем компью-
тере). Его пиктограмму можно увидеть на панели задач. Пока web-стра-
ница загружена, её экземпляр MATLAB остаётся подключенным к ней, и
можно считать программы, состоящие из нескольких фрагментов, раз-
мещённых в различных областях ввода. При закрытии окна web-страни-
цы автоматически закрывается и связанный с ней экземпляр MATLAB.
Поэтому, если нужно временно перейти к другой главе книги, не теряя
результаты счёта на текущей, открывайте новую web-страницу в новом
окне браузера. Электронная версия книги по умолчанию загружает каж-
дую новую страницу (главу) в новом окне.
В печатном варианте книги эти области – лишь иллюстрация. Вот
как они выглядят:
12
Часть I. Теория вероятностей
Глава 1. Комбинаторика
Для вычисления вероятностей нам нужно будет подсчитывать ко-
личество вариантов наступления тех или иных событий. Поэтому перед
изучением теории вероятностей рассмотрим некоторые понятия, связан-
ные с комбинаторикой. Данная глава носит вспомогательный характер.
Если вы изучали этот раздел математики раньше, можно её пропустить.
13
предметов? А если некоторые из предметов одинаковые? Эти и другие
вопросы рассматриваются в разделе математики, который называется
комбинаторикой.
Определение 1.1. Комбинаторикой называется раздел математики,
который изучает выбор и расположение (упорядочение) объектов, а так-
же методы подсчёта общего количества способов, которыми это можно
сделать.
Очевидно, ответы на сформулированные выше вопросы не зависят
от того, какие именно предметы, люди или персонажи рассматриваются.
Так, вместо героев сказки с рис. 1.1 мы могли бы рассматривать любые 4
предмета, например: , , и . Поэтому естественным представ-
ляется как-то перенумеровать предметы и рассматривать вместо них их
номера. В каком же порядке их нумеровать? В принципе это всё равно,
т. к. при любой последовательной нумерации всегда соблюдается взаим-
но-однозначное соответствие (биекция) между предметами и номерами.
Можно, например, применить лексикографическое (алфавитное) упоря-
дочение. Тогда при использовании русского языка авторучка будет пред-
метом номер 1, кассета – 2, ножницы – 3 и телефон – 4. Но при
упорядочении по английскому алфавиту нумерация уже будет другой:
cassette – 1, pen – 2, scissors – 3 и telephone – 4. Будем считать, что мы
как-то определились в этом вопросе и перенумеровали наши предметы.
Поэтому в дальнейшем, когда мы будем говорить о предметах, на практи-
ке мы будем использовать натуральные числа.
При подсчёте количества вариантов мы будем руководствоваться
двумя правилами, которые сформулируем в виде теорем с почти очевид-
ными доказательствами. Первое правило относится к последовательному
выполнению нескольких действий.
Теорема 1.1 (правило умножения). Пусть требуется совершить
одно за другим 2 действия, причём первое действие можно совершить n
способами, а второе – k способами. Тогда общее количество способов,
которыми можно совершить эти 2 действия, равно nk.
Доказательство. Для каждого из n способов совершения 1-го дей-
14
ствия есть k вариантов продолжения (выполнения 2-го действия). Всего,
таким образом, имеем k + k + … (всего n раз) = nk способов.
Эта теорема допускает обобщение на случай нескольких последова-
тельно выполняемых действий.
Следствие 1.1. Пусть требуется совершить одно за другим n дей-
ствий, причём первое действие можно совершить k1 способами, второе –
k2 способами, …, и n-е действие – kn способами. Тогда общее количество
способов, которыми можно совершить все n действий, равно
n
N n= k 1 k 2 …k n =∏ k i . (1.1)
i=1
15
Эта ситуация показана на рис. 1.3. Обратите внимание: даже если
действия производятся одновременно, часто их можно рассматривать как
последовательные.
Пример 1.1. В группе 14 юношей и 10 девушек. Сколько пар можно
составить, чтобы на вечеринке все ребята перетанцевали со всеми де-
вушками?
Решение. Очевидно, чтобы составить пару, нужно сначала выбрать
одного партнёра (например, юношу), а потом – девушку, или наоборот.
Т. е. нужно последовательно выполнить два действия, а, значит, приме-
нить правило умножения. В данном примере 1-е действие можно выпол-
нить 14-ю способами, а второе – 10-ю. Поэтому общее количество раз-
личных смешанных пар равно 14 × 10 = 140.
Пример 1.2. На следующий день после вечеринки та же группа в
полном составе (24 человека) пришла на рейтинговую контрольную ра-
боту. По ней выставляются не оценки, а распределяются места по
рейтингу: 1-е, 2-е и т. д. до последнего. Сколько различных вариантов
первых трёх мест существует?
Решение. Чтобы распределить призовые места, нужно сначала вы-
брать лучшую работу (есть 24 варианта), затем добавить вторую (из 23
оставшихся), и, наконец, выяснить, какая из оставшихся 22 работ претен-
дует на третье место. Общее количество различных вариантов будет рав-
но 24 × 23 × 22 = 12144.
Второе правило, которое мы рассмотрим, относится к выполнению
одного из нескольких действий.
Теорема 1.2 (правило сложения). Пусть требуется совершить одно
из двух действий, причём первое действие можно совершить n способа-
ми, а второе – k способами. Тогда общее количество способов, которыми
можно совершить это действие, равно n + k.
Доказательство. Мы выполняем всего лишь одно действие, в кото-
ром имеем выбор из n способов совершения 1-го действия или k спосо-
бов выполнения 2-го действия. Всего, таким образом, имеем выбор из
k + n способов.
16
Разумеется, и эта теорема, как и предыдущая, допускает обобщение
на случай выбора одного из нескольких действий.
Следствие 1.2. Пусть требуется совершить одно из n действий, при-
чём первое действие можно совершить k1 способами, а второе – k2 спосо-
бами, …, и n-е действие – kn способами. Тогда общее количество спосо-
бов, которыми можно совершить это действие, равно
n
N n= k 1+k 2+… k n=∑ k i . (1.2)
i =1
17
пить и две одинаковые модели, поэтому 51 умножается не на 50, а на
51).
1-е действие
k1 вариантов
2-е действие
k2 вариантов
Всего Nn = k1 + k2 + ... + kn вариантов
...
n-е действие
kn вариантов
18
нижним индексом. Например, 11, 12 и 13 – это три различных элемента
1-го типа.
1.2. Перестановки
Здесь мы рассмотрим перестановки на множестве без повторений.
Пусть задано множество A из n элементов. Перенумеровав элементы
множества, будем рассматривать множество A целых чисел от 1 до n:
A = {1, 2, …, n}. (1.3)
Фигурные скобки означают, что элементы множества A не
упорядочены. Их можно записать в любом порядке, всё равно останется
множество A. Пример такого множества – на рис. 1.5, а. Чтобы подчерк-
нуть, что его элементы не упорядочены, мы рисуем множество в виде
круга или овала.
Определение 1.2. Пусть задано множество A (1.3). Перестановкой
называется любое линейное упорядочение его элементов (расположение
их в ряд).
Будем обозначать любую перестановку перечислением её элементов
в круглых скобках, а на рисунках заключать её элементы в прямоуголь-
ную рамку.
19
Рисунок 1.6 – Основное множество (а) и некоторые
перестановки его элементов (б)
20
Рисунок 1.7 – Количество способов добавления (k + 1)-го
предмета в любую перестановку из k предметов
21
OneP10 =
4 1 5 7 10 6 9 2 8 3
AllP3 =
3 2 1
3 1 2
2 3 1
2 1 3
1 2 3
1 3 2
22
ные числа – это и есть количество инверсий: 2 + 0 + 0 + 1 + 1 + 0 = 4.
Определение 1.5. Транспозицией называется операция замены ме-
стами двух любых элементов перестановки.
Обратите внимание: транспозиция – это действие, а инверсия – это
состояние пары элементов. Транспозиция переводит одну перестановку в
другую. При этом, как мы докажем дальше, всегда меняется количество
инверсий в ней.
Определение 1.6. Транспозиция называется элементарной, если она
меняет местами соседние элементы перестановки.
На рис. 1.8 показаны элементарная (а) и не элементарная (б) транс-
позиции.
23
йти не более чем за (n – 1) транспозицию.
Доказательство построим в виде алгоритма. Такого рода доказа-
тельства называются конструктивными (в отличие от доказательств су-
ществования, которые только устанавливают факт существования какого-
либо объекта или свойства, но не показывают, как его найти). Пусть ис-
ходная перестановка: (i1, i2, …, in), а конечная (o1, o2, …, on). Тогда шаги ал-
горитма будут такими.
Шаг 1. Если в исходной перестановке o1 находится не на первом ме-
сте, то меняем o1 с первым элементом.
Шаг 2. Если после этого o2 находится не на втором месте, то меняем
o2 со вторым элементом.
…
Шаг n – 1. Если после расстановки (n – 2) элементов on–1 находится
на последнем, n-м месте, то меняем on–1 с on.
Описанный в доказательстве алгоритм является простейшим алго-
ритмом линейного упорядочения. Мы видим, что, если допускаются не
элементарные транспозиции, то он решает задачу не более чем за (n – 1)
шагов. Если же возможны замены только соседних элементов, то слож-
ность этого алгоритма возрастает с линейной до квадратичной. Получаем
"пузырьковый" алгоритм: в процессе упорядочения элементы множества
ведут себя как пузырьки воздуха в жидкости. Вообще тема линейного
упорядочения интересна сама по себе, но она напрямую не связана с ма-
териалом, необходимым для теории вероятностей, поэтому пусть она
остаётся читателю для самостоятельных исследований. А мы продолжа-
ем изучать перестановки.
Теорема 1.6. Любая транспозиция может быть представлена как по-
следовательность нечётного количества элементарных транспозиций.
Доказательство. Пусть нам нужно заменить местами элементы i и
k, а между ними находится m ≥ 0 элементов перестановки. Здесь мы бук-
вой i обозначили элемент, стоящий левее, а k – правее. Проведём элемен-
тарные транспозиции (т. е. мы опять строим конструктивное доказатель-
ство). Вначале мы перемещаем элемент i на m мест вправо, и ещё на
одно место, чтобы он оказался за элементом k. Всего, таким образом, мы
24
сделали m + 1 элементарную транспозицию. Теперь перемещаем элемент
k влево. Для того, чтобы поместить его на место элемента i, нужно
осуществить m элементарных транспозиций. Общее количество элемен-
тарных транспозиций, как видим, равно (2m + 1) – число нечётное.
Следствие 1.3. Любая транспозиция изменяет чётность количества
инверсий.
Доказательство следует из теорем 1.4 и 1.6. Элементарная транспо-
зиция изменяет количество инверсий на 1, т. е. меняет чётность количес-
тва инверсий. Любая транспозиция может быть представлена в виде
нечётного количества элементарных транспозиций, а нечётному количес-
тву изменений чётности также соответствует изменение чётности.
При доказательстве теоремы 1.6 мы указали лишь один способ, как
свести любую транспозицию к последовательности элементарных транс-
позиций. Но, может быть, существует другая последовательность эле-
ментарных транспозиций (с чётным их количеством), которая в результа-
те даёт нашу транспозицию? Оказывается, нет! С этим интересным фак-
том связаны следующие определение и теорема.
Определение 1.7. Перестановка называется чётной, если она стано-
вится основной после чётного количества транспозиций, и нечётной,
если после нечётного.
Следующая теорема является ключевой для понимания того, что все
n! перестановок делятся на два непересекающихся класса: чётные и не-
чётные.
Теорема 1.7. Любая перестановка является или чётной, или нечёт-
ной, но не той и другой одновременно.
Доказательство. Пусть задана чётная перестановка, т. е. такая, от
которой мы можем перейти к исходной за чётное количество транспози-
ций. Каждая транспозиция меняет чётность количества инверсий, а в
итоге мы получаем натуральную перестановку, в которой 0 инверсий
(чётное число). Но мы провели чётное количество транспозиций, следо-
вательно, в исходной перестановке также было чётное число инверсий. А
от такой перестановки мы никогда не сможет перейти к исходной за
нечётное количество транспозиций, т. к. каждая транспозиция меняет ко-
25
личество инверсий на 1. Поэтому чётными будут только такие переста-
новки, которые имеют чётное количество инверсий. По принципу исклю-
чённого третьего получаем, что нечётными будут только такие переста-
новки, которые имеют нечётное количество инверсий. Но количество ин-
версий для каждой перестановки однозначно определено, поэтому любая
перестановка может быть или чётной, или нечётной, но не той и другой
сразу.
Попробуйте самостоятельно написать программу определения чёт-
ности перестановки. Для начала используйте алгоритм из доказательства
теоремы 1.5.
Теорема 1.8. Количество чётных и нечётных перестановок одинако-
во и равно n!/2.
Доказательство. Используем тот факт, что основной может быть
любая перестановка. Если мы как-то перенумеруем объекты, то тем са-
мым определим основную перестановку (1, 2, …, n – 1, n). Пусть в этом
случае имеется k+ чётных перестановок и k– нечётных. Если в этой же
перестановке два последних предмета перенумеровать наоборот, то
основной уже будет перестановка (1, 2, …, n, n − 1). В этом варианте
пусть будет m+ чётных перестановок и m– нечётных. С одной стороны,
должно выполняться m+ = k+ и m– = k–, т. к.
обе перестановки состоят из одинакового
количества элементов. С другой стороны,
перестановки, которые в первом случае
были чётными, во втором будут нечёт-
ными и наоборот: m+ = k– и m– = k+. Отсюда
следует k+ = k–. А, т. к. k+ + k– = n!, то
k+ = k− = n!/2.
Возможно, наиболее известный
пример чётных и нечётных перестано-
вок – это игра Сэма Лойда "Пятнадцать"
(Sam Loyd, 1841-1911, рис. 1.9). Если вы
Рисунок 1.9 – Сэм Лойд вытащите из коробки и поменяете
местами две какие-либо косточки, например, 14 и 15, то уже никогда не
26
сможете разместить их в правильном порядке, играя по правилам. Дело в
том, что у этой игры есть интересная особенность: любой "правильный"
ход не изменяет чётности перестановки косточек (если расположить их в
одну строку, как печатный текст, слева направо и сверху вниз). Изменить
чётность можно, лишь нарушив правила и произведя транспозицию
"вручную": достав две косточки из коробки и поменяв их местами.
Таким образом, все возможные позиции в этой игре можно разделить на
два класса: чётные и нечётные. Позиции, которые принадлежат одному
классу, можно перевести одну в другую путём перемещения косточек по
правилам, а те, что принадлежат разным – нет. При этом чётным удобно
назвать тот класс, которому принадлежит основная позиция. В алгебре
подобные классы называются классами эквивалентности (в данном
случае – эквивалентности относительно взаимного перевода одной
позиции в другую по правилам игры).
В MATLAB игра "Пятнадцать" загружается командой fifteen, как
показано ниже. На рис. 1.10 изображено её окно.
fifteen
27
Задачи на перестановки обычно формулируются так. Имеется мно-
жество некоторых объектов. Сколько существует вариантов их линейного
упорядочения или взаимного расположения? Вот несколько типичных
примеров.
Пример 1.7. Сколькими способами можно рассадить за столом пер-
сонажей сказки "Алиса в стране чудес" с рис. 1.1?
Решение. P4 = 4! = 24.
Пример 1.8. К кассе одновременно подошли 5 человек. Сколько су-
ществует вариантов их расстановки в очередь?
Решение. P5 = 5! = 120.
Пример 1.9. Сколько существует вариантов взаимного расположе-
ния героев басни Ивана Андреевича Крылова (1769-1844, рис. 1.11), по-
казанных на рис. 1.12?
28
Решение. В этой задаче речь идёт не о линейном упорядочении, а о
взаимном расположении, т. е. о рассадке по кругу. При такой постановке
предполагается, что циклическая перестановка всех объектов не меняет
их взаимного расположения. Поэтому, чтобы получить правильный от-
вет, нужно число перестановок Pn = n! разделить на количество цикличе-
ских перестановок (или пересадок), которое равно n. В результате полу-
чаем (n – 1)! = 3! = 6 вариантов взаимного расположения музыкантов, ко-
торые, очевидно, не влияют на качество их исполнения.
Можно рассуждать и так. Один предмет можно разместить произ-
вольно, т. к. циклические перестановки не учитываются. Поэтому коли-
чество вариантов взаимного расположения n объектов равно количеству
перестановок остальных (n – 1) объектов, т. е. Pn–1 = (n – 1)!.
1.3. Размещения
Следующий комбинаторный объект, с которым мы познакомимся –
это размещения. Здесь также используется множество (1.3) без повторе-
ний, но мы упорядочиваем не все элементы A, а предварительно выбира-
ем из A некоторое подмножество его элементов.
Определение 1.8. Размещением из n элементов по k, где 0 ≤ k ≤ n, на-
зывается перестановка k элементов, выбранных из множества, состояще-
го из n элементов.
Как следует из определения, различные размещения могут отличать-
ся друг от друга как выбранными элементами, так и их расположением
(упорядочением). На рис. 1.13 показаны основное множество из n = 7 эле-
ментов (а) и некоторые его размещения по k = 4 элемента (б).
Пример 1.10. Перечислим все размещения из 3 элементов по 2. Как
обычно, считаем, что A = {1, 2, 3}.
Решение. Искомые размещения – это: (1, 2); (2, 1); (1, 3); (3, 1); (2, 3)
и (3, 2). В каждом из них выбраны какие-либо 2 элемента из трёх и упо-
рядочены.
Найдём общее количество размещений из n элементов по k. Это чис-
k
ло обозначается An (от англ. the arranging – размещение).
29
Рисунок 1.13 – Основное множество (а) и некоторые
размещения его элементов (б)
k n!
An =n ( n−1 ) ( n− 2) …( n−k +1 ) = . (1.5)
( n−k ) !
30
function A=arranges(n,k)
% Функция A=arranges(n,k) возвращает все размещения
% из n элементов по k
if (n<1)|(k>n),
A=[];
else
P=perms(1:n); % сначала - полный список перестановок
A=P(:,1:k); % взяли k первых столбцов
A=unique(A,'rows'); % оставили только уникальные строки
end
return
Afrom30to16 = prod(30-16+1:30) % A из 30 по 16
A=arranges(5,3) % все размещения из 5 по 3
Afrom30to16 =
3.042648073975910e+021
A =
1 2 3
1 2 4
...
5 4 2
5 4 3
31
ствует вариантов распределения 1-го, 2-го и 3-го мест?
Решение. Здесь из n = 8 объектов (команд) выбираются k = 3, кото-
3
рые затем упорядочиваются. Поэтому ответом будет A8 =8⋅7⋅6=336 ва-
риантов.
Пример 1.12. Сколько существует различных 4-значных кодов, со-
ставленных из неповторяющихся цифр от 0 до 9?
Решение. Здесь из n = 10 цифр выбираются k = 4, которые затем упо-
4
рядочиваются. Считаем: существует A10 =10⋅9⋅8⋅7=5040 различных ко-
дов.
Пример 1.13. Имеются наклейки 5 цветов. Для маркировки товара
применяются 2 или 3 наклейки разных цветов. Сколько товаров можно
так пометить?
Решение. Из n = 5 объектов (наклеек) нужно выбрать k = 2 или k = 3 и
расположить их в ряд, т. к. разные товары можно пометить наклейками
одних и тех же цветов, но по-разному расположенными. Находим
2 3
A5 =5⋅4=20 и A5 =5⋅4⋅3=60 . Далее нам нужно выполнить одно дей-
ствие из двух: пометить товар или двумя наклейками, или тремя. По пра-
вилу сложения всего имеем 20 + 60 = 80 вариантов метки товаров.
1.4. Сочетания
Вновь используем множество (1.3) элементов без повторений. Здесь
мы будем выбирать из него некоторое подмножество элементов, но не бу-
дем их упорядочивать.
Определение 1.9. Сочетанием из n элементов по k, где 0 ≤ k ≤ n, на-
зывается подмножество из k элементов, выбранных из множества,
состоящего из n элементов.
Различные сочетания отличаются друг от друга только выбранными
элементами. Их взаимное расположение не имеет значения. На рис. 1.14
показаны основное множество из n = 7 элементов (а) и некоторые его со-
четания по k = 4 элемента (б).
32
Рисунок 1.14 – Основное множество (а) и некото-
рые сочетания его элементов (б)
33
k
Число C n называется также биномиальным коэффициентом, т. к.
оно участвует в разложении n-й степени суммы двух чисел по биному
Ньютона:
n n n−1 n ( n−1 ) n−2 2
( p+ q ) = pn+ p q+ p q +…+
1! 2!
n (1.7)
+C kn p n −k q k +…+q n=∑ C kn pn −k q k .
k =0
Cfrom30to16 = nchoosek(30,16) % C из 30 по 16
C = nchoosek(1:5,3) % все сочетания из 5 по 3
Cfrom30to16 =
145422675
34
C =
1 2 3
1 2 4
1 2 5
1 3 4
1 3 5
1 4 5
2 3 4
2 3 5
2 4 5
3 4 5
35
чество вариантов равно сумме этих значений:
10 11 12 13 14 15
C +C +C +C +C +C . Считаем с помощью MATLAB:
25 25 25 25 25 25
1.5. Разбиения
Разбиения – это обобщение сочетаний. Сочетание можно рассматри-
вать как разбиение множества элементов на две части, одну из которых
мы выбираем, а вторую оставляем невыбранной. Но ведь множество эле-
ментов можно разбивать не только на 2, но и на большее число частей!
Определение 1.10. Разбиением из n элементов по k1, k2, …, km, где
m
∀ki ≥ 0 и ∑ k i =n , называется представление множества из n элементов
i =1
36
Различные разбиения отличаются друг от друга набором элементов,
входящих в подмножества. Но количество элементов в каждом подмно-
жестве фиксировано. В 1-е подмножество должно входить k1 элементов,
во второе – k2, и т. д.. Сами подмножества упорядочены (т. е. указано, ка-
кое из них первое, какое второе и т. д.), а элементы в них – нет. На
рис. 1.15 показаны основное множество из n = 7 элементов (а) и некото-
рые его разбиения по k1 = 4, k2 = 2 и k3 = 1 элементов (б).
37
Само разбиение мы пишем в круглых скобках, т. к. подмножества,
входящие в него, упорядочены. А вот элементы каждого подмножества
не упорядочены, поэтому подмножества записаны в фигурных скобках.
Обратите внимание: разбиения ({1}, {2, 3, 4}, {5}) и ({5}, {2, 3, 4}, {1}) –
разные, т. к. 1-е и 3-е подмножества содержат различные элементы.
Разбиения являются обобщениями сочетаний, поэтому общее коли-
чество разбиений из n по k1, k2, …, km обозначают той же буквой C, но с
другими индексами, а именно: Cn(k1, k2, …, km).
Теорема 1.11. Общее количество разбиений из n элементов по k1, k2,
…, km равно:
n! n!
C n (k 1 , k 2 , …, k m ) = = .
k 1 !⋅k 2 !⋅…⋅k m ! m (1.10)
∏ ki !
i=1
n! ( n−k l +1 ) ! n! (1.11)
= ⋅ = ;
k l+1 !⋅(n −k l +1) ! k 1 !⋅k 2 !⋅… k l ! k 1 !⋅k 2 !⋅… k l !⋅k l +1 !
38
Функций для работы с разбиениями в MATLAB нет. Поэтому для
вычисления количества разбиений нужно запрограммировать формулу
(1.10), а для генерации полного списка разбиений можно использовать,
например, такой алгоритм.
Шаг 1. Задаём числа k1, k2, …, km. Находим (или задаём) n. С помо-
щью функции perms генерируем все перестановки из n элементов – дву-
мерный массив P размером n! × n, каждая строка которого – перестанов-
ка.
Шаг 2. Условно разделяем массив P вертикальными линиями на m
подмассивов P1, P2, …, Pm ширины соответственно k1, k2, …, km. В них мы
будем формировать подмножества разбиений.
Шаг 3. В каждом из подмассивов P1, P2, …, Pm сортируем каждую
строку. Это нужно для того, чтобы пометить повторяющиеся разбиения
для их дальнейшего удаления.
Шаг 4. Удаляем из массива P (не из отдельных подмассивов P1, P2,
…, Pm, а именно из целого массива P!) повторяющиеся строки.
Вот как может выглядеть функция MATLAB для генерации полного
списка разбиений. Она будет работать только для небольших размерно-
стей.
function P=partitions(k)
% Функция P=partitions(k) возвращает все разбиения
% из n=sum(k) элементов по k(1), k(2), ..., k(end).
39
Эту функцию нужно записать в файл partitions.m и поместить в ка-
кую-либо папку, доступную MATLAB. Ниже приведен пример вычисле-
ния количества разбиений и генерации полного списка разбиений.
40
5 1 2 4 3
5 1 3 4 2
5 2 3 4 1
C = 3*factorial(25)/(factorial(8)^2*factorial(9));
fprintf('Общее количество вариантов C = %20.0f.\n',C);
Общее количество вариантов C = 78879264750.
41
а потом подсчитать для каждого из них количество разбиений и сложить.
Поручим эту работу MATLAB. Вначале мы проверим, возможны ли во-
обще какие-либо варианты разбиения. Если такие варианты есть, найдём
их все. Для этого с помощью функции fullfact (полный факторный
эксперимент, см. электронную версию) генерируем все возможные соче-
тания количеств студентов в подгруппах, а затем отбираем те из них, для
которых сумма равна 25. В данном случае выясняется, что всего таких
вариантов 36. Теперь для каждого из них по формуле (1.10) вычисляем
C25(k1, k2, k3) и складываем. Для ускорения счёта все нужные факториалы
вычисляем один раз.
42
C=C+factn/prod(fact(k(i1,:)));
end
fprintf('Количество разбиений на группы = %20.0f.\n',C);
Количество вариантов групп = 36.
Количество разбиений на группы = 567526197150.
43
Из этого примера видно, что перестановок с повторениями оказа-
лось меньше, чем обычных перестановок (без повторений). Общее коли-
чество перестановок с повторениями обозначается Pn(k1, k2, …, km).
Теорема 1.12. Общее количество перестановок из n элементов с по-
вторениями по k1, k2, …, km равно:
n! n!
P n ( k 1 , k 2 , …, k m ) =C n ( k 1 , k 2 , …, k m)= = m .
k 1 !⋅k 2 !⋅…⋅k m ! (1.12)
∏ ki !
i=1
44
fprintf(['Количество перестановок из %d '...
'элементов\nс повторениями по ('],sum(k));
fprintf('%d,',k(1:end-1));
fprintf('%d) P = %20.0f\n',k(end),P);
AP=perms([1 1 2 2 2 3]); % все перестановки
AP=unique(AP,'rows') % оставили неповторяющиеся
p=size(AP,1) % количество перестановок с повторениями
Количество перестановок из 40 элементов
с повторениями по (10,18,12) P = 73316892771922784
AP =
1 1 2 2 2 3
1 1 2 2 3 2
1 1 2 3 2 2
...
3 2 2 1 1 2
3 2 2 1 2 1
3 2 2 2 1 1
p =
60
45
листинг.
Пример 1.24. Сколькими способами можно поставить в ряд 3 книги
1-го вида, 2 – 2-го, 2 – 3-го и одну – 4-го?
8! 4⋅5⋅6⋅7⋅8
Решение. P 4 ( 3, 2,2, 1) = = =1680.
3!⋅2!⋅2!⋅1! 2⋅2
Пример 1.25. Сколькими способами можно расставить по кругу 3
предмета 1-го вида, 2 – 2-го, 2 – 3-го и один – 4-го?
Решение. Здесь нужно исключить циклические перестановки. Мы
уже рассматривали подобный пример 1.9. Очевидно, мы должны приме-
нить здесь первый вариант рассуждений и разделить результат приме-
ра 1.24 на n = 8. Получаем 1680/8 = 210 вариантов.
46
Рисунок 1.16 – Размещения с повторениями: а – схема 1, б – схема 2,
в – схема 3
47
Определение 1.15. Размещением с повторениями по схеме 3 назы-
вается перестановка с повторениями любого подмножества множества с
повторениями, если при выборке элементов из него разрешено на каж-
дом шаге выбирать одинаковые.
Очевидно, между схемами 2 и 3 практически нет разницы: не всё ли
равно, сколько экземпляров каждого объекта есть в множестве, если мы
можем выбирать сколько угодно раз каждый элемент! А вот схема 1
несколько иная. Если посмотреть ещё раз на рис. 1.16, то видим, что в
схеме 1, какое бы размещение мы ни строили, элементы 4 и 5 мы не мо-
жем выбрать более двух раз каждый, а остальные – больше трёх раз. В
схемах же 2 и 3 любой элемент можно выбирать любое количество раз.
Схемы 2 и 3 более простые, чем 1. Но, если в схеме 1 каждый объект
в исходном множестве повторяется достаточное количество раз, то фак-
тически мы имеем схему 2 или 3. Если, например, нужно выбирать k = 5
элементов, а в исходном множестве есть не менее чем по 5 экземпляров
объектов каждого вида, то схема 1 становится схемой 2 или 3.
Мы выведем общую формулу для 2-й и 3-й схем, а для 1-й приведём
только алгоритмы построения полного списка размещений.
Теорема 1.13. Общее количество размещений из n элементов по k с
повторениями по определению 1.14 (схема 2) равно:
( ) k
Ank rep = n . (1.13)
48
Теорема 1.14. Общее количество размещений из n элементов по k с
повторениями по определению 1.15 (схема 3) равно:
k k
An ( k 1 , k 2 , … , k m) = m . (1.14)
49
1 3 2
2 1 1
2 1 2
2 1 3
2 2 1
2 2 2
2 2 3
2 3 1
2 3 2
3 1 1
3 1 2
3 2 1
3 2 2
Количество размещений = 19.
50
3 5
4 5
5 5
Количество размещений = 25.
51
Здесь опять для сокращения листинга оставлены только несколько
начальных и конечных размещений.
При решении задач на размещения с повторениями прежде всего
нужно разобраться, по какой схеме проводятся выборки. Если по 1-й –
придётся подсчитывать количество вариантов напрямую. А если по 2-й
или 3-й, то пользуемся формулами (1.13) или (1.14).
Пример 1.26. Сколько различных 6-значных шифров можно соста-
вить из цифр числа 112223345, если цифры могут повторяться, но 1 – не
более 2 раз, 2 – не более 3 раз, и т. д.?
Решение. В задачах с такой формулировкой исходное множество во-
обще может быть не задано, а просто сказано, что такой-то предмет мо-
жет повторяться не более такого-то количества раз. Здесь после выборки
очередного числа исходное множество не восстанавливается до исходно-
го, поэтому имеем 1-ю схему. Готовой формулы у нас нет – считаем коли-
чество вариантов.
52
пают сигналы трёх типов: из двух – первого типа, из трёх – второго и из
одного – третьего. Микросхема выбирает последовательно 4 входных
сигнала и выдает эту последовательность в виде выходного сигнала.
Сколько вариантов выходных сигналов существует?
Решение. Здесь после выборки каждого входного сигнала исходное
множество восстанавливается, значит, это не 1-я схема. В исходном мно-
жестве из шести сигналов есть повторяющиеся, значит, это и не 2-я схе-
ма. Следовательно, имеем 3-ю схему: выборка из множества с
повторениями и восстановлением исходного множества после каждой
выборки. Количество различных элементов m = 3, выбираем k = 4 элемен-
та. Всего имеем mk = 34 = 81 вариант выходного сигнала.
53
Рисунок 1.17 – Сочетания с повторениями: а – схема 1,
б – схема 2, в – схема 3
54
Здесь, как и для размещений с повторениями, наиболее сложной яв-
ляется 1-я схема. Но, если в схеме 1 каждый объект в исходном множе-
стве повторяется достаточное количество раз, то фактически мы имеем
схему 2 или 3. Если, например, нужно выбирать k = 5 элементов, а в ис-
ходном множестве есть не менее чем по 5 экземпляров объектов каждого
вида, то схема 1 становится схемой 2 или 3.
Для схемы 1 мы не будем выводить общей формулы, а приведём
только алгоритм построения полного списка таких сочетаний. Зная его,
можно найти и их количество. Строить список проще всего с помощью
функции nchoosek, в которой задать вектор с повторениями. Если из по-
строенных сочетаний удалить повторяющиеся строки, то получим все
сочетания с повторениями по схеме 1.
55
2 2 2
2 2 3
2 2 4
2 2 5
2 3 3
2 3 4
2 3 5
2 4 5
3 3 3
3 3 4
3 3 5
3 4 5
Количество сочетаний = 24.
( n +k−1 ) !
f kn = =C kn+k−1=C nn −1
+k −1 . (1.15)
k !⋅( n−1 ) !
56
(1.15) находится число сочетаний с повторениями для больших значений
n и k, а затем генерируется полный список сочетаний с повторениями для
небольших n и k. Даже он оказывается весьма внушительным, поэтому
листинг приведен с сокращениями.
fprintf('f(50,12) = %20.0f\n',nchoosek(50+12-1,12));
n=9; % объем выборки
k=2; % количество элементов в размещении
A2=fullfact(repmat(n,1,k)); % размещения
A2=sort(A2,2); % сочетания
A2=unique(A2,'rows') % оставили уникальные строки
fprintf('Количество сочетаний = %d.\n',size(A2,1));
f(50,12) = 1742058970275
A2 =
1 1
1 2
1 3
...
8 8
8 9
9 9
Количество сочетаний = 45.
( m+k −1) !
f kn ( k 1 , k 2 , …, k m ) = f km= =C km+k−1=C m−1
m+k−1 . (1.16)
k !⋅( m−1 ) !
57
их выбирать по схеме 2. Поэтому общее количество сочетаний по теоре-
ме 1.15 равно (1.16).
Для генерации всех сочетаний мы опять воспользуемся списком раз-
мещений, каждое из которых сортируем, чтобы выявить одинаковые. За-
тем оставляем только по одному экземпляру каждого сочетания. В
следующем примере сначала по формуле (1.16) находится число сочета-
ний с повторениями для больших значений m и k, а затем генерируется
полный список сочетаний с повторениями для небольших m и k.
fprintf('f(8+16+14+7+9+8+20,12) = %20.0f\n',...
nchoosek(7+12-1,12));
A=[1 1 3 3 3 4]; % исходное множество с повторениями
k=4; % количество элементов в сочетании
Au=unique(A); % группы
m=length(Au); % число групп
A3=fullfact(repmat(m,1,k)); % размещения (номера)
A3=sort(A3,2); % сочетания
A3=unique(A3,'rows');% оставили уникальные строки
A3=Au(A3) % сочетания (элементы A)
fprintf('Количество сочетаний = %d.\n',size(A3,1));
f(8+16+14+7+9+8+20,12) = 18564
A3 =
1 1 1 1
1 1 1 3
1 1 1 4
1 1 3 3
1 1 3 4
1 1 4 4
1 3 3 3
1 3 3 4
1 3 4 4
1 4 4 4
58
3 3 3 3
3 3 3 4
3 3 4 4
3 4 4 4
4 4 4 4
Количество сочетаний = 15.
59
2 2 3
2 3 3
Количество сочетаний = 9.
60
схема 2. После выбора каждого элемента исходное множество восстанав-
ливается, поэтому имеем схему 3. Считаем:
( 3+3−1 ) ! 5! 4⋅5
f 310 ( 5, 3, 2) = f 33= = = =10. Нетрудно даже перечис-
3 !⋅( 3−1) ! 3!⋅2! 2
лить эти варианты: {ббб}, {ббк}, {ббч}, {бкк}, {бкч}, {бчч}, {ккк},
{ккч}, {кчч}, {ччч}.
61
вать для работы в аудитории) приведены только указания и подсказки.
Закончите их самостоятельно.
Пример 1.32. Папа, мама и двое детей собираются в поход. Им нуж-
но распределить по рюкзакам 50 различных предметов. Сколькими
способами это можно сделать, если папе дать 20 предметов, маме – 15,
старшему сыну – 10, а младшей дочери – 5?
Указания к решению. Основное множество здесь – это 50 предме-
тов. Они разные, следовательно, имеем схему без повторений. Это мно-
жество нужно разбить на 4 подмножества. Элементы основного множе-
ства не восстанавливаются. Выборки не упорядочиваются. После такого
анализа приходим к выводу, что данная задача – на разбиение без повто-
рений. Применяем формулу (1.10).
Пример 1.33. В электричке 10 вагонов. Бригада из 4 контролёров
начинает проверку в разных вагонах. Сколько существует вариантов на-
чала работы?
Указания к решению. Основное множество – 10 вагонов. Они все
разные (схема без повторений). Выбрать нужно 4 вагона для начала рабо-
ты контролёров. После выбора вагона одним контролёром другой уже не
имеет права занять тот же вагон – исходное множество не восстанавлива-
ется. Каждый контролёр начинают работу в своем вагоне, значит, выбор-
ка упорядочивается. Имеем размещения без повторений – применяем
формулу (1.5).
Пример 1.34. В урне 6 шаров: 3 белых, 2 чёрных и 1 красный. Нау-
гад выбираются и расставляются в ряд 4 шара. Сколько есть вариантов
решения?
Указания к решению. Исходное множество – это 6 шаров. Множе-
ство с повторениями. Выбирается одна часть – 4 шара. После выборки
каждого шара исходное множество не восстанавливается. Выборка упо-
рядочивается. Получаем размещения с повторениями по 1-й схеме. Для
неё у нас нет общей формулы. Считаем с помощью MATLAB по алгорит-
62
му, изложенному в разделе 1.7. Если бы шары не расставлялись в ряд, мы
бы имели задачу о сочетаниях с повторениями по схеме 1.
Пример 1.35. Сколько существует способов рассадить группу сту-
дентов из 25 человек в аудитории, в которой есть столько же мест?
Указания к решению. Основное множество здесь – студенты. Даже
если среди студентов есть близнецы, по смыслу задачи считаем, что это
множество без повторений. Рассадить нужно всех студентов, поэтому
выбирается всё множество. Каждый студент выбирается для рассадки
один раз – многократной выборки нет. Места можно перенумеровать,
поэтому выборка упорядочивается (каждому студенту – своё место со
своим номером). Имеем задачу на перестановку без повторений, её реше-
ние – (1.4). Можно также считать основным множеством места, которые
упорядочиваются в порядке рассадки на них студентов (например, в ал-
фавитном порядке).
Пример 1.36. Сколько существует способов рассадить группу сту-
дентов из 25 человек в аудитории, в которой есть 30 мест?
Указания к решению. Здесь основное множество – это 30 мест (не-
повторяющиеся элементы), из которых нужно выбрать 25 (также без по-
вторения) для рассадки студентов. Каждому студенту нужно выделить
конкретное место, поэтому выборка упорядочивается. Получаем задачу
на размещения без повторений, которая решается по формуле (1.5).
Пример 1.37. Сколько существует способов расположения в ряд 6
шаров: 3 белых, 2 чёрных и 1 красного?
Указания к решению. Основное множество – 6 шаров, это множе-
ство с повторениями. Выбираются все шары (без повторений), и они ли-
нейно упорядочиваются. Имеем перестановку с повторениями, применя-
ем формулу (1.12).
Иногда приходится суммировать (по правилу сложения вариантов)
несколько вариантов, перемножать их по правилу умножения или отбра-
сывать некоторые варианты. Вот примеры.
63
Пример 1.38. Имеется 10 различных предметов. Сколькими спосо-
бами их можно расставить в ряд, чтобы два заданных предмета оказа-
лись рядом?
Указания к решению. Видно, что это задача на перестановки без
повторений. Если бы не было дополнительного требования о двух задан-
ных предметах, стоящих рядом, то решением было бы P10 = 10!. Но не во
всех 10! перестановках предметы 9 и 10 стоят рядом (в силу свободной
нумерации элементов множества мы для удобства обозначили заданные
предметы последними номерами). Первые 8 предметов могут размещать-
ся как угодно – для них имеем 8! перестановок. В каждую из них предме-
ты 9 и 10 можно вставить только парой. Это можно сделать в 9 местах:
перед первым предметом, после первого, и т. д., и после последнего,
восьмого. В каждое из этих мест можно вставить или пару (9, 10), или
(10, 9) – всего 2 варианта. По правилу умножения имеем всего 8! × 9 × 2
вариантов. Решите эту же задачу, когда в перестановке из 10 предметов
требуется, чтобы 3 заданных находились рядом (между собой эти 3 пред-
мета могут быть в любом порядке).
Пример 1.39. Имеется 10 различных предметов. Сколькими спосо-
бами их можно расставить в ряд, чтобы два заданных предмета не оказа-
лись рядом?
Указания к решению. Этот пример похож на предыдущий. Осталь-
ные 8 предметов можно расставить произвольно. Осталось посчитать ко-
личество вариантов расстановки оставшихся двух предметов (обозначим
их, как и в предыдущем примере, номерами 9 и 10). Предмет 9 можно
расположить на любом из 9 мест (или перед всеми, или после 1-го, или
после 2-го, и т. д., или после 8-го). В любом из этих вариантов на долю
10-го остается 8 мест, чтобы он не очутился рядом с 9-м (нарисуйте и
проверьте!). По правилу умножения вариантов всего 8! × 9 × 8 вариантов.
Эту задачу можно решить и другим способом. Два заданных пред-
мета могут быть или рядом, или не рядом, третье исключается. Всего
64
имеется 10! вариантов расположения 10 предметов, из них 9! × 2 вариан-
тов, когда два заданных предмета расположены рядом (см. предыдущий
пример). Остаётся 10! – 9! × 2 = 9! × 8 вариантов, когда 2 заданных предме-
та расположены не рядом.
Пример 1.40. В 2 автомобиля должны сесть 8 человек, причём в
каждый автомобиль должно сесть не менее 3 человек. Сколькими спосо-
бами это можно сделать?
Указания к решению. Если бы было точно задано, сколько человек
должно сесть в 1-й автомобиль, а сколько во 2-й, мы бы имели задачу о
разбиениях или, поскольку здесь всего 2 подмножества, о сочетаниях. Её
k
решением было бы C 8 , где k – количество человек, которые должны
сесть в один из автомобилей. Но у нас k не задано. Поэтому нужно найти
k
все возможные варианты k, посчитать для них C 8 и сложить. Чтобы в
каждый из автомобилей могло сесть не менее 3 человек, мы должны
взять k = 3, 4 или 5. Так как мы выбираем один из вариантов, то должны
применить правило сложения. Общее количество вариантов равно
3 4 5
C 8+C 8 +C 8 .
Если вывод общей формулы вызывает затруднения, иногда проще
подсчитать количество вариантов вручную или составить простую про-
грамму. Вот пример.
Пример 1.41. В фойе театра 4 друга одновременно сдали куртки в
раздевалку и получили 4 номерка. Сколько существует вариантов разда-
чи номерков, при которых ни один из них не получит назад свою куртку?
Решение. Всего есть 4! вариантов раздачи номерков. Очевидно,
только 1 из них является правильным (пусть это будет основная переста-
новка). Нет ни одного варианта, когда ровно 3 человека получат свои но-
мерки (почему?). Для 2 угадываний количество вариантов еще считается
легко, а вот для 1 и 0 уже достаточно трудно. Мы не выводили общей
формулы для количества беспорядков, поэтому построим общий список
65
перестановок, а затем отберём нужные и подсчитаем их количество.
66
Глава 2. События и их вероятности
Теория вероятностей, как и любой
другой раздел математики, возникла из
потребностей человечества. Вначале это
были азартные игры: кости, карты и т. п.
Игроки задумывались: почему, например,
при бросании двух игральных костей ком-
бинация 6 + 6 выпадает редко? И насколь-
ко редко? А другие комбинации выпадают
чаще? Затем люди заметили, что подоб-
ные рассуждения применимы и к другим
областям человеческой деятельности.
Например, знаменитые опыты Бюффона
(Georges-Louis Leclerc, Comte de Buffon,
1707-1788, рис. 2.1) и Пирсона (Karl
Рисунок 2.1 – Жорж-Луи Pearson, 1857-1936, рис. 2.2) по бросанию
Леклерк де Бюффон монеты, приведенные в таблице 2.1, пока-
зывают, что примерно в половине случаев монета падает гербом вверх.
Причём чем больше проведено опытов,
тем ближе к 0,5 доля опытов, в которых
выпал герб. Но почему так происходит?
И можно ли утверждать, что с ростом ко-
личества опытов эта доля ещё больше
приблизится к 0,5? Эти и многие другие
явления подвели людей к пониманию ве-
роятности как предела частоты появления
события. Но, как оказалось, такое опреде-
ление не всегда бывает удобным. Поэто-
му возник другой подход, основанный на
понятии события – нового математиче-
ского объекта, для которого вероятность
является его числовой характеристикой. Рисунок 2.2 – Карл Пирсон
67
Этот путь оказался весьма плодотворным, и на нём базируется весь
современный математический аппарат теории вероятностей.
68
участке трассы, поступление заказа на фирму в течение дня. Как
правило, событие является результатом испытания (опыта, эксперимен-
та), но не всегда эта связь легко формализуется. Так, если для появления
герба испытанием является бросание монеты, для аварии – проезд
автомобиля по данному участку, то что является испытанием для
поступления заказа? То, что человек шёл мимо офиса? Или что он
получил информацию о товаре из рекламы? Ведь человек в обычных
условиях свободно реализует свое право покупать или не покупать тот
или иной товар. Поэтому в данном случае испытанием можно считать
решение каждого теоретически возможного клиента сделать заказ или
нет.
Определение 2.2. Испытанием (опытом, экспериментом) называ-
ется любое действие, явление, решение и т. п., результатом которого яв-
ляется наступление или не наступление события.
Итак, мы определили новый математический объект – событие.
Переходим к изучению его свойств. Вначале отметим два крайних слу-
чая: достоверное и невозможное событие.
Определение 2.3. Событие называется достоверным, если оно все-
гда произойдёт при данном наборе определяющих факторов (при любом
испытании).
Например, если на калькуляторе или компьютере считать 2 × 2, то
мы получим 4, но не всегда: возможны сбои, отключения питания и т. п.
Поэтому событие 2 × 2 = 4 является всё же не достоверным, а только
близким к нему. Другими примерами событий, близких к достоверным,
являются падение монеты плашмя, а не на ребро, при её бросании на
твердую поверхность, падение игральной кости на грань, а не на ребро
или угол, и т. д.. Абсолютно достоверное событие – это математическая
абстракция.
Определение 2.4. Событие называется невозможным, если оно ни-
когда не произойдёт при данном наборе определяющих факторов (при
любом испытании).
69
Как и достоверное событие, невозможное событие – это математиче-
ская абстракция. События, близкие к невозможным: падение монеты на
ребро, кости на угол или ребро, взрыв Солнца как сверхновой звезды в
течение ближайших миллионов лет.
Определение 2.5. Событие называется случайным, если оно не яв-
ляется ни достоверным, ни невозможным.
Случайные события обычно обознача-
ют большими буквами (латинскими или
русскими): A, G, Г и т. д. Удобно выбирать в
качестве обозначения "осмысленную" бук-
ву. Например, выпадение герба удобно
обозначить буквой Г. Можно также ставить
всевозможные индексы и применять другие
символы. Так, вытягивание карты червон-
ной масти можно обозначить Ч или ♥, а для
появления того или иного числа на верхней
грани кости при её бросании использовать
обозначения К1, К2 и т. д. Для достоверного
Рисунок 2.3 – Джон Венн
события применяется обозначение I, а для
невозможного – O или ∅.
События удобно изображать на рисунках в виде диаграмм Венна
(John Venn, 1834-1923, рис. 2.3). Пример такой диаграммы показан на
рис. 2.4. Достоверному событию I соответствует весь лист (охватываю-
щий прямоугольник). Невозможное событие ∅ – это точка (или вообще
ничего). Случайные события A, B, C и D показаны различными геометри-
ческими фигурами. Геометрический смысл диаграммы Венна следую-
щий. Пусть маленький предмет (материальная точка) бросается на лист с
диаграммой Венна. Считается, что она точно туда попадёт (достоверное
событие I). Осуществлению события A соответствует её попадание в об-
ласть фигуры, соответствующей событию A (см. далее геометрическое
определение 2.18 вероятности). Если считать, что область замкнутая, то
попадание на границу также соответствует осуществлению события A.
70
Рисунок 2.4 – Диаграмма Венна
71
Определение 2.7. Случайные события называется равновозможны-
ми, если условия опыта не позволяют утверждать, что одно из них будет
происходить чаще другого.
Примеры равновозможных событий (с достаточной степенью точно-
сти): выпадение любого числа на верхней грани при бросании кости, вы-
тягивание любой карты из перемешанной колоды, выпадение герба и
решки при бросании монеты. Правильность последнего факта подтвер-
ждают опыты Бюффона и Пирсона (табл. 2.1). Кстати, интересно было
бы узнать, сохраняется ли это свойство для монет достоинством в 1 и 2 €,
изготовленных из двух сортов металла разной плотности. Возможно, кто-
нибудь из читателей проведёт такой опыт и опубликует его результаты.
Тогда можно будет дополнить таблицу 2.1.
Все невозможные события по определению считаются равновоз-
можными между собой; все достоверные – тоже.
На диаграммах Венна равновозможные события изображают фигу-
рами обязательно одинаковой площади и желательно одинаковой формы.
Так, на рис. 2.4 события C и D – равновозможные.
Определение 2.8. События называется совместными, если они мо-
гут произойти вместе, и несовместными, если не могут.
Например, событие ♥ (вытягивание карты червонной масти) и К10
(вытягивание десятки) – совместные, т. к. можно вытянуть 10♥. Но под
словом "вместе" понимается не обязательно одновременность. Сов-
местность подразумевает, что появление одного события не исключает
появления другого независимо от времени. Например, пусть в урне есть
2 красных шара и 2 синих, и шары вытягиваются последовательно без
возврата. Обозначим буквами К и С вытягивание шара соответствующе-
го цвета, а нижним индексом – номер вытягивания. Тогда события К1, К2
и С3 – совместные, а К1, К2 и К3 – нет (трёх красных шаров нет).
На диаграммах Венна совместные события изображают
перекрывающимися фигурами, а несовместные – неперекрывающимися.
На рис. 2.4 события A и B – совместные, а C и D – нет.
Определение 2.9. Несколько событий A1, A2, …, An называется по-
парно несовместными, если каждое из них несовместно с любым дру-
72
гим, т. е. появление любого из них исключает появление любого друго-
го.
На том же рис. 2.4 события A, C и D – попарно несовместные, B, C и
D – тоже.
Определение 2.10. События A, B,
C, ... образуют полную группу событий,
если в результате опыта обязательно
произойдёт хотя бы одно из них.
Например, при бросании монеты
события Г и Р образуют полную груп-
пу (мы уже отмечали, что падение мо-
неты на ребро считаем ∅). События
полной группы могут быть и совмест-
ными. Полную группу, например, обра-
зуют события П>50 – в течение дня в ма-
газин зашло больше 50 покупателей, и
П<100. На диаграммах Венна события
Рисунок 2.6 – Полня группа со-
бытий
полной группы целиком закрывают
лист I, при этом они могут перекры-
ваться между собой (рис. 2.6).
Может так оказаться, что
несколько событий удовлетворяют
сразу трём условиям: они являются
несовместными, равновозможными и
образуют полную группу. Тогда их
называют схемой случаев.
Определение 2.11. Схемой слу-
чаев называется полная группа не-
совместных равновозможных собы-
тий.
Рисунок 2.7 – Схема случаев
На диаграммах Венна события
73
схемы случаев обычно изображают одинаковыми неперекрывающимися
прямоугольниками или квадратами, покрывающими лист I, как показано
на рис. 2.7. Примеры схемы случаев: Г и Р при бросании монеты, ♠, ♥, ♦
и ♣ при вытягивании карты из правильной колоды, К1, К2, …, К6 при бро-
сании кости.
Понятие полной группы событий – очень удобный инструмент для
доказательства различных теорем. Если есть возможность её ввести,
нужно это сделать. Можно, например, изображать события группы на
диаграммах Венна очень мелкими фигурками одинаковой площади (в
пределе – точками) так, чтобы их не пересекали никакие линии. Дальше
мы будем использовать этот приём.
Теперь рассмотрим действия над событиями. Одно действие – вы-
числение противоположного события – мы уже фактически ввели в
рассмотрение с помощью определения 2.6. Это пример унарной опера-
ции: B= A. Другие операции – бинарные.
Определение 2.12. Суммой двух
событий A и B называется событие,
которое заключается в том, что проис-
ходит или событие A, или событие B,
или оба. Действие для получения сум-
мы называется сложением.
Обозначение суммы: C = A + B
или C = A ∪ B. Примеры сложения со-
бытий: при бросании кости
К2 + К4 + К6 – это выпадение чётного
количества очков; при вытягивании
карты из колоды ♥ + К10 – это вытяги-
вание любой карты червонной масти
или любой десятки. При словесном Рисунок 2.8 – Сложение событий
описании событий сложению соответ-
ствует союз "или". На диаграмме Венна сумма событий – это общая об-
ласть внутри фигур. На рис. 2.8 показана ситуация, когда складываются
74
два совместных события A и B. При этом получается односвязная
область. При сложении несовместных событий соответствующая область
на диаграмме Венна может быть двусвязной, как, например, для события
C + D на рис. 2.4.
Определение 2.12 допускает очевидное обобщение и на случай сло-
жения нескольких событий. Сформулируйте его самостоятельно.
Запишем свойства сложения. Их доказательства следуют из опреде-
ления суммы и диаграмм Венна и настолько очевидны, что мы их опус-
каем:
• A + B = B + A (коммутативный закон);
• (A + B) + C = A + (B + C) (ассоциативный закон);
• A + A = A;
• A + I = I;
• A + ∅ = A;
• I + ∅ = I;
• A+ A= I ;
• для полной группы событий (в том числе и для схемы случаев)
n
∑ Ai = I .
i=1
75
Аналогично определяется умно-
жение нескольких событий. Свойства
умножения событий, как и сложения,
доказываются легко с помощью диа-
грамм Венна и определений:
• A × B = B × A (коммутативный за-
кон);
• (A × B) × C = A × (B × C) (ассоциа-
тивный закон);
• (A + B) × C = A × C + B × C (дистри-
бутивный закон);
• A × A = A;
• A × I = A;
Рисунок 2.9 – Умножение собы-
тий • A × ∅ = ∅;
• I × ∅ = ∅;
• A× A=∅;
• для любых несовместных собы-
тий A и B, в том числе и для лю-
бой пары событий схемы случаев:
A × B = ∅.
И еще одно действие над
событиями – вычитание.
Определение 2.14. Разностью
двух событий A и B называется собы-
тие, которое заключается в том, что
происходит событие A, но не происхо-
дит событие B. Действие для получе-
ния разности называется вычитани-
ем. Рисунок 2.10 – Вычитание собы-
тий
Обозначается разность C = A – B
или C = A \ B. На рис. 2.10 событие A – B показано штриховкой. Пример
76
разности: если Кч – выпадение чётного числа очков при бросании кости,
а К2 – выпадение 2, то Кч – К2 – это выпадение 4 или 6. Другой пример:
если П>50 – событие, означающее, что в течение дня в магазин зашло
больше 50 покупателей, а П<60 – зашло меньше 60 покупателей, то
П>50 – П<60 = П>59.
Свойства разности событий, которые
легко доказываются из её определения и диа-
грамм Венна:
• правило, сводящее вычитание к умно-
жению и вычислению противополож-
ного события: A−B= A− A⋅B=
= A⋅B; в соответствии с этим прави-
лом при словесном описании событий
их разность обозначается "и не";
• A – A = ∅;
• A− A= A и A− A= A ;
Рисунок 2.11 – Аугустус • если A и B – несовместные, то A – B =
де Морган
= A и B – A = B;
• A−( B+C ) = A− B−C= ( A− B ) −C= A⋅B−C = A⋅B⋅C .
Следующие два правила носят имя де Моргана (Augustus De
Morgan, 1806-1871, рис. 2.11):
77
Обычные алгебраические выкладки не всегда приводят к пра-
вильному результату. Например, A – B + B вовсе не равно A, а
равно A + B (проверьте с помощью диаграммы Венна). Точно
так же A + B – B = A – B, а не A.
78
стрелок попал, и 2-й, и 3-й. Выделенному здесь союзу "и" соответствует
умножение событий, поэтому Р3 = П1 ⋅ П2 ⋅ П3.
Следующее событие: никто не попал. Для этого нужно, чтобы и 1-й
стрелок не попал, и 2-й не попал, и 3-й не попал. Союзу "и" соответству-
ет умножение мобытий, а частице "не" – переход к противоположному
событию. Поэтому Р 0= П 1⋅П 2⋅П 3 .
Далее – событие Р1: ровно один стрелок попал. Для этого нужно,
чтобы 1-й стрелок попал и при этом 2-й не попал и 3-й тоже не попал,
или 2-й попал и при этом 1-й не попал и 3-й тоже не попал, или 3-й по-
пал и при этом 1-й не попал и 2-й тоже не попал. Союзу "или" соответ-
ствует сложение событий, союзу "и" – умножение, а частице "не" – пере-
ход к противоположному событию. Поэтому имеем:
Р 1= П 1⋅П 2⋅П 3 + П 1⋅П 2⋅П 3+ П 1⋅П 2⋅П 3 .
Теперь уже нетрудно составить словесную формулу, соответствую-
щую ровно двум попаданиям. Чтобы было ровно 2 попадания, нужно,
чтобы 1-й стрелок попал и 2-й попал и 3-й не попал, или (закончите
самостоятельно еще две части фразы). Результат:
Р 2= П 1⋅П 2⋅П 3+ П 1⋅П 2⋅П 3+ П 1⋅П 2⋅П 3 .
Хотя бы один стрелок попал – это значит: или один стрелок попал,
или 2, или 3. Поэтому: Х 1= Р 1 Р 2 Р 3= | теперь сюда можно подста-
вить выражения для Р1, Р2 и Р3 |. Получится длинное выражение. Но это
событие можно получить и проще: хотя бы один стрелок попал – это со-
бытие, противоположное событию "никто не попал". Поэтому
Х 1= Р 0 = П 1⋅П 2⋅П 3 .
И, наконец, событие "хотя бы 2 стрелка попали". Для этого нужно,
чтобы или 2 стрелка попали, или 3. Имеем: Х 2 =Р 2 Р 3= | подставляем
соответствующие выражения |.
О совместности. Очевидно, события, начинающиеся со слов
"ровно…", взаимно несовместны: если, например, попали ровно 2 стрел-
ка, то уж точно не 3 и не 0. Все они, вместе взятые, образуют полную
79
группу несовместных событий. Но она не является схемой случаев, т. к.
эти события в общем случае не равновозможные. Полную группу также
образуют:
• Х1 и Р0;
• Х2, Х1 и Р0;
• Х2, Р1 и Р0;
• … (продол-
жите сами).
Событие Х1
(хотя бы один
стрелок попал)
совместно с Р1,
Р2, Р3 и Х2; а Х2 –
с Р2, Р3 и Х1. Со-
отношения меж-
ду событиями в Рисунок 2.12 – События в примере 2.4
данной задаче по-
казаны на рис. 2.12.
тельности {xn}, если для любого сколь угодно малого заданного наперёд
числа ε > 0 можно указать такой номер N, начиная с которого все члены
80
последовательности будут отличаться от C по модулю меньше, чем на ε:
∀ n > N: | xn – C | < ε. Здесь не зря выделено слово "все". В обычном
пределе мы можем быть уверены, что, как только мы сделаем n > N, то
все члены последовательности подойдут к C ближе, чем на ε. Со
случайными событиями это не так. Можем ли мы достоверно
утверждать, что, например, если мы сделаем больше, чем 24000
бросаний монеты, частота появления герба будет отличаться от 0,5
меньше, чем на ε = 0,0005? С большой долей вероятности, наверное, да,
но стопроцентно – нет: у нас нет возможности вывести зависимость N от
ε, как мы это делали в обычном пределе. Поэтому для случайных
событий понятие предела будет несколько иным.
Здесь нам придётся несколько забежать вперёд и ввести в рассмот-
рение случайную величину. Подробно о случайных величинах мы будем
говорить в главе 3, но для статистического определения вероятности
нужно ввести одну такую величину уже сейчас. Пусть мы проделали n
опытов (фиксированное количество). Интересующее нас событие A про-
явилось в этих опытах m раз. Если другой раз проделать n опытов, то m
может оказаться другим, для третьей серии – третьим, и т. д. Говорят, что
величина m – случайная: её значения в каждой серии опытов в общем
случае разные. Поэтому частота (говорят: частость) m / n появления со-
бытия A – тоже случайная величина. Очевидно, 0 ≤ m / n ≤ 1. Именно эта
величина с ростом n стремится к некоторому пределу P, но не достовер-
но, а только с большой долей достоверности. Сформулируем понятие та-
кого предела в общем случае, для последовательности случайных ве-
личин {Xn}, а затем дадим через него определение вероятности.
Определение 2.15. Детерминированная (неслучайная) константа C
называется пределом последовательности случайных величин {Xn}, если
для любых сколь угодно малых заданных наперёд положительных чисел
ε и δ существует такой номер N, начиная с которого вероятность того, что
Xn будет отличаться от C больше, чем на ε, будет меньше δ: ∀ n > N:
P(| Xn – C | > ε) < δ.
81
Определение 2.16 (статистическое определение вероятности).
Вероятностью события A называется предел (в смысле определе-
ния 2.14) случайной величины m / n при n → ∞:
m
P ( A )= lim . (2.4)
n →∞ n
Определение 2.17. Если предел (2.4) существует, то событие A на-
зывается статистически устойчивым.
Обозначается вероятность большой латинской буквой P (от англ. the
probability – вероятность), а в скобках указывается событие.
Сравним определения 2.15 и 2.16. В определении 2.16 мы вычисля-
ем вероятность как предел в смысле определения 2.15, в котором уже фи-
гурирует вероятность. Это – основное противоречие статистического
определения вероятности. У него есть ещё один недостаток: нужно про-
вести много опытов (n → ∞), чтобы убедиться в том, что исследуемое со-
бытие статистически устойчиво, и найти его вероятность. Поэтому на
практике чаще применяется другое определение вероятности, которое
называется классическим. Оно основано на приписывании каждому со-
бытию (математическому объекту) числовой меры: вероятности.
У геометрической фигуры есть площадь, у тела – объём, у вектора –
модуль, у квадратной матрицы – детерминант. Это всё числовые характе-
ристики различных математических объектов. Точно так же для события
(а это тоже математический объект!) можно ввести в рассмотрение его
числовую характеристику: вероятность. Такое определение вероятности
называется классическим. Обычно его формулируют для схемы случаев.
Пусть опыт сводится к схеме из n случаев, из которых m случаев благо-
приятствуют появлению события A (т. е. A происходит в результате этих
m случаев). Например, если в колоде из 52 карт есть 13 карт червонной
масти, то событию Ч (вытягивание червы) благоприятствуют m = 13 слу-
чаев из n = 52, входящих в схему.
Определение 2.18 (классическое определение вероятности). Ве-
роятностью события A называется отношение числа благоприятствую-
щих случаев m к общему числу случаев схемы n:
82
m
P ( A )= . (2.5)
n
Вероятность достоверного события равна 1. Вероятность невозможного
события равна 0. Вероятность любого случая схемы равна 1 / n.
Как видим, при таком подходе к вычислению вероятностей нам нет
нужды проводить много опытов, чтобы найти P(A). Но надо быть заранее
уверенным, что мы имеем дело именно со схемой случаев, т. е. априори
считать события схемы равновозможными. Проще ли это, чем проводить
много опытов для вычисления предела (2.4)? Наверное, да. Ведь призна-
вая случаи схемы равновозможными, мы тем самым учитываем многове-
ковой опыт человечества и здравый смысл.
Рассмотрим несколько примеров вычисления вероятности событий
по классическому определению.
Пример 2.5. В колоде из 52 карт по 13 карт каждой масти. Какова
вероятность вытягивания червы (события Ч)?
Решение. Опыт здесь – вытягивание карты. Вытягивание любой
карты, как показывает многовековой опыт, события равновозможные.
Всего имеем n = 52 случая схемы. В колоде есть 13 карт червонной масти,
поэтому событию Ч благоприятствуют m = 13 случаев. Считаем:
P(Ч) = 13 / 52 = 0,25.
Пример 2.6. Бросаются 2 игральных кости. Какова вероятность
того, что сумма очков на верхних гранях будет равна 10? Не меньше 10?
Решение. Опыт – бросание двух костей. Все комбинации равновоз-
можны – имеем схему случаев. Каждая кость может лечь шестью граня-
ми, а костей две. По принципу умножения вариантов имеем общее число
случаев схемы n = 36. Подсчитаем количество благоприятствующих слу-
чаев. Чтобы сумма чисел на верхних гранях была равна 10, нужно, чтобы
выпала одна из комбинаций: 4 + 6; 5 + 5; 6 + 4 (всего m = 3 варианта).
Поэтому P(С=10) = 3 / 36 = 1 / 12. Во второй части задачи по-прежнему
n = 36, но добавляются благоприятствующие случаи: 5 + 6; 6 + 5; 6 + 6.
Всего, таким образом, m = 6, а P(С≥10) = 6 / 36 = 1 / 6. См. также далее при-
мер 6.5.
83
Пример 2.7. Бросаются 8 игральных костей. Какова вероятность
того, что сумма очков на верхних гранях будет в пределах от 30 до 40?
Решение. Принцип решения тот же, что и в предыдущем примере,
но из-за больших чисел применим для вычислений MATLAB. Общее ко-
личество случаев схемы n = 68. Подсчитаем m. Для этого с помощью
функции fullfact (см. электронную версию книги) построим матрицу
полного 8-факторного эксперимента на 6 уровнях. Уровни каждого фак-
тора возьмем в виде чисел 1, 2, 3, 4, 5 и 6. Тогда строки этой матрицы –
все возможные сочетания чисел на верхних гранях всех восьми костей.
Осталось сложить элементы каждой строки и найти количество строк, в
которых сумма элементов не меньше 30 и не больше 40. Затем вычисля-
ем вероятность.
nc = 8; % количество костей
n=6^nc % общее число случаев
x=sum(fullfact(6*ones(1,nc)),2); % матрица ПФЭ 6^nc, сумма
m=length(find((x>=30)&(x<=40))) % число благопр. случаев
p=m/n % вероятность события
n =
1679616
m =
632180
p =
0.37638364959610
84
Пример 2.9. Монета бросается 40 раз. Какова вероятность того, что
количество выпадений герба будет от 15 до 25? Будет не больше 10?
Решение. Эта задача отличается от предыдущей тем, что вместо вы-
числения конкретного числа выпадений герба нужно найти сумму таких
значений для заданного интервала. Кроме того, числа здесь большие чис-
ла, поэтому применим для вычислений MATLAB. Биномиальный коэф-
фициент считаем с помощью функции nchoosek.
85
делах от 15 до 25, достаточно высока. А вот вероятность того, что выпа-
дет не больше 10 гербов, очень мала: чуть больше 0,1%. См. также бино-
миальное распределение, раздел 4.1.
Пример 2.10 (задача контролёра). Имеется партия из 20 изделий,
среди которых 5 бракованных. Наугад выбирается 8 изделий. Какова ве-
роятность того, что среди них ровно 2 бракованных?
Решение. Т. к. изделия отбираются наугад, у нас нет оснований счи-
тать, что один вариант отбора чем-то предпочтительнее другого. Поэто-
му считаем все варианты отбора равновозможными. Имеем схему случа-
ев и, следовательно, можем применить классическое определение веро-
ятности. Подсчитаем общее количество вариантов выбора 8 изделий из
20 имеющихся. Порядок выбора нам не важен, поэтому общее число слу-
8
чаев схемы равно числу сочетаний из 20 по 8: n=C 20 . Теперь найдем
количество благоприятствующих случаев. Чтобы интересующее нас со-
бытие наступило, нужно, чтобы среди 8 выбранных изделий было ровно
2 бракованных, а остальные 6 были небракованные. Бракованные изде-
лия мы выбираем из 5 имеющихся, и порядок неважен, поэтому количе-
2
ство вариантов такого выбора равно числу сочетаний из 5 по 2: C 5 . Но
у нас есть ещё и небракованные изделия (всего их 15), и из них можно
выбирать 6 предметов также различными способами. Количество этих
6
способов равно C 15 . Каждый вариант выбора бракованных изделий
можно сочетать с каждым вариантом выбора небракованных, поэтому
общее количество благоприятствующих случаев схемы подсчитывается
2 6
по правилу умножения вариантов. Оно равно m=C 5 C 15 , а искомая ве-
роятность:
2 6
C 5 C 15
P ( Б 2 )= . (2.6)
C 820
86
n=nchoosek(20,8) % общее число случаев
m=nchoosek(5,2)*nchoosek(15,6) % число благопр. случаев
p=m/n % вероятность события
n =
125970
m =
50050
p =
0.39731682146543
87
ятность, что два определённых предмета окажутся рядом?
Решение. Очевидно, общее число вариантов расстановки 10 пред-
метов будет тем же: n = P10 = 10!. А вот количество благоприятствующих
случаев изменится. Чтобы два выбранных предмета находились рядом
при их расстановке по кругу, нужно, чтобы они занимали места 1 и 2 или
2 и 3 и т. д., 9 и 10, а также 10 и 1 – всего 10 вариантов. Остальные рассу-
ждения остаются в силе. На каждой из 10 позиций предметы могут сто-
ять в любом порядке (2 перестановки), значит, всего имеем 10 × 2 = 20 ва-
риантов расположения наших двух предметов. В каждом из них осталь-
ные 8 предметов располагаются как угодно (всего 8! перестановок),
поэтому: m = 20 × 8!, а искомая вероятность:
20⋅8 ! 20 2
P ( A )= = = . (2.8)
10 ! 9⋅10 9
Пример 2.13. Точка попадает на единичный отрезок, и попадание в
каждую его точку равновозможно. Какова вероятность её попадания в
часть [0; 1/3]?
Решение. Точек на отрезках [0; 1] и [0; 1/3] бесконечное множество,
поэтому нельзя рассматривать попадание в конкретную точку как случай
схемы, т. к. вероятность такого события равна 0, а попытка вычислить
m / n приводит к неопределённости. Здесь удобнее в качестве случаев схе-
мы взять попадание точки в 1-ю треть отрезка [0; 1/3], 2-ю треть
[1/3; 2/3] и 3-ю треть [2/3; 1]. Тогда ответ очевиден: P(П[0; 1/3]) = 1/3.
См. также непрерывное равномерное распределение, раздел 4.6.
Хорошо, если в примере 2.13 границы интервала, вероятность попа-
дания в который вычисляется, являются рациональными числами. В этом
случае всегда можно найти конечный отрезок, умещающийся целое чис-
ло раз во всех нужных частях, и взять в качестве случая схемы попадание
в него. Но, допустим, в примере 2.13 нужно найти вероятность попада-
ния в отрезок [ 0;
1
√2 ] . Здесь схему случаев построить не удается, т. к.
88
торый умещался бы целое число раз и в [ 0;
1
√2], ив
[√ ]
1
2
; 1 . В этой
σ ( A)
P ( A )= . (2.9)
σ(I )
Под мерой области в различных задачах понимается длина отрезка,
площадь фигуры или объём тела.
Пример 2.14. Точка попадает в круг радиуса 2, и попадание в каж-
дую его точку равновозможно. Какова вероятность её попадания в квад-
рат со стороной 1, целиком лежащий внутри круга?
Решение. Здесь мерой области является её площадь. Считаем:
1
σ(I) = 4π; σ(A) = 1; и искомая вероятность P ( A )= ≈ 0,079577.
4π
При построении
диаграмм Венна удобно
каждое событие рисо-
вать фигурой, площадь
которой равна вероят-
ности события (если
площадь всего листа
принять равной 1). То-
гда геометрическое
определение вероятно-
сти обретает наглядную
форму.
Возможны и дру-
гие варианты, несводи-
Рисунок 2.13 – Бесконечная полная группа не-
мые к схеме случаев. совместных событий
89
Например, на рис. 2.13 показана диаграмма Венна для бесконечной пол-
ной группы несовместных событий. Первое событие имеет вероятность
1/2, второе – 1/4, …, P(An) = 2–n, и т. д. до бесконечности. Здесь также не
существует события с наименьшей вероятностью, которое можно было
бы принять в качестве случая схемы. См. также геометрическое распре-
деление, раздел 4.3.
90
Поэтому P ( A )=1− P ( A )= 0,8 .
Для следующих теорем нужно ещё ввести в рассмотрение некото-
рые понятия.
Определение 2.20. Событие B называется независимым от события
A, если P(B) не зависит от того, произошло A или нет. Если же P(B) зави-
сит от того, произошло A или нет, то B называется зависимым от A.
Пример 2.15. В урне есть 3 белых шара, 2 красных и 4 синих. Шары
последовательно вынимаются из урны без возврата. Зависит ли событие
Б2 (вторым вытягивается белый шар) от Б1 (первым вытягивается белый
шар)?
Решение. Пусть Б1 произошло. Тогда в урне осталось 2 белых шара,
2 красных и 4 синих. Вытягивание 2-го белого шара сводится к схеме из
8 случаев, из которых 2 благоприятствуют Б2. Поэтому P(Б2) = 2 / 8 = 0,25.
Если же Б1 не произошло, т. е. первым был вытащен не белый шар, то в
этом случае в урне остаётся 3 белых шара и 5 не белых, и
P(Б2) = 3 / 8 = 0,375. Как видим, вероятность Б2 зависит от того, произо-
шло Б1 или нет, поэтому Б2 зависимо от Б1.
Определение 2.21. Вероятность события при условии, что произо-
шло другое событие, называется условной вероятностью.
Она обозначается наклонной чертой /, после которой ставится
обозначение события-условия. Так, в примере 2.15: P(Б2/Б1) = 0,25, а
P ( Б 2 / Б 1)=0,375 . А условие независимости B от A выглядит так:
P ( B / A )= P ( B/ A ) = P ( B ) .
Теперь рассмотрим следующую теорему: о вероятности произведе-
ния событий. Заметим, что есть смысл рассматривать только совместные
события, т. к. произведение несовместных событий есть событие невоз-
можное, и его вероятность равна 0.
Теорема 2.2. Вероятность произведения двух событий P(AB) =
= P(A) ⋅ P(B/A).
Доказательство. Пусть в схеме из n случаев событию A благоприят-
ствуют m случаев, событию B – l случаев, а их произведению AB – k слу-
чаев. Очевидно, k ≤ m; k ≤ l; m ≤ n; l ≤ n. Диаграмма Венна для этих собы-
91
тий показана на рис. 2.14.
P ( AB ) P ( AB )
P ( B / A )= ; P ( A/ B )= . (2.10)
P ( A) P(B)
92
Следствие 2.2. Если событие B не зависит от A, то вероятность
произведения событий равна произведению вероятностей событий-со-
множителей: P(AB) = P(A) ⋅ P(B).
Доказательство следует из определения независимости B от A: в
этом случае P(B) = P(B/A).
Следствие 2.3. Если событие B не зависит от A, то и A не зависит от
B.
Доказательство. Пусть B не зависит от A. Тогда P(AB) =
= P(A) ⋅ P(B) = P(B) ⋅ P(A). Но в общем случае P(AB) = P(B) ⋅ P(A/B). Отсюда
следует, что P(A/B) = P(A), а, значит, A не зависит от B. Поэтому мы мо-
жем говорить о взаимно независимых событиях.
Следствие 2.4. Для трёх событий P(ABC) = P(A) ⋅ P(B/A) ⋅ P(C/(AB)).
Доказательство основано на коммутативности произведения собы-
тий. Имеем:
P(ABC) = P((AB)C) = P(AB) ⋅ P(C/(AB)) = P(A) ⋅ P(B/A) ⋅ P(C/(AB)).
Разумеется, это свойство можно применять и для произведения
большего числа событий.
Пример 2.14. В урне находятся 2 шара с буквами М и 2 с буквами А.
Шары случайным образом вытягиваются по одному и расставляются в
ряд. Какова вероятность, что будет сложено слово МАМА?
Решение. Шары вытягиваются последовательно. Нам нужно, чтобы
1-я буква была М, и 2-я буква – А, и 3-я буква – М, и 4-я – А. Союзу "и"
соответствует умножение событий, поэтому наше событие равно произ-
ведению четырёх событий: М1 ⋅ А2 ⋅ М3 ⋅ А4 (здесь индекс внизу – номер
вытягивания). По теореме умножения вероятностей
P(М1А2М3А4) = P(М1)P(А2/М1) ⋅ P(М3/(М1А2))P(А4/(М1А2М3)). Считаем веро-
ятности. Каждое из четырёх вытягиваний сводится к схеме случаев. Для
1-го вытягивания общее количество случаев схемы n = 4, а благоприят-
ствуют событию М1 m = 2 случая. Поэтому P(М1) = 2 / 4 = 1 / 2. Далее счи-
таем вероятность А2/М1. Событие М1 произошло, поэтому в урне оста-
лись 2 буквы А и одна М. Опять имеем схему случаев, и P(А2/М1) = 2 / 3.
Теперь в урне остались по одной букве А и М (событие М1А2
93
произошло). Поэтому P(М3/(М1А2)) = 1 / 2. И, наконец, т. к. в урне
осталась единственная буква А, то P(А4/(М1А2М3)) = 1. Перемножаем:
P(М1А2М3А4) = 1 / 6.
Пример 2.15. Два стрелка одновременно (или по очереди, это не-
важно) стреляют по мишени. Вероятность попадания у 1-го стрелка 0,9, а
у 2-го – 0,7. Какова вероятность, что оба попадут? Оба не попадут? Хотя
бы один попадёт?
Решение. Обозначим события: П1 – 1-й стрелок попал, П2 – 2-й по-
пал. Из смысла задачи есть все основания считать, что события П1 и П2 –
независимые. Чтобы было 2 попадания (обозначим это событие Р2 – ров-
но 2 стрелка попали), нужно, чтобы и 1-й стрелок попал, и 2-й. Союзу
"и" соответствует умножение, поэтому Р2 = П1П2. Вероятность произведе-
ния независимых событий равна произведению вероятностей событий-
сомножителей: P(Р2) = 0,9 ⋅ 0,7 = 0,63. Событие Р0 (ровно 0 попаданий,
т. е. никто не попал) наступит тогда, когда и 1-й стрелок не попадёт, и 2-
й не попадёт. Частице "не" соответствует переход к противоположному
событию, поэтому Р 0= П 1 П 2 . Вероятности противоположных событий:
P ( П 1 )=1− P ( П 1 ) =0,1; P ( П 2 ) =1−P ( П 2) =0,3. Т. к. события П1 и П2 –
независимые, то и им противоположные независимы, поэтому
P ( Р 0 )= P ( П 1 ) P ( П 2 ) =0,03. И, наконец, рассмотрим событие Х1 (хотя бы
один стрелок попал). Оно является противоположным по отношению к
Р0, значит, P(Х1) = 1 – P(Р0) = 0,97.
Пример 2.16. Имеется группа из n случайно выбранных человек.
Какова вероятность, что хотя бы у двух из них совпадёт день рождения
(без учёта года и 29 февраля)? Сколько человек должно быть в группе,
чтобы эта вероятность превысила 0,5?
Решение. Если n > 365, то по принципу исключения вероятность
совпадения дней рождения будет равна 1. Действительно, в самом худ-
шем случае у 365 человек дни рождения различные, но у 366-го наверня-
ка с кем-то совпадёт. С другой стороны, при n = 1 искомая вероятность
равна 0 (вообще нет совпадений). Поэтому при увеличении n от 1 до 366
вероятность совпадения дней рождения будет изменяться (как подсказы-
94
вает интуиция, увеличиваться) от 0 до 1. Нам нужно построить эту зави-
симость p(n), а затем найти наименьшее целое решение неравенства
p(n) ≥ 0,5.
В задачах, где встречаются слова "существует хотя бы один", всегда
удобно перейти к противоположному событию "не существует ни одно-
го". Эта задача как раз такого класса. Несмотря на то, что в условии на-
писано "хотя бы у двух", речь здесь всё-таки идет о хотя бы одном совпа-
дении дней рождения. Обозначим это событие через Сn. Тогда противо-
положное событие С n – среди n человек нет ни одного совпадения дней
рождения. Мы уже знаем, что P ( С 1) =1, а P ( С >365 )=0. Рассмотрим
нахождение P ( С n ) . Очевидно, задача не зависит от того, в каком поряд-
ке перенумеровать людей, поэтому перенумеруем их. Пусть у 1-го чело-
века день рождения припадает на какой-то конкретный день из имею-
щихся 365. Чтобы произошло событие С 2 , нужно, чтобы у 2-го челове-
ка день рождения выпал на какой-либо из 354 оставшихся. По классиче-
364
скому определению вероятности P ( С 2 )= . Далее, у 3-го человека
365
день рождения должен попасть на один из 363 оставшихся. В силу неза-
364 363
висимости дней рождения P ( С 3) = ⋅ . Теперь уже нетрудно по-
365 365
строить общую формулу:
n
364 363 366−n 366−i
P ( С n )= ⋅ ⋅…⋅ =∏ . (2.11)
365 365 365 i=1 365
95
pcrit=0.5; % критическое значение вероятности
q=1; % вероятности несовпадения
for i=2:366,
q=[q q(end)*(366-i)/365]; % накапливаем
end
p=1-q; % вероятности совпадения
nmin=min(find(p>=pcrit)); % минимальное n с p>=pcrit
fprintf('При n>=%d вероятность P(Cn)>=%3.1f.\n',...
nmin,pcrit);
plot(1:366,p,'k-',nmin,p(nmin),'ko'); % рисуем график
xlim([1 366]); % границы по оси OX
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10) % шрифт
title('\bfВероятность совпадения дней рождения')
xlabel('\itn') % метка оси OX
ylabel('\itP\rm(\itC_n\rm)') % метка оси OY
При n>=23 вероятность P(Cn)>=0.5.
0.8
0.6
P(C n)
0.4
0.2
0
50 100 150 200 250 300 350
n
96
Довольно неожиданный результат: оказывается, достаточно иметь
группу из 23 случайно отобранных человек, чтобы вероятность совпаде-
ния дней рождения была больше, чем 1 / 2.
И, наконец, третья теорема позволяет вычислить вероятность суммы
событий. Здесь, в отличие от умножения, можно рассматривать как сов-
местные, так и несовместные события. Более общим здесь является слу-
чай совместных событий, показанный на рис. 2.14.
Теорема 2.3. Вероятность суммы двух событий P(A + B) = P(A) +
+ P(B) − P(AB).
Доказательство. Пусть в схеме из n случаев событию A благоприят-
ствуют m случаев, событию B – l случаев, а их произведению AB – k слу-
чаев. Из рис. 2.14 видно, что событию A + B благоприятствуют m + l – k со-
бытий. Величину k нужно отнимать, чтобы не учитывать дважды те слу-
чаи схемы, которые входят и в A, и в B. Поэтому
m+l −k m l k
P ( A+ B ) = = + − = P ( A ) + P ( B )− P ( AB ) .
n n n n
Следствие 2.5. Если события A и B несовместны, то P(A + B) =
= P(A) + P(B).
Доказательство. Если A и B несовместны, то P(AB) = 0, и
P(A + B) = P(A) + P(B).
Следствие 2.6. Вероятность суммы трех событий P(A + B + C) = (это
уже доказательство) = P((A + B) + C) = P(A + B) + P(C) – P((A + B)C)=
=P(A) + P(B) – P(AB) + P(C) − P(AC + BC) = P(A) + P(B) + P(C) – P(AB) –
− (P(AC) + P(BC) – P(ACBC)) = P(A) + P(B) + P(C) – P(AB) – P(AC) – P(BC) +
+ P(ABC).
Постройте диаграмму Венна для этого случая и посмотрите, площа-
ди каких кусочков нужно складывать и вычитать.
Пример 2.17 (продолжение примера 2.15). Найти вероятность собы-
тия Р1 (ровно один стрелок попадёт).
Решение. Ровно один стрелок попадает – это значит 1-й стрелок по-
падёт и 2-й нет или 2-й попадёт и 1-й нет. Заменив слова операциями,
получим: Р 1= П 1 П 2+ П 1 П 2 . Слагаемые здесь несовместные, т. к. в 1-м
97
слагаемом содержится, например, множитель П1, а во 2-м – П 1 , а они не
могут осуществиться одновременно. Поэтому применяем следствие 2.5:
P ( Р 1 ) = P ( П 1 П 2 )+ P ( П 1 П 2 ) . Далее переходим к сомножителям. Они
независимы, значит, P ( Р 1 ) = P ( П 1 ) P ( П 2 )+P ( П 1 ) P ( П 2 ) . Считаем:
P(Р1) = 0,9 ⋅ 0,3 + 0,1 ⋅ 0,7 = 0,34. Обратите внимание: Р0, Р1 и Р2 образуют
полную группу несовместных событий, поэтому сумма их вероятностей
равна 1. Вероятности событий Р0, Р1 и Р2 можно получить ещё и так:
нужно раскрыть скобки в выражении (0,9 + 0,1) (0,7 + 0,3), перемножая
отдельные слагаемые. Здесь 1-я скобка – это вероятности попадания и
промаха 1-го стрелка, а 2-я – 2-го. Разберитесь самостоятельно,
вероятности каких событий дадут полученные 4 числа.
Пример 2.18. Пусть теперь стреляют 3 стрелка. Вероятности попа-
даний: P(П1) = 0,9; P(П2) = 0,7 и P(П3) = 0,5. Попадания считаются незави-
симыми. Найти вероятности событий, перечисленных в примере 2.4.
Решение. События уже построены. Вычисляем вероятности.
• P(Р3) = P(П1 ⋅ П2 ⋅ П3) = P(П1) P(П2) P(П3) = 0,9 ⋅ 0,7 ⋅ 0,5 = 0,315.
= 0,9 ⋅ 0,3 ⋅ 0,5 + 0,1 ⋅ 0,7 ⋅ 0,5 + 0,1 ⋅ 0,3 ⋅ 0,5 = 0,185.
= 0,9 ⋅ 0,7 ⋅ 0,5+ 0,9 ⋅ 0,3 ⋅ 0,5 + 0,1 ⋅ 0,7 ⋅ 0,5 = 0,485.
98
2.4. Формула полной вероятности. Формулы Байеса
Познакомимся ещё с одним приёмом вычисления вероятностей
сложных событий. Вначале, как обычно, новые определения. Мы уже
знакомы со схемой случаев: это полная система несовместных равновоз-
можных событий. Если же события полной группы только несовмест-
ные, но не обязательно равновозможные, то они называются гипотезами.
Определение 2.22. Гипотезами называется полная группа несов-
местных событий.
Гипотезы обозначаются латинской буквой H (от англ. hypothesis –
гипотеза) с индексом внизу: номером гипотезы. Из определения следует,
что:
n
∑ P ( H i )=1. (2.12)
i =1
99
личии 50% микросхем 1-го завода, 30% – 2-го и 20% – 3-го. Среди ми-
кросхем 1-го завода 5% бракованных, 2-го – 2% и 3-го – 10%. Требуется
определить, какова вероятность у рабочего взять бракованную микросхе-
му. Что здесь является гипотезами?
Решение. Выбранная микросхема изготовлена каким-то заводом,
поэтому гипотезами здесь будет выбор рабочим микросхемы определён-
ного завода: H1 – 1-го, H2 – 2-го и H3 – 3-го. Хотя здесь оба действия (вы-
бор завода-изготовителя и выбор схемы) выполняются одновременно,
удобно считать, что эти действия выполняются последовательно: сначала
случайно выбирается завод-изготовитель, а затем – плата его произ-
водства.
Пример 2.21. В 1-й урне 3 белых шара и 4 чёрных, а во 2-й – 5 бе-
лых и 2 чёрных. Из первой урны берут 2 шара и, не глядя, перекладыва-
ют их во вторую урну, после чего из 2-й урны вынимают один шар. Тре-
буется найти вероятность того, что это шар белый. Что здесь является ги-
потезами?
Решение. Вытягиванию шара из 2-й урны предшествует переклады-
вание двух шаров из 1-й урны во 2-ю. Различные варианты такого пе-
рекладывания и есть гипотезы в данной задаче. Всего таких гипотез три:
H1 – перекладываются 2 белых шара, H2 – 1 белый и 1 чёрный, и H3 – два
чёрных.
Могут быть и более сложные случаи. Например, можно рассматри-
вать 3 урны с шарами разного цвета. Сначала какое-то количество шаров
перекладывается из 1-й урны во 2-ю, затем какое-то другое (или такое
же) количество шаров перекладывается из 2-й урны в 3-ю, а затем уже из
3-й урны вытягивается шар, и требуется найти вероятность того, что он
определённого цвета. Такие задачи решаются "с конца". Гипотезами для
последнего вытягивания являются различные варианты перекладывания
шаров из 2-й урны в 3-ю. При вычислении вероятностей гипотез (а они
нам будут нужны) каждую из них нужно рассматривать как событие, ко-
торое в свою очередь зависит от нескольких гипотез: вариантов перекла-
дывания из 1-й урны во 2-ю.
100
Как же найти вероятность события A, которому предшествует одна
из гипотез H1, H2, …, Hn? У нас сначала выполняется одна из гипотез
(или H1, или H2, …, или Hn), и затем событие A. По правилам сложения
и умножения событий имеем результирующее событие
n n
A= IA=
( )
∑Hi
i=1
A= ∑ H i A (множитель A вносится в скобки в силу дис-
i =1
101
H1 белых шаров осталось 2, а после H2 и H3 – 3. Поэтому P(Б2/H1) = 2 / 8; а
P(Б2/H2) = P(Б2/H3) = 3 / 8. Считаем по ФПВ:
3 2 2 3 4 3 24 1
P ( Б 2 )= ⋅ + ⋅ + ⋅ = = .
9 8 9 8 9 8 72 3
Пример 2.20 (продолжение). Вероятности гипотез: P(H1) = 0,5;
P(H2) = 0,3; P(H3) = 0,2. Вторые множители ФПВ: P(Б/H1) = 0,05;
P(Б/H2) = 0,02; P(Б/H3) = 0,1. Применяем ФПВ: P(Б) = 0,5 ⋅ 0,05 +
+ 0,3 ⋅ 0,02 + 0,2 ⋅ 0,1 = 0,051.
Пример 2.21 (продолжение). Гипотезами здесь являются варианты
перекладывания шаров из 1-й урны во 2-ю. Нахождение их вероятно-
стей – это типичная задача контролёра (см. пример 2.10). Действительно:
в 1-й урне есть 7 предметов (шаров), из которых 3 белых. Наугад вытяги-
ваются 2 шара, и требуется найти вероятности того, что среди них будет
2, 1 или 0 белых. Поэтому для вычисления P(Hi) применяем формулу
(2.6), разумеется, с другими числами:
2 0 1 1 0 2
C3 C4 1 C 3C4 4 C3C 4 2
P ( H 1 )= 2 = ; P ( H 2 )= 2 = ; P ( H 3 )= 2 = . (2.14)
C 7
7 C 7
7 C 7
7
102
A уже произошло, и нужно переоценить гипотезу, или, иными словами,
дать апостериорную оценку её вероятности. В наших обозначениях: тре-
буется найти P(Hi/A). По формуле для условной вероятности (2.10) име-
ем:
P ( H i A ) P ( H i ) P ( A/ H i )
P ( H i / A )= = . (2.15)
P ( A) P ( A)
103
равна уже не 1 / 3, а только 1 / 4.
Пример 2.23 (обратный примеру 2.20). Рабочий берёт для сборки
микросхему одного из трёх заводов, которые по внешнему виду нераз-
личимы. Всего имеется в наличии 50% микросхем 1-го завода, 30% – 2-
го и 20% – 3-го. Среди микросхем 1-го завода 5% бракованных, 2-го – 2%
и 3-го – 10%. Выбранная микросхема оказалась бракованной. Какова ве-
роятность, что она изготовлена на 1-м заводе? 2-м? 3-м?
Решение. Полная вероятность появления бракованного изделия
P(Б) = 0,051. Эта величина будет в знаменателе формул Байеса. В числи-
телях будут величины: P(H1Б) = 0,025; P(H2Б) = 0,006 и P(H3Б) = 0,02. Вы-
числяем апостериорные вероятности: P(H1/Б) = 0,490196; P(H2/Б) =
= 0,117647; P(H3/Б) = 0,392157.
Пример 2.24 (обратный примеру 2.21). В 1-й урне 3 белых шара и
4 чёрных, а во 2-й – 5 белых и 2 чёрных. Из первой урны берут 2 шара и,
не глядя, перекладывают их во вторую урну, после чего из 2-й урны вы-
нимают один шар. Он оказался белым. Какова вероятность того, что из 1-
й урны во 2-ю были переложены 2 белых шара? 1 белый и 1 чёрный? 2
чёрных?
Решение. Принцип тот же, что и в предыдущих примерах. Делим
каждое слагаемое ФПВ на полную вероятность: P(H1/Б) = 7/41 ≈ 0,17073;
P(H2/Б) = 24/41 ≈ 0,58537; P(H3/Б) = 10/41 ≈ 0,2439.
Иногда выбор гипотез не очевиден. Нужно рассмотреть различные
варианты, чтобы выбрать наиболее подходящий. Главное, чтобы собы-
тия, выбираемые в качестве гипотез, были взаимно несовместными и об-
разовывали полную группу. Рассмотрим две похожие задачи, в которых
гипотезы выбираются по-разному.
Пример 2.25. Три стрелка стреляют по мишени независимо друг от
друга. Вероятности попаданий: P(П1) = 0,9; P(П2) = 0,7 и P(П3) = 0,5. По-
сле стрельбы в мишени оказались 2 пробоины. Какова вероятность, что
их сделали 2-й и 3-й стрелки?
Решение. Здесь в качестве гипотез удобно взять все возможные ва-
рианты попаданий или не попаданий всех трёх стрелков. Каждый из трёх
104
стрелков может попасть или не попасть, и по принципу умножения име-
ем 8 различных вариантов. Все они несовместны и образуют полную
группу, поэтому являются гипотезами. Вот они и их вероятности:
• H 1 = П 1 П 2 П 3 ; P ( H 1 ) =0,9⋅0,7⋅0,5=0,315 ;
• H 2 =П 1 П 2 П 3 ; P ( H 2 )=0,1⋅0,7⋅0,5=0,035;
• H 3 = П 1 П 2 П 3 ; P ( H 3 ) =0,9⋅0,3⋅0,5=0,135 ;
• H 4= П 1 П 2 П 3 ; P ( H 4 )=0,9⋅0,7⋅0,5=0,315 ;
• H 5 =П 1 П 2 П 3 ; P ( H 5 )=0,9⋅0,3⋅0,5=0,135 ;
• H 6 = П 1 П 2 П 3 ; P ( H 6) =0,1⋅0,7⋅0,5=0,035;
• H 7 = П 1 П 2 П 3 ; P ( H 7) =0,1⋅0,3⋅0,5=0,015;
• H 8 =П 1 П 2 П 3 ; P ( H 8 )=0,1⋅0,3⋅0,5=0,015 .
Вторые множители ФПВ – это условные вероятности события Р2
(ровно 2 попадания) при условии реализации той или иной гипотезы.
Очевидно, что, если будут реализованы гипотезы H2, H3 или H4, то Р2
точно произойдёт, поэтому P(Р2/H2) = P(Р2/H3) = P(Р2/H4) = 1. Для осталь-
ных гипотез P(Р2/Hi) = 0. В выражении для ФПВ из 8 слагаемых останет-
ся только 3: P(Р2) = 0,035 ⋅ 1 + 0,135 ⋅ 1 + 0,315 ⋅ 1 = 0,485 (сравните с приме-
рами 2.4 и 2.18). Теперь понятно, как применить формулу Байеса для вы-
числения P(H2/Р2): берём первое слагаемое ФПВ и делим на сумму. Ре-
зультат: P(H2/Р2) = 0,035 / 0,485 ≈ 0,072165.
Пример 2.26. Три стрелка стреляют по мишени независимо друг от
друга. Вероятности попаданий: P(П1) = 0,9; P(П2) = 0,7 и P(П3) = 0,5. По-
сле стрельбы в мишени оказались 2 пробоины. Какова вероятность, что
2-й стрелок попал?
Решение. В этой задаче выбор гипотез более очевиден: либо 2-й
стрелок попал, либо нет: H1 = П2; H 2 = П 2 . Их вероятности: P(H1) = 0,7;
P(H2) = 0,3. Рассмотрим теперь вторые множители ФПВ: условные веро-
ятности Р2/H1 и Р2/H2. Если 2-й стрелок попал, то 2 попадания будут в
том случае, если 1-й попал и 3-й не попал, или 1-й не попал и 3-й попал.
Формула для этого события: Р 2 / H 1= П 1 П 3+ П 1 П 3 . Считаем вероят-
105
ность: P(Р2/H1) = 0,9 ⋅ 0,5 + 0,1 ⋅ 0,5 = 0,5. Если же 2-й стрелок не попал, то
2 попадания могут быть только тогда, когда и 1-й, и 3-й стрелки попали:
Р2/H2 = П1П3. Вероятность этого события: P(Р2/H2) = 0,9 ⋅ 0,5 = 0,45. Счита-
ем по ФПВ: P(Р2) = 0,7 ⋅ 0,5 + 0,3 ⋅ 0,45 = 0,485 (сравните с примерами 2.4,
2.18 и 2.25). Апостериорная вероятность 1-й гипотезы – это отношение
1-го слагаемого ФПВ к сумме: P(H1/Р2) = 0,35 / 0,485 ≈ 0,72165.
106
Глава 3. Случайные величины
На практике исследователь чаще всего сталкивается с результатом
эксперимента в виде случайной величины. Поэтому переходим к их изу-
чению.
107
ные значения целиком заполняют некоторый конечный или бесконечный
промежуток. Если вы изучали теорию множеств, то знаете, что множе-
ство действительных чисел в любом промежутке является несчётным.
Вот по этому критерию (структура области возможных значений) и клас-
сифицируют случайные величины. Их делят на дискретные и непрерыв-
ные, а дискретные, в свою очередь, на конечнозначные и бесконечноз-
начные (рис. 3.1).
Определение 3.2. Случайная величина называется дискретной, если
множество её возможных значений конечно или является бесконечным
счётным множеством.
Случайные величины
Дискретные Непрерывные
Конечнозначные Бесконечнозначные
108
нях двух бросаемых костей является дискретной конечнозначной величи-
ной, количество бросаний монеты до появления первого герба –
дискретной бесконечнозначной, а диаметр обрабатываемой детали – не-
прерывной.
Могут быть и смешанные, дискретно-непрерывные величины.
Например, множеством возможных значений может быть отрезок [0; 1] и
все целые положительные числа от двух: 2, 3, ….
Другая классификация, независимая от приведенной на рис. 3.1 – это
разделение случайных величин на одномерные (скалярные) и многомер-
ные (векторные). Все те величины, которые мы выше рассматривали –
это одномерные, или скалярные случайные величины.
Определение 3.6. Многомерной случайной величиной, или системой
случайных величин, или случайным вектором называется совокупность
нескольких рассматриваемых совместно случайных величин.
Мы рассмотрим многомерные случайные величины в главе 5.
∑ pk =1 (3.1)
k =1
109
для бесконечнозначной. Часто его называют условием нормировки. Ве-
роятности являются безразмерными величинами.
Эта суммарная единичная вероятность каким-то образом распреде-
лена между pk, и величина X с вероятностной точки зрения будет полно-
стью описана, если будет задано это распределение. Оно так и называет-
ся: распределение, или закон распределения. Физическая аналогия – рас-
пределение суммарной единичной массы между отдельными материаль-
ными точками.
Определение 3.7. Законом распределения дискретной случайной ве-
личины называется любое правило, по которому всем возможным значе-
ниям xk случайной величины X ставятся в соответствие вероятности их
появления pk.
Фактически закон распределения – это функциональная зависимость
pk от xk. Её можно задавать разными способами. Во-первых, это может
быть таблица. Она называется рядом распределения.
Пример 3.1. В таблице 3.1 показан ряд распределения случайной ве-
личины X – суммы чисел на верхних гранях двух костей при их броса-
нии. Возможные значения этой величины – целые числа от 2 до 12. Веро-
ятности таких событий мы научились находить в главе 2.
xk 2 3 4 5 6 7 8 9 10 11 12
1 2 3 4 5 6 5 4 3 2 1
pk
36 36 36 36 36 36 36 36 36 36 36
110
x=[0.2 1 2.1 3 3.7 4]; % задали x(i)
p=[0.08 0.15 0.3 0.2 0.15 0.12]; % задали p(i)
p=p/sum(p); % нормировали до единичной суммы
plot(x,p,'k-',x,p,'k.') % многоугольник распределения
ylim([0 0.4])
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10) % шрифт
title('\bfМногоугольник распределения') % заголовок
xlabel('\itx_k') % метка оси OX
ylabel('\itp_k') % метка оси OY
Многоугольник распределения
0.4
0.35
0.3
0.25
0.2
pk
0.15
0.1
0.05
0
0 0.5 1 1.5 2 2.5 3 3.5 4
xk
111
Пример 3.3 аналитического закона распределения для конечнознач-
ной величины: вероятность появления различного количества гербов при
3 бросаниях монеты:
{
k
C3
; k ∈ { 0, 1, 2, 3} ;
pk = 8 (3.3)
0 ; k ∉ { 0, 1, 2, 3 } .
112
случайной величины X, аргумент которой обозначен буквой t. Рас-
смотрим свойства функции распределения.
Свойство 3.1. Функция распределения – это вероятность некоторого
события, поэтому 0 ≤ F(x) ≤ 1.
Свойство 3.2. F(–∞) = P(X < –∞) = 0.
Свойство 3.3. F(∞) = P(X < ∞) = 1.
F ( x)= ∑ pk . (3.6)
∀ x k <x
113
2,1; 3; 3,7 и 4. Если аргумент x ≤ 0,2, то у X нет ни одного возможного
значения, меньшего, чем это x. Поэтому ∀ x ≤ 0,2: F(x) = 0. Следующий
участок: 0,2 < x ≤ 1. Если аргумент x принимает любое значение из этого
полуинтервала, то левее его есть только одно возможное значение X: 0,2,
и вероятность его принятия равна 0,08. Поэтому ∀ x ∈ (0,2; 1]: F(x) = 0,08.
Следующий полуинтервал – это (1; 2,1]. Если взять любое число x из это-
го полуинтервала, то левее его есть 2 возможных значения: 0,2 и 1 с
вероятностями их принятия соответственно 0,08 и 0,15. Суммируем их
по формуле (3.6), и имеем: ∀ x ∈ (1; 2,1]: F(x) = 0,08 + 0,15 = 0,23. Далее
рассматриваем любую точку из (2,1; 3]. Слева от неё – 3 возможных зна-
чения с вероятностями 0,08, 0,15 и 0,3. Поэтому ∀ x ∈ (2,1; 3]:
F(x) = 0,23 + 0,3 = 0,53. Повторяя это процесс для всех участков, получа-
ем:
{
0; x∈( −∞ ; 0,2 ] ;
0,08; x∈ ( 0,2; 1 ] ;
0,23; x∈ ( 1; 2,1 ] ;
F ( x ) = 0,53; x ∈( 2,1; 3 ] ; (3.7)
0,73; x∈ ( 3 ; 3,7 ] ;
0,88; x∈ ( 3,7; 4 ] ;
1; x∈ ( 4; +∞ ) .
114
plot(x,F1(1:end-2),'k.') % добавили точки
hh=get(gca);
hp=hh.Position; % положение осей на фигуре
for i=1:length(F),
xi=x1(2+i:-1:1+i); % координаты стрелок
Fi=[F(i) F(i)];
xi=(xi-xl(1))/(xl(2)-xl(1))*hp(3)+hp(1); % нормализуем
Fi=(Fi-yl(1))/(yl(2)-yl(1))*hp(4)+hp(2); % стрелки
annotation('arrow',xi,Fi); % добавляем стрелки
end
hold off
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10) % шрифт
title('\bfФункция распределения') % заголовок
xlabel('\itx') % метка оси OX
ylabel('\itF\rm(\itx\rm)') % метка оси OY
Функция распределения
1
0.8
0.6
F (x)
0.4
0.2
0
-1 0 1 2 3 4 5
x
115
В стандартном MATLAB и его расширениях нет простых средств
для рисования стрелок. Их можно добавить на рисунок как аннотации, а
для этого нужно пересчитать абсолютные координаты в относительные
(нормализованные). Именно так нарисованы полуинтервалы на рис. 3.4.
В электронной версии приведены многочисленные примеры графиков
функций различных распределений. В случае дискретных величин для
упрощения они нарисованы без стрелок и точек, показаны только сами
ступенчатые ломаные.
116
Все остальные свойства F(x) остаются в силе: это функция
неубывающая, меняется от 0 при x → –∞ до 1 при x → +∞. Но при вы-
числении вероятности попадания в промежуток мы можем свободно до-
бавлять или отбрасывать концы промежутка, т. к. в непрерывной величи-
не учёт или неучёт конечного (или даже счётного) числа точек не влияет
на вероятность:
P ( x1⩽ X ⩽ x2 ) = P ( x1 < X ⩽ x 2) = P ( x1 ⩽X < x 2 )=
= P ( x1 < X <x 2) =F ( x2 ) −F ( x 1 ) . (3.8)
117
ское название: the partial distribution function. Из формулы (3.9) видно,
что размерность f(x) будет обратной к размерности X. Например, если X –
размер детали (м), то размерность f(x) для неё будет м–1. Вот некоторые
свойства плотности распределения.
Свойство 3.6. Плотность распределения есть производная от функ-
ции распределения:
dF ( x )
f ( x )= . (3.10)
dx
F x ( x ) =∫ f x ( t ) dt . (3.11)
−∞
F x ( x ) = ∫ f x ( t ) dt+∫ f x ( t ) dt=∫ f x ( t ) dt .
−∞ a −∞
118
+∞
∫
−∞
f ( x ) dx=1. (3.12)
P x1 X x2 =∫ f x dx . (3.13)
x1
119
Это свойство проиллюстрировано на рис. 3.5: площадь криволиней-
ной трапеции, ограниченной снизу осью Ox, сверху графиком функции
y = f(x), а с боков – вертикальными прямыми x = x1 и x = x2, равна выраже-
нию (3.13).
На рис. 3.5 показана также полоска бесконечно малой ширины dx,
площадь которой представляет собой элементарную вероятность
dp = f(x)dx. С этим обозначением условие нормировки (3.12) становится
ещё больше похожим на (3.1)-(3.2).
Пример 3.5. Плотность распределения случайной величины задана
с точностью до неизвестного множителя k:
{
f ( x )=
k ( x−1 ) ;
0;
x∈ [ 1; 3 ] ;
x∉ [ 1; 3 ] .
(3.14)
120
fprintf(['f(x)=%s; %d<=x<=%d;\nf(x)=0 '...
'вне этого отрезка.\n'],char(fs),x1,x2)
xp1=x1-0.25*(x2-x1); % границы рисунка
xp2=x2+0.25*(x2-x1);
xp=linspace(xp1,xp2,1000); % абсциссы для графика
fp=subs(fs,x,xp).*(xp>=x1).*(xp<=x2); % ординаты
plot(xp,fp) % рисуем график
ylim([0 1.2*max(fp)]); % границы по вертикали
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10) % шрифт
title('\bfПлотность распределения') % заголовок
xlabel('\itx') % метка оси OX
ylabel('\itf\rm(\itx\rm)') % метка оси OY
Плотность распределения:
f(x)=1/2*x-1/2; 1<=x<=3;
f(x)=0 вне этого отрезка.
Плотность распределения
0.8
f(x)
0.6
0.4
0.2
0
0.5 1 1.5 2 2.5 3 3.5
x
121
Для вычисления функции распределения используем свойство 3.8.
Подынтегральная функция (3.14) имеет различные аналитические выра-
жения в различных интервалах, поэтому в зависимости от верхнего пре-
дела в формуле (3.11) интеграл придётся разбивать на несколько слагае-
x
мых. При x < x1: f(x) = 0, и здесь F ( x ) =∫ 0dt =0 . Если верхний предел
−∞
x1 x
122
F(x)=1/4*x^2+1/4-1/2*x; 1<=x<=3;
F(x)=1; x>3.
Функция распределения
0.8
f(x)
0.6
0.4
0.2
0
0.5 1 1.5 2 2.5 3 3.5
x
123
вычисления этой величины, поэтому она так и называется: среднее, или
математическое ожидание (сокращенно МО). В англоязычной литературе
применяется термин the mean. Обозначается оно M(X), или mx, или Mx.
Определение 3.11. Математическим ожиданием или средним слу-
чайной величины X называется сумма произведений всех возможных
значений величины X на вероятности их появления. При этом слово
"сумма" должно пониматься обобщённо: для дискретной конечнозначной
величины – это обычная сумма:
n
m x = ∑ xk pk ; (3.15)
k=1
124
дисперсии (см. дальше этот раздел). Они приведены в электронной вер-
сии.
Пример 3.6. Рассмотрим непрерывную величину с плотностью рас-
пределения
1
f ( x )= . (3.18)
π ( x 2+1 )
mx=sum(x.*p); % считаем МО
fprintf('Математическое ожидание Mx=%8.5f.\n',mx);
Математическое ожидание Mx= 2.43100.
mx=int(x*fs,x,x1,x2); % вычисляем МО
fprintf('Математическое ожидание Mx=%s=%8.5f.\n',...
char(mx),eval(mx))
125
Математическое ожидание Mx=7/3= 2.33333.
126
[fmax,ifmax]=max(fp); % максимальная f(x)
modx=xp(ifmax); % мода распределения
fprintf('Мода =%5.2f.\n',modx);
Мода = 3.00.
127
Рисунок 3.8 – Медиана распределения
128
Пример 3.5 (продолжение). Найти медиану непрерывной величи-
ны.
Решение. У нас есть аналитическое выражение для F(x). Приравни-
ваем его 0,5 и решаем полученное уравнение.
129
дание от m-й степени X, как и записано в обозначении M(Xm). Пока что
мы не вводили в рассмотрение функцию случайной величины (в данном
случае степень). Мы будем их изучать дальше, в главе 6. А здесь заме-
тим, что под словами "m-я степень X" подразумевается, что все возмож-
ные значения случайной величины X возводятся в m-ю степень. Первая
часть фразы "математическое ожидание от …" означает взвешенную сум-
му с вероятностями в качестве весов. Здесь мы опять немного забегаем
вперёд и используем тот факт, что если, например, у случайной величи-
ны X значение xk проявляется с вероятностью pk, то с той же самой веро-
m
ятностью pk у величины Xm будет проявляться значение x k . Размерность
m-го момента равна m-й степени размерности X.
Если в дискретной конечнозначной величине известны только её
возможные значения x1, x2, …, xn, а вероятности pk неизвестны, для их на-
хождения достаточно знать все моменты до (n–1)-го порядка включи-
тельно. Вместе с условием нормировки (3.1) они дают систему линейных
алгебраических уравнений для нахождения pk:
{
p1+ p2+…+ p n =1;
x1 p1+ x 2 p 2 +…+ x n pn=α 1= mx ;
2 2 2
x1 p1+ x 2 p 2+…+ xn pn =α 2 ; (3.24)
…
xn1 −1 p 1+ x n−1
2 p 2+…+ x n−1
n pn =α n−1 .
130
Но для дискретной бесконечнозначной и непрерывной величин пол-
ностью задать закон (функцию, плотность) распределения можно только
по бесконечной совокупности моментов.
Вычислим несколько первых начальных моментов для примеров 3.2
и 3.5 (продолжение).
disp('Начальные моменты:');
for i=1:5,
alpha=sum(x.^i.*p); % момент i-го порядка
fprintf('Alpha(%d)=%12.5f\n',i,alpha);
end
Начальные моменты:
Alpha(1)= 2.43100
Alpha(2)= 7.24970
Alpha(3)= 23.60689
Alpha(4)= 81.01697
Alpha(5)= 287.89826
disp('Начальные моменты:');
for i=1:5,
alpha=int(x^i*fs,x,x1,x2); % момент i-го порядка
fprintf('Alpha(%d)=%s=%12.5f\n',i,...
char(alpha),eval(alpha));
end
Начальные моменты:
Alpha(1)=7/3= 2.33333
Alpha(2)=17/3= 5.66667
Alpha(3)=71/5= 14.20000
Alpha(4)=547/15= 36.46667
Alpha(5)=2005/21= 95.47619
131
величины X, из которых вычтено её МО, в m-й степени на вероятности
их появления.
m
Обозначаются центральные моменты M((X – mx)m), или M ( X̊ ) , или
µm. Символ X̊ означает центрированную величину, т. е. такую, из всех
значений которой вычтено МО. Формулы для вычисления центральных
моментов отличаются от формул (3.21)-(3.23) для начальных моментов
только тем, что из значений X вычитается МО:
n
m
μm=∑ ( xk −m x ) p k ; (3.25)
k =1
∞
μm=∑ ( xk −m x ) p k ;
m
(3.26)
k =1
+∞
m
μm=∫ ( x−m x ) f ( x ) dx . (3.27)
−∞
132
+∞
μ2= ∫ ( x − 2 xmx + mx ) f ( x ) dx =α 2−2 mx α 1+ mx =α 2 −α1 ; (3.29)
2 2 2 2
−∞
+∞
μ3= ∫ ( x −3 x m x +3 xmx − mx ) f ( x ) dx=
2 2 2 3
−∞ (3.30)
2 3 3
=α 3−3 mx α 2 +3m x α 1−m x =α 3−3α 2 α1 +2α 1 ;
+∞
μ4 =∫ ( x −4 x mx +6 x mx −4 xm x +mx ) f ( x ) dx =
4 3 2 2 3 4
−∞
2 3 4 2 4
(3.31)
=α 4 −4 m x α3 +6m x α 2− 4m x α 1+m x =α 4− 4α 3 α 1+6 α1 α 2−3α 1 .
disp('Центральные моменты:');
for i=1:5,
mu=sum((x-mx).^i.*p); % момент i-го порядка
fprintf('Mu(%d)=%12.5f\n',i,mu);
end
Центральные моменты:
Mu(1)= 0.00000
Mu(2)= 1.33994
Mu(3)= -0.53191
Mu(4)= 3.75172
Mu(5)= -3.67639
disp('Центральные моменты:');
for i=1:5,
mu=int((x-mx)^i*fs,x,x1,x2); % момент i-го порядка
fprintf('Mu(%d)=%s=%12.5f\n',i,char(mu),eval(mu));
end
Центральные моменты:
Mu(1)=0= 0.00000
Mu(2)=2/9= 0.22222
Mu(3)=-8/135= -0.05926
Mu(4)=16/135= 0.11852
133
Mu(5)=-128/1701= -0.07525
и для непрерывной:
+∞
2
D x =∫ ( x− mx ) f ( x ) dx . (3.34)
−∞
134
ность распределения f(x) ≥ 0, причем f(x) ≠ const, иначе не будет выпол-
няться условие нормировки (3.12). Значит, есть какой-то малый, но ко-
нечный отрезок, на котором f(x) > 0.
Из этого отрезка наверняка можно выбрать такой вложенный в него
отрезок, все точки которого лежат по одну сторону от mx, т. е. во всех
точках которого (x – mx)2 > 0. Но тогда интеграл по этому отрезку от
(x – mx)2f(x) будет строго положительным, а, значит, Dx > 0.
Для дискретной величины проведите доказательство самостоятель-
но.
Свойство 3.15. Дисперсия равна второму начальному моменту ми-
нус квадрат первого начального момента. Или: дисперсия равна МО
квадрата случайной величины минус квадрат её МО.
Доказательство уже проведено – это формула (3.29).
Дисперсия характеризует меру разброса значений x вокруг МО. На
рис. 3.9 показаны графики плотностей распределения трёх случайных ве-
личин: X, Y и Z. Площадь под каждой кривой равна 1, МО также взяты
одинаковыми. А дисперсии различны: чем более полого проходит график
плотности распределения, тем больший разброс у значений X вокруг
МО, а, значит, и больше дисперсия. На рисунке показан случай, когда
Dx < Dy < Dz.
Наряду с математическим ожиданием дисперсия – одна из основных
числовых характеристик случайной величины. Для вычисления МО и
дисперсии различных распределений в MATLAB есть готовые функции.
Они описаны в электронном варианте книги.
Определение 3.17. Среднеквадратичным отклонением (СКО) слу-
чайной величины называется квадратный корень из её дисперсии.
135
Рисунок 3.9 – Дисперсия – мера разброса возможных значений
вокруг МО
136
Другие названия: стандартное отклонение, стандарт. Англоязычные
термины: standard deviation, standard. Обозначение: σx. Вычисление:
σ x= √ Dx . (3.35)
137
Рисунок 3.10 – Асимметрия – характеристика несиммет-
ричности графика f(x)
138
чтобы полученная величина могла быть и положительной, и отрицатель-
ной для различных распределений. В частности, для широко распро-
странённого нормального распределения (см. раздел 4.8.), как будет
показано, эксцесс, вычисленный по формуле (3.37), равен нулю. Именно
для этого и отнимается тройка, а другие распределения сравниваются с
нормальным.
139
бы уменьшить µ4, нужно, чтобы малых отклонений от mx было побольше,
а больших – поменьше. Тогда эксцесс будет отрицательным. Этот вари-
ант показан на рис. 3.11, а. Он характеризуется "плосковершинностью"
графика f(x). Наоборот, если больших отклонений от mx будет больше, а
малых – меньше, то µ4 увеличится, и ex станет положительным. Такой
"островершинный" график f(x) показан на рис. 3.11, б.
Закончим примеры 3.2 и 3.5: посчитаем дисперсию, СКО, асиммет-
рию и эксцесс.
Dx=sum((x-mx).^2.*p); % дисперсия
Sx=Dx^0.5; % СКО
Ax=sum((x-mx).^3.*p)/Sx^3; % асимметрия
Ex=sum((x-mx).^4.*p)/Dx^2-3; % эксцесс
fprintf('Дисперсия Dx=%8.5f;\n',Dx);
fprintf('Среднеквадратичное отклонение Sx=%8.5f;\n',Sx);
fprintf('Асимметрия Ax=%8.5f;\n',Ax);
fprintf('Эксцесс Ex=%8.5f.\n',Ex);
Дисперсия Dx= 1.33994;
Среднеквадратичное отклонение Sx= 1.15756;
Асимметрия Ax=-0.34294;
Эксцесс Ex=-0.91042.
Dx=simple(int((x-mx)^2*fs,x,x1,x2)); % дисперсия
Sx=simple(Dx^0.5); % СКО
Ax=simple(int((x-mx)^3*fs,x,x1,x2)/Sx^3); % асимметрия
Ex=simple(int((x-mx)^4*fs,x,x1,x2)/Dx^2-3); % эксцесс
fprintf('Дисперсия Dx=%s=%8.5f;\n',char(Dx),eval(Dx));
fprintf('Среднеквадратичное отклонение Sx=%s=%8.5f;\n',...
char(Sx),eval(Sx));
fprintf('Асимметрия Ax=%s=%8.5f;\n',char(Ax),eval(Ax));
fprintf('Эксцесс Ex=%s=%8.5f.\n',char(Ex),eval(Ex));
Дисперсия Dx=2/9= 0.22222;
Среднеквадратичное отклонение Sx=1/3*2^(1/2)= 0.47140;
Асимметрия Ax=-2/5*2^(1/2)=-0.56569;
Эксцесс Ex=-3/5=-0.60000.
140
3.5. Контрольные вопросы к главе 3
1. Что называется случайной величиной? Какие они бывают?
2. Что такое условие нормировки? Как оно записывается для различ-
ных видов случайных величин?
3. Можно ли для непрерывных величин задать закон распределения?
Почему?
4. Можно ли для дискретных величин задать плотность распределения?
Почему?
5. Для каких величин можно задать функцию распределения?
6. Для каких величин МО совпадает с медианой, а для каких нет?
7. Что характеризуют МО, медиана и мода?
8. Что характеризуют дисперсия, асимметрия, эксцесс?
9. Какую еще числовую характеристику, кроме дисперсии и СКО, мож-
но использовать для оценки разброса?
141
Глава 4. Некоторые виды распределений
В предыдущей главе были рассмотрены общие понятия о случай-
ных величинах и их распределениях. В этой главе мы продолжим изуче-
ние случайных величин, но уже на конкретных примерах. Мы рассмот-
рим некоторые распределения, которые часто встречающиеся на практи-
ке. Графики функций, плотностей и законов распределения для них при-
ведены в электронной версии книги, поэтому здесь они не повторяются.
В каждом разделе этой главы есть названия соответствующих функций
MATLAB для работы с данным распределением, описанные в электрон-
ной версии.
4.1. Биномиальное
Определение 4.1. Рассмотрим
следующую схему испытаний. Пусть
проводится n одинаковых независи-
мых опытов, в каждом из которых
возможен один из двух взаимоис-
ключающих исходов, которые мы
условно назовём успех (событие У)
и неуспех (событие Н). Обозначим
P(У) = p; P(Н) = 1 – p = q. Такая схема
испытаний называется схемой с не-
зависимой повторной выборкой или
схемой Бернулли (Jacob Bernoulli,
1654-1705, рис. 4.1).
Примеры испытаний по схеме
Бернулли: Рисунок 4.1 – Джейкоб Бернулли
• бросание монеты (например, У – это появление герба; p = 1 / 2);
• бросание игральной кости (например, У – это появление на верхней
грани одного из чисел 5 или 6; p = 1 / 3);
• в урне 4 чёрных шара и 6 белых, и после каждого вытягивания шар
142
возвращается в урну (можно, например, считать событием У появле-
ние чёрного шара; в этом случае p = 0,4).
В испытаниях по схеме Бернулли все опыты проходят в одинаковых
условиях, и результат каждого следующего не зависит от предыдущих. В
последнем примере после каждого вытягивания шар возвращается в
урну, поэтому иногда схему Бернулли называют схемой с повторной
восстанавливаемой независимой выборкой. Именно с этой схемой связа-
на случайная величина, распределение которой называется биномиаль-
ным.
Определение 4.2. Рассмотрим случайную величину X – количество
успехов в n испытаниях по схеме Бернулли. Её распределение называет-
ся биномиальным.
Какие же возможные значения есть у величины X? Если мы прово-
дим n испытаний, то событие У может и не разу не проявиться, и 1 раз, и
2, и т. д. до n включительно. Поэтому величина X, имеющая биномиаль-
ное распределение, является дискретной и конечнозначной. Всего у нее
n + 1 значений: 0, 1, 2, …, n.
Выведем закон биномиального распределения, т. е. найдем P(X = k)
для всех возможных значений k. Опыты независимые, значит, вероятно-
сти событий перемножаются. Поэтому вероятность каждой серии из n
испытаний, в которой проявилось k успехов, равна pkqn–k. Осталось выяс-
нить, сколько всего таких серий может быть. Каждую серию можно
представить в виде последовательности n букв, среди которых k букв У и
n – k букв Н. Посмотрите главу 1: количество таких последовательностей
k
равно числу сочетаний из n по k: C n . Каждая из этих серий будет несов-
местна с остальными (они отличаются результатом хотя бы одного опы-
k
та), поэтому одинаковые вероятности pkqn–k нужно сложить C n раз. Име-
ем закон биномиального распределения:
k k n −k
pk =C n p q . (4.1)
143
что биномиальное распределение двухпараметрическое. Третий пара-
метр q не является независимым: q = 1 – p.
Проверим условие нормировки (3.1):
n
144
k=35:50; % количество успехов
P=sum(binopdf(k,n,p)) % считаем вероятность
P =
0.85290178458582
n
( n−1 ) !
= pn ∑ p k−1 q( n −1 )− ( k−1 )=
k =1 ( k−1 ) ! ( ( n−1 ) − ( k −1 ) ) !
n−1
∥
= k−1=m;
k=m+1;
k=1⇒ m=0 ;
k=n⇒ m=n−1;
= pn ∑ ∥ ( n−1) !
m=0 m ! ( ( n−1 ) −m ) !
pm q ( n−1) −m =
n−1
n−1
= pn ∑ C mn−1 pm q( n−1) −m =np ( q+ p ) =np .
m=0
Окончательно имеем:
m x =np . (4.3)
145
n−1
∥
= k−1=m ; k=1 ⇒m=0 ;
k=m+1; k=n ⇒ m=n−1;
=np ∑ ∥
( m+1 )( n−1 ) ! m ( n −1 )−m 2 2
m=0 m ! ( ( n−1 )− m ) !
p q −n p =
n −1 n−1
=np ∑ mC mn−1 pm q( n−1) −m+np ∑ C mn−1 pm q( n−1 ) −m− n2 p 2 .
m=0 m=0
D x =npq . (4.4)
146
n
∏ ( qi + pi )=1. (4.5)
i=1
f ( z ) = ∏ ( qi + p i z ) . (4.6)
i=1
147
P(X= 1)=0.000118493438
P(X= 0)=0.000003898125
4.2. Гипергеометрическое
Определение 4.3. Пусть имеется M предметов, среди которых K от-
меченных. Наугад выбираются N предметов. Гипергеометрическим назы-
вается распределение случайной величины X – количества отмеченных
предметов среди выбранных.
Примеры таких задач:
• в урне есть заданное количество шаров двух цветов; из неё наугад
вытягивается какое-то количество шаров, и требуется найти вероят-
ность того, что среди вытянутых будет заданное количество шаров
каждого цвета;
• среди M деталей есть K бракованных, а контролёр выбирает наугад
N деталей, и требуется найти вероятность того, что среди них k бра-
кованных.
В этих примерах предметы можно вытягивать как одновременно,
так и последовательно. Результат от этого не меняется, т. к. порядок вы-
борки предметов нам не важен. В отличие от схемы Бернулли, предметы
после вытягивания не возвращаются обратно, поэтому такую схему опы-
тов часто называют схемой с повторной невосстанавливаемой независи-
мой выборкой.
Возможные значения X (обозначим их k) – это целые неотрицатель-
ные числа (количество предметов), причём их число конечно, поэтому X
является дискретной конечнозначной величиной. Сверху возможные зна-
чения ограничены как числом вытягиваемых предметов N, так и числом
отмеченных предметов K: количество отмеченных предметов среди вы-
тянутых k не может превысить любое из этих чисел: k ≤ min(N, K). Теперь
рассмотрим ограничение на k снизу. Это число должно быть неотрица-
тельным: k ≥ 0. Но не всегда возможно k = 0. Например, если среди M = 6
предметов есть K = 4 отмеченных (и только M − K = 2 неотмеченных), а
вытягивается N = 3 предмета, то, очевидно, что хотя бы 1 отмеченный
148
предмет будет вытащен, т. к. количество вытягиваемых предметов N
больше, чем количество неотмеченных M – K. Поэтому k не может быть
меньше, чем количество вытягиваемых предметов N минус количество
неотмеченных M – K: k ≥ max(0, N – M + K).
Выведем закон гипергеометрического распределения – найдем
P(X = k). Т. к. предметы отбираются наугад, у нас нет оснований считать,
что один вариант отбора чем-то предпочтительнее другого. Поэтому счи-
таем все варианты отбора равновозможными. Имеем схему случаев и,
следовательно, можем применить классическое определение вероятности
(2.5). Подсчитаем общее количество вариантов выбора N предметов из M
имеющихся. Порядок выбора нам не важен, поэтому общее число случа-
N
ев схемы равно числу сочетаний из M по N: C M . Теперь найдём количе-
ство благоприятствующих событию (X = k) случаев. Чтобы (X = k) насту-
пило, нужно, чтобы среди N выбранных предметов было ровно k отме-
ченных, а остальные N – k были неотмеченные. Отмеченные предметы
мы выбираем из K имеющихся, и порядок неважен, поэтому количество
k
вариантов такого выбора равно числу сочетаний из K по k: C K . Но у нас
есть ещё и неотмеченные предметы (всего их M – K), и из них можно вы-
бирать N – k предметов различными способами. Количество этих спосо-
N −k
бов равно C M − K . Каждый вариант выбора отмеченных предметов мож-
но сочетать с каждым вариантом выбора неотмеченных, поэтому общее
количество благоприятствующих случаев схемы подсчитывается по пра-
k N−k
вилу умножения вариантов. Оно равно C K C M −K , а искомая вероятность
(закон гипергеометрического распределения) равна:
k N−k
C K C M −K
pk = . (4.7)
C MN
149
min ( N , K ) k N −k
C K C M −K
∑ C MN
=1 . (4.8)
k =max ( 0, N −M +K )
syms M K N k m
mf=sym('m!'); % функция факториал
CKk=subs(mf,m,K)/subs(mf,m,k)/subs(mf,m,K-k);
CMKNk=subs(mf,m,M-K)/subs(mf,m,N-k)/subs(mf,m,M-K-(N-k));
CMN=subs(mf,m,M)/subs(mf,m,N)/subs(mf,m,M-N);
pk=CKk*CMKNk/CMN;
norm=simple(symsum(pk,k,0,N))
norm =
1
mx=simple(symsum(k*pk,k,0,N))
Dx=simple(simple(symsum(k^2*pk,k,0,N)-mx^2))
mx =
K/M*N
Dx =
150
-K*N*(M-N)*(-M+K)/(M-1)/M^2
Получили:
NK
m x= ; (4.9)
M
NK ( M − K ) N −1 NK ( M − K ) ( M − N )
D x=
M
2 (1−
M −1
= ) 2
M ( M −1)
. (4.10)
P=hygepdf(6,80,30,20)
P =
0.15751612647040
151
Пример 4.5. На склад поступила партия из 5000 изделий, среди ко-
торых имеется 200 бракованных. Контролёр наудачу выбирает для про-
верки 100 изделий. Какова вероятность того, среди них будет не более 5
бракованных?
Решение. Данная задача отличается от предыдущей только цифрами
и тем, что нужно найти не одну вероятность, а несколько, и просуммиро-
вать их.
P=sum(hygepdf([0:5],5000,200,100))
P =
0.79004589090097
∥
= C kN =
N!
∥
k ! ( N −k ) !
=C kN lim
K ! ( M − K ) ! (M − N ) !
M →∞ ( K −k ) ! ( M − K −N +k ) ! M !
.
152
( K −k +1) …K ( M − K − N +k +1) …( M − K )
pk =C kN lim .
M →∞ ( M − N +1) …M
Первая группа в числителе содержит k сомножителей, вторая – N − k,
а в знаменателе N сомножителей. Первые k сомножителей знаменателя
мы будем сокращать с первой группой сомножителей числителя, а по-
следние N – k – со второй:
( K −k +1) …K ( M − K− N + k+1 ) … ( M − K )
pk =C kN lim lim =
M →∞ ( M − N +1 ) … ( M − N +k ) M →∞ ( M − N +k +1 ) …M
=C kN lim
M →∞ ( MK−− k+1 …
K
N +1 M − N +k )
lim (
M −K − N +k +1 M − K
M − N +k +1
M →∞
…
M )
.
153
p=0.4; % параметры эталонного
n=50; % биномиального распределения
k=[0:n]; % интервал аргументов
pbin=binopdf(k,n,p); % вероятности бином. распр.
K=50; % начальное гипергеометрическое
M=125; % распределение
phyge=hygepdf(k,M,K,n); % начальные вероятности
[m,im]=max(abs(phyge-pbin)); % max разность и номер точки
delta=m/pbin(im); % относительная погрешность
while delta>0.01, % пока не будет достигнута точность
M=M+5; % новые значения параметров
K=K+2;
phyge=hygepdf(k,M,K,n); % новые вероятности
[m,im]=max(abs(phyge-pbin));
delta=m/pbin(im); % относительная погрешность
end
fprintf(['При M=%d; K=%d; N=%d достигается '...
'точность %7.5f%%.\n'],M,K,n,100*delta);
plot(k,pbin,'k-',k,pbin,'k.',k,phyge,'k:',k,phyge,'k.')
xlim([5 35]) % границы по оси Ox
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10) % шрифт
title('\bfМногоугольники распределения') % заголовок
xlabel('\itk') % метка оси OX
ylabel('\itp_k') % метка оси OY
При M=2540; K=1016; N=50 достигается точность 0.99882%.
4.3. Геометрическое
Пусть проводятся испытания по схеме Бернулли. Когда следует ожи-
дать первого появления события У? В принципе оно может проявиться
сразу же в первом испытании. Но, может оказаться, что в первом испыта-
нии будет Н, а У проявится только во второй раз. Ещё менее вероятно, но
все же возможно, что первый раз У будет только в 3-м испытании, или в
4-м и т. д. до бесконечности. Вот эта случайная величина – количество
испытаний по схеме Бернулли до появления 1-го успеха и имеет геомет-
154
рическое распределение.
Многоугольники распределения
0.12
0.1
0.08
0.06
pk
0.04
0.02
0
5 10 15 20 25 30 35
k
155
ствует достоверному событию У. Другой тривиальный случай – это не-
возможное событие У: p = 0. В этом случае У никогда не проявится, и все
pk = 0. Для этого случая условие формировки не выполняется, т. к. здесь
событие У никогда не произойдёт. Рассмотрим теперь общий, нетри-
виальный случай, когда 0 < p < 1. Для того, чтобы было X = 1, нужно, что-
бы событие У проявилось сразу, в первом же испытании. Вероятность
этого события равна p, поэтому p1 = p. Чтобы было X = 2, нужно, чтобы в
1-м событии было Н, а во 2-м – У. Испытания в схеме Бернулли незави-
симые, поэтому p2 = P(Н) P(У) = qp. Для X = 3 необходимо, чтобы в пер-
вых двух испытаниях было Н, а в третьем – У, и тогда
p3 = P(Н) P(Н) P(У) = q2p. В общем случае, чтобы событие У проявилось
только в n-м испытании, необходимо, чтобы в первых n – 1 испытаниях
были Н, а в n-м – У. Умножая вероятности независимых испытаний, име-
ем закон геометрического распределения:
k−1
pk = p q . (4.11)
156
ления существует. Для вычисления суммы ряда (4.13) будем рассматрив-
ать её как функцию аргумента q:
∞
S ( q ) =∑ k q
k−1
. (4.15)
k=1
тельно:
1
m x= . (4.17)
p
Получили правдоподобный результат: если вероятность успеха рав-
на p, но нужно в среднем провести 1 / p испытаний, чтобы успех проявил-
ся.
Вычисляем дисперсию по свойству (3.29):
∞
1
D x= p ∑ k q
2 k−1
2.
− (4.18)
k =1 p
Ряд в 1-м слагаемом сходится (проверьте это самостоятельно), а его сум-
ма
∞
T ( q ) =∑ k q
2 k −1
(4.19)
k=1
157
2
q ′ 1 ( 1− q) + 2q ( 1−q ) 1
D x= p
(
( 1−q ))2 − 2= p
p ( 1−q)
4 − 2=
p
1+ q 1 1+q 1
=p 3− 2 = 2 − 2;
( 1− q) p p p
или окончательно:
q
D x= 2. (4.21)
p
Для работы с геометрическим распределением в MATLAB есть сле-
дующие функции:
• geopdf – закон распределения (4.11);
P=sum(geopdf([1:10],0.05))
P =
0.38119990772354
158
4.4. Пуассоновское
Это распределение было введено в
рассмотрение Пуассоном (Simeon-Denis
Poisson, 1781-1840, рис. 4.3). Вначале – не-
которые определения.
Определение 4.5. Поток событий –
это однотипные события, происходящие в
случайные моменты времени.
Примеры: поступление заказов в фир-
му, поток покупателей в магазин, отказы в
однотипных изделиях (например, поломки
турбин). По сути своей поток событий –
это однотипные события, случайность ко-
Рисунок 4.3 – Симеон-Дени
торых состоит в том, что они происходят в
Пуассон
случайные моменты времени. На рис. 4.4
показана шкала времени и события потока.
События потока
...
0 t
159
словой оси. Это означает, что поток обладает примерно постоянными
свойствами на всём интервале его рассмотрения, и количество событий
на [t1, t2] не зависит от того, сколько событий произошло раньше.
Определение 4.6. Поток событий называется потоком без последей-
ствия, если вероятность наступления того или иного количества собы-
тий в [t1, t2] не зависит от того, сколько событий произошло до момента
t1.
В потоке без последействия мы можем переносить начало оси вре-
мени t = 0 куда угодно, в частности, в точку t1, и тогда pk будет зависеть
только от одного параметра – длины отрезка t = t2 – t1. Будем в дальней-
шем обозначать эту вероятность pk(t) (см. рис. 4.5). Если же поток обла-
дает последействием, то pk будет зависеть от двух параметров – границ
отрезка: pk(t1, t2). Очевидно, для любой длины отрезка (или его границ)
должно выполняться условие нормировки (3.2).
0 0 t
pk( t ) не меняется
160
лое время dt может произойти не более одного события. В соответствии с
общими принципами анализа бесконечно малых величин мы должны
считать, что p1(t, t + dt) является бесконечно малой величиной одного по-
рядка малости с dt:
p1 ( t , t +dt ) =λ ( t ) dt . (4.22)
dt dt
0 t
161
ствие.
Пуассоновский поток ординарный, поэтому для него (4.22) имеет
место. Но из-за отсутствия последействия p1(t, t + dt) на самом деле зави-
сит только от dt, а от t не зависит, поэтому плотность событий λ должна
быть постоянной, и тогда:
{ p0 ( dt ) =1− λ dt ;
p1 ( dt )= λ dt ;
(4.23)
{
p 0 ( 0 ) =1;
p 1 ( 0 ) =0; (4.24)
⋯
p k ( 0 )=0 ;
…
B
A
dt
0 t
t t+dt
Обозначим события:
162
• Ak – наступление k событий на отрезке длиной t;
• Bk – наступление k событий на отрезке длиной dt (в силу ординарно-
сти возможны только B0 и B1 с вероятностями (4.23), а ∀ k ≥ 2:
Bk = ∅);
• Ck – наступление k событий на отрезке длиной t + dt.
Вывод pk(t) начнём с p0(t). Чтобы не произошло ни одного события
на отрезке длиной t + dt, нужно, чтобы не произошло ни одного события
на отрезке длиной t и не произошло ни одного события на следующем за
ним отрезке длиной dt. В наших обозначениях это:
C 0= A 0⋅B 0 . (4.25)
Сомножители независимые (последействие в потоке отсутствует), поэто-
му перемножаем вероятности:
p 0 ( t+dt ) = p0 ( t ) p0 ( dt ) = p0 ( t )( 1− λ dt )= p0 ( t )− λ p0 ( t ) dt . (4.26)
Учитывая, что p0(t + dt) – p0(t) = dp0(t), имеем после деления на dt диффе-
ренциальное уравнение для p0(t):
dp 0
+λ p0=0. (4.27)
dt
Далее выведем уравнение для p1(t). Это единственное событие мо-
жет произойти или на отрезке длиной t, или на следующем за ним отрез-
ке длиной dt:
Здесь опять p1(t + dt) – p1(t) = dp1(t), и после деления на dt получаем диф-
ференциальное уравнение для p1(t):
dp 1
+λ p 1 =λ p 0 . (4.30)
dt
Теперь рассмотрим общий случай: k событий потока на отрезке дли-
163
ной t + dt. Как они распределяются между отрезками длиной t и dt? В
силу ординарности на отрезке длиной dt может быть или 0, или 1 собы-
тие, поэтому на отрезок длиной t приходится соответственно k или k – 1
событий:
C k = Ak⋅B0 + A k−1⋅B1 . (4.31)
Здесь, как и раньше, слагаемые несовместные, а сомножители независи-
мые, поэтому:
pk ( t+dt )= p k ( t ) p0 ( dt ) + pk −1 ( t ) p1 ( dt ) =
= p k ( t ) −λ pk ( t ) dt +λ p k−1 ( t ) dt . (4.32)
{
dp 0
+λ p0 =0 ;
dt
(4.34)
dp k
+λ p k = λ pk −1 ; k ⩾1 .
dt
Начальные условия для этих уравнений – (4.24). Решаем уравнение для
k = 0:
dp 0 dp dp
+λ p0 =0 ; 0 =−λ p 0 ; ∫ 0 =−λ ∫ dt ; ln p 0 =−λ t+ln C 0 ; p0 ( t ) =C 0 e−λ t .
dt dt p0
Подставляем начальное условие: p 0 0 =C 0 =1; и окончательно имеем:
−λt
p0 ( t ) =e . (4.35)
164
риации произвольной постоянной:
dp 1 −λt * −λt ' −λt −λt
+λ p1 =λ e ; p1 ( t ) =C 1 ( t ) e ; C 1 ( t ) e = λ e ;
dt
' * −λ t
C 1 ( t ) =λ ; C 1 ( t ) =λ t ; p 1 ( t )= λ te ;
Записываем общее решение и находим произвольную постоянную
−λt −λ t
из начального условия (4.24): p1 ( t ) =C 1 e + λ te ; p1 ( 0) =C 1=0 ; и име-
ем:
−λt
p1 ( t ) =λ te . (4.36)
Найдем ещё p2(t), чтобы выявить закономерность. Общее решение
соответствующего однородного уравнения будет таким же, как и для p0(t)
и p1(t):
dp 2 dp dp
+λ p 2 =0 ; 2 =−λ p2 ; ∫ 2 =−λ ∫ dt ; ln p2 =−λ t +ln C 2 ; p2 ( t )=C 2 e −λ t .
dt dt p2
Как видим, оно будет одинаковым для любых k. Теперь находим частное
решение неоднородного уравнения:
dp 2 2 −λ t * −λt ' −λt 2 −λ t
+λ p2=λ te ; p 2 ( t ) =C 2 ( t ) e ; C 2 ( t ) e = λ te ;
dt
2 2
' 2 (λ t ) * ( λ t ) −λ t
C 2 ( t ) =λ t ; C 2 ( t ) = ; p2 ( t ) = e .
2 2
Записываем общее решение и находим произвольную постоянную:
2
−λ t ( λ t ) −λt
p2 ( t ) =C 2 e + e ; p2 ( 0 )=C 2=0. Имеем выражение для p2(t):
2
2
( λ t ) −λt
p2 ( t ) = e . (4.37)
2
Теперь уже нетрудно подметить закономерность. При k = 3 общее ре-
шение соответствующего однородного уравнения будет таким же, а при
нахождении частного решения неоднородного уравнения в правой части
будет не λ2t, а λ3t2/2. После интегрирования это даст (λt)3/6. Затем, при
k = 4, правая часть λ4t3/6 даст после интегрирования (λt)3/24, и т. д. По
сути дела, мы провели доказательство (хотя и не очень строгое) по мето-
165
ду математической индукции следующей формулы:
k
( λ t ) −λ t
pk ( t )= e ; k =0, 1, 2, … . (4.38)
k!
lambda=0.5; % параметр
t=linspace(0,20,500); % время
p=exp(-lambda*t); % p0
figure
plot(t,p,'k'); % рисуем p0(t)
h=text(0.3,0.97,'\itp\rm_0(\itt\rm)'); % метка
set(h,'FontName','Times New Roman Cyr','FontSize',10)
hold on
for k=1:6, % другие графики
p=p.*(lambda*t)/k; % pk(t)
plot(t,p,'k'); % рисуем pk(t)
[pm,im]=max(p); % максимум и номер точки
tm=t(im); % аргумент в этой точке
h=text(tm+0.3,pm+0.03,['\itp\rm_' num2str(k)...
'(\itt\rm)']); % метка
set(h,'FontName','Times New Roman Cyr','FontSize',10)
end
hold off
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',14) % шрифт
title('\bfВероятности в пуассоновском потоке') % заголовок
xlabel('\itt') % метка оси OX
ylabel('\itp_k\rm(\itt\rm)') % метка оси OY
166
Вероятности в пуассоновском потоке
1 p (t)
0
0.8
0.6
pk(t)
0.4 p1(t)
p2(t)
p3(t)
p4(t) p (t)
0.2 5 p6(t)
0
0 5 10 15 20
t
167
k 1 2 k
( )
∞
∑ ak ! e−a =e−a 1+
a a a
+ +…+ +… =e−a e a =1.
1! 2! k! (4.40)
k =0
∥ ∥
∞ k ∞ k −1
a −a a k−1=m ; k =1 ⇒ m=0
m x =∑ k e =a e−a ∑ = =
k=0 k! k=1 ( k−1 ) ! k= m+1; k=∞ ⇒ m=∞
m 2 m
( )
∞
a a a a
=a e−a ∑ =a e−a 1+ + +…+ +… =a e−a e a= a .
m=0 m! 1! 2 ! m!
Результат:
m x =a . (4.41)
Этот результат интуитивно очевиден: если средняя плотность событий в
потоке λ, то за время t в среднем произойдет λt = a событий.
Дисперсию вычисляем с использованием свойства (3.29):
∞ k ∞ k−1
a ka
D x =∑ k 2 e−a −a2 =a e−a ∑ − a2 =
k=0 k! k =1 ( k−1 ) !
∥ ∥
( m +1 ) a m 2
∞
k−1=m ; k=1 ⇒ m=0
=a e ∑
−a
= −a =
k= m+1 ; k=∞ ⇒ m=∞ m=0 m!
∞ ∞ m m
a −a a −a
=a ∑ m e +a ∑ e −a 2=a 2+a−a 2=a .
m=0 m! m=0 m !
D x =a . (4.42)
168
• poissinv – квантили пуассоновского распределения;
lambda=10; % плотность
t=1; % время
a=lambda*t; % параметр пуассоновского распределения
p=poisspdf(6,a) % искомая вероятность
p =
0.06305545800345
lambda=20; % плотность
t=10; % время
a=lambda*t; % параметр пуассоновского распределения
169
p=sum(poisspdf([0:180],a)) % искомая вероятность
p =
0.08222890483660
n n →∞
k −a
a k −1 k −2 k− k e
= lim ( 1−
n )
lim (1−
n )
…lim ( 1−
n ) 1
.
k! n →∞ n →∞ n →∞
k
Число k – конечное, поэтому lim ( 1−a/ n ) =1, и каждый из преде-
n→ ∞
и теорема доказана.
170
Пример 4.10. Какими должны быть параметры биномиального рас-
пределения, чтобы оно отличалось от пуассоновского с параметром a = 5
не более чем на 1%?
Решение. Начнем с n = 10 и, соответственно, p = 0,5. Биномиальное
распределение конечнозначное, а пуассоновское – бесконечнозначное.
Поэтому мы можем сравнивать pk только для k от 0 до n. Найдем относи-
тельную разность между вероятностями биномиального и пуассоновско-
го распределений для этих значений k. Если полученная разность больше
1%, увеличиваем n в биномиальном распределении до тех пор, пока раз-
личие между ним и пуассоновским не уменьшится до 1%.
Нарисуем на одном графике многоугольники распределений: сплош-
ной линией – эталонного пуассоновского и штриховой – найденного би-
номиального (рис. 4.9).
171
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',14) % шрифт
title('\bfМногоугольники распределения') % заголовок
xlabel('\itk') % метка оси OX
ylabel('\itp_k') % метка оси OY
При n=254; p=0.0196850394 достигается точность 0.99836%.
Многоугольники распределения
0.2
0.15
0.1
pk
0.05
0
0 5 10 15
k
172
биномиальным с параметрами n = N и p = K/M. В свою очередь, в силу ма-
лого значения p биномиальное распределение можно заменить пуассо-
новским с параметром a = np. В докомпьютерную эру у нас не было воз-
можности считать большие биномиальные коэффициенты вручную,
поэтому мы использовали только пуассоновское распределение. Теперь
же мы можем вычислить вероятности для всех трёх распределений и
оценить погрешность.
4.5. Экспоненциальное
Вернёмся к пуассоновскому потоку, но рассмотрим его с несколько
иной точки зрения. В предыдущем разделе мы рассматривали дискрет-
ную случайную величину X – количество событий потока за заданное
фиксированное время. Величина X, как мы выяснили, имеет пуассо-
новское распределение.
А теперь рассмотрим другую величину T – интервал времени между
двумя последовательными событиями пуассоновского потока. Эта ве-
173
личина будет непрерывной, и её возможные значения t ≥ 0.
Определение 4.10. Экспоненциальным или показательным называ-
ется распределение случайной величины T – интервала времени между
двумя последовательными событиями пуассоновского потока.
Выведем плотность экспоненциального распределения. По опреде-
лению 3.10 плотность распределения – это предел отношения вероятно-
сти попадания T в малый интервал к ширине этого интервала при усло-
вии, что ширина стремится к нулю. А в терминах дифференциального
исчисления f(t) – это отношение P(t ≤ T < t + dt) / dt. Поэтому вычислим ве-
роятность попадания T в бесконечно малый интервал (t, t + dt). Ещё раз
напоминаем, что для непрерывных величин вместо интервала (t, t + dt)
можно брать отрезок [t, t + dt] или любой из полуинтервалов.
A B
dt
0 t
t t+dt
174
P ( t ⩽T <t +dt ) = P ( A ) P ( B ) = p0 ( t ) p 1 ( dt ) . (4.44)
{
−λ t
f ( t ) = λ e ; t⩾0; (4.46)
0; t<0.
{
−λ t
F ( t )= 1−e ; t ⩾0; (4.48)
0; t <0.
∥ ∥
∞ ∞ ∞
u=t ; du=dt ; −λ t ∞
m t = ∫ t f ( t ) dt=∫ λ t e−λ t dt= −λ t −λ t =∣−t e ∣0 +∫ e−λ t dt =
−∞ 0 dv =λ e dt ; v=−e ; 0
t 1 1 1
( )
∞
=− lim −0 − e−λt∣0 =− ( 0−1 ) = . Результат:
t →∞ e λt λ λ λ
1 (4.49)
mt = .
λ
Этот результат интуитивно очевиден: если средняя плотность событий в
175
потоке равна λ событий в единицу времени, то среднее время между со-
бытиями как раз и равно 1/λ. Например, при средней плотности 5 собы-
тий в секунду среднее время между событиями будет 0,2 сек.
Для вычисления дисперсии используем свойство (3.29):
∥ ∥
∞ ∞ 2
1 u=t ; du= 2tdt ;
Dt =∫ t2 f ( t ) dt −m2t =∫ λ t 2 e−λ t dt − = −λt −λt =
−∞ 0 λ 2 dv =λ e dt ; v=−e ;
2
∞
mt 1 2 1
1
( t
) 1
∞
=−t 2 e−λ t∣0 +2∫ te−λt dt − 2 =− lim λt −0 + 2 λ − 2 = 2 − 2 = 2 .
0 λ t →∞ e λ λ λ λ
Имеем:
1
Dt = 2. (4.50)
λ
В MATLAB имеются следующие функции для работы с экспоненци-
альным распределением, описанные в электронной версии книги:
• exppdf – плотность распределения;
176
и хочет отлучиться на 15 минут. Какова вероятность, что в течение этого
времени не поступит новый заказ?
Решение. Обозначим через T случайную величину – время ожида-
ния следующего заказа. Так как поток заказов пуассоновский, T имеет
экспоненциальное распределение с параметром λ = 5 час–1. Нам нужно
найти вероятность того, что T > 0,25 (здесь единица измерения часы). По
формуле (3.8) эта вероятность равна разности значений функции распре-
деления на концах интервала (0,25; ∞). Считаем:
177
Из условия нормировки (3.12) следует, что плотность непрерывного
равномерного распределения имеет выражение:
{
1
; x∈ [ a ; b ] ;
f ( x )= b−a (4.51)
0; x∉ [ a ; b ] .
{
0; x< a;
x−a
F ( x)= ; x∈ [ a ; b ] ; (4.52)
b−a
1; x>b.
∣
∞ b
xdx x2 b2− a2 b+a
m x =∫ xf ( x ) dx =∫ = = = .
−∞ a b−a 2 ( b−a ) a 2 ( b−a ) 2
Получаем ожидаемый результат: МО равномерного распределения лежит
в середине отрезка [a; b]:
178
b+ a
m x= . (4.53)
2
Найдём дисперсию по свойству (3.29):
b
∣
∞ b 2 2
2 2 x2 dx ( b+a ) x3 ( b+a ) b3 −a 3
D x = ∫ x f ( x ) dx −m x =∫ − = − = −
−∞ a b− a 4 3 ( b−a ) a 4 3 ( b−a )
2 2
( b+a ) b2 +ab+a 2 b2+2 ab+a2 b 2−2 ab+ a2 ( b−a )
− = − = = .
4 3 4 12 12
Дисперсия непрерывного равномерного распределения равна 1 / 12 квад-
рата ширины отрезка [a; b]:
2
( b−a )
D x= . (4.54)
12
Функции MATLAB для работы с непрерывным равномерным рас-
пределением:
• unifpdf – плотность распределения;
179
P(T ∈ [0; 5]) = F(5) – F(0). Данная задача решается устно:
P(T ∈ [0; 5]) = 5/20 = 0,25.
{
1
; k ∈{ 1, …, n } ;
pk = n (4.55)
0; k ∉{ 1, …, n } ;
180
n +1
m x= . (4.56)
2
Теперь вычисляем дисперсию с использованием формулы (3.29):
n 2
2 2 1 2 2 2 ( n+1)
D x = ∑ k pk −mx = ( 1 + 2 +…+n ) − =
k=1 n 4
( n+1 )( 2n+1) n2+2 n+1 2 ( 2n2 +3n+1 )−3 (n 2+2 n+1) n2 −1
= − = = .
6 4 12 12
Если вы забыли, как вычисляется сумма 1 2 + 22 + … + n2, посчитайте её
самостоятельно с помощью MATLAB. Имеем выражение для дисперсии
дискретного равномерного распределения:
2
n −1
D x= . (4.57)
12
В MATLAB имеются такие функции для работы с дискретным
равномерным распределением:
• unidpdf – закон распределения;
181
4.8. Нормальное
В заключение этой главы
мы рассмотрим ещё одно рас-
пределение, которое называется
нормальным или гауссовским
(Carl Friedrich Gauß, 1777-1855,
рис. 4.13).
Чтобы увидеть, насколько
широко распространено это
распределение, приведём сле-
дующий пример. Пусть коорди-
Рисунок 4.13 – Портрет наты случайной точки на плос-
Карла Фридриха Гаусса на купюре 10 кости {X, Y} являются независи-
немецких марок мыми и имеют одинаковый за-
кон распределения: аналитические выражения для их плотностей распре-
деления f(x) и f(y) одинаковые (рис. 4.14). При повороте осей координат
на некоторый угол α новые координаты {U, V} уже могут оказаться зави-
симыми. Так вот, если существует ещё хотя бы одна повёрнутая система
координат {U, V}, в которой законы распределения координат тоже неза-
висимые и одинаковые, то распределение уже не может быть никаким
другим, кроме как нормальным.
Но вывод нормального распределения из этого условия очень слож-
ный. Мы выведем выражение для плотности нормального распределения
из более жёсткого условия: при повороте системы координат на любой
угол α законы распределения новых координат остаются независимыми
и имеют такое же аналитическое выражение f(⋅).
Запишем выражение для вероятности попадания двумерной случай-
ной величины, координаты которой в исходной системе обозначены
{X, Y}, а в повернутой – {U, V}, в бесконечно малую область dS:
182
y
v dp = f(x)f(y)dS = f(u)f(0)dS
u
dS
α x
0
f ( x ) f ( y ) = f ( u ) f ( 0) . (4.60)
183
ференцируем (4.60) по x и y:
{
df ( x ) df ( u ) x
f ( y )= k ;
dx du u
(4.61)
df ( y ) df ( u ) y
f ( x )= k .
dy du u
Исключим переменную u:
k df ( u ) f ( y ) df ( x ) f ( x ) df ( y )
= = . (4.62)
u du x dx y dy
1 df ( x ) 1 df ( y )
= =b=const. (4.63)
x f ( x) dx y f ( y ) dy
∥ ∥
2
x
2
+∞ − x 2 +∞ − t
C∫ e 2σ
dx = σ =t ; dx+∞=σ dt+∞; =C σ ∫ e 2 dt =C σ J =1.
−∞
x=σ t ; x∣−∞ ⇒ t∣−∞ −∞
184
Лейбница он не берётся в конечном виде (первообразная не выражается
через элементарные функции), но из-за того, что он несобственный, его
можно вычислить, перейдя к полярным координатам. Мы воспользуемся
тем, что значение определённого или несобственного интеграла не зави-
сит от того, какой буквой обозначена переменная интегрирования. Вы-
числяем:
x2 y2 x 2 +y 2
∥ ∥
+∞ +∞
2 − − − x=ρ cosφ ; dS =ρ d ρ d φ ;
J =∫ e 2
dx ∫ e 2
dy=∬ e 2
dS = ∞ 2π =
−∞ −∞ D∞ y=ρ sin φ ; D ∞ ⇒ ρ∣0 ; ∣φ∣0
∞
ρ d ρ=2 π (−e )∣ = 2π ⇒
ρ2 2π ∞ −ρ2 ρ2
− −
=∬ e 2
ρ d ρ d φ=∫ d φ∫ e 2 2
0
D∞ 0 0
1
⇒ J =√ 2π ⇒ C= .
σ √ 2π
Полученное значение C подставляем в (4.64) и получаем выражение для
плотности нормального распределения. Обычно его рассматривают в бо-
лее общем виде: разрешают смещение по горизонтали на произвольную
величину, которую мы обозначим m (как увидим дальше, это будет МО
нормального распределения):
( x−m)2
1 −
2 σ2
(4.65)
f ( x )= e .
σ √2 π
Определение 4.13. Распределение непрерывной величины X называ-
ется нормальным или гауссовским, если его плотность имеет вид
(4.65).
Это распределение зависит от двух параметров: m и σ, т. е. является
двухпараметрическим. Для вычисления плотности нормального распре-
деления (4.65) в MATLAB есть функция normpdf, описанная в электрон-
ной версии книги. Её график и формулу (4.65) можно увидеть на вышед-
шей уже из употребления купюре в 10 немецких марок (рис. 4.13) слева
от портрета К. Ф. Гаусса.
Вычислим функцию нормального распределения:
185
∥ ∥
x x ( t−m )2 t−m
1 −
2σ2 σ =u; dt =σ du ;
F ( x ) =∫ f ( t ) dt= ∫ e dt = x−m
=
−∞ σ √ 2 π −∞ x
t =σ u+m; t∣ ⇒ u∣
−∞
σ
−∞
x−m 2
σ u
1 −
= ∫
√ 2 π −∞
e 2 du .
F ( x ) =Φ ( x−m
σ )+0,5. (4.67)
186
∥ ∥
( x−m) 2
+∞
1 − +∞ x−m
m x =∫ x f ( x ) dx = ∫ xe 2σ2
dx= σ =t ; dx =σ dt ; =
−∞ σ √ 2 π −∞ x=σ t+m;
+∞ +∞
x∣−∞ ⇒ t∣−∞
2 2 2
+∞ t +∞ t +∞ t
1 − − m −
= ∫ ( σ t+ m) e 2 dt = σ ∫ te 2 dt + ∫ e 2 dt =
√ 2π −∞ √ 2π −∞ √ 2π −∞
σ m
= 0+ √ 2π=m .
√ 2π √ 2π
Первое слагаемое – это сходящийся несобственный интеграл от нечёт-
ной функции в симметричных бесконечных пределах. Следовательно, он
равен 0. А второй интеграл мы вычисляли раньше: он равен √ 2 π . Ре-
зультат: МО нормального распределения равно параметру m:
m x =m. (4.68)
∥ x− m
∥
2 2
t
+∞ 2 +∞ −t
1 2 −2
= σ =t ; dx=σ dt ; = ∫ ( σ t ) e dt= σ
∫ 2 dt=
t
2
e
+∞ +∞
x=σ t+ m ; x∣−∞ ⇒ t∣−∞ √ 2π −∞ √ 2 π −∞
∥ ∥
t2
−
2 t2 +∞
=
u=t ; dv=t e
−
t2
dt ; 2 −
= σ −te 2 ( ∣
−∞+ ∫ e
+∞ −
t2
2
2
)
dt = σ ( 0+√ 2π ) .
du=dt ; v=−e 2
; √ 2π −∞ √ 2π
Т. о., дисперсия нормального распределения равна σ2, а СКО σ:
2
D x =σ ; σ x = σ . (4.69)
187
∥
x− m
∥
+∞ t2 +∞ t2
dx=σ dt ; = 1 ∫ ( σ t ) 3 e 2 dt = 1 ∫ t3 e 2 dt=0 ,
− −
= σ =t ; 3
x∣−∞ ⇒ t∣−∞ σ √ 2π −∞ √ 2 π −∞
+∞ +∞
x=σ t + m;
т. к. это сходящийся несобственный интеграл от нечётной функции в
симметричных пределах. Нормальное распределение симметричное:
a x =0. (4.70)
∥
x− m
∥
2
+∞ t
1 4 −
= σ =t ; dx=σ dt ; = 4 ∫ ( σ t ) e 2 dt−3=
x=σ t + m ; x∣−∞ ⇒ t∣−∞ σ √ 2π −∞
+∞ +∞
∥ ∥
t2
−
3 2
1
+∞ t2
4 −2
u=t ; dv =t e dt ;
= ∫t e dt−3= −
t2 =
√ 2 π −∞ du=3t dt ;
2
v=−e 2
;
+∞
∣
2 2
( )
t +∞ t
1 3 − 2 − 0+ 3 √ 2 π
= −t e 2 −∞ +3 ∫ t e 2 dt −3= −3=0.
√ 2π −∞ √ 2π
Второе слагаемое (интеграл) уже встречалось при вычислении диспер-
сии, оно равно √ 2 π , а эксцесс нормального распределения равен нулю:
e x =0. (4.71)
188
• normrnd – генератор случайных чисел с нормальным распределе-
нием; можно также использовать стандартную функцию randn;
• normstat – МО и дисперсия нормального распределения;
p=diff(normcdf([4 7],5,2))
p =
0.53280720734256
189
чается от замены гипергеометрического биномиальным или биномиаль-
ного пуассоновским. В тех случаях все распределения были дискретны-
ми, и мы просто заменяли pk одного распределения на pk другого. Здесь
же мы заменяем дискретное распределение непрерывным, т. е. как бы
"размазываем" целые значения от 0 до n на всю числовую ось (−∞; +∞).
На практике это означает, что мы заменяем вероятность pk биномиально-
го распределения вероятностью попадания нормальной величины в ин-
тервал (k – 0,5; k + 0,5). Правда, при этом p0 будет заменяться на
P(X ∈ (–0,5; 0,5)), а не на P(X ∈ (–∞; 0,5)), а pn – на P(X ∈ (n – 0,5; n + 0,5)), а
не на P(X ∈ (n – 0,5; +∞)), но при больших n эта погрешность весьма
незначительна и стремится к нулю с ростом n.
Обычно рассматривают две формулировки теоремы Муавра-Лапла-
са, которые называют локальной и интегральной теоремами.
Локальная теорема Муавра-Лапласа применяется для вычисле-
ния вероятности того, что в схеме Бернулли с большим числом испыта-
ний n, вероятностью успеха p и вероятностью неуспеха q произойдет
ровно k событий-успехов. Заменяя биномиальное распределение нор-
мальным, мы должны вместо pk взять P(X ∈ (k – 0,5; k + 0,5)), т. е. вычис-
лить F(k + 0,5) – F(k – 0,5). Но при больших n интервал (k – 0,5; k + 0,5) ма-
лый, поэтому по теореме о среднем можно заменить F(k + 0,5) −
− F(k − 0,5) значением производной в средней точке, т. е. f(k), умноженной
на ширину интервала 1. Поэтому локальный вариант теоремы Муавра-
Лапласа заключается в том, что при больших n закон биномиального рас-
пределения примерно равен:
pk ≈ F ( k +0,5 )− F ( k−0,5 )=
2
k +0,5 ( k−n p )
1 − (4.72)
= ∫ f ( x ) dx≈ f ( k )⋅1=
√ 2π n p q
e 2n pq
.
k −0,5
190
чае искомая вероятность приближённо равна F(k2 + 0,5) – F(k1 – 0,5):
k2
∑ pk ≈ F ( k 2+0,5 )− F (k 1−0,5) =
k =k 1
(4.73)
k +0,5−n p k −0,5−n p
=Φ 2
(
√ n pq
−Φ 1
√n p q) (.
)
Раньше при решении задач на биномиальное распределение при
больших n и при p, не очень близких к 0 и 1, у нас не было другого выбо-
ра, кроме применения теоремы Муавра-Лапласа. Современные математи-
ческие пакеты дают нам возможность решить задачу обоими способами
и сравнить результаты.
Пример 4.16. Проводится 200 испытаний по схеме Бернулли с веро-
ятностью успеха 0,4. Какова вероятность того, что событие У произойдет
ровно 100 раз? Не более 100 раз? Какова погрешность от замены бино-
миального распределения нормальным в том и другом случае?
Решение. Вычисляем нужные вероятности для биномиального рас-
пределения, затем для нормального и сравниваем их.
191
k,Ple100bin,Ple100norm,...
abs(Ple100bin-Ple100norm)/Ple100bin*100)
Биномиальное Нормальное Погрешность
P(X =100) 0.00095062 0.00089275 6.08745626%
P(X<=100) 0.99831521 0.99845640 0.01414293%
192
mu=n*p; % параметры норм. распределения
sigma=(n*p*q)^0.5;
pnorm=normpdf(k,mu,sigma); % вероятности норм. распр.
[m,im]=max(abs(pnorm-pbin)); % max разность и номер
delta=m/pnorm(im); % относительная погрешность
nall=[nall n]; % накапливаем абсциссы
dall=[dall delta]; % накапливаем ординаты
end
fprintf('При n=%d достигается точность %7.5f%%.\n',...
n,100*delta);
plot(k,pnorm,'k-',k,pbin,'k.',k,pbin,'k:')
xlim([mu-3*sigma mu+3*sigma]) % границы по оси Ox
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',14) % шрифт
title('\bfЛокальная теорема Муавра-Лапласа') % заголовок
xlabel('\itk') % метка оси OX
ylabel('\itp_k\rm, \itf\rm(\itx\rm)') % метка оси OY
figure
plot(nall,dall,'k')
xlim([nall(1) nall(end)]) % границы по оси Ox
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',14) % шрифт
title('\bfЗависимость погрешности от \rm\itn') % заголовок
xlabel('\itn') % метка оси OX
ylabel('\delta') % метка оси OY
При n=703 достигается точность 0.99672%.
193
Локальная теорема Муавра-Лапласа
0.035
0.03
0.025
0.02
pk, f(x)
0.015
0.01
0.005
0
180 190 200 210 220 230 240
k
Зависимость погрешности от n
0.12
0.1
0.08
0.06
δ
0.04
0.02
0
100 200 300 400 500 600 700
n
194
4.9. Контрольные вопросы к главе 4
1. При каких условиях можно заменять гипергеометрическое распреде-
ление биномиальным? Биномиальное пуассоновским? Биномиаль-
ное нормальным?
2. Велика ли будет погрешность, если в интегральной теореме Муавра-
Лапласа не учитывать +0,5 и –0,5? При каком объеме выборки по-
грешность от неучёта этих слагаемых будет меньше 1%?
3. Поток автобусов данного маршрута является пуассоновским с плот-
ностью 3 автобуса в час. На одну остановку подошёл пассажир,
когда от неё только что отошёл автобус, а на другую – в случайный
момент времени. Требуется определить в том и другом случае веро-
ятность того, что им придётся ожидать автобус не более 20 минут. У
кого из них эта вероятность больше? Почему?
4. Поток автобусов 1-го маршрута является пуассоновским с плотно-
стью 3 автобуса в час, а автобусы 2-го маршрута ходят регулярно че-
рез каждые 20 минут. К остановке в случайный момент времени
подошли 2 пассажира: один на 1-й автобус, другой на 2-й. Каково
среднее время ожидания у каждого из них? Каковы вероятности, что
каждому из них придется ждать свой автобус не более 10 минут?
5. Решите предыдущую задачу, если пассажиры подошли к остановке в
тот момент, когда от неё только что отошли автобусы 1-го и 2-го
маршрутов.
6. Какая вероятность выше: угадать 6 номеров из 49 или 5 из 36?
195
Глава 5. Многомерные случайные величины
По своей классификации случайные величины делятся, с одной сто-
роны, на дискретные и непрерывные, а с другой – на одномерные и
многомерные. Общие свойства одномерных величин были рассмотрены
в главе 3, а некоторые часто встречающиеся виды распределений – в гла-
ве 4. Сейчас мы переходим к изучению свойств многомерных величин.
По определению 3.6 многомерная случайная величина, или система слу-
чайных величин, или случайный вектор – это совокупность нескольких
рассматриваемых совместно случайных величин. Именно из-за сов-
местного рассмотрения нескольких координат появляются новые харак-
теристики, которые мы и изучим. При этом подробно будут рассмотрены
только двумерные величины, т. к. добавление уже второй координаты
приводит к появлению новых свойств. Для векторов бóльших размерно-
стей будут даны только определения.
196
Этот пример показывает, что многомерные дискретные величины не
так уж и редко встречаются на практике. Любой ассортимент продукции
можно рассматривать с этой точки зрения.
Будем обозначать двумерный случайный вектор {X, Y}, трёхмерный
{X, Y, Z}, а для многомерного (m-мерного) использовать обозначение
{X1, X2, …, Xm}, т. е. номер размерности ставить в виде верхнего индекса.
Нижний индекс оставим для обозначения номера точки в m-мерном про-
странстве, т. е. возможного значения случайного вектора. Для двумерно-
го вектора k-я точка обозначается {xk, yk}, для трёхмерного {xk, yk, zk}, а
1 2 m
для m-мерного { xk , xk , …, x k } . Общее количество возможных значений
многомерной конечнозначной случайной величины будем обозначать n.
5.1.1. Многомерный закон распределения
Как и в случае одномерных величин, мы должны научиться характе-
ризовать случайный вектор с вероятностной точки зрения. Очевидно,
случайный вектор будет полностью определён в вероятностном смысле,
если будет указано правило, по которому любому возможному значению
вектора будет поставлена в соответствие вероятность его появления.
Определение 5.1. Закон распределения двумерного дискретного слу-
чайного вектора {X, Y} – это любое правило, по которому возможным
значениям {xk, yk} ставятся в соответствие вероятности их появления
pk.
Аналогично даётся определение и для вектора более высоких раз-
мерностей.
Один из способов задания закона – это таблица (ряд распределения).
В таблице 5.1 показан пример такого ряда. Первый столбец таблицы –
это заголовки, в остальных приводятся конкретные возможные значения
координат случайного вектора и вероятностей их появления. Для вероят-
ностей должно выполняться условие нормировки (3.1) или (3.2).
197
Таблица 5.1. Ряд распределения двумерной
дискретной случайной величины
xk x1 x2 … xn
yk y1 y2 … yn
pk p1 p2 … pn
xk x1 x2 x3 …
yk y11 y12 y13 y21 y22 y31 …
198
мерной таблицы 5.3 к линейной 5.1, нужно взять все pik ≠ 0, занести их в
последнюю строку таблицы 5.1 или 5.2, а первые строки заполнить со-
ответствующими xi и yk. Условие нормировки для таблицы 5.3 выглядит
так:
yj\xi x1 x2 x3 … xk
y1 p11 p21 p31 … pk1
y2 p12 p22 p31 … pk2
y3 p13 p23 p32 … pk3
… … … … … …
k n
∑ ∑ p ij =1. (5.1)
i =1 j =1
pk = f ( x k ) . (5.2)
199
на распределения. Таблица или график покажут только часть допу-
стимых значений.
Пример 5.2. Двумерная дискретная случайная величина {X, Y}
имеет возможные значения xi в виде целых чисел от –5 до 5, а возможные
значения yj – это числа от 0 до 1 с шагом 0,2. Закон распределения за-
даётся формулой:
−0,25 ( x i −1,5) 2+0,4 ( xi −1,5)( y j−0,4) −5( y j−0,4) 2
p ij = ke , (5.3)
200
Двумерный закон распределения
0.08
0.06
0.04
pij
0.02
0
1
5
0.5
0
yj 0 -5
xi
201
Геометрически это означает вероятность попадания случайного век-
тора {X, Y} в заштрихованную область на рис. 5.2.
y
F(x, y) = P((X<x)∩(Y<y))
(x, y)
x
0
и m-мерной:
(
F ( x )= P ∩ ( X j < x j ) .
j=1 ) (5.6)
202
Свойства многомерной функции распределения очень похожи на соот-
ветствующие свойства одномерной F(x) (свойства 3.1-3.5). Их доказа-
тельства почти очевидны, поэтому просто перечислим их.
Свойство 5.1. Многомерная функция распределения – это вероят-
ность некоторого события, поэтому 0 ≤ F(x) ≤ 1.
Свойство 5.2. Если хотя бы один из аргументов ∃ xj → –∞, то
F(x) = 0.
Свойство 5.3. Если все аргументы ∀ xj → +∞, то F(x) = 1.
Свойство 5.4. Многомерная функция распределения является неу-
бывающей функцией любого своего аргумента.
А вот свойства, аналогичного свойству 3.5, для многомерной ве-
личины нет. В одномерном случае свойство 3.5 определяет вероятность
попадания величины в заданный полуинтервал. Но уже для двумерной
величины область может быть более сложной, и вероятность попадания
случайного вектора в эту область удобно вычислять не через функцию
распределения, а другими способами. В частности, для дискретной ве-
личины нужно просто просуммировать вероятности pk (или pij) для всех
точек, попадающих в область.
Пример 5.2 (продолжение). Построить график двумерной функции
распределения заданной дискретной величины.
Решение. Вычислить функцию распределения очень просто: нужно
сложить вероятности по всем точкам с координатами, меньшими теку-
щей точки. А вот стандартной функции для рисования двумерной функ-
ции распределения дискретной величины в MATLAB нет. Поэтому изоб-
разим её с помощью функции fill3, которая применяется для рисова-
ния произвольно ориентированных в пространстве многоугольников.
203
Fije=[zeros(size(Fije,1),1),Fije]; % и 0 столбец
xie=[2*xi(1)-xi(2),xi,2*xi(end)-xi(end-1)]; % расширили xi
yje=[2*yj(1)-yj(2),yj,2*yj(end)-yj(end-1)]; % расширили yj
figure % новая фигура
hold on % задержка для рисования нескольких объектов
for i=1:size(Fije,2),
for j=1:size(Fije,1),
fill3(xie([i i+1 i+1 i]),yje([j j j+1 j+1]),...
ones(1,4)*Fije(j,i),'w'); % верхний прямоугольник
fill3(xie([i i+1 i+1 i]),yje([j j j+1 j+1]),...
zeros(1,4),'w'); % нижний
fill3(xie([i i+1 i+1 i]),ones(1,4)*yje(j),...
[0 0 ones(1,2)*Fije(j,i)],'w'); % передний
fill3(xie([i i+1 i+1 i]),ones(1,4)*yje(j+1),...
[0 0 ones(1,2)*Fije(j,i)],'w'); % задний
fill3(ones(1,4)*xie(i),yje([j j+1 j+1 j]),...
[0 0 ones(1,2)*Fije(j,i)],'w'); % левый
fill3(ones(1,4)*xie(i+1),yje([j j+1 j+1 j]),...
[0 0 ones(1,2)*Fije(j,i)],'w'); % правый
end
end
hold off % выключили задержку
xlim([xie(1) xie(end)]) % границы по осям
ylim([yje(1) yje(end)])
zlim([0 1])
view(3) % точка просмотра
grid on % сетка
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title('\bfДвумерная функция распределения')
xlabel('\itx')
ylabel('\ity')
zlabel('\itF\rm(\itx\rm,\ity\rm)')
204
Двумерная функция распределения
1
F (x,y)
0.5
0
1
5
0.5
0
0 -5
y x
205
p x = P ( X = x2 )= p21 + p22+…+ p 2 n , и т. д. Следовательно, чтобы полу-
2
и 5.5).
206
Закон распределения X
0.35
0.3
0.25
0.2
pi
0.15
0.1
0.05
0
-5 0 5
xi
Закон распределения Y
0.35
0.3
0.25
0.2
pj
0.15
0.1
0.05
0
0 0.2 0.4 0.6 0.8 1
yj
207
5.1.4. Одномерные функции распределения
По определению 3.8 одномерная функция распределения F(x) коор-
динаты X – это вероятность события (X < x). Это соответствует попада-
нию точки на плоскости в заштрихованную область слева от вертикаль-
ной прямой на рис. 5.6.
y
F(x) = P(X<x)
x x
0
208
определению 3.8 – это вероятность одного события: (X < x), а Y может
принимать любое значение: (Y < +∞). Поэтому можно записать, что
F ( x )= lim F ( x, y ) . (5.7)
y →+∞
Это видно также из рисунков 5.6 и 5.2: если на рис. 5.2 двигать точку
(x, y) вверх по вертикальной прямой до бесконечности, то заштрихован-
ная область станет такой, как на рис. 5.6.
yj \ xi
xi
Таблица 5.3 px
Σ i
x
Суммируем p x −
i
x получаем F(x)
Суммируем pij −
получаем F(x)
209
динат получим, устремляя к +∞ остальные аргументы в многомерной
функции распределения. Например, из F(x, y, z) можно получить F(x, z),
если y → +∞, и F(x), если y → +∞ и z → +∞. Можно также суммировать
нужные вероятности в многомерных или одномерных законах распреде-
ления.
Пример 5.2 (продолжение). Найти аналитические выражения и по-
строить графики одномерных функций распределения F(x) и F(y).
Решение. У нас есть выражения для одномерных законов p x и i
210
xlabel('\ity')
ylabel('\itF\rm(\ity\rm)')
211
Функция распределения F (x)
1
0.8
0.6
F (x)
0.4
0.2
0
-5 0 5
x
1.2
0.8
F (y)
0.6
0.4
0.2
0
0 0.2 0.4 0.6 0.8 1
y
212
5.1.5. Условные законы и функции распределения
Вернёмся к примеру 5.1. Мы уже умеем находить закон распределе-
ния всех пар обуви по размерам или по кругу клиентов. Это будут одно-
мерные законы распределения. С их помощью можно, например, узнать
распределение всей выпускаемой обуви по размерам. Но гораздо больше
информации нам даст распределение по размерам отдельно мужской
обуви, отдельно женской и отдельно универсальной. Такую информацию
дают условные законы распределения.
Определение 5.3. Условным законом распределения координаты X
случайного вектора {X, Y} называется одномерный закон распределения
X при условии, что Y принимает заданное значение из числа возмож-
ных.
Обозначается условный закон p x / y , p x / y и т. д. То есть фактиче-
i 1 i 2
P ( ( X = x i )∩(Y = y j )) pij
p x / y =P (( X = x i ) / ( Y = y j ) )= = . (5.8)
i j
P (Y = y j ) py j
213
взять безусловные вероятности pij (j-ю строку таблицы 5.3) и разделить
каждое из этих чисел на их сумму. Но эта сумма уже была вычислена
раньше: это безусловная вероятность p y . Поэтому иногда говорят, что
j
p ij
py /x= . (5.9)
j i
px i
214
рис. 5.11 и 5.12. Чтобы не затенять рисунок метками, изобразим много-
угольники условных распределений разными оттенками серого: от чёр-
ного для p x / y и p y / x до почти белого для p x / y и p y / x .
i 1 j 1 i n j k
215
Условные законы распределения pxi/yj
0.35
0.3
0.25
0.2
pxi/yj
0.15
0.1
0.05
0
-5 0 5
xi
0.3
0.25
0.2
pyj/xi
0.15
0.1
0.05
0
0 0.2 0.4 0.6 0.8 1
yj
216
Зная условные законы распределения p x / y и p y / x , нетрудно по
i j j i
217
Условные функции распределения F (x,yj )
1.4
1.2
0.8
F (x,yj )
0.6
0.4
0.2
0
-5 0 5
xi
1.2
0.8
F (y,xi)
0.6
0.4
0.2
0
0 0.2 0.4 0.6 0.8 1
yj
218
5.1.6. Числовые характеристики
Для одномерных величин мы определяли следующие числовые ха-
рактеристики:
• математическое ожидание (3.15)-(3.16);
• мода (определение 3.12);
• медиана (определение 3.13);
• начальные моменты (3.21)-(3.22);
• центральные моменты (3.25)-(3.26);
• дисперсия (3.32)-(3.33);
• среднеквадратичное отклонение (3.35);
• асимметрия (3.36);
• эксцесс (3.37).
У нас есть одномерные законы распределения, поэтому для каждой
координаты случайного вектора можно определить все эти характеристи-
ки, причём как безусловные, так и условные. Если при этом использовать
таблицу 5.1, то суммы будут одинарными, а если таблицу 5.3 – двойны-
ми. Например, по таблице 5.1 МО считаются так:
n n
m x =∑ x i p i ; my =∑ y i p i ; (5.10)
k =1 k=1
m x =∑ ∑ x i p ij =∑ xi p x ; m y =∑ ∑ y j p ij =∑ y j p y .
i j
(5.11)
i=1 j =1 i =1 i=1 j=1 j=1
219
которое мы сформулируем в виде теоремы.
Теорема 5.1 (о полном математическом ожидании). Математиче-
ское ожидание условных МО равно безусловному МО:
M ( m x/ y )= mx ; M ( my / x )=m y .
j i
(5.12)
и теорема доказана.
Для многомерных величин вводят в рассмотрение и другие число-
вые характеристики, связанные с взаимодействием координат.
Определение 5.4. Моментом (начальным моментом) (k1, k2)-го по-
рядка дискретной двумерной случайной величины называется сумма
произведений всех возможных значений координаты X в k1-й степени на
соответствующие значения координаты Y в k2-й степени и на вероятности
их появления:
k n
k k2
M ( X 1Y ) =αk k =∑ ∑ x ki
1 2
1 k
y j 2 pij . (5.15)
i=1 j =1
220
рядка. Но уже для смешанных моментов 3-го порядка (и более высоких)
нужно уточнять, какого порядка момент по каждой координате.
Если закон распределения задан в виде одномерной таблицы 5.1, то
в формуле (5.15) вместо двойной суммы будет одинарная. Для m-мерных
случайных величин при задании начального момента нужно указывать
степени по каждой переменной. В частности, МО каждой координаты –
это начальный момент 1-го порядка по данной координате и 0-го по всем
остальным.
Определение 5.5. Центральным моментом (k1, k2)-го порядка дис-
кретной двумерной случайной величины называется сумма произведе-
ний всех возможных значений координаты X, из которых вычтено её МО,
в k1-й степени на соответствующие значения координаты Y, из которых
вычтено её МО, в k2-й степени и на вероятности их появления
k n
k k
M ( X̊ k Y̊ k ) =μ k k =∑ ∑ ( xi −m x ) ( y j −m y ) pij .
1 2
1 2
1 2
(5.16)
i=1 j=1
221
Для двумерного вектора ковариационный момент всего один; его
обозначают mxy:
k n
m xy= M ( X̊ Y̊ ) =μ11 =∑ ∑ ( xi −m x )( y j −m y ) p ij . (5.17)
i=1 j =1
Таблица 5.3
mxy > 0
222
мером m × m, в которой на главной диагонали размещают дисперсии.
Такая матрица называется ковариационной.
Определение 5.7. Ковариационной матрицей K случайного вектора
X размерности m называется симметричная матрица размером m × m,
каждый элемент которой kij является центральным моментом 2-го поряд-
ка: 1-го по координате Xi и 1-го по Xj:
Dx mx x … mx x
( )
1 1 2 1 m
mx x Dx … mx x
K= .
2 1 2 2 m
(5.18)
… … … …
mx x m 1 mx xm 2 … Dx m
223
корреляции координат Xi и Xj, а на главной диагонали находятся едини-
цы:
( )
ρx x
1 2 … ρx x1 m
ρ 1 … ρx x
R= x x .
2 1 2 m
(5.20)
… … … …
ρx x m 1 ρx x
m 2 … 1
mx=sum(xi.*pxi);
my=sum(yj.*pyj);
disp('Безусловные математические ожидания:')
fprintf('Mx=%16.10f; My=%16.10f\n',mx,my)
mxyj=sum(pxiyj.*repmat(xi,length(yj),1),2)'; % усл. Mx/yj
myxi=sum(pyjxi.*repmat(yj',1,length(xi))); % усло. My/xi
figure % новая фигура
subplot(1,2,1) % левая половина графика
plot(yj,mxyj,'k',yj,mxyj,'k.') % график Mx/yj
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title('\bfУсловные МО\rm \itm_{x\rm/\ityj}')
224
xlabel('\ity_j')
ylabel('\itm_{x\rm/\ityj}')
subplot(1,2,2) % правая половина графика
plot(xi,myxi,'k',xi,myxi,'k.') % график My/xi
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title('\bfУсловные МО\rm \itm_{y\rm/\itxi}')
xlabel('\itx_i')
ylabel('\itm_{y\rm/\itxi}')
Dx=sum((xi-mx).^2.*pxi);
Dy=sum((yj-my).^2.*pyj);
disp('Безусловные дисперсии:')
fprintf('Dx=%16.10f; Dy=%16.10f.\n',Dx,Dy)
disp('Безусловные среднеквадратичные отклонения:')
fprintf('sx=%16.10f; sy=%16.10f\n',Dx^0.5,Dy^0.5)
Dxyj=sum(pxiyj.*(repmat(xi,length(yj),1)-...
repmat(mxyj',1,length(xi))).^2,2)'; % условные Dx/yj
Dyxi=sum(pyjxi.*(repmat(yj',1,length(xi))-...
repmat(myxi,length(yj),1)).^2); % условные Dy/xi
figure % новая фигура
subplot(1,2,1) % левая половина графика
plot(yj,Dxyj,'k',yj,Dxyj,'k.') % график Dx/yj
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title('\bfУсловные дисперсии\rm \itD_{x\rm/\ityj}')
xlabel('\ity_j')
ylabel('\itD_{x\rm/\ityj}')
subplot(1,2,2) % правая половина графика
plot(xi,Dyxi,'k',xi,Dyxi,'k.') % график Dy/xi
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title('\bfУсловные дисперсии\rm \itD_{y\rm/\itxi}')
xlabel('\itx_i')
ylabel('\itD_{y\rm/\itxi}')
225
Ax=sum((xi-mx).^3.*pxi)/Dx^1.5;
Ay=sum((yj-my).^3.*pyj)/Dy^1.5;
disp('Безусловные асимметрии:')
fprintf('Ax=%16.10f; Ay=%16.10f\n',Ax,Ay)
Axyj=sum(pxiyj.*(repmat(xi,length(yj),1)-...
repmat(mxyj',1,length(xi))).^3,2)'./Dxyj.^1.5; % Ax/yj
Ayxi=sum(pyjxi.*(repmat(yj',1,length(xi))-...
repmat(myxi,length(yj),1)).^3)./Dyxi.^1.5; % Ay/xi
figure % новая фигура
subplot(1,2,1) % левая половина графика
plot(yj,Axyj,'k',yj,Axyj,'k.') % график Ax/yj
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title('\bfУсловные асимметрии\rm \ita_{x\rm/\ityj}')
xlabel('\ity_j')
ylabel('\ita_{x\rm/\ityj}')
subplot(1,2,2) % правая половина графика
plot(xi,Ayxi,'k',xi,Ayxi,'k.') % график Ay/xi
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title('\bfУсловные асимметрии\rm \ita_{y\rm/\itxi}')
xlabel('\itx_i')
ylabel('\ita_{y\rm/\itxi}')
Ex=sum((xi-mx).^4.*pxi)/Dx^2-3;
Ey=sum((yj-my).^4.*pyj)/Dy^2-3;
disp('Безусловные эксцессы:')
fprintf('Ex=%16.10f; Ey=%16.10f\n',Ex,Ey)
Exyj=sum(pxiyj.*(repmat(xi,length(yj),1)-...
repmat(mxyj',1,length(xi))).^4,2)'./Dxyj.^2-3; % Ex/yj
Eyxi=sum(pyjxi.*(repmat(yj',1,length(xi))-...
repmat(myxi,length(yj),1)).^4)./Dyxi.^2-3; % Ey/xi
figure % новая фигура
subplot(1,2,1) % левая половина графика
plot(yj,Exyj,'k',yj,Exyj,'k.') % график Ex/yj
226
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title('\bfУсловные эксцессы\rm \ite_{x\rm/\ityj}')
xlabel('\ity_j')
ylabel('\ite_{x\rm/\ityj}')
subplot(1,2,2) % правая половина графика
plot(xi,Eyxi,'k',xi,Eyxi,'k.') % график Ey/xi
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title('\bfУсловные эксцессы\rm \ite_{y\rm/\itxi}')
xlabel('\itx_i')
ylabel('\ite_{y\rm/\itxi}')
mxy=sum(sum(pij.*repmat(xi-mx,length(yj),1).*...
repmat(yj'-my,1,length(xi)))); % 2-й смешанный момент
rxy=mxy/(Dx*Dy).^0.5; % коэффициент корреляции
fprintf('Второй смешанный момент Mxy=%16.10f\n',mxy)
fprintf('Коэффициент корреляции Rxy=%16.10f\n',rxy)
Безусловные математические ожидания:
Mx= 1.5120130957; My= 0.4277487429
Безусловные дисперсии:
Dx= 2.0034430242; Dy= 0.0729961979.
Безусловные среднеквадратичные отклонения:
sx= 1.4154303318; sy= 0.2701780856
Безусловные асимметрии:
Ax= -0.0549555310; Ay= 0.1998704942
Безусловные эксцессы:
Ex= -0.1194545532; Ey= -0.6972617889
Второй смешанный момент Mxy= 0.0571622676
Коэффициент корреляции Rxy= 0.1494757807
227
Условные МО mx/yj Условные МО my/xi
2 0.7
1.8 0.6
1.6 0.5
my/xi
mx/yj
1.4 0.4
1.2 0.3
1 0.2
0 0.5 1 -5 0 5
yj xi
0.075
1.96
0.07
D y/xi
D x/yj
1.94 0.065
0.06
1.92
0.055
1.9 0.05
0 0.5 1 -5 0 5
yj xi
228
Условные асимметрии ax/yj Условные асимметрии ay/xi
-0.02 0.8
-0.04 0.6
-0.06 0.4
ay/xi
ax/yj
-0.08 0.2
-0.1 0
-0.12 -0.2
0 0.5 1 -5 0 5
yj xi
-0.08
-0.2
-0.1
ey/xi
ex/yj
-0.12 -0.4
-0.14
-0.6
-0.16
-0.18 -0.8
0 0.5 1 -5 0 5
yj xi
229
5.1.7. Независимость и некоррелированность
Для событий мы вводили понятия зависимости и независимости
(определение 2.19). Событие B считается независимым от A, если P(B) не
зависит от того, произошло A или нет. Согласно следствию 2.2 вероят-
ность произведения независимых событий равна произведению вероят-
ностей. Аналогичное понятие можно ввести и для многомерных случай-
ных величин, в частности, дискретных. Здесь событием является приня-
тие той или иной координатой конкретного значения. Поэтому независи-
мость, например, координаты X от Y состоит в том, что P(X = xi) не зави-
сит от того, какое значение принимает Y, и это должно выполняться для
всех xi. Иными словами, закон распределения X не должен зависеть от
того, при каком yj он вычисляется.
Определение 5.10. Координата X случайного вектора {X, Y} называ-
ется независимой от координаты Y, если любой условный закон распре-
деления p x / y совпадает с безусловным p x :
i j i
∀ y j ∀ xi : px / y = px .
i j i (5.21)
Теорема 5.2. Если в двумерном векторе {X, Y} координата X не зави-
сит от Y, то и Y не зависит от X.
Доказательство. Если X не зависит от Y, то все условные законы
распределения p x / y одинаковые и совпадают с безусловным p x . Тогда
i j i
∀ x i ∀ y j : pij = p x p y , i j
(5.22)
p y и означает независимость Y от X.
j
230
В двумерной величине с независимыми координатами все возмож-
ные значения (с ненулевыми вероятностями) всегда можно занести в
ячейки прямоугольной таблицы, такой, как таблица 5.3. В матрице веро-
ятностей pij все строки и столбцы будут пропорциональны, а её элементы
будут вычисляться по (5.22). Т. е. если X и Y независимые, то двумерный
закон распределения однозначно восстанавливается по одномерным.
Поэтому, если в прикладных исследованиях удастся доказать независи-
мость координат двумерной случайной величины, то это позволит значи-
тельно сократить объём необходимой информации: вместо матрицы дву-
мерного закона распределения достаточно хранить два вектора одномер-
ных законов.
Пример 5.3. Если в примере 5.2 в формуле (5.3) среднее слагаемое в
показателе экспоненты отсутствует:
−0,25 ( x i −1,5) 2−5 ( y j−0,4 )2
pij = ke , (5.24)
231
статочно иметь 3 одномерных закона распределения (по каждой коор-
динате в отдельности). Аналогично решается вопрос для многомерных
величин бóльших размерностей. Иногда удается разделить m координат
на группы взаимно независимых координат.
Следующее понятие, которое связано с независимостью – это некор-
релированность.
Определение 5.11. Две координаты случайного Xi и Xj вектора X на-
зываются некоррелированными, если их ковариационный момент, а, сле-
довательно, и коэффициент корреляции равны нулю.
Теорема 5.3. Если в двумерном векторе {X, Y} координаты X и Y не-
зависимые, то они некоррелированные.
Доказательство. Пусть X и Y независимые. Тогда двумерные веро-
ятности равны произведению одномерных (5.22), и ковариационный мо-
мент по (5.17) равен произведению 1-х центральных моментов коорди-
нат:
k n k n
m xy= ∑ ∑ ( x i −m x )( y j −m y ) pij =∑ ( xi − mx ) p x ∑ ( y j −m y ) p y .
i j
(5.25)
i =1 j=1 i=1 j =1
yj\xi –1 0 1
–1 0 0,2 0
0 0,2 0,2 0,2
1 0 0,2 0
232
Из-за симметрии точек и равенства вероятностей здесь mxy = 0, но
условные законы распределения, например, p x /−1 =( 0 1 0 )
i
и
p x / 0=
i ( 13
1 1
3 3 )
отличаются. Поэтому здесь X и Y являются некоррели-
рованными, но зависимыми.
Т. о., класс некоррелированных величин более обширный, чем класс
независимых. Можно сказать, что множество независимых величин яв-
ляется подмножеством множества некоррелированных величин. Но для
некоторых величин эти понятия эквивалентны (см. раздел 5.2.4).
233
P ( { X , Y } ∈Δ S )
f ( x, y ) = lim . (5.26)
Δ S →0 ΔS
Конечно, предполагается,
y что такой предел существует и
dS не зависит ни от вида области
y + ∆y ∆S, ни от того, как именно она
стягивается в точку. Поэтому
y
можно взять ∆S = ∆x∆y, как пока-
зано на рис. 5.20. Учитывая гео-
x
метрический смысл двумерной
0 x x + ∆x функции распределения
(рис. 5.2), вероятность попада-
Рисунок 5.20 – К выводу двумерной ния в заштрихованный прямо-
плотности распределения угольник на рис. 5.20 выражает-
ся через функцию распределения так:
P ( { X , Y } ∈Δ S ) =F ( x+Δ x , y+ Δ y ) −
(5.27)
− F ( x , y+ Δ y ) −F ( x+Δ x , y )+ F ( x , y ) .
Здесь у нас нет номера точки, как в дискретном векторе, поэтому номер
координаты мы поставили внизу.
234
Другие свойства многомерной плотности распределения.
Свойство 5.6. Так как многомерная функция распределения F(x)
неубывающая по каждому из своих аргументов, то f(x) ≥ 0.
Свойство 5.7. Из (5.26) и определения двойного интеграла следует,
что вероятность попадания вектора {X, Y} в некоторую область D есть
двойной интеграл от двумерной плотности распределения f(x, y) по этой
области:
P ( { X , Y } ∈D ) =∬ f ( x , y ) dS . (5.30)
( D)
P ( X ∈Ωm )= ∫ f ( x ) d Ωm . (5.31)
( Ωm )
F ( x , y ) = ∫ ∫ f ( ξ , η) d ξ d η. (5.32)
−∞ −∞
∫ ∫ f ( x , y ) dxdy=1. (5.33)
−∞ −∞
235
Пример 5.4. Двумерная случайная величина {X, Y} равномерно рас-
пределена в треугольнике, ограниченном осями координат и прямой
3x + 4y + 12 = 0. Найти выражение для двумерной плотности распределе-
ния и построить её график. Построить график двумерной функции рас-
пределения.
Решение. Случайная величина имеет равномерное распределение,
поэтому внутри треугольника значение плотности распределения равно
постоянной величине: f(x, y) = c, а вне его плотность распределения равна
нулю. Значение c находим из условия нормировки (5.33). Оно будет
обратным по величине к площади треугольника: c = 1 / S∆.
Вычисляем c и строим график плотности распределения (рис. 5.21).
236
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
da=daspect; % получили масштабы по осям
da(1:2)=min(da(1:2)); % одинаковые масштабы
daspect(da); % установили одинаковые масштабы
xlim([xmin xmax]); % границы по осям
ylim([ymin ymax]);
box on % ограничивающий прямоугольник
title('\bfДвумерная плотность распределения') % заголовок
xlabel('\itx') % метки осей
ylabel('\ity')
zlabel('\itf\rm(\itx\rm,\ity\rm)')
Площадь треугольника S=6;
Внутри треугольника f(x,y)=1/6;
Вне треугольника f(x,y)=0
0.2
0.15
f(x,y)
0.1
0.05
0
0 0
-1 -1
-2
-2 -3
-3 -4
y x
237
сти, показанной штриховкой на рис. 5.2. При этом в области интегриро-
вания могут оказаться разные части треугольника, в котором распределе-
на наша величина. Проще всего решить задачу путём дискретизации ве-
личины. Для этого построим достаточно мелкую двумерную сетку, в ко-
торой зададим постоянные ненулевые значения вероятностей во всех
точках внутри треугольника. Значения вероятностей выберем из условия
нормировки, чтобы их сумма была равна 1. Во всех точках вне треуголь-
ника оставим нулевые вероятности. Т. е. получим таблицу вида 5.3 с
большим количеством клеток по обоим направлениям. Теперь, как и для
дискретной величины, значения функции распределения можно полу-
чить, дважды применяя функцию cumsum. График двумерной функции
распределения показан на рис. 5.22.
238
Двумерная функция распределения
1
F (x,y)
0.5
0
0 0
-1 -1
-2
-2 -3
-3 -4
y x
F ( x ) =F ( x ,+∞ ) =∫ d ξ ∫ f ( ξ , η) dη ;
−∞ −∞
y +∞ (5.34)
F ( y ) = F (+∞, y ) =∫ d η ∫ f ( ξ , η ) d ξ .
−∞ −∞
239
+∞
dF ( x )
f ( x)= =∫ f ( x , y ) dy ;
dx −∞
+∞ (5.35)
dF ( y )
f ( y )= = ∫ f ( x , y ) dx .
dy −∞
−∞ −∞
(
∫ ∫ f ( x , y ) dx dy= ∫ ∫ f ( x , y ) dy
−∞ −∞
) dx=1, (5.36)
240
Она равна длине той части вертикальной прямой, которая попадает в за-
штрихованный треугольник.
y
x
0 x
линия интегрирования
при вычислении f(x)
241
fy(find((yt<yl)|(yt>yr)))=0; % 0 вне интервала [yl,yr]
figure; % новая фигура
plot(xt,fx,'k') % график f(x)
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title(['\bfОдномерная плотность распределения'...
'\rm \itf\rm(\itx\rm)'])
xlabel('\itx') % метки осей
ylabel('\itf\rm(\itx\rm)')
figure; % новая фигура
plot(yt,fy,'k') % график f(y)
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title(['\bfОдномерная плотность распределения'...
'\rm \itf\rm(\ity\rm)'])
xlabel('\ity') % метки осей
ylabel('\itf\rm(\ity\rm)')
242
Одномерная плотность распределения f(x)
0.5
0.4
0.3
f(x)
0.2
0.1
0
-5 -4 -3 -2 -1 0 1
x
0.6
0.5
0.4
f(y)
0.3
0.2
0.1
0
-3.5 -3 -2.5 -2 -1.5 -1 -0.5 0 0.5
y
243
Теперь переходим к функциям распределения. Если бы нужно было
только построить графики, можно было бы воспользоваться готовой дву-
мерной функцией распределения: взять в ней последнюю строку и по-
следний столбец. Но нам нужно найти аналитические выражения для
F(x) и F(y), поэтому интегрируем f(x) и f(y), подставляем в них нужные
точки и рисуем графики (рис. 5.26 и 5.27).
244
title(['\bfОдномерная функция распределения'...
'\rm \itF\rm(\ity\rm)'])
xlabel('\ity') % метки осей
ylabel('\itF\rm(\ity\rm)')
xlim([ymin ymax]); ylim([0 1.1])
Одномерные функции распределения:
F(x)=0, если x<-4;
F(x)=1/16*x^2+1+1/2*x, если -4<=x<=0;
F(x)=1, если x>0;
F(y)=0, если y<-3;
F(y)=1/9*y^2+1+2/3*y, если -3<=y<=0;
F(y)=1, если y>0.
0.8
0.6
F (x)
0.4
0.2
0
-4 -3.5 -3 -2.5 -2 -1.5 -1 -0.5 0
x
245
Одномерная функция распределения F (y)
0.8
0.6
F (y)
0.4
0.2
0
-3 -2.5 -2 -1.5 -1 -0.5 0
y
P ( { X , Y } ∈dS ) = f ( x , y ) dS . (5.37)
246
С другой стороны, мы можем рассматривать событие {X, Y} ∈ dS как
произведение двух событий: (X ∈ [x, x + dx]) ∩ (Y ∈ [y, y + dy]). По теоре-
ме 2.2 о вероятности произведения двух событий имеем другое выраже-
ние:
P ( { X , Y } ∈dS ) = P ( ( X ∈ [ x , x+dx ] ) ∩( Y ∈[ y , y+ dy ] ) )=
= P ( X ∈[ x , x+dx ] )⋅P (( Y ∈[ y , y+dy ]) / ( X ∈ [ x , x+dx ] ) )= (5.38)
= f ( x ) dx⋅f ( y / x ) dy = f ( x ) f ( y/ x ) dS .
f ( x , y) f (x, y)
f ( y / x)= = +∞ .
f ( x) (5.39)
∫ f ( x , y ) dy
−∞
f ( x , y) f (x, y)
f ( x/ y ) = = +∞ .
f (y) (5.40)
∫ f ( x , y ) dx
−∞
247
+∞
f ( x, y ) =∫ f ( x , y , z ) dz , (5.41)
−∞
f ( x, y , z ) f (x, y, z)
f ( x/ ( y , z ) ) = = +∞ .
f ( y , z) (5.42)
∫ f ( x , y , z ) dx
−∞
F ( x / y )= ∫ f ( ξ / y ) d ξ ; F ( y / x ) =∫ f ( η/ x ) d η. (5.43)
−∞ −∞
248
surf(Xt,Yt,fxy) % график f(x/y)
colormap('white')
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
xlim([xmin xmax]); % границы по осям
ylim([ymin ymax]);
da=daspect; % получили масштабы по осям
da(1:2)=min(da(1:2)); % одинаковые масштабы
daspect(da); % установили одинаковые масштабы
box on % ограничивающий прямоугольник
title(['\bfУсловная плотность распределения'...
'\rm \itf\rm(\itx\rm/\ity\rm)'])
xlabel('\itx') % метки осей
ylabel('\ity')
zlabel('\itf\rm(\itx\rm/\ity\rm)')
view(135,20) % точка просмотра
figure; % новая фигура
surf(Xt,Yt,fyx) % график f(y/x)
colormap('white')
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
xlim([xmin xmax]); % границы по осям
ylim([ymin ymax]);
da=daspect; % получили масштабы по осям
da(1:2)=min(da(1:2)); % одинаковые масштабы
daspect(da); % установили одинаковые масштабы
box on % ограничивающий прямоугольник
title(['\bfУсловная плотность распределения'...
'\rm \itf\rm(\ity\rm/\itx\rm)'])
xlabel('\itx') % метки осей
ylabel('\ity')
zlabel('\itf\rm(\ity\rm/\itx\rm)')
view(135,20) % точка просмотра
Условные плотности распределения:
f(x/y)=3/4/(y+3) внутри треугольника;
f(x/y)=0 вне треугольника;
f(y/x)=4/3/(x+4) внутри треугольника;
f(y/x)=0 вне треугольника.
249
Условная плотность распределения f(x/y)
15
10
f(x/y)
0 -4
-3
-2 -2
-1
0 0
x
y
Рисунок 5.28 – Условная плотность распределения f(x/y)
6
f(y/x)
0 -4
-3
-2 -2
-1
0 0
x
y
Рисунок 5.29 – Условная плотность распределения f(y/x)
250
Условные функции распределения находим путём интегрирования
выражений для условных плотностей. Рисуем их графики (рис. 5.30 и
5.31).
251
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
xlim([xmin xmax]); % границы по осям
ylim([ymin ymax]);
zlim([0 1]);
da=daspect; % получили масштабы по осям
da(1:2)=min(da(1:2)); % одинаковые масштабы
daspect(da); % установили одинаковые масштабы
box on % ограничивающий прямоугольник
title(['\bfУсловная функция распределения'...
'\rm \itF\rm(\ity\rm/\itx\rm)'])
xlabel('\itx') % метки осей
ylabel('\ity')
zlabel('\itF\rm(\ity\rm/\itx\rm)')
Условные функции распределения:
F(x/y)=(3/4*x+y+3)/(y+3) внутри треугольника;
F(x/y)=0 или 1 вне треугольника;
F(y/x)=(x+4/3*y+4)/(x+4) внутри треугольника;
F(y/x)=0 или 1 вне треугольника.
1
F (x/y)
0.5
0
0 0
-1
-2
-2
-3 -4
y x
Рисунок 5.30 – Условная функция распределения F(x/y)
252
Условная функция распределения F (y/x)
1
F (y/x)
0.5
0
0 0
-1
-2
-2
-3 -4
y x
Рисунок 5.31 – Условная функция распределения F(y/x)
253
Если одномерных плотностей нет, а есть только многомерные, то
можно использовать и их, по ходу дела применяя формулу (5.35). Напри-
мер, МО координаты Y трёхмерного вектора {X, Y, Z} можно вычислять
так:
+∞
m y =∫ y f ( y ) dy=∭ y f ( x , y , z ) dV , (5.44)
−∞ Ω∞
254
интервале: f(y/1) = 1. А f(y/0) отлична от нуля уже в отрезке y ∈ [−1; 1] и
равна в нём f(y/0) = 0,5. Поэтому координаты X и Y являются зависимы-
ми.
y
−2 0 1 2 x
−1
Mxs=int(x*fxs,x,xl,xr); % МО Mx
Mys=int(y*fys,y,yl,yr); % МО My
Dxs=int((x-Mxs)^2*fxs,x,xl,xr); % дисперсия Dx
Dys=int((y-Mys)^2*fys,y,yl,yr); % дисперсия Dy
Axs=int((x-Mxs)^3*fxs,x,xl,xr)/Dxs^(3/2); % асимметрия Ax
255
Ays=int((y-Mys)^3*fys,y,yl,yr)/Dys^(3/2); % асимметрия Ay
Exs=int((x-Mxs)^4*fxs,x,xl,xr)/Dxs^2-3; % эксцесс Ex
Eys=int((y-Mys)^4*fys,y,yl,yr)/Dys^2-3; % эксцесс Ey
Mxy=int(int(cs*(x-Mxs)*(y-Mys),y,0,sy)*sign(y0),x,xl,xr);
Rxy=simple(Mxy/(Dxs*Dys)^(1/2));
disp('Безусловные числовые характеристики:')
fprintf('математическое ожидание Mx=%s=%14.10f;\n',...
char(Mxs),eval(Mxs))
fprintf('математическое ожидание My=%s=%14.10f;\n',...
char(Mys),eval(Mys))
fprintf('дисперсия Dx=%s=%14.10f;\n',char(Dxs),eval(Dxs))
fprintf('дисперсия Dy=%s=%14.10f;\n',char(Dys),eval(Dys))
fprintf('асимметрия Ax=%s=%14.10f;\n',char(Axs),eval(Axs))
fprintf('асимметрия Ay=%s=%14.10f;\n',char(Ays),eval(Ays))
fprintf('эксцесс Ex=%s=%14.10f;\n',char(Exs),eval(Exs))
fprintf('эксцесс Ey=%s=%14.10f;\n',char(Eys),eval(Eys))
fprintf(['смешанный центральный момент'...
'Mxy=%s=%14.10f;\n'],char(Mxy),eval(Mxy))
fprintf('коэффициент корреляции Rxy=%s=%14.10f.\n',...
char(Rxy),eval(Rxy))
Mxys=simple(int(fxys*x,x,0,sx)*sign(x0)); % M(x/y)
Myxs=simple(int(fyxs*y,y,0,sy)*sign(y0)); % M(y/x)
Dxys=simple(int(fxys*(x-Mxys)^2,x,0,sx)*sign(x0));
Dyxs=simple(int(fyxs*(y-Myxs)^2,y,0,sy)*sign(y0));
Axys=simple(int(fxys*(x-Mxys)^3,x,0,sx)*...
sign(x0)/Dxys^(3/2)); % A(x/y)
Ayxs=simple(int(fyxs*(y-Myxs)^3,y,0,sy)*...
sign(y0)/Dyxs^(3/2)); % A(y/x)
Exys=simple(int(fxys*(x-Mxys)^4,x,0,sx)*...
sign(x0)/Dxys^2-3);
Eyxs=simple(int(fyxs*(y-Myxs)^4,y,0,sy)*...
sign(y0)/Dyxs^2-3);
disp('Условные числовые характеристики:')
fprintf('математическое ожидание M(x/y)=%s;\n',char(Mxys))
fprintf('математическое ожидание M(y/x)=%s;\n',char(Myxs))
fprintf('дисперсия D(x/y)=%s;\n',char(Dxys))
fprintf('дисперсия D(y/x)=%s;\n',char(Dyxs))
fprintf('асимметрия A(x/y)=%s;\n',char(Axys))
256
fprintf('асимметрия A(y/x)=%s;\n',char(Ayxs))
fprintf('эксцесс E(x/y)=%s;\n',char(Exys))
fprintf('эксцесс E(y/x)=%s.\n',char(Eyxs))
figure % новая фигура
subplot(1,2,1) % левая половина графика
plot(yt,subs(Mxys,y,yt),'k') % график M(x/y)
xlim([yl yr]) % границы графика по оси OX
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',14); % шрифт
title('\bfУсловное МО\rm \itm_{x\rm/\ity}')
xlabel('\ity')
ylabel('\itm_{x\rm/\ity}')
subplot(1,2,2) % правая половина графика
plot(xt,subs(Myxs,x,xt),'k') % график M(y/x)
xlim([xl xr]) % границы графика по оси OX
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',14); % шрифт
title('\bfУсловное МО\rm \itm_{y\rm/\itx}')
xlabel('\itx')
ylabel('\itm_{y\rm/\itx}')
figure % новая фигура
subplot(1,2,1) % левая половина графика
plot(yt,subs(Dxys,y,yt),'k') % график D(x/y)
xlim([yl yr]) % границы графика по оси OX
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',14); % шрифт
title('\bfУсловная дисперсия\rm \itD_{x\rm/\ity}')
xlabel('\ity')
ylabel('\itD_{x\rm/\ity}')
subplot(1,2,2) % правая половина графика
plot(xt,subs(Dyxs,x,xt),'k') % график D(y/x)
xlim([xl xr]) % границы графика по оси OX
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',14); % шрифт
title('\bfУсловная дисперсия\rm \itD_{y\rm/\itx}')
xlabel('\itx')
ylabel('\itD_{y\rm/\itx}')
Безусловные числовые характеристики:
257
математическое ожидание Mx=-4/3= -1.3333333333;
математическое ожидание My=-1= -1.0000000000;
дисперсия Dx=8/9= 0.8888888889;
дисперсия Dy=1/2= 0.5000000000;
асимметрия Ax=-1/15*8^(1/2)*9^(1/2)= -0.5656854249;
асимметрия Ay=-2/5*2^(1/2)= -0.5656854249;
эксцесс Ex=-3/5= -0.6000000000;
эксцесс Ey=-3/5= -0.6000000000;
смешанный центральный момент Mxy=-1/3= -0.3333333333;
коэффициент корреляции Rxy=-1/2= -0.5000000000.
Условные числовые характеристики:
математическое ожидание M(x/y)=-2/3*y-2;
математическое ожидание M(y/x)=-3/8*x-3/2;
дисперсия D(x/y)=4/27*(y+3)^2;
дисперсия D(y/x)=3/64*(x+4)^2;
асимметрия A(x/y)=0;
асимметрия A(y/x)=0;
эксцесс E(x/y)=-6/5;
эксцесс E(y/x)=-6/5.
-0.5
-0.5
mx/y
my/x
-1
-1
-1.5
-2 -1.5
-3 -2 -1 0 -4 -2 0
y x
258
Условная дисперсия D x/y Условная дисперсия D y/x
1.4 0.8
1.2 0.7
0.6
1
0.5
0.8
D x/y
D y/x
0.4
0.6
0.3
0.4
0.2
0.2 0.1
0 0
-3 -2 -1 0 -4 -2 0
y x
259
1 1
f ( x , y )=
2 π σ x σ y √ 1−ρ
2
exp −
(
2 (1−ρ 2)
×
(5.45)
))
2 2
×
( ( x− mx )
σx
2 −
2ρ ( x−m x )( y− m y ) ( y−m y )
σx σ y
+ 2
σy
.
syms x y mx my sx sy r real
fxy=1/(2*pi*sx*sy*(1-r^2)^(1/2))*exp(-1/(2*(1-r^2))*...
((x-mx)^2/sx^2-2*r*(x-mx)*(y-my)/(sx*sy)+...
(y-my)^2/sy^2));
fx=int(fxy,y,-inf,inf)
fx =
PIECEWISE([1/2*exp(-1/2*(x^2-
2*x*mx+mx^2)/sx^2)/pi^(1/2)/sx/
(1-r^2)^(1/2)*signum(sy)*2^(1/2)/(-1/(-1+r^2))^(1/2),
-signum(-2+2*r^2) = 1],[Inf, otherwise])
260
выбрать нужное значение квадратного корня, добавим операцию вычис-
ления модуля.
fx=simple(simple(abs(subs(fx,{sym('signum(sy)'),...
sym('-signum(-2+2*r^2)')},{1,1}))))
fx =
1/2*exp(-1/2*(x-mx)^2/sx^2)/pi^(1/2)*2^(1/2)/abs(sx)
Int1=int(fxy*(x-mx)*(y-my),y,-inf,inf)
Int1 =
PIECEWISE([1/2*signum(sy)*r*sy*(x-mx)^2*
exp(-1/2*(x^2-2*x*mx+mx^2)/sx^2)*2^(1/2)/
(-1/(-1+r^2))^(1/2)/(1-r^2)^(1/2)/sx^2/pi^(1/2),
-signum(-2+2*r^2) = 1],[Inf, otherwise])
Int1=subs(Int1,{sym('signum(sy)'),...
sym('-signum(-2+2*r^2)')},{1,1})
Int1 =
1/2*r*sy*(x-mx)^2*exp(-1/2*(x^2-2*x*mx+mx^2)/sx^2)*
2^(1/2)/(-1/(-1+r^2))^(1/2)/(1-r^2)^(1/2)/sx^2/pi^(1/2)
Kxy=int(Int1,x,-inf,inf)
Kxy =
r*sy/(-1/(-1+r^2))^(1/2)/(1-r^2)^(1/2)*sx*signum(sx)
261
Подставим нужный знак σx > 0.
Kxy=subs(Kxy,sym('signum(sx)'),1)
Kxy =
r*sy/(-1/(-1+r^2))^(1/2)/(1-r^2)^(1/2)*sx
f ( x, y ) =
1
2πσ xσy
exp − 2
2σ x
2
−
(
( x− mx ) ( y−m y )
2
2σ y
=
2
) (5.46)
( x−mx ) ( y−m y)
− −
1 2 σ 2x 1 2 σ 2y
= e e = f ( x ) f ( y) ,
σ x √2 π σy √2 π
fyfx=simple(simple(fxy/fx))
fyfx =
1/sx/sy/(-2*pi*(-1+r^2))^(1/2)*exp(1/2*(-sx*y+sx*my+
sy*r*x-sy*r*mx)^2/(r-1)/(r+1)/sx^2/sy^2)*abs(sx)
262
Несмотря на двойное применение функции simple, выражение по-
лучилось не очень простым. Упростим его дополнительно вручную:
2
f ( y / x )=
∣σ x∣
σ x σ y √ 2 π ( 1−ρ )
2
exp −
(
(−σ x y+σ x m y+σ y ρ x−σ y ρ mx )
2 2 2
2 ( 1−ρ ) σ x σ y
=
)
2
( ( )
)
σy
( y−m y )− ρ ( x− mx )
1 σx
= exp − =
√ 2 π σ y √ 1−ρ 2 2
2 σ y ( 1−ρ
2
)
2
( ( ( ))
)
σy
y− my + ρ ( x− mx )
1 σx
= exp − .
σ y √ 1−ρ 2 √ 2π
2 2
2σ y ( 1−ρ )
Получилось опять нормальное распределение. Его параметры яв-
ляются условными МО и СКО:
σy
m y / x= my +ρ ( x− mx ) ;
σx (5.47)
σ y/ x =σ y √ 1−ρ2 ;
263
2 2
( x−mx ) 2ρ ( x− mx )( y−m y ) ( y− my ) 2
2 − + 2 =λ ⩾0 . (5.49)
σx σx σ y σy
Из-за того, что ρ ∈ [–1; 1], полученное выражение будет неотрицатель-
ным (проверьте!), поэтому мы обозначили его λ2. Для дальнейших вы-
кладок вспомните исследование кривых 2-го порядка. Выясним тип кри-
вой (5.49). Обозначим коэффициенты при квадратах переменных:
1 ρ 1
A= 2; B=− ; C= 2 ; (5.50)
σx σx σ y σy
и вычислим
2
2 1−ρ
AC −B = 2 2 . (5.51)
σ xσ y
Получается, что при ρ ≠ ±1 кривая (5.49) является кривой эллиптического
типа, а при ρ = ±1 – параболического. Если ρ ≠ ±1, то кривая эллиптиче-
ского типа (5.49) может быть приведена к главным осям путем парал-
лельного переноса:
{ x= x 1+m x ;
y= y1 +m y ; (5.52)
2B 2ρ σ x σ y
tg 2α= = . (5.53)
A−C σ 2x −σ 2y
Формулы поворота имеют вид:
264
{
2 2
1 cos α 2ρ sin α cosα sin α
= − + 2 ;
σ 2ξ σ 2x σ xσ y σy
2 2 (5.56)
1 sin α 2ρsin α cos α cos α
2= 2 + + 2 .
ση σx σx σ y σy
В новых координатах (ξ, η) выражение (5.49) переходит в (5.55), поэтому
плотность распределения (5.45) будет иметь вид:
2
f ( ξ, η )=
1
e
− 1
2( ξ2 + η
2
2 ( 1−ρ ) σ ξ σ η
2 ). (5.57)
2π σ x σ y √1−ρ
2
265
Обобщением двумерного является многомерное нормальное распре-
деление. Выражение для его многомерной плотности приведено в элек-
тронной версии книги. В MATLAB имеются две функции для работы с
многомерным нормальным распределением:
• mvnpdf – плотность распределения;
• mvnrnd – случайные числа c многомерным нормальным распределе-
нием.
266
Глава 6. Функции случайных величин
Пример 6.1. Пусть имеются случайные величины F – условно-по-
стоянные издержки производства, P – цена единицы продукции, а C –
условно-переменные издержки на единицу продукции, и известны их за-
коны распределения (или трёхмерный закон, если эти величины зависи-
мые). Объём продаж, соответствующий точке безубыточности, находится
по формуле:
F
V= . (6.1)
P−C
Как найти закон распределения случайной величины V?
Пример 6.2. Случайные величины T1, T2, …, Tn – время эксплуата-
ции элемента схемы, а
T = f ( T 1 , T 2 , …, T n ) (6.2)
– время эксплуатации всего прибора (известная функция). Зная законы
распределения T1, T2, …, Tn и вид функции (6.2), требуется найти закон
распределения величины T.
Подобные задачи часто встречаются в экономике, физике, технике и
других отраслях человеческой деятельности. Общая их постановка сле-
дующая. Есть случайная величина, в общем случае l-мерная, X. Она пол-
ностью определена в статистическом смысле, т. е. для неё известны
многомерный закон распределения, если она дискретная, или многомер-
ная плотность распределения, если она непрерывная. От X зависит дру-
гой вектор Y, в общем случае другой размерности m. Это значит, что за-
даны m функций l переменных, связывающие координаты X и Y:
{
Y 1= y 1 ( X 1 , X 2 , …, X l ) ;
Y 2= y 2 ( X 1 , X 2 ,…, X l ) ;
(6.3)
…
Y m = y m ( X 1 , X 2 ,…, X l ) .
267
Y = y ( X ), (6.4)
где y – вектор-функция вектора-аргумента. Требуется определить сов-
местный закон распределения координат Y (в дискретном случае) или их
совместную плотность распределения (в непрерывном). Как правило,
dim(Y) ≤ dim(X).
Далее при необходимости по закону (плотности) распределения на-
ходятся другие характеристики: функции распределения, МО, дисперсии
и т. д. (безусловные и условные).
xk x1 x2 … xn
pk p1 p2 … pn
268
дится к добавлению в таблицу 6.1 ещё одной, третьей строки, в ячейки
которой записываются значения yk = y(xk) (таблица 6.2). При необходимо-
сти столбцы этой таблицы можно переставить, чтобы yk монотонно воз-
растали.
xk x1 x2 … xn
pk p1 p2 … pn
yk y(x1) y(x2) … y(xn)
269
xlabel('\ity_k') % метки осей
ylabel('\itp_k')
Законы распределения X и Y
xk pk yk
0 0.1073741824 0
1 0.2684354560 1
2 0.3019898880 4
3 0.2013265920 9
4 0.0880803840 16
5 0.0264241152 25
6 0.0055050240 36
7 0.0007864320 49
8 0.0000737280 64
9 0.0000040960 81
10 0.0000001024 100
Закон распределения Y
0.35
0.3
0.25
0.2
pk
0.15
0.1
0.05
0
0 20 40 60 80 100
yk
270
Рассмотрим теперь случай, когда функция (6.5) не является взаимно-
однозначной: одному xk по-прежнему соответствует единственное значе-
ние yk, но некоторые yk могут получаться из нескольких xk. Пусть, напри-
мер, значение yk получается из r различных значений X: x k , 1
x k , …,
2
из r несовместных событий: ( X = x k ) ,
1
( X =xk ),
2
…, ( X = x k ) , и только
r
271
yxk=(xk-5).^2; % возможные значения Y
yk=unique(yxk); % уникальные значения Y
for k=1:length(yk), % суммируем pk
num=find(yxk==yk(k)); % совпадающие номера
pyk(k)=sum(pxk(num)); % суммируем по ним
end
disp('Закон распределения Y')
disp(' yk pk')
fprintf('%8.0f %12.10f\n',[yk;pyk])
plot(yk,pyk,'k-',yk,pyk,'k.')
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
xlim([yk(1) yk(end)]); % границы по оси OX
title('\bfЗакон распределения\rm \itY') % заголовок
xlabel('\ity_k') % метки осей
ylabel('\itp_k')
Закон распределения Y
yk pk
0 0.0264241152
1 0.0935854080
4 0.2021130240
9 0.3020636160
16 0.2684395520
25 0.1073742848
272
Закон распределения Y
0.35
0.3
0.25
0.2
pk
0.15
0.1
0.05
0
0 5 10 15 20 25
yk
{
U = u ( X ,Y ) ;
V =v ( X , Y ) ;
(6.7)
273
Принцип здесь тот же, что и для одномерных величин. Если преоб-
разование (6.7) взаимно-однозначное, то каждая точка {ui, vj} получается
из единственной точки {xi, yj}, и P((U = ui) ∩ (V = vj)) =
= P((X = xi) ∩ (Y = yj)) = pij. Если же какая-либо точка {ui, vj} получается из
нескольких точек {xi, yj} (т. е. (6.7) не является взаимно-однозначным), то
нужно суммировать вероятности pij по тем {xi, yj}, которые после при-
менения преобразования (6.7) переходят в одну {ui, vj}. Этот же подход
применяется и для величин бóльших размерностей.
Пример 6.5. Исходные данные для него взяты из примера 5.2. Дву-
мерная дискретная случайная величина {X, Y} имеет возможные значе-
ния xi в виде целых чисел от –5 до 5, а возможные значения yj – это числа
от 0 до 1 с шагом 0,2. Закон распределения задается формулой (5.3), где
k – множитель, подбираемый из условия нормировки (5.1). Случайный
вектор {U, V} связан с {X, Y} соотношениями:
274
y=y(:);
pij=pij(:);
u=x+10*y-5; % новые аргументы
v=y-0.1*x+1;
uv=u+i*v; % комплексный вектор для сравнения
uvuni=unique(uv); % ищем уникальные строки
for k=1:length(uvuni), % суммируем pij
num=find(uv==uvuni(k)); % совпадающие номера
pk(k)=sum(pij(num)); % суммируем по ним
end
stem3(real(uvuni),imag(uvuni),pk','k-','filled')
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title('\bfЗакон распределения\rm \{\itU\rm, \itV\rm\}')
xlabel('\itu_k') % метки осей
ylabel('\itv_k')
zlabel('\itp_k')
view(120,35) % выбрали точку просмотра
0.08
0.06
0.04
pk
0.02
-10
0
0.5 0
1
1.5
2
2.5 10 uk
vk
275
Если размерности векторов разные, то задача решается так же. По
известным точкам вектора X вычисляются точки вектора Y, и, если
встретятся одинаковые, суммируются соответствующие вероятности.
Пример 6.6. Используются те же исходные данные из примера 5.2.
Случайная величина Z является функцией вектора {X, Y}:
2 2
Z = X + 25Y . (6.9)
276
disp(' zk pk')
fprintf('%8.0f %12.10f\n',[zk';pk])
plot(zk',pk,'k-',zk',pk,'k.')
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',14); % шрифт
xlim([zk(1) zk(end)]); % границы по оси OX
title('\bfЗакон распределения\rm \itZ') % заголовок
xlabel('\itz_k') % метки осей
ylabel('\itp_k')
Закон распределения Z
zk pk
0 0.0245716623
1 0.0848393774
2 0.0762615825
4 0.0752121726
5 0.1463630693
8 0.0744539782
9 0.0468823756
10 0.0981952968
13 0.1061162975
16 0.0200134421
17 0.0448417445
18 0.0399826010
20 0.0512924503
25 0.0463916050
26 0.0140210530
29 0.0170031668
32 0.0106151560
34 0.0140448169
41 0.0075460727
50 0.0013520798
277
Закон распределения Z
0.16
0.14
0.12
0.1
0.08
pk
0.06
0.04
0.02
0
0 10 20 30 40 50
zk
Рисунок 6.4 – Многоугольник распределения
величины Z = X2 + 25Y2
278
Таблица 6.3. Ряд распределения двумерной дискретной
равномерной величины с независимыми координатами
yj\xi 1 2 3 … k
1 1 / nk 1 / nk 1 / nk … 1 / nk
2 1 / nk 1 / nk 1 / nk … 1 / nk
3 1 / nk 1 / nk 1 / nk … 1 / nk
… … … … … …
n 1 / nk 1 / nk 1 / nk … 1 / nk
279
свою длину на 1. Поэтому закон распределения Z имеет вид:
{
l −1
; l ∈[ 2, min ( n, k ) +1 ] ;
nk
min ( n, k )
pl = ; l ∈[ min ( n , k ) +2, max ( n, k ) +1 ] ; (6.10)
nk
n+k+1−l
; l ∈[ max ( n , k ) +2, n+k ] .
nk
280
расположенные на каждой побочной диагонали. Из-за бесконечного раз-
мера таблицы таких диагоналей тоже будет бесконечное количество. Вы-
числяем:
l l − ( λ+μ ) l
λ i μl−i − ( λ+μ ) e−( λ+μ ) l! e
P ( Z =l )=∑ e = ∑ λ i l −i
μ = ∑ C i λi μ l−i .
i=0 i ! ( l −i ) ! l ! i=0 i! ( l −i ) ! l ! i =0 l
Сумма сворачивается по биному Ньютона в (λ+µ)l, поэтому распределе-
ние величины Z также будет пуассоновским с параметром (λ+µ):
l
( λ+μ ) (6.12)
pl = e−( λ+μ) ; l=0, 1, 2, … .
l!
281
M ( C X ) =C m x . (6.13)
Доказательство. Пусть случайная величина X имеет некоторый за-
кон распределения (таблица 6.1), а Y = CX. Возможные значения величи-
ны Y – это yi = Cxi, а вероятности их появления – те же pi, что и у xi. Нахо-
n n n
дим МО величины Y: M ( CX ) =m y =∑ y i p i=∑ Cxi pi =C ∑ x i pi =C m x ,
i=1 i=1 i =1
n n
2 2
= ∑ (C x i −C mx ) pi =C 2 ∑ ( xi −m x ) pi =C 2 D x , что и требовалось дока-
i =1 i =1
зать.
Отсюда следует, что постоянный сомножитель выносится за знак
СКО по модулю:
σ ( C X )=√ D y =√ C 2 D x =∣C∣D x . (6.15)
Следующая пара свойств относится к сумме случайных величин.
Свойство 6.3. МО суммы случайных величин равно сумме МО сла-
гаемых:
M ( X +Y ) =m x +m y . (6.16)
Доказательство. Пусть двумерная случайная величина {X, Y} зада-
на своим законом распределения (таблица 5.3), а Z = X + Y. Возможные
значения величины Z – это все различные числа вида zl = xi + yj, где xi –
282
допустимые значения X, а yj – допустимые значения Y. Вероятности их
появления – это pij, если xi + yj встречается один раз, или сумма pij в
случае повторяющихся значений. Обозначим эти вероятности через pl.
Ищем МО величины Z: M ( X +Y ) =m z =∑ z l p l . Если в этом выражении
∀l
283
k n k n k n
2 2
= ∑ ∑ ( x i −mx ) pij +2 ∑ ∑ ( x i− mx )( y j − my ) pij + ∑ ∑ ( y j −m y ) p ij =
i =1 j=1 i =1 j=1 i=1 j=1
D ( X +Y ) = D x + D y . (6.19)
D ( X +Y +Z ) = D x + D y + D z +2 m xy +2 m xz+ 2 m yz . (6.20)
M ( XY )=m x m y +m xy . (6.22)
284
Доказательство. Пусть двумерная случайная величина {X, Y} зада-
на своим законом распределения, а Z = XY. Возможные значения величи-
ны Z – это все различные числа вида zl = xiyj, где xi – допустимые значения
X, а yj – допустимые значения Y. Вероятности их появления – это pij, если
xiyj встречается один раз, или сумма pij в случае повторяющихся значе-
ний. Обозначим эти вероятности через pl. Ищем МО величины Z:
M ( X Y ) =m z =∑ z l pl . Если в этом выражении некоторые pl образованы
∀l
Вторая и третья суммы по свойству 3.12 обращаются в нуль (это 1-е цен-
тральные моменты), а четвёртая равна единице по условию нормиров-
ки.
В частности, для некоррелированных величин (и, следовательно, для
независимых) МО произведения равно произведению МО:
M ( X Y ) =m x m y . (6.23)
285
мы можем представить M(X2Y2) = M(X2)M(Y2). Далее используем свой-
ство 3.15, по которому D x = M ( X 2 ) −m2x :
2 2 2 2 2 2
D ( X Y ) =( Dx + mx )( D y +m y )−m x m y = D x D y +mx D y +m y D x , что и требо-
валось доказать.
y y
y + dy
y y
y + dy
dy > 0 dy < 0
x x
0 x x +dx 0 x x +dx
dx > 0 dx > 0
286
P ( x⩽ X < x+dx )
По определению f ( x ) = , но событие (x ≤ X < x + dx)
dx
происходит тогда и только тогда, когда (y ≤ Y < y + dy) для монотонно-воз-
растающей величины или (y + dy ≤ Y < y) для монотонно-убывающей. Зна-
чит, и вероятности этих событий одинаковые. Теперь можно найти плот-
ность распределения Y. Для монотонно-возрастающей функции:
P ( y⩽Y < y+dy ) P ( x⩽ X < x+dx ) dx
f ( y )= = = f ( x ( y ) ) x' ( y ) ,
dy dx dy
где x(y) – функция, обратная (6.5), а x'(y) – её производная. Для моно-
тонно-убывающей функции нужно вместо dy взять –dy, чтобы плотность
распределения получилась положительной:
P ( y+dy⩽Y < y ) P ( x⩽ X < x+dx ) dx
f ( y )=
−dy
=
dx
−
dy ( )
= f ( x ( y ) )( − x ' ( y ) ) .
Объединяя эти случаи, получаем выражение для плотности распределе-
ния f(y) в случае монотонной зависимости (6.5):
f ( x)=
{
1; x ∈ ( 0 ; 1 ] ;
0 ; x ∉(0 ; 1 ] ;
(6.26)
x=e
−λ y
; x '=−λ e
−λ y
; ∣x'∣= λ e
−λ y
. (6.28)
287
f(x ) y
y = − lnX
1 λ
0 1 x 0 1 x
а б
Рисунок 6.6 – Графики функций f(x) (а) и Y = y(X) (б) в примере 6.9
f ( y )=
{ 0;
−λ y
y<0 ;
λ e ; y⩾ 0.
(6.29)
288
2
( x−mx )
−
1 2 σ 2x
f ( x)= e , (6.30)
σ x √2 π
а Y линейно зависит от X:
Y =kX +b . (6.31)
Найти закон распределения Y.
Решение. Находим функцию, обратную к (6.31), и модуль её произ-
водной:
y−b 1 1
x= ; x ' = ; ∣x '∣= . (6.32)
k k ∣k∣
(( )
y−b
f ( y )= f ( x ( y ) )∣x ' ( y )∣=
1
exp −
k
−m x ) 1
=
σ x √ 2π 2 σ 2x ∣k∣
2
( )
2
( y−( km x+b ))
=
1
σ x ∣k∣√ 2 π
exp −
(( y−b−km x )
2 2
2 k σx
=
1
)
σ x∣k∣√ 2π
exp − 2 2
2 k σx
.
289
{
3
( )
f ( y )= k y −8 y+11 ; y∈ [ 1; 3 ] ;
0; y∉ [ 1; 3 ] ; (6.34)
290
fypl=subs(fy,y,ypl);
plot(ypl,fypl,'k-') % график плотности распределения
xlim([y1 y2]) % границы графика по осям
ylim([0 1.05*max(fypl)])
set(get(gcf,'CurrentAxes'),...
'FontName','Times New Roman Cyr','FontSize',10); % шрифт
title('\bfПлотность распределения\rm \itY') % заголовок
xlabel('\ity') % метки осей
ylabel('\itf\rm(\ity\rm)')
Нормирующий множитель k=1/10= 0.1000000000
Плотность распределения f(y)=1/10*y^3-4/5*y+11/10
Плотность распределения Y
1.4
1.2
0.8
f(y)
0.6
0.4
0.2
0
1 1.5 2 2.5 3
y
Рисунок 6.7 – График плотности распределения (6.34)
291
при этом гарантирует, что правая граница y = 3 перейдет в правую
границу x = 1.
После интегрирования находим обратную функцию. Если их полу-
чается несколько, выбираем ту, которая переводит отрезок [0; 1] в [1; 3].
xy=int(fy,y); % интегрируем
c=-subs(xy,y,y1); % определили постоянную
xy=xy+c; % обратное преобразование
disp('Обратное преобразование:')
fprintf('x=%s\n',char(xy))
sol=solve(xy-x,y); % находим обратное преобразование
lsol=length(sol); % количество найденных решений
fprintf('Количество найденных решений = %d\n',lsol)
yb=[subs(sol,x,0) subs(sol,x,1)]; % решения в точках 0 и 1
vn=find(sum(abs(yb-repmat([y1 y2],lsol,1)),2)<1e3*eps);
solvn=simple(sol(vn)); % упростили нужное решение
fprintf('Подходит решение %d:\ny=%s\n',vn,char(solvn))
Обратное преобразование:
x=1/40*y^4-2/5*y^2+11/10*y-29/40
Количество найденных решений = 4
Подходит решение 3:
y=-1/6*(96+6*(667-2880*x+6*(12696-101430*x+
258000*x^2+48000*x^3)^(1/2))^(1/3)-138/(667-
2880*x+6*(12696-101430*x+258000*x^2+
48000*x^3)^(1/2))^(1/3)-720/(667-2880*x+
6*(12696-101430*x+258000*x^2+
48000*x^3)^(1/2))^(1/3)*x)^(1/2)+1/6*6^(1/2)*
(32-(667-2880*x+6*(12696-101430*x+258000*x^2+
48000*x^3)^(1/2))^(1/3)+23/(667-2880*x+6*
(12696-101430*x+258000*x^2+48000*
x^3)^(1/2))^(1/3)+120/(667-2880*x+6*(12696-
101430*x+258000*x^2+48000*x^3)^(1/2))^(1/3)*x+
396/(96+6*(667-2880*x+6*(12696-101430*x+
292
258000*x^2+48000*x^3)^(1/2))^(1/3)-
138/(667-2880*x+6*(12696-101430*x+258000*x^2+
48000*x^3)^(1/2))^(1/3)-720/(667-2880*x+6*
(12696-101430*x+258000*x^2+48000*
x^3)^(1/2))^(1/3)*x)^(1/2))^(1/2)
293
Гистограмма распределения Y
350
300
250
200
nj
150
100
50
0
1 1.5 2 2.5 3
yj
y
dy
y + dy
y
x2 +dx2 x4 +dx4 x
0 x1 x1 +dx1 x2 x3 x3 +dx3 x4
dx1 dx2 dx3 dx4
294
Обозначим через n количество участков монотонности функции y(x).
Каждый из них имеет свою обратную функцию X = xi(Y). Событие
(y ≤ Y < y + dy) произойдёт при наступлении хотя бы одного из n несов-
местных событий Ai = (xi ≤ X < xi + dxi) или Ai = (xi + dxi ≤ X < xi) в зависимо-
сти от возрастания или убывания функции X = xi(Y). По следствию 2.5 из
n
n
P ( y⩽Y < y+dy ) P ( Ai ) ∣dx i∣ n
f ( y )= =∑ =∑ f ( x i ( y ) )∣x 'i ( y )∣. (6.35)
dy i =1 ∣dx ∣
i dy i =1
{
1
; x∈ (−π ; π ) ;
f ( x)= 2 π (6.36)
0 ; x∉ (−π ; π ) .
f ( y )=
1
∣−
1
+
1
∣ 1
=
1
2π √ 1− y 2 2 π √ 1− y2 π √ 1− y 2
. (6.37)
295
f(x )
1
2π
−π 0 π x
а x
π
y x1 = arccosy
1 y = cos x
−π π 1
0 x 0 y
x2 = − arccosy
−π
б в
{
0; y<−π ;
y
1 1
F ( y ) =∫ f ( η) d η= π arcsin y+ ; −π⩽ y<π ; (6.38)
−∞ 2
1; y⩾π .
296
f(y )
F( y )
1
1
π
−π 0 π y −π 0 π y
а б
{ U=u( X , Y ) ;
V =v ( X , Y ) .
(6.39)
{ X = x (U , V );
Y = y (U , V ) . (6.40)
Это значит, что точка M0(x0, y0) после применения (6.39) преобразуется в
единственную точку N0(u0, v0), а эта точка после применения (6.40)
преобразуется в единственную точку, причём в ту же самую M0(x0, y0). Бу-
297
дем также считать функции (6.39) и (6.40) непрерывными и дифферен-
цируемыми.
Выделим бесконечно малую окрестность dSxy на плоскости xOy в
окрестности M0(x0, y0). На плоскости uOv ей соответствует бесконечно
малая область dSuv в окрестности точки N0(u0, v0). Площади областей так-
же будем обозначать dSxy и dSuv. Событие ({X, Y} ∈ dSxy) происходит тогда
и только тогда, когда ({U, V} ∈ dSuv), поэтому их вероятности одинаковые.
Тогда
P ( { U ,V } ∈dS uv ) P ( { X , Y } ∈dS xy ) dS xy dS
f ( u, v )= = = f ( x ( u , v ) , y ( u , v ) ) xy .
dS uv dS xy dS uv dS uv
Осталось найти отношение площадей бесконечно малых элементов
dSxy / dSuv. Эта величина является двумерным аналогом модуля производ-
ной |x'(y)| в формуле (6.25). В одномерном случае |x'(y)| – это коэффици-
ент растяжения длины бесконечно малого элемента dy при преобразова-
нии, обратном к (6.5). Здесь, в двумерном случае, dSxy / dSuv – это коэффи-
циент растяжения площади бесконечно малого элемента при преобразо-
вании (6.40). Найдём его. Для этого выделим бесконечно малый элемент
двумя парами близко расположенных линий: u = u0; u = u0 + du и v = v0;
v = v0 + dv. На плоскости uOv эти линии прямые, поэтому dSuv – это прямо-
угольник. Он показан на рис. 6.12, а. Его площадь равна: dSuv = |dudv|.
Теперь проведём эти же линии на плоскости xOy. Преобразование
(6.40) в общем случае нелинейное, значит, эти линии уже не обязательно
будут прямыми. Параметрические уравнения, например, линии u = u0
получаются, если подставить это выражение в (6.40):
{ x=x ( u0 , v ) ;
y= y ( u0 , v ) .
(6.41)
298
v y v = v0 + dv
v = v0 + dv dSxy
N2 N3 dSuv M2 v = v0
M3 M0 u = u0
N0 N1
v = v0 M1
u x
0 0
u = u0 + du
u = u0 u = u0 + du
{ x 0=x ( u0 , v0 ) ;
y 0= y ( u0 , v 0 ) ;
(6.42)
{ x1 = x ( u0 +du , v 0 )= x0 + x'u du ;
'
y 1= y ( u0 +du , v 0 )= y 0+ y u du ;
(6.43)
{ x 2= x ( u0 , v 0+ dv )= x0 + x'v dv ;
'
y 2= y ( u0 , v 0+ dv )= y 0+ y v dv ;
(6.44)
299
торного произведения M 0 M 1× M 0 M 2 . Считаем:
∣∣ ∣
i j k
∣ ∣ ∣
i j k ' '
' ' xu yu
M 0 M 1× M 0 M 2= x 2−x 1 y2 −y 1 0 = xu y u 0 dudv= dudv k .
x 3−x 1 y 3− y 1 0 ' ' x 'v y'
v
xv yv 0
Определитель, входящий в это выражение, называется якобианом преоб-
разования (6.40), и обозначается:
∣ ∣
' '
x, y xu yu
J ( )
u ,v
= '
xv
'.
yv
(6.46)
dS xy= J
∣ ( )∣∣
x, y
u ,v
dudv∣, (6.47)
∣ ( )∣
f ( u, v )= f ( x ( u , v ) , y ( u , v ) ) J
x,y
u,v
. (6.48)
{
U =u ( X , Y , Z ) ;
V =v ( X , Y , Z ) ; (6.49)
W =w ( X , Y , Z ) ;
то задача решается аналогично. Предположим, что существует
единственное обратное преобразование:
300
{
X =x ( U , V , W ) ;
Y = y (U , V , W ) ; (6.50)
Z = z ( U ,V , W ) .
∣ ∣
' ' '
xu yu zu
x,y,z
J (
u, v , w
'
)
= x 'v '
yv
'
'
zv .
'
(6.51)
xw yw zw
∣(
f ( u, v , w ) = f ( x ( u , v , w ) , y ( u , v , w ) , z ( u , v , w ) ) J
u,v ,w )∣
x, y , z
. (6.52)
301
Отметим без вывода, что этот же принцип применим и к векторам
более высоких размерностей. Если задано взаимно-однозначное преоб-
разование (6.4), то
f ( y )= f ( x ( y ) ) J
∣ ( )∣ x
y
, (6.53)
y1 y y z M
M θ
x1
r
ρ z
y
α ϕ y
x x x, ρ x0 ϕ
0 0
y
x
а б в
302
x 2+ y 2
1 −
2σ 2
f ( x, y ) = 2e . (6.55)
2πσ
При повороте на угол α старые координаты выражаются через новые по
формулам:
{ x= x1 cosα− y1 sin α ;
y= x 1 sin α+ y 1 cos α . (6.56)
J
( xx ,, yy )=∣−sin
1 1
cos α
α
sin α =1.
cos α ∣ (6.57)
303
распределения – (6.55). Формулы перехода от полярных координат к де-
картовым записываются так:
{ x=ρ cos φ;
x=ρ sin φ .
(6.59)
J ( ρx ,, φy )=∣−ρsin
cos φ
φ
sin φ
ρ cos φ
=ρ. ∣ (6.60)
304
{
x=r sin θcos φ;
y=r sin θ sin φ ; (6.63)
z=r cosθ.
Вычисляем якобиан преобразования (6.63):
∣ ∣∣
x'r y 'r z 'r
∣
sin θcos φ sin θsin φ cosθ
x, y ,z
J (
r ,θ ,φ
= x'θ
'
) ' '
y θ z θ = r cos θcos φ r cos θsin φ −r sin θ =
' ' −r sin θsin φ r sin θcos φ 0
xφ yφ z φ
J ( xr ,,θy,φ, z )= r sin θ.
2
(6.64)
f ( r , θ, φ ) = 3 e . (6.65)
2 3
( 2π ) σ
Полученное распределение не зависит от долготы ϕ (является рав-
номерным по ϕ). Множитель 1 / 2π можно выделить в выражении (6.65) и
считать его f(ϕ). Широта θ ∈ [0; π], и в выражении (6.65) выделяется
множитель sinθ, который вместе с постоянным нормирующим со-
множителем можно рассматривать как f(θ). Остаётся только функция от
r, которая является одномерной плотностью распределения f(r). Т. о., сов-
местную плотность распределения координат R, Θ, Φ можно предста-
вить в виде произведения одномерных плотностей. Следовательно, рас-
пределение каждой сферической координаты независимо от остальных.
При этом распределение Φ будет равномерным, Θ распределена по сину-
соидальному закону, а распределение R мы рассмотрим подробно в
примере 6.22.
305
6.2.3. Функция многомерной непрерывной величины
Если в преобразовании (6.3)-(6.4) dim(Y) > dim(X), мы обычно мо-
жем отбросить лишние (зависимые от остальных) координаты Y. Поэто-
му, как правило, размерность Y не превышает размерности X. Иногда это
вообще может быть одна функция l-мерного вектора X:
Y = y ( X )= y ( X 1 , X 2 , …, X l ) . (6.66)
Пусть для непрерывного вектора X задана многомерная плотность
распределения f(x), и есть преобразование (6.3)-(6.4) к вектору Y мень-
шей размерности. В частном случае это может быть даже преобразова-
ние к одномерной величине (6.66). Требуется найти совместную плот-
ность распределения f(y) (или одномерную плотность f(y) для преобразо-
вания (6.66)).
Эта задача решается следующим образом. Дополним вектор Y до
размерности l новыми координатами так, чтобы преобразование (6.3)
стало взаимно-однозначным. Например, в преобразовании (6.66) можно
просто переобозначить l – 1 координат вектора X:
{
y 1= x 1 ;
…
(6.67)
y l−1 = xl −1 ;
y l = y ( x 1 , x 2 ,…, x l ) .
{
x1 =y 1 ;
…
xl−1= yl −1 ; (6.68)
xl = y−1 ( y 1 ,…, y l−1 , yl ) ;
где через y–1 обозначена функция, обратная к (6.66) относительно xl. Но,
конечно, (6.67) не является единственно возможным вариантом дополне-
306
ния преобразования до l-мерного. Важно только, чтобы дополненное
преобразование было взаимно-однозначным.
Затем по формуле (6.53) находим плотность распределения l-мерно-
го вектора Y. И, наконец, по формулам, аналогичным (5.35), вычисляем
плотность распределения вектора Y меньшей размерности. Для этого ин-
тегрируем в пределах (–∞; +∞) по дополнительным переменным.
Пример 6.16. Задана многомерная плотность распределения f(x)
координат l-мерного вектора X, и одна функция y этих l переменных вида
(6.66). Требуется найти f(y).
Решение. Дополним функцию (6.66) до функционального преоб-
разования обозначениями (6.67). Будем предполагать, что обратное
преобразование (6.68) однозначное. Найдём его якобиан:
∣ ∣
∂ xl
1 … 0
∂ y1
… … … … ∂x
x
J( )
y
=
0 … 1
∂ xl = l .
∂ yl −1
∂ yl
(6.69)
∂ xl
0 … 0
∂ yl
∣ ( )∣
f ( y )= f ( x ( y ) ) J
x
y
= f ( y 1 , …, y l −1 , y−1 ( y 1 ,…, y l −1 , y l ))
∣ ∣
∂ xl
∂ yl
. (6.70)
307
{TZ == XX +Y
;
. (6.72)
Обратное преобразование:
f tz ( t , z ) = f xy ( t , z−t ) . (6.75)
f ( z ) = ∫ f xy ( t , z−t ) dt . (6.76)
−∞
F ( z ) =∫ f ( ζ ) d ζ =∫ d ζ ∫ f xy ( t , ζ−t ) dt . (6.77)
−∞ −∞ −∞
F ( z ) =P ( X +Y < z ) = P ( { X , Y } ∈ D ) =∬ f xy ( x , y ) dS , (6.78)
D
308
y y
z =x +y
D D z = xy
0 x 0 x
а б
Обратное преобразование:
{
X =T ;
Z (6.80)
Y= .
T
∣ ∣
z
1 − 2
x, y t =1 .
J ( )
t,z
=
0
1 t
(6.81)
t
f tz ( t , z ) = f xy ( t , zt )∣1t ∣; (6.82)
309
а одномерная плотность распределения f(z):
+∞ 0 +∞
f ( z ) =∫ f
−∞
xy ( )∣ ∣
t,
z 1
t t
dt =−∫ f
−∞
xy ( )
t,
z dt
t t
+∫ f
0
xy (t , zt ) dtt . (6.83)
или
F ( z ) =P ( XY < z ) = P ( { X , Y } ∈ D )=∬ f xy ( x , y ) dS ,
D (6.85)
f ( z ) = ∫ f y ( y ) dy . (6.87)
z −1
310
z
{
0; z∉ [ 0; 2 ) ;
f ( z )= z ; 0⩽ z<1; (6.88)
2− z ; 1⩽ z<2.
fy(y) f(z)
1 1
y z
y=z−1 0 y=z 1 0 1 2
)∣
z 1 z 2 2
−∞ 0 1
1
F ( z ) = ∫ f ( ζ ) d ζ =∫ ζ d ζ+∫ ( 2− ζ ) d ζ= + 2 ζ−
2
ζ
2 ( 1
=−
z
2
+2 z −1 . И,
311
{
0; z <0;
2
z
; 0⩽ z<1;
F ( z )= 2 2 (6.89)
z
− + 2 z−1; 1⩽ z <2;
2
1; z ⩾2.
y F(z)
1 y=z−1 1
D x z
0 1 0 1 2
x=z z=x+y
312
2
z 1
=− +2 z − . При z ≥ 2 прямая x + y = z оставляет весь квадрат слева и
2 2
ниже себя, поэтому здесь F(z) = 1. Как видим, при любом способе вычис-
ления F(z) одна и та же.
Пример 6.20. Каждая из трёх независимых величин имеет равно-
мерное распределение на отрезке [0; 1]. Найти плотность распределения
их суммы.
Решение. Мы уже нашли плотность распределения суммы двух не-
зависимых равномерно распределённых величин (6.88). Прибавим к ним
ещё и третью. Обозначим её через U, а сумму трёх величин через V. Име-
ем: V = Z + U, а fuz(u, z) = fu(u)fz(z) в силу независимости слагаемых. Далее
применяем формулу (6.76):
+∞ 1
f ( v ) = ∫ f z ( z ) dz . (6.91)
v−1
)∣ =−v + 3v− 32 .
1 v
∣ (
2
z z
f ( v ) = ∫ zdz+∫ ( 2− z ) dz= + 2 z− 2
v−1 1 2 v−1 2 1
313
fz(z) f(v)
1 1
0,75
0,5
z v
0 1 2 0 1 2 3
z=y−1 z=y
)∣
2 2 2
( v−1 ) v 2
v−1
(
f ( v ) = ∫ ( 2− z ) dz= 2 z−
z
2 v−1
=2− 2 ( v−1 )+
2 2
9
= −3 v+ .
2
Когда промежуток интегрирования сдвинется еще дальше вправо,
при v ≥ 3, на нём подынтегральная функция опять нулевая, и f(v) = 0. Име-
ем выражение для f(v):
{
0; v∉ [ 0 ; 3 ) ;
v2
; 0⩽v<1 ;
2
f ( v )= 2 3 (6.92)
−v +3 v− ; 1⩽v<2 ;
2
2
v 9
−3 v+ ; 2⩽ v<3 .
2 2
314
полним её полярным углом Φ до двумерного вектора {Ρ, Φ}. В приме-
ре 6.14 мы нашли совместную плотность распределения полярных коор-
динат (6.61). Чтобы теперь найти одномерную плотность распределения
f(ρ), нужно проинтегрировать f(ρ, ϕ) по ϕ во всем промежутке его изме-
2π ρ2 2 π ρ2
ρ − ρ −
f ( ρ ) =∫ ∫ d φ= σ 2 e 2 σ , и это выраже-
2 2
нения: f ( ρ , φ ) d φ= 2
e 2σ
0 2π σ 0
{
0; ρ<0 ;
2
f (ρ)= ρ − ρ 2 (6.93)
2σ
2e ; ρ⩾0 .
σ
Это распределение называется рэлеевским в
честь Джона Уильяма Стратта Рэлея (John
William Strutt Rayleigh, 1842-1919, рис. 6.18). В
MATLAB Statistics Toolbox есть следующие функ-
ции для работы с рэлеевским распределением,
описанные в электронной версии книги:
• raylpdf – плотность рэлеевского распреде-
ления;
• raylcdf – функция рэлеевского распределе-
ния; Рисунок 6.18 – Джон
Уильям Стратт Рэлей
• raylinv – квантили рэлеевского распределе-
ния;
• raylrnd – случайные числа с рэлеевским распределением;
• raylstat – числовые характеристики рэлеевского распределения;
• raylfit – оценка параметра рэлеевского распределения.
Пример 6.22. Величины X, Y и Z – независимые и имеют нормаль-
ные распределения с нулевыми МО и одинаковыми СКО. Найти плот-
ность распределения величины R= √ X 2+Y 2+ Z 2 .
Решение. Будем считать X, Y и Z декартовыми координатами точки
на плоскости. Тогда R – это сферический радиус точки. Дополним ве-
315
личину R двумя другими сферическими координатами: Θ и Φ. Совмест-
ная плотность распределения сферических координат {R, Θ, Φ} была
найдена в примере 6.15: это (6.55). Что найти теперь одномерную плот-
ность распределения f(r), нужно проинтегрировать f(r, θ, ϕ) по θ и ϕ в
промежутках их изменения:
2π π r2 r2 r2
r 2 sin θ 2π⋅2r 2 2 r2 −
√
− −
2 σ2 2σ2 2
f ( r )= ∫ d φ∫ 3 e d θ= 3 e = π 3 e 2σ .
0 0 σ
(2 π) σ3 2
( 2π ) σ 3 2
{√
0; r<0 ;
2
r
f ( r )= 2 r2 −
2 σ2 (6.94)
e ; r⩾0 .
π σ3
2 2
f ( x, y ) =
1
2π σ x σ y
exp −
(
( x− mx ) ( y−m y )
2
2σ x
− 2
2σ y
.
) (6.95)
316
2 2
( )
( t−mx ) ( z−t−m y )
+∞ +∞
1
f ( z ) =∫ f xy ( t , z−t ) dt = ∫ exp − 2 σ 2 − 2 σ 2 dt .
−∞ 2 π σ x σ y −∞ x y
317
кретных величин такое построение сводится к нахождению yk = y(xk), в то
время как pk не изменяются. Поэтому, чтобы найти my, нужно было
вычислить yk = y(xk). Для непрерывных величин ситуация несколько иная.
Здесь для вычисления my не нужно в явном виде вычислять f(y) по фор-
муле (6.25). Достаточно заметить, что элементарная вероятность попада-
ния величины X в промежуток ширины dx равна вероятности попадания
величины Y в соответствующий промежуток ширины dy:
318
+∞ +∞ +∞
m y =∫ y f ( y ) dy=∫ … ∫ y ( x ) f ( x ) dx 1 dx 2 …dx m , (6.100)
−∞ −∞ −∞
а дисперсию – по формуле:
+∞ +∞ +∞
2 2
D y =∫ ( y−m y ) f ( y ) dy= ∫ … ∫ ( y ( x ) −m y ) f ( x ) dx1 dx 2 …dx m . (6.101)
−∞ −∞ −∞
319
x,0,x0)*sign(x0); % дисперсия
Sz=Dz^0.5; % СКО
Az=int(int((z-mz)^3*cs,y,0,sy)*sign(y0),...
x,0,x0)*sign(x0)/Sz^3; % асимметрия
Ez=int(int((z-mz)^4*cs,y,0,sy)*sign(y0),...
x,0,x0)*sign(x0)/Dz^4-3; % эксцесс
fprintf('Числовые характеристики величины z=%s\n',char(z))
fprintf('МО M(z)=%s=%12.8f;\n',char(mz),eval(mz));
fprintf('дисперсия D(z)=%s=%12.8f;\n',char(Dz),eval(Dz));
fprintf('СКО S(z)=%s=%12.8f;\n',char(Sz),eval(Sz));
fprintf('асимметрия A(z)=%s=%12.8f;\n',char(Az),eval(Az));
fprintf('эксцесс E(z)=%s=%12.8f;\n',char(Ez),eval(Ez));
Числовые характеристики величины z=x^2-2*x*y
МО M(z)=2/3= 0.66666667;
дисперсия D(z)=92/9= 10.22222222;
СКО S(z)=1/9*92^(1/2)*9^(1/2)= 3.19722102;
асимметрия A(z)=673/11109*92^(1/2)*9^(1/2)= 1.74323231;
эксцесс E(z)=-329236779/111936400= -2.94128433;
320
Глава 7. Предельные теоремы теории вероятностей
Теория вероятностей изучает закономерности массовых явлений.
Хотя результат отдельного опыта предвидеть невозможно, результат до-
статочно большой серии опытов уже можно предсказать вполне опре-
делённо. Это свойство устойчивости массовых явлений приводит к тому,
что при большом числе опытов случайности нивелируются, взаимно по-
гашаются, и суммарный результат серии опытов становится известным
почти достоверно. Математическая формулировка этого принципа назы-
вается "закон больших чисел".
В узком смысле слова "закон больших
чисел" – это ряд теорем, в которых для тех
или иных условий устанавливается факт
приближения средних характеристик серии
опытов к некоторым постоянным величи-
нам.
Другая группа теорем устанавливает
тот факт, что при определённых условиях
сумма большого числа случайных величин
как угодно близко приближается к нормаль- Рисунок 7.1 –
но распределенной величине. Общее их на- П. Л. Чебышёв
звание – "центральная предельная теорема
теории вероятностей и следствия из неё".
И те, и другие теоремы изучают предельное поведение случайных
величин, поэтому часто их называют предельными теоремами теории ве-
роятностей. Они рассматриваются в этой главе.
321
величины η > 0 или равно ей, не превышает дисперсии этой величины Dx,
деленной на η2:
Dx
P (∣ X −mx∣⩾η )⩽ 2 . (7.1)
η
Геометрическая иллюстрация к этой теореме приведена на рис. 7.2.
вероятность попадания
в эти области не превышает Dx
/η2
график f (x)
mx x
η η
322
+∞ mx−η
2
D x =∫ ( x− mx ) f ( x ) dx =
−∞ −∞
∫ ( x−mx )2 f ( x ) dx +
mx +η +∞ (7.2)
+ ∫ ( x− mx )2 f ( x ) dx+ ∫ ( x−mx )2 f ( x ) dx ,
mx −η mx+η
( )
+∞
η
2
∫
−∞
f ( x ) dx+ ∫ f ( x ) dx ⩽ D x . (7.4)
mx+η
323
этого нужно взять разность значений функции распределения на верхнем
и нижнем пределах. Вот примеры правила "3σ" для нескольких распре-
делений.
disp('Правило "3sigma" для различных распределений:')
m=0; % параметры нормального распределения
s=1;
x=[m-3*s;m+3*s];
fprintf('Нормальное: p=%8.5f%%\n',...
diff(normcdf(x,m,s))*100)
a=0; % параметры равномерного распределения
b=1;
[m,v]=unifstat(a,b); % МО и дисперсия
s=v^0.5; % СКО
x=[m-3*s;m+3*s];
fprintf('Равномерное: p=%8.5f%%\n',...
diff(unifcdf(x,a,b))*100)
mu=1; % параметр экспоненциального распределения
[m,v]=expstat(mu); % МО и дисперсия
s=v^0.5; % СКО
x=[m-3*s;m+3*s];
fprintf('Экспоненциальное: p=%8.5f%%\n',...
diff(expcdf(x,mu))*100)
b=1; % параметр рэлеевского распределения
[m,v]=raylstat(b); % МО и дисперсия
s=v^0.5; % СКО
x=[m-3*s;m+3*s];
fprintf('Рэлеевское: p=%8.5f%%\n',diff(raylcdf(x,mu))*100)
Правило "3sigma" для различных распределений:
Нормальное: p=99.73002%
Равномерное: p=100.00000%
Экспоненциальное: p=98.16844%
Рэлеевское: p=99.43725%
324
7.1.2. Сходимость по вероятности
Для дальнейших теорем нам понадобятся некоторые свойства преде-
лов по вероятности. Мы ввели такой предел в разделе 2.2. (определе-
ние 2.14). Основное его отличие от обычного состоит в том, что здесь
нужно задавать не одну сколь угодно малую величину, а две.
При доказательстве свойств предела по вероятности в случае необ-
ходимости будем заменять в определении 2.14 строгие неравенства на
нестрогие. Очевидно, смысл понятия от этого не изменится.
Теорема 7.2. Если в последовательности случайных величин {Xn}
МО всех величин постоянное: M(Xn) = C, а lim D ( X n )= 0 (здесь обыч-
n→ ∞
ный предел числовой последовательности), то последовательность слу-
чайных величин {Xn} сходится по вероятности к константе C:
lim X n=C .
n→ ∞
Иллюстрация этой теоремы – на рис. 7.3. С ростом n график плотно-
сти распределения f(x) не смещается относительно МО, но "сплющивает-
ся", всё более приближаясь к δ-функции Дирака.
Доказательство. Докажем сходимость по вероятности {Xn} к C. За-
дадим сколь угодно малые ε и δ. Как выбрать номер N, начиная с которо-
го ∀ Xn будет выполняться P(|Xn – C| > ε) < δ? Воспользуемся тем, что
lim D ( X n )= 0. Это значит, что для любого сколь угодно малого заданно-
n→ ∞
D( X n)
P (∣ X n−C∣⩾ε)⩽ <δ. (7.5)
ε2
Условия M(Xn) = C и lim D ( X n )=0 являются достаточными, но не
n→ ∞
325
нированной величине C и при других, менее жёстких условиях. В
частности, МО всех Xn не обязательно должны быть равны C. Они могут
лишь стремиться к C: lim M ( X n ) =C , как показано на рис. 7.4. Этого
n→ ∞
f(x)
M(X n) = C
326
f(x)
M(Xn)
C x
327
ществует такой номер N1, начиная с которого |M(Xn) – C| ≤ ε1. А из предела
дисперсий lim D ( X n )=0 следует, что для нашего ε2 существует такой
n→ ∞
номер N2, начиная с которого D(Xn) ≤ ε2. Возьмём теперь N = max(N1, N2), и
рассмотрим поведение случайной величины Xn для всех n > N.
Неравенство Чебышёва дает:
D ( X n) ε2
P (∣ X n− M ( X n )∣⩾η) ⩽ ⩽ =δ . (7.6)
η2 η2
вероятность попадания
в эти области меньше, чем D(Xn )/η 2 = δ
M(Xn)
N x
ε1
η η
ε ε
n
328
Можно доказать и обратную теорему: если {Xn} сходится по вероят-
ности к детерминированной величине C, то M(Xn) → C, а D(Xn) → 0 при
n → ∞. Проделайте это самостоятельно.
n n n n
M ( )
∑ X i =∑ M ( X i )=nm x ;
i=1 i=1
D ( )
∑ X i =∑ D ( X i )=nD x .
i =1 i =1
(7.8)
329
1 1 Dx
M ( Y n )= n mx =m x ; D ( Y n )= 2 n Dx = . (7.9)
n n n
M ( )
∑ X i = ∑ M ( X i ) = ∑ mi ;
i =1 i=1 i=1
D ( )
∑ X i =∑ D ( X i )=∑ Di ;
i=1 i =1 i=1
(7.10)
330
n
1
D ( Y n )= ∑ D i< nnL2 = Ln ,
n2 i=1
(7.12)
n
lim D (Y n )=lim
n→ ∞ n→ ∞
1
n2
D
(∑ )
i =1
X i =0 . (7.14)
331
7.1.4. Теоремы Бернулли и Пуассона
Эта группа теорем устанавливает связь между статистическим опре-
делением вероятности (2.4) и классическим (2.5).
Теорема 7.7 (Бернулли). При n → ∞ в испытаниях по схеме Бернул-
ли (определение 4.1) частота появления события У сходится по вероятно-
сти к его вероятности p:
M
lim =p. (7.15)
n→ ∞ n
M ( X i )=0⋅q+1⋅p= p;
2 2 (7.16)
D ( X i )=( 0− p) ⋅q+( 1− p ) ⋅p= p 2 q+ q2 p= pq .
332
величин с одинаковым распределением. Такая величина при n → ∞ схо-
дится по вероятности к МО каждой из них, т. е. к p.
Обобщением теоремы Бернулли является теорема Пуассона, которая
устанавливает поведение частоты появления события У, когда вероятно-
сти успехов в различных испытаниях разные.
Теорема 7.8 (Пуассона). Если в каждом из независимых испытаний
вероятность успеха pi различная, но существует предел среднего арифме-
тического pi при n → ∞, то частота события при n → ∞ сходится по веро-
ятности к среднему арифметическому pi.
Доказательство проводится так же, как для теоремы Бернулли.
Каждая из независимых Xi является дискретной и двузначной: её возмож-
ные значения 0 и 1, а вероятности их проявления pi и qi = 1 – pi. Числовые
характеристики Xi: M(Xi) = pi; D(Xi) = piqi. Среднее арифметическое Xi
удовлетворяет условиям обобщённой теоремы Чебышёва: существует
предел среднего арифметического МО, а дисперсии ограничены сверху
значением max(piqi) = 0,25. Поэтому случайная величина Yn = M / n при
n → ∞ сходится по вероятности к пределу среднего арифметического
МО.
333
ления pk, то характеристическая функция вычисляется по формуле:
i t xk
g ( t )= ∑ e pk. (7.18)
∀k
g y ( t )= ∏ g x ( t ) .
k
k =1
334
n
g ( t )= M ( e )=M (∏ e n n
∑
)
it Xk
it X k it X k
Доказательство. y
k =1
=∏ M ( e )=
k=1 k=1
g x ( t ) =∑ e =e ∑
−a a e a ( e −1)
Решение. = e e =e =
k=0 k! k =0 k !
( )
=e a cos t+i sin t −1 . Третье равенство – это вычисление суммы ряда для
экспоненты.