Вы находитесь на странице: 1из 480

А. В. Лебедев, Л. Н.

Фадеева

ТЕОРИЯ ВЕРОЯТНОСТЕЙ
И
МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

Под редакцией доктора физико-математических наук


А. В. Лебедева

4-е издание, переработанное и дополненное

Москва

2018
УДК 519.2(075.8)
ББК 22.17я73

Об авторах:

Лебедев Алексей Викторович – доктор физико-математических наук, доцент кафедры теории


вероятностей механико-математического факультета МГУ им. М. В. Ломоносова

Фадеева Людмила Николаевна – кандидат физико-математических наук, доцент кафедры


математических методов анализа экономики экономического факультета МГУ им. М. В.
Ломоносова (до 2011 года)

Лебедев А. В., Фадеева Л. Н.


Теория вероятностей и математическая статистика: учебник / А. В. Лебедев, Л. Н.
Фадеева. Под ред. А. В. Лебедева. Изд. 4-е, перераб. и доп. – М., 2018. – 480 с.

ISBN 978-5-600-02149-5

Книга представляет собой переиздание классического университетского учебника по


теории вероятностей и математической статистике, разработанного в сотрудничестве
специалистами механико-математического и экономического факультетов МГУ им. М. В.
Ломоносова, в электронной и общедоступной форме. Книга образует учебно-методический
комплекс, включающий как теоретический материал, так и обширный набор задач, а также
фонд оценочных средств (примеры контрольных и экзаменационных работ, тесты), списки
компетенций по главам, необходимые математические таблицы и др.
По сравнению с предыдущими изданиями, учебник дополнен рядом приложений,
включающих темы повышенной сложности (характеристическая функция, многомерные
распределения, копулы), интересные факты из истории и парадоксы теории вероятностей и
математической статистики, компьютерные методы Монте-Карло и статистического анализа
в популярных пакетах Excel и STATISTICA, разбор типичных ошибок студентов в решении
задач.
Цель издания – в удобной, доступной и увлекательной форме дать студентам
обширный объем знаний по теории вероятностей и математической статистике, для освоения
методов принятия решения в условиях неопределенности, умения делать выводы на основе
статистического анализа, научно обоснованного прогнозирования случайных явлений и их
взаимосвязи, построения математических моделей реальных ситуаций.
Для студентов и преподавателей вузов экономических и других специальностей,
требующих изучения вероятностно-статистических методов, слушателей послевузовского
образования.

УДК 519.2(075.8)
ББК 22.17я73

© А. В. Лебедев, Л. Н. Фадеева, 2018

ISBN 978-5-600-02149-5

Все права защищены. Никакая часть настоящей книги не может быть воспроизведена или
заимствована в какой-либо форме и какими-либо средствами без ссылки на источник и
письменное разрешение авторов. Всякое коммерческое использование книги запрещено.
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Содержание
Содержание
Предисловие
Введение

Часть I. Теория вероятностей

Глава 1. Элементы комбинаторного анализа


1.1. Основные правила комбинаторики
1.2. Размещения
1.2.1. Размещения без повторений
1.2.1. Размещения с повторениями
1.3. Сочетания
1.3.1. Сочетания без повторений
1.3.2. Сочетания с повторениями
1.4. Разбиение множества на группы
Задачи для самостоятельного решения

Глава 2. Классическая вероятностная модель


2.1. Частотная интерпретация вероятности. Свойство устойчивости частот
2.2. Пространство элементарных событий. Событие и его вероятность
2.3. Статистики БозеЭйнштейна, ФермиДирака, МаксвеллаБольцмана
2.4. Геометрическая вероятность
Задачи для самостоятельного решения

Глава 3. Основные формулы теории вероятностей


3.1. Операции над событиями
3.2. Теоремы сложения вероятностей
3.3. Условная вероятность и теорема умножения
3.4. Независимость событий
3.5. Формула полной вероятности
3.6. Формула Байеса
3.7. Аксиоматическое построение теории вероятностей
Задачи для самостоятельного решения

Глава 4. Повторные независимые испытания


4.1. Испытания Бернулли
4.2. Наивероятнейшее число успехов.
4.3. Предельные теоремы и приближенные формулы
4.3.1. Теорема Пуассона
4.3.2. Теоремы МуавраЛапласа
4.4. Полиномиальная схема
Задачи для самостоятельного решения

Глава 5. Дискретные случайные величины


5.1. Случайная величина и её закон распределения
5.2. Функция распределения случайной величины
5.3. Дискретный случайный вектор
5.4. Числовые характеристики дискретных случайных величин
5.5. Основные дискретные распределения и их характеристики
5.5.1. Распределение Бернулли

1
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

5.5.2. Распределение Пуассона


5.5.3. Геометрическое распределение
5.5.4. Гипергеометрическое распределение
5.6. Ковариация. Коэффициент корреляции.
5.6.1. Ковариация и ее свойства
5.6.2. Гипергеометрическое распределение (вывод числовых характеристик)
5.6.3. Коэффициент корреляции
5.7. Условные распределения и условные математические ожидания (дискретный
случай)
5.8. Свертка дискретных распределений
Задачи для самостоятельного решения

Глава 6. Непрерывные случайные величины


6.1. Плотность и функция распределения непрерывной случайной величины
6.2. Числовые характеристики непрерывной случайной величины.
6.3. Производящая функция моментов
6.4. Основные непрерывные распределения и их характеристики
6.4.1. Равномерное распределение
6.4.2. Показательное (экспоненциальное) распределение
6.4.3. Нормальное распределение (распределение Гаусса)
6.4.4. Логарифмически нормальное (логнормальное) распределение
6.4.5. Распределение Лапласа
6.4.6. Распределение Вейбулла
6.4.7. Распределение Парето
6.4.8. Распределение Коши
6.4.9. Распределение Симпсона
6.5. Максимумы и минимумы случайных величин
Задачи для самостоятельного решения

Глава 7. Функции от случайных величин. Непрерывный случайный вектор


7.1. Функции от случайных величин
7.2. Непрерывный случайный вектор
7.2.1. Совместная функция распределения
7.2.2. Совместная плотность распределения
7.3. Плотность суммы двух непрерывных случайных величин.
7.4. Условные распределения и условные математические ожидания (непрерывный
случай)
7.5. Максимумы и минимумы зависимых случайных величин
Задачи для самостоятельного решения

Глава 8. Закон больших чисел. Центральная предельная теорема


8.1. Неравенство Чебышева
8.2. Закон больших чисел
8.3. Центральная предельная теорема
Задачи для самостоятельного решения

Глава 9. Цепи Маркова


9.1. Основные определения
9.2. Цепи Маркова с конечным числом состояний и дискретным временем
9.3. Цепи Маркова с непрерывным временем.
Задачи для самостоятельного решения

2
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Часть II. Математическая статистика

Глава 10. Основные понятия и задачи математической статистики


10.1. Генеральная и выборочная совокупности
10.2. Графическое представление статистических рядов
10.3. Эмпирическая функция распределения
Задачи для самостоятельного решения

Глава 11. Точечные оценки параметров распределения


11.1. Выборочные характеристики и точечные оценки
11.2. Статистическая устойчивость основных выборочных характеристик
11.3. Асимптотически нормальный характер основных выборочных характеристик
11.4. Эффективность оценок. Неравенство РаоФрешеКрамера
11.5. Оценка математического ожидания по неравноточным наблюдениям
Задачи для самостоятельного решения

Глава 12. Функции и распределения в математической статистике


12.1. Бета- и гамма-функции
12.2. Квантили, процентные и критические точки.
12.3. Распределения хи-квадрат (закон Пирсона)
12.4. Распределения Стьюдента
12.5. Распределение Фишера
12.6. Гамма–распределение
12.7. Бета-распределение
12.8. Приложения распределений в математической статистике. Теорема Фишера.
Задачи для самостоятельного решения

Глава 13. Методы построения оценок


13.1. Метод моментов
13.2. Метод максимального правдоподобия
13.3. Метод наименьших квадратов. Линейная регрессия.
Задачи для самостоятельного решения

Глава 14. Доверительные интервалы


14.1. Основные определения
14.2. Точные доверительные интервалы
14.3. Асимптотические доверительные интервалы
14.4. Интервальная оценка коэффициента корреляции
Задачи для самостоятельного решения

Глава 15. Проверка статистических гипотез


15.1. Основные определения
15.2. Критерий отношения правдоподобия
15.3. Проверка гипотез для одной выборки
15.4. Проверка гипотез для двух выборок. Зависимые выборки: парные наблюдения.
15.5. Проверка гипотез для двух выборок. Независимые выборки
15.6. Проверка гипотез о равенстве дисперсий для нескольких выборок. Критерии
Бартлетта и Кокрена
15.7. Элементы дисперсионного анализа
15.8. Элементы корреляционного анализа
Задачи для самостоятельного решения

3
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Глава 16. Критерии согласия


16.1. Критерии согласия Пирсона и Фишера (хи-квадрат)
16.2. Критерий согласия Колмогорова
Задачи для самостоятельного решения

Глава 17. Элементы анализа временных рядов


17.1. Основные понятия в анализе временных рядов
17.2. Простые методы анализа и прогнозирования временных рядов
17.3. Стационарность. Автокорреляция. Периодограмма
17.4. Модели авторегрессии и скользящего среднего
Задачи для самостоятельного решения

Приложение Д. Дополнения
Приложение И. Это интересно
Приложение О. В чем ошибка?
Приложение С. Считаем на компьютере
Приложение К. Компетенции
Приложение Ф. Фонд оценочных средств
Приложение Т. Таблицы

Ответы
Литература

4
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Предисловие к четвертому изданию (2018)


Основной курс теории вероятностей и математической статистики на экономическом
факультете МГУ имени М.В.Ломоносова имеет долгую историю.
Много лет его чтению и совершенствованию отдала доцент кафедры математических
методов анализа экономики (ММАЭ) экономического факультета к.ф.-м.н. Л.Н.Фадеева.
В 1999 году сотрудничество с ней начал сотрудник кафедры теории вероятностей
механико-математического факультета А.В.Лебедев (ныне доцент, д.ф.-м.н.), пришедший
работать на кафедру ММАЭ совместителем (ведущим семинары по курсу).
Помимо совершенствования в области изложения теории, весьма актуальной задачей
на тот момент было обогащение курса примерами и задачами, имеющими отношение к
современной социально-экономической и информационно-технологической реальности.
Конечно, использовались и задачи прежних лет, в том числе из классического издания
В.Е.Гмурман «Руководство к решению задачи по теории вероятностей и математической
статистики» (1976), учебного пособия Е.Н.Лукаш, Д.В.Сенченко, В.И.Черняк «Сборник задач
по теории вероятностей для экономистов» (1986) и т.п. Однако в новых условиях этого было
недостаточно, чтобы «зацепить» студентов XXI века и дать им адекватное представление о
современных приложениях теории вероятностей и математической статистики.
Важной задачей также была разработка оптимальных проверочных материалов по
курсу (тестов, контрольных и экзаменационных работ).
В 2000-е годы Л.Н.Фадеева и А.В.Лебедев выпустили ряд учебников и задачников.
Каждый раз материал подвергался дополнениям и переработке. Авторы старались исправить
ранее допущенные ошибки и недочеты, хотя порой, к сожалению, делали новые. В работе
принимали участие и другие преподаватели: Ю.В.Жуков, Е.Е.Баштова, А.П.Шашкин.
В 2011 году Л.Н.Фадеева отошла от преподавания. Итогом ее многолетней работы, в
соавторстве с А.В.Лебедевым, стала книга Л.Н.Фадеева, А.В.Лебедев «Теория вероятностей и
математическая статистика». Рид Групп, 2011 (3-е издание, переработанное и дополненное),
вышедшая в серии «Национальное экономическое образование».
С полным текстом книги и списком исправлений к ней можно ознакомиться на
странице А.В.Лебедева на сайте кафедры теории вероятностей мехмата МГУ.
В свое время данная книга получила гриф УМО по классическому университетскому
образованию в качестве учебного пособия для студентов высших учебных заведений,
обучающихся по направлению 080100 «Экономика» (к сожалению, с сентября 2015 года в
России грифы были отменены). Она представляет собой обширный учебно-методический
комплекс, включающий все необходимое для преподавателя и студента: учебник и задачник,
а также образцы проверочных материалов и математические таблицы.
Получив справедливо высокую оценку, книга стала базовой для преподавания теории
вероятностей и математической статистики на экономическом факультете в 20112017 гг.,
несмотря на смену лекторов (Е.Н.Лукаш, Д.В.Артамонов, Я.А.Рощина, В.А.Малугин).
Однако жизнь не стоит на месте. Перед российской образовательной системой
ставятся задачи повышения качества образования, принимаются новые образовательные
стандарты. По-прежнему важно укреплять связь между теорией и практикой.
В 20162017 гг. А.В.Лебедев разработал дополнительные материалы, которые можно
было использовать в учебном процессе в дополнение к имеющейся книге.
После ухода А.В.Лебедева с экономического факультета в 2017 году, книга 2011 года
в сочетании с дополнительными материалами успешно использовалась им при чтении курса
теории вероятностей и математической статистики на отделении механики мехмата МГУ,
что показало достаточную универсальность разработанного комплекса.
Далее, авторами было принято решение о переиздании книги. Однако различных идей
о том, что в ней можно изменить и что добавить, оказалось слишком много, в том числе,
спорных, поэтому в конце концов решили издать ее с небольшими изменениями (под общей
редакцией А.В.Лебедева), а новый материал вынести в приложения.

1
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Помимо приложения Т, в котором собраны таблицы функций и критических точек,


необходимые для решения задач (ранее – приложение 2), имеются следующие:
Приложение Д. Дополнения – содержит ряд элементов учебного материала, которые
в силу своей сложности могут включаться или не включаться преподавателем в курс. Сюда
входят характеристические функции, многомерные распределения, копулы и др.
Приложение И. Это интересно – приводятся исторические факты, интересные
задачи и парадоксы теории вероятностей и математической статистики. По умолчанию
используется материал (в обработке А.В.Лебедева) книги Секей Г. Парадоксы в теории
вероятностей и математической статистике. М.: Институт компьютерных исследований,
2003. В случаях, когда используются другие источники, на них даются ссылки.
Приложение О. В чем ошибка? – приводится, в современной терминологии, «разбор
кейсов», примеров неправильного решения задач (на основе систематизации реальных
типовых ошибок студентов) с разъяснением ошибок.
Приложение С. Считаем на компьютере – показано, как можно вычислить или
смоделировать на компьютере какие-то вещи, имеющие отношение к материалу каждой
главы. Речь идет о расчетах в популярных пакетах Excel и STATISTICA. По умолчанию
используется материал (в обработке А.В.Лебедева) следующих книг:
1) Калугина О.Б., Люцарев В.С. Работа с электронными таблицами Microsoft Office
Excel 2003. М.: Интернет-университет информационных технологий, 2006.
2) Минько А.А. Статистический анализ в MS Excel. М.: Вильямс, 2004.
3) Боровиков В.П. STATISTICA. Искусство анализа данных на компьютере: Для
профессионалов. СПб.: Питер, 2003.
Приложение К. Компетенции – указано, какие компетенции (знания, умения,
навыки) студент должен иметь для успешного освоения материала каждой главы (и что ему
следует повторить перед ее изучением), а также какие компетенции он должен получить в
результате освоения.
Приложение Ф. Фонд оценочных средств – обновленные примеры контрольных и
экзаменационных работ (на основе реальных работ 2016/2017 учебного года экономического
факультета), а также обширная база тестовых заданий.
Четвертое издание сделано в электронном и общедоступном виде из принципиальных
соображений. В последние годы цены на книги растут все выше, а реальные доходы пока
остаются невысокими. Наиболее остро все это сказывается на школьниках и студентах, для
которых приобретение учебной литературы является не развлечением, а жизненной
необходимостью.
Отметим, что согласно статье 35 Федерального закона об образовании от 29.12.2012
№ 273-ФЗ, обучающимся за счет бюджета должны бесплатно предоставляться в пользование
на время получения образования учебники, учебные пособия и учебно-методические
материалы. К сожалению, на практике это происходит далеко не всегда. Бывает, что
преподаватели заставляют учащихся покупать свои книги, пытаясь заработать на этом.
Однако большую часть денег все равно получают издательства. Выход виден только в отказе
от расходов на материальные носители, составляющие большую часть себестоимости книг, и
бесплатном распространении электронных изданий. Возможность использования таких
изданий в учебном процессе прописана в статье 18 вышеупомянутого закона, по решению
образовательной организации.
В заключении авторы выражают надежду, что их книга поможет новым поколениям
студентов овладеть актуальным, жизненно важным и интересным предметом – теорией
вероятностей и математической статистикой.
В случае обнаружения ошибок в книге просьба связаться с А.В.Лебедевым в целях ее
дальнейшего совершенствования.

май 2018

2
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Введение
Издревле люди сталкивались со случайными событиями. Случайность всегда бросала
вызов разуму, стремящемуся все контролировать. С другой стороны, многих людей увлекают
азарт и надежда на удачу.
Со временем зрело понимание, что и в случайности существуют свои закономерности,
особенно если условия, при которых происходят события, повторяются много раз.
Теория вероятностей возникла в XVII веке (главным образом, из задач, связанных с
азартными играми), однако затем на протяжении долгого времени не имела по-настоящему
прочного основания, базируясь на интуитивно понятных рассуждениях и приемах, которые
обычно приводили к успеху, а иногда – к противоречию. Впрочем, подобная ситуация имела
место и в других разделах математики, например, в математическом анализе.
Изложить основания теории вероятностей так, чтобы это было понятно, теоретически
корректно и практически полезно, представляет собой непростую задачу. Великие умы бились
над ней несколько веков. Более того, некоторые дискуссии не утихают и до сих пор.
Проще всего сказать, что вероятность события – это мера уверенности в том, что оно
произойдет. Такое толкование называют субъективной вероятностью. Если есть полная
уверенность в том, что какое-то событие произойдет, то ему приписывается вероятность
единица, а если полная уверенность, что не произойдет, то вероятность ноль. В других случаях
вероятность оказывается где-то между нулем и единицей.
В случае, если некоторый эксперимент (испытание, наблюдение) может закончиться
одним из n исходов, и нет оснований быть больше уверенным в одном исходе, чем в другом,
то естественно приписать каждому исходу вероятность 1/n.
Например, при бросании правильной монеты нет оснований считать, что она будет
выпадать гербом чаще, чем решкой или наоборот, поэтому вероятности этих исходов логично
считать равными 1/2. При бросании правильного игрального кубика нет оснований считать,
что он будет выпадать одной гранью чаще, чем другой, значит, вероятность выпадения любой
грани равна 1/6. Если в урне имеется n шаров, и выбирается один из них, не глядя,
вероятность любого выбора равна 1/n.
Когда установлены вероятности всех возможных исходов, остается только выделить
исходы, благоприятствующие определенному событию, и сложить их вероятности, это и будет
вероятность события. Такую вероятность называют комбинаторной вероятностью,
поскольку для вычисления числа исходов часто используют комбинаторику (см. главу 1).
Если вероятность события оказалась близка к нулю, можно сделать вывод, что оно
скорее всего не произойдет, а если близка к единице, то скорее всего произойдет. Не вполне
понятно на первый взгляд, какая польза от промежуточных значений. Однако в них тоже есть
смысл. В прежние века, когда теория вероятностей применялась в основном в азартных играх,
такие вероятности использовались для расчета ставок (на то или иное событие в игре). В
общем случае их можно применять для принятия решений.
Пусть, например, имеется две урны, в первой – 1 белый шар и 9 черных, а в другой – 2
белых шара и 8 черных. Вам предлагается сыграть в игру: выбрать одну из урн и достать из
нее шар наудачу, причем за белый шар полагается приз. Конечно, посчитав вероятности
выигрыша в каждом из двух случаев (10% и 20%), вы выберете вторую урну.
Так же и во многих жизненных ситуациях (в том числе в экономике) при прочих
равных условиях разумно выбрать тот вариант действий, в котором есть больше уверенности в
том, что он принесет успех, или наоборот, в котором вероятность неудачи (риска) меньше.
Но конечно, следует избегать бездумного приписывания разным исходам одинаковой
вероятности, иначе придем к следующему известному анекдоту:
- Какова вероятность встретить на улице динозавра?
- Одна вторая.
- Почему?
- Либо встречу, либо нет.

1
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Скажем так: в качестве вероятности нужна не просто мера уверенности, а научно


обоснованная мера уверенности. И равная уверенность в исходах нуждается в обосновании.
В общем случае, можно приписывать исходам не только одинаковые, но и разные
вероятности, руководствуясь разной личной уверенностью в них или уверенностью других
людей (используя экспертные оценки). Достаточно, чтобы сумма вероятностей исходов была
равна единице. Однако это делает дальнейшие рассуждения и выводы менее убедительными.
У субъективной вероятности есть свои недостатки.
Во-первых, далеко не всегда в реальных ситуациях можно выделить конечное число
исходов и обоснованно приписать им вероятности.
Во-вторых, уверенность – это состояние сознания, а хотелось бы иметь что-то ближе к
объективной реальности.
Поэтому был предложен другой подход к вероятности, основанный на практике.
Многие явления в нашей жизни можно отнести (хотя бы в первом приближении) к
категории массовых экспериментов в одинаковых условиях. Речь здесь может идти как об
экспериментах, проводимых многократно и последовательно (например, бросание монеты,
изготовление деталей на заводе и т.п.), так и о проводимых одновременно и параллельно
(например, жизни людей, которые живут в одно время и в одном месте). Предполагается, что
результаты этих экспериментов непредсказуемы и не зависимы между собой, и в каждом из
них некоторое событие может произойти или не произойти. Тогда можно собрать статистику и
найти относительную частоту события, т.е. отношения числа экспериментов, когда событие
произошло, к общему числу экспериментов. Оказывается, что во многих случаях
относительные частоты с ростом числа экспериментов не колеблются произвольным образом,
а явно сходятся к некоторым пределам. Это явление называется статистической
устойчивостью частот.
Возникает мысль определить вероятность события как предел его относительной
частоты в массовых экспериментах при одинаковых условиях. Такую вероятность называют
статистической вероятностью.
Например, если долго бросать монету1, то окажется, что примерно в половине случаев
она выпадает гербом и примерно в половине – решкой, значит, вероятность обоих событий 1/2.
Если долго бросать игральный кубик, то каждая его грань будет выпадать примерно в 1/6
части всех случаев, значит, ее вероятность равна 1/6. Если урну положить n шаров, и затем
выбирать по одному, не глядя, смотреть и записывать, какой именно шар вынули, класть
обратно, и так повторять много раз, то также получим в результате, что вероятность выбора
любого шара равна 1/n.
На первый взгляд, это повтор уже описанного выше рассуждения, приводящий к тем же
значениям вероятностей. Однако в первом случае речь шла о субъективной вероятности (мере
уверенности), получаемой теоретически, а во втором – о статистической, получаемой на
основе реальных наблюдений и экспериментов. И это совсем не одно и то же, поскольку
реальность всегда готова преподнести сюрпризы.
Например, нет никаких теоретических оснований считать, что мальчиков должно
рождаться больше, чем девочек, или наоборот. На протяжении долгого времени считалось, что
тех и других рождается примерно поровну, так что этим событиям следует приписать
одинаковую вероятность. Однако в 1710 году это мнение было опровергнуто Дж.Арбутнотом
(16671735) на основе статистических данных. Оказалось, что мальчиков систематически
рождается больше.
В качестве приложений статистической вероятности, речь может идти, например, о
доле брака в продукции предприятия; доле людей, покупающих определенные товары или

1
Интересно, что некоторые классики теории вероятностей и математической статистики действительно
проводили опыты с многократным бросанием монеты. Например, Ж.Бюффон (1707–1788) бросил монету 4040
раз и получил 2048 гербов (относительная частота 0,508), а K.Пирсон (1857–1936) – 12000 раз и получил 6019
гербов (относительная частота 0,5016).

2
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

услуги; доле людей, доживающих или не доживающих до определенного возраста и др.


Вместо того, чтобы оценивать вероятности различных исходов умозрительно, можно
определить их из статистики.
Понятно, что статистическая вероятность более практична, чем субъективная. Однако и
она имеет свои недостатки.
Во-первых, непонятно, как определить пределы относительных частот с точки зрения
математики. Можно ли считать, что это такие же пределы, как вводятся и используются в
математическом анализе? Можно ли найти для любого, сколь угодно малого числа >0 такое
число экспериментов N, начиная с которого, относительная частота будет отклоняться от
вероятности менее, чем на ?
Легко показать, что это не так. Возьмем, к примеру, бросание монеты. Допустим, в
какой-то момент относительная частота герба стала отличаться от 1/2 менее, чем на . Но ведь
дальше возможна сколь угодно длинная серия гербов, которая увеличит относительную
частоту и заставит ее снова выйти за пределы нужного интервала.
На самом деле, в теории вероятностей для подобных случаев вводятся свои понятия
сходимости (и соответственно, пределов): «по вероятности» и «с вероятностью единица» (см.
главу 8). Однако эти понятия уже используют понятие вероятности как базовое. Таким
образом, получается логическая петля. Нельзя определять вероятность как предел чего-то по
вероятности и т.д.
Во-вторых, получается, что вероятность определена только для событий, которые
связаны с массовыми экспериментами при одинаковых условиях, а для остальных событий
(редких, уникальных, невоспроизводимых) она не имеет смысла.
Например, нельзя ставить задачу, с какой вероятностью конкретный студент сдаст
конкретный экзамен. Действительно, уровень готовности каждого студента к экзамену
уникален, зависит от множества факторов, так что нельзя говорить о массовости эксперимента
в смысле большого числа студентов на потоке. Нельзя также говорить о массовости в смысле
многократных повторений, поскольку если студент сдаст экзамен, то больше сдавать его не
будет, а если не сдаст, то к следующему разу (пересдаче) его уровень готовности изменится.
Некоторые преподаватели в этой связи предлагают вообще исключить из программы
(например, из ЕГЭ при изучении теории вероятностей в школе) все задачи, не связанные с
массовыми экспериментами. Однако на наш взгляд, это перебор.
Если начать разбираться, грань между массовыми и уникальными событиями весьма
условна. Почему вообще массовые эксперименты при одинаковых условиях могут давать
разные результаты? Да потому что только какая-то часть этих условий одинакова, а другая
часть различна и случайна. Просто эту часть люди либо не видят, либо игнорируют.
Например, различные вероятностные модели используются в медицине, демографии и
страховании. Жизни людей (например, одного пола и года рождения, живущих в одной стране
или городе) рассматриваются как массовые эксперименты при одинаковых условиях. Речь
может идти, например, о том, что в результате человек доживает до определенного возраста
или не доживает. Но разве люди действительно живут в одинаковых условиях? Есть разные
традиции семьи, разная наследственность, разное образование, разные доходы, разные
характеры и жизненный выбор по каким-то вопросам и т.д. В конечном счете, жизнь каждого
человека уникальна не меньше, чем ее малая часть вроде подготовки студента к экзамену. Тем
не менее вероятностные модели применяются и работают.
Общепринятой в настоящее время является аксиоматическая теория вероятностей,
введенная великим русским ученым А.Н.Колмогоровым (1903–1987), о которой будет более
подробно рассказано в главе 3.
Коротко говоря, вероятность вводится как чисто абстрактный математический объект,
обладающий некоторыми свойствами, которые вводятся аксиоматически, без доказательств,
каких-либо обоснований и ссылок на реальность. Теория вероятностей строится чисто
логически, в неком идеальном мире, а уже потом ее пытаются приложить к окружающей
действительности, устанавливая соответствия между реальными и идеальными объектами.

3
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Таким же образом геометрия Евклида строится на наборе аксиом, а затем уже ее


идеальным точкам, прямым, плоскостям, фигурам и телам ставятся в соответствие какие-то
реальные предметы и явления.
Например, в теории вероятностей доказывается теорема Бернулли, согласно которой
относительная частота события в идеальных независимых массовых экспериментах при
одинаковых условиях сходится к вероятности события (по вероятности). С другой стороны, в
жизни тоже наблюдается статистическая устойчивость частот. Поэтому можно установить
соответствие между теорией и практикой, положив вероятность события в идеальном мире
равной относительной частоте события в большом числе экспериментов в реальном мире.
Логической петли не возникает, поскольку массовые эксперименты используются не
для определения вероятности, а для ее измерения (причем приближенного).
Можно провести аналогию с измерением температуры предметов термометром. Ко
многим предметам можно просто приложить термометр и измерить их температуру с какой-то
погрешностью. Однако нельзя сказать: «температура – это то, что меряет термометр» и на
этом основании считать, что для предметов, к которым термометр приложить нельзя, ее нет.
Во-первых, она все равно есть, а во-вторых, ее можно установить косвенными методами и
теоретическими расчетами. Например, ученые могут оценить температуру в центре Земли или
Солнца, хотя никакими приборами ее не измерить. Так же и с вероятностью.
В рамках аксиоматической теории для реальной ситуации строится ее вероятностная
модель. Реальным событиям ставятся в соответствие идеальные. Вероятности для них могут
быть установлены различными способами: комбинаторными, статистическими, либо путем
оценки экспертов. Затем на основе вероятностей исходных (базовых) событий вычисляются
вероятности других событий. Если этим последним событиям в реальности соответствуют
результаты массовых экспериментов, тем самым получают прогноз для частот. Если им
соответствуют какие-то уникальные события, вероятность можно интерпретировать как меру
уверенности. Таким образом, современная теория вероятностей объединяет все описанные
подходы, не создает логических противоречий и применима к широкому кругу явлений.
Однако никогда не следует забывать, что любая вероятностная модель не совпадает с
реальностью идеально, как и геометрическая модель. Напомним, что геометрия переводится
буквально как «землемерие». Допустим, что планиметрию (геометрию на плоскости) решили
применить к некоторому участку земли. Если этот участок достаточно ровный, то результат
будет приемлемый, а если нет, то может не получиться ничего хорошего. Так и на практике
может оказаться, что предложенная вероятностная модель почему-то плохо работает. Тогда
надо разбираться, в чем дело, и как ее необходимо усовершенствовать.
Следует помнить, что вероятностная модель не следует автоматически из реальной
ситуации. Построение вероятностной модели – это всегда акт человеческой воли, прыжок
веры и риск (например, в управлении финансами, где можно потерять много денег). При
построении вероятностной модели, будь то для решения учебной текстовой задачи или в
реальной практике, так или иначе делают следующие три шага, говоря себе и окружающим:
1. Давайте считать, что ситуация может быть описана вероятностной моделью.
2. Давайте сделаем некоторые предположения, которых не хватает.
3. Давайте отбросим факторы и возможности, которые мешают.
Без первого шага теории вероятностей просто нечего делать. Однако бывает, что даже в
схеме массовых экспериментов при одинаковых условиях статистическая устойчивость частот
никак не связана со случайностью и вероятностью.
Например, некий офис закрыт по воскресеньям. Наблюдая за ним каждый день, можно
установить, что примерно в 1/7 случаев он закрыт, а в 6/7 открыт. Но исходы эти вполне
предсказуемы, достаточно заглянуть в календарь.
В других случаях периодичность может быть не столь очевидна. Например, появление
комет на протяжении тысячелетий считалось непредсказуемым событием. Однако в 1716 году
английский ученый Э.Галлей на основе изучения обширных данных за несколько веков сделал
вывод, что во многих случаях речь идет об одной и той же комете с периодом в 76 лет, и

4
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

предсказал ее очередное появление в конце 1758 года, что блестяще подтвердилось. В


настоящее время известно много периодических комет. Изучение скрытых периодичностей
имеет важное значение в современной науке, в том числе и в экономике.
Предсказуемость исходов может быть обусловлена и внутренними причинами.
Пусть имеется лампа с кнопкой, и от нажатия кнопки лампа переходит из состояния 0
(не горит) в состояние 1 (горит), и наоборот, из состояния 1 в состояние 0. Предположим, что
есть экспериментатор, который ничего не знает об устройстве лампы. Он нажимает кнопку и
записывает результаты. Тогда с его точки зрения происходят массовые эксперименты при
одинаковых условиях, и относительные частоты состояний 0 и 1 стремятся к 1/2. Но можно ли
уподобить данную ситуацию бросанию монеты? Конечно, нет.
На самом деле, с такой лампой в закономерностях ее поведения быстро разберется и
ребенок. Однако если представить себе прибор с более сложным алгоритмом работы, то чтобы
разгадать его, может потребоваться и более сложный анализ данных.
Упомянем здесь генераторы случайных чисел2, входящие в программное обеспечение
современных компьютеров. На самом деле эти числа вовсе не случайны, они вычисляются с
помощью сложных функций (поэтому их также называют псевдослучайными). Однако перед
использованием генераторы обязательно проходят проверку с помощью различных тестов,
которым должны удовлетворять по-настоящему случайные последовательности. Так что
генераторы, успешно прошедшие проверку, выдают последовательности, практически не
отличимые от случайных по своим статистическим свойствам. Понятно, что описанная выше
последовательность из чередующихся нулей и единиц такую проверку не пройдет.
Два следующих шага проиллюстрируем на примере некоторых типовых задач.
Одним из типов задач для самостоятельного решения к главе 2 являются задачи «на
лифты». В таких задачах говорится, что несколько человек входят в лифт на первом этаже
многоэтажного дома, и далее они могут разъехаться по другим этажам разными способами,
требуется вычислить вероятности различных комбинаций. При этом неявно предполагаются
две важные вещи: каждый человек может равновероятно поехать на любой из этажей, кроме
первого, и каждый человек едет куда-то независимо от других.
Это именно предположения, которые на практике могут и не выполняться. Например,
на некоторые этажи люди могут ездить чаще, чем на другие. Допустим, где-то живут люди,
которые редко выходят из дома и принимают гостей, а где-то наоборот. Кроме того, у разных
людей может быть разный график поездок на лифте в течение дня, если рассматривается
движение лифта в какое-то определенное время суток.
Далее, люди, вошедшие в лифт, могут принадлежать к одной семье или компании
друзей, и направляться в одну конкретную квартиру, а не разъезжаться по этажам.
Наконец, лифт может вдруг застрять или вообще упасть. Такие случаи бывают.
Но если здесь что-то не предположить и что-то не отбросить, то невозможно решить
задачу. Поэтому так важно выработать навык делать необходимые предположения, очень
полезный на практике, где определенности обычно гораздо меньше, чем в учебнике.
Не менее важно также осознавать эти предположения и при необходимости уметь
отказаться от них в пользу других, более сложных. Так, вполне возможно, что человеку, перед
которым поставлена задача оптимизировать движение лифтов в офисном здании компании, и
который изучит реальную статистику поездок, придется ввести более сложную вероятностную
модель и провести более сложные расчеты.
Следует также понимать, что хотя расчеты могут вестись по известным формулам или с
помощью компьютерных программ, ответственность за решение несут не авторы формул и не
компьютер, а человек, который делает вывод, дает заключение, рекомендацию и т.д. В
частности, в экономике неверное решение может обернуться огромными потерями, поэтому
математические методы к ней надо применять разумно, аккуратно и ответственно.
2
Cм. например: Соболь И.М. Численные методы Монте-Карло. М.: Наука, 1973; Михайлов Г.А., Войтишек А.В.
Численное статистическое моделирование. Методы Монте-Карло. М.: Академия, 2006.

5
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Глава 1. Элементы комбинаторного анализа

Одной из основных задач комбинаторного анализа (комбинаторики) является подсчет


числа элементов конечных множеств, заданных каким-либо описательным условием. Для
этого разработаны различные формулы и правила.

§ 1.1. Основные правила комбинаторики

Пусть имеется k групп А1, А2, ..., Аk , причем i-ая группа содержит ni элементов. Тогда
справедливы следующие правила.
Правило умножения. Общее число N способов, которыми можно выбрать по одному
элементу из каждой группы и расставить их в определенном порядке (т.е. получить
упорядоченную совокупность (a1, a2, ..., ak), где aiAi), равно
N  n1n2 ...n k .
Это правило распространяется и на ситуации, когда новые группы образуются в
процессе выбора элементов, если численности этих групп не зависят от того, какие именно
элементы были выбраны.
Правило сложения. Если k групп А1, А2, ..., Аk не имеют общих элементов, то общее
число способов, которыми можно осуществить выбор одного элемента или из A1, или из A2,
..., или из Ak , равно
N  n1  n2  ...  nk .
Задача 1. В группе 30 студентов. Необходимо выбрать старосту, заместителя
старосты и профорга. Сколько существует способов это сделать?
Решение. Старостой может быть выбран любой из 30 студентов, заместителем –
любой из оставшихся 29, а профоргом – любой из оставшихся 28 студентов, т.е. n1=30, n2=29,
n3=28. По правилу умножения общее число N способов выбора старосты, его заместителя и
профорга равно
N  n1n2 n3  30  29  28  24360.
Задача 2. Два почтальона должны разнести 10 писем по 10 адресам. Сколькими
способами они могут распределить работу?
Решение. Первое письмо имеет n1=2 альтернативы: либо его относит к адресату
первый почтальон, либо второй. Для второго письма также есть n2=2 альтернативы и т.д., т.е.
n1=n2=…=n10=2. Следовательно, в силу правила умножения, общее число способов
распределить письма между двумя почтальонами равно
N  n1n2 ...n10  2
2  ...
  2  210  1024 .
10 раз

Задача 3. В ящике 100 деталей, из них 30 – деталей 1-го сорта, 50 – 2-го, остальные –
3-го. Сколько существует способов извлечения из ящика одной детали 1-го или 2-го сорта?
Решение. Деталь 1-го сорта может быть извлечена n1=30 способами, 2-го сорта – n2=50
способами. По правилу суммы существует N=n1+n2=30+50=80 способов извлечения одной
детали 1-го или 2-го сорта.

§ 1.2. Размещения

Пусть имеется некоторая конечная совокупность элементов {a1, a2, ..., an}, называемая
генеральной совокупностью, и n – объем этой совокупности. Пусть эксперимент состоит в
том, что из генеральной совокупности последовательно выбирают k элементов и записывают
их в порядке выбора.
Размещениями называются упорядоченные совокупности элементов (или записи о
выборе элементов), отличающиеся друг от друга либо составом, либо порядком элементов.

1
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Возможны следующие ситуации.

1.2.1. Размещения без повторений

Пусть ранее выбранный элемент перед выбором следующего не возвращается в


генеральную совокупность. Такой выбор называется последовательным выбором без
возвращения, а его результат – размещением без повторений из n элементов по k.
Теорема 1. Число размещений без повторений из n элементов по k равно1
n!
Ank  .
( n  k )!
Доказательство. Очевидно, что первый элемент можно выбрать n1=n способами, и
поскольку выбранный элемент не возвращается в генеральную совокупность, то следующий
элемент выбирается из совокупности, объем которой на единицу меньше, то есть n2=n1, и
т.д., так что nk=n–(k–1). Тогда по правилу умножения общее число способов равно
n!
N  n(n  1)...(n  (k  1))  .
(n  k )!
Пример 1. Все размещения без повторений двух элементов из множества a, b, c:
ab, ba , ac , ca , bc , cb.
В частном случае, когда выбираются все элементы генеральной совокупности, т.е.
когда k=n, такие размещения без повторений оказываются перестановками.
Перестановками называются упорядоченные совокупности, отличающиеся друг от
друга только порядком входящих в них элементов.
Как следует из теоремы 1, число перестановок из n элементов равно
Pn=n!
Пример 2. Все перестановки множества a, b, c:
abc , bac , cba , acb, cab, bca .
Задача 4. Расписание одного дня состоит из 5 различных уроков. Определить число
вариантов расписания при выборе из 11 дисциплин.
Решение. Каждый вариант расписания представляет набор 5 дисциплин из 11,
отличающихся от других вариантов как составом, так и порядком следования, поэтому
11! 11!
N  A115    7  8  9  10  11  55440.
(11  5)! 6!
Задача 5. Порядок выступления 7 участников конкурса определяется жребием.
Сколько различных вариантов жеребьевки при этом возможно?
Решение. Каждый вариант жеребьевки отличается только порядком участников
конкурса, т.е. является перестановкой из 7 элементов. Их число равно
P7  7!  1  2  3  4  5  6  7  5040.

1.2.2. Размещения с повторениями

Пусть ранее выбранный элемент перед выбором следующего возвращается в


генеральную совокупность (при этом каждый раз делается запись о том, какой элемент был
выбран). Такой выбор называется последовательным выбором с возвращением, а его
результат – размещением с повторениями из n элементов по k.
Теорема 2. Число размещений с повторениями из n элементов по k равно
Ank  n k .
Доказательство. Поскольку любой выбранный элемент перед выбором следующего
возвращается в генеральную совокупность, то выбор на каждом шаге производится из
1
Напомним определение факториала: n!=12...n и 0!=1.

2
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

совокупности объема n. Можно считать, что выбор производится из k групп и все группы
состоят из одинакового числа элементов n1=n2=…=nk=n. Тогда, в силу правила умножения,
число способов такого выбора равно N=nk.
Пример 3. Все размещения с повторениями двух элементов из множества a, b, c:
aa , ab, ac , ba , bb, bc , ca , cb, cc.
Задача 6. В конкурсе по 5 номинациям участвуют 10 кинофильмов. Сколько
существует вариантов распределения призов, если по всем номинациям установлены
различные премии?
Решение. Каждый из вариантов распределения призов представляет собой
комбинацию 5 фильмов из 10, отличающуюся от других комбинаций как составом, так и их
порядком. Так как каждый фильм может получить призы как по одной, так и по нескольким
номинациям, то одни и те же фильмы могут повторяться. Поэтому число таких комбинаций
равно числу размещений с повторениями из 10 элементов по 5:
N  А105  10 5  100000.

§ 1.3. Сочетания

Сочетаниями называются неупорядоченные совокупности элементов, отличающиеся


друг от друга только составом (без учета порядка).

1.3.1. Сочетания без повторений

Пусть из генеральной совокупности объема n берется сразу несколько элементов


(либо элементы берут последовательно, но порядок их появления не учитывается). В
результате такого одновременного неупорядоченного выбора k элементов из генеральной
совокупности объема n получаются комбинации, которые называются сочетаниями без
повторений из n элементов по k.
Теорема 3. Число сочетаний без повторений из n элементов по k равно
n!
Сnk  .
(n  k )!k!
Доказательство. Среди Ank размещений без повторений имеется по k! наборов
каждого состава, представляющих собой всевозможные перестановки из k элементов этого
состава. Если объединить наборы одинакового состава в группы, то каждой группе
соответствует одно сочетание без повторений. В каждой группе будет k! размещений, а всего
размещений Ank . Следовательно, число групп, а значит, и число сочетаний без повторений из
n по k равно
k Ank n!
Cn   .
k! (n  k )!k!
Пример 4. Все сочетания без повторений двух элементов из множества a, b, c:
a, b, a, c, b, c.
Отметим некоторые полезные свойства числа сочетаний без повторений:
Cn0  Cnn  1;
Cnk  Cnn  k ;
Cnk  Cnk 1  Cnk11;
Cn0  Cn1  Cn2  ...  Cnn  2n ;
Ank  Pk Cnk .

3
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Числа C nk называют также биномиальными коэффициентами, поскольку они


участвуют в разложении бинома Ньютона:
n
(a  b) n   C nk a k b n  k .
k 0
Задача 7. В шахматном турнире участвуют 16 человек. Сколько партий должно
быть сыграно в турнире, если между любыми двумя участниками должна быть сыграна одна
партия?
Решение. Каждая партия играется двумя участниками из 16 и отличается от других
только составом пар участников, т.е. представляет собой сочетания без повторений из 16
элементов по 2. Поэтому их число равно
16! 15  16
C162    120.
14!2! 1 2
Задача 8. Садовник должен в течение трех дней посадить 6 деревьев. Сколькими
способами он может распределить по дням работу, если будет сажать не менее одного дерева
в день?
Решение. Предположим, что садовник сажает деревья в ряд, и может принимать
различные решения относительно того, после какого по счету дерева остановиться в первый
день и после какого – во второй. Таким образом, можно представить себе, что деревья
разделены двумя перегородками, каждая из которых может стоять на одном из 5 мест (между
деревьями). Перегородки должны стоять там по одной, поскольку иначе в какой-то день не
будет посажено ни одного дерева. Таким образом, надо выбрать 2 элемента из 5 (без
повторений). Следовательно, число способов C52  10 .

1.3.2. Сочетания с повторениями

Пусть из генеральной совокупности объема n выбирается k элементов, один за


другим, причем каждый выбранный элемент перед выбором следующего возвращается в
генеральную совокупность. При этом ведется запись, какие именно элементы появились и
сколько раз, однако порядок их появления не учитывается. Получившиеся записи
называются сочетаниями с повторениями из n элементов по k.
Теорема 4. Число сочетаний с повторениями из n элементов по k равно
Cnk  Cnk k 1 .
Доказательство. Результатом выбора k элементов из n с возвращением и без учета
порядка является запись о том, сколько раз выбирали каждый из n элементов генеральной
совокупности. А именно, получаем набор вида (k1, k2, ..., kn), где число ki показывает, сколько
раз был выбран i-ый элемент (если его ни разу не выбирали, то ki=0). При этом все ki
неотрицательны и их сумма равна k. Требуется найти число наборов, удовлетворяющих этим
условиям.
Представим набор (k1, k2, ..., kn) в виде групп по k1, k2, ..., kn единиц, разделенных
нулями (ноль ставится после каждой группы, кроме последней; если группа пуста, то ноль
после нее ставится все равно). Например, (1,2,3) представляется в виде 10110111, (0,1,2,0,3,0)
в виде 01011001110 и т.д.
Таким образом, получаются последовательности из n+k1 символов, где k единиц и
n1 нулей. И наоборот, каждой такой последовательности соответствует набор (k1,k2,...kn),
удовлетворяющий нужным условиям. Для единиц нужно выбрать k мест из n+k1
имеющихся, остальные места заполняются нулями. Значит, число вариантов равно Cnk k 1 .
Пример 5. Все сочетания с повторениями двух элементов из множества a, b, c:
a, a, a, b, a, c, b, b, b, c, c, c.

4
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Задача 9. В условиях задачи 6 определить, сколько существует вариантов


распределения призов, если по всем номинациям установлены одинаковые призы?
Решение. Если по каждой номинации установлены одинаковые призы, то порядок
фильмов в комбинации 5 призов значения не имеет, и число вариантов представляет собой
число сочетаний с повторениями из 10 элементов по 5, определяемое по формуле
10  11  12  13  14
С105  C105  5 1  C145   2002.
1 2  3  4  5
Задача 10. Сколько существует четырехзначных номеров2, сумма цифр которых равна
5?
Решение. Представим число 5 в виде суммы последовательных единиц, разделенных
на группы перегородками (каждая группа в сумме образует очередную цифру числа).
Понятно, что таких перегородок понадобится 3. Мест для перегородок имеется 6 (до всех
единиц, между ними и после). Каждое место может занимать одна или несколько
перегородок (в последнем случае между ними нет единиц, и соответствующая сумма равна
нулю). Рассмотрим эти места в качестве элементов множества. Таким образом, надо выбрать
3 элемента из 6 (с повторениями). Следовательно, искомое число номеров
8 7 6
С63  C83   56.
1 2  3
Другое решение заключается в том, что набор цифр любого четырехзначного номера,
удовлетворяющего условиям задачи, можно рассматривать как набор чисел (k1, k2, k3, k4), где
все числа неотрицательны и их сумма равна 5. По теореме 4 и ее доказательству, таких
наборов всего
8!
C45  C85   56.
5!3!
Отметим, что соответствие между n-значными номерами и наборами из n чисел в
таких задачах можно установить, только если заданная сумма цифр не превосходит 9
(поскольку в противном случае цифры не могут быть больше 9, а числа в наборе могут).

§ 1.4. Разбиение множества на группы

Пусть множество из n различных элементов разбивается на k групп так, что в первую


группу попадают n1 элементов, во вторую – n2 элементов, в k-ую группу – nk элементов,
причем n1+n2+...+nk=n. Такую ситуацию называют разбиением множества на группы.
Теорема 5. Число разбиений n элементов на k групп, когда в первую группу попадают
n1 элементов, во вторую – n2 элементов, в k-ую группу – nk элементов, равно:
n!
N n (n1 , n2 ,..., nk )  .
n1!n2!...nk !
Доказательство. В первую группу выберем любые n1 элементов из n имеющихся
первоначально, что можно сделать С nn1 способами. Вторую группу надо заполнить n2
элементами из оставшихся nn1 элементов. Это можно сделать С nn2 n1 различными способами.
Продолжая эту процедуру и используя правило умножения, получаем, что число способов
разбиения n элементов на k групп так, что в первую группу попадают n1 элементов, во
вторую – n2 элементов, в k-ую группу – nk элементов, равно
n! (n  n1 )! (n  n1  ...  nk 1 )! n!
Сnn1 Cnn2 n1 ...Cnnk n1 ... nk 1    ...   .
n1!(n  n1 )! n2!(n  n1  n2 )! nk !0! n1!n2!...nk !
Заметим, что порядок элементов при разбиении на группы не важен, а вот порядок
групп (какая из них считается первой, какая – второй и т.д.) существенен.

2
Здесь и далее под n-значными номерами будем понимать наборы цифр длины n. Например, четырехзначные
номера – это любые комбинации от 0000 до 9999.

5
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Пример 6. Перечислим разбиения множества из 4 элементов a, b, c, d на 2 группы по


2 элемента (6 штук):
[{a,b},{c,d}], [{a,c},{b,d}], [{a,d},{b,c}], [{c,d},{a,b}], [{b,d},{a,c}], [{b,c},{a,d}].
Задача 11. Сколькими способами можно разбить группу из 25 студентов на три
подгруппы А, В и С по 6, 9 и 10 человек соответственно?
Решение. Здесь n=25, k=3, n1=6, n2=9, n3=10. По теореме 5, число разбиений равно
25!
N 25 (6, 9,10)  .
6! 9!10!
Задача 12. Сколько существует семизначных номеров, состоящих из цифр 4, 5 и 6, в
которых цифра 4 повторяется 3 раза, а цифры 5 и 6 – по 2 раза?
Решение. Каждый семизначный номер, удовлетворяющий условию задачи, отличается
от другого только порядком следования цифр, при этом фактически все семь мест в этом
числе делятся на три группы: на одни места ставится цифра «4», на другие места – цифра
«5», а на третьи места – цифра «6». Таким образом, множество состоит из 7 элементов (n=7),
причем n1=3, n2=2, n3=2, и, следовательно, количество таких номеров равно
7!
N 7 (3, 2, 2)   210.
3! 2! 2!
Задача 13. Слово «МАТЕМАТИКА» разрезали на буквы, перемешали и выбирают по
одной, без возвращения. Сколько различных последовательностей может получиться?
Решение. Возможные последовательности отличаются друг от друга только порядком
следования букв, при этом все множество из 10 мест разбивается на 6 групп: два места для
«М»; три места для «А», два места для «Т», по одному месту для «Е», «И», «К». Получаем
10!
N10 (2, 3, 2,1,1,1)   151200.
2! 3! 2!1!1!1!
Более понятное (а на самом деле, эквивалентное) решение заключается в следующем.
Если бы все 10 букв в исходном слове были различны, число их перестановок равнялось бы
10!. Но поскольку от перемены мест одинаковых букв последовательность не меняется, это
число нужно еще поделить на числа перестановок букв «М», «А» и «Т», а именно 2!, 3! и 2!
соответственно.

Подводя итоги главы, представим все полученные результаты в одной таблице.

Таблица 1.1.

Размещения Сочетания
Без повторений n! n!
Ank  Сnk 
( n  k )! (n  k )!k!
С повторениями Ank  n k Cnk  Cnk k 1
Перестановки Разбиения на группы
Pn=n! n!
N n (n1 , n2 ,..., nk ) 
n1!n2!...nk !

При этом перестановки являются частным случаем размещений без повторений, а


разбиения на группы – обобщением сочетаний без повторений.

6
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Задачи для самостоятельного решения

1. Монету подбросили 3 раза. Сколько различных результатов бросаний можно ожидать?


2. Доступ к файлу открывается, только если введен правильный пароль – определенный
трехзначный номер3 из нечетных цифр. Каково максимальное число возможных попыток
угадать пароль?
3. Группу из 10 человек требуется разбить на две непустые подгруппы А и B. Сколькими
способами это можно сделать?
4. Два наборщика должны набрать 16 текстов. Сколькими способами они могут
распределить эту работу между собой?
5. Поезд метро делает 16 остановок, на которых выходят пассажиры. Сколькими способами
могут распределиться между этими остановками 100 пассажиров, вошедших в поезд на
конечной остановке?
6. Шесть студентов-переводников нужно распределить по трем группам. Сколькими
способами это можно сделать?
7. Лифт останавливается на 7 этажах. Сколькими способами могут выйти на этих этажах 6
пассажиров, находящихся в кабине лифта?
8. Сколько существует пятизначных номеров, в которых есть цифры 1 и 2?
9. Байт – это машинное слово, состоящее из восьми бит. Каждый бит равен либо 0, либо 1.
Сколько символов можно закодировать с помощью байта?
10. Автомобильный номер состоит из трех букв и трех цифр. Сколько различных номеров
можно составить, используя 30 букв и 10 цифр?
11. Сколько четырехзначных чисел, составленных из неповторяющихся нечетных цифр,
содержат цифру 3?
12. Из цифр от 1 до 9 составляются всевозможные пятизначные числа, не содержащие
одинаковых цифр. Определить количество чисел, в которых есть цифры 2, 4 и 5
одновременно.
13. Есть 3 билета в различные театры. Сколькими способами они могут быть распределены
среди 25 студентов группы, если каждый студент может получить только один билет?
14. Сколькими способами можно расположить на полке 10 томов энциклопедии?
15. Сколькими способами можно расположить на полке 10 томов энциклопедии так, чтобы
девятый и десятый тома не стояли рядом?
16. Шесть групп занимаются в шести расположенных подряд аудиториях. Сколько
существует вариантов расписания, при которых группы 1 и 2 находились бы в соседних
аудиториях?
17. Сколькими способами можно расставить группу из 10 студентов в очередь так, чтобы
между двумя студентами, Артемом и Борисом, стояло два человека?
18. Из бригады в 14 врачей ежедневно в течении 7 дней назначают двух дежурных врачей.
Определить количество различных расписаний дежурства, если каждый врач дежурит
ровно один раз в неделю.
19. Слово "ЭКОНОМИКА" разрезали на буквы, перемешали и выбирают их по одной, без
возвращения. Сколько различных последовательностей букв может получиться?
20. Слово "МЕНЕДЖМЕНТ" разрезали на буквы, перемешали и выбирают их по одной, без
возвращения. Сколько различных последовательностей букв может получиться?
21. В ящике 5 красных и 4 зеленых яблока. Сколькими способами можно выбрать три яблока
из ящика?
22. Из ящика, в котором лежат 10 красных и 5 зеленых яблок, выбирают одно красное и два
зеленых яблока. Сколькими способами это можно сделать?
23. Десять человек при встрече обмениваются рукопожатиями (каждый с каждым). Сколько
всего рукопожатий будет сделано?
3
Напомним, что под n-значными номерами понимаются наборы цифр длины n.

7
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

24. В группе из 25 студентов нужно выбрать старосту и 3 членов студенческого комитета.


Сколькими способами это можно сделать?4
25. Акционерное собрание компании выбирает из 50 человек президента компании,
председателя совета директоров и 10 членов совета директоров. Сколькими способами
это можно сделать?
26. Из фирмы, в которой работают 10 человек, 5 сотрудников должны уехать в
командировку. Сколько может быть составов этой группы, если директор фирмы, его
заместитель и главный бухгалтер одновременно уезжать не должны?
27. В телевизионной студии работают 3 режиссера, 4 звукорежиссера, 5 операторов, 7
корреспондентов и 2 музыкальных редактора. Сколькими способами можно составить
съемочную группу, состоящую из одного режиссера, двух операторов, одного
звукорежиссера и двух корреспондентов?
28. Студенческая группа из 27 человек, пишет контрольную работу из трех вариантов (по 9
человек в каждом). Сколькими способами можно выбрать 5 человек из группы так, чтобы
среди них оказались писавшие все три варианта?
29. На группу из 25 человек выделены 3 пригласительных билета на вечер. Сколькими
способами они могут быть распределены (не более одного билета в руки)?
30. Имеются 7 билетов: 3 в один театр и 4 — в другой. Сколькими способами они могут
быть распределены между студентами группы из 25 человек?
31. Садовник должен в течение трех дней посадить 10 одинаковых деревьев. Сколькими
способами он может распределить по дням работу, если будет сажать не менее одного
дерева в день?
32. Инвестор намеревается купить 12 акций 4 компаний (не менее чем по одной акции
каждой). Сколькими способами он может распределить свой капитал?
33. Инвестор намеревается купить 11 акций 5 компаний (причем от покупки акций одной или
более из этих компаний он может отказаться). Сколькими способами он может
распределить свой капитал?
34. Сколько существует трехзначных номеров, сумма цифр которых равна 6?
35. Сколько существует четырехзначных номеров, сумма цифр которых равна 9?
36. Группу из 10 человек требуется разбить на две подгруппы так, чтобы в первой группе
было 6 человек, а во второй – 4 человека. Сколькими способами это можно сделать?
37. Группу из 16 человек требуется разбить на 3 подгруппы, в первой из которых должно
быть 5 человек, во второй — 7 человек, в третьей — 4 человека. Сколькими способами
это можно сделать?
38. Студенческую группу из 24 человек (12 девушек и 12 юношей) разбивают на две равные
подгруппы так, чтобы в каждой подгруппе юношей и девушек было поровну. Сколькими
способами это можно сделать?
39. Семь яблок и три апельсина надо положить в два пакета так, чтобы в каждом пакете был
хотя бы один апельсин и чтобы количество фруктов в них было одинаковым. Сколькими
способами это можно сделать? Пакеты считаются различными.
40. Лифт, в котором находится 9 пассажиров, может останавливаться на 10 этажах. На одном
этаже выходят 2 человека, на другом – 3, и еще на одном – 4. Сколькими способами
пассажиры могут выйти из лифта?
41. Восемь авторов должны написать книгу из 16 глав. Сколькими способами можно
распределить материал между авторами, если два человека напишут по три главы,
четыре – по две и два – по одной главе книги?
42. Сколькими способами можно расположить на шахматной доске (88) две ладьи так,
чтобы одна не могла взять другую? (Одна ладья может взять другую, если она находится
с ней на одной горизонтали или на одной вертикали шахматной доски)

4
В задачах 2427 предполагается, что совмещение разных должностей одним человеком не допускается.

8
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

43. Сколько существует двузначных чисел5, кратных либо 2, либо 5, либо тому и другому
числу одновременно?
44. Десяти ученикам выданы два варианта контрольной работы. Сколькими способами
можно посадить учеников в два ряда (по 5 человек друг за другом), чтобы у сидящих
рядом не было одинаковых вариантов, а у сидящих друг за другом был один и тот же
вариант?
45. Три машины № 1, 2, 3 должны доставить товар в шесть магазинов. Сколькими способами
можно использовать машины, если грузоподъемность каждой из них позволяет взять
товар сразу для всех магазинов и если в каждый магазин направляется ровно одна
машина? Сколько вариантов маршрута (порядка доставки товара в магазины) возможно,
если решено использовать только машину № 1?

5
В этой задаче имеются в виду обычные двузначные числа, от 10 до 99.

9
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Глава 2. Классическая вероятностная модель.


Геометрическая вероятность
§ 2.1. Частотная интерпретация вероятности.
Свойство устойчивости частот

Теория вероятностей – это наука о закономерностях случайных событий. Под


случайным событием в теории вероятностей понимается всякое явление, которое может
произойти или не произойти при осуществлении определенного комплекса условий. Каждое
такое осуществление называется испытанием, опытом или экспериментом.
События можно разделить на достоверные, невозможные и случайные.
Достоверным называется событие, которое обязательно произойдет при испытании.
Невозможным называется событие, которое заведомо не произойдет при испытании.
Случайным называется событие, которое в результате эксперимента может либо
произойти, либо не произойти (в зависимости от случайных обстоятельств).
Такое определение событий можно назвать эмпирическим. Более строгие,
математические (теоретико-множественные) определения будут даны позже.
Предметом теории вероятностей являются закономерности массовых случайных
событий, где под массовостью понимается многократная повторяемость.
Рассмотрим несколько событий:
1. А - появление герба при бросании монеты;
2. В - появление трех гербов при трехкратном бросании монеты;
3. С - попадание в цель при выстреле;
4. D – выигрыш по билету денежно-вещевой лотереи.
Видим, что каждое из этих событий обладает какой-то степенью возможности. Для
того, чтобы количественно сравнивать между собой события по степени их возможности,
нужно с каждым событием связать определенное число.
Вероятность события есть численная мера степени объективной возможности этого
события. В качестве единицы измерения вероятности принята вероятность достоверного
события. Вероятность невозможного события равна нулю. Вероятность любого случайного
события обозначается Р(А) и изменяется в диапазоне от нуля до единицы:
0Р(А)1.
Пусть проведена серия из n испытаний (n называют длиной серии), в каждом из
которых может произойти или не произойти событие А. Подсчитаем, сколько раз в этой
серии эксперимент заканчивался наступлением события А, и обозначим это число через п(А).
Поделив его на общее число п всех повторений эксперимента, получим величину
n ( A)
Pn ( A)  ,
n
которая называется относительной частотой события А. При небольшом числе
экспериментов относительная частота события носит случайный характер и может заметно
меняться от одной группы опытов к другой. При увеличении числа экспериментов
случайные обстоятельства, свойственные каждому отдельному эксперименту, в массе
взаимно погашаются, и частота Рn(А) проявляет тенденцию стабилизироваться, приближаясь
к некоторой средней величине.
Этот эмпирический факт называется свойством статистической устойчивости
частот: по мере неограниченного увеличения числа однородных и независимых испытаний
относительная частота события А стремится к некоторой постоянной величине.
Число, к которому приближается относительная частота события при неограниченном
увеличении числа экспериментов, можно принять за вероятность события А, то есть
частотная интерпретация вероятности состоит в том, что относительную частоту события
принимают за приближенное значение вероятности этого же события.

1
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Частота события А отличается от вероятности этого события тем, что вероятность


 величина детерминированная, а частота – величина случайная и до опыта неизвестная.
В качестве примера укажем на опыт Бюффона, в котором симметричная монета
подбрасывалась 4040 раз, а герб выпадал 2048 раз. Частота появления герба в данной серии
наблюдений равна 2048/4040 = 0,507, что близко к интуитивно ожидаемому значению
вероятности 0,5.
К сожалению, частотная интерпретация вероятности несовершенна как с логической,
так и с практической точки зрения. Далеко не всегда возможно или желательно провести
большое количество экспериментов, а кроме того, существует необходимость в
предсказании вероятностей событий, которые еще не происходили. Поэтому далее будут
даны другие определения.

§ 2.2. Пространство элементарных событий. Событие и его вероятность

Для того, чтобы формально описать некоторый эксперимент1, нужно указать все
возможные варианты результатов (исходы), которыми этот эксперимент может закончиться2.
Предполагается, что эксперимент может закончиться одним и только одним исходом.
Множество  всех возможных исходов эксперимента называется пространством
элементарных событий (исходов), а каждый элемент ω этого множества называется
элементарным исходом.
Если все возможные исходы можно перечислить, т.е. их число конечно:
 = {1 , 2, ... n}
или счетно:
= {1, 2 , ... n, ...},
то пространство элементарных событий называется дискретным (конечным или счетным).
Пример 1. При бросании симметричной монеты возможны два исхода – выпадение
решки или герба. В этом случае пространство элементарных событий представляется в виде
  Р, Г  , где буквами Р и Г обозначены решка и герб соответственно.
Пример 2. При бросании двух монет исходы представляют собой упорядоченные
пары, состоящих из символов Р и Г. Первый элемент этой пары – результат, выпавший на
первой монете, второй элемент – результат на второй монете. В этом случае пространство
элементарных событий состоит из четырех элементов
  РР, РГ , ГР, ГГ .
Пример 3. В случае бросания игральной кости может выпасть любое из чисел 1, 2, 3,
4, 5, 6. Поэтому пространство элементарных событий   1, 2, 3, 4, 5, 6.
Пример 4. При бросании двух игральных костей элементарные исходы представляют
собой пары (x, y), где x – число очков, выпавшее на первой кости, а y – число очков на
второй кости. Всего таких пар 66=36, и пространство элементарных событий можно
записать в виде
  ( x, y) : x  1,...,6; y  1,...,6.
Событием в случае дискретного пространства элементарных событий называется
любое подмножество A   этого пространства. Говорят, что «событие А произошло», если
эксперимент закончился одним из элементарных исходов А.
Простым (элементарным) событием называется множество, состоящее из одного
элементарного исхода. Сложным событием называется множество, состоящее из двух или
более элементарных исходов.

1
Под экспериментом имеется в виду не обязательно научный эксперимент, а любое действие или наблюдение,
или их последовательность, при определенных условиях.
2
Степень детализации при описании и перечислении возможных исходов может быть различной в зависимости
от целей эксперимента и других обстоятельств.

2
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Пример 5. Cобытие A – выпадение числа очков 6 на игральной кости является


простым событием, а событие B – выпадение четного числа очков на игральной кости,
которое может быть представлено в виде B={ω2, ω4, ω6}, является сложным событием.
Дадим определение вероятности.
Говорят, что в дискретном пространстве элементарных событий
={1, 2 , ...}
задана вероятность, если каждому элементарному исходу ωi поставлено в соответствие
неотрицательное число рi  0, называемое его вероятностью, такое, что сумма (конечная или
бесконечная) вероятностей всех элементарных исходов равна единице:
n 

p
i 1
i  1 (или p
i 1
i  1 ).

Вероятностью события А называется сумма вероятностей всех элементарных


исходов, входящих в А, то есть
P( A)   P(i ) .
i  A

Таким образом, вероятность события – это числовая функция, определенная на


подмножествах пространства элементарных событий.
Из определения вероятности события следует, что:
1) всегда выполняется неравенство 0Р(А)1;
2) Р(Ω)=1, где Ω – пространство элементарных событий;
3) Р(Ø)=0, где Ø – пустое множество.
В качестве универсальной модели с произвольными вероятностями исходов pi, 1in,
можно предложить «колесо Фортуны», расчерченное на n секторов, где угол i-го сектора
составляет долю pi от всего круга. Колесо вращают, потом оно останавливается одним из
секторов напротив неподвижной стрелки. Это значит, выпал соответствующий исход.
Простейшим пространством элементарных событий с заданной на нем вероятностью
является так называемая классическая модель, в которой пространство конечно и его
элементы:
1) равновозможны;
2) взаимно несовместны (никакие исходы не могут произойти одновременно),
3) полностью описывают все возможные результаты эксперимента (т.е. никакие другие
исходы, кроме перечисленных, не могут произойти).
Такое пространство называют симметричным пространством.
Если ={1, 2, …, n} − симметричное пространство, то вероятности элементарных
исходов равны между собой, т.е. Р(i)=pi=р для любого i=1, 2, …, n и
n n

 P(i )   pi  pn  1 .
i 1 i 1
Отсюда следует, что вероятность любого элементарного исхода равна 1/n.
Тогда вероятность события А по определению равна
1 А
P( A)   P(i )   m  ,
i A n 
где n   – число элементов множества , которое обычно называют общим числом
исходов, а m  А – число элементов множества A, называемое числом исходов,
благоприятствующих событию А.
Итак, в случае симметричного пространства вероятность события А определяется как
отношение числа случаев, благоприятствующих событию А, к общему числу случаев:
m
P( A)  .
n

3
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Монетка (выпадающая гербом или решкой) и игральный кубик (выпадающий числом


очков от 1 до 6) дают наглядные модели симметричных вероятностных пространств с
числами исходов n=2 и n=6. Общую модель симметричного пространства с n исходами дает
урна с n пронумерованными шарами, один из которых выбирается наудачу (не глядя).
Событие A , состоящее из всех элементарных исходов пространства, не входящих в А,
называется противоположным событием к событию А. Оно происходит тогда и только
тогда, когда событие A не произошло. Очевидно, что
P( A)  P( A )  1 .
Это равенство используется для вычисления вероятности события А в случае, когда
вероятность противоположного события известна или легко может быть найдена. Тогда
P( A)  1  P( A ) .
Таким образом, для вычисления вероятности события в каждой задаче важно
определить, в чем состоит эксперимент, правильно построить соответствующее
пространство элементарных событий  и выделить в нем требуемое событие A. Затем,
используя методы комбинаторики, подсчитать число элементов, входящих в  и A.
Задача 1. В ящике 5 апельсинов и 4 яблока. Наудачу выбираются 3 фрукта. Какова
вероятность, что все три фрукта – апельсины?
Решение. Элементарными исходами здесь являются выборки, включающие 3 фрукта.
Поскольку порядок фруктов здесь не важен, будем считать выборки неупорядоченными (и,
разумеется, бесповторными). Общее число элементарных исходов n   равно числу
способов выбрать 3 элемента из 9, т.е. числу сочетаний без повторений C93 . Число
благоприятствующих исходов m  A будет равно числу способов выбора трех апельсинов
из имеющихся пяти, т.е. числу сочетаний без повторений 3 элементов из 5, или С53 . Поэтому
искомая вероятность
5!
C53 2!3!
P( A)  3   0,12 .
C9 9!
3!6!
Задача 2. Преподаватель предлагает каждому из трех студентов задумать любое
число от 1 до 10. Считая, что выбор каждым из студентов любого числа из заданных
равновозможен, найти вероятность того, что у кого-то из них задуманные числа совпадут.
Решение. Вначале подсчитаем общее количество исходов. Первый из студентов
выбирает одно из 10 чисел и имеет n1=10 возможностей, второй тоже имеет n2=10
возможностей, наконец, третий также имеет n3=10 возможностей. В силу правила умножения
общее число способов будет равно n= n1n2n3=103 = 1000, т.е. все пространство содержит
1000 элементарных исходов.
Подсчет количества благоприятствующих исходов более сложен. Заметим, что
совпадение задуманных чисел может произойти у любой пары студентов (или даже
одновременно у всех троих). Чтобы не разбирать отдельно все эти случаи, удобно перейти к
противоположному событию, т.е. подсчитать количество тех случаев, когда все три студента
задумывают разные числа. Первый из них по-прежнему имеет m1=10 способов выбора числа.
Второй студент имеет теперь лишь m2=9 возможностей, поскольку ему приходится
заботиться о том, чтобы его число не совпало с задуманным числом первого студента.
Третий студент еще более ограничен в выборе — у него всего m3=8 возможностей (из 10
возможных исключаются два числа, задуманных первыми двумя студентами). Поэтому
общее число комбинаций задуманных чисел, в которых нет совпадений, в силу правила
умножения, равно m=1098 = 720. Остальные 280 случаев характеризуются наличием хотя
бы одного совпадения. Следовательно, искомая вероятность совпадения равна Р=280/1000=
0,28.

4
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Задача 3. Найти вероятность того, что в 8-значном номере3 ровно 4 цифры совпадают,
а остальные различны.
Решение. Событие А={8-значный номер содержит 4 одинаковые цифры}. Из условия
задачи следует, что в номере пять различных цифр, одна из которых повторяется. Число
способов её выбора равно числу способов выбора одной цифры из 10 цифр. Эта цифра
занимает любые 4 места в числе, что возможно сделать С 84 способами, так как порядок здесь
не важен. Оставшиеся 4 места занимают различные цифры из неиспользованных девяти, и
так как число зависит от порядка расположения цифр, то число способов выбора четырех
цифр равно числу размещений без повторений А94 . Тогда число благоприятствующих
событию исходов | A | 10С 84 А94 . Всего же число 8-значных номеров равно числу размещений
8
с повторениями A10  ||=108. Искомая вероятность равна
| A | 10C84 A94 8! 9! 1
P  8
    0,021168 .
|| 10 4!4! 5! 107
Задача 4. Шесть клиентов случайным образом обращаются в 5 фирм. Найти
вероятность того, что хотя бы в одну фирму никто не обратится.
Решение. Рассмотрим противоположное событие A , состоящее в том, что в каждую
из 5 фирм обратился клиент. Тогда в какую-то из них обратились два человека, а в
остальные 4 фирмы – по одному клиенту. Таких возможностей
5  6!
| A | 5  N 6 (2,1,1,1,1)  .
1!1!1!1!2!
Всего же способов распределить 6 клиентов по 5 фирмам |  | 56 . Отсюда
5  6! 1
P( A)    0,1152 ,
1!1!1!1!2! 5 6
следовательно,
P ( A)  1  Р ( A)  0,8848 .
Задача 5. Среди 25 экзаменационных билетов имеется 5 «счастливых» и 20
«несчастливых». Студенты подходят за билетами один за другим по очереди. У кого больше
вероятность вытащить «счастливый» билет: у того, кто подошел первым, или у того, кто
подошел вторым?
Решение. Пусть «счастливые» билеты имеют номера 1, 2, 3, 4, 5. Обозначим через i1
номер билета, взятого первым студентом, через i2 – номер билета, взятого вторым студентом,
тогда элементарным исходом будет пара (i1 , i2 ) , а пространство элементарных событий
  (i1, i2 ) : i1  1,...,25; i2  1,...,25; i1  i2 ,
где все элементарные исходы равновероятны.
Событие А={первый студент взял «счастливый» билет} имеет вид
A  (i1 , i2 ) : i1  1,...,5; i2  1,...,25; i1  i2 ,
а событие В={второй студент взял «счастливый» билет} имеет вид:
B  (i1, i2 ) : i1  1,...,25; i2  1,...,5; i1  i2 .
Каждое из событий А и В содержит | A || B | С 51С 24
1
 120 элементов, а все
1 1
пространство  содержит |  | С 25 С 24  600 элементов. Следовательно, Р(А)=Р(В)=1/5.
Таким образом, вероятность не зависит от того, кто подошел первым, кто вторым и т.п.
Задача 6. Пусть в урне имеется N шаров, из них M белых и NM черных. Из урны
извлекается n шаров. Найти вероятность того, что среди них ровно m белых шаров.
Решение. Так как порядок шаров здесь не важен, то число всех возможных выборок
объема n из N шаров равно числу сочетаний без повторений С Nn . Число исходов,

3
Как и ранее, в главе 1, под n-значными номерами понимаются наборы цифр длины n.

5
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

благоприятcтвующих событию А={в выборке m белых шаров и nm черных шаров}, равно
CMm C Nn mM , и, следовательно, искомая вероятность равна
CMm C Nn mM
P( A)  .
C Nn
Описанная ситуация представляет собой пример «урновой модели». Говорят также,
что случайное число белых или черных шаров в выборке имеет гипергеометрическое
распределение.
В общем случае, предположим, что имеется n=n1+n2+...+nk различных элементов,
причем n1 элементов первого типа, n2 – второго типа, ..., nk – k-го типа. Случайным образом
из этих n элементов выбирается m элементов. Найдем вероятность события А, состоящего в
том, что среди выбранных окажется ровно m1n1 элементов первого типа, m2n2 – второго
типа, ..., mknk элементов k-го типа, так что m=m1+m2+...+mk.
Поскольку порядок выбора не важен, то при определении общего числа исходов и
числа благоприятных исходов мы должны пользоваться числом сочетаний без повторений.
Общее число элементарных исходов равно Сnm . Далее, m1 элементов первого типа можно
выбрать С nm11 способами, m2 элементов второго типа – Сnm22 способами,...., mk частиц k-го типа
– Сnmkk способами. При этом любой выбор элементов каждого типа комбинируется с любыми
возможными вариантами выбора элементов остальных типов и, следовательно, число
благоприятствующих событию А исходов равно Сnm11 Cnm22 ...Cnmkk . Поэтому вероятность равна
Cnm11 Cnm22 ...Cnmkk
P( A)  P(m1 , m2 ,..., mk )  .
Cnm

§ 2.3. Статистики БозеЭйнштейна, ФермиДирака, МаксвеллаБольцмана

Предположим, что n неразличимых частиц распределяются по m ячейкам. Различными


и равновозможными считаются распределения частиц по ячейкам, отличающиеся только
числом частиц, попавших в каждую ячейку. Такое распределение носит название
статистики БозеЭйнштейна. Найдем общее число элементарных исходов в статистике
БозеЭйнштейна. Если считать "белый" элемент частицей, а "черный" – перегородкой, то
существует взаимно однозначное соответствие между способами выбора m–1 "черного"
элемента и размещениями частиц в статистике БозеЭйнштейна. Для этого рассмотрим
последовательность из n+m–1 элементов и выберем из них m–1 "черный" элемент.

1 2 3 m 1
        ...  
1 2 3 4 5 6 7 n  m 1

Рис. 2.1.

Так на рис. 2.1 в первую ячейку попала одна частица, во вторую – три, третья
оказалась пустой и т.д., последняя, m-я ячейка также оказалась пустой. Поэтому общее число
вариантов равно числу сочетаний без повторений С nmm11 . Найдем вероятность того, что в
фиксированную ячейку попало ровно k частиц (событие А). Заметим, что если в этой
фиксированной ячейке уже находится k частиц, то остальные n–k частиц должны быть
распределены по оставшимся m–1 ячейкам, а это можно сделать С nmm11k 11  C nmm2 k  2
способами. Следовательно, искомая вероятность равна

6
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

C nmm2k 2
P( A)  .
C nmm11
В статистике ФермиДирака n неразличимых частиц распределяются по m ячейкам
(nm), однако в каждой ячейке не может находиться более одной частицы. Число различных
элементарных исходов совпадает с числом способов, которыми мы можем выбрать n занятых
ячеек из общего числа ячеек m, и так как порядок выбора не важен, то число способов равно
числу сочетаний без повторений С mn . Найдем вероятность того, что заняты k фиксированных
ячеек. Пусть событие А заключается в том, что заняты фиксированные k ячеек (kn). Тогда
оставшиеся mk ячеек должны быть заполнены nk частицами, а это можно сделать С mn kk
способами. Поэтому искомая вероятность равна
C n k
P( A)  mnk .
Cm
Предполагая, что n различных частиц распределяются по m ячейкам без ограничений
на число попавших в каждую ячейку частиц, получаем статистику МаксвеллаБольцмана.
Поскольку каждая из n частиц может попасть в любую из m ячеек, то общее число
элементарных исходов равно mn. Пусть событие А заключается в том, что в первую ячейку
попало n1 частиц, во вторую – n2, …, в m-ую – nm частиц (n1+n2+...+nm=n). Тогда число
благоприятcтвующих событию А исходов равно числу разбиений множества из n элементов
на m групп так, что в первую группу попадает n1 элементов, во вторую – n2 элементов, в m-
ую группу – nm элементов, то есть числу
n!
N n (n1 , n 2 ,..., n m )  .
n1!n 2 !...n m !
Таким образом, искомая вероятность равна
n! 1
P( A)  .
n1! n 2 !...n m ! m n
Статистика МаксвеллаБольцмана представляет собой частный случай так
называемой полиномиальной схемы (см. § 4.5).
Все описанные статистики активно используются в статистической физике.
Статистика МаксвеллаБольцмана описывает системы невзаимодействующих частиц,
подчиняющихся законам классической механики, например, частицы идеального газа.
Статистикам БозеЭйнштейна и ФермиДирака подчиняются частицы, называемые
бозонами и фермионами. К первым относятся, например, фотон (квант света), знаменитый
бозон Хиггса, а также некоторые атомы при температурах, близких к абсолютному нулю. Ко
вторым относятся, в частности, электроны и нейтрино.
В последние десятилетия в мире активно развиваются новые научные направления –
эконофизика и социофизика, которые стараются применить методологию физики в
экономике и общественных науках, в том числе статистическую физику. Речь идет о
попытках описать поведение больших масс людей подобно поведению множества атомов
или элементарных частиц. Интересующиеся могут найти много материалов на эту тему в
Интернете.

§ 2.4. Геометрическая вероятность

Пусть в n-мерном пространстве Rn задана область4   R n , имеющая конечный


положительный n-мерный объем. Предположим, в эту область наудачу бросают точку. Слово

4
Область здесь понимается в широком смысле, как множество, для которого можно определить объем. Это
может быть и неограниченное множество, и конечный или счетный набор отдельных областей, объемы которых
при этом складываются.

7
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

«наудачу» означает, что в таком эксперименте нет оснований полагать, что в какие-то места
области точка должна попадать чаще, чем в другие. В этом случае вероятность попадания
точки в какую-то подобласть A   определяют формулой
V ( A)
P( A)  ,
V ( )
где V ( A) и V ( ) – n-мерные объемы областей A и  соответственно. Здесь элементарными
исходами называются точки множества  (которое играет роль пространства элементарных
событий), а благоприятствующими исходами – точки множества A .
В частности, при n=1, на прямой, под объемами имеются в виду длины отрезков (или
наборов отрезков):
l ( A)
P( A)  ,
l ( )
при n=2, на плоскости, площади фигур (или наборов фигур):
S ( A)
P( A)  ,
S ( )
при n=3, в трехмерном пространстве, обычные объемы тел (или наборов тел):
V ( A)
P( A)  .
V ( )
Задача 7. Точку наудачу бросили на отрезок [0; 2]. Какова вероятность попадания
этой точки на отрезок [0,5; 1,4]?
Решение. Здесь пространство элементарных событий – это отрезок   [0; 2] , а
множество A  [0,5; 1,4] , при этом длины этих отрезков составляют l ()  2 и l ( A)  0,9 .
Поэтому вероятность попадания точки в указанный отрезок равна
l ( A) 0,9
P( A)    0,45 .
l ( ) 2
Задача 8. На отрезок [0; 2] бросили наудачу и поочередно две точки. Какова
вероятность, что первая точка лежит правее второй точки?
Решение. Обозначим получившиеся координаты точек через x и y. Элементарным
исходом в таком бросании двух точек будет пара ( x , y ) , а пространством элементарных
событий – квадрат   ( x, y) : x, y  [0; 2] .
Событие A={первая точка лежит правее второй точки} равносильно условию x>y,
следовательно, A  ( x, y ) : x, y  [0; 2], x  y, т.е. представляет собой треугольник (см. рис.
2.2). Площади квадрата  и треугольника A равны соответственно S ( )  4 и S ( A)  2 ,
отсюда
S ( A) 2
P( A)    0,5 .
S ( ) 4

Рис. 2.2.

8
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Задача 9. Стержень разламывается на две части в случайной точке, равномерно


распределенной по длине стержня (расположенной наудачу). Найти вероятность того, что
меньший обломок имеет длину, не превосходящую одной третьей длины стержня.
Решение. Обозначим длину стержня L, а расстояние точки разлома от одного
(например, левого) конца стержня – х. Тогда описанное событие произойдет при условии,
L 2L
если либо х  , либо x  (см. рис. 2.3). В данном случае
3 3
 L   2L 
=[0, L], A  0,    , L  ,
 3  3 
т.е. A представляет собой не один отрезок, а объединение двух отрезков, длины которых
складываются. Искомая вероятность равна отношению
L L

2
P ( A)  3 3  .
L 3

Рис. 2.3.

Задача 10 (задача о встрече). Анна и Борис условились встретиться в определенном


месте между 12 и 13 часами. Пришедший первым ждет другого в течение 20 минут, после
чего уходит. Чему равна вероятность встречи Анны и Бориса, если приход каждого из них
может произойти наудачу в течение указанного часа и моменты прихода независимы?
Решение. Обозначим моменты прихода Анны через х и Бориса через у. Для того,
чтобы встреча произошла, необходимо и достаточно, чтобы | x  y | 20 . Изобразим х и у как
координаты на плоскости, в качестве начала координат выберем 12 часов, в качестве
единицы масштаба – минуту. Все возможные элементарные исходы представляются точками
квадрата со стороной 60, а благоприятствующие встрече располагаются в заштрихованной
области. Искомая вероятность равна отношению площади заштрихованной фигуры (рис. 2.4)
к площади всего квадрата. Чтобы найти площадь заштрихованной фигуры, заметим, что два
треугольника, остающиеся в незаштрихованной части, вместе образуют квадрат со стороной
40. Отсюда
S ( A) 602  402 5
P( A)    .
S ( ) 602 9

Рис. 2.4.

9
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Задача 11 (задача Бюффона). Плоскость разграфлена параллельными прямыми,


отстоящими друг от друга на расстоянии 2а. На плоскость наудачу бросается игла длиной 2l
(l<a). Найти вероятность того, что игла пересечет какую-нибудь прямую.
Решение. Если игла бросается с достаточной высоты и ее начальное положение
случайно, то под словом «наудачу» подразумевается, во-первых, что центр иглы наудачу
попадет на отрезок длиной 2а, во-вторых, что угол  между прямой и иглой равномерно
распределен на отрезке [0, ], и в-третьих, что на величину угла не влияет расстояние от
центра до прямой. Поэтому изобразим результат бросания точкой с координатами (, х),
лежащей внутри прямоугольника со сторонами а и , где х – расстояние от центра иглы до
ближайшей прямой. Из рис. 2.5а видно, что пересечение иглы с прямой происходит тогда и
только тогда, когда x  l sin  . Искомая вероятность равна отношению площади
заштрихованной области A к площади прямоугольника на рис. 2.5б:

1 2l
P( A)   l sin  d  .
a 0 a

Рис. 2.5.

Отметим, что полученную формулу можно применить для приближенного


вычисления числа . Действительно, получаем:
2l
 .
aP( A)
Проводя многократные эксперименты (бросания иглы), можем приблизить
вероятность P(A) относительной частотой Pn(A) и, соответственно, найти приближенное
значение
2l
n  .
aPn ( A)
Подобное вычисление детерминированных величин с помощью последовательности
испытаний со случайными исходами называется методом МонтеКарло. Разумеется, в
современных исследованиях для этого используется компьютер5.

5
Cм. например: Соболь И.М. Численные методы Монте-Карло. М.: Наука, 1973; Михайлов Г.А., Войтишек А.В.
Численное статистическое моделирование. Методы Монте-Карло. М.: Академия, 2006.

10
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Задачи для самостоятельного решения

1. Бросают две игральные кости. Чему равна вероятность того, что сумма очков, выпавших
на обеих костях, не превзойдет 5?
2. Какова вероятность того, что в 4 бросаниях кости хотя бы один раз выпадет «единица»?
3. Четыре человека вошли в лифт на первом этаже шестиэтажного дома. Найти вероятности
следующих событий: а) все пассажиры выйдут на шестом этаже; б) все пассажиры
выйдут на одном и том же этаже; в) все пассажиры выйдут на разных этажах.
4. Семь человек вошли в лифт на первом этаже восьмиэтажного дома. Какова вероятность,
что хотя бы на одном этаже вышли по крайней мере два человека?
5. Лифт начинает движение с 7 пассажирами и останавливается на 10 этажах. Найти
вероятность того, что три пассажира вышли на одном этаже, два − на другом этаже и еще
два − на еще одном этаже.
6. Пять яблок раскладываются в четыре ящика. Какова вероятность, что в двух ящиках
будет по два яблока, в одном − одно яблоко и один ящик будет пустой?
7. Шесть шаров случайным образом раскладываются по 3 ящикам. Найти вероятность того,
что в первом ящике лежит 4 шара.
8. Пять клиентов случайным образом обращаются в 5 фирм. Найти вероятность того, что
ровно в одну фирму никто не обратится.
9. Шесть клиентов обращаются в 3 фирмы равновероятно. Найти вероятность того, что
ровно в одну фирму обратятся 2 клиента.
10. Шесть клиентов обращаются в 4 фирмы равновероятно. Найти вероятность того, что в
какие-то две фирмы обратятся по два клиента и в какие-то две − по одному.
11. N клиентов обращается в M фирм равновероятно. Найти вероятность того, что хотя бы в
одну фирму никто не обратится, если: a) N=5, M=4; б) N=6, M=4; в) N=7, M=5.
12. N клиентов обращаются в M фирм равновероятно. Найти вероятность того, что во все
фирмы обратится разное число клиентов (включая, возможно, ноль), если: а) N=6, M=3;
б) N=7, M=3; в) N=7, M=4.
13. В каждой упаковке товара фирмы «Икс» имеется одна из букв «И», «К», «С»
(равновероятно). Какова вероятность собрать все буквы, купив 5 упаковок товара?
14. В каждой из упаковок товара равновероятно встречаются буквы «П», «Р», «И», «З».
Найти вероятность того, что можно будет собрать слово «ПРИЗ», купив: а) 6 упаковок
товара; б) 7 упаковок товара.
15. В каждой упаковке товара имеется одна из 5 различных наклеек (равновероятно). Какова
вероятность собрать их все, купив 7 упаковок товара?
16. Найти вероятность того, что в шестизначном номере три цифры совпадают, а остальные
различны (считаем, что номера могут начинаться с нуля).
17. Найти вероятность того, что в восьмизначном номере ровно три цифры совпадают, а
остальные различны.
18. Найти вероятность того, что в пятизначном номере имеются 2 четные цифры и 3
нечетные, при условии, что все они различны.
19. Семь человек становятся случайным образом в очередь один за другим. Какова
вероятность того, что два определенных человека, Анна и Борис, встанут рядом?
20. В очередь в булочную случайным образом встали восемь женщин и двое мужчин. Какова
вероятность того, что между мужчинами будут стоять две женщины?
21. В очередь в кассу стоят 9 человек (трое мужчин, четыре женщины и двое детей). Какова
вероятность, что между некоторыми двумя мужчинами будут стоять двое детей и одна
женщина?
22. В очереди стоят 4 женщины и 3 мужчины. Какова вероятность, что все мужчины стоят
рядом?

11
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

23. В урне 5 белых и 4 черных шара. Из урны наугад вынимают два шара. Какова
вероятность того, что это будут: а) два белых шара; б) два черных шара; в) один черный и
один белый.
24. В партии из 8 изделий имеется 3 изделия высшего качества. Найти вероятность того, что
среди отобранных (без возвращения) 4 изделий – ровно одно изделие высшего качества.
25. В лотерее из 50 билетов 5 выигрышных. Какова вероятность того, что среди 5 купленных
выбранных билетов ровно 2 будут выигрышными?
26. В лотерее из N билетов имеется M выигрышных. Найти вероятность того, что среди K
купленных билетов окажется хотя бы один выигрышный, если: а) N=50, M=4, K=10; б)
N=60, M=5, K=10.
27. Из N проданных за неделю телевизоров M имеют скрытые дефекты. Найти вероятность
того, что среди случайно выбранных K телевизоров (из числа проданных за неделю)
окажется ровно L без скрытых дефектов, если: а) N=10, M=4, K=5, L=2; б) N=16, M=4,
K=6, L=4.
28. Из N проданных за неделю автомобилей M имеют скрытые дефекты. Найти вероятность
того, что среди случайно выбранных K автомобилей (из числа проданных за неделю)
окажется не более L со скрытыми дефектами, если: а) N=12, M=4, K=7, L=1; б) N=15,
M=3, K=5, L=1; в) N=11, M=5, K=7, L=2; г) N=13, M=4, K=7, L=2.
29. Группа из N студентов пишет контрольную работу из М вариантов (одинаковое число
студентов в каждом варианте). Найти вероятность того, что среди случайно выбранных К
студентов есть писавшие каждый вариант, если: а) N=18, M=3, K=5; б) N=20, M=4, K=5; в)
N=24, M=4, K=5; г) N=32, M=4, K=6.
30. В трех студенческих группах 72 человека (по 24 человека в группе: 12 юношей и 12
девушек). Наудачу выбраны 5 человек. Какова вероятность, что среди них будут девушки
из всех трех групп?
31. На группу из 10 человек предоставлено для производственной практики 6 мест в
лаборатории № 1 и 4 места – в лаборатории № 2. Какова вероятность того, что при
случайном распределении мест двое неразлучных друзей из этой группы попадут на
практику в одну лабораторию?
32. Работа каждого из четырех студентов заочного отделения может быть направлена на
проверку одному из четырех преподавателей, равновероятно и независимо от других
работ. Какова вероятность, что все четыре работы проверены разными преподавателями?
33. В пакете с леденцами лежит 4 красных, 6 желтых и 10 зеленых конфет. Найти
вероятность вынуть наудачу подряд 3 конфеты одного цвета.
34. В урне K белых шаров, L красных и М черных. Найти вероятность достать из урны (без
возвращения) три шара, не все цвета которых одинаковы, если: а) K=9, L=7, M=4; б)
K=10, L=8, M=6.
35. В ящике находятся 5 белых, 3 красных и 2 черных шара. Наудачу выбирают 6 шаров.
Найти вероятность того, что выборка будет содержать 3 белых, 2 красных и 1 черный
шар, если: а) выборка производится без возвращения (все 6 шаров выбираются сразу); б)
выборка производится с возвращением (записывается цвет выбранного шара, после чего
он возвращается в ящик).
36. В точке С, любое положение которой на телефонной линии АВ длиной 10 км
равновозможно, произошел разрыв. Определить вероятность того, что точка С удалена от
точки А, где находится ремонтная станция, на расстояние, не меньшее 1 км.
37. Какова вероятность, что дуэль состоится, если каждый из дуэлянтов приходит на место
дуэли в случайный момент времени между 5 и 6 часами и ждет противника в течение 5
минут?
38. Две подруги договорились встретиться в условленном месте в промежутке от 17 до 19
часов. Пришедшая первой ждет другую не более 15 минут. Какова вероятность, что
подруги не встретятся?

12
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

39. На отрезок [2, 5] наудачу бросаются две точки. Какова вероятность, что расстояние
между ними окажется меньше 2?
40. На отрезок [1, 2] наудачу брошены две точки. Какова вероятность, что расстояние
между ними окажется больше 1?
41. Два теплохода должны подойти к одному и тому же причалу. Время прихода обоих
теплоходов независимо и равновозможно в течение данных суток. Найти вероятность
того, что ни одному из теплоходов не придется ожидать освобождения причала, если
время стоянки первого теплохода — 1 час, а второго — 2 часа.
42. Студент может добраться до факультета либо на автобусе, интервал движения которого
составляет 7 минут, либо на троллейбусе, интервал движения которого составляет 10
минут. Найти вероятность того, что студенту, пришедшему на остановку в случайный
момент времени, придется ждать не более трех минут.
43. На шахматную доску (88) случайным образом поставлены две ладьи. Какова
вероятность того, что они не будут бить друг друга? (Одна ладья бьет другую, если она
находится с ней на одной горизонтали или на одной вертикали шахматной доски)
44. Наудачу взяты два положительных числа Х и Y от 0 до 1. Найти вероятность того, что
сумма Х+Y не превышает 1, а произведение ХY не меньше 0,09.
45. * Найти вероятность того, что из трех наудачу взятых отрезков длиной от 0 до L можно
построить треугольник.

Новые задачи (2018)

46. В урне лежали шары, черные и белые. Вероятность вынуть из урны белый шар была
равна 2/5. После того, как из урны вынули один белый шар, эта вероятность стала равна
1/3. Определить, сколько шаров каждого цвета было в урне.
47. В урне лежит 10 шаров, которые могут быть черными и белыми. Вероятность вынуть два
черных шара подряд без возвращения равна p. Определить, сколько черных шаров лежит
в урне, если: а) p=1/3; б) p=2/9; в) p=4/5.
48. Точка случайным образом выбирается в квадрате. Какова вероятность, что она попадет в
круг, вписанный в данный квадрат?
49. Две точки случайным образом выбираются на окружности. Какова вероятность того, что
расстояние между ними окажется меньше радиуса окружности?
50. Точка (p,q) случайным образом выбирается в квадрате K. Найти вероятность того, что
уравнение x 2  px  q  0 имеет действительные корни, если: а) K=[0,1]2; б) K=[1,1]2.
51. Студент добирается до факультета с пересадкой. Сначала он ждет на остановке трамвай,
затем на другой остановке ждет автобус. Интервал движения трамвая составляет 12
минут, интервал движения автобуса – 8 минут. Найти вероятность того, что студенту
придется ждать на остановках в сумме не более 10 минут.

13
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Глава 3. Основные формулы теория вероятностей

§ 3.1. Операции над событиями


Одной из основных задач теории вероятностей является вычисление вероятностей
сложных событий, когда известны вероятности каких-то других событий. Это возможно,
если эти новые события можно выразить через исходные события с помощью различных
операций.
Суммой (или объединением) двух событий А и В называется событие АВ (А+В),
заключающееся в том, что произойдет хотя бы одно из событий А или В (либо событие А,
либо событие В, либо А и В одновременно).
Произведением (или пересечением) двух событий А и В называется событие АВ (АВ),
состоящее в том, что происходит и событие А, и событие В.
Отрицанием (или противоположным событием) для события А называется событие
A , которое происходит тогда и только тогда, когда не происходит событие А.
Разностью событий A и B называется событие A\B, состоящее в том, что происходит
событие A, но не происходит событие B. Иначе говоря, A \ B  AB .
Симметрической разностью событий А и В называется событие С=АВ, в которое
входят те элементарные исходы, которые входят или в А или в В, но не входят в их
пересечение: АВ = (А\В)  (В\А).
Поскольку все события мы рассматриваем как подмножества пространства
элементарных событий , то и операции над ними – это соответствующие операции над
множествами (объединение, пересечение, дополнение). Все пространство  соответствует
достоверному событию (поскольку эксперимент всегда заканчивается каким-то
элементарным исходом), а пустое множество  – невозможному событию (поскольку в
нем нет ни одного возможного исхода).
Справедливы следующие соотношения:
1. A    , A    A, A  A  A
2. A    A, A    , A  A  A
3. A A,   ,   
4. А  В  А  В, A  B  A  B
(принцип двойственности или формулы де Моргана)
5. A  B  B  A, A  B  B  A
(коммутативность операций объединения и пересечения)
6. A  ( B  C )  ( A  B)  C , A  ( B  C )  ( A  B)  C
(ассоциативность операций объединения и пересечения)
7. A  ( B  C )  ( A  B)  ( A  C )
(дистрибутивность операции объединения относительно пересечения)
8. A  ( B  C )  ( A  B)  ( A  C )
(дистрибутивность операции пересечения относительно объединения)

Для наглядности соотношений между событиями используют графическую модель,


называемую диаграммой Венна (рис. 3.1).

1
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Рис. 3.1.

Пример 1. Бросают две игральные кости. Пусть А – событие, состоящее в том, что
сумма очков нечетная, В – событие, заключающееся в том, что хотя бы на одной из костей
выпала двойка. Опишем события А  В и А  В .
Пространство элементарных исходов может быть представлено в виде:
Ω={(1,1), (1,2), …,(2,1),…, (6,6)};   36 .
Согласно условию задачи, события А и В состоят из следующих элементарных
исходов:
А={(1,2),(1,4),(1,6),(2,1),(2,3),…,(6,1),(6,3),(6,5)};
B={(1,2),(2,1),(2,3),(3,2),(2,4),(4,2),(5,2),(2,5),(2,6),(6,2),(2,2)}.
Объединение А  В представляет собой событие, состоящее в наступлении хотя бы
одного из событий А и В, т.е. событие А  В означает, что сумма выпавших очков нечетна
или на одной из костей выпала двойка (может быть и то, и другое вместе):
А  В ={(1,2),(1,4),(1,6),(2,1),(2,2),(2,3),(2,4),(2,5),(2,6),…,(6,1),(6,3),(6,5)}.
Пересечение А  В представляет собой событие, состоящее в наступлении обоих
событий А и В, т.е. в том, что на одной из костей выпала двойка, а сумма очков – нечетное
число:
А  В ={(1,2),(2,1),(2,3),(3,2),(2,5),(5,2)}.

События А и В называются несовместными (непересекающимися), если они не


могут произойти вместе: A  B   .
События А1, А2, ..., Аn образуют полную группу событий, если они несовместны и в
сумме образуют все пространство  , т.е.
n

А  ,i Ai  A j  , i  j .
i 1
Это означает, что в результате эксперимента обязательно произойдет одно из данных
событий, и только одно.
Пример 2. События А и А несовместны и образуют полную группу.

2
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

§ 3.2. Теоремы сложения вероятностей

Пусть заданы вероятности некоторых событий и требуется найти вероятности их


объединения.
Теорема 1 (теорема сложения вероятностей несовместных событий).
Вероятность объединения двух несовместных событий равна сумме их
вероятностей, т. е. если A  B   , то
P ( A  B )  P ( A)  P ( B ) .
Доказательство проведем для случая конечного пространства элементарных событий
. Тогда вероятности событий А и В равны
P ( A)   P ( ) и P( B)   P( ) .
i A
i k
k В

Поскольку во множествах A и B нет общих исходов, то сумма вероятностей исходов,


входящих во множество A  B , раскладывается в две суммы по исходам из A и В:
P( A  B)   Р( j )   P(i )   P(k )  P( A)  P( B) .
 jAB iA k B

Доказательство без труда переносится на случай счетного пространства ={1,2,3,


...}, когда вместо конечных сумм рассматриваются суммы со счетным числом слагаемых –
сходящиеся ряды.
Следствия:
1. Методом математической индукции теорему 1 можно распространить на любое
конечное число слагаемых, т.е. если события Аi несовместны, то
 n  n
P  Ai    P( Ai ) .
 i 1  i 1
2. Если события А1, А2, …, Аn образуют полную группу событий, то сумма их
вероятностей равна единице. В частности, поскольку противоположные события
несовместны и в сумме образуют , отсюда следует (уже известная ранее) формула:
P( A)  1  P( A ) .
3. Если A  B , то P ( A)  P ( B) .
Теорема 2 (теорема сложения вероятностей произвольных событий).
Для любых событий А и В верно равенство
P ( A  B)  P ( A)  P ( B)  P( A  B) .
Доказательство. Для любых событий А и В событие A  B наступит тогда, когда
наступит одно из несовместных событий A  B , A  B или A  B По теореме сложения
для несовместных событий:
P( A  B)  P( A  B)  P( A  B )  P( A  B) .
Событие А наступит, если наступит хотя бы одно из двух несовместных событий:
A  B или A  B . Тогда вероятность события А по теореме сложения для несовместных
событий равна
P( A)  P( A  B)  P ( A  B ) .
Аналогично, событие В наступит, если наступит хотя бы одно из несовместных
событий A  B или A  B , и вероятность события В равна
P( B)  P( A  B)  P ( A  B) .
Складывая последние два уравнения и сравнивая с первым, получаем
P( A)  P( B )  2 P( A  B)  P( A  B )  P( A  B)  P( A  B)  P( A  B ) ,
откуда
P ( A  B)  P ( A)  P ( B)  P( A  B) .

3
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Следствия:
1. Вероятность пересечения двух событий A и B вычисляется по формуле
P ( A  B )  P ( A)  P ( B )  P ( A  B ) .
2. Вероятность объединения любого конечного числа событий вычисляется по
формуле включения-исключения:
n
P( A1  ...  An )   P( Ai )   P( Ai Aj )  ...  (1) n 1 P( A1... An )
i 1 i j

3. Из теорем 1 и 2 для любых событий А и В следует, что


P( A  B)  P ( A)  P ( B ) .

Задача 1. В ящике 10 красных и 5 синих пуговиц. Вынимаются наудачу две


пуговицы. Какова вероятность, что пуговицы будут одноцветными?
Решение. Событие A={вынуты пуговицы одного цвета} можно представить в виде
суммы A  A1  A2 , где события A1 и A2 означают выбор пуговиц красного и синего цвета
соответственно. Вероятность вытащить две красные пуговицы равна
C2
P( A1 )  102 ,
C15
а вероятность вытащить две синие пуговицы
C2
P( A2 )  52 .
C15
Так как события A1 и A2 не могут произойти одновременно, то в силу теоремы сложения
10! 5!
2 2 
C10  C5 2!8! 2!3!
P( A)  P( A1 )  P( A2 )    0,524.
C152 15!
2!13!
Задача 2. Среди сотрудников фирмы 28% знают английский язык, 30% – немецкий,
42% – французский; английский и немецкий – 8%, английский и французский – 10%,
немецкий и французский – 5%, все три языка – 3%. Найти вероятность того, что случайно
выбранный сотрудник фирмы: а) знает английский или немецкий; б) знает английский,
немецкий или французский; в) не знает ни один из перечисленных языков.
Решение. Обозначим через A, B и С события, заключающиеся в том, что случайно
выбранный сотрудник фирмы владеет английским, немецким или французским
соответственно. Очевидно, доли сотрудников фирмы, владеющих теми или иными языками,
определяют вероятности этих событий. Получаем:
а) P( A  B )  P ( A)  P( B )  P ( AB)  0,28  0,3  0,08  0,5 ;
б)
P( A  B  C )  P( A)  P( B)  P(C )  ( P ( AB)  P( AC )  P ( BC ))  P( ABC ) 
 0,28  0,3  0,42  (0,08  0,1  0,05)  0,03  0,8;
в) 1  P ( A  B  C )  0,2.

§ 3.3. Условная вероятность и теорема умножения

Говорить о вероятности Р(А) как о мере возможности появления случайного события


А имеет смысл только при осуществлении определенного комплекса условий эксперимента,
в рамках которого оно может произойти. При изменении условий эксперимента, вообще
говоря, изменится и вероятность события А. Поэтому помимо обычной (безусловной)
вероятности события А рассматривают так называемую условную вероятность события А,
вычисляемую при условии, что произошло некоторое событие В.

4
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Условной вероятностью события А при условии В, где P(B)>0, называется число


Р(А|В), которое вычисляется по формуле
P( AB)
P( A | B)  .
P( B )
Аналогично определяется условная вероятность события В при условии A, где P(A)>0:
P( AB)
P( В | А)  .
P( А)
В случае массовых экспериментов условная вероятность события A при условии B
оценивается условной относительной частотой события A при условии B, определяемой
как относительная частота событий A среди экспериментов, в которых произошло событие B.
Она равна также отношению относительной частоты AB к относительной частоте B, что при
переходе от относительных частот к вероятностям дает формулу условной вероятности.
Чтобы оценка условной вероятности Р(A|B) с помощью условной относительной
частоты была осмысленной, должно быть велико не только общее число экспериментов, но и
число экспериментов, в которых произошло событие B.
Из определения условной вероятности вытекает следующая теорема.
Теорема 3 (теорема умножения). Вероятность произведения двух событий равна
произведению вероятности одного из них на условную вероятность другого при условии, что
первое имело место:
P ( AB )  P ( B ) P ( A | B )  P ( A) P ( B | A) .
Несмотря на тривиальность доказательства этой теоремы, она имеет огромное
практическое значение, так как используется для построения сложных вероятностных
моделей.
Следствие. Вероятность пересечения нескольких событий равна произведению
вероятностей этих событий, причем вероятность каждого последующего вычисляется при
условии, что имели место все предыдущие, то есть справедливо равенство:
n 
P  Ai   P( A1 ) P ( A2 | A1 ) P( A3 | A1 A2 )...P( An | A1 A2 ... An1 )
 i1 
Для условной вероятности выполняются следующие свойства:
1) 0  P ( A | B)  1 ;
2) P( A | B)  1  P( A | B) ;
3) P ( A | A)  1 ;
4) P( A1  A2 | B)  P( A1 | B)  P( A2 | B)  P( A1 A2 | B) .
5) Если A  B   , то P( A | B)  0 ;
6) Если A  B , то P ( B | A)  1 .
В классической модели, когда имеется пространство элементарных событий из
конечного числа равновозможных исходов, условную вероятность можно найти по формуле:
| AB |
P( A | B)  .
|B|
Задача 3. В семье – двое детей. Какова вероятность, что старший ребенок – мальчик,
если известно, что в семье есть дети обоего пола?
Решение. Пусть А={старший ребенок – мальчик}, B={в семье есть дети обоего пола}.
Будем считать, что рождение мальчика и рождение девочки – равновероятные события. Если
рождение мальчика обозначить буквой М, а рождение девочки – Д, то пространство всех
элементарных исходов состоит из четырех пар:
  ММ , МД , ДМ , ДД  .
В этом пространстве лишь два исхода (МД и ДМ) отвечают событию B. Событие AB
означает, что в семье есть дети обоего пола и старший ребенок – мальчик, это значит, что

5
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

второй (младший) ребенок – девочка. Этому событию AB отвечает один исход – МД. Таким
образом, |AB|=1, |B|=2 и
| AB | 1
P( A | B)    0,5.
|B| 2

Задача 4. Мастер, имея 10 деталей, из которых 3 – нестандартных, берет и проверяет


детали одну за другой, пока ему не попадется стандартная. Какова вероятность, что он
проверит ровно две детали?
Решение. Событие А={мастер проверил ровно две детали} означает, что при такой
проверке первая деталь оказалась нестандартной, а вторая – стандартная. Значит, A  A1 A2 ,
где A1 ={первая деталь – нестандартная} и A2 ={вторая деталь – стандартная}. Очевидно, что
вероятность события А1 равна P( A1 )  3 / 10, кроме того, P( A2 | A1 )  7 / 9 , так как перед
взятием второй детали у мастера осталось 9 деталей, из которых только 2 нестандартные и 7
стандартных. По теореме умножения
3 7 7
P ( A)  P( A1 A2 )  P( A1 ) P ( A2 | A1 )    .
10 9 30
Задача 5. При условиях задачи 2, найти вероятности того, что случайно выбранный
сотрудник фирмы:
а) знает английский, при условии, что он знает немецкий;
б) знает английский и немецкий, при условии, что он знает французский;
в) знает немецкий, при условии, что он знает английский и французский;
г) знает английский или французский, при условии, что он знает немецкий;
д) не знает английского, при условии, что он знает французский.
Решение. Как и ранее, обозначаем через A, B и С события, заключающиеся в том, что
случайно выбранный сотрудник фирмы владеет английским, немецким или французским
соответственно. Очевидно, доли сотрудников фирмы, владеющих теми или иными языками,
определяют вероятности этих событий. Получаем
P ( AB) 0,08 4
а) P( A | B)    ;
P( B) 0,3 15
P( ABC ) 0,03 1
б) P( AB | C )    ;
P(C ) 0,42 14
P ( ABC ) 0,03 3
в) P( B | AC )    ;
P( AC ) 0,1 10
г)
P( AB)  P( BC )  P( ABC )
P( A  C | B )  P ( A | B )  P(C | B)  P( AC | B )  
P ( B)
0,08  0,05  0,03 1
  ;
0,3 3
P( AC ) 0,1 16
д) P( A | C )  1  P( A | C )  1  1  .
P(C ) 0,42 21

§ 3.4. Независимость событий


Разумно считать, что событие А не зависит от события В, если появление события В
не меняет значения вероятности события А, т.е. условная вероятность равна безусловной:
P ( A | B )  P ( A) .
Тогда из теоремы умножения
P ( AB )  P ( B ) P ( A | B )  P ( A) P ( B | A)

6
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

в предположении, что Р(А)>0, получим, что условная вероятность события B при условии А
равна его безусловной вероятности:
P ( B | A)  P ( B ) .
Следовательно, события A и B независимы, если появление одного из них не меняет
вероятности появления другого. В этом случае получаем
P ( AB )  P ( A) P ( B ) (*)
Это равенство в теории вероятностей принимается за определение независимости
событий A и B. Такое определение является более общим и удобным, чем определения через
условную вероятность, поскольку оно симметрично относительно событий A и B и не
требует выполнения условий P(A)>0, P(B)>0.
Понятие независимости можно обобщить на любое конечное число событий.
События А1, А2, …, Аn называются независимыми в совокупности, если для любого
их подмножества Ai1 , Ai2 ,..., Aik имеет место равенство
P ( Ai1 Ai2 ... Aik )  P( Ai1 ) P ( Ai2 )...P( Aik )
для любых k от 1 до n и любых несовпадающих номеров i1, i2, …, ik.
События А1, А2, ..., Аn называются попарно независимыми, если для любых ij, i, j
{1, ..., n} события Ai и Aj независимы.
Из данных определений следует, что из независимости в совокупности следует
попарная независимость, но из попарной независимости не следует независимости в
совокупности.
Пример Бернштейна. На плоскость бросается правильный тетраэдр, три грани
которого покрашены в цвета: красный, синий и зеленый, а на четвертую грань нанесены все
три цвета. Пусть событие A – при бросании выпал красный цвет, событие B – синий цвет,
событие C – зеленый цвет. Вероятности этих событий равны между собой и равны
2 1
P( A)  P ( B )  P (C )   .
4 2
Найдем вероятности их попарных пересечений:
1 1 1
P( AB)     P( A) P( B);
4 2 2
1 1 1
P( AC )     P( A) P(C );
4 2 2
1 1 1
P( BC )     P( B) P(C ).
4 2 2
Отсюда следует, что они попарно независимы. Однако вероятность появления всех
трех цветов сразу равна
1 1 1 1 1
P ( ABC )   P ( A) P ( B) P (C )     ,
4 2 2 2 8
т.е. вероятность пересечения всех трех событий не равна произведению вероятностей этих
событий, и, следовательно, они зависимы в совокупности.
Задача 6. В одном ящике 3 белых и 5 черных шаров, в другом ящике – 6 белых и 4
черных шара. Из каждого ящика вынули по одному шару. Найти вероятность того, что среди
них будет хотя бы один белый.
Решение. Событие A={среди вынутых шаров есть белый шар} можно представить в
виде объединения A  A1  A2 , где события A1 и A2 означают появление белого шара из
первого и второго ящика соответственно. Вероятность вытащить белый шар из первого
ящика равна P( A1 )  3 / 8 , а вероятность вытащить белый шар из второго ящика P( A2 )  6 / 10 .
Кроме того, в силу независимости A1 и A2 имеем:
3 6 9
P( A1 A2 )  P ( A1 ) P( A2 )    .
8 10 40

7
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

По теореме сложения получаем:


3 6 9 15  24  9 3
P( A)  P( A1  A2 )  P( A1 )  P( A2 )  P( A1 A2 )      .
8 10 40 40 4
При изучении темы независимых событий иногда возникает недоумение: является ли
равенство (*) свойством независимых событий A и B или определением их независимости?
Чтобы в этом разобраться, следует различать понимание независимости в теории и на
практике.
На практике обычно называют независимыми события, которые обусловлены
различными, не связанными между собой факторами и обстоятельствами, и которые никак
не влияют друг на друга. Для таких событий (а точнее говоря, для их математических
моделей) равенство (*) является свойством.
Это значит, что если при решении задачи речь идет о независимых (с точки зрения
практики) событиях, то для них следует принять соотношение (*).
В теории же равенство (*) принимается за определение независимых событий. Это, на
самом деле, весьма расширяет привычное понимание независимости. В частности,
независимыми могут оказаться события, обусловленные одними и теми же факторами.
Например, событие A={на кубике выпало число, кратное 2} и событие B={на кубике выпало
число, кратное 3} будут независимы, хотя оба они определяются всего одним фактором –
числом очков, выпавших на игральном кубике, причем определяются однозначно.
Заметим также, что согласно определению (*), невозможные и достоверные события
оказываются независимыми со всеми остальными, однако эти случаи тривиальны и поэтому
не рассматриваются.
Интересно, что существование нетривиальных независимых событий в симметричных
пространствах определяется тем, простое число n или составное. Так, в случае игрального
кубика (n=6) независимые события есть, а при соседних значениях n=5 и n=7 – нет.

§ 3.5. Формула полной вероятности


Пусть событие А может быть реализовано только при условии появления одного из
событий Hi, 1in. Предположим, что события Hi образуют полную группу, и вероятности их
до опыта известны. Такие события Hi называются гипотезами.
Теорема 4 (формула полной вероятности). Если событие А может произойти с
одной из гипотез Hi, то вероятность появления события А равна сумме произведений
вероятностей гипотез Р(Hi) на условные вероятности события А при каждой гипотезе:
n
P ( A)   P ( H i ) P( A | H i ) .
i 1
Доказательство. Так как гипотезы Hi, i=1, 2, …, n, несовместны, то несовместны и их
пересечения с событием A, т.е. несовместны комбинации AHi и AHj при ij. Обозначим
n
H   Hi .
i 1

Так как H1,…Hn образуют полную группу событий, то H= и A  H  A . Тогда по


свойству дистрибутивности пересечения относительно объединения событий получаем:
  n   n  n
P( A)  P( A  H )  P A    H i    P  ( A  H i )    P( A  H i ) .
  i 1    i 1  i 1
Применяя теорему умножения для каждого слагаемого, получаем окончательный
результат:
n n
P ( A)   P ( A  H i )   P ( H i ) P ( A | H i ) .
i 1 i 1

8
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Задача 7. Фирма имеет три источника поставки комплектующих – фирмы 1, 2, 3. На


долю фирмы 1 приходится 50% общего объема поставок, фирмы 2 – 30% и фирмы 3 – 20%.
Из практики известно, что среди поставляемых фирмой 1 деталей 10% бракованных, фирмой
2 – 5% и фирмой 3 – 6%. Какова вероятность, что взятая наугад деталь окажется годной?
Решение. Пусть событие A – появление годной детали. Вероятности гипотез о том, что
деталь поставлена фирмами 1, 2, 3, равны соответственно Р(H1)=0,5, Р(H2)=0,3, Р(H3)=0,2.
Условные вероятности появления при этом годной детали равны Р(A| H1)=0,9, P(A| H2)=0,95,
P(A|H3)=0,94 (как вероятности противоположных событий к появлению бракованной). По
формуле полной вероятности получаем:
P(A)=0,50,9+0,30,95+0,20,94=0,923.
Задача 8. Три экзаменатора принимают экзамен по некоторому предмету у группы в
30 человек, причем первый опрашивает 6 студентов, второй — 3 студентов, а третий — 21
студента (выбор студентов производится случайным образом из списка). Отношение трех
экзаменаторов к слабо подготовившимся различное: шансы таких студентов сдать экзамен у
первого преподавателя равны 40%, у второго — только 10%, у третьего — 70%. Найти
вероятность того, что слабо подготовившийся студент сдаст экзамен.
Решение. Обозначим через H1 , H 2 , H 3 гипотезы, состоящие в том, что слабо
подготовившийся студент отвечал первому, второму и третьему экзаменатору
соответственно. По условию задачи
P( H1 )  6 / 30  0,2 , P( H 2 )  3 / 30  0,1 , P( H 3 )  21 / 30  0,7 .
Пусть событие A={слабо подготовившийся студент сдал экзамен}. Тогда снова в силу
условия задачи
P( A | H1 )  0,4 , P( A | H 2 )  0,1 , P( A | H 3 )  0,7 .
По формуле полной вероятности получаем:
P ( A)  0,4  0,2  0,1  0,1  0,7  0,7  0,58 .
Для решения задач на вычисление полной вероятности бывает удобно использовать
графическую схему, называемую деревом вероятностей. Оно начинается от «корня»
(исходного положения вещей), а затем, всякий раз, когда события могут развиваться
различным образом (могут осуществляться различные условия, гипотезы), дерево ветвится (с
соответствующим числом ветвей). Таким образом получается множество вершин,
соответствующих гипотезам, которые затем соединяем с конечной вершиной, описывающей
событие А. Дерево вероятностей обычно рисуют слева направо (см. рис. 3.2 для задачи 8).
Из формулы полной вероятности следует, что для вычисления вероятности события А
необходимо осуществить полный перебор всех путей, ведущих к нему; вычислить и
расставить на соответствующих путях вероятности того, что движение (ход событий) будет
происходить по данному пути, а затем условные вероятности того, что на данном пути будет
достигнуто конечное событие. Далее вероятности, стоящие на одном пути, перемножаются, а
результаты, полученные для различных путей, складываются.

Рис. 3.2.

9
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Задача 9. В первой урне лежат 1 белый и 2 черных шара, а во второй урне – 3 белых
и 5 черных шаров. Из первой урны во вторую перекладывается, не глядя, один шар, а затем
один шар перекладывается из второй урны в первую. После этого из первой урны вынули
один шар. Найти вероятность, что он белый.
Решение. Последовательные перекладывания шаров изображаем (слева направо)
посредством ветвлений на дереве вероятностей (рис. 3.3). В скобках указаны вероятности
перекладывания шаров данного цвета. Внутри кружков указаны числа шаров (белых и
черных) в урнах (I и II). Заметим, что две ветви дерева сходятся, поскольку перекладывания
некоторого шара из первой во вторую урну, а затем шара того же цвета назад приводят к
одинаковому результату, а именно – к возвращению обеих урн в исходное состояние. Кроме
того, одна из ветвей оказывается «тупиковой», поскольку в этом случае в первой урне не
остается белых шаров, и достижение события А по данному пути невозможно.

Рис. 3.3.
Легко видеть, что от исходной точки к событию А ведут всего три пути. Перемножая
вероятности вдоль них, а затем складывая произведения, получаем:
1 4 1 2 2 1 2 1 2 28
P( A)           .
3 9 3 3 3 3 3 3 3 81

§ 3.6. Формула Байеса


Предположим другую ситуацию: пусть известно, что событие A произошло.
Требуется найти вероятность того, что событие A произошло именно путем осуществления
гипотезы Нk. Эти условные вероятности вычисляются с помощью следующей теоремы.
Теорема 5 (формула Байеса). Пусть Н1, Н2, …, Нn – полная группа событий
(гипотез) и А – некоторое событие с P ( A)  0 . Тогда для каждого k справедливо равенство
P( H k )  P( A | H k )
P( H k | A)  n .
 P( H i )  P( A | H i )
i 1
Отметим, что в знаменателе этой формулы записана вероятность Р(А), вычисленная
по формуле полной вероятности.

10
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Доказательство вытекает из определения условной вероятности:


P( A  H k ) P( H k ) P( A | H k )
P( H k | A)   ,
P( A) P( A)
где вероятность P( A  H k ) найдена с помощью теоремы умножения.
Задача 10. При условиях задачи 8, пусть известно, что студент не сдал экзамен, т.е.
получил оценку «неудовлетворительно». Кому из трех преподавателей вероятнее всего он
отвечал?
Решение. Вероятность получить «неудовлетворительно» равна
P ( A)  1  P( A)  1  0,58  0,42 .
Требуется вычислить условные вероятности P( H i | A), i  1, 2, 3 .
По формулам Байеса получаем:
P( H1 )  P( A | H1 ) 0,2  0,6
P( H1 | A)    0,286 ,
P( A) 0,42
0,1  0,9
P ( H 2 | A)   0,214 ,
0,42
0,7  0,3
P( H 3 | A)   0,5 .
0,42
Отсюда следует, что, вероятнее всего, слабо подготовившийся студент сдавал экзамен
третьему экзаменатору.

§ 3.7. Аксиоматическое построение теории вероятностей


К сожалению, методов и подходов, изложенных ранее, оказывается недостаточно. В
развитии теории вероятностей исследователи столкнулись с различными трудностями и
парадоксами. Приведем лишь один пример.
Пример Вители. Пусть точку наудачу бросают на окружность. Положение точки на
окружности определяется углом (от 0 до 2). Выберем иррациональное число >0 и
поставим в соответствие каждой точке x класс точек Ax, получаемых из нее поворотами на
угол 2n, n=0, 1, 2, … Поскольку  иррационально, то у нас никогда не получится целое
число оборотов, а значит, все точки класса различны.
Для различных точек x классы Ax могут либо совпадать (когда одна точка переходит в
другую поворотом вида 2n), либо не пересекаться нигде. Возьмем все непересекающиеся
классы, выберем из каждого по одной точке и объединим эти точки в одно множество B0.
Обозначим через Bn множество, получающееся из B0 поворотом на угол 2n. Тогда
множества Bn, n=0, 1, 2, … не пересекаются, а их объединение дает всю окружность.
Следовательно, они образуют полную группу событий. Понятно, что вероятности Bn равны
между собой. Если предположить, что они равны нулю, то в сумме получается ноль, хотя
должна быть единица. Если предположить, что они больше нуля, в сумме получается
бесконечность, что также неверно.
Поэтому в случае бесконечного пространства  построение современной теории
вероятностей базируется на подходе, предложенным великим русским математиком
А.Н.Колмогоровым. Его основная идея заключается в том, что не все подмножества
пространства  рассматриваются как события. Предполагается, что события – это некоторые
подмножества из пространства элементарных событий, совокупность которых замкнута
относительно конечного или счетного числа объединений, пересечений и дополнений.
Пусть  – произвольное пространство элементарных событий, а F – некоторый класс
подмножеств множества .
Алгеброй событий F называется любая непустая система подмножеств пространства
, удовлетворяющая следующим аксиомам:

11
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

1) если подмножество А принадлежит F (является событием), то его дополнение А также


принадлежит F (также является событием);
2) если подмножества A и B принадлежат F (являются событиями), то и их объединение A B
принадлежит F (также является событием).
Поскольку любую из операций над подмножествами можно получить, используя
формулы де Моргана, с помощью только двух операций дополнения и объединения
A  B  A  B , A \ B  A  B  A  B,
то пересечение и разность двух событий также будут событиями: АВF, A\BF при любых
AF, BF. Отсюда следует, что F и =\F тоже события.
Алгебра событий F называется -алгеброй (сигма-алгеброй), если объединение
счетного числа элементов из F также является элементом F, то есть из того, что AnF, n=1, 2,

…, следует  A  F.
i 1
i

Таким образом, -алгебру событий F можно определить как систему подмножеств


пространства элементарных событий , замкнутую относительно счетного числа теоретико-
множественных операций. Тривиальная -алгебра событий состоит из полного и пустого
множеств: F={,}. Любая -алгебра событий является одновременно и алгеброй событий.
Обратное, вообще говоря, неверно: существуют алгебры, не являющиеся -алгебрами.
Теперь, согласно аксиоматике А.Н.Колмогорова, можно ввести общее понятие
вероятности события.
Вероятностью события или вероятностной мерой называется числовая функция,
заданная на -алгебре событий F, которая каждому событию АF ставит в соответствие
число Р(А) так, что выполняются следующие аксиомы
1. Аксиома неотрицательности: Р(А)0, для всех А F.
2. Аксиома нормированности: Р()=1.
3. Аксиома счетной аддитивности:
  
P  Аi    P( Ai ) ,
 i1  i1
если AiAj= для любых ij и AiF для всех i=1, 2, ... (для последовательности событий).
Из счетной аддитивности, очевидно, следует конечная аддитивность:
 n  n
P  Аi    P( Ai ) ,
 i 1  i 1
если AiAj= для любых ij и АiF для всех i=1, 2, ..., n (для конечного набора событий).
Очевидно, что вероятность, определенная на дискретном пространстве элементарных
событий  формулой (см. § 2.2)
P ( A)   P ( ) ,
i : i  A
i

является счетно-аддитивной.
Заметим также, что все введенные аксиомы в случае дискретного пространства 
превращаются в доказуемые утверждения.
Далее покажем, что счетную аддитивность вероятности можно заменить на конечную
аддитивность в сочетании с непрерывностью, определяемой следующим образом.
Аксиома непрерывности: Если последовательность событий АnF, n1, такова,
что каждое последующее вложено в предыдущее, а пересечение всех событий Аn пусто, то
P(An)→0 при n→∞.
Теорема 6. Аксиома счетной аддитивности равносильна аксиоме непрерывности (в
сочетании с конечной аддитивностью).

12
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Доказательство. Докажем сначала, что из непрерывности следует счетная


аддитивность. Рассмотрим последовательность несовместных событий Bn, и пусть

B   Bi .
i 1
Введем события вида

An  B , i
i  n 1
тогда они удовлетворяют условиям аксиомы непрерывности и P(An)→0 при n→∞.
Из конечной аддитивности получаем
 n     n
P( B)  P  Bi   P  Bi    P( Bi )  P( An ) ,
 i 1   i  n 1  i 1
откуда
n
 
 P( Bi )  P( B )  P( An )  P( B)  P  Bi , n   ,
i 1  i 1 
что и означает счетную аддитивность.
Докажем теперь, что из счетной аддитивности следует непрерывность. Пусть
последовательность An удовлетворяет условиям аксиомы непрерывности. Введем события
Сn=An\An+1. Тогда эти события несовместны, причем допустимы представления:
n 1 
A1 \ An   Ci , A1   Ci .
i 1 i 1
Из конечной аддитивности получаем
 n 1  n 1
P( A1 )  P( A1 \ An )  P( An )  P  Ci   P( An )   P(Ci )  P( An ) ,
 i 1  i 1

откуда
n 1
   n 1
P( An )  P ( A1 )   P(Ci )  P  Ci    P(Ci )  0, n   ,
i 1  i 1  i 1
так что аксиома непрерывности выполняется.

Говорят, что -алгебра порождается некоторым набором множеств M пространства


, если она содержит все множества, которые можно получить с помощью дополнения,
конечного или счетного объединения множеств из M, и является наименьшей из -алгебр,
обладающих этим свойством (т.е. из нее нельзя ничего убрать, чтобы его не нарушить).
В теории вероятностей при изучении множеств на прямой используются борелевские
множества, порожденные всеми полуинтервалами (a, b] либо [a, b), а в пространстве Rm – их
произведениями вида [a1, b1)... [am, bm), образующие борелевскую -алгебру, а также
множества, отличающиеся от них не более чем на множество точек меры нуль, – измеримые
множества.
Множества Bn из примера Вители не являются измеримыми, и вероятность на них не
определена.
Тройка (, F, Р), где Ω – пространство элементарных событий, F – -алгебра
подмножеств Ω, называемых событиями, P – вероятностная мера, определенная на -алгебре
событий, называется вероятностным пространством.
Далее будем всюду неявно предполагать, что любые рассматриваемые множества
относятся к некоторой σ-алгебре F, а вероятность удовлетворяет всем указанным аксиомам.

13
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Задачи для самостоятельного решения

1. Рабочий обслуживает три независимо работающих станка. Событие Аi ={i-ый станок в


течение часа потребует наладки}, Р(Аi)=0,2; i=1, 2, 3. Выразить события: а) ровно два
станка потребуют наладки; б) не более двух станков потребуют наладки; в) хотя бы один
станок потребует наладки. Найти вероятность события в).
2. Стрелок делает три выстрела, при этом он поражает цель с вероятностью 0,6 при одном
выстреле. Событие Аi={i-ая пуля попала в цель}, i=1, 2, 3. Выразить события: а) было
хотя бы одно попадание; б) ровно одно попадание; в) не более двух попаданий. Найти
вероятность события в).
3. В коробке четыре детали. Мастер извлекает детали до тех пор, пока не вытащит годную
(или пока они не кончатся). Событие Ai ={i-ая извлеченная деталь является годной},
P( Ai )  0,9; i  1, 2, 3, 4. Выразить события, состоящие в том, что мастер сделал: а) ровно
одно извлечение; б) ровно 2 извлечения; в) не менее двух извлечений. Найти вероятность
события б).
4. Сколько раз надо бросить игральную кость, чтобы не менее чем на 95% быть уверенным
в том, что хотя бы при одном бросании появится «шестерка»?
5. Бросают три кубика. Какова вероятность того, что на одном из них выпадет «шестерка»,
если известно, что на всех кубиках выпали разные грани?
6. * Двое игроков по очереди бросают монету. Выигрывает тот, у кого первого выпадет
герб. Найти вероятности выигрыша каждого игрока. Как сделать игру справедливой?1
7. В партии из 20 изделий 4 бракованных. Найти вероятность того, что в выборке из 5
изделий не более одного бракованного.
8. Известно, что пятизначном номере все цифры разные. Какова вероятность при этом
условии, что среди них ровно одна цифра четная?
9. Известно, что в пятизначном номере все цифры разные. Найти вероятность того, что
среди них есть цифры 1 и 2.
10. На обувной фабрике в отдельных цехах производят подметки, каблуки и верхи ботинок.
При изготовлении каждого ботинка соединяют подметку, каблук и верх, выбирая их
случайным образом. Дефекты имеют 1% каблуков, 2% подметок и 3% верхов. С какой
вероятностью случайно выбранная пара обуви будет иметь дефекты?
11. Среди клиентов туристической фирмы 32% ездили в Турцию, 18% – в Египет, 10% – в
Турцию и Египет. Найти вероятность того, что случайно выбранный клиент ездил в
Турцию или Египет.
12. Среди клиентов туристической фирмы 30% ездили в Турцию, 20% – в Египет, 10% – в
Грецию; в Турцию и Египет – 12%, в Египет и Грецию – 5%, в Турцию и Грецию – 6%, во
все три страны – 4%. Найти вероятность того, что случайно выбранный клиент: а) ездил в
Турцию или Египет, б) ездил в Египет или Грецию, в) ездил в Турцию, Египет или
Грецию, г) не ездил ни в одну из перечисленных стран.
13. В продукции птицефабрики 70% яиц стандартных, 20% большего объема и 10%
двухжелтковых. С какой вероятностью среди 5 случайно выбранных яиц найдутся хотя
бы одно большего объема и хотя бы одно двухжелтковое (вместе)?
14. Среди покупателей магазина 60% женщин, 30% мужчин, 10% детей. Найти вероятность
того, что среди 4 случайно выбранных покупателей найдется хотя бы один мужчина и
хотя бы один ребенок.
15. Студент в состоянии решить 20 задач из 25 в первом туре экзамена и 15 из 20 во втором.
Найти вероятность сдачи им экзамена, если в каждом туре дается 3 задачи и достаточно
решить хотя бы 2 из них. Туры экзамена проводятся независимо.

1
Задача заменена на новую из-за совпадения старой с задачей 33 из главы 2.

14
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

16. Студент в состоянии решить 25 задач из 30 в первом туре экзамена и 18 из 24 во втором.


Найти вероятность сдачи им экзамена, если в каждом туре дается четыре задачи и
достаточно решить три из них. Туры экзамена проводятся независимо.
17. В лифт девятиэтажного дома на первом этаже входят 6 человек. Для каждого человека
равновероятен выход на любом из остальных 8 этажей. Известно, что все вышли на
разных этажах. При этом условии найти вероятность, что на первых трех этажах (из
восьми) вышли два человека.
18. В лифт на цокольном этаже входят 5 человек. Считая для каждого человека
равновероятным выход на любом из 9 этажей, найти вероятность того, что двое из них
выйдут на одном этаже, а остальные на разных.
19. Три пассажира садятся в поезд, случайно выбирая любой из 6 вагонов. Какова
вероятность, что хотя бы один из них сядет в первый вагон, если известно, что все они
сели в разные вагоны?
20. Семь пассажиров садятся в поезд, случайным образом выбирая один из 9 вагонов поезда.
Известно, что они сели в разные вагоны. При этом условии найти вероятность того, что в
первых трех вагонах поезда будут ехать два человека.
21. Пять человек случайным образом (независимо друг от друга) выбирают любой из 7
вагонов поезда. Известно, что ровно 2 вагона остались пустыми. При этом условии найти
вероятность того, что первый и второй вагоны заняты.
22. Двое шахматистов равной силы играют 4 партии (без ничьих). Найти вероятность, что в
результате победил первый (по очкам), если известно, что в процессе игры каждый
выиграл хотя бы один раз.
23. В ящике 12 красных, 8 зеленых и 10 синих шаров. Наудачу вынимаются два шара. Какова
вероятность, что вынутые шары разного цвета, если известно, что не вынут синий шар?
24. Шесть шаров случайным образом раскладывают в три ящика. Найти вероятность, что во
всех ящиках разное число шаров при условии, что все ящики не пустые.
25. Пять шаров распределены по трем ящикам. Известно, что нет пустых ящиков. При этом
условии найти вероятность, что в первом ящике лежит один шар.
26. В урне 5 белых и 10 черных шаров. Извлечены 6 шаров (с возвращением). Известно, что
среди них есть белые шары. При этом условии найти вероятность того, что среди них
будут также не менее двух черных шаров.2
27. В магазине было проведено исследование продаж некоторого товара. Выяснилось, что
этот товар покупают 25% женщин, 10% мужчин и 20% детей. Среди покупателей
магазина 60% женщин, 30% мужчин и 10% детей. Найти вероятность того, что
случайный покупатель приобретет этот товар.
28. В центральную бухгалтерию корпорации поступили пачки накладных для проверки и
обработки. Из них 90% пачек были признаны удовлетворительными: они содержали 1%
неправильно оформленных накладных. Остальные 10% накладных были признаны
неудовлетворительными, поскольку они содержали 5% неправильно оформленных
накладных. Какова вероятность того, что взятая наугад накладная окажется неправильно
оформленной?
29. Фирма занимается строительством домов по одному из двух типовых проектов. При
строительстве по первому проекту нарушение технологий происходит с вероятностью
0,3, а по второму – 0,2. При этом дома первого и второго типа составляют соответственно
40% и 60% общего объема строительства. Какова вероятность того, что случайно
выбранный дом построен с нарушением технологии?
30. Фирма имеет 3 поставщиков, каждый из которых надежен с вероятностью 0,8. В случае
отказа одного поставщика фирма разоряется с вероятностью r1, двух – r2, трех – r3. Найти
вероятность разорения фирмы, если: а) r1=0,2, r2=0,6, r3=1; б) r1=0,25 , r2=0,75, r3=0,95.

2
Эту задачу лучше решать после изучения материала главы 4.

15
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

31. Фирма участвует в 4 проектах, каждый из которых может закончиться неудачей с


вероятностью 0,1. В случае неудачи одного проекта вероятность разорения фирмы равна
20%, двух – 50%, трех – 70%, четырех – 90%. Найти вероятность разорения фирмы.
32. Два аудитора проверяют N фирм (равное число каждый), у М из которых имеются
нарушения. Вероятность обнаружения нарушений первым аудитором равна p1, вторым –
p2. Найти вероятность того, что все фирмы-нарушители будут выявлены, если: а) N=6,
M=2, p1=0,7, p2=0,8; б) N=6, M=3, p1=0,7, p2=0,9; в) N=8, M=3, p1=0,6, p2=0,8; г) N=10, M=2,
p1=0,8, p2=0,9.
33. В прибор входит комплект из двух независимых деталей, для которых вероятности выйти
из строя в течение года равны 0,1 и 0,2 соответственно. Если детали исправны, то прибор
работает в течение года с вероятностью 0,99. Если выходит из строя только первая
деталь, то прибор работает с вероятностью 0,7, а если только вторая – то с вероятностью
0,8. Если выходят из строя обе детали, прибор будет работать с вероятностью 0,1. Какова
вероятность, что прибор будет работать в течение года?
34. Электроэнергия поступает в город через три электролинии, каждая из которых может
быть отключена с вероятностью 0,1. Если отключена одна электролиния, город
испытывает недостаток электроэнергии с вероятностью 0,2. Если отключены две
электролинии, недостаток электроэнергии ощущается с вероятностью 0,5. Если же
отключены все три электролинии, то недостаток электроэнергии наступает с
вероятностью 1. В случае, когда работают все электролинии, недостатка энергии нет.
Какова вероятность того, что город испытывает недостаток электроэнергии?
35. Из 10 лотерейных билетов 3 выигрышных. При подготовке вечера 2 билета потеряли, и
было решено добавить 1 выигрышный. Какой стала вероятность вытянуть выигрышный
билет?
36. В урне 8 красных шаров и 10 зеленых. Извлекли три шара (без возвращения), затем
положили их обратно и добавили в урну два шара того цвета, который оказался в
меньшинстве среди извлеченных. С какой вероятностью два шара, извлеченных после
этого, будут зелеными?
37. В урне 7 красных шаров и 9 синих. Извлекли три шара (без возвращения), затем
положили их обратно и добавили в урну два шара того цвета, который оказался в
большинстве среди извлеченных. С какой вероятностью два шара, вынутых после этого,
окажутся синими?
38. В одной коробке 4 красных шара и 6 синих, а во второй 8 красных и 2 синих. Из первой
во вторую переложили два шара, а затем извлекли из второй два шара без возвращения.
Найти вероятность, что последние оказались одного цвета.
39. В первой урне лежат 1 белый и 3 черных шара, а во второй урне – 2 белых и 1 черный
шар. Из первой урны во вторую перекладывается, не глядя, один шар, а затем один шар
перекладывается из второй урны в первую. После этого из первой урны вынули один
шар. Найти вероятность, что он белый.
40. В первой урне лежат 4 белых и 6 черных шаров, во второй – 2 белых и 8 черных. Из
первой урны во вторую перекладывается, не глядя, один шар, а затем один шар
перекладывается из второй урны в первую. После этого из первой урны вынули один
шар. Найти вероятность, что он черный.
41. Есть две упаковки орешков, в каждой из которых 5 орехов с белой глазурью и 4 с черной.
Из первой упаковки достали два орешка, после чего её смешали со второй упаковкой.
Какой стала вероятность достать орех с белой глазурью?
42. Фирма нарушает закон с вероятностью p. Аудитор обнаруживает нарушения с
вероятностью r (если они есть). Проведенная им проверка не выявила нарушений. Найти
вероятность, что на самом деле они есть, при: а) p=0,25, r=0,75; б) p=0,1, r=0,8; в) p=0,2,
r=0,9.
43. Известно, что проверяемая фирма может уходить от налогов с вероятностью 40% и
выбрать для этого одну из трех схем уклонения (равновероятно). Найти вероятность, что

16
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

фирма уходит от налогов по третьей схеме, если при проверке по первым двум схемам
нарушений не обнаружено.
44. Изделие имеет скрытые дефекты с вероятностью d. В течение года выходит из строя
доля p изделий со скрытыми дефектами и r изделий без дефектов. Найти вероятность, что
изделие имело скрытые дефекты, если оно вышло из строя в течение года, при: а) d=0,2,
p=0,75, r=0,15; б) d=0,1, p=0,6, r=0,15.
45. В цехе работают N мастеров и M учеников (каждый работник изготовляет одинаковое
количество изделий). Вероятность брака мастера – p1, вероятность брака ученика – p2.
Изделие оказалось бракованным. Найти вероятность, что его изготовил ученик, если: а)
N=7, M=3, p1=0,01, p2=0,05; б) N=10, M=4, p1=0,01, p2=0,04.
46. Производственный брак составляет 4%. Каждое изделие равновероятным образом
поступает к одному из двух контролеров, первый из которых обнаруживает брак с
вероятностью 0,92, второй – 0,98. Какова вероятность, что признанное годным изделие на
самом деле является бракованным?
47. Имеются три партии по 20 деталей в каждой. Число стандартных деталей в первой,
второй и третьей партиях соответственно равно 20, 15 и 10. Из наудачу выбранной
партии извлечены (с возвращением) две детали, оказавшиеся стандартными. Найти
вероятность того, что детали были извлечены из третьей партии.
48. На заводе установлена аварийная сигнализация, которая при наличии аварии
срабатывает с вероятностью p. Однако с вероятностью r сигнал также может возникнуть,
когда аварии нет. Вероятность аварии равна s. Найти вероятность того, что случилась
авария, если сигнализация сработала, при: а) p=0,99, r=0,001, s=0,005; б) p=0,99, r=0,002,
s=0,007.
49. К системному администратору обращаются пользователи. Среди них доля начинающих –
p, опытных – q. Вероятность того, что начинающий пользователь обратится за помощью
– r, что обратится опытный – s. Найти вероятность того, что очередной пользователь,
обратившийся за помощью, окажется начинающим, если: а) p=0,6, q=0,4, r=0,8, s=0,1; б)
p=0,6, q=0,4, r=0,85, s=0,15; в) p=0,7, q=0,3, r=0,8, s=0,1.
50. Мимо бензоколонки проезжают легковые и грузовые машины. Среди них доля грузовых
машин – p. Вероятность того, что проезжающая машина подъедет заправиться, для
грузовой машины равна 0,1; для легковой – 0,2. Найти вероятность того, что очередная
машина, подъехавшая на заправку, окажется грузовой, если: а) p=0,75; б) p=0,7.
51. Фирма А занимает 20% рынка электронной техники, фирма Б – 50%, фирма В – 30%.
Доля мобильных телефонов в поставках фирмы А составляет 20%, в поставках фирмы Б –
40%, в поставках фирмы В – 70%. Покупатель приобрел мобильный телефон. Какова
вероятность того, что этот телефон произведен фирмой А?
52. В город поступают товары трех фирм в соотношении 2:3:5. В поставках первой фирмы
60% товара высшего качества, второй – 40%, а третьей – 20%. Куплен товар высшего
качества. Найти вероятность, что он изготовлен второй фирмой.
53. В город поступают товары трех фирм в количественном соотношении 3:4:6. В поставках
первой фирмы 30% товара высшего качества, второй – 20%, а третьей – 25%. Куплен
товар высшего качества. Найти вероятность, что он изготовлен второй или третьей
фирмой.
54. В компании 70% менеджеров работают в центральном офисе, 30% – в региональных.
Вероятность того, что менеджеру центрального офиса потребуется консультация
специалиста, равна 0,3, менеджеру регионального офиса – 0,5. Одному из менеджеров
потребовалась консультация. Какова вероятность того, что он работает в центральном
офисе?
55. Стрелок А поражает мишень с вероятностью 0,6, стрелок Б – с вероятностью 0,5 и
стрелок В – с вероятностью 0,4. Стрелки дали залп по мишени, и две пули попали в цель.
Что вероятнее: попал стрелок В в мишень или нет?

17
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

56. Из урны, где было 4 белых и 6 черных шаров, вынут один шар неизвестного цвета. После
этого из урны извлечены (без возвращения) два шара, оказавшиеся белыми. При этом
условии найти вероятность, что сначала вынут был черный шар.
57. Из урны, где было 11 красных, 5 белых и 10 черных шаров, вынут один шар. После этого
из урны извлечены (без возвращения) 2 шара, оказавшиеся красным и белым. При этом
условии найти вероятность, что сначала был вынут черный шар.
58. Из урны, где было 10 красных, 6 желтых и 4 синих шара, вынут один шар. После этого из
урны извлечены (без возвращения) 2 шара, оказавшиеся красным и желтым. При этом
условии найти вероятность, что сначала был вынут синий шар.
59. Из урны, где было 6 белых и 4 черных шара, переложен вынутый наудачу шар в урну,
содержащую 7 белых и 2 черных шара. После этого из второй урны был вынут шар,
оказавшийся белым. Найти вероятность, что сначала был переложен белый шар.
60. Из урны, где было 5 белых и 3 черных шара, переложен вынутый наудачу шар в урну,
содержащую 4 белых и 2 черных шара. После этого из второй урны был вынут шар,
оказавшийся белым. Найти вероятность, что сначала был переложен черный шар.

Новые задачи (2018)

61. Вероятность того, что новый электрический чайник прослужит больше года, равна 0,97.
Вероятность того, что он прослужит больше двух лет, равна 0,82. Найдите вероятность
того, что он прослужит не больше двух лет, но больше года.
62. Вероятность того, что изделие прослужит менее двух лет, равна p, а вероятность того,
что оно прослужит более одного года, равна r. Найти вероятности того, что изделие
прослужит менее одного года, от одного до двух лет и более двух лет, если: а) p=0,8;
r=0,5; б) p=0,9; r=0,3.
63. Вероятность того, что изделие прослужит менее двух лет, равна p; вероятность того, что
оно прослужит от одного до трех лет, равна r; вероятность того, что она прослужит более
трех лет, равна s. Найти вероятности того, что изделие прослужит менее одного года, от
одного до двух лет и от двух до трех лет, если: а) p=0,7; r=0,5; s=0,1; б) p=0,8; r=0,3;
s=0,1.
64. Антон и Борис играют в шахматы. Если Антон играет белыми, то он выигрывает у
Бориса с вероятностью 0,6, а если играет черными, то с вероятностью 0,4. Антон и Борис
играют две партии, причем во второй партии меняют цвет фигур. Результаты двух
партий независимы. Найти вероятность того, что Антон выиграет оба раза.
65. В торговом центре два одинаковых автомата продают кофе. Вероятность того, что к
концу дня в автомате закончится кофе, равна 0,3. Вероятность того, что кофе закончится
в обоих автоматах, равна 0,11. Найти вероятность того, что к концу дня кофе останется в
обоих автоматах.
66. Агрофирма закупает куриные яйца в двух домашних хозяйствах. Яйца высшей
категории в продукции первого хозяйства составляют 40%, в продукции второго
хозяйства – 20%. Всего высшую категорию имеют 36% яиц агрофирмы. Найти
вероятность того, что яйцо, купленное у этой агрофирмы, окажется из первого хозяйства.
67. Доля брака в продукции до прохождения контролера составляет А%, а после
прохождения контролера – В%. Найти вероятность, с которой контролер обнаруживает
брак, если: а) A=5; B=0,4; б) A=4; B=0,5.
68. В урне было 10 шаров, черные и белые. Из урны вынули и выбросили один шар, а взамен
добавили один шар другого цвета. После этого вероятность вынуть из урны белый шар
стала равна 0,58. Определить, сколько белых шаров сначала было в урне.
69. Группа из 21 студента пишет контрольную из трех вариантов (по 7 человек в каждом).
Найти вероятность того, что среди случайно выбранных 5 студентов окажется ровно двое
писавших первый вариант, если известно, что среди выбранных есть писавшие каждый
вариант.

18
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

70. Среди клиентов туристической фирмы 20% ездили в Италию, 30% ездили во Францию, а
60% не ездили ни в одну из этих стран. Найти вероятность того, что случайно выбранный
клиент: а) ездил в Италию, при условии, что он ездил во Францию; б) ездил во Францию,
при условии, что он ездил в Италию; в) ездил в Италию, при условии, что он ездил хотя
бы в одну их этих стран; г) ездил во Францию, при условии, что он ездил ровно в одну из
этих стран.
71. Среди сотрудников международной компании 80% знают английский, 55% – немецкий,
45% – французский, 40% – английский и немецкий, 30% – английский и французский,
20% – немецкий и французский, 10% – все три языка. Найти вероятность того, что
случайно выбранный сотрудник: а) знает немецкий и французский, при условии, что он
знает английский; б) знает немецкий или французский, при условии, что он знает
английский; в) знает английский, при условии, что он знает немецкий и французский; г)
знает английский, при условии, что он знает немецкий или французский; д) знает
французский, при условии, что он знает ровно два языка из перечисленных; е) знает
английский, при условии, что он знает ровно один язык из перечисленных.
72. В двух пакетах лежат красные и желтые конфеты. Из каждого пакета берут по одной
конфете, в случайном порядке. Известно, что сначала была взята красная, затем желтая
конфета. Найти вероятность того, что первая конфета была взята из первого пакета, а
вторая из второго, если: а) в первом пакете лежали 2 красные и 3 желтые конфеты, во
втором – 4 красные и 1 желтая; б) в первом пакете лежали 2 красные и 8 желтых конфет,
во втором – 6 красных и 4 желтых.
73. В трех пакетах лежат красные, желтые и зеленые конфеты. Из каждого пакета берут по
одной конфете, в случайном порядке. Известно, что сначала была взята красная, потом
желтая, затем зеленая конфета. Найти вероятность того, что первая конфета была взята
из первого пакета, вторая из второго и третья из третьего, если в первом пакете лежали 2
красные, 3 желтые, 5 зеленых конфет, во втором – 1 красная, 2 желтые, 7 зеленых
конфет, в третьем – 6 красных, 1 желтая, 3 зеленых.
74. * Как разложить 50 черных и 50 белых шаров по двум урнам так, чтобы вероятность
вытащить один белый шар из случайно выбранной урны была наибольшей? Найти эту
вероятность.
75. * В группе 18 студентов. Преподаватель хотел бы найти способ вызывать их к доске
равновероятно. Как это можно сделать с помощью двух бросаний игрального кубика?

19
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Глава 4. Повторные независимые испытания


§ 4.1. Испытания Бернулли

Теория вероятностей имеет дело с такими экспериментами, которые можно повторять


(по крайней мере, теоретически) неограниченное число раз. Пусть некоторый эксперимент
повторяется n раз, причем результаты каждого повторения не зависят от исходов
предыдущих испытаний. Такие серии повторений называют независимыми испытаниями.
Частным случаем таких испытаний являются независимые испытания Бернулли,
которые характеризуются двумя условиями:
1) результатом каждого испытания является один из двух возможных исходов,
называемых соответственно «успехом» или «неудачей»;
2) вероятность «успеха» в каждом последующем испытании не зависит от
результатов предыдущих испытаний и остается постоянной.
Теорема 1 (формула Бернулли). Если производится серия из n независимых
испытаний Бернулли, в каждом из которых «успех» появляется с вероятностью р, то
вероятность того, что «успех» в n испытаниях появится ровно m раз, выражается
формулой
Pn (m)  C nm p m q n m ,
где q=1–p – вероятность «неудачи».
Доказательство. Каждое испытание Бернулли описывается пространством
элементарных событий ={У,Н}, состоящим из двух элементов: У (успех) и Н (неудача), а
также их вероятностями Р(У) = р, Р(Н) = q, p+q=1. Успехом в испытании будем считать
появление события A.
Составной эксперимент (серия из n испытаний) задается пространством n, каждый
элемент которого представляет собой упорядоченный n-мерный набор конкретных
результатов этих испытаний. Обозначим через Вm,n событие, состоящее в том, что в n опытах
событие А появилось ровно m раз. Разложим событие Вm,n в сумму произведений событий,
состоящих в появлении и непоявлении события A в отдельных опытах, при этом обозначим
через Аi появление события А в i-ом опыте и Ai – непоявление А в i-ом опыте. Тогда каждый
вариант события Вm,n состоит из m появлений события A и n–m непоявлений события A, т.е.
Bm,n  A1 A2 ...Am 1 Am Am1...An  ...  A1 A2 ...An  m An m 1...An .
Например, при n=4 и m=2 получаем:
B2, 4  A1 A2 A3 A4  A1 A2 A3 A4  A1 A2 A3 A4  A1 A2 A3 A4  A1 A2 A3 A4  A1 A2 A3 A4 .
Число всех комбинаций такого рода равно числу способов, какими можно из n
элементов одновременно выбрать m элементов, соответствующих m появлениям события А,
т.е. числу сочетаний без повторений Cnm (в примере – C 42  6) . Вероятность каждой такой
комбинации (каждого слагаемого) по определению независимых событий равна p m q n  m , а
так как составляющие события Вm,n являются несовместными событиями, то, согласно
теореме сложения несовместных событий, вероятность Р(Вm,n) равна сумме вероятностей
слагаемых:
P( Bm, n )  Pn (m)  C nm p m q n  m .

Схему независимых испытаний Бернулли называют также биномиальной схемой, а


соответствующие вероятности – биномиальными, что связано с использованием в формуле
биномиальных коэффициентов C nm .
Задача 1. Игральная кость броcается 6 раз. Найти вероятность того, что ровно 3 раза
выпадет «шестерка».

1
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Решение. Бросание кости можно рассматривать как последовательность независимых


испытаний Бернулли с вероятностью успеха (появления «шестерки»), равной 1/6, и
вероятностью неудачи — 5/6. Искомую вероятность вычисляем по формуле:
3 3
31 5
P6 (3)  C      0,054 .
6
6 6
Задача 2. Монета бросается 6 раз. Найти вероятность того, что герб выпадет не более,
чем 2 раза.
Решение. Искомая вероятность равна сумме вероятностей трех событий, состоящих в
том, что герб не выпадет ни разу, либо один раз, либо два раза:
0 6 1 5 2 4
1 1 1 1 1 1
P ( A)  P6 (0)  P6 (1)  P6 ( 2)  C      C61      C62      0,344 .
0
6
2 2 2 2 2 2
Задача 3. Аудитор обнаруживает финансовые нарушения у проверяемой фирмы с
вероятностью 0,9. Найти вероятность того, что среди четырех фирм-нарушителей будет
выявлено больше половины.
Решение. Событие состоит в том, что из четырех фирм-нарушителей будет выявлено
три или четыре, т.е.
P ( A)  P4 (3)  P4 ( 4)  С43 0,93  0,1  С44 0,94  0,93 (0,4  0,9)  0,9477 .

§ 4.2. Наивероятнейшее число успехов

Число m, при котором биномиальные вероятности Pn(m) достигают своего


максимального значения (при фиксированном числе испытаний n) называют обычно
наиболее вероятным (наивероятнейшим) числом успехов.
Теорема 2. Наивероятнейшее число успехов m* в серии из n независимых испытаний
Бернулли (с вероятностью успеха р в одном испытании) определяется неравенством
np  q  m*  np  p ,
причем :
1. если число np–q – не целое, то существует одно наивероятнейшее число m*;
2. если число np–q – целое, то существует два наивероятнейших числа:
m*=np–q, m*=np+p;
3. если np – целое число, то наивероятнейшее число m*=np.
Доказательство. Рассмотрим отношение двух соседних вероятностей:
Pn (m  1) (n  m) p
 .
Pn ( m) ( m  1) q
Если оно больше единицы, то последующая вероятность Pn(m+1) больше предыдущей
Pn(m). Если оно меньше единицы, то последующая вероятность меньше предыдущей. Для
нахождения наивероятнейшего числа m* надо уловить тот момент, когда рост вероятностей
сменяется убыванием, т.е. найти такое m, для которого выполняются неравенства
Pn (m  1) Pn (m)
 1,  1.
Pn (m) Pn (m  1)
Тогда из неравенства
Pn (m * 1) ( n  m*) p
 1
Pn (m*) (m * 1) q
получаем m*  np  q , а из неравенства
Pn ( m*) ( n  m * 1) p
 1
Pn ( m * 1) m*q
получаем m*  np  p .

2
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Таким образом, оказывается, что m* лежит в отрезке единичной длины


np  q  m*  np  p ,
причем, обозначив через m0  [ np  q ] целую часть числа np  q , получим:
1) если np  q – не целое, то имеется единственное целое число m*  m0  1 , принадлежащее
отрезку [np  q, np  p] , для которого вероятность Pn(m) достигает своего максимального
значения:
Pn (m*)  max Pn (m) .
0 m n

2) если np  q – целое, то имеется две точки максимума: m0  np  q и m0  1  np  p :


Pn (m0 )  P(m0  1)  max Pn (m) .
0 m n
3) если np целое, то наивероятнейшее число m*=np. Действительно, если np – целое, то в
отрезке [np  q, np  p] единичной длины содержится единственное целое число – np.

Задача 4. Монета подбрасывается 3 раза. Найти наиболее вероятное число успехов


(выпадений герба).
Решение. Возможными значениями для числа успехов в трех рассматриваемых
испытаниях являются m = 0, 1, 2 или 3. Пусть Am – событие , состоящее в том, что при трех
подбрасываниях монеты герб появится ровно m раз. По формуле Бернулли легко найти
вероятности событий Am (см. таблицу):

m 0 1 2 3
Pn(m) 1/8 3/8 3/8 1/8

Из этой таблицы видно, что наиболее вероятными значениями являются числа 1 и 2


(их вероятности больше остальных и равны 3/8). Этот же результат можно получить из
теоремы 2. Действительно, n=3, p=1/2, q=1/2. Тогда
1 1 1 1
3    m*  3   , т.е. 1  m*  2 .
2 2 2 2
Задача 5. Вероятность получения удачного результата при производстве сложного
химического опыта равна 3/4. Найти наивероятнейшее число удачных опытов, если общее их
количество равно 10.
Решение. В этой задаче n=10, p=3/4=0,75, q=1/4=0,25. Тогда неравенство для наиболее
вероятного числа успехов имеет вид:
100,75–0,25m*100,75+0,75 или 7,25m*8,25.
Существует только одно целое решение этого неравенства, а именно, m*=8.
Задача 6. В результате каждого визита страхового агента договор заключается с
вероятностью 0,1. Найти наивероятнейшее число заключенных договоров после 25 визитов.
Решение. Имеем n=25, p=0,1, q=0,9. Неравенство для наиболее вероятного числа
успехов принимает вид:
250,1–0,9m*250,1+0,1 или 1,6m*2,6.
У этого неравенства только одно целое решение, а именно, m*=2.

§ 4.3. Предельные теоремы и приближенные формулы

При больших значениях n непосредственное нахождение вероятностей Pn(m) по


формуле Бернулли сопряжено с трудностями вычислительного характера, поэтому в таких
случаях используют различные варианты приближенных формул, основанных на
предельных теоремах Пуассона и Муавра-Лапласа.

3
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

4.3.1. Теорема Пуассона

Теорема 3 (теорема Пуассона). Пусть число испытаний в схеме Бернулли велико:


n, а вероятность успеха мала: p0, но так, что np=const, >0. Тогда
m  
Pn ( m)  e .
m!
Доказательство. По формуле Бернулли, после умножения числителя и знаменателя на
nm и некоторых преобразований, получаем
n(n  1)...(n  m  1) p m
Pn (m)  Cnm p m q n  m  (1  p ) n  m
m!
n
n(n  1)...(n  m  1)n m m  np 
 p 1   
m!n m (1  p ) m  n 
 1   m 1
1  1  ...1   n
 n  n  m np  1 m  
 (np ) 1    e , n  , p  0 .
m!  n  (1  p ) m m!
Из теоремы следует приближенная формула Пуассона
m e  
Pn (m)  ,
m!
а соответствующие предельные вероятности называются пуассоновскими. Поскольку при
больших n верно np, то можно считать, что =np.
Приближенная формула Пуассона используется в том случае, когда число испытаний
n велико, а вероятность успеха в отдельном испытании мала (p<0,1) и при этом np невелико
(np<10).
Формула выражает закон распределения Пуассона вероятностей массовых (n велико)
и редких (р мало) явлений. Отсюда название закона Пуассона – закон редких явлений.
Закон Пуассона широко применяется в теории информации, в теории массового
обслуживания при изучении потока событий.
В силу определенной «симметричности» понятий «успех» и «неудача» приближенная
формула Пуассона может использоваться в схеме независимых испытаний Бернулли при
больших n также и в случае, когда р близко не к нулю, а к единице, т.е. при q<0,1 и nq<10:
m  
Pn ( n  m)  Cnn  m p n  m q m  Cnm q m p n  m  e ,   nq.
m!
Значения пуассоновских вероятностей при некоторых m и  представлены в таблице 3
приложения Т.
Задача 7. Известно, что процент брака для некоторой детали равен 0,5%. Контролер
проверяет 1000 деталей. Какова вероятность обнаружить ровно три бракованные детали?
Какова вероятность обнаружить не меньше трех бракованных деталей?
Решение. Имеем n=1000 испытаний Бернулли с вероятностью «успеха» р=0,005.
Применяя пуассоновское приближение с λ=np=5, получаем
53
1) P1000(3) e 5 ;
3!
2
5m
2) P1000(m3)=1P1000(m<3)=1[ P1000 (0)  P1000 (1)  P1000 ( 2) ]1  e 5 ,
m 0 m!

По таблице 3 приложения Т находим Р1000(3)0,14; Р1000(m3)0,875.

4
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

4.3.2. Теоремы МуавраЛапласа

Теорема 4 (локальная теорема МуавраЛапласа).


Пусть p=const, 0<p<1, n, и величина
m  np
x
npq
ограничена, тогда
 ( x)
Pn (m) 1,
npq
где
x2
1 2
 ( x)  e .
2
Из теоремы 4 следует приближенная (локальная) формула МуавраЛапласа:
 ( x)
Pn (m)  ,
npq
которая используется в случаях, когда наряду с числом испытаний n велики также np и nq
(np>10, nq>10).
Функция (х) – четная, и для положительных значений х составлена таблица ее
значений (см. таблицу 1 приложения T).
Задача 8. Вероятность покупки при посещении клиентом магазина составляет р=0,75.
Найти вероятность того, что при 100 посещениях клиент совершит покупку ровно 80 раз.
Решение. В данном случае n=100, m=80, p=0,75, q=0,25. Найдем
80  100  0,75
x  1,15 ,
100  0,75  0,25
и по таблице 1 приложения Т определяем (x)0,2059, тогда искомая вероятность равна
0,2059
Р100 (80)   0,048 .
100  0,75  0,25
Теорема 5 (интегральная теорема МуавраЛапласа). Пусть p=const, 0<p<1, n,
тогда равномерно относительно а и b (  a  b  ) имеет место предел
2
b z
 m  np  1 
P a   b    e 2
dz .
 npq  2 a
Здесь и далее под вероятностью неравенства, относящегося к m, имеется в виду сумма
вероятностей Pn(m) по всем m, удовлетворяющим этому неравенству.
Отсюда следует, что для вычисления вероятности P(m1mm2) события, состоящего в
том, что число успехов m в n испытаниях Бернулли окажется заключенным в пределах от m1
до m2, т.е.
m2
Pn (m1  m  m2 )   P ( m)
m  m1
n

можно использовать следующую приближенную (интегральную) формулу МуавраЛапласа:


Pn ( m1  m  m2 )   0 ( x2 )   0 ( x1 ) ,
где
m  np m  np
x1  1 , x2  2 ,
npq npq

5
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

a
х z2
1 
 0 ( x)   e 2 dz
2 0
– функция Лапласа.
Действительно, при достаточно больших n можно считать, что
x2 z2
 m  np  1 
P x1   x2    e 2 dz   0 ( х2 )   0 ( х1 ).
 npq  2 x1
Приближенная формула здесь используется при тех же условиях, что и для локальной
теоремы МуавраЛапласа: когда наряду с числом испытаний n велики также np и nq (np>10,
nq>10).
Функция Ф0(x) – нечетная: Ф0(–х)–Ф0(x) для всех x, и равна нулю при x=0: Ф0(0)=0.
Для функции Ф0(х) составлены специальные таблицы при некоторых положительных
значениях аргумента (см. таблицу 2 приложения T). При x>5 можно считать, что Ф0(x)=0,5.
Задача 9. Страховая компания заключила 40000 договоров. Вероятность страхового
случая по каждому из них в течение года составляет 2%. Найти вероятность, что таких
случаев будет не более 870.
Решение. По условию задачи n=40000, p=0,02, np=800, npq  28 . Для вычисления
вероятности Р(m870) воспользуемся интегральной теоремой Лапласа:
P40000 (0  m  870)   0 ( x2 )   0 ( x1 ) ,
где
0  800 870  800
x1   28,57 и x2   2,5 .
28 28
Находим по таблице значений функции Лапласа:
Р(0m870)Ф0(х2)–Ф0(х1)Ф0(2,5)–Ф0(–28,57)0,4938+0,5=0,9938.

Следствие (интегральной теоремы МуавраЛапласа). Пусть p=const, 0<p<1,


n, 0, и
n
 C,
pq
тогда вероятность того, что относительная частота появления успеха в n независимых
испытаниях Бернулли (т.е. число m/n) отклонится от вероятности успеха p не более чем на
>0, стремится к пределу:
m 
P  p     2 0 C  .
 n 
Доказательство получаем из следующей цепочки очевидных равенств:
m   m 
P  p     P p     p     P np  n  m  np  n  
 n   n 
 n m  np n 
 P      0 C    0  C   2 0 C .
 npq npq npq 
Отсюда следует приближенная формула:
m   n 
P  p     2 0   ,

 n   pq 
которая используется при тех же условиях, что и для теорем МуавраЛапласа: когда наряду
с числом испытаний n велики также np и nq (np>10, nq>10).

6
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Задача 10. Каждый из 900 посетителей оптового рынка случайным образом


обращается в один из 10 ларьков. В каких границах с вероятностью 0,95 лежит число
клиентов отдельно взятого ларька?
Решение. По условию задачи n=900, p=0,1, q=0,9 и заданная вероятность
m 
P  p     0,95 ,
 n 
а с другой стороны, можем использовать приближенную формулу:
m   n 
P  p     2 0   .

 n   pq 
Отсюда следует, что должно (приближенно) выполняться равенство
 n 
 0     0,475 .

 pq 
По таблице функции Лапласа находим, что аргумент функции Ф0 должен быть равен
n
  1,96 ,
pq
откуда получаем значение
pq 0,1  0,9
  1,96   1,96  0,0196 .
n 900
Тогда из условия
m 1
  0,0196
900 10
находим промежуток для m: m9017,64 или 72,36m107,64, и поскольку m − число целое,
то 73m107.

Приближенные формулы можно использовать и в следующей «урновой» схеме: из


генеральной совокупности объема N, содержащей М белых и NM черных шаров,
осуществляется последовательный выбор без возвращения n элементов. Вероятность того,
что в полученной выборке окажется ровно m белых шаров, описывается формулой (см. §2.3):
C m C n m
PM , N (m, n)  M nN  M .
CN
Если объем генеральной совокупности и число белых шаров в ней достаточно велики
(N, M, M/Np=const), то «урновую» схему можно приближенно заменить схемой
Бернулли:
PM , N (m, n)  Pn (m) , где Pn (m)  C nm p m q n m .
Далее, при необходимости, можно использовать приближенные формулы Пуассона и
Муавра-Лапласа.

§ 4.4. Полиномиальная схема

От схемы независимых последовательных испытаний с двумя исходами (схема


Бернулли или биномиальная схема) можно перейти к полиномиальной схеме.
Полиномиальной схемой называется схема последовательных независимых
испытаний, в каждом из которых возможны k исходов, k>2, с вероятностями p1, p2, …, pk,
k
0<pi<1, p
i 1
i 1.

7
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

В этом случае вероятностное пространство содержит kn элементарных событий, а


вероятность того, что из n испытаний m1 закончатся первым исходом, m2 – вторым
исходом,…, mk – k-м исходом равна
n!
Pn (m1 ,...mk )  p1m1 p2m 2 ... pkmk .
m1!m2!...mk !
Эта формула описывает полиномиальный закон распределения.
Полиномиальную схему можно трактовать как обобщение статистики Максвелла-
Больцмана на случай, когда вероятности попадания каждой частицы в различные ячейки
различны.
Задача 11. Шесть рукописей раскладываются случайным образом в пять папок.
Какова вероятность, что ни одна папка не останется пустой?
Решение. На раскладку 6 рукописей в папки можно смотреть как на серию шести
полиномиальных испытаний с 5 исходами (попадание в i-ую папку – это i-ый исход).
Вероятности исходов (папок) совпадают и равны p1  p2  ...  pk  1 / 5 . Событие A={ни одна
папка не останется пустой} означает, что в одну папку попадут две рукописи, а в остальные
папки – по одной рукописи. Следовательно, вероятность того, что в первую папку попадут
две рукописи, а в остальные папки – по одной рукописи, равна
2 1 1 1 1
6!  1   1   1   1   1  6! 1
P6 ( 2,1,1,1,1)          .
2!1!1!1!1!  5   5   5   5   5  2! 56
а вероятность искомого события A (для которого не важно, в какую из 5 папок попадают две
рукописи) равна
6! 1 6! 1
P( A)  5P6 (2,1,1,1,1)  5   6   5  0,1152.
2! 5 2! 5
Задача 12. Курс акции за день торгов может подняться на 1 пункт с вероятностью
50%, опуститься на 1 пункт с вероятностью 30% и остаться неизменным с вероятностью
20%. Найти вероятность того, что за 5 дней торгов курс поднимется на 2 пункта.
Решение. Возможны только следующие два варианта развития событий:
1) курс растет 2 дня, ни разу не падает, не меняется 3 дня;
2) курс растет 3 дня, падает 1 день, не меняется 1 день.
Таким образом,
5! 5!
P( A)  P5 (2,0,3)  P5 (3,1,1)  0,52  0,30  0,23  0,53  0,31  0,21  0,02  0,15  0,17.
2!0!3! 3!1!1!

Задачи для самостоятельного решения

1. Ежедневно новая сделка совершается с вероятностью 0,2 (но не более одной в день).
Какова вероятность, что за 5 дней будет совершено 3 сделки?
2. В результате каждого визита страхового агента договор заключается с вероятностью
0,25. Какова вероятность, что из 10 визитов страхового агента 5 закончатся
заключением договора?
3. Вероятность поражения мишени стрелком равна 0,9. Найти вероятность того, что он
поразит мишень ровно два раза, сделав 5 выстрелов.
4. Для вычислительной лаборатории приобретено 9 компьютеров, причем вероятность
брака для одного компьютера равна 0,1. Какова вероятность, что придется заменить
более двух компьютеров (т.е. они окажутся бракованными)?
5. Зачетная работа по предмету состоит из 6 задач, при этом зачет считается сданным,
если студент решил хотя бы 3 задачи. Студент Иванов может решить каждую задачу с
вероятностью 0,6 независимо от других. Какова вероятность, что он сдаст зачет?

8
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

6. В коробке 3 детали, вероятность брака для каждой детали равна 0,1. Какова
вероятность того, что среди 10 коробок будет не менее восьми не содержащих
бракованных деталей?
7. Два равносильных противника играют в шахматы. Что вероятнее: а) выиграть одну
партию из двух или две партии из четырех; б) выиграть не менее двух партий из
четырех или не менее трех партий из пяти? Ничьи во внимание не принимаются.
8. Мастер и ученик играют шахматный матч. Мастер выигрывает матч, если он выиграл
все партии в матче, ученик выигрывает матч, если он выиграл хотя бы одну партию в
матче. Вероятность победы мастера в одной партии равна 0,9, а ученика – 0,1. Из
скольких партий должен состоять матч, чтобы вероятности выиграть его у мастера и
ученика были как можно ближе к 1/2?
9. Фонд инвестирует средства в три компании. Вероятность получения прибыли от
каждой из компаний равна 0,7. Фонд зарабатывает деньги, если хотя бы две компании
дают прибыль. Известно, что фонд оказался в выигрыше. Какова вероятность того,
что при этом условии вложения во все три компании оказались прибыльными?
10. Курс акции за день растет или падает на 1 пункт равновероятно. Найти вероятность
того, что за 10 дней торгов курс: а) упадет на 4 пункта; б) поднимется на 2 пункта; в)
поднимется на 6 пунктов.
11. В коробке 4 детали. Вероятность того, что деталь стандартна, равна 0,9. Сколько надо
взять коробок, чтобы с вероятностью не менее 0,99 среди них нашлась хотя бы одна
коробка, не содержащая брака?
12. Вероятность хотя бы одного попадания при двух выстрелах равна 0,96. Найти
вероятность трех попаданий при четырех выстрелах.
13. Вероятность того, что в партии из 8 изделий имеется хотя бы одно бракованное
изделие, составляет 57%. Найти вероятность того, что там не более одного
бракованного изделия.
14. В люстре 3 лампы. Вероятность того, что они перегорят в течение года, составляет
0,8%. Найти вероятность того, что в течение года перегорит ровно одна лампа.
15. На ежегодную вечеринку приглашены 12 человек, причем каждый из них может
прийти с вероятностью 0,7 независимо от других. Найти наиболее вероятное число
гостей и его вероятность.
16. Система состоит из 6 независимо работающих элементов. Вероятность отказа
каждого элемента равна 0,3. Найти: а) наивероятнейшее число отказавших элементов;
б) вероятность наивероятнейшего числа отказавших элементов системы; в)
вероятность отказа системы, если для этого достаточно, чтобы отказали хотя бы пять
элементов.
17. Игральная кость бросается 16 раз. Найти наивероятнейшее число бросаний, в которых
выпало число очков, кратное трем, и вычислить его вероятность.
18. Известно, что в среднем доля p деталей имеет дефекты. Сколько деталей надо
проверить, чтобы с вероятностью r среди них оказалась хотя бы одна с дефектами?
Найти наивероятнейшее число деталей с дефектами в этом случае. Решить задачу,
если: а) p=0,01, r=0,95; б) p=0,02, r=0,97; в) p=0,02, r=0,99.
19. При визите страхового агента вероятность заключения договора равна p. Найти
наивероятнейшее число заключенных договоров после N визитов и вероятность того,
что их будет заключено не больше найденного числа. Решить задачу, если: а) p=0,2,
N=10; б) p=0,15, N=12.
20. Страховой агент при каждом визите заключает договор с вероятностью 30%. При
каком числе визитов наивероятнейшее число договоров будет равно 10?
21. Сколько надо сделать выстрелов с вероятностью попадания в цель 0,7, чтобы
наивероятнейшее число попаданий в цель было равно 15?
22. Сколько раз надо бросить игральную кость, чтобы наивероятнейшее число появлений
четного числа очков было равно 6?

9
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

23. Сколько надо сыграть партий в шахматы с вероятностью победы в одной партии,
равной 1/3, чтобы наивероятнейшее число побед было равно 5?
24. Найти вероятность того, что в серии из N бросаний монеты числа «орлов» и «решек»
совпадают, если: а) N=100; б) N=400.
25. Посетитель магазина совершает покупку с вероятностью 0,75. Какова вероятность,
что из 300 посетителей сделают покупки ровно: а) 230; б) 240.
26. Каждый из 100 компьютеров в интернет-кафе занят клиентами в среднем в течение
80% рабочего времени. Какова вероятность того, что в некоторый момент клиентами
будет занято: а) от 70 до 90 компьютеров; б) не менее 80 компьютеров?
27. На научную конференцию приглашены 100 человек, причем каждый из них
прибывает с вероятностью 0,7. В гостинице для гостей заказано 65 мест. Какова
вероятность того, что все приехавшие будут поселены в гостинице?
28. В партии из N арбузов каждый арбуз оказывается неспелым с вероятностью p
(независимо от других). Найти наиболее вероятное число спелых арбузов и
вероятность того, что их реальное число будет находиться в пределах от K до L, если:
а) N=768, p=0,25, K=564, L=600; б) N=800, p=0,2, K=600, L=650; в) N=400, p=0,2,
K=300, L=360; г) N=625, p=0,2, K=490, L=520.
29. Страховая фирма заключила 10000 договоров. Вероятность страхового случая по
каждому в течение года составляет 2%. Найти вероятность того, что таких случаев
будет: a) не более 230; б) не более 250.
30. Страховая фирма заключила N договоров. Вероятность страхового случая по каждому
договору в течение года составляет 2%. Найти наивероятнейшее число страховых
случаев и вероятность того, что реальное число случаев отклонится от него не более
чем на K, если: а) N=10000, K=30; б) N=8100, K=25; в) N=1000, K=10.
31. Консалтинговая фирма обслуживает N компаний. Каждая компания обращается в эту
фирму в среднем 4 раза в год. Какова вероятность того, что в течение месяца фирме
придется обслужить не менее M компаний? Решить задачу, если: а) N=120, M=50; б)
N=240, M=100.
32. Каждый из 1000 адресатов, получивших рекламное объявление, обращается в фирму с
вероятностью 5%. Найти вероятность того, что число обратившихся составит не
менее 40 человек.
33. Каждый из 500 адресатов, получивших рекламное объявление, откликается на него с
вероятностью 5%. Найти наивероятнейшее число откликов и вероятность, что число
откликов будет отличаться от него не более чем на 10.
34. Посетитель магазина совершает покупку с вероятностью 0,8. Какова вероятность, что
из 400 посетителей сделают покупки от 300 до 350 человек?
35. Посетитель магазина совершает покупку с вероятностью 0,4. Какова вероятность, что
из 600 посетителей сделают покупки от 200 до 250 человек?
36. Известно, что вероятность рождения мальчика равна 0,515, а девочки – 0,485. Какова
вероятность того, что среди 1000 новорожденных детей мальчиков будет больше, чем
девочек?
37. Производится 500 подбрасываний симметричной монеты. В каких пределах будет
находиться отклонение относительной частоты выпадения герба от 0,5 с
вероятностью 0,99?
38. При изготовлении деталей наблюдается в среднем 10% брака. Исследуется партия в
1500 деталей. Найти границы, в которых число бракованных деталей лежит с
вероятностью 0,9.
39. Каждый из 400 клиентов фирмы случайным образом обращается к одному из 5
менеджеров. В каких границах с вероятностью 0,95 лежит число клиентов отдельно
взятого менеджера?

10
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

40. Каждый из 900 посетителей оптового рынка случайным образом обращается в один из
10 ларьков. В каких границах с вероятностью 0,95 лежит число клиентов отдельно
взятого ларька?
41. Страховая фирма заключила 10000 договоров. Вероятность страхового случая по
каждому в течение года составляет 1%. В каких границах с вероятностью 0,95 лежит
количество страховых случаев?
42. Стиральным порошком "Снежок" пользуется 25% населения. Сколько людей надо
опросить, чтобы определить эту долю с точностью 0,05 с вероятностью 0,95?
43. Зубной пастой "Чистозуб" пользуется 10% населения. Сколько человек надо
опросить, чтобы определить эту долю с точностью 0,03 с вероятностью 0,99?
44. На выборах кандидата в мэры поддерживает 40% населения. При изучении
общественного мнения было опрошено 1000 человек. С какой вероятностью можно
утверждать, что доля избирателей из этой выборки, поддерживающих кандидата,
отличается от истинной доли не более, чем на 0,05?
45. Доля населения региона, занятого в промышленности, равна 0,4. В каких границах с
вероятностью 0,95 лежит число занятых в промышленности среди 10000 случайно
отобранных людей?
46. Известно, что вероятность «зависания» компьютера равна 0,6%. Какова вероятность
того, что из 200 компьютеров «зависнут»: а) ровно 6 компьютеров; б) не более 5
компьютеров?
47. В среднем 1% документов содержит ошибки. Какова вероятность, что из 100
документов будет не более двух с ошибками?
48. При наборе текста наборщик делает ошибку в слове с вероятностью p. Какова
вероятность, что в тексте из N слов будет не более M ошибок? Решить задачу, если: а)
p=0,001, N=5000, M=5; б) p=0,002, N=2000, M=4.
49. При наборе текста наборщик делает ошибку в слове с вероятностью p. Найти
наивероятнейшее число ошибок в тексте из N слов и вероятность того, что оно не
будет превышено. Решить задачу, если: а) p=0,002, N=1500; б) p=0,003, N=1300.
50. Сборник задач содержит 400 задач с ответами. В каждом ответе может быть ошибка с
вероятностью 0,01. Какова вероятность, что ровно 99% всех ответов даны без
ошибок?
51. Вероятность правильно прочитать закодированное слово равна 99,75%. С какой
вероятностью в тексте длиной 2000 слов будет сделано более двух ошибок?
52. Известно, что вероятность выпуска дефектной детали равна 0,02. Детали
укладываются в коробки по 100 штук. Чему равна вероятность того, что: а) в коробке
нет дефектных деталей; б) число дефектных деталей в коробке не более двух?
53. Производители калькуляторов знают из опыта, что в среднем 1% проданных
калькуляторов имеет дефекты. Аудиторская фирма купила 500 калькуляторов. Какова
вероятность того, что придется заменить ровно 4 калькулятора?
54. Изделие является годным с вероятностью p. Какова вероятность, что в партии из N
деталей будет не более M бракованных? Решить задачу, если: а) p=0,95, N=100, M=2;
б) p=0,96, N=100, M=3; в) p=0,95, N=120, M=4.
55. Вероятность того, что в партии из 100 изделий имеется хотя бы одно бракованное
изделие, составляет 63,2%. Найти вероятность того, что в этой партии не более трех
бракованных изделий.
56. Вероятность того, что пассажир опоздает к поезду, равна 0,004. Найти наиболее
вероятное число опоздавших, если всего билет купило 750 человек, и вероятность
того, что их будет именно столько (т.е. наиболее вероятное число).
57. Два шахматиста, Артем и Борис, встречались за доской 50 раз, причем 15 раз выиграл
Артем, 10 раз выиграл Борис и 25 партий закончились вничью. Найти вероятность
того, что в матче из 10 партий между этими шахматистами 3 партии выиграет Артем,

11
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

2 партии выиграет Борис, а 5 партий закончатся вничью. Использовать результаты


предыдущих матчей для оценки вероятностей выигрыша каждого.
58. В магазине имеются в продаже: один костюм первого роста, два костюма второго
роста, три костюма третьего роста. Костюм первого роста спрашивается с
вероятностью 0,2, костюм второго роста – с вероятностью 0,3, костюм третьего роста
– с вероятностью 0,5. В магазин обратилось три покупателя. Найти вероятность того,
что хотя бы один из них ушел без покупки.
59. Курс акции за день торгов может подняться или опуститься на 1 пункт либо остаться
неизменным (все три случая равновероятны). Найти вероятность того, что за 5 дней
торгов курс поднимется на 2 пункта.
60. Курс акции за день торгов может подняться на 1 пункт с вероятностью 50%,
опуститься на 1 пункт с вероятностью 30% и остаться неизменным с вероятностью
20%. Найти вероятность того, что за 5 дней торгов курс: а) поднимется на 3 пункта; б)
упадет на 2 пункта.

Новые задачи (2018)

61. На острове Чунга-Чанга бывает два типа погоды: хорошая и отличная, причем в
течение дня она не меняется. Известно, что каждый день с вероятностью 0,7 погода
оказывается такой же, как и в предыдущий день, независимо от более давнего
прошлого. Сегодня на острове хорошая погода. Найти вероятность того, что там будет
отличная погода: а) через 3 дня; б) через неделю.
62. Мебельный магазин торгует шкафами. Спрос на шкафы за неделю составляет: 0 – с
вероятностью 0,3; 1 – с вероятностью 0,5; 2 – с вероятностью 0,2. Найти вероятность,
что за 3 недели будет продано ровно: а) 3 шкафа; б) 4 шкафа.
63. Ежедневно новая сделка заключается с вероятностью 0,2 (но не более одной в день).
За сколько дней с вероятностью 0,9 можно ожидать заключения не менее 50 сделок?1
64. Аппаратура состоит из 100 одинаково надежных и независимо работающих
элементов, каждый из которых может отказать в течение суток с вероятностью 0,01.
На обнаружение отказавшего элемента и его замену требуется 20 минут, в течение
которых аппаратура простаивает. Найти вероятность того, что время простоя составит
не более 40 минут в сутки.2
65. Магазин ежедневно посещают 300 покупателей, каждому из них может понадобиться
торт с вероятностью 0,01. Сколько тортов, как минимум, следует приготовить на
продажу, чтобы удовлетворить весь спрос с вероятностью не менее 0,9?

1
Это бывшая задача 16 из главы 8.
2
Это бывшая задача 17 из главы 8.

12
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Глава 5. Дискретные случайные величины

§ 5.1. Случайная величина и ее закон распределения


Случайной величиной  называется любая действительная функция1 =(), ,
определенная на пространстве элементарных событий . Если множество значений функции
конечно или счетно, то такую случайную величину называют дискретной.
В результате опыта случайная величина может принять то или иное значение, причем
заранее неизвестно, какое именно. Примерами случайных величин являются: колебания
курсов валют или цен товаров, прибыль или убытки фирмы, время выполнения работы,
ожидания транспорта и т.д.
Пример 1. При двукратном подбрасывании монеты возможны следующие исходы:
1  ,  2  ,  3  ,  4   , т.е. пространство элементарных событий имеет вид
  1 , 2 , 3 , 4 , причем каждый элементарный исход имеет вероятность 1/4. Пусть () –
число выпадений герба при двукратном бросании монеты, тогда (1)=0, (2)=1, (3)=1,
(4)=2. Зная вероятности для элементарных исходов, можно вычислить вероятности
соответствующих значений случайной величины :
P(  0)  P(1 )  1 / 4;
P(  1)  P(2 , 3 )  1 / 4  1 / 4  1 / 2;
P(  2)  P(4 )  1 / 4.
Полученные вероятности можно свести в таблицу (в первой строке перечислены
значения случайной величины, а во второй – их вероятности):

 0 1 2
P 1/4 1/2 1/4

Такая таблица уже не содержит информацию о том, на каком вероятностном


пространстве определена случайная величина, в ней приведены лишь значения случайной
величины (в первой строке) и их вероятности (во второй строке).
Законом распределения случайной величины называется всякое соотношение,
устанавливающее связь между возможными значениями случайной величины и
соответствующими им вероятностями.
Простейшей формой закона распределения дискретной случайной величины является
ряд распределения.
Рядом распределения дискретной случайной величины  называется таблица, в
которой перечислены все возможные значения x1, x2,…, xn этой случайной величины и
соответствующие им вероятности pi  P(  xi ) :

 x1 х2 … xn
P p1 р2 … pn

n
При этом сумма вероятностей равна единице: p
i 1
i  1.

1
В аксиоматике А.Н.Колмогорова требуется, чтобы эта функция была измеримой, т.е. все события вида
{ :  ( )  x} принадлежали -алгебре F вероятностного пространства (, F, P) (см. § 3.7). Далее будем
считать это условие выполненным по умолчанию.

1
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Если множество значений случайной величины счетно, то эта таблица является



бесконечной справа, и суммой вероятностей является ряд p
i 1
i  1.

Задача 1. В связке из трех ключей только один ключ подходит к двери. Ключи
перебирают до тех пор, пока не отыщется подходящий ключ. Построить закон
распределения для случайной величины  – числа опробованных ключей.
Решение. Число опробованных ключей может равняться 1, 2 или 3. Если испытали
только один ключ, это означает, что этот первый ключ сразу подошел к двери, а вероятность
такого события равна 1/3. Итак, P (  1)  1 / 3. Далее, если опробованных ключей было 2,
т.е. =2, это значит, что первый ключ не подошел, а второй – подошел. Вероятность этого
события равна 2/3×1/2=1/3. То есть, P (  2)  1 / 3. Аналогично вычисляется вероятность
P (  3)  1 / 3. В результате получается следующий ряд распределения случайной величины:

 1 2 3
P 1/3 1/3 1/3

§ 5.2. Функция распределения случайной величины


Функцией распределения случайной величины  называется функция F(x),
определенная для любого действительного х и выражающая вероятность того, что
случайная величина  примет значение, меньшее х:
F ( x)  P(  x) .
Функция распределения обладает следующими свойствами:
1. Для любого x  R справедливо неравенство 0  F ( x)  1 .
2. Функция распределения является неубывающей функцией, т.е., если x1  x2 , то .
F ( x1 )  F ( x2 ) .
3. Вероятность того, что случайная величина примет значение из полуинтервала [x1,x2),
равна разности значений функции распределения на концах интервала, т.е.
P( x1    x2 )  F ( x2 )  F ( x1 ) .
4. Справедливо равенство: P(  x)  1  F ( x) .
5. Справедливы следующие предельные соотношения:
lim F ( x)  0, lim F ( x)  1.
x   x  

6. Функция распределения непрерывна слева, т.е. lim F ( x)  F (a ) .


xa 0

Доказательства.
1) Очевидно, поскольку это вероятность события.
2) Представим событие, состоящее в том, что случайная величина примет значение,
меньшее х2, в виде суммы несовместных событий:
{ :  ( )  x2 }  { :  ( )  x1}  { : x1   ( )  x2 } .
По теореме сложения для несовместных событий:
F ( x2 )  P (  x2 )  P (  x1 )  P ( x1    x2 )  F ( x1 )  P( x1    x2 ) ,
и так как вероятность P( x1    x2 )  0 , то получаем неравенство F ( x1 )  F ( x2 ) .
3) Свойство вытекает из равенства F ( x2 )  F ( x1 )  P ( x1    x2 ) .
4) Событие { :  ( )  x} является противоположным событию { :  ( )  x} и,
следовательно, P (  x)  1  P(  x)  1  F ( x) .

2
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

5) Рассмотрим убывающую последовательность an– и множества


An  { :  ( )  an } . Они удовлетворяют условиям аксиомы непрерывности (см. § 3.7), так
что F(an)=P(An)0, n. Аналогично, для возрастающей последовательности an+ и
множеств An  { :  ( )  an } получаем F(an)=1–P(An)1, n.
6) Рассмотрим возрастающую последовательность an<a, ana и множества
An  { : an   ( )  a} . Они удовлетворяют условиям аксиомы непрерывности, и поскольку
F(a)=F(an)+P(An), то F(an)=F(a)–P(An)F(a), n.
Таким образом, каждая функция распределения является неубывающей, непрерывной
слева и удовлетворяющей условиям F(–)=0 и F(+)=1 функцией. Верно и обратное каждая
функция, удовлетворяющая перечисленным условиям, может рассматриваться как функция
распределения некоторой случайной величины.
Функция распределения является универсальным законом распределения случайной
величины. Все ее свойства остаются верными и тогда, когда пространство элементарных
событий не является дискретным.
Функция распределения любой дискретной величины разрывна, возрастает скачками
при тех значениях х, которые являются возможными значениями . Величина скачка
функции F(x) в точке хi равна pi.
Задача 2. Построить функцию распределения F(x) для случайной величины  из
задачи 1.
Решение. Случайная величина  принимает три значения 1, 2, 3, которые делят всю
числовую ось на четыре промежутка: (,1], (1,2], (2,3], (3,) . Если x≤1, то неравенство <x
невозможно (левее x нет значений случайной величины ) и значит, для такого x функция
F(x)=0.
Если 1<x≤2, то неравенство <x возможно только если =1, а вероятность такого
события равна 1/3, поэтому для таких x функция распределения F(x)=1/3.
Если 2<x≤3, неравенство <x означает, что или =1, или =2, поэтому в этом случае
вероятность P(<x)=P(=1)+P(=2)=2/3, т.е. F(x)=2/3.
И, наконец, в случае x>3 неравенство <x выполняется для всех значений случайной
величины , поэтому P(<x)=P(=1)+P(=2)+P(=3)=1, т.е. F(x)=1.
Итак, мы получили следующую функцию:
0, x 1
1 / 3, 1  x  2

F ( x)  
2 / 3, 2  x  3
1, x  3.
Отметим, что в теории вероятностей существует две традиции в определении
функции распределения: можно положить F ( x)  P(  x) или F ( x)  P(  x) . Оба
определения встречаются в учебной и научной литературе. При втором определении
функция распределения оказывается непрерывна не слева, а справа и т.д. Однако следует
понимать, что функция распределения – это только инструмент, а не цель расчетов. Все
содержательные результаты в обеих традициях, конечно, получаются одинаковыми.

§ 5.3. Дискретный случайный вектор

Пусть на вероятностном пространстве  задано несколько дискретных случайных


величин 1(), 2(), …, n(). Такой упорядоченный набор называется многомерным
случайным вектором или n-мерной случайной величиной и обозначается =(1, 2, ..., n).

3
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Рассмотрим случай n=2, т.е. когда на пространстве элементарных событий заданы две
дискретные случайные величины  и , принимающие значения хi (i=1, 2, ..., n) и уj (j=1, 2,
..., m), соответственно. Упорядоченная пара (, ) называется двумерным случайным
вектором или двумерной случайной величиной. Сами величины  и  называются в этом
случае составляющими (или компонентами) случайного вектора.
Геометрически совокупность двух случайных величин можно рассматривать как
случайную точку с координатами (, η) на плоскости ХОY или как случайный вектор,
направленный из начала координат в точку (, η), составляющие которого случайные
величины  и η. Совокупность трех случайных величин изображается случайной точкой или
случайным вектором в трехмерном пространстве, совокупность n случайных величин -
случайной точкой или случайным вектором в пространстве n измерений.
Любое соотношение между возможными значениями случайного вектора и их
вероятностями называется совместным законом распределения.
Совместный закон распределения вероятностей дискретных величин  и  задается
набором вероятностей pij одновременного осуществления событий {=хi} и {=уj}, т.е.
pij  P (  xi ,  y j ) , и представляется в виде таблицы:

  y1 y2 … ym
x1 p11 p12 … p1m
x2 p21 p22 … p2m
… … … … …
xn p n1 pn2 … pnm

Первый столбец таблицы содержит все возможные значения составляющей , а первая


строка – все возможные значения составляющей η. В соответствующей клетке таблицы
указана вероятность того, что двумерная случайная величина приняла значение (хi, yj). Так
как события { :  ( )  xi ,  ( )  y j } образуют полную группу событий, то сумма
вероятностей, помещенных во всех клетках таблицы, равна единице:
 P(  xi ,   y j )   pij  1 .
i j i j

Такая таблица называется рядом распределения вектора (, η).


Вероятность события типа {(, η)  В} – «случайная точка (ξ, ) попадает в область В»
вычисляется по формуле
P(( , )  В)   P(  xi ,   y j ) ,
( x i , y j )В

где суммирование происходит по всем возможным парам (хi, yj) значений случайных величин
 и η, для которых случайная точка (xi,yj) входит в область В.
Частным законом распределения случайной величины  называется набор
вероятностей событий {=хi}. Если задан совместный закон распределения, то частный закон
распределения для  можно получить с помощью формулы:
m
p ( xi )  P (  хi )   P (  xi ,   y j )   pij .
j j 1

Действительно, событие {  xi } может осуществиться вследствие одного из событий


{  xi ,   y1} , {  xi ,   y2 } , ... , {  xi ,   ym } , которые несовместны и их объединение
равно событию {  xi } , т.е.

4
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

m
{  xi }  {  xi ,   y j } .
j 1

Отсюда в силу теоремы сложения для несовместных событий следует, что


m
P(  xi )   pij .
j 1

Аналогично, частным законом распределения  называется набор вероятностей


событий {=yj}, которые также можно вычислить с помощью формулы:
n
p ( y j )  P (  y j )   P(  xi ,   y j )   pij .
i i 1
Таким образом, закон распределения каждой случайной величины восстанавливается
с помощью совместного закона распределения вероятностей.
Случайные величины  и  называются независимыми, если для любых борелевских
числовых множеств (см. § 3.7) A и В выполняется условие:
P(  A,   B)  P(  A) P(  B) ,
то есть независимы события {  A} и {  B} . Аналогичным образом можно определить
случайные величины, независимые попарно и в совокупности (см. §3.4), через независимость
соответствующих событий.
Теорема 1. Дискретные случайные величины  и η независимы тогда и только тогда,
когда события {=хi} и {=уj} независимы для всех значений хi и уj .
Доказательство. Пусть для всех значений хi и уj верно
P (  xi ,   y j )  P (  xi ) P (  y j ) ,
т.е. независимы события {  xi } и {  y j } , тогда для любых множеств A и B получаем
P(  A,   B)   P(  x ,   y )   P(  x ) P(  y ) 
x i  A, y j B
i j
x i  A, y j B
i j

  P(  x )  P(  y )  P(  A) P(  B).


xi  A
i
y j B
j

Задача 3. Совместный закон распределения случайных величин  и  задан c


помощью таблицы

  1 2
1 1/16 3/16
0 1/16 3/16
1 1/8 3/8

Найти частные законы распределения составляющих величин  и . Определить,


зависимы ли они. Вычислить вероятность P    2  .
Решение. Частное распределение для  получается суммированием вероятностей по
строкам:
P  1  P  1,  1  P  1,  2  1 / 16  3 / 16  1 / 4 ;
P  0  P  0,  1  P  0,  2  1 / 16  3 / 16  1 / 4 ;
P  1  P  1,  1  P  1,  2  1 / 8  3 / 8  1 / 2 .
Аналогично получается частное распределение для , суммированием по столбцам:
P  1  1 / 16  1 / 16  1 / 8  1 / 4 ;
P  2  3 / 16  3 / 16  3 / 8  3 / 4 .
Полученные вероятности можно записать в ту же таблицу напротив соответствующих
значений случайных величин:

5
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

  1 2 p
1 1/16 3/16 1/4
0 1/16 3/16 1/4
1 1/8 3/8 1/2
p 1/4 3/4

Теперь ответим на вопрос о независимости случайных величин  и . С этой целью


для каждой клетки совместного распределения вычислим произведение P   xi P   y j 
(т.е. сумм по соответствующей строке и столбцу) и сравним его со значением вероятности
P   xi ,  y j  в этой клетке. Например, в клетке для значений =1 и =1 стоит
вероятность 1/16, а произведение соответствующих частных вероятностей 1/4×1/4 равно
1/16, т.е. совпадает с совместной вероятностью. Это условие так же проверяется в
оставшихся пяти клетках, и оно оказывается верным во всех. Следовательно, случайные
величины  и  независимы.
Заметим, что если бы это условие нарушалось хотя бы в одной клетке, то величины
следовало бы признать зависимыми.
Для вычисления вероятности P    2  отметим клетки, для которых выполнено
условие     2 . Таких клеток всего три, и соответствующие вероятности в этих клетках
равны 1/8, 3/16, 3/8. Их сумма равна 11/16, это и есть искомая вероятность. Вычисление этой
вероятности можно записать так:
P    2  P  1,  1  P  0,  2  P  1,  2  1 / 8  3 / 16  3 / 8  11/ 16.

§ 5.4. Числовые характеристики дискретных случайных величин

Пусть  — дискретная случайная величина со значениями x1 , x2 , ..., xn и их


вероятностями pi  P(  xi ), i=1, 2, ..., n.
Математическим ожиданием (или средним значением) дискретной случайной
величины  называется число
n
M   xi pi .
i 1

Если множество значений случайной величины  счетно, то математическое ожидание


определяется как бесконечный ряд

M   xi pi ,
i 1
в случае, когда он абсолютно сходится.
Если  – дискретная величина и (х) — некоторая функция, то математическое
ожидание случайной величины  = () можно вычислить по формуле
M ( )    ( xi ) pi
i
при условии, что ряд абсолютно сходится.
Если заданы совместное распределение вероятностей случайных величин  и  и
функция (x,y) двух аргументов, то
M ( , )    ( xi , y j ) pij .
i, j

6
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Отметим, что бывает важным различать разные ситуации, когда ряд в определении
математического ожидания не является абсолютно сходящимся. Поэтому используют также
более точное определение, а именно, следующее.
Если множество значений случайной величины  счетно, ее математическое ожидание
представляют в виде суммы двух рядов, по положительным и отрицательным значениям
случайной величины:
M   xi pi   xi pi .
i: xi  0 i: xi  0

Далее возможны четыре случая:


1. Оба ряда сходятся. Тогда математическое ожидание существует и равно их сумме.
2. Первый ряд расходится (стремится к +), второй сходится. Тогда говорят, что
конечного математического ожидания не существует, математическое ожидание равно +.
3. Первый ряд сходится, второй расходится (стремится к ). Тогда говорят, что
конечного математического ожидания не существует, математическое ожидание равно .
4. Оба ряда расходятся. Тогда математическое ожидание не определено, ни конечное,
ни бесконечное.
Математическое ожидание обладает следующими свойствами:
1) МC= C (C – константа);
2) М(C) = CМ для любой константы C;
3) М(+) = М+М;
4) М() = (М)(М), если  и  независимы.
Доказательство.
1) Константу С можно рассматривать как случайную величину, принимающую
единственное значение С с вероятностью 1, так что МС=С1=С.
2) Случайная величина C принимает значения Cxi вместо xi с вероятностями pi, таким
образом, сумма увеличивается в C раз.
3) Используя ранее введенные обозначения, получаем
M (   )   ( xi  y j ) pij   xi  pij   y j  pij 
i, j i j j i

  xi p ( xi )   y j p ( y j )  M  M .
i j

4) Аналогичным образом получаем


M ( )   xi y j pij   xi y j p ( xi ) p ( y j )   xi p ( xi )   y j p ( y j )  M  M .
i, j i, j i j

Методом математической индукции можно доказать, что математическое ожидание


суммы случайных величин 1, 2,…, n равно сумме их математических ожиданий:
M(1 +2+…+n)=M1+M2+…+Mn.
Отметим, что, как и у вероятности, у математического ожидания случайной величины
имеется статистическая интерпретация.
Предположим, что производят независимые наблюдения случайной величины много
раз. Тогда среднее арифметическое этих наблюдений будет сходиться к математическому
ожиданию (подробнее см. гл. 8, 11).
Например, легко подсчитать, что при бросании правильного кубика математическое
ожидание числа выпадающих очков равно 3,5. Это значит, что если бросать кубик много раз,
то среднее арифметическое (сумма всех набранных очков, деленная на число бросаний),
будет стремиться к 3,5. Вычисление позволяет это установить без экспериментов.
С другой стороны, если в результате экспериментов получено значение среднего,
заметно отличающееся от 3,5, это дает повод для подозрений, что кубик неправильный.

7
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

В случаях, когда математическое ожидание случайной величины бесконечно, среднее


арифметическое ее наблюдений стремится к соответствующей бесконечности (плюс или
минус).
Если математическое ожидание не определено, среднее арифметическое вообще ни к
чему не стремится, а просто колеблется случайным образом.
Дисперсией случайной величины  называется число D=М(М)2. Величина
  D называется средним квадратическим отклонением.
Из определения дисперсии вытекают формулы для вычисления дисперсии дискретной
случайной величины:
n
D   ( xi  M ) 2 p i ,
i 1

если случайная величина принимает конечное число значений x1 , x2 , ..., xn , и



D   ( x i  M ) 2 p i
i 1
при условии сходимости ряда.
Если математическое ожидание конечно, а ряд в определении дисперсии расходится,
то дисперсия бесконечна, если же математическое ожидание бесконечно или не определено,
дисперсия не определена.
Для дисперсии справедливы следующие свойства:
1. D=М2–(М)2;
2. DC=0, т.е. дисперсия постоянной равна нулю, и наоборот: если D=0, то  постоянна;
3. D(C)=C2D;
4. D(+C)=D;
5. Если случайные величины  и  независимы, то D(+)=D+D.
Доказательство.
1. Из свойств математического ожидания получаем
D  M (  M ) 2  M ( 2  2  M  ( M ) 2 )  M 2  2( M ) 2  ( M ) 2  M 2  ( M ) 2 .
(при условии существования конечных М2 и М).
2. DC=M(C–MC)2=M(C–C)2=0. Если D=0, это значит, что М(М)2=0. Но случайная
величина (М)2 может принимать только нулевое или положительные значения. Если она
принимает какие-то положительные значения, то должно выполняться М(М)2>0. Значит,
она принимает только нулевое значение, и  постоянна и равна M.
3. D(C)=M(C–M(C))2=M(C–CM)2=C2М(–М)2=C2D.
4. D(+C)=M((+C)–M(+C))2= M(+C–MC)2=М(–М)2= D.
5.
D(   )  M (   ) 2  ( M (   )) 2  ( M 2  2M ( )  M 2 )  ( M  M ) 2 
 ( M 2  2M  M  M 2 )  (( M ) 2  2M  M  ( M ) 2 ) 
 ( M 2  ( M ) 2 )  ( M 2  ( M ) 2 )  D  D .
Последнее свойство можно обобщить на случай n случайных величин 1, 2,…, n, и
доказать, что если они попарно независимы, то дисперсия их суммы равна сумме дисперсий:
D(1 +2+…+n)=D1+D2+…+Dn.
Помимо статистической интерпретации, у математического ожидания и дисперсии
имеется физическая (механическая) интерпретация. Предположим, что на горизонтальной
оси координат Ox расположены материальные точки с координатами x1 , x2 , ..., xn и массами
p1 , p2 , ..., pn . Тогда математическое ожидание дает координату центра тяжести системы
этих точек, а дисперсия – момент инерции системы точек относительно вертикальной оси,
проходящей через центр тяжести.
8
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

В отечественной традиции, математическое ожидание обозначается буквой М, а


дисперсия – буквой D. В англоязычной традиции они обозначаются буквой Е (от слова
expectation – ожидание) и сокращением Var (от слова variation, означающего дисперсию, в то
время как слово dispersion означает совсем другое). Начиная с 1992 года англоязычная
традиция в обозначении математического ожидания широко распространилась в России, так
что теперь в учебной и научной литературе можно встретить и М, и E (а в научных работах,
переводящихся на английский язык, обычно E). В обозначении дисперсии пока по-прежнему
в основном употребляется D, поскольку так короче. Буквы для обозначения математического
ожидания и дисперсии часто выделяются другим шрифтом (жирным, прямым или др.), но в
данном учебнике мы этого не делаем, для простоты.
Упомянем и некоторые другие характеристики случайных величин.
Модой случайной величины называется ее наиболее вероятное значение. В частности,
наивероятнейшее значение числа успехов в схеме Бернулли − это мода биномиального
распределения.
Медианой случайной величины  называется число Хmed такое, что
Р(<Хmed)=Р(>Хmed). Для дискретной случайной величины ξ это число может не совпадать
ни с одним из значений ξ. Тогда медиану дискретной случайной величины определяют как
любое число Хmed, лежащее между двумя соседними возможными значениями хi и xi+1
такими, что F(хi) <1/2; F(хi+1)≥1/2.
Задача 4. Пусть случайная величина ξ имеет следующий закон распределения:

 1 0 2
P 1/4 1/4 1/2

Вычислить математическое ожидание M, дисперсию D и среднее квадратическое


отклонение .
Решение. По определению математическое ожидание  равно
3
M   xi pi  1  1 / 4  0  1 / 4  2  1 / 2  3 / 4 .
i 1
Далее
3
M 2   xi2 pi (1) 2  1 / 4  0 2  1 / 4  2 2  1 / 2  9 / 4 ,
i 1
а потому
D  M 2  ( M ) 2  9 / 4  9 / 16  27 / 16 .
Среднее квадратическое отклонение   D  3 3 / 4 .
Задача 5. Для пары случайных величин из задачи 3 вычислить M ( ) .

Решение. Воспользуемся формулой M ( )   xi y j pij . А именно, в каждой клетке


i, j

таблицы выполняем умножение соответствующих значений xi и y j , результат умножаем на


вероятность pij, и все это суммируем по всем клеткам таблицы. В итоге получаем:
M ( )  1  1  1 / 16  (1)  2  3 / 16  0  1  1 / 16  0  2  3 / 16  1  1  1 / 8  1  2  3 / 8 
 1 / 16  3 / 8  1 / 8  3 / 4  7 / 16.

§ 5.5. Основные дискретные распределения и их характеристики

5.5.1. Распределение Бернулли

9
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Распределение Бернулли (или биномиальное распределение) определяется как закон


распределения случайной величины, равной числу успехов в n испытаниях Бернулли. Эта
случайная величина  может принять любое из значений 0, 1, 2, …, n, а их вероятности
определяются формулой Бернулли: если p – вероятность успеха, q – вероятность неудачи, то
P (  m)  Pn (m)  Cnm p m q n  m , 0mn.
Докажем, что для распределения Бернулли M=np, D=npq.
В данном случае удобно воспользоваться тем фактом, что математическое ожидание
суммы случайных величин равно сумме математических ожиданий этих величин, и
дисперсия суммы независимых случайных величин также равна сумме дисперсий.
Обозначим через i индикатор успеха в i-ом испытании Бернулли. Случайная
величина ξi может принимать только два значения: 1 с вероятностью р и 0 с вероятностью q.
Поэтому Mi  1  p  0  q  p для любого i.
Тогда случайная величина  (число успехов в n испытаниях Бернулли) может быть
представлена в виде суммы n независимых случайных величин ξi:
n
   i .
i 1
Отсюда
 n  n
М  M    i    М i  np .
 i 1  i 1
Найдем дисперсию ξi. Поскольку 0 и 1 в квадрате снова дают 0 и 1, то i2  i , так что
M i2  M i  p , откуда
Di  Mi2  ( Mi ) 2  p  p 2  p (1  p )  pq .
Тогда
 n  n
D  D  i    Di  npq ,
 i 1  i 1
т.е. дисперсия биномиальной случайной величины равна произведению числа испытаний на
вероятности успеха и неудачи. Итак, для распределения Бернулли M=np, D=npq.

5.5.2. Распределение Пуассона

Случайная величина, распределенная по закону Пуассона с параметром >0, может


принять любое из значений 0, 1, 2, … (счетное множество значений), вероятности которых
задаются формулой
m
P(  m)  e  ,m  0.
m!
Докажем, что для распределения Пуассона M=, D=.
Напомним следующий факт из математического анализа:

xm
  ex
m  0 m!
для любого x. Используем это для вычисления характеристик распределения Пуассона.
Математическое ожидание случайной величины вычисляем через ряд:

mm   

m 1
M   e  e   e   e    ,
m  0 m! m 1 ( m  1)!
так что параметр λ в распределении Пуассона имеет смысл математического ожидания.
Далее, находим математическое ожидание квадрата:

10
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5


me   
m   m  m 
М 2   m 2  e    m(m  1  1)  e     m(m  1)  m  
m 1 m! m 1 m!  m 1 m! m 1 m! 
 m2

 e   2     2   .
(m  2)!
m2

Дисперсия пуассоновской случайной величины равна


D  M 2  (M ) 2  2    2   .
Итак, дисперсия пуассоновской величины равна ее математическому ожиданию, и обе
характеристики равны параметру : Dξ=Мξ=λ.

5.5.3. Геометрическое распределение

Геометрическое распределение определяется как закон распределения случайной


величины , равной числу испытаний Бернулли до появления первого «успеха»
(включительно) с вероятностью «успеха» р (это параметр распределения). Такая случайная
величина  принимает значения 1, 2, 3,…, а их вероятности задаются формулой:
P(  m)  pq m 1 , m  1, 0  p  1, q  1  p.
Докажем, что для геометрического распределения M=1/p, D=q/p2.
Напомним формулу суммы геометрической прогрессии:

x
 xm 
m 1 1 x
для 0<x<1. Заметим также, что
  
x x 11 1  x   1  1  x  2
  1  ,    1    2
,    .
1 x 1 x 1 x 1 x   1  x  (1  x)  1  x  (1  x)3

Математическое ожидание находим путем прямых вычислений:


    
m    m  q  p 1
M   mpq m 1
 p  mq m 1
 p  q   p   q   p    2
 .
m 1 m 1 m 1  m 1   1  q  (1  q ) p
Для нахождения дисперсии геометрически распределенной случайной величины
найдем сначала математическое ожидание её квадрата
   
M 2   m 2 pq m 1   m(m  1  1) pq m 1   m(m  1) pq m 1   mpq m 1 
m 1 m 1 m 1 m 1

 
 
1 m  1   m 1  q  1
p
m2

p
 
 pq m(m  1)q   pq  q   pq  q    pq
p
  
m 1 m 1  m 1  1 q  p
2 1 2q 1
 pq 3   2  .
p p p p
Отсюда получаем
2 2q 1 1 2q  p  1 q
D  M 2  M   2   2   2.
p p p p2 p

5.5.4. Гипергеометрическое распределение

Гипергеометрическое распределение возникает, например, в задаче о выборке


деталей. Пусть имеется N деталей, из которых M – стандартные. Делается выборка из n
деталей. Случайная величина  определяется как число стандартных деталей в такой

11
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

выборке. Оно может равняться любому числу от 0 до n, но, конечно, не больше, чем М. С
другой стороны, число нестандартных деталей в выборке не больше, чем NM, поэтому
число стандартных не меньше n(NM). Вероятности этих значений определяются
гипергеометрической формулой
C m C nm
P(  m)  M nN  M , max{0, n  N  M }  m  min{n, M }.
CN
Для гипергеометрического распределения M=np, D=(Nn)npq/(N1), где p=M/N,
q=1p. Доказательство этих формул оставим для следующего параграфа.

§ 5.6. Ковариация. Коэффициент корреляции

5.6.1. Ковариация и ее свойства

Ковариацией случайных величин  и  называется число


cov(,)=М[(–М)(–М)]
(в предположении существования всех математических ожиданий).
Из определения ковариации вытекают следующие ее свойства:
1. Ковариацию можно вычислить по формуле
cov(,)=М()–(М)(М).
2. Если  и  – независимые случайные величины, то cov( , )  0.
3. cov( , )  cov( ,  ) ;
4. cov(C , )  C cov( , ) ; cov( , С )  C cov( , ) ;
5. cov(1   2 , )  cov(1 , )  cov( 2 , ) ; cov( ,1   2 )  cov( ,1 )  cov( , 2 ) ;
6. cov( ,  )  D .
7. Если случайные величины  и  имеют конечные дисперсии D и D, то дисперсия
суммы этих случайных величин существует и равна
D(+)=D+D+2cov(,).
8.  D  D  cov( , )  D  D .
9. Равенство cov( , )   D  D достигается тогда и только тогда, когда случайные
величины  и  линейно зависимы.
Доказательство.
1. cov(,)=М[(–М)(–М)]=M(–M–M+MM)=
=M()–2MM+MM= М()–(М)(М).
2. В случае независимых случайных величин М()–(М)(М)=0.
3. От перемены мест сомножителей произведение не меняется.
4. cov(C,)=М[(C–М(C))(–М)]=М[(C–CМ)(–М)]=
=CМ[(–М)(–M)]=C cov(,). Аналогично делается для .
5. Воспользуемся свойством сложения математического ожидания:
cov(1   2 , )  M [((1   2 )  M (1   2 ))(  M )] 
 M [((1  M1 )  ( 2  M 2 ))(  M )] 
 M [(1  M1 )(  M )]  M [( 2  M 2 )(  M )] 
 cov(1 , )  cov( 2 , ).
Аналогично делается для 1 и 2.
6. Получаем по определению дисперсии.
7. D(+)=М(+)2–(М(+))2=М(2+2+2)–(М+М)2=
=М2+ 2М+М2–(М)2–2ММ–(М)2=D+D+2cov(,).

12
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

8. Если D=0 или D=0, это значит (по свойству 2 дисперсии), что соответствующая
случайная величина постоянна, откуда следует также, что cov(,)=0. Поэтому достаточно
рассмотреть случай D>0 и D>0.
Найдем дисперсию случайной величины  х  х   , где х – произвольное число. По
свойству 7 ковариации и свойству 3 дисперсии получаем
D x  x 2 D  2 x cov( , )  D .
Как функция от х, дисперсия Dx представляет собой квадратный трехчлен. Но
дисперсия любой случайной величины не может быть меньше нуля, так что Dx  0 для
любого х. Поскольку коэффициент при x 2 равен D>0, то дискриминант уравнения Dx=0
должен быть не положителен (либо отрицателен, и тогда корней нет, либо равен нулю, тогда
корень один, и это точка касания параболы с осью Ox), т.е.
(cov( , )) 2  D  D  0 или | cov( , ) | D  D .
Предположим, что дискриминант равен нулю, тогда уравнение
x 2 D  2 x cov( , )  D  0
имеет некоторое решение х0 и D x0  0 . Это означает, что  х0  с  const , т.е. постоянная
величина, и случайные величины  и  связаны линейной функциональной зависимостью
=х0–с, причем если коэффициент х0 положителен, то cov( , )  D  D , а если х0
отрицателен, то cov( , )   D  D .
Cвойствами 15 удобно пользоваться при вычислении ковариации линейных
комбинаций случайных величин. Например,
cov(2   ,3  4 )  2 cov( ,3  4 )  cov( ,3  4 ) 
 6 cov( ,  )  8 cov( , )  3 cov( ,  )  4 cov( , )  6 D  5 cov( , )  4 D .
Задача 6. Для пары случайных величин из задачи 3 вычислить ковариацию cov(,).
Решение. В предыдущей задаче уже было вычислено математическое ожидание
M ( )  7 / 16 . Используя полученные в решении задачи 3 частные законы распределения,
получаем
M  1  1 / 4  0  1 / 4  1  1 / 2  1 / 4 ; M  1  1 / 4  2  3 / 4  7 / 4 ;
и
cov( , )  M ( )  M  M  7 / 16  1 / 4  7 / 4  0 ,
чего и следовало ожидать вследствие независимости случайных величин.
Задача 7. Случайный вектор (,) принимает значения (0,0), (1,0), (1,0), (0,1) и (0,1)
равновероятно (см. рис. 5.1). Вычислить ковариацию случайных величин  и . Показать, что
они зависимы.

Рис. 5.1.

13
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Решение. Поскольку
Р(=0)=3/5, P(=1)=1/5, P(=–1)=1/5, Р(=0)=3/5, P(=1)=1/5, P(=–1)=1/5,
то
М=3/50+1/51+1/5(–1)=0 и М=0;
М()=001/5+101/5–101/5+011/5–011/5=0.
Получаем cov(, )=М()–ММ=0, так что случайные величины некоррелированы.
Однако они зависимы. Пусть =1, тогда условная вероятность события {=0} равна
Р(=0|=1)=1 и не равна безусловной вероятности Р(=0)=3/5, или вероятность {ξ=0, η=0} не
равна произведению вероятностей: Р(=0,=0)=15Р(=0)Р(=0)=9/25. Следовательно,  и 
зависимы.

5.6.2. Гипергеометрическое распределение (вывод числовых характеристик)

Вернемся теперь к вопросу о выводе формул для математического ожидания и


дисперсии гипергеометрического распределения (см. § 5.5.4).
Пусть имеется N деталей, из которых M – стандартные. Делается выборка (без
возвращения) из n деталей. Обозначим через i индикатор того, что i-ая деталь стандартна.
Нам понадобится тот факт, что вероятности P(i  1) одинаковы для всех 1  i  n , а
вероятности P(i  1,  j  1) одинаковы для всех 1  i  j  n .
Для этого прежде всего докажем, что вероятности вида
P(1  x1 ,  2  x2 , ...,  n  xn ) ,
где x1 , x2 , ..., xn  набор нулей и единиц, зависят только от чисел нулей и единиц в данном
наборе (которые обозначим через n0 и n1), а не от того, в каком порядке идут эти нули и
единицы.
Действительно, при вычислении такой вероятности, всякий раз, когда встречается
единица, это означает, что происходит выбор стандартной детали из числа оставшихся, что
дает множитель в числителе из серии M, M1, ..., Mn1+1, а когда встречается ноль, это дает
множитель из серии NM, NM1, ..., NMn0+1. От порядка множителей произведение не
зависит. Выбор каждый раз происходит из числа оставшихся деталей, так что в знаменателе
имеем множители N, N1, ..., Nn+1. Таким образом, получаем
M ( M  1)...( M  n1  1)( N  M )( N  M  1)...( N  M  n0  1)
P(1  x1 ,  2  x2 , ...,  n  xn )  ,
N ( N  1)...( N  n  1)
значит, вероятность зависит только от чисел нулей и единиц в наборе x1 , x2 , ..., xn , и что более
важно – от перестановки нулей и единиц в наборе вероятность не меняется.
Отсюда следует, например, что (при n=2)
P( 2  1)  P(1  0,  2  1)  P(1  1,  2  1)  P(1  1,  2  0)  P(1  1,  2  1)  P (1  1) .
В общем случае, применяя разложения в суммы вероятностей и перестановки x1 и xi ,
получаем
P(i  1)   P(1  x1, 2  x2 ,..., i 1  xi 1 ,i  1,i 1  xi 1,..., n  xn ) 
x1 , x 2 , ..., x i 1 , x i 1 ,... x n

  P( 1  1,  2  x2 , ..., i 1  xi 1 , i  x1 , i 1  xi 1 ,...,  n  xn )  P(1  1).


x1 , x 2 , ..., x i 1 , x i 1 ,... x n

Тот же подход можно применить к парам индикаторов, переставляя x1 c xi и x2 с x j :

14
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

P(i  1,  j  1) 
  P( 1  x ,  2  x2 , ..., i 1  xi 1 , i  1, i 1  xi 1 ,...,  j 1  x j 1 ,  j  1,  j 1  x j 1 ,...,  n  xn ) 
1
x1 , x 2 , ..., x i 1 , x i 1 ,..., x j 1 , x j 1 ,..., x n

  P( 1  1,   1, ..., i 1  xi 1 , i  x1 , i 1  xi 1 ,...,  j 1  x j 1 ,  j  x2 ,  j 1  x j 1 ,...,  n  xn ) 


x1 , x 2 , ..., x i 1 , x i 1 ,..., x j 1 , x j 1 ,..., x n
2

 P(1  1,  2  1).
Рассматривая выбор первой и второй детали, получаем
M N M
P(i  1)  P(1  1)   p, P (i  0)  P(1  0)   1  p  q;
N N
M ( M  1)
P(i  1,  j  1)  P(1  1,  2  1)  .
N ( N  1)
Перейдем теперь к выводу характеристик гипергеометрического распределения2.
Любая случайная величина ξi может принимать только два значения: 1 с вероятностью
р и 0 с вероятностью q, где p=M/N, q=1p. Поэтому Mi  1  p  0  q  p для любого i.
Тогда случайная величина  (число стандартных деталей) может быть представлена в
виде суммы n случайных величин ξi:
n
   i .
i 1
Отсюда
 n  n
М  M    i    М i  np .
 i 1  i 1
Найдем дисперсию ξi. Поскольку 0 и 1 в квадрате снова дают 0 и 1, то i2  i , так что
M i2  M i  p , откуда
Di  Mi2  ( Mi ) 2  p  p 2  p (1  p )  pq .
Однако в отличие от случая распределения Бернулли, случайные величины ξi здесь
зависимы и просто суммировать дисперсии было бы неверно. Необходимо использовать
формулу дисперсии суммы с учетом ковариаций (свойство 7 ковариации).
Заметим, что случайные произведения индикаторов ξiξj, где i<j, также принимают
значения только 0 и 1. Поэтому
M ( M  1)
Mi j  P( i j  1)  P(i  1,  j  1)  ,
N ( N  1)
2
M ( M  1)  M  M  M 1 M 
cov(i ,  j )  Mi j  Mi M j       
N ( N  1)  N  N  N 1 N 
M NM  N  NM  M M (N  M ) pq
  2  ,
N N ( N  1) N ( N  1) N 1
n
n(n  1)  pq   n 1  N n
D   Di  2 cov(i ,  j )  npq  2    npq1    npq .
i 1 i j 2  N 1  N 1 N 1
Таким образом, приведенные ранее формулы (см. § 5.5.4) доказаны.

5.6.3. Коэффициент корреляции

Ковариацию можно считать мерой зависимости случайных величин, так как для
независимых случайных величин она равна нулю. Однако существенным недостатком
ковариации является то, что ее размерность совпадает с произведением размерностей
2
Феллер В. Введение в теорию вероятностей и ее приложения. Т. 1. М.: Мир, 1984. С. 247248.

15
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

случайных величин. Желательно иметь безразмерную характеристику зависимости. Таковой


является коэффициент корреляции.
Коэффициентом корреляции случайных величин  и  (c положительными
дисперсиями) называется число
cov( , )
 .
D D
Коэффициент корреляции является одной из важных мер зависимости случайных
величин. Как следует из свойств ковариации, он принимает значения от 1 до +1, отражая
как силу зависимости (по абсолютной величине), так и характер (положительная или
отрицательная).
Чем ближе || к единице, тем с большим основанием можно считать, что  и 
находятся в линейной зависимости, т.е. коэффициент корреляции характеризует не всякую
зависимость, а только так называемую линейную вероятностную зависимость, которая
заключается в том, что при возрастании одной случайной величины другая имеет тенденцию
изменяться по линейному закону. Можно сказать, что коэффициент корреляции  отражает
степень линейной зависимости случайных величин. С возрастанием  случайная величина 
имеет тенденцию к увеличению при >0 и к уменьшению при <0. Поэтому при 0 говорят
о положительной корреляционной зависимости  и , при 0 – об отрицательной.
Для независимых случайных величин коэффициент корреляции равен нулю. Если
=0, то случайные величины называются некоррелированными. Из независимости случайных
величин следует их некоррелированность, но наоборот – не всегда.
Для линейно зависимых величин, т.е. в случае   a  b , где a и b –
константы, коэффициент корреляции равен +1 при a>0 и 1 при a<0.
Задача 8. Случайные приращения цен акций двух компаний за день  и  имеют
совместное распределение, заданное таблицей:

  1 +1
1 0,3 0,2
+1 0,1 0,4

Найти коэффициент корреляции.


Решение. Прежде всего вычисляем M=0,30,20,1+0,4=0,4. Далее находим частные
законы распределения  и :

  1 +1 p
1 0,3 0,2 0,5
+1 0,1 0,4 0,5
p 0,4 0,6

Определяем M=0,50,5=0; M=0,60,4=0,2; D=1; D=10,22=0,96; cov(,)=0,4.


Получаем
0,4
  0,408 .
1 0,96
Задача 9. Случайные приращения цен акций двух компаний за день имеют дисперсии
D=1 и D=2, а коэффициент их корреляции =0,7. Найти дисперсию приращения цены
портфеля из 5 акций первой компании и 3 акций второй компании.
Решение. Используя свойства дисперсии, ковариации и определение коэффициента
корреляции, получаем:

16
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

D(5  3 )  5 2 D  3 2 D  2  5  3 D D  25  1  9  2  30  0,7  1  2  72,7 .


Замечание 1. Дисперсия приращений цены портфеля акций часто используется на
практике как мера риска вложений: чем больше дисперсия, тем больше риск. Поэтому
оценка данной величины имеет важное значение для инвесторов.
Задача 10. Случайные приращения цен акций двух компаний3 за день имеют
дисперсии D=4 и D=9, а их коэффициент корреляции =0,2. В каких долях следует
разделить капитал при вложении в акции, чтобы минимизировать риск?
Решение. Примем весь капитал за единицу. Обозначим долю, вложенную в акции
первой компании, за x, тогда на долю акций второй компании останется 1x.
Случайное приращение цены пакета акций оказывается пропорционально линейной
комбинации   x  (1  x) , и надо минимизировать ее дисперсию. Имеем
D  D( x  (1  x) )  D( x )  D((1  x) )  2 cov( x , (1  x) ) 
 x 2 D  (1  x) 2 D  2 x(1  x) cov( , )  x 2 D  (1  x) 2 D  2 x(1  x)  D D 
 4 x 2  9(1  x) 2  2 x(1  x)  0,2  2  3  4 x 2  9  18 x  9 x 2  2,4 x  2,4 x 2 
 10,6 x 2  15,6 x  9
Найдем минимум полученной функции, приравняв ее производную к нулю (либо по
известной формуле вершины параболы). Получаем x  15,6 /(2  10,6)  39 / 53 , 1  x  14 / 53 .
Таким образом, следует вложить 39/53 капитала в акции первой компании и 14/53 в
акции второй компании.
Замечание 2. При решении подобных задач может формально получиться x>1 или
x<0. Первое означает, что весь капитал следует вложить в акции первой компании, второе –
что весь капитал следует вложить в акции второй компании.

§ 5.7. Условные распределения и условные математические ожидания


(дискретный случай)

Пусть на одном пространстве элементарных событий  заданы две случайные


величины  и .
Условным законом распределения случайной величины  при условии =y
называется любое соотношение, ставящее в соответствие значениям случайной величины 
условные вероятности их принятия при условии =y.
Рассмотрим здесь случай дискретных случайных величин  и , принимающих
значения хi (i=1, 2, ...) и уj (j=1, 2, ...) соответственно. Тогда условное распределение  при
условии =yj ставит в соответствие значениям xi вероятности
P(  xi ,  y j )
P | ( xi | y j )  P(  xi |   y j )  .
P(  y j )
При этом предполагается, что P(  y j )  0 .
Если случайные величины независимы, то их условные распределения совпадают с
исходными, и значение одной величины не влияет на распределение другой.
Условной функцией распределения случайной величины  при условии =y
называется функция, ставящая в соответствие любому числу x условную вероятность
события {<x} при условии =y. В дискретном случае получаем:
P (  x,  y j )
F | ( x | y j )  P (  x |   y j ) 
P (  y j )

3
В таких задачах предполагается, что цены акций обеих компаний равны, либо что случайные приращения
рассматриваются на единицу цены акции, т.е. это относительные приращения (например, в процентах).

17
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Условным математическим ожиданием случайной величины  при условии =y


называется математическое ожидание условного распределения  при условии =y. В
дискретном случае получаем:
M ( |   y j )   xi P | ( xi | y j ) .
i
Аналогичным образом можно определить условную дисперсию.
Функцией регрессии случайной величины  по  называется функция, ставящая в
соответствие числу y условное математическое ожидание  при условии =y:
 | ( y )  M ( |   y ) .
Функция регрессии определена только на области возможных значений .
На практике обычно невозможно точно предсказать значение одной случайной
величины на основе знания другой, однако можно сделать это «в среднем». Функция
регрессии как раз и характеризует среднее значение одной (неизвестной) величины при
известном значении другой. В случае, если разброс возможных значений не очень велик, это
может принести большую пользу.
Условным математическим ожиданием  по  называется случайная величина,
равная |(), которая обозначается М(|).
Условное математическое ожидание обладает следующими свойствами:
1. М(C|)C.
2. М(а+b|)=aМ(|)+b.
3. М(1+2|)=М(1|)+М(2|).
4. М=М[М(|)].
5. М[f()h()|]=h()М[f()|], где f и h – произвольные (неслучайные) функции.
6. М(|)М(), если  и  независимы.
Задача 11. Распределение двумерной случайной величины задано таблицей:

\ 1 3 4 8
3 0,15 0,06 0,25 0,04
6 0,30 0,10 0,03 0,07

Найти: а) условное распределение и условное математическое ожидание  при


условии =1; б) условное математическое ожидание  при условии =3.
Решение. Из условия задачи найдем распределение составляющих  и  (последний
столбец и последняя строка таблицы).

\ 1 3 4 8 p
3 0,15 0,06 0,25 0,04 0,50
6 0,30 0,10 0,03 0,07 0,50
p 0,45 0,16 0,28 0,11

а) Условное математическое ожидание  при =1 равно


M ( |   1)  3P | (3 | 1)  6 P | (6 | 1) .
Поскольку
P(  1)  P(  1,   3)  P(  1,   6)  0,15  0,30  0,45 ,
то условные вероятности находятся по формулам:
P (  1,   3) 0,15 1 P (  1,   6) 0,30 2
P | (3 | 1)    , P | (6 | 1)    ,
P (  1) 0,45 3 P (  1) 0,45 3

18
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

1 2
а искомое условное математическое ожидание равно M ( |   1)  3   6   5 .
3 3
б) Аналогично получаем
M ( |   3)  P | (1 | 3)  3P | (3 | 3)  4 P | (4 | 3)  8 P | (8 | 3) 
0,15  3  0,06  4  0,25  8  0,04
  3,3.
0,5

§ 5.8. Свертка дискретных распределений

При изучении дискретных случайных величин часто возникает необходимость найти


распределение суммы таких величин, в предположении, что они независимы.
Рассмотрим наиболее распространенный случай целочисленных величин.
Теорема 2. Пусть  и  – независимые целочисленные случайные величины. Тогда
P(    n)   P(  n  k ) P(  k ) ,
k

где сумма берется по всем возможным значениям .


Доказательство. Используем формулу полной вероятности (см. § 3.5). Обозначим
события: A  {    n} , H k  {  k} . Имеем
P( AH k ) P(    n,  k ) P(  n  k ,  k )
P( A | H k )    
P( H k ) P (  k ) P(  k )
P(  n  k ) P (  k )
  P(  n  k ).
P(  k )
Следовательно,
P(    n)  P( A)   P( A | H k ) P( H k )   P(  n  k ) P(  k ) .
k k

Полученная формула называется формулой свертки (дискретных распределений).


Замечание 3. В случае, когда  может принимать бесконечно много значений, здесь
возникает бесконечно много гипотез, а сумма в формуле свертки обращается в бесконечный
ряд, в то время как формула полной вероятности была ранее доказана для конечного числа
гипотез. На самом деле, она верна и для бесконечного (счетного) числа гипотез, образующих
полную группу (в смысле их непересечения и бесконечного объединения в пространство ).
Замечание 4. Фактическое число слагаемых в сумме определяется не только тем, при
каких k имеет место P (  k )  0 , но и тем, когда при данном n верно P(  n  k )  0 .
Пример 2. Пусть 1 и 2 – независимые случайные величины, имеющие
распределения Пуассона с параметрами 1 и 2 соответственно. Найдем распределение их
суммы:
n n
n  k e  1 k2 e  2
P(1   2  n)   P(1  n  k ) P( 2  k )   1 
k 0 k  0 (n  k )! k!
nk k
(1  2 ) n  ( 1  2 ) n k  1   2  (1  2 ) n  ( 1  2 )
 e  Cn      e .
n! k 0  1  2   1  2  n!
Здесь использовали формулу бинома Ньютона (см. § 1.3.1).
Таким образом, распределение суммы оказывается тоже пуассоновским с параметром,
равным сумме параметров слагаемых.

19
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Задачи для самостоятельного решения

Теоретические задачи4

1. * При двух бросаниях игрального кубика вероятность того, что выпадет одинаковое
число очков, равна 1/6. Следует ли отсюда, что этот кубик правильный (все числа от 1
до 6 выпадают равновероятно)?
2. У игрального кубика математическое ожидание и дисперсия числа выпадающих
очков такие же, как у правильного кубика. Следует ли отсюда, что этот кубик
правильный?
3. Пусть две независимые случайные величины 1 и 2 имеют распределения Пуассона с
параметрами 1 и 2 соответственно5. Найти условное распределение 1 при условии,
что =1+2=n, n>0, и функцию регрессии 1 по .

Вычислительные задачи

4. Монету подбросили 3 раза. Найти распределение числа появлений герба.


5. Вероятность, что лотерейный билет окажется выигрышным (независимо от других),
равна 0,1. Покупатель купил 5 билетов. Найти распределение числа выигрышей у
владельца этих 5 билетов.
6. Три стрелка с вероятностями попадания в цель при отдельном выстреле 0,7, 0,8 и 0,9
соответственно делают по одному выстрелу. Найти распределение общего числа
попаданий.
7. Два стрелка поражают мишень с вероятностями 0,8 и 0,9 соответственно (при одном
выстреле). Найти распределение общего числа попаданий в мишень, если первый
стрелок выстрелил один раз, а второй – два раза.
8. Два станка выпускают детали с вероятностями брака 0,01 и 0,05 соответственно. В
выборке одна деталь выпущена первым станком и две – вторым. Найти распределение
числа бракованных деталей в выборке.
9. Прибор комплектуется из двух деталей, вероятность брака для первой детали – 0,1, а
для второй – 0,05. Выбрано 4 прибора. Прибор считается бракованным, если в нем
есть хотя бы одна бракованная деталь. Найти распределение числа бракованных
приборов среди выбранных.
10. Стрелок поражает мишень с вероятностью 0,7 при одном выстреле. Стрелок стреляет
до первого попадания, но делает не более 3 выстрелов. Найти распределение числа
выстрелов.
11. Монета подбрасывается до тех пор, пока герб не выпадет 2 раза, но при этом делается
не более 4 бросаний. Найти распределение числа подбрасываний.
12. С конвейера поступили N деталей. Вероятность брака для каждой детали равна p.
Детали проверяют одну за другой, пока не наберут M годных или пока они не
кончаются. Найти распределение числа проверенных деталей, если: а) N=4, p=0,1,
M=2; б) N=5, p=0,1, M=3; в) N=6, p=0,05, M=3; г) N=6, p=0,2, M=2; д) N=6, p=0,1, M=2.
13. Среди N деталей – M нужного размера. Детали извлекают поочередно, пока не найдут
K деталей нужного размера или пока не будет сделано L проб. Найти распределение
числа извлеченных деталей, если: a) N=10, M=3, K=2, L=4; б) N=12, M=6, K=2, L=5; в)
N=13, M=6, K=3, L=5; г) N=12, M=7, K=2, L=5; д) N=8, M=3, K=2, L=5; е) N=10, M=4,
K=2, L=5; ж) N=10, M=5, K=2, L=4.

4
Теоретические задачи заменены в связи с тем, что вывод формул математических ожиданий и дисперсий
основных дискретных распределений включен в текст (см. § 5.4).
5
Это бывшая задача 65.

20
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

14. Среди 5 ключей два подходят к двери. Ключи пробуют один за другим, пока не
откроют дверь. Найти распределение числа опробованных ключей.
15. Среди 6 ключей три подходят к двери. Ключи подбираются до тех пор, пока дверь не
будет открыта. Найти распределение числа опробованных ключей.
16. Курс акции в течение дня торгов может подняться или опуститься на один пункт,
либо остаться неизменным (все три варианта равновероятны). Найти распределение
изменения курса акции: а) за 2 дня; б) за 3 дня.
17. Курс акции в течение дня торгов может подняться на один пункт с вероятностью p,
опуститься на один пункт с вероятностью r, либо остаться неизменным с
вероятностью s. Найти распределение изменения цены акции за 2 дня. Вычислить
математическое ожидание. Решить задачу, если: а) p=0,6, r=0,3, s=0,1; б) p=0,5, r=0,4,
s=0,1; в) p=0,7, r=0,2, s=0,1.
18. В телеигре игроку задают вопросы. Если игрок правильно отвечает на вопрос, ему
задают следующий; если неправильно, то игрок выбывает из игры. Всего задается не
более трех вопросов. Вероятность ответить на первый вопрос равна 0,9; на второй –
0,3; на третий – 0,1. Найти распределение числа правильных ответов и
математическое ожидание выигрыша, если за один правильный ответ платят 100 руб.,
за два – 400 руб и за три – 1000 руб.
19. На викторине задаются 3 вопроса. Вероятность правильно ответить на первый – p, на
второй – r, на третий – s. После неправильного ответа игрок выбывает из игры. Найти
распределение числа правильных ответов. Вычислить математическое ожидание.
Решить задачу, если: а) p=0,7, r=0,6, s=0,3; б) p=0,8, r=0,4, s=0,1.
20. На викторине задаются 3 вопроса. Вероятность правильно ответить на первый – 0,7,
на второй – 0,5, на третий – 0,2. После неправильного ответа игрок выбывает из игры.
Найти распределение числа заданных вопросов. Вычислить математическое
ожидание.
21. На викторине задаются 4 вопроса. Вероятность правильно ответить на первый – p, на
второй – r, на третий – s, на четвертый – w. После неправильного ответа игрок
выбывает из игры. Найти распределение числа правильных ответов. Вычислить
математическое ожидание. Решить задачу, если: а) p=0,9, r=0,8, s=0,4, w=0,2; б) p=0,9,
r=0,8, s=0,3, w=0,2; в) p=0,9, r=0,7, s=0,4, w=0,2.
22. В офисе проводится собеседование с N кандидатами на некоторую должность (по
очереди). Если подходящий человек найден (принято решение о приеме его на
работу), то с оставшимися кандидатами собеседование не проводится. Вероятность
того, что кандидат подходит, равна p. Найти распределение числа кандидатов, с
которыми беседовали, и его математическое ожидание, если: а) N=4, p=0,2; б) N=5,
p=0,3; в) N=6, p=0,2.
23. В игровом автомате три окошка, в которых случайным образом появляются цифры от
0 до 9, равновероятно и независимо друг от друга. Если две цифры совпали, игрок
получает 10 руб., если все три – 100 руб. Чтобы начать игру, он платит 5 руб. Найти
распределение прибыли игрока и ее математическое ожидание.
24. В игровом автомате три окошка, в которых случайным образом появляются 7 цветов,
равновероятно и независимо друг от друга. Если два цвета совпали, игрок получает 20
руб., если три – 100 руб. Чтобы начать игру, он платит 10 руб. Найти распределение
прибыли игрока. Вычислить математическое ожидание.
25. В экзаменационном билете три задачи. Вероятность правильного решения студентом
первой задачи равна p, второй – r и третьей – s. Найти распределение числа
правильно решенных задач и найти его математическое ожидание, если: а) p=0,8,
r=0,7, s=0,3; б) p=0,9, r=0,5, s=0,3; в) p=0,8, r=0,6, s=0,3.
26. Фирма участвует в трех независимых проектах. Вероятность успешного завершения
первого равна p, второго – r, третьего – s. Найти распределение числа успешных

21
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

проектов. Вычислить математическое ожидание. Решить задачу, если: а) p=0,9, r=0,7,


s=0,6; б) p=0,8, r=0,7, s=0,5.
27. Фирма участвует в четырех независимых проектах. Вероятность успешного
завершения первого и второго равна 0,8, а третьего и четвертого – 0,7. Найти
распределение числа успешных проектов. Вычислить математическое ожидание.
28. В папке находятся 4 документа: два заявления и две анкеты. В заявлении могут быть
ошибки с вероятностью 0,1. В анкете могут быть ошибки с вероятностью 0,2. Найти
распределение числа документов с ошибками в папке и его математическое ожидание.
29. Стрелок стреляет по движущейся мишени до первого попадания в нее, причем
успевает сделать не более 4 выстрелов. Найти математическое ожидание и дисперсию
числа сделанных выстрелов, если вероятность попадания при каждом выстреле равна
0,6.
30. Найти математическое ожидание и дисперсию суммы выпавших очков при бросании
четырех игральных костей.
31. На станцию обслуживания поступают заявки в соответствии с распределением
Пуассона с параметром   2 (в единицу времени). Мощность станции позволяет
обслуживать не более 2 заявок в единицу времени. Найти вероятность того, что в
течение данной единицы времени: а) станция не справится с потоком заказов и
образуется очередь; б) станция обслуживания будет простаивать или работать не на
полную мощность; в) на станции обслуживания не образуется очередь. Решить задачу
без учета заявок, возможно, оставшихся с прошлой единицы времени.
32. В процессе производства изделие высшего качества удается получить только с
вероятностью 0,2. С конвейера берутся наугад детали до тех пор, пока не будет взято
изделие высшего качества. Найти математическое ожидание числа проверенных
изделий.
33. Сдача экзамена по математике производится до получения положительного
результата. Шансы сдать экзамен остаются неизменными и составляют 25%. Найти
математическое ожидание числа попыток сдачи экзамена.
34. ОТК (отдел технического контроля на заводе) должен проверить 100 комплектов,
состоящих из 4 изделий каждый. Найти математическое ожидание числа комплектов,
состоящих только из стандартных деталей, если каждая деталь стандартна с
вероятностью 0,8.
35. Игральная кость подбрасывается до а) второго; б) третьего появления грани с
номером «три». Найти среднее число подбрасываний.
36. В каждой упаковке товара имеется одна из N различных наклеек (равновероятно).
Вычислить математическое ожидание и дисперсию числа упаковок, сколько
понадобится купить, чтобы собрать все наклейки. Решить задачу, если: а) N=3; б) N=4;
в) N=5.
37. Закон распределения случайной величины  имеет вид:

 0 1 2 3
P 1/8 3/8 3/8 1/8

Найти функцию распределения случайной величины , вычислить ее математическое


ожидание, дисперсию и среднее квадратическое отклонение. Вычислить вероятность
P(1    3 / 2) .
38. Закон распределения случайной величины  имеет вид:

 –1 2 3 5
P 1/4 1/2 1/8 1/8

22
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Найти функцию распределения случайной величины , вычислить ее математическое


ожидание, дисперсию и среднее квадратическое отклонение. Вычислить вероятность
P(5 / 2    5) .
39. Закон распределения случайной величины  имеет вид:

 0 1 3 4
P 1/9 2/9 1/6 1/2

Найти функцию распределения случайной величины , вычислить ее математическое


ожидание, дисперсию и среднее квадратическое отклонение. Вычислить вероятность
P(1 / 2    7 / 2) .
40. Закон распределения случайной величины  имеет вид:

 –2 –1 1 3
P 1/7 3/7 2/7 1/7

Найти функцию распределения случайной величины , вычислить ее математическое


ожидание, дисперсию и среднее квадратическое отклонение. Вычислить вероятность
P(3 / 2    2) .
41. Совместное распределение  и  задано следующей таблицей:

η
ξ
0 1
0 1 1
C
4 2
1 1
С
4

Найти С, при котором случайные величины независимы.


42. Совместное распределение  и  задано следующей таблицей:

η
ξ
–1 1
0 1 1
C
3 6
2 1 1
C
6 3

Найти С, при котором случайные величины независимы.


43. Совместное распределение  и  задано следующей таблицей:

η
ξ
–1 1
–1 1
С
3
1 1 1
C
2 6

23
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Найти С, при которых случайные величины независимы.


44. Совместное распределение  и  задано следующей таблицей:

η
ξ
0 1
1 1 1
C
3 4
2 1 1
C
6 4

Найти С, при которых случайные величины независимы.


45. Совместное распределение  и  задано таблицей

 –1 0 1

0 1 1 1
10 5 5
1 1 1 1
5 10 5

Найти распределение вероятностей случайной величины  и вычислить


cov(   ,    ). Исследовать вопрос о зависимости случайных величин  и .
46. Совместное распределение  и  задано таблицей
 –1 0 1

1 1 1 1
12 4 6
1 1 1 1
4 12 6

Найти закон распределения вероятностей случайной величины  и вычислить


cov(23,+2). Исследовать вопрос о зависимости случайных величин  и .
47. Совместное распределение  и  задано таблицей
 0 1 2

1 1 1 1
9 6 3
1 1 1 2
9 18 9

Найти закон распределения вероятностей случайной величины + и вычислить


cov(2+,+). Исследовать вопрос о зависимости случайных величин  и .
48. Совместное распределение  и  задано таблицей

24
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

 –1 0 2

0 1 1 1
8 6 6
1 1 1 3
12 12 8

Найти закон распределения вероятностей случайной величины + и вычислить


cov(,2+). Исследовать вопрос о зависимости случайных величин  и .

49. Совместное распределение  и  задано таблицей


 –1 1 2

1 1 1 1
6 6 6
1 1 1 7
18 18 18

Найти закон распределения вероятностей случайной величины  и вычислить


cov(2+,3–). Исследовать вопрос о зависимости случайных величин  и .
50. Совместное распределение ξ и η задано таблицей

η
ξ
–2 0 3
0 0,1 0,2 0,2
1 0,1 0,1 0,3

Зависимы ли эти ξ и η? Найти распределение их суммы. Вычислить cov(η, η+4ξ).


51. Совместное распределение ξ и η задано таблицей

η
ξ
–2 –1 0
–1 0,15 0,1 0,05
2 0,4 0,2 0,1

Зависимы ли ξ и η? Найти распределение их разности. Вычислить cov(ξ+ 5η,2ξ–7η).


52. Совместное распределение  и  задано таблицей

η
ξ
–1 0 2
0 1/7 2/7 1/7
1 1/7 1/7 1/7

Зависимы ли ξ и η? Найти распределение их разности. Вычислить cov(ξ–3η, η +6ξ).

25
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

53. Совместное распределение  и  задано таблицей

η
ξ
–1 0 2
–2 2/15 1/5 2/15
1 4/15 1/15 1/5

Зависимы ли ξ и η? Найти распределение их суммы. Вычислить cov(4ξ–η, 2η+ξ).


54. Совместное распределение  и  задано таблицей

η
ξ
1 2 4
0 1/6 1/6 1/12
1 1/4 1/12 1/4

Зависимы ли ξ и η? Найти распределение их разности. Вычислить cov(2ξ–η, η–3ξ).


55. Случайные приращения цен акций двух компаний за день  и  имеют совместное
распределение, заданное таблицей:

  1 +1
1 0,2 0,1
+1 0,2 0,5

Найти коэффициент корреляции.


56. Случайные приращения цен акций двух компаний за день  и  имеют совместное
распределение, заданное таблицей:

  1 +1
1 0,4 0,1
+1 0,1 0,4

Найти коэффициент корреляции.


57. Случайные приращения цен акций двух компаний за день имеют дисперсии D=1,21 и
D=2,56, а коэффициент их корреляции =0,5. Найти дисперсию приращения цены
портфеля из: а) 4 акций первой компании и 6 акций второй компании; б) 7 акций первой
компании и 3 акций второй компании; в) 9 акций первой компании и 1 акции второй
компании.
58. Случайные приращения цен акций двух компаний за день имеют дисперсии D=2 и
D=3, причем они некоррелированы. Инвестор намеревается приобрести 10 акций.
Сколько акций каждой компании он должен купить, чтобы минимизировать риск
вложений (т.е. дисперсию приращения цены портфеля)?
59. Случайные приращения цен акций двух компаний за день имеют дисперсии D=1 и
D=3, причем они некоррелированы. Инвестор намеревается приобрести 12 акций.
Сколько акций каждой компании он должен купить, чтобы минимизировать риск
вложений?
60. Случайные приращения цен акций двух компаний за день имеют дисперсии D=4 и
D=9, а их коэффициент корреляции 0,5. В каких долях следует разделить капитал при
вложении в акции, чтобы минимизировать риск?

26
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

61. Случайные приращения цен акций двух компаний за день имеют дисперсии D=1 и
D=4, а их коэффициент корреляции 0,7. В каких долях следует разделить капитал при
вложении в акции, чтобы минимизировать риск?
62. По таблице совместного распределения из задачи 45: а) найти условное распределение 
при условии =0; б) найти условное распределение  при условии =0; в) функцию
регрессии  по ; г) функцию регрессии  по .
63. По таблице совместного распределения из задачи 46: а) найти условное распределение 
при условии =–1; б) найти условное распределение  при условии =1; в) функцию
регрессии  по ; г) функцию регрессии  по .
64. По таблице совместного распределения из задачи 47: а) найти условное распределение 
при условии =2; б) найти условное распределение  при условии =–1; в) функцию
регрессии  по ; б) функцию регрессии  по .

Новые задачи (2018)

65. Фирма делает клиентам скидку, равную последней цифре номера паспорта (в процентах).
Стоимость услуги фирмы без скидки составляет 1000 рублей. Найти математическое
ожидание и среднее квадратическое отклонение стоимости услуги с учетом скидки.
66. Независимые в совокупности случайные величины ,  и  равновероятно принимают
значения из множеств {2, 4, 9}, {1, 6, 8} и {3, 5, 7} соответственно. Найти вероятности
событий P(>), P(>), P(>).
67. На грани трех игральных кубиков A, B, C нанесены цифры: A: 3, 3, 3, 3, 3, 6; B: 2, 2, 2, 5,
5, 5; C: 1, 4, 4, 4, 4, 4. Найти вероятности, что на кубике A выпадет число больше, чем на
B; на B – больше, чем на C, на C – больше, чем на A.
68. Случайные величины ,  и  независимы в совокупности;  принимает значения 0 и 3 с
вероятностями 1p и p; =2;  принимает значения 1 и 4 с вероятностями p и 1p. Найти
максимум величины v=min{P(>), P(>), P(>)} и при каком p он достигается.
69. Пусть  – число, выпадающее при бросании игрального кубика. Проверить, являются ли
случайные величины  =  mod 2 и  =  mod 3 независимыми.
70. Независимые случайные величины 1 и 2 принимают значения 1 равновероятно. Пусть
=12. Проверить, являются ли три случайные величины 1, 2 и  независимыми: а)
попарно, б) в совокупности.
71. Найти распределение суммы двух геометрически распределенных случайных величин с
параметром p.
72. По двум конвейерам параллельно поступают детали. Вероятности появления
бракованных деталей на первом и втором конвейерах равны p1 и p2 соответственно.
Найти вероятность того, что на первом конвейере бракованная деталь появится раньше,
чем на втором.
73. Число бракованных изделий в партии имеет распределение Пуассона с параметром .
Контролер проверяет каждое изделие в партии независимо от других и находит брак с
вероятностью p. Найти распределение числа пропущенных им бракованных деталей.
74. * Найти вероятность того, что случайная величина  примет четное значение, если она
имеет распределение: а) биномиальное; б) пуассоновское; в) геометрическое.
75. * Шары с номерами от 1 до 8 раскладывают по двум урнам поровну. Из каждой урны
вынимают по одному шару и записывают их номера. При каком разложении шаров по
урнам математические ожидания и дисперсии номеров будут совпадать?

27
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Глава 6. Непрерывные случайные величины


§ 6.1. Плотность и функция распределения
непрерывной случайной величины

Случайная величина  называется непрерывной, если ее функция распределения


F ( x)  P (  x) непрерывна. Множество значений непрерывной случайной величины
несчетно, и обычно представляет собой некоторый промежуток, конечный или бесконечный
(например: отрезок, луч, прямая). Функция распределения непрерывной случайной величины
обладает теми же основными свойствами, что и в дискретном случае (см. § 5.2).
Главное отличие заключается в следующем свойстве непрерывных распределений:
вероятность того, что непрерывная случайная величина  примет любое конкретное
значение a , равна нулю:
P (  a )  0 .
Поэтому справедливы следующие равенства:
P ( a    b)  P (a    b)  P ( a    b)  P (a    b)  F (b)  F ( a ) .
Доказательство следует из неравенства:
0  P (  a )  P (a    a   )  F (a   )  F (a )  0,   0 .
Случайная величина , называется абсолютно непрерывной, если существует
неотрицательная функция p (x ) такая, что при любых х функцию распределения F(x)
можно представить в виде интеграла
x
F ( x)  P(  x)   p (t )dt .

Функция p (x ) называется плотностью распределения.
Имеют место следующие свойства плотности:
1. p ( x )  0.
2. В точках непрерывности плотность распределения равна производной функции
распределения: p ( x )  F ( x ) .
3. Интеграл по всей числовой прямой от плотности распределения равен единице:

 p (t )dt  1.

4. Плотность распределения определяет закон распределения случайной величины, так
как определяет вероятность попадания случайной величины на любой полуинтервал
[ a, b) :
b
P  [a, b)  Pa    b  F (b)  F (a)   p (t )dt .
a
Доказательство.
1) Следует из определения1.
2) Следует из взаимосвязи между производной и интегралом.
 x
3)  p (t )dt  lim  p (t )dt  lim F ( x)  1.
x   x  
 
4) Используем формулу НьютонаЛейбница.

1
То, что плотность можно полагать неотрицательной функцией без ограничения общности, следует также из
неубывания функции распределения.

1
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Заметим, что плотность может быть разрывна в некоторых точках, где ее можно
определить произвольным образом: это никак не повлияет на функцию распределения и
другие числовые характеристики.
Часто говорят, что плотность – это производная функции распределения (там, где она
существует, для абсолютно непрерывных распределений). Однако это не совсем одно и то
же. Дело в том, что плотность определяется неоднозначно. Если взять за плотность
производную, а потом «испортить» ее, положив равной произвольным значениям в отдельно
взятых точках, или даже в бесконечном множестве точек меры нуль, то она все равно
останется плотностью по определению, поскольку эти искажения никак не повлияют на
интеграл. Другое дело, что использовать такую «испорченную» плотность неудобно,
поэтому среди всех возможных выбирается наиболее простая (производная).
В точках, где производной не существует из-за того, что левая и правая производные
функции распределения не совпадают, можно полагать плотность равной как левой, так и
правой, как удобнее, и ошибки в этом не будет. Кроме того, если в результате каких-то
вычислений получается плотность, отклоняющаяся от некоторой формулы в отдельных
точках, то можно «поправить» ее в этих точках.
Бывает также, что при приближении к некоторой точке производная стремится к
бесконечности. В этом нет ничего страшного, это означает только, что график функции
распределения в этой точке имеет вертикальную касательную (оставаясь непрерывным).
По свойству 4, вероятность попадания случайной величины в любой полуинтервал [a,
b), где плотность равна нулю, тоже равна нулю. Поэтому можно считать, что множество
значений случайной величины совпадает с промежутком, на котором плотность ее
распределения отлична от нуля (при желании, включая концы промежутка, это не влияет на
вероятность).
График плотности распределения называется кривой распределения. Площадь,
ограниченная кривой распределения и осью абсцисс, как следует из свойства 2, равна
единице. Тогда значение функции распределения F(x) в точке х0 геометрически есть
площадь, ограниченная кривой распределения и осью абсцисс и лежащая левее точки х0 (см.
рис. 6.1.).

Рис. 6.1.

Задача 1. Плотность распределения непрерывной случайной величины имеет вид:


0, x  [0,2],
p ( x)   2
Cx , x  [0,2].
Определить константу C, построить функцию распределения F(x) и вычислить вероятность
P(1    1) .

2
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5


Решение. Константа C находится из условия  p ( x)dx  1. В результате имеем:

 2 2
x32 8C
1   p ( x )dx   Cx dx  C  ,
 0
3 0
3
откуда C=3/8.
Чтобы построить функцию распределения F(x), отметим, что интервал [0, 2] делит
область значений аргумента x (числовую ось) на три части: (, 0), [0, 2], ( 2,  ).
Рассмотрим каждый из этих промежутков.
В первом случае (когда x<0) вероятность события {<x} вычисляется так:
x x
F ( x)  P (  x)   p (t )dt   0dt  0,
 

так как плотность  на полуоси (, 0) равна нулю.


Во втором случае
x 0 x x
3 2 x3
F ( x)   p (t )dt   p (t )dt   p (t )dt  0  t dt  .
  0
8 0 8
Наконец, в последнем случае, когда x>2,
x 0 2 x 2
3 2
F ( x)   p (t )dt   p (t )dt   p (t )dt   p (t )dt  0  t dt  0  1  0  1 .
  0 2
8 0
Итак, получена функция распределения
0, x  0,
 x 3
F ( x)   , 0  x  2,
8
1, x  2.
Следовательно, P(1    1)  F (1)  F (1)  1 / 8  0  1 / 8.
В данном случае можно считать, что областью значений случайной величины 
является отрезок [0, 2].

§ 6.2. Числовые характеристики непрерывной случайной величины


Математическое ожидание для абсолютно непрерывных случайных величин
определяется по формуле

M   x p ( x)dx ,

если интеграл абсолютно сходится.
Если φ(х) – некоторая функция и  имеет плотность p(х), то математическое ожидание
случайной величины () вычисляется по формуле

M ( )    ( x) p ( x) dx ,

если интеграл абсолютно сходится.
Как и в дискретном случае (см. § 5.5) возможны разные ситуации, когда интеграл,
определяющий математическое ожидание, не является абсолютно сходящимся. Поэтому
используется также более тонкое определение.
Если плотность отлична от нуля на неограниченной области действительной прямой,
математическое ожидание представляют в виде суммы двух интегралов, по положительным
и отрицательным значениям случайной величины:

3
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

0 
M   xp( x)dx   xp( x)dx .
 0
Далее возможны четыре случая:
1. Оба интеграла сходятся. Тогда математическое ожидание существует и равно их
сумме.
2. Первый интеграл расходится (стремится к ), второй сходится. Тогда говорят, что
конечного математического ожидания не существует, математическое ожидание равно .
3. Первый интеграл сходится, второй расходится (стремится к +). Тогда говорят, что
конечного математического ожидания не существует, математическое ожидание равно +.
4. Оба интеграла расходятся. Тогда математическое ожидание не определено, ни
конечное, ни бесконечное.
Дисперсия абсолютно непрерывной случайной величины  вычисляется по формуле

D   ( x  M ) 2 p( x)dx ,

если интеграл сходится, или, как и в дискретном случае, по формуле

2 2 2 2
D  M  ( M ) , где M  x p ( x) dx .

Если математическое ожидание конечно, а интеграл в определении дисперсии
расходится, то дисперсия бесконечна, а если математическое ожидание бесконечно или не
определено, дисперсия не определена.
Как и ранее, определяется среднее квадратическое отклонение   D .
Все свойства математического ожидания и дисперсии, ковариации и коэффициента
корреляции, приведенные в § 5.4 для дискретных случайных величин, справедливы и для
непрерывных случайных величин.
Имеет место та же статистическая интерпретация математического ожидания.
Физическая (механическая) интерпретация математического ожидания и дисперсии в
данном случае аналогичная. Рассмотрим тонкий материальный стержень, расположенный
вдоль горизонтальной оси Ox, плотность которого описывается функцией p(x). Тогда
математическое ожидание дает координату центра тяжести стержня, а дисперсия –
момент инерции стержня относительно вертикальной оси, проходящей через центр тяжести.
Задача 2. Для случайной величины  из задачи 1 вычислить математическое
ожидание и дисперсию.
Решение.
 0 2  2
3 3 x4 3
M   x p ( x) dx   x  0dx   x  x 2 dx   x  0dx    .
 
80 2
8 4 0 2
Далее,
 2 2
2 2 3 2 2 3 x5 12
M   x p ( x )dx   x  x dx    ,

80 8 5 0
5
и значит,
2
2 12  3  2
D  M   ( M )      0,15.
5 2
В качестве других характеристик, описывающих свойства распределения случайной
величины, используются начальные и центральные моменты.
Начальным моментом k-го порядка называется математическое ожидание k-ой
степени случайной величины, что обозначается k=Мk. Очевидно, что М=1. Получаем

4
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5


k k
M  x p ( x)dx ,

если интеграл абсолютно сходится.
Существует также универсальная формула для начальных моментов:
0 
k k 1
M   k  x F ( x)dx  k  x k 1 (1  F ( x))dx, k  1
 0
(если оба интеграла сходятся). Эта формула получается интегрированием по частям, однако
работает не только для абсолютно непрерывных, но и для дискретных, и вообще для любых
функций распределения.
Центральным моментом k-го порядка k называется математическое ожидание k-й
степени отклонения случайной величины от ее математического ожидания
 k  M (  M ) k .
Из определения следует, что  2  M (  M ) 2  D .
Справедливы формулы:
0  1,
1  0,
 2   2  12 ,
3   3  31 2  213 ,
 4   4  41 3  612 2  314 ,
...
которые получаются разложением по биному Ньютона и приведением подобных слагаемых.
Если распределение симметрично относительно математического ожидания, то все
центральные моменты нечетного порядка равны нулю.
Величина =3/3 называется коэффициентом асимметрии (или просто
асимметрией) случайной величины . Коэффициент асимметрии характеризует
"скошенность" распределения по отношению к математическому ожиданию. Для
симметричных распределений 3=0, поэтому коэффициент асимметрии равен нулю. Для
распределений, скошенных влево, верно , для скошенных вправо – 0 (см. рис. 6.2а).
Величина =44–3 называется коэффициентом эксцесса (или просто эксцессом)
случайной величины . Коэффициент эксцесса характеризует «сглаженность» или
«крутость» распределения по отношению к нормальному (см. § 6.4.3), поскольку для
нормального распределения 44=3 и, следовательно, =0. Для более островершинных
распределений 0, для менее островершинных 0 (см. рис. 6.2б).

Рис. 6.2.

5
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Кроме начальных и центральных моментов на практике применяются так называемые


абсолютные моменты, определяемые формулами
 k  M |  |k ,  k  M |   M |k .
Очевидно, что абсолютные моменты четного порядка совпадают с обычными
моментами. Чаще других применяется первый абсолютный момент 1  M |   M | ,
называемый средним абсолютным отклонением.
Для абсолютно непрерывной величины модой Xmod называют точку локального
максимума плотности распределения. Если имеется один максимум, то распределение
называется унимодальным, более одного максимума – мультимодальным (в частности
распределение, имеющее две моды, называется бимодальным). Распределение, имеющее
локальный минимум плотности, называется антимодальным.
Медианой абсолютно непрерывной случайной величины  называется такое значение
Xmed, что Р(<Xmed)=Р(>Xmed)=1/2. Геометрически медиана – это абсцисса точки, в которой
площадь, ограниченная кривой распределения (графиком его плотности), делится пополам.

Рис. 6.3.
Математическое ожидание, мода, медиана, начальные и центральные моменты
являются основными числовыми характеристиками случайной величины. На практике
числовыми характеристиками часто пользуются для приближенной замены одного закона
распределения другим, но так, чтобы сохранились неизменными несколько важнейших
моментов.

§ 6.3. Производящая функция моментов

Производящей функцией моментов случайной величины  называется функция


параметра t, равная
m (t )  Met .
Наиболее важным ее свойством является то, что производящая функция моментов
m(t) содержит в себе сведения обо всех начальных моментах («производит» моменты).
Действительно, взяв от нее производную в точке ноль, получаем
m (0)  M (et ) |t  0  M  1 .
В общем случае для любого k получаем
m( k ) (0)  M ( k et ) |t 0  M k   k ,

6
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

т.е. k-ая производная от производящей функции при t=0 равна начальному моменту k-го
порядка, а любой центральный момент можно выразить через начальные моменты.
Основные свойства производящей функции следующие:
1. mc  a (t )  Met ( c  a )  m (ct )e at .
2. Производящая функция суммы независимых случайных величин равна произведению
производящих функций этих величин.
n
Действительно, пусть     i , тогда
i 1
n n n n
 
m (t )  M exp  ti   M  exp(ti )   M exp(ti )   m i (t )
 i 1  i 1 i 1 i 1

По производящей функции моментов можно определить функцию распределения,


содержащую все сведения о случайной величине. В этом смысле производящая функция и
функция распределения являются эквивалентными обобщающими характеристиками
случайной величины. К сожалению, производящая функция моментов может быть
определена не при всех значениях параметра (или вообще определена только в нуле).

§ 6.4. Основные непрерывные распределения и их характеристики


6.4.1. Равномерное распределение
Непрерывная случайная величина  имеет равномерное распределение на отрезке
[a,b], если плотность распределения р(x) сохраняет постоянное значение на этом отрезке:
 1
 , x  [a, b],
p ( x)   b  a
0, x  [a, b].

Функция распределения F(x) равномерно распределенной случайной величины равна


0, x  a,
x  a
F ( x)   , a  x  b,
b  a
1, x  b.

Графики функции и плотности равномерного распределения представлены на рис. 6.4.

Рис. 6.4.

7
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Математическое ожидание и дисперсия равномерного распределения равны:


ab (b  a ) 2
М  ; D  .
2 12
В силу симметричности равномерного распределения относительно математического
ожидания асимметрия равна нулю, Xmed=М, а моды равномерное распределение не имеет.
Для определения эксцесса вычислим четвертый центральный момент:
b 4
1  ba (b  a) 4
4  x  dx 
b  a a 
  .
2  80

Отсюда эксцесс равен = 44 –3=6/5=1,2.

Вероятность попадания случайной величины  на отрезок [c, d ]  [a, b] равна
d c
P (c    d )  F ( d )  F ( c )  .
ba
(см. рис. 6.4б), т.е. зависит только от длины отрезка и не зависит от того, где этот отрезок
расположен. Таким образом, равномерное распределение реализует принцип геометрической
вероятности (см. § 2.5) при бросании точки на отрезок [a,b].

6.4.2. Показательное (экспоненциальное) распределение

Непрерывная случайная величина , принимающая неотрицательные значения, имеет


показательное распределение с параметром >0, если ее плотность распределения равна
e  x , x  0,
p ( x)  
0, x  0.
Функция показательного распределения имеет вид
1  e  x , x  0,
F ( x)  
0, x  0.
Стандартным называется показательное распределение с =1.
Графики плотности и функции стандартного показательного распределения
представлены на рис. 6.5, общий вид – на рис. 6.6.

8
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Рис. 6.5.

Рис. 6.6.

Математическое ожидание и дисперсия показательного распределения равны:


1 1
M  , D  2 .
 
Действительно, имеем
  
1 1  1
M   xe  x dx  x  z , dz  dx   ze  z dz    ze  z |0   e  z dz   ,
0
0  0  
 
1 1 1 2 1 1
D  M 2  ( M ) 2   x 2e  x dx  2
 2 z e
2 z
dz  2
 2
 2
 .
0
  0
   2
1
Можно показать также, что асимметрия =2, эксцесс =6, Xmod=0, Xmed= ln 2.

Производящая функция моментов показательного распределения описывается
формулой

m (t )  при t<
 t
(в противном случае математического ожидания не существует).

6.4.3. Нормальное распределение (распределение Гаусса)

Непрерывная случайная величина имеет нормальное (гауссовское) распределение с


параметрами a и  2 , если ее плотность распределения равна
1  ( x  a) 2 
p ( x)  exp .
 2  2 2 
Множество случайных величин, распределенных по нормальному закону с
параметрами a и  2 , обозначается через N (a,  2 ) . В частном случае, когда a  0 и  2  1 ,
нормальное распределение называется стандартным, и класс таких распределений
обозначается через N (0,1) .
Функция распределения нормально распределенной случайной величины равна
x (t  a ) 2
1 
2 2
F ( x)   e dt .
 2  
Графики плотности и функции стандартного нормального распределения
представлены на рис. 6.7, в более общем случае – на рис. 6.8.

9
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Рис. 6.7.

Рис. 6.8.

Параметры нормального распределения совпадают с его математическим ожиданием


и дисперсией:
M  a , D   2 .
Плотность нормального распределения симметрична относительно х=а, поэтому
Хmed=Хmod=a. Асимметрия и эксцесс нормального распределения равны нулю.
Плотность стандартного нормального распределения равна
x2
1 
 ( x)  e 2
,
2
а функция стандартного нормального распределения
x t2
1 
2
 ( x)   e dt .
2 
Такой интеграл не вычисляем аналитически, но функция  (x) связана с функцией
Лапласа (см. § 4.3.2)
х t2
1 
2
 0 ( x)  e dt
2 0
следующим соотношением:
1
( x)    0 ( x) .
2

10
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

В случае же произвольных значений параметров a и  2 функция распределения


F (x ) случайной величины2   N (a,  2 ) связана с функцией Лапласа соотношением:
1 ха
F ( x ) 
 0 .
2   
Поэтому вероятность попадания нормально распределенной случайной величины
  N (a, 2 ) на полуинтервал [c1 , c2 ) можно вычислять по формуле:
c а c а
Pc1    c 2    0  2   0  1 .
     
Напомним, что функция Лапласа затабулирована (таблица 2 приложения Т).
Задача 3. Пусть задана случайная величина   N (1,4) . Вычислить вероятность
P(0    3) .
Решение. По условию задачи a  1 и   2 . Согласно указанной выше формуле,
 3 1  0 1
P 0    3   0    0     0 (1)   0 (0,5)   0 (1)   0 (0,5) 
 2   2 
 0,3413  0,1915  0,5328.
Важными свойствами нормального распределения являются следующие:
1) Если =А+В, где N(a,2), то  N(Aa+B, A22).
В частности, случайная величина  N(a,2) может быть представлена в виде =a+0,
где 0 N(0,1).
2) Сумма двух независимых нормально распределенных случайных величин имеет
нормальный закон распределения. При этом их математические ожидания и дисперсии
складываются.
Производящая функция моментов нормального распределения имеет вид:
  2t 2 
m (t )  expat  
 2 
(существует при любом значении параметра t).
Для центральных моментов любого порядка нормально распределенной случайной
величины можно вывести (интегрированием по частям) рекуррентное соотношение
 k  (k  1) 2  k  2 ,
позволяющее выражать моменты высших порядков через моменты низших порядков. Так
как 1=0, то все нечетные моменты нормального распределения равны нулю. Для четных
моментов получаем следующие выражения:
 2   2 ,  4  3 4 , ... , 2 k  (2k  1)!! 2 k ,
где (2k  1)!! 1  3  ...  (2k  3)  (2k  1) , т.е. произведение только нечетных чисел.

6.4.4. Логарифмически нормальное (логнормальное) распределение

Логарифмически нормальное распределение случайная величина  имеет в том


случае, когда ее логарифм имеет нормальное распределение. Соответственно,  может быть
представлена как показательная функция от нормально распределенной случайной
величины. Для описания логнормального распределения используется различная
параметризация, и соответственно по-разному выражаются математическое ожидание и
дисперсия.
2
Обозначение вида K, где K – символ распределения, например, K=N(a,2), имеет смысл принадлежности
случайной величины  классу всех случайных величин с указанным распределением. Данное обозначение не
является общепринятым. В других книгах вместо него можно встретить, например, обозначение K и др.

11
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Если   ae ,   N (0,  2 ) , то


2 2 2
M  ae / 2 , D  a 2 e  (e   1) .
Если   e ,   N (a,  2 ) , что будем обозначать через  exp{N(a,2)}, то
2 2 2
M  Ae / 2 , D  A2e (e  1) , где A  e a .
Далее будем использовать только вторую параметризацию.
Тогда другие числовые характеристики представляются в виде:
2
мода – Xmod= Ae  ;
медиана – Xmed= A ;
1
2 2
асимметрия – = ( e  1) ( e  2) ;
2

2 2 2 2
эксцесс – = ( e  1)(e 3  3e 2  6e  6) .
Из формул видно, что асимметрия и эксцесс логарифмически нормального
распределения всегда положительны и тем ближе к нулю, чем ближе к нулю . Мода и
медиана стремятся к слиянию друг с другом по мере стремления к нулю параметра .
Функция логнормального распределения может быть выражена через функцию
стандартного нормального распределения:
 ln x  a 
F ( x)   ,
  
откуда плотность имеет вид:
1  (ln x  a) 2 
p ( x)  exp .
x 2  2 2 
Графики плотности и функции логнормального распределения при некоторых
значениях параметров представлены на рис. 6.9 (A=1, =1) и 6.10.

Рис. 6.9.

12
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Рис. 6.10.

Значения логарифмически нормальной случайной величины образуются как


«случайные искажения» некоторого «истинного значения» A, которое является не средним
значением, а медианой. Значения логарифмически нормальной случайной величины
оказываются характерными для многих конкретных физических и социально-экономических
ситуаций (размеры и вес частиц, образующихся при дроблении; заработная плата работника;
доход семьи; размеры космических образований; долговечность изделия, работающего в
режиме износа и старения, и др.).

6.4.5. Распределение Лапласа

Распределение Лапласа задается плотностью:


  x
p ( x )  e
2
(двусторонняя показательная плотность).
Функция распределения имеет вид:
 1 x
 e , x  0,
F ( x)   2
1
1  e  x , x  0.
 2
Плотность распределения симметрична относительно нуля (т.е. четна), и поэтому
математическое ожидание М=0. Дисперсия оказывается в два раза больше дисперсии
2
случайной величины, распределенной по показательному закону: D= 2 . Действительно,

  
1 1 2
D  M 2  ( M ) 2  M 2   x 2e   | x|dx   x 2e  x dx  2  z 2e  z dz  2 .
2  0
 0 
Симметричная унимодальная функция плотности этого закона с острым максимумом
в точке ноль иногда используется для описания распределений остаточных случайных
компонент (ошибок) в моделях регрессионного типа.
В силу симметрии имеем Хmed=Xmod=0, =0. Эксцесс равен =3.
Стандартным называется распределение Лапласа с =1.
Графики плотности и функции стандартного распределения Лапласа представлены на
рис. 6.11, общий вид плотности – на рис. 6.12.

13
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Рис. 6.11.

Рис. 6.12.

6.4.6. Распределение Вейбулла

Распределение Вейбулла может быть задано плотностью:


x 1 exp{x }, x  0,
p ( x )     0.
0, x  0,
Функция распределения имеет вид:
1  exp{x }, x  0,
F ( x )  
0, x  0.
Графики плотности и функции распределения Вейбулла при некоторых значениях
параметров представлены на рис. 6.13 (=2, =1) и 6.14.

14
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Рис. 6.13.

Рис. 6.14.

Распределению Вейбулла подчиняются времена безотказной работы ряда технических


устройств.
При =1 распределение Вейбулла превращается в показательное распределение, при
=2 – в распределение Рэлея, при =3 – в распределение Максвелла.
Математическое ожидание и дисперсия распределения Вейбулла равны:
1 2

 
1    2  1 
M   1   , D   1     2 1   ,

       
где Г(а) – гамма-функция Эйлера (см. гл. 12):

(a)   x a 1e  x dx .
0
Мода и медиана распределения Вейбулла имеют вид:

15
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

0,   1, 1/
 1 1  ln 2 
X mod    1  Xmed=   .

 1    ,   1,   
  

6.4.7. Распределение Парето

В различных задачах прикладной статистики часто встречаются так называемые


«усеченные» распределения. Например, налоговые органы интересуются распределением
доходов тех лиц, годовой доход которых превосходит некоторый порог с0, установленный
законами о налогообложении. Эти распределения приближаются распределением Парето.
Распределение Парето задается функциями распределения и плотности:
  1
c   c 
F ( x)  1   0  ; p ( x)   0  ,
x c0  x 
где 0, а хс0. График плотности имеет вид монотонно убывающей кривой, выходящей из
точки (со,со).
Графики плотности и функции распределения Парето (при c0=1, =2) представлены
на рис. 6.15.

Рис. 6.15.

Основные числовые характеристики этого распределения существуют не всегда, а


лишь при соблюдении определенных требований к значению параметра :
с 0
математическое ожидание М= существует при 1,
 1
с02
дисперсия D= существует при 2.
(  1) 2 (  2)
1
мода Xmod=co и медиана – Xmed= с0 2  существуют всегда;

16
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

kс0k
момент k-го порядка М = существует при k.
 k

6.4.8. Распределение Коши

Распределение Коши задается плотностью распределения


c
p ( x) 
 (c  ( x   ) 2 )
2

где с0 – параметр масштаба и  – параметр сдвига, определяющий значение моды и


медианы.
Функция распределения задается формулой
1 1 x 
F ( x )   arctg .
2  c
Стандартным называется распределение Коши с параметрами =0, c=1.
Графики плотности и функции стандартного распределения Коши представлены на
рис. 6.16.

Рис. 6.16.

Ни математическое ожидание, ни дисперсия у распределения Коши не определены.


Отметим два важных свойства (самовоспроизводимости) распределения Коши:
1. Если случайная величина  имеет распределение Коши с параметрами с и , то любая
линейная функция bo+b1 имеет распределение того же типа с параметрами с=|b1|c и
=b1+bo.
2. Если случайные величины 1, 2, …,n независимы и имеют одинаковое распределение
Коши, то среднее арифметическое=(1+2+…+n)/n имеет то же распределение Коши, что
и i.

6.4.9. Распределение Симпсона

Распределение Симпсона (треугольное распределение) задается плотностью, график


которой имеет вид равнобедренного треугольника с основанием на отрезке [a, b]:

17
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

 2  2 | a  b  2x | 
 1  , x  [a, b];
p ( x)   b  a  (b  a ) 
0, x  [a, b].

График плотности распределения Симпсона представлен на рис. 6.17.

Рис. 6.17.

Функция распределения Симпсона имеет вид:


0, x  a;
2( x  a ) 2 (b  a ) 2 , a  x  ( a  b) 2 ;

F ( x)   2 2
1  2 (b  x) (b  a ) , (a  b) 2  x  b;
1, x  b.
Математическое ожидание и дисперсия распределения Симпсона равны:
ab (b  a) 2
M  ; D  .
2 24
В силу симметрии имеем Хmed=Xmod=0, =0. Эксцесс равен =3/5=0,6.
Распределение Симпсона совпадает с распределением суммы двух независимых
случайных величин, равномерно распределенных на отрезках [a/2, b/2].

§ 6.5. Максимумы и минимумы случайных величин

На практике нередко возникают максимумы и минимумы случайных величин.


Например, если известно, что событие A1 произойдет через случайное время 1, событие A2
через случайное время 2, ..., событие An через случайное время n, то время, через которое
произойдет хотя бы одно из них, есть min=min{1, 2, ..., n}, а время, за которое произойдут
все события, есть max=max{1, 2, ..., n}. Первый случай возникает, например, при ожидании
прихода одного из видов транспорта на остановку, второй – при параллельном выполнении
различных работ людьми или организациями.
В качестве других приложений можно назвать тендеры, где выбирается минимальная
цена на товары или услуги, и аукционы, где, наоборот, выбирается максимальная цена.
Выведем общие формулы для функций распределения Fmax и Fmin максимумов и
минимумов независимых случайных величин 1, 2, ..., n c функциями распределения F1, F2,
... Fn . Получаем
Fmax ( x)  P( max  x)  P(1  x,..., n  x)  P(1  x)...P( n  x)  F1 ( x)...Fn ( x)

18
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Fmin ( x)  1  P( min  x)  1  P(1  x,...,  n  x)  1  P(1  x)...P( n  x) 


 1  (1  F1 ( x))...(1  Fn ( x)).
В простейшем случае n=2 имеем:
Fmax ( x)  F1 ( x) F2 ( x), Fmin ( x)  1  (1  F1 ( x))(1  F ( x2 ))  F1 ( x)  F2 ( x)  F1 ( x) F2 ( x) .
Задача 4. Случайные величины  и  независимы и равномерно распределены на
отрезках [0, 2] и [1, 4] соответственно. Найти функции распределения их минимума и
максимума.
Решение. Прежде всего, выписываем функции распределения  и :
0, x  0, 0, x  1,
x  x 1
F ( x)   , x  [0, 2], F ( x)   , x  [1, 4],
2  3
1, x  2, 1, x  4.
Затем, используя формулы для функций распределения минимума и максимума двух
независимых случайных величин, получаем:
0, x  0, 0, x  1,
x  x( x  1)
 , x  [0, 1),  , x  [1,2],
Fmin ( x)   2 2 Fmax ( x)   6
 x  6x  2 x 1
 , x  [1, 2],  , x  (2, 4],
 6  3
1, x  2, 1, x  4.
Бывают также ситуации, когда случайная величина выражается как максимум или
минимум от нескольких функций одной и той же случайной величины. Тогда следует
представить эти максимумы и минимумы в виде функций, которые выражаются разными
формулами на разных промежутках.
Задача 5. Случайная величина  имеет равномерное распределение на отрезке [0, 2].
Найти M min{ ,2   } и M max{ ,2   } .
Решение. Заметим, что
 x, x  1, 2  x, x  1,
min{x,2  x}   max{x,2  x}  
2  x, x  1,  x, x  1,
поэтому
1 2
1 1 1 1 1
M min{ ,2   }   x  dx   (2  x)  dx    ;
0
2 1
2 4 4 2
1 2
1 1 3 3 3
M max{ ,2   }   (2  x)  dx   x  dx    .
0
2 1
2 4 4 2

Задачи для самостоятельного решения

Теоретические задачи

1. Случайная величина  имеет нормальное распределение с параметрами а и 2. Показать,


 a
что величина нормально распределена с параметрами 0 и 1.

2. Случайные величины 1, 2, ... n независимы и имеют одинаковую функцию плотности
распределения
e x , x  0,
p( x)  
0, x  0.
Найти функцию и плотность распределения величин:

19
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

а) 1 = min1 , 2, ...n ; б) 2 = max1,2, ... n.


3. Случайные величины 1, 2, ... n независимы и равномерно распределены на отрезке а,b.
Найти функции распределения и плотности величин 1 = min1, 2, ... , n и 2 = max1,
2, ... , n. Доказать, что M (1   2 )  a  b .
a
4. Случайная величина распределена по закону Коши p( x )  . Найти: а) коэффициент
1  x2
а; б) функцию распределения; в) вероятность попадания на интервал (–1, 1). Показать, что
математическое ожидание  не определено.
5. Случайная величина подчинена закону Лапласа с параметром  (0): p( x)  ae   |x | . Найти
коэффициент а, математическое ожидание  и дисперсию D, вероятности событий
  
|  | D и |  | 3 D . 

6. Найти Р |   M |  3 D , если  имеет: а) нормальное распределение с параметрами а и
2 ; б) показательное распределение с параметром ; в) равномерное распределение на
отрезке 1 1.
7. Случайная величина  подчинена закону Симпсона на отрезке а, а, т.е. график её
плотности распределения имеет треугольный вид, представленный на рис. 6.18:

Рис. 6.18.

Вывести формулу для плотности распределения, найти М и D.


8. Случайная точка А брошена наудачу в круг радиуса R. Найти математическое ожидание и
дисперсию расстояния  точки до центра круга. Показать, что величина 2 равномерно
распределена на отрезке 0, R2.
9. Найти производящую функцию моментов для: а) равномерного распределения на отрезке
[a, b]; б) распределения Лапласа с параметром .
10. Доказать, что для распределений: а) логнормального; б) Вейбулла с <1; в) Парето
производящая функция моментов определена только при t0; г) для распределения Коши
– только при t=0.

Вычислительные задачи

11. Плотность распределения случайной величины  равна p(x). Вычислить константу C,


функцию распределения F(x), M и вероятность P(A), если:
C ( x  1), x  [1,2]
а) p ( x)  
0, x  [  1,

2 ]

; A  2 1 ;

C (5  x), x  [2,1]
б) p ( x)   ; A  0    3;
0, x  [2,1]

20
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

C ( x  2), x  [3,5]
в) p ( x)   ; A  4    6;
 0, x  [ 3 ,5 ]
C ( x  4), x  [1,3]
г) p ( x)   ; A  2    5 .
0 , x  [  1 , 3 ]
C (3  x), x  [5,2]
д) p ( x)   ; A  0    5.
 0 , x  [  5 , 2 ]
12. Плотность распределения случайной величины  равна p(x). Вычислить константу C,
функцию распределения F(x), M и вероятность P(A), если:
C ( x 2  1), x  [1,3]
а) p ( x)   ; A  2    5 ;
0, x  [1,3]
C ( x 2  3), x  [2,1]
б) p ( x)   ; A   1    2;
 0 , x  [  2 ,1 ]
C (9  x 2 ), x  [3,2]
в) p ( x)   ; A  0    3;
0, x  [3,2]
C ( x 2  x), x  [1,4]
г) p ( x)   ; A  3    6;
0 , x  [1 , 4 ]
C ( x 2  2 x), x  [2,5]
д) p ( x)   ; A  1    4;
0, x  [2,5]
C ( x 3  1), x  [2,6]
е) p ( x)   ; A  5    7 ;
0, x  [2,6]
C ( x 3  2), x  [1,3]
ж) p ( x)   ; A  0    2.
0, x  [1,3]
13. Плотность распределения случайной величины  равна p(x). Вычислить константу C,
функцию распределения F(x), M и вероятность P(A), если:
C ( x  4) , x  [5,8]
а) p ( x)   ; A  3    6;
0, x  [5,8]
C ( x  2) , x  [1,3]
б) p ( x)   ; A  0    5;
0, x  [1,3]
C (8  x) , x  [2,3]
в) p ( x)   ; A  2    5 ;
0, x  [2,3]
C ( x  6) , x  [1,4]
г) p ( x)   ; A  0    5.
0, x  [1,4]
14. Плотность распределения случайной величины  имеет вид:
C ( x  1) 3 / 2 , x  0,
p ( x)  
0, x  0.
Найти константу C, функцию распределения F(x), M , D и вероятность P ( |   1 / 3 | 1).
15. Плотность распределения случайной величины  имеет вид:
C (1  x 2 ), | x | 1,
p ( x)  
0, | x | 1.
Найти константу C, функцию распределения F(x), M , D и вероятность P(|   1/ 2 | 1 / 4).

21
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

16. Плотность распределения случайной величины  имеет вид:


Ce x , x  0,
p ( x)  
0, x  0.
Найти константу C, функцию распределения F(x), M , D и вероятность P(2    1).
17. Случайная величина  имеет функцию распределения
1 x
 e , x  0,
F ( x)   2
1
1  e  x , x  0.
 2
Найти плотность случайной величины, M , D и вероятность P(1    3).
18. Проверить, что функция
0, x  0,
 2
F ( x)  2 x  x , 0  x  1,
1, x  1.

может быть функцией распределения случайной величины. Найти  и D.
19. Стержень длины 24 см ломают на две части; точка излома распределена равномерно по
всей длине стержня. Чему равна средняя длина большей части стержня?
20. Отрезок длины 12 см случайным образом разрезается на две части. Точка разреза
равномерно распределена по всей длине отрезка. Чему равна средняя длина малой части
отрезка?
21. Пассажир приходит в случайный момент на остановку, где может сесть на автобус или
троллейбус (смотря что придет раньше). Автобус ходит с интервалами в 15 минут,
троллейбус – 10 минут (независимо друг от друга). Найти функцию распределения
времени ожидания и его среднее значение.
22. Пассажир приходит в случайный момент на остановку, где может сесть на автобус,
троллейбус или трамвай (смотря что придет раньше). Автобус ходит с интервалами 20
минут, троллейбус – 15 минут, трамвай – 10 минут. Найти функцию распределения
времени ожидания и его среднее значение.
23. У жителей поселка Соткино доходы имеют распределение Парето, минимальный доход
составляет 100 тыс. руб., а средний – 200 тыс. руб. Определить долю жителей с
доходами: а) свыше 300 тыс. руб.; б) от 200 до 500 тыс. руб.
24. Известно, что срок службы изделия распределен показательно со средним 1 год. Найти
вероятность того, что изделие прослужит не менее: а) 6 месяцев; б) 2 лет.
25. Относительное изменение курса акции за день (в процентах) имеет распределение
Лапласа с D=8. Найти вероятность того, что курс акции за день: а) упадет более чем на
5%; б) поднимется более чем на 3%.
26. Два сотрудника разделили работу поровну. Время выполнения доли работы каждого
равномерно распределено от 1 до 2 часов. Найти среднее время выполнения работы.
27. Работа состоит из двух частей, которые выполняются независимо и параллельно. Время
выполнения первой части равномерно распределено от 1 до 2 часов, второй – от 1 до 3
часов. Найти среднее время выполнения работы.
28. Работа состоит из двух частей, которые выполняются независимо и параллельно. Время
выполнения первой части показательно распределено со средним 1 час, второй – 2 часа.
Найти среднее время выполнения работы.
29. Прибор состоит из двух блоков, которые могут выйти из строя независимо друг от друга.
Прибор выходит из строя, если выходит из строя хотя бы один блок. Срок службы
первого блока показательно распределен со средним 2 года, второго – 4 года. Найти
средний срок службы прибора.

22
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

30. Прибор состоит из двух блоков, которые могут выйти из строя независимо друг от друга.
Прибор выходит из строя, если выходит из строя хотя бы один блок. Срок службы
первого блока имеет распределение Рэлея со средним 3 года, второго – 4 года. Найти
средний срок службы прибора.

23
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Глава 7. Функции от случайных величин.


Непрерывный случайный вектор
§ 7.1. Функции от случайных величин
Теорема 1. Пусть задана плотность распределения p (x ) случайной величины  и
монотонная дифференцируемая функция  (x ) . Тогда плотность распределения случайной
величины    ( ) равна1

1 d 1 ( y )
p ( y )  p ( ( y )) .
dy
Доказательство. Пусть  (x) – возрастающая функция, тогда обратная ей функция
также возрастающая, и функцию распределения случайной величины    ( ) можно
представить в виде F ( y )  F ( 1 ( y )) , так как
F ( y )  P( ( )  y )  P(   1 ( y ))  F ( 1 ( y ))
Дифференцируя, получаем
dF ( 1 ( y )) d 1 ( y ) d 1 ( y ) d 1 ( y )
p ( y )  F( y )   1   p ( 1 ( y )) ,  0.
d ( y ) dy dy dy
Пусть теперь  (x) – убывающая функция, тогда обратная ей также убывающая, и
F ( y )  P( ( )  y )  P(   1 ( y ))  1  F ( 1 ( y ))
Отсюда получаем

1 dF ( 1 ( y )) d 1 ( y ) 1 d 1 ( y )
p ( y )  F( y )  (1  F ( ( y )))      p ( ( y )) ,
d 1 ( y ) dy dy
d 1 ( y )
 0.
dy
Объединяя формулы, полученные в случаях возрастающей и убывающей функции
 (x) , получаем исходное утверждение.
Если плотность p (x ) отлична от нуля на некотором промежутке (конечном или
бесконечном), то границы соответствующего промежутка для p ( y ) находятся подстановкой
исходных границ в функцию . Заметим, что порядок следования границ может меняться,
когда  – убывающая функция.
Задача 1. Случайная величина  равномерно распределена на отрезке [0, 2]. Найти
плотность случайной величины      1 .
Решение. Из условия задачи следует, что
0, x  [0,2],
p ( x)   1
 2 , x  [0,2].

1
1
Здесь  ( y ) – функция, обратная к функции  (x) , т.е.  1 ( y )  x , если y   (x ) .
1
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Далее, функция y   x  1 является монотонной и дифференцируемой функцией на


отрезке [0, 2] и имеет обратную функцию x   1 ( y )  y 2  1 , производная которой равна
d 1 ( y )
 2 y. Кроме того,  (0)  1 ,  ( 2)   3 . Следовательно,
dy

0, y  [ 3 ,1],
1 d 1 ( y ) 1 
p ( y )  p ( ( y ))  p ( ( y ))  2 | y | 2 | y |  1
dy  2 , y  [ 3 ,1].

Значит,
0, y  [  3 ,1],
p ( y )  
 y , y  [  3 ,1].

Возникает вопрос: а как быть, если функция  не является монотонной?


В этом случае уравнение (x)=y может иметь не одно, а много или даже бесконечно
много решений. Предположим, что оно имеет по крайней мере не более чем счетное число
решений. Обозначим это число через n(y), включая возможность значения +, а решения
через  11 ( y ),..., n(1y ) ( y ) . Тогда оказывается, что для вычисления плотности надо применить
исходную формулу к каждому из решений и сложить. Получаем:
n( y )
1 d k1 ( y )
p ( y )   p ( k ( y )) .
k 1 dy
Пример 1. Пусть  имеет равномерное распределение на отрезке [1,1] и =2. Тогда
 ( x)  x 2 и  11 ( y )  y ,  21 ( y )   y . Получаем
d 11 ( y ) d 21 ( y ) 1 1 1 1 1
p ( y )  p ( 11 ( y ))  p ( 21 ( y ))     , 0  y 1.
dy dy 22 y 2 2 y 2 y
Пример 2. Пусть  имеет показательное распределение с параметром =2 и =tg .
Тогда  ( x)  tg x и  k1 ( y )  arctg y  k , k0 (здесь удобней нумеровать с нуля). Получаем

d k1 ( y )   2(arctg y  k ) 1 2e 2 arctg y
p ( y )   p ( k1 ( y ))   2e  .
k 0 dy k 0 1  y 2 (1  y 2 )(1  e  2 )

§ 7.2. Непрерывный случайный вектор

7.2.1. Совместная функция распределения2

Пусть на вероятностном пространстве  заданы две случайные величины  и . Тогда


упорядоченная пара (, ) определяет случайную точку на плоскости и называется
двумерным случайным вектором или двумерной случайной величиной, как и в дискретном
случае.
Совместной функцией распределения случайных величин  и η или двумерного
случайного вектора (, η) называется функция двух аргументов F(x,y), равная вероятности
события {  x,   y} :
F ( x, y )  P (  x,   y ) .
Эта функция называется также двумерной функцией распределения.

2
Раздел перенесен из главы 5, поскольку совместная функция распределения обычно используется для
описания непрерывных распределений, а не дискретных.

2
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Частными функциями распределения называются функции распределения


составляющих ξ и η: Fξ(x) и Fη(y).
Двумерные функции распределения обладают свойствами, аналогичными свойствам
одномерных:
1.0F(x,y)1;
2. F(x,y) есть неубывающая функция по каждому из аргументов;
3. F(x,y) непрерывна слева по каждому из аргументов;
4. F(x,y) удовлетворяет соотношениям: F(+,+)=1 и F(x,)=F(,y)=0.
Аналогично, случайный вектор (, ) и его распределение называются непрерывными,
если совместная функция распределения F(x,y) непрерывна.
Геометрически функция распределения F ( x, y )  P(  x,   y ) определяет
вероятность попадания случайной точки (, ) в бесконечный угол (квадрант) с вершиной в
точке (х, y) на плоскости XOY (рис. 7.1).

Рис. 7.1.

Геометрическая интерпретация функции распределения F(x,y) позволяет дать простое


пояснение предельным свойствам функции распределения: если х (или y), то
правая граница (или верхняя граница) бесконечного квадранта неограниченно смещается
влево (или вниз), и вероятность попадания случайной точки в квадрант стремится к нулю.
При х и y бесконечный квадрант превращается во всю плоскость ХОY и
попадание случайной точки в эту плоскость является достоверным событием.
Если один из аргументов равен +, то функция распределения вектора превращается
в функцию распределения случайной величины, соответствующей другому аргументу3:
F ( x,)  F ( x), F (, y )  F ( y ) .
Действительно, поскольку событие {: ()<+} достоверно, то F(x,+) определяет
вероятность только события {: ()<х}, т.е. представляет собой функцию распределения
составляющей . Аналогично, F(+,y)=F(y). Геометрически функции распределения
составляющих есть вероятности попадания случайной точки в полуплоскость,
ограниченную прямой Х=х (рис. 7.2а) или прямой Y=y (рис. 7.2б).

3
Если случайная величина ограничена, то вместо + можно подставить ее наибольшее возможное значение.

3
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Рис. 7.2.
Используя геометрическую интерпретацию функции распределения F(x,y), можно
вычислить вероятность попадания случайного вектора (,) в прямоугольник
  {( x, y ) : x  [a1 , b1 ), y  [a2 , b2 )}
(см. рис. 7.3). Действительно,
P(a1    b1 , a2    b2 )  P(( , )   ) 
 P(  b1 ,  b2 )  P(  b1 ,  a2 )  P(  a1 ,  a2 )  P(  a1 ,  b2 ) 
 F (b1 , b2 )  F (b1 , a2 )  F (a1 , b2 )  F (a1 , a2 ).

Рис. 7.3.

Если случайный вектор непрерывный, то эта формула верна для любых интервалов,
полуинтервалов или отрезков в определении П, так как вероятности точек и прямых в этом
случае нулевые.
Полученная формула имеет важное значение. Дело в том, что в двумерном случае
приведенных выше свойств 14 не достаточно, чтобы функция F(x,y) была двумерной
функцией распределения. Нужно еще потребовать следующее:
5. При любых a1  b1 и a2  b2 выполнено неравенство:
P(a1    b1 , a2    b2 )  F (b1 , b2 )  F (b1 , a2 )  F (a1 , b2 )  F (a1 , a2 )  0 .
Данное неравенство называется неравенством прямоугольника и отражает тот факт,
что вероятность попадания в любой прямоугольник, рассчитанная с помощью совместной
функции распределения, должна быть неотрицательной. В случае n>2 случайных величин
это неравенство обобщается с прямоугольника на n-мерный параллелепипед.
Вернемся теперь к понятию независимости случайных величин (см. § 5.2). Напомним,
что cлучайные величины  и  называются независимыми, если для любых борелевских
множеств (см. § 3.7) A и В выполняется условие:

4
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

P(  A,   B)  P(  A) P(  B) ,


то есть независимы события {  A} и {  B} .
Теорема 2. Случайные величины  и  независимы тогда и только тогда, когда для
всех x и y выполнено равенство
F ( x, y )  F ( x) F ( y ) .
Доказательство. Пусть случайные величины независимы, тогда при A  (, x) и
B  (, y ) получаем нужное равенство. В обратную сторону, если равенство верно, то при
любых a1  b1 и a2  b2 получаем
P(a1    b1 , a2    b2 )  F (b1 , b2 )  F (b1 , a2 )  F (a1 , b2 )  F (a1 , a2 ) 
 F (b1 ) F (b2 )  F (b1 ) F (a2 )  F (a1 ) F (b2 )  F (a1 ) F (a2 ) 
 ( F (b1 )  F (a1 ))( F (b2 )  F (a2 ))  P(a1    b1 ) P(a2    b2 ).
Таким образом, независимость доказана в случаях, когда A и B являются произвольными
полуинтервалами. Поскольку борелевские множества порождаются полуинтервалами, этого
достаточно.

7.2.2. Совместная плотность распределения

Случайный вектор (, ) и его распределение называются абсолютно непрерывными,


если существует такая неотрицательная функция p , ( x, y ) , называемая совместной
плотностью распределения случайных величин  и  (или случайного вектора), что имеет
место равенство
y x
F ( x, y )    p  (u, v)dudv .
 
,

Смысл определения совместной плотности распределения заключается в следующем.


Вероятность того, что случайная точка (,) попадет в область B  R 2 на плоскости,
вычисляется как объем трехмерной фигуры – криволинейного цилиндра, ограниченного
поверхностью z  p , ( x, y ) и плоскостью z=0, основанием которого является множество B.
Аналитически этот факт записывается с помощью двойного интеграла:
P (( , )  B )   p , ( x, y )dxdy.
B
Совместная плотность распределения обладает следующими свойствами:
1. p ( x, y )  0.
 
2.   p( x, y)dxdy  1 .
 
3. p ( x, y )  Fxy ( x, y ) (в точках непрерывности плотности).
Простейшим примером совместного распределения двух случайных величин является
двумерное равномерное распределение на множестве A. Пусть задано множество A на
плоскости с конечной положительной площадью S ( A). Тогда указанное распределение
определяется как распределение пары (, ), задаваемое с помощью следующей совместной
плотности:
0, ( x, y )  A,
p , ( x, y )   1 , ( x, y )  A.
 S ( A)

Задача 2. Пусть двумерный случайный вектор (, ) равномерно распределен внутри


треугольника   ( x, y) : x  0, y  0, x  y  2. Вычислить вероятность неравенства >.

5
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Решение. Площадь указанного треугольника  равна S (  )  2 (см. рис. 7.4). В силу


определения двумерного равномерного распределения совместная плотность случайных
величин  и  равна
0, ( x, y )  ,
p , ( x, y )   1
 2 , ( x, y )  .
Событие {  } соответствует множеству B  {( x, y ) : x  y} на плоскости, т.е.
нижней полуплоскости под диагональной прямой y=x. Тогда вероятность
P ( B )  P( , )  B   p , ( x, y ) dxdy.
B

Рис. 7.4.

На полуплоскости B совместная плотность p , ( x, y ) равна нулю вне множества  и


1/2 – внутри множества  . Таким образом, полуплоскость B разбивается на два множества
B1  B   и B2  B   . Следовательно, двойной интеграл по множеству B представляется в
виде суммы интегралов по множествам B1 и B2 , причем второй интеграл равен нулю, так как
там совместная плотность равна нулю. Поэтому
1 1 1
P( , )  B   p , ( x, y )dxdy   1 dxdy   0dxdy  S ( B1 )   1  .
B B1
2 B2
2 2 2

Если задана совместная плотность распределения p , ( x, y ) пары (, ), то плотности


p (x) и p ( y ) составляющих  и  называются частными плотностями и вычисляются по
формулам:

p ( x)   p  ( x, y )dy
,


p ( y )   p  ( x, y )dx
,


Из теоремы 2 следует, что абсолютно непрерывные случайные величины  и  с


плотностями p(х) и p(у) независимы тогда и только тогда, когда для любых х и у выполнено
равенство
p , ( x, y )  p ( x) p ( y )
(в точках непрерывности плотностей).
Задача 3. В условиях предыдущей задачи определить, независимы ли составляющие
случайного вектора  и .

6
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Решение. Вычислим частные плотности p (x) и p ( y ) . Имеем:


 0, x  (0,2) 0, x  (0,2),
2  x 
p ( x)   p , ( x, y )dy   1  2  x
dy, x  (0,2)
  2  2 , x  (0,2).
0
Аналогично,
 0, y  (0,2),
p ( y )   p , ( x, y )dx   2  y
  2 , y  (0,2).
Очевидно, что здесь p , ( x, y )  p ( x ) p ( y ) , и потому случайные величины  и  зависимы.
Числовые характеристики для случайного вектора (, ) можно вычислять с помощью
следующей общей формулы. Пусть p , ( x, y ) — совместная плотность величин  и , а
(х,у) — функция двух аргументов, тогда
 
M ( , )    ( x, y) p  ( x, y )dxdy .
,
 
В частности,
 
M    xp  ( x, y)dxdy
,
 
 
M    yp  ( x, y)dxdy
,
 
 
M    xyp  ( x, y )dxdy
,
 

Задача 4. В условиях предыдущей задачи вычислить M .


Решение. Согласно приведенной выше формуле имеем:
 
1
M    xyp , ( x, y ) dxdy   xy  dxdy .
  
2
Представив треугольник  в виде
  ( x, y) : 0  x  2; 0  y  2  x,
двойной интеграл можно вычислить как повторный:
2 2 x 2  y 2 2 x  2
1
1 1
M   xy  dxdy   xdx  ydy   xdx1   1
  x(2  x) 2 dx  .
2 20 20  2  40 3
 0  0 

Важную роль в приложениях играет двумерное нормальное распределение (см.


также Д7.3).
Пусть 1 и 2 – независимые случайные величины, имеющие стандартное нормальное
распределение (см. §6.4.3). Тогда говорят, что двумерный случайный вектор =(1,2)T имеет
стандартное двумерное нормальное распределение. Его совместная плотность равна:
1  x 2  x22 
exp  1
p1 , 2 ( x1 , x2 )  .
2  2 
По определению, случайный вектор =(1, 2)T имеет двумерное нормальное
распределение, если его можно представить в виде
  a  A ,
T
где a=(a1, a2) – вектор математических ожиданий, A – некоторая матрица (22).

7
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

В случае, когда коэффициент корреляции =(1, 2) отличен по модулю от единицы,


распределение имеет двумерную нормальную плотность:
1  1  ( x1  a1 ) 2 ( x1  a1 )( x2  a2 ) ( x2  a2 ) 2 
p1 , 2 ( x1 , x2 )  exp 2 
 2
 2   
2 1 2 1   2  2(1   )   1  1 2  22 
При этом составляющие имеют нормальные распределения:
1  N (a1 , 12 ) ,  2  N (a2 , 22 ) .
Двумерное нормальное распределение обладает рядом полезных свойств, например:
1) если =0, то 1 и 2 независимы;
2) любая линейная комбинация c11+c22 имеет нормальное распределение;
3) условные распределения каждой составляющей по другой также нормальны (см. § 7.4);
4) функции регрессии составляющих линейны (см. § 7.4).
Поэтому на практике, если исследуется пара случайных величин, каждая из которых
имеет нормальное распределение, то бывает удобно предположить, что их совместное
распределение является двумерным нормальным распределением.

§ 7.3. Плотность суммы двух непрерывных случайных величин


Теорема 3. Пусть  и  — независимые случайные величины с плотностями p (x) и
p ( y ) . Тогда плотность случайной величины  +  вычисляется по формуле свертки

p  ( x)   p ( x  y) p ( y)dy.


Доказательство. Используем представление совместной функции распределения


через двойной интеграл:
F  ( z )  P (    z )   p , ( x, y ) dx dy ,
Dx

где множество Dх={(x, y): x+y<z} (см. рис. 7.5).

Рис. 7.5.

Переходя от двойного интеграла к повторному, получаем


 z  y
 
F  ( z )     p , ( x, y ) dx dy ,
 
   

8
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Произведем замену во внутреннем интеграле, положив t  x  y , x  t  y , и поменяем


порядок интегрирования:
z
  
F  ( z )     p , (t  y, y )dy dt
   
Дифференцируя под знаком интеграла, получим

p  ( z )  F ( z )   p  ( z  y, y )dy .
,


Поскольку величины  и  независимы, то p , ( x, y )  p ( x) p ( y ) . Подставляя


последнее равенство в полученное выражение для плотности суммы, приходим к формуле
свертки (c точностью до обозначения аргумента):

p  ( z )   p ( z  y) p ( y)dy.

Разумеется, в силу симметрии справедлива также формула

p  ( y )   p ( x) p ( y  x)dx.

Задача 5. Пусть  и  — независимые случайные величины, распределенные по
показательному закону с параметром   2 . Вычислить плотность суммы    .
Решение. Поскольку  и  распределены по показательному закону с параметром
  2 , то их плотности равны
2e 2 x , x  0,
p ( x)  p ( x)  
0, x  0.
Следовательно,
2e 2( x  y ) , x  y,
p ( x  y )  
0, x  y.

Поэтому
 
2 y
p  ( x)   p ( x  y) p ( y)dy   p ( x  y)  2e dy
 0

Если x<0, то в этой формуле аргумент функции p ( x  y ) отрицателен, и поэтому


p ( x  y )  0 . Следовательно, p  ( x )  0. Если же x  0 , то имеем:
 x
p  ( x)   p ( x  y )  2e  2 y dy   2e  2 ( x  y )  2e  2 y dy 
0 0
x x
 4  e  2( x  y )  e  2 y dy  4e  2 x  1dy  4 xe 2 x .
0 0
Таким образом, мы получили ответ:
0, x  0,
p  ( x)    2 x
4 xe , x  0.

По аналогии с формулой свертки, можно получить плотности для различных функций


от двух непрерывных случайных величин  и .
Используем формулы из математического анализа:

9
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

g ( x)
d  
C
d  
 f (u )du   g ( x) f ( g ( x)),  f (u )du    g ( x) f ( g ( x)) .
dx  C

 dx  g ( x ) 

1. Разность
 z y 

F  ( z )   p ( x) p ( y )dxdy     p ( x)dx  p ( y )dy .
 
x y z    
Здесь используем тот факт, что xyz эквивалентно xz+y.
Дифференцируя по z, получаем

p  ( z )   p ( z  y) p ( y)dy .

2. Произведение
  0   z y
 
 
F ( z )   p ( x) p ( y )dxdy    p ( x)dx p ( y )dy     p ( x)dx  p ( y )dy .
   
xy  z   z y  0   
Здесь используем тот факт, что xyz эквивалентно xz/y при y<0 и xz/y при y>0.
Дифференцируя по z, получаем
0  
1 z 1 z 1 z
p ( z )    p   p ( y )dy   p   p ( y )dy   p   p ( y )dy .

y  y 0
y  y 
| y|  y
3. Отношение
0     zy
 
 
F  ( z )   p ( x) p ( y )dxdy    p ( x)dx p ( y )dy     p ( x)dx  p ( y )dy
   
x y z    zy  0   
Здесь используем тот факт, что x/yz эквивалентно xzy при y<0 и xzy при y>0.
Дифференцируя по z, получаем
0  
p  ( z )    yp  zy  p ( y )dy   yp zy  p ( y )dy   | y | p zy  p ( y)dy .
 0 

§ 7.4. Условные распределения и условные математические ожидания


непрерывной случайной величины

Пусть на одном и том же пространстве элементарных событий  заданы две


абсолютно непрерывные случайные величины  и .
Условным законом распределения случайной величины  при условии =y, так же
как и в случае дискретных случайных величин, называется любое соотношение, ставящее в
соответствие значениям случайной величины  условные вероятности их принятия при
условии =y.
В общем случае условную функцию распределения случайной величины  при
условии =у также естественно было бы определить формулой
P(  x,   y )
F | ( x | y )  .
P(  y )
Однако это невозможно, поскольку для непрерывной случайной величины Р(=у)=0.
Поэтому вместо события {  y} рассматривают событие y    y  y и переходят к
пределу по у0. Таким образом, получаем формулу:
P(  x, y    y  y ) F ( x, y  y )  F ( x, y ) Fy ( x, y )
F | ( x | y )  lim  lim  .
y  0 P( y    y  y ) y  0 F ( y  y )  F ( y )
  p ( y )

10
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Наиболее важен для приложений случай, когда вектор (, ) представляет собой
двумерную непрерывную случайную величину с совместной плотностью распределения
p , ( x, y ) . Тогда
х
p , (u, y )
F | ( x | y )   p ( y) du .

В данном случае условная функция распределения имеет производную по х, то есть
существует условная плотность распределения  при условии =у, равная
F ( x | y ) p , ( x, y )
p | ( x | y )   |  .
x p ( y )
Условное математическое ожидание непрерывной случайной величины при
известном η вычисляется по формуле:
 
p ( x, y )
M ( |   y )   xp | ( x | y )dx   x  , dx ,
 
p  ( y )
и называется функцией регрессии ξ по η:
 | ( y )  M ( |   y ) .
Функция регрессии  | ( y ) определена в области возможных значений , то есть при
p ( y )  0 .
Задача 6. Двумерный случайный вектор (,) равномерно распределен внутри
треугольника   ( x, y) : x  0, y  0, x  y  2. Найти условное распределение  при условии
=y и функцию регрессии |(y).
Решение. Как было показано ранее (см. задачи 2 и 3),
0, ( x, y )  , 0, y  (0, 2),
p , ( x, y )   1 и p ( x)   2  y
 2 , ( x, y )    2 , y  (0, 2).
Поделив первую плотность на вторую, получаем условную плотность:
0, x  (0, 2  y ),
 1
p | ( x | y )  
, x  (0, 2  y ).
 2  y
Таким образом, речь идет о равномерном распределении на промежутке (0, 2y).
Функцию регрессии вычисляем как математическое ожидание равномерного распределения.
Получаем |(y)=(2y)/2, 0<y<2.
Задача 7. Точку бросают случайным образом в круг радиуса R с центром в начале
координат. Найти условную плотность распределения случайной величины  – абсциссы
точки падения при условии, что ордината  приняла значение у.
Решение. Используя ранее данное определение равномерного распределения на
двумерном множестве (см. § 7.2.2), получаем плотность совместного распределения
0,
 x 2  y 2  R 2 , 0, x  R2  y2 ,
p , ( x, y )   1 2 2 2   1
 R 2
, x  y  R ,  2 , x  R2  y 2 ,
 R
и плотность распределения :
0, y  R,

p ( y )   2 R 2  y 2
 , y  R,
 R 2
Отсюда при |у|R получаем условную плотность

11
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

0, x  R2  y2 ,

p | ( x | y )   1 .
, x  R2  y2.
 2 R2  y2

Таким образом, случайная величина  при условии =у равномерно распределена на
отрезке [  R 2  y 2 ; R 2  y 2 ] . Ее условное математическое ожидание тождественно равно
нулю. Интересно отметить, что условная плотность распределения случайной величины 
при условии =у равномерна, в то время как безусловная плотность  таковой не является. И
в этом примере случайные величины  и  зависимы между собой.

В заключение отметим важный для приложений случай, когда случайный вектор (1,
2) имеет двумерное нормальное распределение (см. § 7.2.2) с совместной плотностью
1  1  ( x1  a1 ) 2 ( x1  a1 )( x2  a2 ) ( x2  a2 ) 2  
p ( x1 , x2 )  exp 2 
 2
 2     .
2 1 2 1  2  2(1   )   1  1 2  22 
Из формулы совместной плотности компонент двумерного случайного вектора можно
получить также их условные плотности. После громоздких вычислений оказывается, что 2
при условии 1=x1 имеет нормальное распределение
  
N   2 ( x1  a1 )  a2 , (1   2 ) 22  ,
 1 
а 1 при условии 2=x2 имеет нормальное распределение
  
N   1 ( x2  a2 )  a1 , (1   2 ) 12  .
 2 
Отсюда следуют также формулы для функций регрессии (условных математических
ожиданий) одной компоненты по другой:
2 
 2 | 1
( x1 )   ( x1  a1 )  a2 ,  | ( x2 )   1 ( x2  a2 )  a1 .
1 1 2
2
Для практических приложений очень важно, что эти функции являются линейными,
так что речь идет о линейной регрессии.
А при =1 наступает просто линейная зависимость между компонентами:
2 
2   (1  a1 )  a2 , 1   1 ( 2  a2 )  a1 .
1 2
§ 7.5. Максимумы и минимумы зависимых случайных величин

Если случайные величины  и  зависимы, то формулами, полученными в § 6.5 для


максимумов и минимумов независимых случайных величин, пользоваться нельзя. С учетом
того, что  и  имеют совместную функцию распределения F ( x, y ) , получаем
Fmax ( x)  P(max{ ,}  x)  P(  x,  x)  F ( x, x),
Fmin ( x)  P(min{ ,}  x)  P({  x}  {  x})  F ( x)  F ( x)  F ( x, x).
Задача 8. Случайные величины  и  имеют совместную функцию распределения
F ( x, y )  min{x 3 y 2 , x 2 y 4 }, x, y  [0,1] .
Найти функции распределения максимума и минимума  и .
Решение. Находим

12
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

F ( x)  F ( x, 1)  min{x 3 , x 2 }  x 3 , x  [0,1],
F ( y )  F (1, y )  min{ y 2 , y 4 }  y 4 , y  [0,1],
Fmax ( x)  F ( x, x)  min{x 5 , x 6 }  x 6 , x  [0,1],
Fmin ( x)  F ( x)  F ( x)  F ( x, x)  x 3  x 4  x 6 , x  [0,1].
Задача 9. Система состоит из двух блоков, времена безотказной работы которых  и 
имеют совместное распределение
F ( x, y )  1  e  ( a  c ) x  e  (b  c ) y  e  ( ax  by  c min{ x , y}) , x, y  0, a, b, c  0 .
Известно, что система выходит из строя, если хотя бы один блок выходит из строя. Найти
функции распределения времен безотказной работы каждого блока и системы в целом.4
Решение. Находим
F ( x)  F ( x,  )  1  e  ( a  c ) x , x  0; F ( y )  F (, y )  1  e  (b  c ) y , y  0;
Fmin ( x)  F ( x)  F ( x)  F ( x, x)  1  e  ( a  b  c ) x , x  0.
Задачи для самостоятельного решения

Теоретические задачи

1. Найти плотности распределения: а) суммы; б) разности; в) произведения; г) частного


двух независимых случайных величин, имеющих равномерное распределение на 0,а.
2. Две независимые случайные величины 1 и 2 имеют показательное распределение с
параметром . Найти условное распределение 1 при условии, что =1+2=t, t>0.5
3. Показать, что если  имеет непрерывную строго возрастающую функцию
распределения F(x)=P(x), то случайная величина =F() имеет равномерное
распределение на отрезке 0, 1.

Вычислительные задачи

4. Плотность распределения  равна


  32
p( x)  Cx , x  1,
0, x  1.
Найти постоянную С, плотность распределения = 1  и Р(0,25<0,64).
5. Случайная величина  имеет функцию распределения
0, x  0,
 2
F ( x)   x , 0  x  1,
1, x  1.

1
Найти функцию распределения случайной величины   .
1
6. Случайная величина  равномерно распределена на отрезке I. Найти плотность
распределения случайной величины , если:
а) I=[1, 3],    2  1 ;
б) I=[0, 3],   10   2 ;
в) I=[1, 3],   (  2) 2 ;

4
Это классическая модель МаршаллаОлкина в теории надежности.
5
Задача заменена на бывшую задачу 37.

13
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

г) I=[0, 2],   (3   )3 ;
д) I=[1, 2],     3 ;
е) I=[1, 2],     1 ;
ж) I=[1, 2],   1 (  1) ;
з) I=[1, 2],   6 (  1) ;
и) I=[1, 1],   1 (  1) 2 ;
к) I=[1, 1],    ln(  2) .
7. Случайная величина  имеет показательное распределение с параметром =2. Найти
плотность распределения случайной величины , если:
а)    2  1 ;
б)    3  1 ;
в)   1 3  ;
г)   e  1 ;
д)   ln(  1) .
8. Случайная величина  имеет показательное распределение с параметром . Найти
функции плотности распределения случайных величин:
а) 1=  ; б) 2 =2; в) 3=  ; г) 4  1  e   .
9. Случайная величина  распределена по нормальному закону с параметрами a и 2.
Найти плотность распределения случайной величины , если:
а) a=2, =2,   (  2)3 ;
б) a=1, =3,    3  2 ;
в) a=2, =1,   (  1)3 ;
г) a=1, =2,   e ;
д) a=1, =3,   3  .
10. Случайная величина  имеет стандартное распределение Коши. Найти плотность
распределения случайной величины , если:
а)    3 ;
б)   arctg  ;
в)   e .
11. Плотность распределения случайной величины  равна p(x). Найти плотность
распределения , если:
 x  4
, x  [1,3]
а) p ( x)   20 ;   (  1)3 ;
0, x  [1,3]
 x  3
, x  [4,6]
б) p ( x)   4 ;  2 6;
0, x  [4,6]

 2(3  x)
 , x  [5,2] 2
в) p ( x)   63 ;   1 (  5) ;
0, x  [5,2]
 2(5  x)
 , x  [2,5]
г) p ( x)   55 ;   ln(  4) ;
0, x  [2,5]

14
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

8  x
 , x  [1,3]
д) p ( x)   28 ;   e  1 ;
0, x  [1,3]
12. Плотность распределения случайной величины  равна p(x). Найти плотность
распределения , если:
 3( x 2  1)

а) p ( x)   20 , x  [1,3] ;     1 ;
0, x  [1,3]

 x2  1

б) p ( x)   24 , x  [1,4] ;     1 ;
0, x  [1,4]
 3(9  x 2 )

в) p ( x)   100 , x  [3,2] ;   1 (  3) ;
0, x  [3,2]

 2( x 2  x)

г) p ( x)   57 , x  [1,4] ;   ln( 2  1) ;
0, x  [1,4]

 x2  2x

д) p ( x)   18 , x  [2,5] ;   ln(  1) ;
0, x  [2,5]

 x3  1

е) p ( x)   324 , x  [2,6] ;   2 (1   ) ;
0, x  [2,6]

 1
 , x  [1,3]
ж) p ( x)   (ln 2)( x  5) ;   e3  ;
0, x  [1,3]

 1
 , x  [2,3]
з) p ( x)   (ln 2)(8  x) ;   e  2 ;
0, x  [2,3]
13. Продавец прохладительных напитков установил, что его доход (за день) в летний
период зависит от среднедневной температуры воздуха экспоненциальным образом и
при повышении температуры от 20С до 30С растет от 1000 до 2000 денежных
единиц. В предположении, что температура равномерно распределена от 20С до
30С, найти: а) вероятность того, что доход составит более 1500 денежных единиц; б)
средний доход; в) среднее квадратическое отклонение дохода.
14. Предприниматель взял кредит в 100 денежных единиц под сложные проценты (0,1% в
день) на время реализации некоторого проекта. Определить, какую сумму в среднем
ему придется выплатить, если время реализации проекта: а) равномерно распределено
от 100 до 200 дней; б) показательно распределено со средним 150 дней.

15
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

15. Прибыль X производителя зависит от рыночной цены p на выпускаемый товар по


закону: X=90p2. В предположении, что возможная цена равномерно распределена от
10 до 12 (денежных единиц), найти: а) вероятность того, что прибыль составит более
10 тыс. денежных единиц; б) среднюю прибыль; в) среднее квадратическое
отклонение прибыли.
16. Прибыль X производителя зависит от рыночной цены p на расходуемое сырье по
закону: X=106/p3. В предположении, что возможная цена равномерно распределена от
4 до 8 (денежных единиц), найти: а) вероятность того, что прибыль составит более 5
тыс. денежных единиц; б) среднюю прибыль.
17. Найти плотность распределения суммы двух независимых величин  и , равномерно
распределенных на отрезках I и J соответственно, если:
а) I=1, 3, J=0, 1;
б) I=[0, 2], J=[3, 4];
в) I=[0, 4], J=[1, 2];
г) I=[1, 3], J=[2, 4];
д) I=[0, 1], J=[0, 7].
18. Найти плотность распределения суммы независимых случайных величин  и , где 
имеет равномерное распределение на отрезке I, а  имеет показательное
распределение с параметром , если:
а) I=[0, 1], =2;
б) I=[0, 3], =2;
в) I=[0, 2], =5;
г) I=[1, 1], =3;
д) I=[1, 2], =2.
19. Найти плотность распределения суммы независимых показательно распределенных
случайных величин  и  с параметрами  и  соответственно, если:
а) =2, =3;
б) =2, =5;
в) =4, =6;
г) =1, =5;
д) =4, =5.
20. Работа состоит из двух частей, которые выполняются независимо и последовательно.
Время выполнения первой части равномерно распределено от 1 до 2 часов, второй –
от 1 до 3 часов. Найти: а) среднее время выполнения работы; б) вероятность того, что
работа будет выполнена за 4 часа.
21. Работа состоит из двух частей, которые выполняются независимо и последовательно.
Время выполнения первой части равномерно распределено от 1 до 3 часов, второй –
от 2 до 4 часов. Найти: а) среднее время выполнения работы; б) вероятность того, что
работа будет выполнена за 5 часов.
22. Работа состоит из двух частей, которые выполняются независимо и последовательно.
Время выполнения первой части показательно распределено со средним 1 час, второй
– со средним 2 часа. Найти вероятность того, что работа будет выполнена за 4 часа.
23. Работа состоит из двух частей, которые выполняются независимо и последовательно.
Время выполнения первой части показательно распределено со средним 2 часа,
второй – со средним 3 часа. Найти вероятность того, что работа будет выполнена за 6
часов.
24. Двумерная случайная величина (ξ, η) равномерно распределена на множестве A.
Проверить величины ξ и η на зависимость, найти их плотности и F(C), если:
а) A={(x, y): (x–1)2+y29, y0}, C=(1, 3);
б) A={(x, y): x2+(y–3)2 ≤ 64}, C=(0, 3);
в) А={(x, y): (x–2)2+y225, y0}, C=(2, 5);

16
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

г) А={(x, y): x2+(y–5)2≤ 49}, C=(0, 5);


д) A={(x, y): x2+(y–2)2≤ 9, x≥0}, C=(3, 2).
25. Двумерная случайная величина (ξ, η) равномерно распределена на множестве A.
Проверить величины ξ и η на зависимость, найти их плотности и F(C), если:
а) A={(x, y): |x|+|y–3|≤ 10}, C=(5, 8);
б) A={(x, y): |x|+|y–4|≤ 6}, C=(3, 7);
в) A={(x, y): |x–1|+|y|≤ 4}, C=(0, –1);
г) A={(x, y): |x|+2|y|≤ 6}, C=(–1, –1);
д) A={(x, y): |x|≤ 3; 0≤ y≤ 3–|x|}, C=(1, 1);
е) A={(x, y): 0≤ x≤ y≤2}, C=(1, 3/2);
ж) A={(x, y): –1y7–2|x–1|}, C=(2, 5);
з) A={(x, y): |x|+2|y–3|≤ 6}, C=(4, 4);
26. Пара случайных величин  и  равномерно распределена на четырехугольнике,
ограниченном прямыми y=0, y=2, y=2x+2, y=14–2x. Проверить величины ξ и η на
зависимость, найти их плотности и F(1,1).
27. Пара случайных величин  и  равномерно распределена на множестве A,
ограниченном параболой и осью абсцисс: A={(x, y): 0≤y≤4–(x–2)2}. Проверить
величины ξ и η на зависимость, найти их плотности и F(2,4).
28. Пара случайных величин  и  равномерно распределена на квадрате К=(х, у):
х+у2. Найти вероятность P 1 2    1, 1 2    1 .
29. Пара случайных величин  и  равномерно распределена на треугольнике
K= {( x, y ) : x  y  1, x  0, y  0} . Найти вероятность P  3 / 4 .
30. Пара случайных величин  и  равномерно распределена на трапеции с вершинами в
точках (–6, 0), (–3, 4), (3, 4), (6, 0). Найти совместную плотность распределения для
этой пары случайных величин и плотности составляющих. Зависимы ли  и ?
31. Случайная пара (,) равномерно распределена на K  ( x, y) : x  0; x  y  1. Найти
плотности  и , исследовать вопрос об их зависимости. Найти М().
32. Совместная плотность двух случайных величин  и  равна
4e 2 y , y  0, x  0, y  x;
p ( x, y )  
0, иначе.
Найти частные плотности , . Исследовать вопрос о зависимости  и .
33. Дана совместная плотность случайных величин ξ и η:
  
A sin( x  y ), 0  x  ; 0  y  ;
p ( x, y )   2 2
0, иначе.
Найти: a) коэффициент A; б) совместную функцию распределения на [0,  2]2 ; в)
частные плотности и функции распределения; г) условную плотность распределения 
при условии =y; д) функцию регрессии  по ; е) математическое ожидание
максимума ξ и η.6
34. Функция совместного распределения случайного вектора (, ) имеет вид
F ( x, y )  xy (1   (1  x )(1  y )), x, y  [0,1].
Найти: а) совместную и частные плотности распределения; б) при каких  данная
формула действительно задает функцию распределения; в) коэффициент корреляции;
г) функцию регрессии  по ; д) условную функцию распределения  при условии
=x; е) математическое ожидание минимума ξ и η.7

6
В задачу 33 добавлены новые пункты д), е).
7
В задачу 34 добавлены новые пункты д), е).

17
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

35. Пара случайных величин  и  равномерно распределена на единичном квадрате


K  ( x, y) : 0  x  1; 0  y  1 . Пусть  – расстояние от точки (, ) до нуля. Найти
функцию условного распределения  при условии =x, 0x1.
36. Пара случайных величин  и  равномерно распределена на треугольнике с
вершинами в точках (0, 0), (1, 1), (2, –1). Найти: а) функцию регрессии  по ; б)
функцию регрессии  по .
37. Случайная точка (, ) равномерно распределена на: а) круге K  {( x, y ) : x 2  y 2  1} ;
б) квадрате K  {( x, y ) :| x |  | y | 1} . Пусть  – расстояние от точки до начала
координат. Найти M(2|=x).8
38. Случайные приращения цен акций А и Б (в процентах) имеют дисперсии 1 и 4
соответственно и нулевые средние, а их коэффициент корреляции 0,7. Как в среднем
должен измениться курс акции: а) Б, если курс акции А поднимется на 2%; б) А, если
курс акции Б опустится на 4%. Решить задачу, используя приближение двумерным
нормальным распределением.
39. Случайный выпуск продукта в циклическом технологическом процессе на
химическом производстве имеет среднее 50 и среднее квадратическое отклонение 12
(весовых единиц), причем выпуск в каждом цикле зависит от предыдущего с
коэффициентом корреляции 0,4. Спрогнозировать средний выпуск в следующем
цикле, если в текущем цикле выпуск составил: а) 45; б) 65 весовых единиц. Решить
задачу, используя приближение двумерным нормальным распределением.
40. Два экономических показателя, X и Y, имеют средние 10 и 20, дисперсии 25 и 64
соответственно, а их коэффициент корреляции 0,5. Найти: а) среднее Y при условии
X=15; б) среднее X при условии Y=28. Решить задачу, используя приближение
двумерным нормальным распределением.

Новые задачи (2018)

41. Случайная величина  имеет стандартное нормальное распределение.


Найти плотность: а)    2  2 ; б)    2  2 |  | .
42. Случайная величина  имеет стандартное распределение Лапласа. Найти плотность
  tg  .
43. Распределение случайного вектора (, ) имеет плотность на квадрате [0,1]2:
а) p( x, y )  A( x  y ) 2 ; б) p ( x, y )  A( x  y ) 2 .
Найти константу A и функцию регрессии  по .
44. Функция распределения случайного вектора (, ) на квадрате [0,1]2 имеет вид:
a) F ( x, y )  (1   ) xy   ( xy ) 2 ; б) F ( x, y )  (1   ) xy   ( xy )3
Найти возможные значения параметра  и функцию регрессии  по .
45. Функция распределения случайного вектора (, ) на квадрате [0,1]2 имеет вид:
xy
F ( x, y )  .
x  y  xy
Найти: а) частные распределения  и ; б) математическое ожидание минимума  и ;
в)* функцию регрессии  по .

8
Задача заменена на новую.

18
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Глава 8. Закон больших чисел.


Центральная предельная теорема
§ 8.1. Неравенство Чебышева
Теорема 1 (неравенство Маркова). Пусть для случайной величины  существует
М||, тогда для любого >0 верно:
M
P     .

Доказательство. Проведем доказательство раздельно в дискретном и абсолютно
непрерывном случае.
Пусть  – дискретная случайная величина и Р(=хi)=рi, i=1, 2, …, n. Тогда вероятность
Р(||) равна сумме вероятностей рi, для которых хi находятся вне интервала (, ).
x
Очевидно, для таких хi имеет место неравенство i  1 . С учетом этого, получаем

n
xi xi xi 1 1
P (|  |  )   p  
хi 
i

xi 
pi 
x  
 pi 
x  
 i 1
pi 


x
М . i pi 
i i

Пусть  – абсолютно непрерывная случайная величина с плотностью распределения


p(x). Тогда вероятность Р(||) равна сумме интегралов от плотности распределения по
x
промежуткам (, ] и [, +). На этих промежутках  1 . Воспользовавшись формулой

для математического ожидания, получаем неравенство
    
| x| |x| |x| 1
P(|  |  )   p ( x)dx   p ( x)dx   p ( x)dx   p ( x)dx   p ( x)dx  M  .
  
 
 
 
В общем случае подобное доказательство проводится с использованием интеграла
Лебега, который не входит в программу настоящего курса.
Следствие 1. Пусть для случайной величины  существует М2, тогда для любого
>0 верно:
M 2
P      2

Доказательство. Заметим, что событие  || равносильно событию  22 и
применим неравенство Маркова к случайной величине 2.
Теорема 2 (неравенство Чебышева). Пусть для случайной величины  существует
математическое ожидание М и дисперсия D, тогда для любого 0 верно:
D
P       2 .

Доказательство. Применяем следствие неравенства Маркова к случайной величине
–M, замечая, что M(–M)2=D.
Неравенство Чебышева часто используют в виде:
D
P        1  2

Теорема 3. Пусть для случайных величин 1, 2, …, n существуют математические
ожидания Mi и дисперсии Di, тогда для любого 0 верно:
1 n 1 n  1 n
P  i   Mi     1  2 2  Di .
 n i 1 n i 1  n  i 1
Доказательство. Применяем неравенство Чебышева к случайной величине

1
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

1 n
   i ,
n i1
которая имеет
1 n 1 n
M   i
n i 1
M и D    Di
n 2 i 1
(согласно свойствам математического ожидания и дисперсии).
Задача 1. В 400 испытаниях Бернулли вероятность успеха в каждом испытании равна
0,8. С помощью неравенства Чебышева оценить вероятность того, что разница между числом
успехов в этих испытаниях и средним числом успехов будет меньше 20.
Решение. Число успехов распределено по закону Бернулли, поэтому среднее число
успехов равно М=np=400×0,8=320, а дисперсия D=npq=400×0,8×0,2=64. Тогда в силу
неравенства Чебышева имеем:
D 64
P   320  20  1  2  1   0,84.
20 400
Вычислим эту же вероятность с помощью приближенной (интегральной) формулы
МуавраЛапласа (см. § 4.3.2):
 k   np k 
P  320  20   P  np  k   P    
 npq npq npq 

 k 
 2 0    2 0  20   2 0 (2,5)  2  0,4938  0,9876.

 npq   64 
Последнее вычисление показывает, что неравенство Чебышева дает довольно грубые
оценки вероятностей.

§ 8.2. Закон больших чисел


Теорема 4 (закон больших чисел). Пусть задана бесконечная последовательность
независимых одинаково распределенных случайных величин 1 ,  2 , ...,  n , ... , для которых
существуют математическое ожидание Mi  a и дисперсия Di   2 . Тогда для любого
>0 верно:
1 n 
lim P  i  a     0 .
n 
 n i 1 
Доказательство. Применяем неравенство Чебышева к случайной величине
1 n
 n   i ,
n i 1
которая имеет
1 n 1 n 2
M n   Mi  a и D n  2  Di  .
n i 1 n i 1 n
Получаем
1 n  2
P  i  a     P(|  n  a |  )  2  0, n   .
 n i 1  n
Суть закона больших чисел состоит в том, что при возрастании числа слагаемых
(одинаково распределенных случайных величин) среднее арифметическое этих слагаемых
мало отличается от математического ожидания a . Иначе говоря, любое положительное
отклонение среднего арифметического случайных величин от числа a становится при
достаточно большом числе слагаемых маловероятным.

2
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

В общем случае сходимость случайной последовательности Xn к пределу X вида


lim P (| X n  X |  )  0
n 

(если это верно для любого >0) называется сходимостью по вероятности.


Следствие 2 (теорема Бернулли). Относительная частота успехов в испытаниях
Бернулли сходится к вероятности успеха по вероятности.
Доказательство. Пусть 1 ,  2 , ...,  i , ... – последовательность независимых случайных
величин, описывающих результаты испытаний Бернулли (1 в случае успеха и 0 в случае
неудачи). Закон распределения каждой такой случайной величины имеет вид:

i 0 1
P q р

Тогда математическое ожидание равно Mi  p и дисперсия Di  pq . Среднее


1 n
арифметическое    i равно относительной частоте успехов в n испытаниях, и закон
n i 1
больших чисел утверждает, что оно сходится по вероятности к математическому ожиданию,
которое здесь равно вероятности успеха p.
Закон больших чисел может выполняться и в случае по-разному распределенных
случайных величин.
Теорема 5. Пусть 1 ,  2 , ...,  n , ... – последовательность независимых случайных
величин, для которых существуют математические ожидания Mi и дисперсии Di ,
удовлетворяющие условию
1 n
 Di  0, n   .
n 2 i 1
Тогда для любого >0 справедливо равенство:
1 n 1 n 
lim P  i   Mi     1 .
n 
 n i 1 n i 1 
Доказательство. В силу теоремы 3 имеем
1 n 1 n 1 n 
1  2 2  Di  P  i   Mi     1 .
 n i 1  n i 1 n i 1 
Переходя к пределу в неравенстве при n   , получаем утверждение теоремы.
Отметим, что для независимых одинаково распределенных случайных величин верно
также следующее утверждение, более сильное, чем закон больших чисел. При этом можно
даже отказаться от условия существования дисперсии.
Теорема 6 (усиленный закон больших чисел Колмогорова). Пусть задана
бесконечная последовательность независимых одинаково распределенных случайных величин
1 ,  2 ,...,  n ,... , для которых существует математическое ожидание Mi  a , тогда
 1 n  
P lim  i   a   1 .
 n  n i 1  
В общем случае, сходимость случайной последовательности Xn к пределу X вида
P ( lim X n  X )  1
n

называется сходимостью с вероятностью единица (или почти наверное) и обозначается так:


X n п
.н .
X.
Из сходимости с вероятностью единица следует сходимость по вероятности, обратное
верно не всегда (см. И8).

3
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

§ 8.3. Центральная предельная теорема (ЦПТ)


Теорема 5 (центральная предельная 1 ,  2 , ..., i , ... —
теорема). Пусть
независимые одинаково распределенные случайные величины с Mi  a и Di   2 , i=1, 2, ...,
n,… Тогда для любого числа х верно:
x y2
 1   2  ...   n  na  1 
lim P  x    ( x)   e 2 dy .
n 
  n  2 
Смысл центральной предельной теоремы заключается в том, что сумма
n
Sn  i
i 1
случайных величин при надлежащем линейном преобразовании с увеличением числа
слагаемых ( n ) ведет себя почти как случайная величина со стандартным нормальным
распределением N (0, 1) . Вероятность попадания в любой интервал имеет следующий
предел:
c y2
 S n  na  1 2 2
lim P c1   c 2    e dy  (c 2 )   (c1 )   0 (c 2 )   0 (c1 ),
n 
  n  2 c1

откуда следует приближенная формула


 B  na   A  na 
P( A  S n  B)   0    0  ,
  n    n 
которой имеет смысл пользоваться, если A и B не очень далеки от na.
Центральная предельная теорема может оставаться справедливой и в случае, когда
случайные слагаемые не являются одинаково распределенными.
Теорема 6 (теорема Ляпунова). Пусть 1, 2, ..., n, ... – независимые случайные
величины, имеющие конечные третьи абсолютные центральные моменты, и пусть
ak  M k ,  k2  D k , ck3  M | k M k |3 ,
n n n
An   ak , Bn2    k2 , Cn3   ck3 .
k 1 k 1 k 1
C
Если при n отношение n  0 , то для любого числа х верно:
Bn
2
x y
 1   2  ...   n  Аn  1 
lim P  
 x   ( x)   e 2 dy .
n   B 2 
 n  

В общем случае, сходимость случайной последовательности Xn к пределу (случайной


величине) X вида
lim P( X n  x)  P( X  x)
n 

в точках непрерывности функции распределения X, называется сходимостью по


распределению и обозначается так:
d
Xn 
 X.
Из сходимости по вероятности следует сходимость по распределению, обратное верно
не всегда (но верно в случае сходимости к константе).
Пример. Пусть 1 ,  2 , ...,  i , ... – последовательность независимых случайных
величин, описывающих результаты испытаний Бернулли (1 в случае успеха и 0 в случае
неудачи). Тогда сумма S n  1   2  ...   n есть число успехов m в n испытаниях Бернулли.
Из ЦПТ следует, что

4
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

 c2 x2
m  np  1 
lim P c1   c2   e 2
dx   0 (c 2 )   0 (c1 ) ,
n  
npq  2
  c1

где
x y2
1 
2
 0 ( x)   e dy
2 0
– функция Лапласа. Этот результат называется интегральной теоремой Муавра–Лапласа и
уже встречался раньше (см. § 4.3.2). Таким образом, ЦПТ есть обобщение интегральной
теоремы МуавраЛапласа на случай слагаемых более общего вида (не только 0 и 1).
Задача 2. В продукции цеха детали отличного качества составляют 50. Детали
укладываются в коробки по 200 штук в каждой. Определить, сколько деталей надо положить
в коробку, чтобы с вероятностью, не меньшей 0,99, можно было утверждать, что число
деталей отличного качества в коробке не менее 100.
Решение. Обозначим
100  np
u .
npq
Используя нормальное приближение, получаем
 m  np  1
P(m  100)  P  u   1  (u )    0 (u )  0,99 .
 npq  2
 
Отсюда  0 (u )  0,49 , а из таблицы 2 приложения Т и свойств функции Лапласа получаем
1
неравенство u  2,32 . Обозначив x  n  0 , с учетом p  q  , приходим к квадратному
2
2
неравенству х –2,32х–2000, решая которое, получаем n236.
Можно предложить и другой метод. Пусть i – число деталей, которые пришлось
перебрать, чтобы найти i-ую деталь отличного качества (включая ее саму). Случайные
величины имеют геометрическое распределение с параметром p=1/2. Находим M=1/p=2,
D=(1p)/p2=2. Используя ЦПТ, получаем неравенство
 n  100  2  1  n  200 
P( S100  n)      0    0,99 ,
 2 100  2  14,14 
откуда следует n200+14,142,32=232,8 или, округляя, n233.
Результаты получаются близкие, но первый метод более точен и потому
предпочтительней. Вторым методом лучше пользоваться, если нужно определить границы, в
которых лежит неизвестное число деталей.
Задача 3. Доходы жителей города имеют математическое ожидание 10 тыс. руб. и
среднее квадратическое отклонение 2 тыс. руб. Найти вероятность того, что средний доход
100 случайно выбранных жителей составит от 9,5 до 10,5 тыс. руб.
Решение. Переформулируем условие задачи для суммарного дохода: он должен
составлять от 950 до 1050 тыс. руб. Используя ЦПТ, получаем:
 1050  100  10   950  100  10 
P(950  S100  1050)   0    0    2 0 (2,5)  0,9876.
 2 100   2 100 
Задача 4. Срок службы электрической лампы имеет показательное распределение с
математическим ожиданием 1000 часов. Найти вероятность, что средний срок службы для
100 ламп составит не менее 900 часов.
Решение. Примем для простоты 1000 часов за единицу времени. Вспомним числовые
1 1
характеристики показательного распределения: М= , D= 2 . Отсюда следует, что среднее
 

5
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

квадратическое отклонение совпадает с математическим ожиданием (и оба они здесь равны


единице). Переформулируя условие задачи для суммарного срока службы и используя ЦПТ,
получаем:
 90  100  1
P( S100  90)  1       0 (1)  0,8413.
 100  2

Задачи для самостоятельного решения

Теоретические задачи

1. Проверить, выполняется ли закон больших чисел для последовательности независимых


случайных величин 1 ,  2 , ...,  n , ... , имеющих следующие законы распределения:
а)
n  n 0 n
P 1 2 1
1
n n n
б)
n  2n 0 2n
 ( 2 n 1) 2 n  ( 2 n 1)
P 2 1 2 2

в)
n  n 0 n
P 1 2 1
1
n n n
г)
n  n2 3 0 n2 3

P 1 2 1
1
n n n

2. Пусть 1, 2, ..., i, ... — независимые, одинаково распределенные случайные величины с
функцией распределения F(x). Пусть заданы случайные величины
1,  i  x,
i  
0,  i  x.
Выполняется ли для последовательности 1, 2, ... i, ... закон больших чисел?
3. Доказать закон больших чисел в «обобщенной форме»: пусть 1 ,  2 , ...,  n , ... –
последовательность независимых случайных величин, у которых существуют
математические ожидания Mi и дисперсии Di , причем все дисперсии ограничены
сверху одной константой C>0. Тогда для любого >0 верно
1 n 1 n 
lim P    i   M i     0 .
 n i 1 n i 1
n 

4. Пусть случайная величина  имеет нормальное распределение с параметрами М=а,
D=2. Найти вероятности P|   a |   и P|   a | 3  , пользуясь таблицами функции
Лапласа. Затем оценить вероятности с помощью неравенства Чебышева.

6
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

5. Пусть случайная величина  имеет распределение Лапласа, т.е. ее плотность равна


  x
p ( x)  e ,   0 . Найти вероятности P|  |   и P|  | 3  , где  – среднее
2
квадратическое отклонение, и сравнить их с оценками, получаемыми с помощью
неравенства Чебышева.

Вычислительные задачи

6. Средний размер вклада в отделении банка равен 6000 руб. Оценить вероятность, что
случайно взятый вклад будет меньше 10000 руб.
7. Среднее количество вызовов, поступающих на АТС завода в течение часа, равно 300.
Оценить вероятность того, что в течении следующего часа число вызовов на
коммутатор: а) будет не менее 400; б) будет менее 600.
8. Отделение банка обслуживает в среднем 100 клиентов в день. Оценить вероятность
того, что сегодня в отделении банка будет обслужено: а) менее 200 клиентов; б) не
менее 150 клиентов.
9. Среднее абсолютное приращение цены акции компании в течении биржевых торгов
составляет 0,3%. Оценить вероятность того, что на ближайших торгах курс изменится
не менее, чем на 3%.
10. Среднее квадратическое отклонение приращения цены акции компании в течение
биржевых торгов составляет 2%, а среднее приращение равно нулю. Оценить
вероятность того, что на ближайших торгах курс изменится не менее, чем на 5%.
11. Выплаты страховой фирмы клиенту по страхованию имущества имеют среднее 1 млн.
руб., среднее квадратическое отклонение 200 тыс. руб. Оценить, с какой вероятностью
страховой фирме придется заплатить 25 клиентам от 20 до 30 млн. руб.1
12. По статистическим данным, в среднем 87% новорожденных доживают до 50 лет. С
помощью неравенства Чебышева оценить вероятность того, что из 1000
новорожденных доля доживших до 50 лет будет отличаться от вероятности этого
события менее, чем на 0,04 (по абсолютной величине).
13. В среднем 10% работоспособного населения некоторого региона – безработные.
Оценить с помощью неравенства Чебышева вероятность того, что уровень
безработицы среди случайно выбранных 10000 работоспособных жителей составит от
9% до 11%.
14. Опыт страховой компании показывает, что страховой случай приходится примерно на
каждый пятый договор. Оценить с помощью неравенства Чебышева количество
договоров, при котором с вероятностью 0,9 можно утверждать, что доля страховых
случаев отклонится от 0,2 менее, чем на 0,01 (по абсолютной величине). Уточнить
ответ с помощью теоремы МуавраЛапласа.
15. В продукции цеха детали отличного качества составляют 80%. В каких границах
будет находиться с вероятностью 0,99 число деталей отличного качества среди 10000
деталей? Сделать оценку с помощью неравенства Чебышева и с помощью теоремы
МуавраЛапласа.
16. Фирма делает клиентам скидку, равную последней цифре номера паспорта (в
процентах). Стоимость услуги фирмы без скидки составляет 1000 рублей.
Определить, в каких границах лежит суммарный доход фирмы от оказания услуг 100
клиентам с учетом скидок.2
17. Аппаратура состоит из 100 одинаково надежных и независимо работающих
элементов, каждый из которых может отказать в течение суток с вероятностью 0,01.

1
Задача заменена на новую.
2
Задача заменена на новую, старая задача перенесена в главу 4.

7
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

На обнаружение отказавшего элемента и его замену требуется 20 минут, в течение


которых аппаратура простаивает. Найти вероятность того, что среднее время простоя
за 100 дней составит не более 25 минут в сутки.3
18. На заводе 1000 станков, каждый из которых в среднем в течение 24 дней в месяц
потребляет электроэнергию независимо от других станков с интенсивностью 10
единиц в день. Какое количество электроэнергии необходимо заводу ежедневно,
чтобы недостаток электроэнергии наблюдался в среднем не чаще двух раз за 100
дней?
19. Предприятие выпускает 30% изделий — стоимостью 100 руб., 30% изделий —
стоимостью 200 руб. и 40% изделий — стоимостью 300 руб. Какова вероятность
получить за 1000 случайно отобранных изделий не менее 215 тыс. руб.?
20. Детали, сходящие с конвейера, подвергаются выборочному контролю по следующей
схеме: каждая деталь с вероятностью 1/3 может быть отправлена на контроль
независимо от других. Известно, что через контроль прошло 100 деталей. В каких
границах с вероятностью 0,99 лежит общее число деталей, сошедших с конвейера?
21. Кадровое агентство трудоустроило 500 специалистов. В каких границах с
вероятностью 95% находилось общее число соискателей на работу, если каждый
соискатель устраивается на работу с вероятностью 0,2?
22. Изготовление детали занимает случайное время, равномерно распределенное от 10 до
15 минут. Найти вероятность того, что на изготовление 100 деталей понадобится не
менее 20,5 часов.
23. Изготовление детали занимает случайное время, равномерно распределенное от 4 до 8
минут. Изготовление скольких деталей за 25 рабочих часов можно гарантировать с
вероятностью 95%?
24. В бункер помещается не более 150 деталей. Ежеминутно в бункер поступает
случайное число деталей, имеющее распределение Пуассона с параметром =2;
количества деталей, поступающих в непересекающиеся промежутки времени,
независимы. Каждый час все находящиеся в бункере детали перегружают на тележку
и увозят. В начальный момент времени бункер свободен. Найти вероятность того, что
за 20 часов непрерывной работы не произойдет ни одного переполнения бункера.
25. Число посетителей магазина (в день) имеет распределение Пуассона с
математическим ожиданием 289. Найти вероятность того, что за 100 рабочих дней
суммарное число посетителей составит от 28550 до 29250 человек.
26. По статистике страховой компании, число страховых случаев в день имеет
распределение Пуассона, а за год в среднем происходит 400 страховых случаев. Найти
вероятность того, что за год их произойдет не более 450.
27. Доходы жителей города имеют математическое ожидание 15 тыс. руб. и среднее
квадратическое отклонение 4 тыс. руб. (в месяц). Найти вероятность того, что средний
доход 100 случайно выбранных жителей составит от 14 до 16 тыс. руб.
28. Срок службы изделия имеет показательное распределение с математическим
ожиданием 2500 часов. Найти вероятность того, что средний срок службы для 100
изделий составит не менее 2300 часов.
29. Вес яблока имеет математическое ожидание 200 г и среднее квадратическое
отклонение 50 г. Найти вероятность того, что в 100 кг окажется не менее 490 яблок.
30. Вес арбуза имеет математическое ожидание 10 кг и среднее квадратическое
отклонение 2 кг. Найти вероятность того, что в 1 тонне окажется не более 105
арбузов.

3
Задача модифицирована, старая задача перенесена в главу 4.

8
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Новые задачи (2018)

31. Изготовление детали занимает случайное время со средним 8 минут и средним


квадратическим отклонением 2 минуты. Оценить, с какой вероятностью на
изготовление 15 деталей понадобится от 100 до 140 минут.
32. Срок службы изделия имеет показательное распределение с математическим
ожиданием 1600 часов. Оценить, с какой вероятностью средний срок службы 50
изделий составит от 1200 до 2000 часов.
33. Правильный кубик бросают 100 раз. В каких границах будет лежать среднее число
выпавших очков с вероятностью 90%?
34. Выплаты страховой фирмы клиенту по страхованию имущества имеют среднее 1 млн.
руб., среднее квадратическое отклонение 250 тыс. руб. Какой суммы должно хватить
фирме на 100 выплат с вероятностью 97,5%?
35. Ежедневный спрос на развесной товар в магазине составляет от 80 до 120 кг и имеет
распределение Симпсона. За сколько дней можно обеспечить продажу товара в
объеме 15 тонн с вероятностью 95%?

9
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Глава 9. Цепи Маркова


§ 9.1. Основные определения

Случайным процессом называется функция двух переменных (t,), где tT – время,
 – элементарный исход. Время может быть непрерывным или дискретным
(целочисленным).
Случайный процесс ставит в соответствие каждому моменту времени tT случайную
величину (t)=(t,) как функцию от . Поэтому процесс обычно для краткости
обозначают через (t).
Пусть заданы моменты времени 0t1<t2<…<tn<tn+1<…<tn+m, n, m>0, и А – любое
событие (утверждение), относящееся к случайным величинам (t1),…,(tn1), В – относящееся
к (tn+1),…,(tn+m), C – относящееся к (tn). Говорят, что процесс обладает марковским
свойством, если для него всегда выполняется равенство:
P ( B | AC )  P ( B | C )
или (в эквивалентной форме):
P ( AB | C )  P( A | C ) P ( B | C ) .
Марковское свойство означает, что будущее поведение процесса не зависит от его
прошлого при условии, что известно настоящее (т.е. текущее значение процесса).
Марковским процессом называется случайный процесс, обладающий марковским
свойством.
Пространством состояний S случайного процесса называется множество всех
возможных значений функции (t,).
Цепью Маркова называется марковский процесс, для которого выполнено хотя бы
одно из следующих двух условий:
а) пространство состояний конечно или счетно;
б) время дискретно.
Далее будем изучать цепи Маркова с конечным или счетным числом состояний, как с
дискретным, так и с непрерывным временем.

§ 9.2. Цепи Маркова с конечным числом состояний и дискретным временем

В этом параграфе рассмотрим цепи Маркова:


a) c пространством состояний S из конечного числа элементов m;
б) с дискретным временем n, принимающем значения 0, 1, 2 и т.д.
Обычно полагают, что элементы S занумерованы числами 1, 2, …, m.
Для таких цепей марковское свойство может быть записано в следующей форме:
P (n  1)  in 1 |  (n)  in ,  (n  1)  in 1 ,...,  (0)  i0   P (n  1)  in 1 |  (n)  in  .
Однородными называются цепи Маркова, для которых условные вероятности
P((n+1)=j|(n)=i) не зависят от n. Таким образом, однородная цепь ведет себя с любого
момента так же, как с начала (n=0). Далее будем рассматривать только однородные цепи
Маркова.
Вероятности pij=P((n+1)=j|(n)=i) называются переходными вероятностями, а
составленная из них матрица P – матрицей переходных вероятностей:
 p11 p12 ... p1m 
 
 p 21 p 22 ... p2m 
P 
... ... ... ... 
 
p pm2 ... p mm 
 m1

1
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Поскольку в каждой строке матрицы записаны вероятности всех возможных


переходов из выбранного состояния (в том числе и вероятности того, что система останется в
нем), эти переходы образуют полную группу событий. Поэтому для каждой строки имеет
m
место равенство p
j 1
ij  1 для любого i=1, 2, …, m.

Распределение (n) задается вектором p(n)=(p1(n), …, pm(n)), где pi(n)=P((n)=i).


По формуле полной вероятности получаем:
p (n  1)  p (n) P .
Начальным распределением цепи Маркова  называется распределение (0), заданное
соответствующим вектором p(0). Зная начальное распределение, можно найти p(n) при
любом n>0, последовательно вычисляя p(1)=p(0)P, p(2)=p(1)P и т.д. В общем случае,
получаем формулу:
p(n)  p(0) P n .
Отсюда следует, что вероятности pij(n ) перехода из состояния i в состояние j за время n
можно найти как элементы n-й степени матрицы P, т.е.
( pij( n ) )  P n .
Говорят, что из состояния i можно перейти в состояние j, если существует n такое, что
(n)
pij  0 . Если из состояния i можно перейти в состояние j такое, что обратно вернуться
нельзя, то состояние i называют несущественным; в противном случае – существенным.
Если из состояния i можно перейти в j, а из j – в i, то такие состояния называют
сообщающимися. Все существенные состояния цепи разбиваются на классы сообщающихся
состояний (внутри каждого класса все состояния сообщаются между собой, но не
сообщаются с состояниями других классов).
Класс называется периодическим с периодом d, если для любого состояния i из этого
класса возможные времена возвращения в него (т.е. такие значения n, что pii( n )  0 ), кратны
некоторому числу d2. В противном случае класс называется апериодическим.
Эргодической называется цепь Маркова, для которой существует предельное
распределение =(1,…m):
m
 j  lim pij (n),
n 

j 1
j 1.

Если имеется лишь один класс сообщающихся состояний, и он апериодический, то


цепь Маркова является эргодической.
Предельное распределение имеет важное практическое значение, однако найти его из
приведенной формулы затруднительно, поэтому используется иной подход.
Стационарным распределением цепи Маркова называется такое распределение,
которое, будучи задано в качестве начального, в дальнейшем останется неизменным. В таком
случае говорят, что система находится в стационарном режиме.
Для эргодических цепей Маркова стационарное распределение существует и
единственно, а самое главное – совпадает с предельным. Таким образом, если система
изначально не находится в стационарном режиме, она со временем (при n) выходит на
него.
Стационарное распределение =(1,…m) легко найти из системы уравнений:
m
  P, 
j 1
j  1.

Следует отметить, что это система из m+1 уравнений с m неизвестными, так что одно
из уравнений (любое из первых m) можно исключить.

2
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Пример 11. Простейшая форма контроля качества продукции с переменным планом


заключается в следующем. Устанавливается m различных объемов выборок (планов), в
порядке убывания: n1>n2>…>nm, m2. Если в выборке из партии изделий обнаружено хотя
бы одно дефектное, партия бракуется. Схема контроля производства строится по
следующему алгоритму. Первая партия изделий проверяется выборкой максимального
объема n1. Если она оказалась принятой, делается вывод о нормальном ходе производства, и
для следующей партии переходят на выборку меньшего объема n2; в противном случае
объем остается максимальным. При контроле партии выборками промежуточного объема nk,
1<k<m, в случае приемки партии переходят на выборку меньшего объема nk+1; в случае
отбраковки – на выборку большего объема nk1. При контроле партии выборкой
минимального объема nm в случае приемки этот объем сохраняется, в случае отбраковки
переходят на выборку объема nm1.
В данной модели номер используемого плана (объема выборки) образует цепь
Маркова, т.к. при известном текущем значении его следующие значения не зависят от
предыдущих. Пространство состояний в данном случае S={1, 2, …, m}. Обозначим через ri
вероятность отклонить партию при объеме выборки ni, 1im. Тогда переходные
вероятности принимают вид:
ri , j  i  1, i  1,
1  r , j  i  1, i  m,
 i
pij  
r1 , j  i  1,
1  rm j  i  m.
Заметим, что если вероятность дефекта изделия  мала, то rini. Поэтому для простоты далее
будем полагать ri=ni.
Задача 1. На производстве используется система приемочного контроля с
переменным планом, где n1=20, n2=10, =0,01. Построить матрицу переходных вероятностей
и найти стационарное распределение для номера плана.
Решение. Здесь S={1, 2}. Вычисляем r1=0,2; r2=0,1.
Матрица переходных вероятностей имеет вид:
 0,2 0,8 
P    .
 0,1 0,9 
Решаем систему уравнений для вектора
  ( 1 ,  2 ) :   P,  1   2  1 ,
или, более подробно,
 1  0,2 1  0,1 2 ,

 2  0,8 1  0,9 2 ,
    1.
 1 2

Решая первое (или второе) уравнение совместно с третьим, получаем =(1/9,8/9).


Задача 2. В городе Ромашкино каждый год 1% жителей переселяются в пригород, а
4% жителей пригорода – в город. Найти стационарное распределение в предположении, что
общая численность населения остается постоянной.
Решение. Будем считать, что живущий в городе находится в состоянии 1, а живущий в
пригороде – в состоянии 2. Матрица переходных вероятностей имеет вид:
 0,99 0,01 
P    .
 0,04 0,96 
Решая систему уравнений

1
Пример 1, задача 3 и задачи для самостоятельной работы 911 взяты из книги Соколов Г.А., Чистякова Н.А.
Теория вероятностей. Управляемые цепи Маркова в экономике. М.: Физматлит, 2005.

3
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

 1  0,99 1  0,04 2 ,

 2  0,01 1  0,96 2 ,
    1,
 1 2

получаем =(0,8; 0,2). Таким образом, в стационарном режиме 80% живут в городе, 20% – в
пригороде.
Задача 3. Магазин электротоваров торгует холодильниками. Случайный спрос на
холодильники за неделю имеет распределение, заданное таблицей:

Спрос 0 1 2
P 0,2 0,5 0,3

Если холодильники заканчиваются, делается заказ на 2 штуки, который прибывает на


следующей неделе. Построить матрицу переходных вероятностей. Найти стационарное
распределение числа холодильников в магазине.
Решение. В данном случае удобно нумеровать состояния от нуля (по числу
холодильников), так что S={0, 1, 2}. Матрица переходных вероятностей имеет вид:
0 0 1 
 
P   0,8 0,2 0  .
 0,3 0,5 0,2 
 
Предполагаем, что неудовлетворенный спрос пропадает и не переносится на
следующую неделю (т.е. если он составлял две штуки, а в магазине был только один
холодильник, то система переходит в состояние 0, без каких-либо последствий).
Решая систему уравнений
 0  0,8 1  0,3 2
  0,2  0,5
 1 1 2

 2   0  0,2 2
 0   1   2  1,
получаем (0,330; 0,258; 0,412). Следует отметить, что используемая в данном случае
политика пополнения запасов не выглядит эффективной. Действительно, 33% времени товар
отсутствует, и магазин упускает возможную прибыль от продаж.

§ 9.3. Цепи Маркова с непрерывным временем.


Системы массового обслуживания

В этом параграфе рассмотрим цепи Маркова:


a) c пространством состояний S из конечного или счетного числа элементов;
б) с непрерывным временем t0.
Обычно полагают, что элементы S занумерованы числами 1, 2,…
Как и ранее, будем рассматривать только однородные цепи Маркова, чьи свойства не
зависят от времени.
Интенсивностью перехода из состояния i в состояние j (ij) называется число ij
такое, что вероятность перехода из состояния i в состояние j за промежуток времени t равна
ijt+o(t) при t0. Предполагается, что вероятность более чем одного перехода за это
время составляет o(t) при t0.
Определим также формально величины
ii   ij ,
j i

имеющие смысл полных интенсивностей выхода из соответствующих состояний.

4
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Тогда для вероятностeй pi(t)=P((t)=i) имеет место система дифференциальных


уравнений, называемых уравнениями Колмогорова:
dp i (t ) m
   ki p k (t ) .
dt k 1
Эти уравнения могут быть решены, исходя из начального распределения p(0).
Определим матрицу =(ij), называемую матрицей интенсивностей переходов, тогда
уравнения перепишутся в виде:
p (t )  p (t ) .
Как и ранее, особый интерес представляют эргодические цепи Маркова и предельные
(стационарные) распределения. Поскольку в стационарном режиме распределение не
меняется (и производные равны нулю), оно может быть найдено из системы уравнений:
m
  0, 
j 1
j  1.

Если в цепи Маркова с непрерывным временем имеется только один класс


сообщающихся состояний, а стационарное распределение существует и единственно, то
такая цепь оказывается эргодической, и ее предельное распределение совпадает со
стационарным.
Типичной областью применения цепей Маркова с непрерывным временем является
теория массового обслуживания, занимающаяся изучением систем массового
обслуживания, т.е. таких систем, в которых, с одной стороны, возникают массовые
требования (или заявки) на выполнение каких-либо услуг, а с другой – происходит
удовлетворение этих требований (по мере возможности).
Система массового обслуживания включает в себя источник требований (внешний
или внутренний) и обслуживающие приборы (каналы обслуживания).
Эту терминологию не следует понимать буквально. Так, в качестве требований могут
выступать люди, предметы, документы, файлы и пакеты данных и др.; в качестве
обслуживающих приборов – люди, станки, организации, компьютеры и др.
Простейшим потоком событий называется такая последовательность событий (в
непрерывном времени), когда интенсивность наступления очередного события постоянна.
Иначе говоря, существует такое , что вероятность наступления события за промежуток
времени t равна t+o(t) при t0. Предполагается, что вероятность наступления более
чем одного события за это время составляет o(t) при t0. Отсюда можно вывести, что
время до наступления события распределено показательно с тем же параметром . Верно и
обратное.
Таким образом, если требования поступают в систему через показательно
распределенные промежутки времени и времена обслуживания требований также
показательно распределены, причем параметры остаются постоянными во времени, то
данную систему можно описать цепью Маркова2. Далее будем полагать все случайные
времена показательно распределенными по умолчанию.
Пример 2. Машина требует наладки в среднем раз в  единиц времени. Наладка
занимает в среднем  единиц времени. Требуется найти стационарное распределение
вероятностей застать машину в рабочем (1) и нерабочем (0) состоянии.
Перейдем к интенсивностям: =1/, =1/. Переход из состояния 0 в состояние 1
(наладка) имеет интенсивность , а переход из состояния 1 в состояние 0 (поломка) –
интенсивность . Матрица интенсивностей переходов имеет вид:
  
    .
  

2
На практике эти условия выполняются далеко не всегда. Однако получаемые при данных предположениях
результаты можно использовать в качестве предварительных грубых оценок показателей работы системы.

5
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Решая систему уравнений


  0,  0   1  1 ,
получаем
   
0   , 1   .
     
В общем случае, если имеется m машин, которые выходят из строя и налаживаются
независимо друг от друга, то число исправных машин в стационарном режиме имеет
биномиальное распределение с числом испытаний m и вероятностью успеха  1 .
Пример 3. Рассмотрим однолинейную систему массового обслуживания с очередью.
Она состоит из одного обслуживающего прибора c неограниченной очередью к нему, в
которую поступают требования.
Пусть требования поступают через независимые показательно распределенные
промежутки времени с параметром , а обслуживаются за независимые показательно
распределенные промежутки времени с параметром . Назовем  интенсивностью
поступления и  интенсивностью обслуживания, обозначим =1/ – среднее время между
поступлениями, =1/ – среднее время обслуживания.
Величина =/=/ называется загрузкой системы.
Если 1, то длина очереди со временем стремится к бесконечности.
Если 0<<1, то существует стационарный режим (предельное распределение).
Будем нумеровать состояния цепи Маркова по числу требований, находящихся в
системе. В данном случае пространство состояний счетно: S={0, 1, 2, …}. Тогда отличны от
нуля только интенсивности
i , i 1   , i  0; i ,i 1   , i  1 ,
откуда получаем бесконечную матрицу
   0 0 ... 
 
   (   )  0 ...

0   (   )  ...
 
 ... ... ... ... ... 

и бесконечную систему уравнений
  0   1  0,
 j 1  (   ) j   j 1  0, j  1,
откуда
 1    0    0 ;
 2  (   ) 1   0  (   )  0   0   0 ,  2   2 0 ,
...
 j   j 0 ,
j  1.
Используем условие нормировки:
 
0
 j   0   j 
j 1 j 0 1 
 1,

откуда
 0  1   ,  j   j (1   ) .
Найдем среднюю длину очереди.
При числе требований j<2 очереди нет, при j2 длина очереди равна j1.
Используем тот факт, что при |x|<1 верно

6
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

   
k 1   k k 1  1  1

k 0
x  ,   x    kx  
1  x  k 1  k 1
 
 1  x  (1  x)
2
.

Получаем
 
L   ( j  1) j   ( j  1)  j (1   ) 
j 2 j 2
.

k 1 2 1  
2 k 1 2
 (1   ) k   (1   ) k   
k 1 k 1 (1   ) 2 1  
Вероятность того, что длина очереди больше m, равна
 
j
vm   j   (1   )   m  2 .
j m 2 j m 2

Задача 4. В однолинейной системе среднее время между поступлениями требований


составляет 5 минут. Сколько в среднем времени должно занимать обслуживание требования,
чтобы: а) средняя длина очереди не превышала 4 заявок? б) вероятность очереди из более
чем 4 заявок не превышала 10%?
Решение. По условию задачи =5.
а) Из условия
2
L 4
1 
следует квадратичное неравенство
 2  4  4  0 ,
решая которое, получаем   8  2  0,828 , откуда =4,14 (мин).
б) Из условия v4   6  0,1 получаем   0,11 6  0,681 , откуда = 3,41 (мин).
Пример 43. В систему из n обслуживающих приборов поступает поток требований с
интенсивностью . Среднее время обслуживания равно  единиц времени. Если при
поступлении требования все приборы заняты, оно становится в очередь.
Состояния будем нумеровать по числу требований, находящихся в системе (как в
очереди, так и на обслуживании). Пространство состояний S={0, 1, 2, …} счетно.
Определим интенсивность обслуживания =1/ и загрузку системы =/=. Если
n, то очередь растет до бесконечности, если же <n, то система выходит на стационарный
режим.
Интенсивности переходов имеют вид:
 , j  i 1
ij  
min(i, n)  , j  i  1, i  0
Для данной системы рассчитаны, в частности, следующие показатели:
1) вероятность того, что все приборы свободны
1
 n 1  k n 
 0     ;
 k 0 k! n!(1   n) 
2) вероятность того, что в системе находится ровно k требований
k k
k   0 при 1kn;  k 
 0 при k>n;
k! n!n k n
3) вероятность того, что все приборы заняты (число требований в системе n)
n
 n  0;
n!(1   n)
3
Примеры 4 и 5 взяты из книги Экономико-математические методы и прикладные модели / В.В.Федосеев,
А.Н.Гармаш, Д.М. Дайитбегов и др. Под ред. В.В.Федосеева. М.: ЮНИТИ, 1999.

7
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

4) средняя длина очереди


  n  n 1
L  0.
n   n!n(1   n) 2
Пример 5. Бригада из n рабочих обслуживает m станков (n<m). Каждый станок
требует наладки в среднем раз в  единиц времени. Наладка занимает в среднем  единиц
времени. Если все рабочие заняты, наладка станка откладывается (ставится в очередь).
Состояния будем нумеровать по числу требований (т.е. требующих наладки станков).
Пространство состояний S={0, 1, 2, …, m} в данном случае конечно.
Как и ранее, положим =1/, =1/, =/=/.
Интенсивности переходов имеют вид:
(m  i ) , j  i  1, i  m
ij  
min(i, n)  , j  i  1, i  0
Для данной системы рассчитаны, в частности, следующие показатели:
1) вероятность того, что все станки исправны
1
n m! m
m! 
 0    k   k n k  ;
 k 0 k!(m  k )! k  n 1 n n!(m  k )! 
2) вероятность того, что в системе находится ровно k требований
m! m!
k   k  0 при 1kn;  k  k n  k  0 при k>n;
k!(m  k )! n n!(m  k )!
3) средняя длина очереди
m m
(k  n)m!
L   (k  n) k   k  n  k 0 .
k  n 1 k  n 1 n n!(m  k )!

Задачи для самостоятельного решения

1. На производстве используется система приемочного контроля с переменным планом,


где n1=20, n2=10, n3=5. Найти стационарное распределение, если: а) =0,01; б) =0,02.
2. Трудоспособное население (постоянной численности) делится на работающих и
безработных. Вероятность потерять работу в течение месяца составляет 2%, а
вероятность ее найти – 16%. Найти стационарный уровень безработицы. Во сколько раз
сократится доля безработных, если благодаря государственной программе занятости
вероятность найти работу в течение месяца увеличится вдвое?
3. Рабочие города Молотково работают на трех заводах. Вероятности ухода с каждого
завода в течение месяца составляют 1, 6 и 9% соответственно. В случае ухода с одного
завода рабочий переходит на один из двух других равновероятно. Найти стационарное
распределение. Общая численность рабочих предполагается постоянной.
4. Решить задачу о холодильниках (см. задачу 3 в § 9.2) в предположении, что вводится
дополнительное правило: если в магазине остается один холодильник, делается заказ на
еще один.
5. Мебельный магазин торгует шкафами. Случайный спрос на шкафы за неделю имеет
распределение, заданное таблицей:

Спрос 0 1 2
P 0,3 0,6 0,1

Если шкафы заканчиваются, делается заказ на 2 штуки, если остается один – на 1


штуку. Заказы прибывают на следующей неделе. Найти стационарное распределение
числа шкафов в магазине.
8
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

6. В городе Традицино каждый взрослый мужчина имеет одну из трех профессий А, Б и В.


Сыновья сохраняют профессии отцов с вероятностями 3/5, 2/3 и 1/4 соответственно или
выбирают любую из двух других равновероятно. Найти: а) распределение по
профессиям в следующем поколении, если в нынешнем профессию А имело 20%, Б –
30%, В – 50%; б) стационарное распределение по профессиям. Предполагается, что у
каждого отца имеется ровно один сын.
7. Торговец из города Олино ездит продавать товар в города Алино и Валино. Выехав из
Олино, он направляется в Алино с вероятностью 40%, в Валино – с вероятностью 60%.
Продав товар, он возвращается в Олино. Найти стационарное распределение
вероятностей застать предпринимателя в каждом из городов.
8. Решить предыдущую задачу в предположении, что посетив Алино или Валино,
торговец возвращается в Олино с вероятностью 80% или едет в другой из двух городов
(продавать оставшийся товар) с вероятностью 20%.
9. Фирма оценивает недельный объем сбыта как удовлетворительный (1), хороший (2) или
отличный (3). Матрица переходных вероятностей имеет вид:
 0,7 0,2 0,1 
 
а)  0,3 0,6 0,1  ;
 0,1 0,7 0,2 
 
 0,4 0,5 0,1 
 
б)  0,1 0,7 0,2  .
 0,6 0,2 0,2 
 
Найти стационарное распределение объема сбыта фирмы.
10. Продуктивность фермерского хозяйства в каждом году оценивается как хорошая (1),
удовлетворительная (2) или плохая (3). Матрица переходных вероятностей имеет
вид:
 0,3 0,6 0,1 
 
а)  0,1 0,6 0,3  ;
 0,1 0,4 0,5 
 
 0,3 0,5 0,2 
 
б)  0,2 0,6 0,2  .
 0,1 0,5 0,4 
 
Найти стационарное распределение продуктивности хозяйства.
11. В процессе ежемесячного погашения кредита клиент банка может оказаться в одном
из следующих состояний:
(1) ежемесячный платеж погашен в срок в полном объеме;
(2) ежемесячный платеж погашен в полном объеме, но с временной задержкой;
(3) ежемесячный платеж погашен в срок в неполном объеме с переходом остатка
долга на следующий месяц;
(4) ежемесячный платеж погашен с временной задержкой и в неполном объеме с
переходом остатка долга на следующий месяц.
Матрица переходных вероятностей имеет вид:
 0,3 0,4 0,1 0,2 
 
0 0,2 0,5 0,3 
а)  ;
0 0 0,4 0,6 
 
0 0 0 1 
 

9
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

 0,5 0,3 0,2 0 


 
0 0,4 0,4 0,2 
б)  .
0 0 0,3 0,7 
 
0 0 0 1 
 
Вычислить вероятности состояний через три месяца, если в начале клиент находился
в состоянии (1).
12. Машина требует наладки в среднем раз в 2 часа. Наладка занимает в среднем 15
минут. Найти стационарное распределение вероятностей застать машину в рабочем
(1) и нерабочем (0) состоянии.
13. Имеется 2 станка, каждый из которых требует наладки в среднем раз в 2 часа.
Наладка занимает в среднем 10 минут. Найти стационарное распределение числа
работающих станков. Предполагается, что станки требуют наладки и обслуживаются
независимо друг от друга.

14. Машина состоит из трех узлов, каждый из которых отказывает с интенсивностью


=2. Интенсивность восстановления отказавшего узла равна =3. Найти
стационарное распределение числа работающих узлов.
15. Машина состоит из трех узлов. Среднее время безотказной работы каждого узла
составляет 20 часов, а среднее время ремонта узла – 5 часов. Найти среднюю
производительность машины, если при трех работающих узлах она равна 100%, при
двух – 50%, а при одном или менее машина вообще не работает.
16. В ремонтной мастерской имеется 5 мастеров. В течение дня на ремонт поступает в
среднем 10 изделий, а каждый мастер успевает отремонтировать в среднем 2,5
изделия. Предполагая, что мастерская работает в стационарном режиме, найти: а)
вероятность того, что все мастера свободны; б) вероятность того, что все мастера
заняты; в) среднюю длину очереди; г) среднее число мастеров, свободных от работы.
17 В ремонтную мастерскую, где работает три мастера, поступает в среднем 4 заказа в
час. Среднее время выполнения заказа составляет полчаса. Определить среднее число
заказов, ожидающих начала выполнения.
18. Рабочий обслуживает группу из 3 автоматов. Каждый автомат требует обслуживания
в среднем раз в полчаса. Обслуживание занимает в среднем 12 минут. Найти: а)
стационарное распределение числа неисправных автоматов; б) среднее число
автоматов, ожидающих обслуживания; в) среднее число простаивающих автоматов.
19. Двое рабочих обслуживают машину, состоящую из 4 блоков. Каждый блок требует
обслуживания в среднем раз в 2 часа. Обслуживание занимает в среднем 15 минут.
Найти: а) стационарное распределение числа работающих блоков; б) среднюю длину
очереди; в) среднее число занятых рабочих.
20. В кассу обращаются клиенты, в среднем по одному за 10 минут. Сколько в среднем
времени должно занимать обслуживание одного клиента, чтобы средняя длина
очереди в стационарном режиме не превышала: а) 2 человека; б) 5 человек?
21. В конторе три сотрудника, принимающих посетителей в порядке общей очереди. В
среднем обращается по 5 человек в час, обслуживание каждого занимает в среднем
18 минут. Найти: а) вероятность того, что все сотрудники свободны; б) вероятность
того, что все сотрудники заняты; в) среднюю длину очереди.
22. На железнодорожную сортировочную станцию поступает в среднем 2 состава в час.
Обслуживание (расформирование) состава занимает в среднем 20 минут. В парке
прибытия станции имеются два пути, на которых производится обслуживание; если
оба пути заняты, составы ожидают на внешних путях. Найти: a) вероятность того, что
все пути свободны; б) среднюю длину очереди.

10
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Новые задачи (2018)

23. Имеется 4 машины, каждая из которых выходит из строя в среднем раз в 2 часа.
Найти среднее время наладки, при котором вероятность того, что все машины
находятся в рабочем состоянии, составляет не менее 75%. Каждая машина выходит
из строя и обслуживается независимо от других.
24. Имеется 8 машин, каждая из которых выходит из строя в среднем раз в 3 часа. Найти
среднее время наладки, при котором в среднем не менее 7 машин находятся в
рабочем состоянии. Каждая машина выходит из строя и обслуживается независимо
от других.
25. В однолинейной системе среднее время между поступлениями требований составляет
10 минут. Сколько в среднем времени должно занимать обслуживание требования,
чтобы вероятность очереди более чем из 3 заявок составляла не более 10%?

11
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Глава 10. Основные понятия и задачи математической статистики


§ 10.1. Генеральная и выборочная совокупности

Генеральной совокупностью называется множество объектов произвольной


природы, обладающих признаками, доступными для наблюдения и количественного
измерения.
Например, в случае социально-экономических исследований это может быть
население какого-то города, региона или страны, а измеряемыми признаками – доходы,
расходы или объем сбережений отдельно взятого человека. Если какой-то признак имеет
качественный характер (например, пол, национальность, социальное положение, род
деятельности и т.п.), но принадлежит к конечному множеству вариантов, он может быть
также закодирован числом (как это часто делают в анкетах).
Объекты, входящие в генеральную совокупность, называются ее элементами, а их
общее число – ее объемом.
Пусть число элементов генеральной совокупности равно N. Примем каждый из них за
элементарный исход  некоторого вероятностного пространства  и припишем всем
исходам одинаковую вероятность 1/N. Тогда соответствие между объектами и значениями
какого-либо их признака задает случайную величину =(), как функцию на
вероятностном пространстве (согласно аксиоматике А.Н.Колмогорова). Числовые
характеристики введенной формально случайной величины отражают важные свойства
совокупности исследуемых объектов. В частности, ее математическое ожидание M равно
среднему значению признака, а функция распределения F(x)=P(<x) показывает долю
объектов, для которых значение признака меньше x.
Например, в социально-экономических исследованиях нас могут интересовать
средний доход на душу населения, доля людей с доходами меньше прожиточного минимума
и т.п.
Распределение  часто называют распределением генеральной совокупности.
Однако описанным выше способом можно получить только ограниченное дискретное
распределение, в то время как реальные данные часто удобнее описывать неограниченным
и/или непрерывным распределением. В этом случае переходят от конечной совокупности
реальных объектов к абстрактной бесконечной (в том числе, континуальной) генеральной
совокупности, т.е. такому вероятностному пространству , на котором может быть задана
случайная величина  с произвольным распределением. Например, в случае приближения
данных нормальным распределением говорят о нормально распределенной или просто
нормальной генеральной совокупности.
Будем последовательно извлекать из генеральной совокупности ее элементы,
выбирая их случайным образом (наудачу), измерять и записывать значения некоторого
признака для них: х1, х2, …, хn. Эти значения называются наблюдениями (признака), их
набор – выборкой, а число сделанных наблюдений – объемом выборки n. Понятно, что
наблюдения представляют собой случайные величины, в силу случайности нашего выбора
объекта. Они заданы уже на другом вероятностном пространстве – на множестве всех
вариантов выбора n элементов из генеральной совокупности. Полученные данные называют
наблюдениями случайной величины , а также говорят, что случайная величина 
"принимает значения" х1, х2, …, хn.
Основная задача математической статистики – сделать научно обоснованные
выводы о распределении одной или более неизвестных случайных величин или их
взаимосвязи между собой. Выборочным методом называется метод решения этой задачи
посредством анализа выборки, полученной в результате многократных наблюдений.
Для того, чтобы характеристики случайной величины, полученные выборочным
методом, были объективны, необходимо, чтобы выборка была репрезентативной, т.е.

1
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

достаточно хорошо представляла исследуемую величину. В силу закона больших чисел


можно утверждать, что выборка будет репрезентативной, если ее осуществить случайно, т.е.
все объекты генеральной совокупности имеют одинаковую вероятность попасть в выборку.
Для этого существуют различные виды отбора выборки.
1. Простым случайным отбором называется отбор, при котором объекты извлекаются
по одному из всей генеральной совокупности (случайным образом).
2. Механическим называется отбор, при котором генеральную совокупность делят на
столько частей, сколько объектов должно войти в выборку, и из каждой группы
случайным образом отбирают один объект.
3. Серийным называется отбор, при котором объекты из генеральной совокупности
отбираются “сериями”, которые подвергаются сплошному обследованию.
4. Стратифицированный (расслоенный) отбор заключается в том, что исходная
генеральная совокупность объема N подразделяется на подсовокупности (страты) N1,
N2, …, Nk, так что N1+N2+…+Nk=N. Когда страты определены, из каждого из них
извлекается простая случайная выборка объема n1, n2, …, nk. Частным случаем
стратифицированного отбора является типический отбор, при котором объекты
отбирают не из всей генеральной совокупности, а из каждой типической ее части.
5. Комбинированный отбор сочетает в себе сразу несколько видов отбора, образующих
различные фазы выборочного обследования.
Существуют и другие методы организации выборки.
Выборка называется повторной, если отобранный объект перед выбором
следующего возвращается в генеральную совокупность. Выборка называется
бесповторной, если отобранный объект в генеральную совокупность не возвращается. Для
конечной генеральной совокупности случайный отбор без возвращения на каждом шаге
приводит к зависимости отдельных наблюдений, случайный равновозможный выбор с
возвращением – к независимости наблюдений.
На практике обычно имеют дело с бесповторными выборками. Тем не менее, когда
объем генеральной совокупности N во много раз больше, чем объем выборки n (например, в
сотни или тысячи раз), зависимостью наблюдений можно пренебречь.
Таким образом, можно считать, что наблюдения х1, х2, …, хn являются просто
независимыми случайными величинами с одинаковым распределением – тем же, что и у
исходной случайной величины .
Иногда рассматриваются по-разному распределенные наблюдения (например, в
случае неравноточных измерений), а иногда – и зависимые наблюдения, но все эти случаи
оговариваются особо.
Бывают ситуации, когда затруднительно или невозможно описать объекты, чьи
признаки мы наблюдаем. Речь идет об измерении какой-то величины, которая меняет свое
значение случайным образом от одного наблюдения к другому. Это могут быть, например,
колебания в ценах акций, курсах валют, случайные ошибки измерения и т.п. В качестве
"объекта" выступает некоторое стечение обстоятельств, которые, в принципе, могли
сложиться различным образом. В этих случаях, тем не менее, все равно применяют
изложенную выше статистическую модель, хотя "выбор" здесь осуществляется без личного
участия исследователя, какими-то внешними силами.
Как уже было отмечено, случайная величина  имеет определенную функцию
распределения F(х) и другие числовые характеристики, которые будем называть
теоретическими, в отличие от выборочных, которые определяются по наблюдениям.
Ряд наблюдений, упорядоченных по возрастанию, называют вариационным рядом.
Его члены обычно обозначают x(1), x(2), …, x(n). Наименьшее и наибольшее значения
(минимум и максимум) обозначают xmin и xmax и называют их крайними членами

2
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

вариационного ряда. Различные значения признака, появившиеся в процессе наблюдения,


называют вариантами1.
Когда наблюдают дискретную случайную величину, она может принимать одни и те
же значения по много раз. Поэтому для экономии места и времени каждое значение
записывают только один раз, с указанием, сколько всего раз оно появилось. Число ni,
показывающее, сколько раз появилось значение xi в n наблюдениях, называют частотой
данного значения, а отношение wi=ni/n – относительной частотой. Число k различных
значений в n наблюдениях всегда конечно, и kn. Очевидно, имеют место равенства:
k k

n i 1
i  n, w
i 1
i  1 . Результаты можно записать в таблицу:

x1 x2 ... xk
w1 w2 ... wk

В случае непрерывной случайной величины, на практике часто применяют


группировку. Это означает, что весь интервал наблюдаемых значений разбивается на k
частичных интервалов [c0, c1), [c1, c2), … [ck1, ck] равной длины h и затем подсчитываются
числа попаданий наблюдений в эти интервалы, которые принимают за частоты ni (для
некоторой новой, уже дискретной случайной величины). В качестве новых значений вариант
xi обычно берутся середины интервалов (либо в таблице указываются сами интервалы).
Группировка может применяться и в случае дискретных случайных величин, если шаг, с
которым меняются их значения, представляется слишком мелким.
Согласно формуле Стерджеса, рекомендуемое число интервалов разбиения
k1+log2n, а длины частичных интервалов h=(xmaxxmin)/k. Предполагается, что весь интервал
имеет вид [xmin, xmax].
Понятно, что группировка связана с потерей части полезной информации,
заключенной в выборке. Однако она имеет и свои преимущества. Оценим величину
экономии, например, для n=106 наблюдений. Рекомендуемое число интервалов k=21, и
тогда требуется сохранить и обработать лишь 2k=42 числа вместо миллиона.

§ 10.2. Графическое представление статистических рядов

Набор вариант xi (или частичных интервалов) и их относительных частот wi называют


статистическим рядом. Графически статистические ряды могут быть представлены в виде
полигона, гистограммы или графика накопленных частот.
Полигоном частот называют ломаную линию, отрезки которой соединяют точки (x1,
n1), (x2, n2), …, (xk, nk). Полигоном относительных частот называют ломаную, отрезки
которой соединяют точки (x1, w1), (x2, w2), …, (xk, wk). Полигоны обычно служат для
изображения выборки в случае дискретных случайных величин (рис. 10.1).

Рис. 10.1.

1
В единственном числе – вариантА (женского рода).

3
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Задача 1. Построить полигон частот по данному распределению выборки:


хi 2 3 5 6
ni 10 15 5 20

Решение. Отложим на оси абсцисс варианты хi, а на оси ординат – соответствующие


им частоты ni, затем соединим последовательно точки (хi, ni):

Рис.10.2.

Гистограммой относительных частот2 (или просто гистограммой) называется


ступенчатая фигура, состоящая из прямоугольников, основанием которых служат частичные
интервалы длиною h, а высоты равны wi/h. Гистограмма обычно служит для изображения
выборки в случае непрерывных случайных величин. Площадь гистограммы равна единице
(рис. 10.3).
Поэтому гистограмму можно рассматривать как график эмпирической
(выборочной) плотности распределения pn(x). Если у теоретического распределения
существует конечная плотность, то эмпирическая плотность является некоторым
приближением теоретической. В этом и состоит практическая польза гистограммы.
При построении гистограмм в реальных исследованиях следует понимать, что
формула Стерджеса (как и любая другая) для числа интервалов разбиения k дает лишь
рекомендацию, а не строгое правило. Проблема выбора этого числа заключается в
следующем. При слишком малых k гистограмма получается слишком грубой, "смазанной",
плохо отражающей свойства распределения. При слишком больших k гистограмма
становится "колючей", и, в конце концов, распадается на отдельные "иглы" (узкие столбцы)
вперемешку с пустыми интервалами. Оптимальное значение в общем случае неизвестно –
оно зависит как от типа распределения, так и от конкретной выборки. Что касается концов
интервалов и значений вариант, то для человеческого восприятия удобнее, чтобы они
выражались более или менее "круглыми" числами.
Поскольку гистограммы теперь обычно строятся не вручную, а на компьютере,
исследователь легко может варьировать параметры гистограммы (нижнюю и верхнюю
границы интервала, число частичных интервалов), и, в конечном счете, выбрать тот вариант,
при котором, по его мнению, график выглядит лучше всего.
Графиком накопленных частот называется фигура, строящаяся аналогично
гистограмме с той разницей, что для расчета высот прямоугольников берутся не простые, а
i
накопленные относительные частоты, т.е. величины wiC   w j . Эти величины не
j 1

2
На практике гистограммами также называют ступенчатые фигуры с высотами wi (без деления на h).

4
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

убывают, и таким образом, график накопленных частот имеет вид ступенчатой "лестницы"
(от 0 до 1).
График накопленных частот используется для приближения теоретической функции
распределения (рис. 10.4).
Задача 23. Анализируется выборка из 100 малых предприятий региона. Цель
обследования – измерение коэффициента соотношения заемных и собственных средств (хi)
на каждом (i-ом) предприятии. Результаты представлены в таблице 10.1.
Таблица 10.1.

Коэффициенты соотношений заемных и собственных средств предприятий

5,56 5,45 5,48 5,45 5,39 5,37 5,46 5,59 5,61 5,31
5,46 5,61 5,11 5,41 5.31 5,57 5,33 5,11 5,54 5,43
5,34 5,53 5,46 5,41 5,48 5,39 5,11 5,42 5,48 5,49
5,36 5,40 5,45 5,49 5,68 5,51 5,50 5,68 5,21 5,38
5,58 5,47 5,46 5,19 5,60 5,63 5,48 5,27 5,22 5,37
5,33 5,49 5,50 5,54 5,40 5.58 5,42 5,29 5,05 5,79
5,79 5,65 5,70 5,71 5,85 5,44 5,47 5,48 5,47 5,55
5,67 5,71 5,73 5,05 5,35 5,72 5,49 5,61 5,57 5,69
5,54 5,39 5,32 5,21 5,73 5,59 5,38 5,25 5,26 5,81
5,27 5,64 5,20 5,23 5,33 5,37 5,24 5,55 5,60 5,51

Построить гистограмму и график накопленных частот.


Решение. Построим группированный ряд наблюдений:
1. Определим в выборке хmin =5,05 и xmax= 5,85;
2. Разобьем весь диапазон [xmin, xmax] на k равных интервалов: k1+log2100=7,62; k=8,
x  x min 5,85  5,05
отсюда длина интервала h  max   0,1.
k 8
Таблица 10.2.

Сгруппированный ряд наблюдений

Номер Интервалы Середины wi wiC pn(x)


Интервала интервалов
хi
1 5,055,15 5,1 0,05 0,05 0,5
2 5,155,25 5,2 0,08 0,13 0,8
3 5,255,35 5,3 0,12 0,25 1,2
4 5,355,45 5,4 0,20 0,45 2,0
5 5,455,55 5,5 0,26 0,71 2,6
6 5,555,65 5,6 0,15 0,86 1,5
7 5,655,75 5,7 0,10 0,96 1,0
8 5,755,85 5,8 0,04 1,00 0,4

3
Задача взята из книги Айвазян С.А., Мхитарян В.С. Прикладная статистика в задачах и упражнениях. М.:
ЮНИТИ-ДАНА, 2001.

5
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Рис. 10.3.

Рис.10.4.

На рис. 10.3 и 10.4, построенных по данным таблицы 10.1 с помощью


статистического пакета STATISTICA, представлены гистограмма и график накопленных
частот. Кривые соответствуют плотности и функции нормального распределения,
"подобранного" к данным.

6
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

§ 10.3. Эмпирическая функция распределения

Эмпирической функцией распределения (функцией распределения выборки)


называют функцию Fn(x), определяющую для каждого числа х относительную частоту
события <х, т.е. Fn(x)=nx/n, где nx – число наблюдений, меньших х, n – объем выборки.
Иначе говоря, эмпирической функцией распределения называют функцию, определяющую
для каждого числа х долю из n наблюдений, меньших x. Из определения следует, что
значения эмпирической функции распределения при каждом x являются случайными
величинами. В отличие от эмпирической функции распределения, функцию распределения
F(x) генеральной совокупности называют теоретической функцией распределения.
Эмпирическая функция распределения обладает всеми свойствами обычной функции
распределения (13), а также некоторыми специфическими (45):
1. 0  Fn ( x)  1 .
2. Fn (x) – неубывающая функция.
3. Fn (x) непрерывна слева.
4. Fn ( x)  0 при x  xmin и Fn ( x)  1 при x  xmax .
5. P( lim sup | Fn ( x)  F ( x) | 0)  1 (теорема ГливенкоКантелли)
n   xR

Теорема ГливенкоКантелли описывает равномерную сходимость эмпирической


функции распределения к теоретической с вероятностью единица (см. § 8.2). Доказательство
теоремы ГливенкоКантелли является довольно сложным, поэтому докажем следующий ее
упрощенный вариант (сходимость по вероятности в любой точке).
Теорема 1. При любом >0 верно lim P(|Fn(x)–F(x)| <)=1 для любого x.
n

nx
Доказательство. По определению Fn ( x)  , где nx – число наблюдений, меньших х.
n
Рассмотрим наблюдения как n независимых испытаний Бернулли, в каждом из которых
возможны два исхода: xkx} или xkx}. Вероятности этих событий равны p=P(<x)=F(x) и
q=P(x)=1–F(x) соответственно. Событие xkx} можем называть успехом, тогда nx – число
успехов в n независимых испытаниях Бернулли. Следовательно, математическое ожидание
Мnx=np, и дисперсия Dnx=npq. Отсюда
1 nF ( x )
МFn ( x )  Мn x   F ( x ),
n n
1 nF ( x )(1  F ( x )) F ( x )(1  F ( x ))
DFn ( x )  2 Dn x   .
n n2 n
В силу неравенства Чебышева для любого  верна оценка:
DFn ( x)
P(| Fn ( x)  F ( x) |  )  2
,

поэтому
F ( x)(1  F ( x))
P(| Fn ( x)  F ( x) |  )   , n,
n 2
откуда следует утверждение теоремы.
Смысл теоремы ГливенкоКантелли заключается в том, что при увеличении объема
выборки n у эмпирической функции распределения исчезают свойства случайности, и она
приближается к теоретической функции распределения. Эмпирическая функция
распределения служит оценкой функции распределения генеральной совокупности.
График эмпирической функции распределения есть неубывающая ступенчатая кривая
со скачками равными 1/n в точках вариационного ряда (если значения не совпадают). Если
ni точек вариационного ряда совпадают и равны xi, то скачок в точке xi равен ni/n.

7
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Задача 3. Задана таблица наблюдений случайной величины . Построить


эмпирическую функцию распределения.

xi 2 3 5
ni 75 20 5
wi 0,75 0,2 0,05

Эмпирическая функция распределения имеет вид (рис. 10.5):


0, x  2,
0,75, 2  x  3,

Fn ( x)  
0,95, 3  x  5,
1, x  5.

Рис.10.5.

Задача 4. Построить гистограмму относительных частот по наблюдениям:

Номер интервала i Частичный интервал Число наблюдений,


попавших в интервал, ni
1 1015 2
2 1520 4
3 2025 8
4 2530 4
5 3035 2

Решение: Найдем относительные частоты и плотности относительных частот:

Частоты wi Плотности относительных частот wi/h


w1 = n1/n = 2/20 = 0,1 w1/h = 0,1/5 = 0,02
w2 = n2/n = 4/20 = 0,2 w2/h = 0,2/5 = 0,04
w3 = n3/n = 8/20 = 0,4 w3/h = 0,4/5 = 0,08
w4 = n4/n = 4/20 = 0,2 w4/h = 0,2/5 = 0,04
w5 = n5/n = 2/20 = 0,1 w5/h = 0,1/5 = 0,02

Построим на оси абсцисс частичные интервалы h=5, затем проведем параллельно им


отрезки, отстоящие от оси Oх на соответствующие значения плотности относительной
частоты.
8
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Рис. 10.6.

Задачи для самостоятельного решения

1. Сколько частичных интервалов можно порекомендовать в случае объема выборки:


а) n=200; б) n=500?
2. Построить полигон частот по данному распределению выборки:

хi 15 20 25 30 35
ni 10 15 30 20 25

3. В таблице представлены данные по числу крупных сделок на фондовой бирже за квартал для
400 инвесторов.

xi 0 1 2 3 4 5 6 7 8 9 10
ni 146 97 73 34 23 10 6 3 4 2 2

Построить полигон относительных частот.


4. Построить гистограмму относительных частот по данному распределению выборки:

Номер интервала i Частичный интервал Число наблюдений,


попавших в интервал, ni
1 35 4
2 57 6
3 79 20
4 911 40
5 1113 20
6 1315 4
7 1517 6

5. Построить гистограмму относительных частот по данному распределению выборки:

Номер интервала i Частичный интервал Число наблюдений,


попавших в интервал, ni
1 25 6
2 58 10
3 811 4
4 1114 5

9
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

6. Построить полигон относительных частот по таблице наблюдений:

хi 2 4 5 7 10
wi 0,15 0,2 0,1 0,1 0,45

7. Для изучения распределения заработной платы работников определенной отрасли


обследовано 100 человек. Результаты представлены в следующей таблице:

Зарплата в долларах Число человек Зарплата в долларах Число человек


190192 1 200202 19
192194 5 202204 11
194196 9 204206 4
196198 22 206208 1
198200 28 208210 0

Построить гистограмму и график накопленных частот.


8. В ОТК были измерены диаметры 300 валиков из партии, изготовленной одним станком-
автоматом. Отклонения измеренных диаметров от номинала (в нм) даны в таблице:

Границы Середина Число Границы Середина Число


отклонений интервала валиков отклонений интервала валиков
30… 25 27,5 3 05 2,5 55
25… 20 22,5 8 510 7,5 30
20… 15 17,5 15 1015 12,5 25
15… 10 12,5 35 1520 17,5 14
10… 5 7,5 40 2025 22,5 8
5 … 0 2,5 60 2530 27,5 7

Построить гистограмму и график накопленных частот.


9. В таблице представлены данные о месячных доходах жителей региона (в тыс. руб.) по
выборке из 1000 жителей:

xi Менее 5 510 1015 1520 2025 Свыше 25


ni 58 96 239 328 147 132

Построить гистограмму и график накопленных частот.


Указание. В качестве верхней границы последнего интервала использовать 30 тыс. руб.
10. В таблице представлены данные об удое 100 коров на молочной фирме за лактационный
период ( в центнерах):

xi 46 68 810 1012 1214 1416 1618 1820 2022 2224 2426
ni 1 3 6 11 15 20 14 12 10 6 2

Построить гистограмму и график накопленных частот.


11. Проведено исследование посещаемости популярного Интернет-сайта. В течение многих
часов регистрируется число посетителей, посетивших сайт в течение данного часа.
Результаты исследования представлены в таблице:

10
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Число посетителей Часов Число посетителей Часов


0 57 7 139
1 203 8 45
2 383 9 27
3 525 10 10
4 532 11 4
5 408 12 1
6 273 14 1

Построить полигон относительных частот.


12. Проведено исследование посещаемости популярного Интернет-сайта. В течение многих
часов регистрируется число посетителей, посетивших сайт в течение данного часа.
Результаты исследования представлены в таблице:

Число посетителей Часов Число посетителей Часов


0 12 7 103
1 108 8 24
2 316 9 13
3 551 10 2
4 632 11 0
5 492 12 0
6 273 14 0

Построить полигон относительных частот.


13. Построить гистограмму и график накопленных частот по данному распределению выборки:

Номер интервала i Частичный интервал Число наблюдений,


попавших в интервал, ni
1 27 5
2 712 10
3 1217 25
4 1722 7
5 2227 5

14. Результаты исследования прочности 200 образцов материала на сжатие представлены в виде
интервального статистического ряда:

Номер интервала i Частичный интервал Число наблюдений,


попавших в интервал, ni
1 190200 10
2 200210 26
3 210220 58
4 220230 64
5 230240 30
6 240250 14

Построить гистограмму и график накопленных частот.

11
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

15. Построить гистограмму и график накопленных частот по данному распределению выборки:

Номер интервала i Частичный интервал Число наблюдений,


попавших в интервал, ni
1 1015 2
2 1520 4
3 2025 8
4 2530 5
5 3035 3

16. Пассажир, приходящий в случайные моменты времени на автобусную остановку, в течение 5


поездок фиксировал свое время ожидания автобуса: 5,1; 3,7; 1,2; 9,2; 4,8 (мин). Найти
эмпирическую функцию распределения и построить ее график.
17. При измерении веса 10 шоколадных батончиков (в граммах) получены значения: 49,1; 50,0;
49,7; 50,5; 48,1; 50,3; 49,7; 51,6; 48,1; 50,1. Найти эмпирическую функцию распределения и
построить ее график.

12
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Глава 11. Точечные оценки параметров распределения

§ 11.1. Выборочные характеристики и точечные оценки

Выборочными характеристиками называются функции от наблюдений,


приближенно оценивающие соответствующие числовые характеристики случайной
величины. В случае равноточных измерений в качестве оценок математического ожидания,
дисперсии, начальных и центральных моментов используются следующие выборочные
характеристики:
1 n
1. выборочное среднее – x   xi ;
n i 1
1 n 1 n
2. выборочные дисперсии – ˆ 2   ( xi  x ) 2 ; s 2   ( xi  x ) 2 ;
n i 1 n  1 i 1
1 n
3. выборочные начальные моменты k-го порядка – ˆ k   xik ;
n i 1
1 n
4. выборочные центральные моменты k-го порядка – ˆ k   ( xi  x ) k .
n i 1
В качестве других используемых на практике выборочных характеристик можно
назвать выборочную моду xmod, равную значению варианты с наибольшей частотой, и
выборочную медиану xmed, равную значению, стоящему в середине вариационного ряда
(либо полусумме двух значений, с номерами k и k+1, при четном числе наблюдений n=2k).
При группировке данных в таблицы для расчета выборочных характеристик обычно
используются середины интервалов1 (см. § 10.1).
Иногда используются такие числовые характеристики распределения, как:
- коэффициент вариации V   M ,
- коэффициент асимметрии    3  3 ,
- коэффициент эксцесса    4  4  3 .
Им также можно поставить в соответствие выборочные характеристики2:
- выборочный коэффициент вариации Vˆ  s x ,
- выборочный коэффициент асимметрии ˆ  ˆ s 3 , 3
4
- выборочный коэффициент эксцесса ˆ  ˆ 4 s  3 .
Все эти характеристики не совпадают с соответствующими характеристиками
генеральной совокупности, поскольку являются случайными величинами. Распределение
указанных случайных величин однозначно определяется распределением генеральной
совокупности.
Заметим также, что вычисление выборочных характеристик для какого-либо набора
полученных в исследовании данных может быть полезно даже без предположения, что
наблюдения представляют собой независимые и одинаково распределенные случайные
величины.
Точечными оценками параметров распределения называются функции от
наблюдений, предназначенные для приближенного оценивания этих параметров. Если
распределение параметризуется какими-то числовыми характеристиками (например,
нормальное распределение однозначно задается своими математическим ожиданием и

1
При расчете выборочной дисперсии в этом случае иногда делают поправку Шеппарда, вычитая из нее h2/12,
где h  длина интервала разбиения. Далее эта поправка не используется, для простоты изложения.
2
На практике коэффициенты асимметрии и эксцесса часто оцениваются по более сложным, но более точным
формулам (в пределе дающим тот же ответ).

1
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

дисперсией), то соответствующие выборочные характеристики являются их точечными


оценками.
Чтобы статистические оценки давали "хорошие" приближения оцениваемых
параметров, они должны удовлетворять определенным требованиям. Эти требования
заключаются в том, что оценка должна быть состоятельной, несмещенной и эффективной.
Оценка ˆn называется состоятельной, если при неограниченном увеличении
выборки она сходится по вероятности к оцениваемому параметру:
lim P(| ˆn   |  )  1
n 

для любого >0.


Свойство состоятельности – асимптотическое свойство, оно может проявляться и при
столь больших объемах выборки, которых на практике не встречается.
Оценка ˆn называется несмещенной (оценкой без систематической ошибки), если ее
математическое ожидание при любом n равно оцениваемому параметру:
Mˆn   .
Несмещенность оценки характеризует ее "доасимптотические" свойства, т.е.
является показателем ее "хороших" свойств при любом конечном объеме выборки.
Оценка называется эффективной (в некотором классе оценок), если она имеет
минимальную дисперсию в определенном классе оценок.

Задача 1. Найти выборочное среднее по выборке объема n=20:

xi 2560 2600 2620 2650 2700


ni 2 3 10 4 1

Решение. Для упрощения расчетов перейдем к условным вариантам ui = xi – 2620:


ui 60 20 0 30 80
ni 2 3 10 4 1

Тогда u  [2(60) +3(20) +100+304+180]/20=1 и x  2620+ u =2621.


Замечание. В качестве числа, которое вычитается при переходе к условным
вариантам (условный нуль), обычно выбирается или варианта, стоящая в середине ряда, или
та, для которой частота максимальна (выборочная мода). В данном примере они совпадают.

§ 11.2. Статистическая устойчивость основных выборочных характеристик

На практике важно знать, насколько выборочные характеристики отличаются от


истинных значений характеристик генеральной совокупности.
Пусть  имеет характеристики М=а, D=2, Мk=k, М(–М)k=k, F(x)=Р(<х).
Соответствующими выборочными характеристиками будут x , ̂ 2 , s2, ̂ k , ̂ k , Fn(x).
Докажем, что x является несмещенной и состоятельной оценкой математического
ожидания. При этом воспользуемся неравенством Чебышева (см. § 8.1):
D
P (|   M |  )  2 ,

справедливым для любой случайной величины  (имеющей математическое ожидание и
дисперсию) и любого фиксированного >.
Вычислим математическое ожидание и дисперсию выборочного среднего:

2
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

1 n  1 n na
Mx  М   xi    Мxi  a,
 n i 1  n i 1 n
так как Мхi=М, т.е. выборочное среднее является несмещенной оценкой математического
ожидания, и
1 n  1 n n 2  2
Dx  D  xi   2  Dxi  2   0, n   ,
 n i 1  n i 1 n n
так как Dхi=D.
Отсюда в силу неравенства Чебышева для любого фиксированного >0
Dx  2
P(| x  a |  )  2  2  0, n   .
 n
Итак, выборочное среднее (среднее арифметическое выборки) x сходится по
вероятности к математическому ожиданию случайной величины, т.е. является
состоятельной оценкой математического ожидания.
Аналогично доказывается состоятельность оценок начальных моментов ̂ k любого
порядка.
Вычислим математическое ожидание выборочных начальных моментов:
1 n  1 n n k
Мˆ k  М   xik    Мxik   k .
 n i1  n i1 n
Следовательно, выборочные начальные моменты являются несмещенными оценками
теоретических начальных моментов. Очевидно, что для любого k справедливо равенство
D k  M 2 k  ( M k ) 2   2 k   k2 .
Учитывая, что хi – независимые случайные величины, получим соотношение
1 n k 1 n k 1 k  2 k   k2
Dˆ k  D  xi   2  Dxi  D   0, n   ,
 n i 1  n i 1 n n
что является достаточным условием для сходимости по вероятности. Действительно, в силу
неравенства Чебышева для любого фиксированного >0
Dˆ  2
P(| ˆ k   k |  )  2 k  2 k 2 k  0, n   ,
 n
т.е. выборочный начальный момент ̂ k k-го порядка является состоятельной оценкой
начального момента  k генеральной совокупности.
Заметим, что в обоих случаях для доказательства состоятельности можно было бы
также сослаться на закон больших чисел (см. § 8.2, теорема 4) и усиленный закон больших
чисел (см. § 8.2, теорема 6). Последний даже не требует существования дисперсий.
Покажем теперь, что выборочная дисперсия
1 n
ˆ 2   ( xi  x) 2
n i 1
является смещенной оценкой дисперсии D=2 генеральной совокупности.
Лемма 1. Для любого числа b выборочную дисперсию можно записать в виде
1 n
ˆ 2   ( xi  b) 2  ( x  b) 2 .
n i 1
Доказательство. Используем следующую цепочку равенств:

3
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5


1 n 1 n 1 n
2   i ( x  x ) 2
  i [( x  b )  ( x  b )]2
 [( xi  b)2  2( xi  b)( x  b)  ( x  b)2 ] 
n i 1 n i 1 n i 1
1 n 2( x  b ) n 1 n
  ( xi  b) 2   ( xi  b)   ( x  b) 2 
n i 1 n i 1 n i 1
1 n x b n 
  ( xi  b) 2   2 xi  2nb n x  nb  
n i 1 n  i 1 
1 n 2 x b n n

 
n i 1
( xi  b )   2 
n  i 1
xi  nb  
i 1
xi  

1 n 2 1 n  1 n
  ( xi  b )  ( x  b )  xi  b    ( xi  b) 2  ( x  b) 2 .
n i 1  n i 1  n i 1
Следствие 1. Если М=а есть среднее генеральной совокупности, то
1 n
 ̂ 2 
( xi  a ) 2  ( x  a ) 2 .
n i 1
Вычислим математическое ожидание выборочной дисперсии:
1 n  1 n
Mˆ 2  M   ( xi  a) 2   M ( x  a) 2   M ( xi  a) 2  D x 
 n i 1  n i 1
n 2  2 n  1 2
    .
n n n
Отсюда следует, что ˆ 2 является смещенной оценкой дисперсии.
Несмещенной оценкой дисперсии будет
1 n
s2   ( xi  x ) 2 ,
n  1 i 1
поскольку
 n ˆ2 n n n 1 2
Ms 2  M    Mˆ 2     2.
 n 1  n 1 n 1 n
Поэтому оценку ˆ 2 (при получении которой сумма квадратов делится на n) называют
смещенной или неисправленной выборочной дисперсией, а оценку s2 (при получении
которой сумма делится на n–1) называют несмещенной или исправленной выборочной
дисперсией. Выборочным средним квадратическим отклонением (исправленным или
неисправленным) называют положительный корень из соответствующей выборочной
дисперсии. Эта оценка теоретического среднего квадратического отклонения   D , к
сожалению, в обоих случаях является смещенной. Далее по умолчанию будем иметь в виду
исправленные оценки.
Обычный закон больших чисел не применим к центрированным величинам, так как
после центрирования они становятся зависимыми. Однако с помощью теоремы Слуцкого
можно доказать, например, что выборочная дисперсия сходится по вероятности к
теоретической дисперсии, если последняя существует.
Теорема 1 (Слуцкого). Пусть функция f(x,y) непрерывна в точке (а,b) и случайные
последовательности Xn и Yn сходятся по вероятности соответственно к числам a и b.
Тогда f(Xn,Yn) сходится по вероятности к f(a,b).
Доказательство. Если f(x,y) непрерывна в точке (a,b), то для любого  >0 существует
 такое, что при |xa|< и |yb|< выполняется неравенство | f ( x, y )  f (a, b) |  . Тогда,
если | f ( x, y )  f (a, b) |  , то справедливо хотя бы одно из неравенств: |x–a|≥ или |y–b|≥.
Рассмотрим событие

4
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

{ : | f ( X n , Yn )  f (a, b) |  }  { : | X n  a |  }  { : | Yn  b |  } .
В силу теоремы сложения вероятностей получаем
P( | f ( X n , Yn )  f (a, b) |  )  P({ | X n  a |  }  { | Yn  b |  }) 
 P(| X n  a |  )  P(| Yn  b |  )  P(| X n  a |  , | Yn  b |  ) 
 P(| X n  a |  )  P(| Yn  b |  ),
причем P(| X n  a |  )  0 и P(| Yn  b |  )  0 при n. Следовательно,
lim P( | f ( X n , Yn )  f (a, b) |  )  0
n 
или
р
f ( X n , Yn )  f ( a, b ) .
Понятно, что теорема Слуцкого верна не только в случае функции двух аргументов,
но и обобщается на случай произвольного конечного числа аргументов.
Следствие 2. Выборочные дисперсии s2 и ˆ 2 являются состоятельными оценками
теоретической дисперсии.
Доказательство. Требуется доказать сходимость обеих выборочных дисперсий к
теоретической по вероятности.
Начнем с неисправленной выборочной дисперсии ˆ 2 , которая по лемме 1 может быть
представлена в виде (при b=0):
1 n 1 n
ˆ 2   ( xi  x ) 2   xi2  x 2 .
n i1 n i1
Рассмотрим непрерывную функцию f ( x, y )  x  y 2 , положив
1 n
X n   xi2  M 2 , Yn  x  M , n   ,
n i 1
и применим теорему Слуцкого:
р
ˆ 2  f ( X n , Yn )  f ( M 2 , M )  M 2  ( M ) 2  D .
Далее, поскольку
n n
s2  ˆ 2 и  1, n   ,
n 1 n 1
отсюда следует также
р
s2   D .
Подобным образом доказывается сходимость по вероятности любого выборочного
р
центрального момента к теоретическому центральному моменту: ˆ k    k (конечно, если
последний существует). Действительно, из сходимости по вероятности случайных величин
i(n) к некоторым постоянным числам аi следует, в силу теоремы Слуцкого, сходимость по
вероятности любой непрерывной функции (1(n),2(n),…,k(n)) к ее значению в точке
р р
(а1,а2,…,аk), т.е. , если i(n)  ai, то (1(n),2(n),…,k(n))  (a1,a2,…,ak) при n.
Поскольку все выборочные центральные моменты (а также функции от них –
выборочные коэффициенты асимметрии и эксцесса) являются непрерывными функциями от
наблюдений, то они сходятся по вероятности к соответствующим теоретическим значениям.
Теорема 2. Если ˆn – несмещенная оценка параметра , и ее дисперсия стремится к
нулю: Dˆ  0 при n , то оценка состоятельная.
n

Доказательство. Пусть ˆn – несмещенная оценка параметра , т.е. Mˆn   . Тогда


для любого  > 0 из неравенства Чебышева получаем
Dˆ
P (| ˆn   |  )  2 n .

5
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

По условию Dˆn  0 при n, и, следовательно, при каждом фиксированном 0,


получаем
lim P(| ˆn   |  )  0 .
n
Задача 2. Найти неисправленную выборочную дисперсию по выборке объема n=50:

xi 18,4 18,9 19,3 19,6


ni 5 10 20 15

Решение: Перейдем к условным вариантам ui = 10(xi –19,3). Тогда ˆ 2 (u) =100 ˆ 2 (x) и

ui 9 4 0 3
ni 5 10 20 15

Найдем выборочную дисперсию для новых вариант ui:


2
1 4 1 4  1
ˆ 2 (u) =  n u
i i
2
–   ni ui  = (5(9)2 + 10(4)2 + 2002 +1532) –
n i 1  n i 1  50
1
[ (4540+0+45)]2 = 13,36.
50
Тогда, переходя к первоначальным вариантам хi, получаем:
̂ 2 (x) = ̂ 2 (u)/100 = 13,36/100 = 0,1336.
Задача 3. По выборке объема n=50 найдена смещенная оценка ˆ 2 =9,8 теоретической
дисперсии. Найти несмещенную оценку дисперсии генеральной совокупности.
Решение: Несмещенная оценка дисперсии связана со смещенной следующей
формулой:
n
s2  ˆ 2 =(50/49)9,8=10.
n 1

Помимо параметров и характеристик распределений отдельно взятых случайных


величин, в математической статистике оцениваются и характеристики их зависимости, в том
числе коэффициент корреляции (см. § 5.7). Пусть имеется выборка вида (x1, y1), (x2, y2), …,
(xn, yn) наблюдений случайного вектора (, ). Тогда вводятся выборочная ковариация:
1 n
̂ ( x, y )   ( xi  x)( yi  y )
n i 1
и выборочный коэффициент корреляции:
n

ˆ ( x, y )  (x
i 1
i  x )( yi  y )
ˆ ( x, y )   .
ˆ ( x)ˆ ( y ) n
2
n
2
 (x
i 1
i  x) (y
i 1
i  y)

В силу теоремы Слуцкого они являются состоятельными оценками теоретических


характеристик – ковариации cov(,) и коэффициента корреляции (,), в предположении,
что они существуют.
Выборочный коэффициент корреляции, как и теоретический, может принимать
значения от 1 до +1. По абсолютной величине и знаку корреляции можно судить о степени
зависимости случайных величин (сильной или слабой) и её характере (положительном или
отрицательном).

6
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

§ 11.3. Асимптотически нормальный характер


основных выборочных характеристик

Свойства выборки объема n зависят от распределения генеральной совокупности,


но по мере увеличения n (n) выборочные характеристики начинают вести себя
одинаковым образом независимо от специфики генеральной совокупности. Поэтому
характер поведения выборочных характеристик следует рассматривать в двух случаях: при
фиксированном n (ограниченном объеме выборки) и при n (асимптотические свойства
выборки). При фиксированном n свойства выборок будут различны для разных типов
генеральной совокупности (нормальной, экспоненциальной, равномерной, пуассоновской и
т.д.). В условиях асимптотики (n) общий характер поведения числовых характеристик
практически не зависит от типа анализируемой генеральной совокупности. Введем
следующее определение.
Последовательность случайных величин 1, 2, ..., n, … называется асимптотически
нормальной, если существуют числовые последовательности А1, А2, ... и В1, В2, ... (Вn>0 для
всех n) такие, что
x
   An  1 2
P n  x    ( x)   e t 2 dt , n  ,
 B  2  
 n 
или (в терминах сходимости по распределению, см. § 8.3)
 n  An d
 N (0,1), n   .

Bn
Здесь Ф(х) – функция стандартного нормального распределения. Числа Аn и Bn
называются параметрами асимптотически нормально распределенной случайной величины
n. Утверждение, что случайная последовательность 1, 2, ..., n, … асимптотически
нормальна, записывается в виде

 n  N ( An , Bn ), n   .
Используя введенный термин, центральную предельную теорему (см. § 8.3) можно
сформулировать следующим образом: пусть 1, 2, ..., n, … – независимые одинаково
распределенные случайные величины с конечными моментами первого и второго порядков:

Mi=а; Di=2. Тогда если Sn =1+2+...+n, то Sn  N(na,n2), n.
Теорема 3. Если распределение генеральной совокупности имеет конечные
математическое ожидание a и дисперсию 2, то при n основные выборочные
характеристики являются асимптотически нормальными:
  2 
1. x  N  a,  ;
 n 
2 2   2 4   4 
2. ˆ , s  N   , ;
 n 
  F ( x )(1  F ( x)) 
3. Fn ( x)  N  F ( x), .
 n 
Другими словами, при больших объемах выборки все основные выборочные
характеристики можно считать практически нормально распределенными. Доказательство
проводится с помощью центральной предельной теоремы.

§ 11.4. Эффективность оценок. Неравенство РаоФрешеКрамера


Для одних и тех же параметров распределения существует бесконечно много
различных несмещенных и состоятельных оценок. Поэтому важной задачей является
7
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

сравнение их между собой и поиск наилучшей среди них. Естественным критерием такого
поиска является дисперсия как мера разброса значений случайной величины вокруг его
среднего значения. Наилучшей оценкой является оценка с минимальной дисперсией. Однако
для смещенной оценки ˆn дисперсия служит мерой близости не к оцениваемому параметру
, а к математическому ожиданию этой же оценки Mˆ . Поэтому естественно искать
n
наилучшие оценки с наименьшей дисперсией только среди несмещенных оценок.
Получая ту или иную оценку, нужно иметь возможность определить, обладает ли она
минимальной дисперсией из всех возможных, или нет. С этой целью вводится понятие
эффективности оценки и используется неравенство РаоФрешеКрамера.
Информацией Фишера о неизвестном параметре , содержащейся в одном из
независимых наблюдений случайной величины , называется величина
2
  ln p ( ,  ) 
I ( )  M   ,
  
где в качестве p ( x,  ) берется либо плотность в точке x (для непрерывных случайных
величин), либо вероятность принять значение x (для дискретных случайных величин).
Говорят, что величина I ( ) определяет количество информации Фишера.
Теорема 4 (РаоФрешеКрамера).
Пусть функция плотности р(x,) удовлетворяет следующим условиям регулярности:
1) область Gn={x: р(x,)>0} всех возможных значений случайной величины, для
которых р(x,θ)≠0, не зависит от параметра ;
2) в тождествах
 ˆn ( X ) p( X , )dX  Mˆn и  p( x, )dx  1
Rn R

допустимо дифференцирование по параметру  под знаком интеграла;


3) информация Фишера I() конечна и положительна.
Тогда для произвольной несмещенной оценки ˆn , построенной по выборке объема n,
выполняется неравенство (РаоФрешеКрамера):
1
Dˆn  .
nI ( )
Теорема 4 верна и в дискретном случае, если в условии 2) заменить интегралы на
суммы (по всем возможным значениям случайной величины).
Заметим, что информацию Фишера можно также представить в виде
  ln p ( ,  )    2 ln p( , ) 
I ( )  D  и I ( )   M   ,
     2 
но только если выполнены условия данной теоремы, иначе эти формулы могут дать другие
результаты.
Обозначим правую часть неравенства РаоФрешеКрамера через
1
n  .
nI ( )
Эта величина является нижней гранью всех возможных дисперсий оценок.
Эффективностью несмещенной оценки ˆn называется отношение минимально
возможного значения дисперсии оценки в классе всех несмещенных оценок параметра  к
дисперсии рассматриваемой оценки:
 1
e(ˆn )  n  .
n Dˆ n nI ( ) Dˆ

8
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Из определения следует, что эффективность любой несмещенной оценки (при


условиях теоремы 4) удовлетворяет неравенству 0 e(ˆn ) 1, и чем ближе она к единице, тем
лучше оценка.
Несмещенная оценка ˆn называется эффективной, если e(ˆn ) =1 и неэффективной,
если e(ˆ )  1 .
n
Асимптотической эффективностью оценки называется предел
e0 (ˆ)  lim e(ˆn ) ,
n 
если он существует.
Оценку ˆ называют асимптотически эффективной, если e0 (ˆ) =1.
Кроме того, для асимптотически нормальных оценок понятие асимптотической
эффективности иногда трактуется более широко. А именно, для асимптотически нормальной
оценки

ˆn  N ( , 2 n), n  ,
полагают
1
e0 (ˆ)  .
I ( ) 2
Задача 4. Доказать, что выборочное среднее является эффективной оценкой
математического ожидания нормального распределения, когда дисперсия известна.
Решение. Выпишем функцию плотности для нормального распределения:
( xa)2
1  2
р ( x, a )  e 2
 2
Прологарифмировав ее, получим:
1 ( x  a) 2
ln р( x, a)  ln  ,
 2 2 2
при этом производная будет равна
2
 ln p ( x, a ) 2( x  a ) x  a   ln p ( x, a )  ( x  a) 2
  2 ,    .
a 2 2   a  4
Отсюда найдем информацию Фишера:
2
  ln р ( , a )  1 2 1
I (a)  M    4 M ( x  a)  2 .
 a   
Получаем значение  n   n . С другой стороны, Dx   2 n , так что Dx   n .
2

Таким образом, оценка является эффективной.


Из доказанного следует, что чем больше дисперсия нормальной случайной величины,
тем меньше информации о значении среднего этой величины заключено в одном
наблюдении.
Задача 5. Доказать, что относительная частота успеха в качестве оценки неизвестной
вероятности θ в схеме Бернулли является эффективной оценкой.
Решение. Оценкой неизвестной вероятности является относительная частота успеха
1 n
ˆ   xi ,
n i 1
где хi – успех (1) или неудача (0) в i-ом испытании. Покажем, что оценка несмещенная:
1 1 n
Mˆ  M ( x1  x 2  ...  x n )   Mxi  M   .
n n i 1
Дисперсия имеет вид

9
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

1 n  1 n D  (1   )
Dˆ  D  xi   2  Dxi   .
 n i 1  n i 1 n n
Найдем информацию Фишера, причем в данном случае наблюдаемая величина
принимает всего два значения: 0 и 1 с вероятностями p0 ( )  1   и p1 ( )   .
2 2 2 2
 d ln p0 ( )   d ln p1 ( )   1  1 1
I ( )    p0 ( )    p1 ( )     (1   )      .
 d   d   1     (1   )
Таким образом,
1
e(ˆn )   1,
nI ( ) D(ˆ ) n
значит, оценка является эффективной.
Задача 6. Пусть выборка x1, x2, ..., xn произведена из генеральной совокупности с
равномерным распределением на интервале (0; ). Проверить на эффективность оценку
n 1
ˆ  x max
n
для неизвестного параметра .

Решение. Функция распределения Fmax(x) максимума xmax задается формулой:


n
x
Fmax ( x)  P ( x max  x)  P ( x1  x,..., x n  x)  P ( x1  x)...P ( x n  x)   
 
на отрезке 0х. Отсюда получаем

ˆ n 1 x n1
M  nx n dx   .
n 0 
Значит, оценка ˆ несмещенная. Найдем дисперсию этой оценки:
2 2 
 n  1  n  1 x n 1 (n  1) 2 n 1 (n  1) 2 2
Mˆ 2   2
 Mxmax    nx
2
dx  x dx   ;
n n 0

 n   n  0
n n(n  2)
(n  1) 2 2 (n  1) 2  n(n  2) 2 2
Dˆ  Mˆ 2  ( Mˆ) 2    2    .
n(n  2) n(n  2) n(n  2)
Найдем информацию Фишера:
1
p ( x, )  , x  [0, ];

ln p ( x, )   ln  ;
 ln p ( x, ) 1
 ;
 
2
 1 1
I ( )  M     2 .
  
Получаем
1 2
n   .
nI ( ) n
Видно, что дисперсия оценки ˆn при n убывает как 1 n 2 , в то время как
дисперсия эффективной оценки должна иметь порядок убывания только 1 n . Полученная
оценка оказалась лучше, чем можно было ожидать от эффективной оценки, исходя из
неравенства РаоФрешеКрамера. Разгадка парадокса в том, что для данного семейства

10
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

распределений не выполнены условия теоремы РаоФрешеКрамера. А именно, область


значений случайной величины зависит от параметра .
Подобные оценки называют сверхэффективными.
Задача 7. Проверить на эффективность оценку ˆ  2 x для параметра  равномерного
распределения на отрезке [0, ].
Решение. Для случайной величины  с равномерным распределением на отрезке [0, ]
имеем
 2
M  , D  ,
2 12
откуда для оценки ˆ  2 x получаем
 D  2
Mˆ  2 Mx  2 M  2    , Dˆ  4 Dx  4 
 .
2 n 3n
Величина  n уже была найдена ранее в задаче 6. Получаем
2 
n ; e(ˆ)  n  3  1 .
n Dˆ
Следовательно, оценка сверхэффективна. Ее дисперсия в 3 раза меньше, чем могло бы
быть по теореме Рао-Фреше-Крамера. Здесь не выполняется условие 1 теоремы 4.
Задача 8. Для распределения Парето (см. § 6.4.7) c функцией распределения
0, x  ,
 3
F ( x)     
1   x  , x   ,

ˆ
построить несмещенную оценку вида   cx и проверить ее на эффективность.
Решение. Напомним общие формулы для характеристик распределения Парето с
функцией распределения
0, x ,
 
F ( x)     
1   x  , x   .

Математическое ожидание и дисперсия имеют вид
 
M   , D  2 .
 1 (  1) 2 (  2)
В данном случае =3, поэтому
3 3
M   , D   2 .
2 4
Следовательно, можем взять c=2/3, тогда
2
2 2 2 3 2 4 D 4 3  2  2
Mˆ Mx  M      , Dˆ    Dx       .
3 3 3 2 3 9 n 9 4 n 3n
Найдем информацию Фишера:
3 3
p ( x , )  4 , x   ;
x
ln p ( x, )  ln 3  3 ln   4 ln x;
 ln p ( x, ) 3
 ;
 
2
3 9
I ( )  M    2 .
  
Получаем

11
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

1 2  1
 ; e(ˆ)  n   1 .
n 
nI ( ) 9n Dˆ 3
Следовательно, оценка неэффективная.

§ 11.5. Оценка математического ожидания


по неравноточным наблюдениям

Ранее предполагалось, что все наблюдения равноточны, т.е. имеют одинаковую


дисперсию (и среднее квадратическое отклонение). Однако на практике встречаются и
ситуации неравноточных наблюдений. А именно, пусть выполнено
Mx1= Mx2=… =Mxn=a; Dx1=  12 , Dx2=  22 , …, Dxn=  n2 .
Требуется найти наилучшую (в смысле несмещенности и эффективности) оценку для a.
Классом линейных несмещенных оценок параметра  называется класс оценок вида
ˆn  c1 x1  c2 x2  ...  cn xn ,
для которых Mˆ   .
n
Числовые коэффициенты c1, c2, …, cn называются весами наблюдений.
Из требования несмещенности оценки
n n n
Maˆn  M  ci xi   ci (Mxi )  a  ci  a
i 1 i 1 i 1
n
получаем, что оценка будет несмещенной, только если c
i 1
i  1.

По определению, оценка будет эффективной, если она имеет минимальную


дисперсию. Значит, коэффициенты сi надо определить так, чтобы дисперсия была
n
минимальна, но при условии, что c
i 1
i  1. Вычислим дисперсию Daˆ n :
n n n
Daˆn  D  ci xi =  ci2 ( Dxi ) =  ci2 i2 ,
i 1 i 1 i 1
поскольку случайные величины xi независимы, и дисперсия суммы равна сумме дисперсий.
Обозначим набор коэффициентов c  (c1 , c2 , ..., cn ) .
Задача свелась к нахождению такого набора с, при котором функция
n
f (c )   ci2 i2
i 1
имеет минимум при условии
n
g (c )   ci  1  0 .
i 1
Это задача на условный экстремум, которая может быть решена методом множителей
Лагранжа. Функция Лагранжа имеет вид
L (c )  f ( c )   g ( c ) .
Для нахождения коэффициентов приравниваем нулю производные:
 L 2      
 2c     0 , c  , c  , ci  ,
 c i i  i
2 2  i
2 2 2 2
 i  i  i  i
 n
 n   n   1
 L   g (c)   c  1  0;  c  1;  1   n 1 
i    2 
i 2
 1.   2  2  .
  i 1  i 
 i 1 i 1   i 1  i 

Из этих условий получаем значения для коэффициентов

12
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

1
 i2
ci  n .
1

j 1
2
j

Таким образом, веса наблюдений должны быть обратно пропорциональны их


дисперсиям (менее точные наблюдения, имеющие большую дисперсию, входят с меньшим
весом, более точные – с большим, что вполне логично). В результате, эффективной оценкой
математического ожидания оказывается средневзвешенное значение, имеющее вид
n
1


i 1  i
x
2 i
аn  n ,
1

i 1
2
i
Можно вычислить также дисперсию этой оценки:
2
 1 n
1
n n

 

 2
2 i 1  i
2
1
Daˆn   ci2 i2    n i  i   2
 n .
1  n
1  1
i 1 i 1
  2
  2   2
 j 1  j
  j 1  
 j 
j 1  j

Если дисперсии всех наблюдений равны (т.е. наблюдения равноточные), то


получаем сi=1/n, для любого i =1, 2, …, n, и
1 n
aˆn   xi ,
n i 1
т.е. среднее арифметическое выборки (выборочное среднее) является эффективной оценкой
математического ожидания в классе линейных несмещенных оценок (при любом
распределении, имеющем конечные математическое ожидание и дисперсию).

Задачи для самостоятельного решения

Теоретические задачи

1. Доказать состоятельность выборочного коэффициента вариации при M>0, выборочных


коэффициентов асимметрии и эксцесса.
2. Пусть х1, х2, ..., xn и y1, y2, ..., ym – случайные выборки объемов n и m из нормальной
генеральной совокупности N(а, 2) c исправленными выборочными дисперсиями s x2 , s y2 .
Доказать, что
1
s x2, y  [(n  1) s x2  (m  1) s y2 ]
nm2
является несмещенной оценкой параметра 2.
3. Вывести формулы, связывающую третий и четвертый центральные моменты с начальными
моментами. Построить соответствующие формулы для выборочных моментов и доказать их
состоятельность.
4. Доказать, что если Mˆn   и Dˆn  0 , то ˆn – состоятельная оценка параметра .
5. Доказать, что для показательного распределения с функцией плотности
 1  x
 e , x  0,
р( x, )  
0, x  0,

13
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

выборочное среднее является эффективной оценкой параметра .


6. Доказать, что выборочное среднее является эффективной оценкой параметра  в
k
распределении Пуассона: P (  k )  e  .
k!
7. Доказать, что для распределения Бернулли P (  m)  C Nm p m q N  m оценка pˆ  x N является
эффективной оценкой вероятности p.
8. Доказать, что для геометрического распределения P(  m)  p (1  p) m 1 с параметром p=1/,
>1, выборочное среднее является эффективной оценкой параметра .
9. Доказать, что эмпирическая функция распределения Fn(x) является эффективной оценкой
теоретической функции распределения F(x) при каждом x.
10. Пусть F(x)=exθ, x<. Построить несмещенную оценку ˆ на основе xmах и доказать ее
сверхэффективность.
11. Пусть F(x)=(x/), 0xθ, >0. При известном значении  построить несмещенную оценку ˆ
на основе xmax и доказать ее сверхэффективность.
12. В случае распределения Парето
 0, x 
F ( x)   2
1  ( x /  ) , x  

оценивается параметр . Проверить эффективность оценки  = x /2.

Вычислительные задачи

13. Найти исправленную выборочную дисперсию по выборке объема n=50:

хi 0,1 0,5 0,6 0,8


ni 5 15 20 10

14. В итоге четырех измерений некоторой величины одним прибором (без систематических
ошибок) получены следующие результаты: 8, 9, 11, 12. Найти: а) выборочное среднее
результатов измерений; б) смещенную и исправленную выборочные дисперсии ошибок
прибора.
15. С помощью измерительного прибора, не имеющего систематической ошибки, было сделано
8 независимых измерений некоторой величины:

Номер 1 2 3 4 5 6 7 8
измерения
Значение хi 2504 2486 2525 2495 2515 2528 2492 2494

Найти несмещенные оценки математического ожидания и дисперсии.


16. При измерении веса 20 шоколадных батончиков (с номинальным весом 50 г) получены
следующие значения (в граммах): 49,1; 50,0; 49,7; 50,5; 48,1; 50,3; 49,7; 51,6; 49,8; 50,1; 49,7;
48,8; 51,4; 49,1; 49,6; 50,9; 48,5; 52,0; 50,7; 50,6. Найти выборочное среднее, выборочные
дисперсии, средние квадратические отклонения, выборочную медиану, крайние члены
вариационного ряда.
17. В ОТК были измерены диаметры 300 валиков из партии, изготовленной одним станком-
автоматом. Отклонения измеренных диаметров от номинала (в нм) даны в таблице:

14
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Границы Середина Число Границы Середина Число


отклонений интервала валиков отклонений интервала валиков
30… 25 27,5 3 05 2,5 55
25… 20 22,5 8 510 7,5 30
20… 15 17,5 15 1015 12,5 25
15… 10 12,5 35 1520 17,5 14
10… 5 7,5 40 2025 22,5 8
5 … 0 2,5 60 2530 27,5 7

Найти выборочное среднее, выборочные дисперсии, выборочную моду.


18. В таблице представлены результаты наблюдений случайной величины . Найти выборочное
среднеех, исправленную выборочную дисперсию s2 , выборочное среднее квадратическое
отклонение s.
а)  – число сделок на фондовой бирже за квартал; n=400 (инвесторов):

xi 0 1 2 3 4 5 6 7 8 9 10
ni 146 97 73 34 23 10 6 3 4 2 2

б)  – месячный доход жителя региона (в тыс. руб.)3; n=1000 (жителей):

xi Менее 5 510 1015 1520 2025 Свыше 25


ni 58 96 239 328 147 132

Указание. В качестве верхней границы последнего интервала использовать 30 тыс. руб.


в)  – удой коров на молочной фирме за лактационный период (в центнерах); n=100 (коров):

xi 46 68 810 1012 1214 1416 1618 1820 2022 2224 2426
ni 1 3 6 11 15 20 14 12 10 6 2

19. В таблице приведено распределение 50 рабочих по производительности труда  (единиц за


смену), разделенных на две группы: 30 и 20 человек.

Прошедшие техническое обучение Не прошедшие техническое обучение


(группа I) (группа II)
xi 85 90 95 100 105 85 90 95 100 105
ni 2 5 11 8 4 2 6 8 3 1

Вычислить общие и групповые выборочные средние и дисперсии.


20.4 Для изучения распределения заработной платы работников некоторой отрасли обследовано
100 человек. Результаты представлены в следующей таблице:

Зарплата в долларах Число человек Зарплата в долларах Число человек


190192 1 200202 19
192194 5 202204 11
194196 9 204206 4
196198 22 206208 1
198200 28 208210 0

3
Доходы увеличены в 10 раз.
4
Старые задачи 2022 изменены и перенесены на места 3032. Нумерация с этого места изменена.

15
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Найти несмещенные оценки математического ожидания и дисперсии зарплаты.


21. Производство зерна в России в 19962002 гг. представлено таблицей:

Год 1996 1997 1998 1999 2000 2001 2002


Производство,
млн. тонн 69,3 88,6 47,9 54,7 65,5 85,2 86,6

Найти выборочное среднее, выборочные дисперсии, средние квадратические отклонения,


выборочную медиану, крайние члены вариационного ряда.
22. Производство пшеницы в России и 19952001 гг. представлено таблицей:

Год 1995 1996 1997 1998 1999 2000 2001


Производство,
млн. тонн 30,1 34,9 44,3 27,0 31,0 34,5 47,0

Найти выборочное среднее, выборочные дисперсии, средние квадратические отклонения,


выборочную медиану, крайние члены вариационного ряда.
23. Урожайность зерновых культур в России в 19922001 гг. представлена таблицей:

Год 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001
Урожайность,
ц/га 18,0 17,1 15,3 13,1 14,9 17,8 12,9 14,4 15,6 19,4

Найти выборочное среднее, выборочные дисперсии, средние квадратические отклонения,


выборочную медиану, крайние члены вариационного ряда.
24. Численность населения городов России с числом жителей более 1 млн. человек на 2002 год
представлена таблицей:

Город Население, тыс. человек


Волгоград 1013
Екатеринбург 1293
Казань 1105
Москва 10358
Нижний Новгород 1311
Новосибирск 1426
Омск 1134
Пермь 1000
Ростов-на-Дону 1070
Самара 1158
Санкт-Петербург 4669
Уфа 1042
Челябинск 1078

Найти выборочное среднее, выборочные дисперсии, средние квадратические отклонения,


выборочную медиану, крайние члены вариационного ряда.
25. Решить предыдущую задачу, исключив из выборки Москву и Санкт-Петербург как города
федерального значения.
26. В таблице приведены сгруппированные данные о коэффициентах соотношения заемных и
собственных средств на 100 малых предприятиях региона.

16
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Номер Интервалы Середины Число


интервала интервалов наблюдений
хi ni
1 5,055,15 5,1 5
2 5,155,25 5,2 8
3 5,255,35 5,3 12
4 5,355,45 5,4 20
5 5,455,55 5,5 26
6 5,555,65 5,6 15
7 5,655,75 5,7 10
8 5,755,85 5,8 4

Найти выборочное среднее, выборочные дисперсии, средние квадратические отклонения.


27. Проведено исследование посещаемости популярного Интернет-сайта. В течение многих
часов регистрируется число посетителей, посетивших сайт в течение данного часа.
Результаты исследования представлены в таблице:

Число посетителей Часов Число посетителей Часов


0 57 7 139
1 203 8 45
2 383 9 27
3 525 10 10
4 532 11 4
5 408 12 1
6 273 14 1

Найти выборочное среднее, выборочные дисперсии, средние квадратические отклонения,


выборочную моду.
28. Проведено исследование посещаемости популярного Интернет-сайта. В течение многих
часов регистрируется число посетителей, посетивших сайт в течение данного часа.
Результаты исследования представлены в таблице:

Число посетителей Часов Число посетителей Часов


0 12 7 103
1 108 8 24
2 316 9 13
3 551 10 2
4 632 11 0
5 492 12 0
6 273 14 0

Найти выборочное среднее, выборочные дисперсии, средние квадратические отклонения,


выборочную моду.
29. Ниже приведены результаты измерения роста (в cантиметрах) случайно отобранных 100
студентов:

Рост 154158 158162 162166 166170 170174 174178 178182


Число 10 14 26 28 12 8 2
студентов

17
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Найти выборочное среднее, выборочные дисперсии, выборочную моду.


30. Расстояние до цели (на местности) определено двумя способами. Точность первого способа
описывается средним квадратическим отклонением 1=30 м, результат измерения x1=1480 м;
точность второго – средним квадратическим отклонением 2=40 м, результат измерения
х2=1560 м. Определить приближенное значение расстояния до цели и оценить его точность.
31. Некоторая величина измерена четырьмя способами, дисперсии которых  12  1,6,  22  2,
 32  2,5,  42  3. Результаты измерений: х1=19, х2=18, х3=20, х4=21. Найти наиболее точную
оценку величины и оценить ее точность (среднее квадратическое отклонение).
32. При измерении некоторого показателя первым прибором в результате n1=8 наблюдений
установлено среднее значение x1 =10. При измерении вторым прибором (такой же точности)
в результате n2=16 наблюдений – x 2 =12. Найти наиболее точную оценку по измерениям двух
приборов.
33. Трое исследователей провели независимые выборочные обследования доходов населения.
Первый обследовал 10 семей и определил средний годовой доход 2400 у.е., второй – 25
семей и 2350 у.е., третий – 15 семей и 2450 у.е. Построить наиболее точную оценку среднего
годового дохода.
34. Трое исследователей провели независимые выборочные обследования доходов населения.
Первый определил средний годовой доход 3200 у.е. cо средним квадратическим
отклонением 1=100 у.е., второй – 2900 у.е. с 2=50 у.е., третий – 3000 у.е. с 3=40 у.е.
Построить наиболее точную оценку среднего годового дохода и найти ее среднее
квадратическое отклонение.
35. Трое исследователей провели независимые выборочные обследования доходов населения.
Первый определил средний годовой доход 3200 у.е. cо средним квадратическим
отклонением 1=200 у.е., второй – 2990 у.е. с 2=100 у.е., третий – 3070 у.е. с 3=50 у.е.
Построить наиболее точную оценку среднего годового дохода и найти ее среднее
квадратическое отклонение.

18
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Глава 12. Функции и распределения


в математической статистике

§ 12.1. Бета- и гамма-функции

Бета-функцией или интегралом Эйлера первого рода называется интеграл вида


1
(a, b)   x a 1 (1  x)b 1 dx,
0
где параметры a>0, b>0.
Введенный интеграл сходится для любых положительных значений параметров.
Свойства бета-функции следующие:
1. B(а,b)=B(b,а).
b 1
2. (a, b)  (a, b  1) , B(1,1)=1.
a  b 1
(n  1)!(m  1)!
Отсюда, в частности, следует, что (m, n)  .
(n  m  1)!

y a 1
3. (a, b)   dy .
0
(1  y ) a  b

y a 1 
В частности, (a,1  a)   dy  .
0
1 y sin a
Гамма-функцией или интегралом Эйлера второго рода называется функция вида

( )   x  1e  x dx ,
0

где интеграл сходится для любого значения параметра 0.


Свойства гамма-функции следующие:
1. Г(а+1)=аГ(а), откуда следует (a  n)  (a  n  1)(a  n  2)...(a  1)a(a ) .
2. Г(1)=1.
3. Г(n)=(n1)!, если n  N.
4. Г(1/2)=  .
(a)(b)
5. (a, b)  – формула связи гамма- и бета- функций.
 ( a  b)

6. ( a )(1  a )  (формула дополнения).
sin a
x
 x
7. Г(x+1)   2x , x (формула Стирлинга).
e

Докажем свойства 14:


1) Вычислим интеграл

(  1)   x e  x dx ,
0
интегрируя по частям. Получим
 
(  1)   x e dx   x e |0   x 1e  x dx  ( ) .
 x  x 

0 0
2) Очевидно,

1
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5


(1)   e  x dx  1 .
0
3) Применим принцип математической индукции. Утверждение верно для n=1 (по
свойству 2). Пусть оно выполнено для n=k: Г(k)=(k–1)! Тогда по свойству 1 получаем
Г(k+1)=kГ(k)=k(k–1)!=k!, так что оно выполнено и для n=k+1.
4) Вычислим интеграл методом замены переменной (y=x1/2):
  
1 / 2  x y2 2
(1 / 2)   x e dx  2 e dy   e  y dy   (интеграл Эйлера-Пуассона).
0 0 
Поскольку гамма-функция не выражается через элементарные функции, ее значения
табулированы. Обычно в таблицах представлены значения Г(x) для 1x2, и этого
достаточно для вычисления функции при любых x>0 (с помощью свойства 1).
Гамма-функция стремится к бесконечности при x0 и при x+.
На рис. 12.1 представлен график гамма-функции на отрезке [0,01; 5].

Рис. 12.1.

Примеры:
1 1 
1. Г(3/2)=Г(1+1/2)=    .
2 2 2
2. Г(4,7)=3,72,71,7Г(1,7)=3,72,71,70,9086=15,43.
3. Г(0,7)=Г(1,7)/0,7=1,298.
4. Пользуясь свойствами гамма-функции, можем вычислить:

5 3 3 1 1 1 1


1 3         
1
5 3 2 2 2 2 2 2 2
 ,    x (1  x) dx      
2 2

2 2 0 5 3  ( 4)
  
2 2
3 
 3
 .
3!2 16
2
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Задача 1 . Доказать формулу, связывающую бета и гамма-функции:


(a )(b)
B ( a, b )  .
 ( a  b)
Решение. Преобразуем гамма-функцию, сделав в интегральном выражении для Г()
замену х=ty, тогда
  
 1  x  1  1  ty   1  ty
( )  x e dx   t y e tdy  t y e dy.
0 0 0
Отсюда

( )  1  ty
t
 y
0
e dy.

Заменим в полученном равенстве t на t+1 и подставим а+b вместо . Получим



( a  b)
 y ( a  b ) 1e  (1 t ) y dy.
(1  t ) a  b 0
Умножив это равенство на tа-1 и проинтегрировав по t от 0 до +, получим следующее
выражение:
 
t a 1 a 1
  ( a  b ) 1  (1 t ) y 
 ( a  b)   ab
dt   t   y e dy dt .
0
(1  t ) 0 0 
С другой стороны, этим же выражением описывается произведение (a  b)(a, b) в
силу свойства 3 бета-функции. Меняя порядок интегрирования, получаем

   
 (a )
(a  b)(a, b)   y ( a  b ) 1e  y   t a 1e ty dt dy   y ( a  b ) 1e  y a dy 
0 0  0
y

 (a )  y b 1e  y dy  (a )(b).
0

Задача 2. Вычислить интегралы:


  х  1
е 1
x 1
1. 0 х dx  0 e dx   2    .
x 2

 
4 x 51  x
2.  x e dx 
0
x
0
e dx  (5)  4! 24.

1 1
3 2 4 1 (4)(3) 3!2! 1
3.  x (1  x) dx   x (1  x)31 dx  B(4,3)    .
0 0
 (7 ) 6! 60
7 3 5 3 1 1 1 1
1 5 1          
2 2 7 3  2   2  2 2 2  2  2  2  5
4. 0 x (1  x) dx   2 , 2   (5)   .
4! 128
5.
2 5 1 5 5 1 5
4
3 3 3
 х 2 (2  x) dx  x  2 y, dx  2dy   (2 y ) 2 (2  2 y) 2dy  2 2
0 0
 y 2 (1  y) dy 
0
13
7 5 3 1 1 23 2
13  (4) 132  3!   2
7 
2 2
  2 2 2 2 2
   2 2048 2
 2 B ,4   2   .
2  7  13 11 9 7 5 3 1  1  13  11  3  7 3003
  4   
2  2 2 2 2 2 2 2 2
3
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

9 5
Задача 3. Найти В ,  .
2 2
Решение.
7 5 3 1 1 3 1 1
         2
9 5 9 5  9 5  2 2 2 2  2 2 2  2  7 53 7
B  ,              .
2 2 2 2 2 2 7  6!2 6
1024

§ 12.2. Квантили, процентные и критические точки

Квантилью уровня р или р-квантилью непрерывной случайной величины  с


функцией распределения F(x) называется такое возможное значение xp этой случайной
величины, для которого вероятность события <xp равна заданной величине р: P(<xp)=p,
0<p<1, т.е. xp есть решение уравнения F(xp)=p, 0<p<1. Если функция распределения строго
возрастает, это решение единственно. Если оно не единственно, то выбирается наименьшее
из множества решений (когда функция впервые достигает уровня p).
Геометрически xp есть такое значение случайной величины , при котором площадь
криволинейной трапеции, ограниченная графиком плотности распределения и осью абсцисс
и лежащая левее хр равна р (рис. 12.2).

Pис. 12.2

Процентной точкой уровня q или q%-ной точкой (при 0q100) для непрерывной
случайной величины  с функцией распределения F(x) называется такое значение vq
случайной величины, что вероятность события vq равна q/100, т.е. 1–F(vq)=P(vq)=q/100.
Геометрически q%-ная точка – это значение случайной величины, при котором
площадь криволинейной трапеции, ограниченной графиком плотности распределения, осью
абсцисс и лежащая правее vq, равна q/100.
На рис. 12.3 показана квантиль уровня 0,8 (она же 20%-ная точка) для стандартного
нормального распределения (на графиках плотности и функции распределения).

4
© А.В.Лебедев, Л.Н.Фадеева, 2018 ISBN 978-5-600-02149-5

Рис. 12.3.

К понятию процентной точки близко понятие критической точки, широко


используемое в задачах проверки гипотез. Критические точки для заданного распределения
определяют границы, за пределы которых случайная величина выходит достаточно редко.
Например, если интересуют большие положительные значения случайной величины , тогда
критическая точка tкр может быть определена из условия Р(>tкр)=, где  мало. Если же
интересуют значения, большие по абсолютной величине (как положительные, так и
отрицательные), то можно определить критическую точку из условия P(||>tкр)=. Если
распределение симметрично относительно нуля, то последнее условие оказывается
эквивалентно Р(>tкр)=/2.
Конкретные значения критических точек для различных распределений и уровней
значимости  можно найти в соответствующих таблицах (см. приложение Т).

Переходя теперь к изучению распределений, следует отметить, что в математической


статистике для простоты часто обозначают распределение и случайную величину с