Вы находитесь на странице: 1из 249

Дмитрий Письменный

Конспект лекций
по теории
...
вероятностеи
...
и математическои

статистике
Высшее образование

МОСКВА

~~ АЙРИС ПРЕСС
2004
УДК 519.2(075.8)
ББК 22.17я73
П34

Все права защищены.


Никакая часть данной книги не может переиздаваться
или распространяться в любой форме и любыми средствами,
электронными или механическими, включая фотокопирование,
звукозапись, любые запоминающие устройства
и системы поиска информации,

без письменного разрешения правообладателя.

Серийное оформление А. М. Драгового

Письменный Д. Т.
П34 Конспект лекций по теории вероятностей и математическоJ
статистике. - М.: Айрис-пресс, 2004. - 256 с. - (Высшее обра
зевание).

ISBN 5·8112·0970·3

Настоящая книга представляет собой курс лекций по теории вероятностей


математической статистике.
Первая часть книги содержит основные понятия и теоремы теории вероятн{
стей, такие как случайные события, вероятность, случайные функции, коррел.я
ция, условная вероятность, закон больших чисел и предельные теоремы. Втора
часть книrи посвящена математической статистике, в ней излагаются основ~
выборочного метода, " -ории оценок и проверки гипотез. Изложение теоретичЕ
ского ма·гериала сопровождается рассмотрением большого количества примера
и задач, ведется на доступном, по возможности строгом языке.

Предназначена для студентов экономических и технических вузов.

ББК 22.17я7
УДК 519.2(075.а

ISBN 5·8112-0970·3 © Айрис·пресс, 2004


Содержание

Введение .......................................................... .

Раздел первый
Элементарная теория вероятностей

Глава 1 . Случайные события

1.1. Предмет теории вероятностей ....................................... .


1.2. Случайные события, их классификация ............................. .
1.3. Действия над событиями ........................................... .
1.4. Случайные события. Алгебра событий. (Теоретико-множественная
трактовка) ........................................................ .
1.5. Свойство статистической устойчивости относительной частоты
события ........................................................... .
1.б. Статистическое определение вероятности ............................ .
1.7. Классическое определение вероятности .............................. .
1.8. Элементы КОl\1бинаторики .......................................... .
1,9. Примеры вычисления вероятностей ................................. .
1.10. Геометрическое опре;1еление вероятности ............................ .
1.11. Аксиоматическое определение вероятности ........................... .
1.12. Свойства вероятностей ............................................. .
1.13. Конечное вероятностное пространство . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ~
1.14. Условные вероятности . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.15. Вероятность произведения событий. Независимость событий . . . . . . . . . . . З
1.16. Вероятность суммы событий . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.17. Формула полной вероятности . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.18. Формула Байеса (теорема гипотез) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.19. Независи:мь1е испытания. Схема Бернулли . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.20. Формула Бернулли. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.21. Предельные тeopel'vtЫ в схеме Бернулли . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

Глава 2. Случайные величины

2.1. Понятие случайной величины. Закон распределения случайной


величины ..................................................... ..... 6
2.2. Закон распределения дискретной случайной величины. Многоугольник
распределения .. .. ...... .. ..................................... ..... 6
2.3. Функция распределения и ее свойства. Функция распределения
дискретной случайной величины ................................ ..... 6
2.4. Плотность распределения и ее свойства. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . б
2.5. Числовые характеристики случайных величин . . . . . . . . . . . . . . . . . . . . . . . . 7
2.6. Производящая функция . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2. 7. Основные законы распределения случайных величин . . . . . . . . . . . . . . . . . . 8
4 • Содержание

Глава З. Системы случайных величин

3.1. Понятие о системе случайных величин и законе ее распределения 11


3.2. Функция распределения двумерной случайной величины и ее снойстnа .. 11
3.3. Плотность распределения вероятностей двумерной случайной величины
и се снойства .......................................... ............. 1
3.4. Зависимость и незаnисимость двух СJrучайных величин ................ 1
3.5. Условные законы распределения ..................................... 1:
3.6. Числовые характеристики двумерной случайной величины.
rviатсматическое ожидание и дисперсия
.................. ' ............ 1~
3. 7. Корреляционный момент, коэффициент корреляции .......... .. ....... 1:
3.8. Двумерное нормальное распределение . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1~
3.9. Регрессия. Теорема о нормальной корреляции ......................... 1:
3.10. Многомерная (п-мерная) слу<Iайная величина (общие сведения) ........ 1:
3.11. Характеристическая функция и се свойства ........................... }L
3.12. Характеристическая функция нормальной случаttной веJ1ичины ........ lL

Глава 4. Функции случайных величин

4.1. Функция одного случайного аргумента ............................... lL


4.2. Функции двух слу,1айных арrументов ................................. 1[
4.3. Распределение функций нормальных СJ1учайных величин . . . . . . . . . . . . . . 1[

Глава 5. Предельные теоремы теории вероятностей

5.1. Неравенство Чебышева .............................................. Н


5.2. Теорема Чебышеоа .................................................. Н
5.3. Теорема Бернулли .................................................. Н
5.4. Центральная предсJ1ьная теорема .................................... l'i
5.5. Интегральная теорема Муавра-Лапласа .............................. 11

Раздел второй
Основы математической статистики

Глава б. Выборки и их характеристики

6.1. Предмет математической статистики ................................. 17


6.2. Генеральная и выборочная совокупности ............................. 17
6.3. Статистическое распµсдеJ1ение выборки. Эмпирическая функция
распределения
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
6.4. Графическое изображение статистического распределения ............. 18
6.5. Числовые характеристики статистического распределения . . . . . . . . . . . . . 18
Содержание •

Глава 7. Элементы теории оценок и проверки гипотез

7.1. 01(енка неи"1нРС"1111~1х парамеrров ..................................... 19J


7.2. l\1егоды нахождРния точечных оценок ................................ 19~
7 3. Поня rие интерва.пьного оценивания пара:rvrетров ....................... 20~
7 4. Доверительнь1е ин1 ер валы для параметров нормаJ1ьного
распределения ...................................................... 20L
7.5. Проверка статистических гипотез .................................... 21(
7 6. Провr'рка 1'ипотгз о законР распределения ............................ 21L

Ответы к упражнениям ................................... " ..... " .. 22:

Приложения . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24!
rлава 1
Случайные события

1.1. Предмет теории вероятностей

Любая точная наука изучает не сами явления, протекающие в при­


роде, в обществе 1 а их математические модели, т. е. описание явлений
при помощи набора строго определенных символов и онераций пад ни­
ми. При этом для построения математической мол.ели реального явле­
ния во многих случаях достаточно учитывать только основные фак­
торы, закономерности, которые позволяют предвидеть результат опы­

та (набл1одения, эксперимента) по его зада11ным начальным условиям.


Этим и занимаются большинство математических (и других) дисцип­
лин. Обнаруженные закономерности явления называются детер.м:ини­
стически.ми (определенными). Так, например, формула

s= l
2
gt2

позволяет найти путь, пройденный свободно падающим телом за t се­


кунд от начала движения.

Однако есть множество задач, для реrнения которых приходится


(надо!) учитывать и случайные факторы, придающие исходу опыта
элемент неопределенности. Например, в вопросах стрельбы по цеJ1и не­
возможно без учета случай11ых факторов ответить на вопрос: скоJiько
ракет нужно потратить для поражения цели? Невозможно предсказать 1
какая сторона выпадет при бросании монеты. Ско11ько лет проживет
родившийся сегодня ребенок? Сколько времени проработает кунлен­
ный нами телевизор'? Сколько студентов опоздают на лекцию по тео­
рии вероятностей? И т. д. Такие задачи, исход которых нельзя пред­
сказать с полной уверенностью, требуют изучения не только основ­
ных, главньтх зако11омерностсй, опрсделя101цих яв.rтение в общих чер­
тах, но и случайных, второстепенных факторов. Выявленные в таких
задачах (опытах) закономерности называ1отся статистическими (или
Глава 1. Случайные события • 9

вероятностнъtми). Статистические закономерности иссJ1едуются мето­


дами специальных математических дисциплин - теории вероятностей
и математической статистики.
Теория вepoJJmнocmeiJ - математическая наука, изучающая зако­
номерности, присущие массовым случайным явлениям. При этом из­
учаемые явления рассматриваются в абстрактной форме, независимо
от их конкретной природы. То есть теория вероятностей рассматрива­
ет не сами реальные явления, а их упрощенные схемы ~- математиче­

ские модели. Предметом теорин вepoJJmнocmeiJ являются математи­


ческие модели случайных явлений. При этом под cлyчaiJ,uъt.лt .явлением,
понимают явление, предсказать исход которого невозможно (при не­
однократном носпроизведении одного и того же опыта оно протекает

каждый раз неско11ько во-иному). Прпмер1)t случаUнъtх .явлений: вы­


падение герба при подб1)асывании монеты 1 выигрыш по купленному
лотерейному билету, результат измерения какой-либо величины, дли­
тельность работь1 телевизора и т. п.
Це.лъ теории веро.ятностеU - осу1цествление прогноза в области
случайных явлений, влияние на ход этих явлений, контроJIЬ их 1 огра­
ничение сферы действия случайности. В настоящее время нет практи­
чески ни одной области науки, в которой. в той или иной степени не
применялись бы вероятностные методы.

1.2. Случайные события, их классификация

Сначала определим понятие «случайное событие» исходя из его ин­


туитивного, наглядного понимания. Пусть проводится некоторый опыт
(эксперимент, набJ1юдение, испытание), исход которого п1>едска.зать за­
ранее неJ1ьзя. Такие эксперименты в теории вероятностей называ1от
с.лучайн'Ыми. При этом рассматриваются только такие эксперименты~
которые можно повторять, хотя бы теоретически, при неизменном ком­
плексе условий произвольное число раз.
СлучаiJным собъ~тнем (или просто: событнем) называется любой
исход опыта, который может произойти или не произойти.
События обозначаются, как правило, заглавными буквами латин­
ского алфавита: А, В, С, ....

Пример 1.1. Опыт: бросание игральной кости; событие А -- вьша­


дение 5 очков, событие В - выпадение четного числа очков, событие
С - выпадение 7 очков, событие D - выпадение п;елого числа очков,
событие Е - выпадение не менее 3-х очков, ....
10 • Раздел первый. Элементарная теория вероятностей

Непосредственные исходы опыта называются эле.ментарнъtм'll, со­


бытиями и обозначаются через w. Элементарные события (их назы­
ва1от также «ЭJ1ементами», «точками», «случаями») рассматриваются
как неразложимые и взаимоисключающие исходы w1, w2 , wз ... этого
опыта.

Множество всех элементарных событий называется прост,ранст­


вом эле.м.ентарных собъ~ти-tJ или пространством исходов, обозначает­
ся через !!.
Рассмотрим пример 1.1. Здесь 6 элементарных событий w1, w2, w 3 ,
W4, Ws, 'llJв. Событие Wi означает, что в результате бросания кости вы­
пало i очков, i = 1 1 2, 3, 4, 5, 6. Простра1~ство элементарных событий
таково: ,{1 = {w1,W2,ttJ3 1 'UJ4 1 1JJ5 1 W6} ИЛИ[!= {1,2,3,4,5,6}.
Событие называется достоверным, если оно обязательно наступит
в результате данного опыта, обозначается через n.
Событие называется невоамо;ж:.ным, сели оно заведомо 1te произой­
дет в результате проведения опыта, обозначается через 0.
В примере 1.1 события А и В - случайные, событие С - невоз­
можное, событие D ~ достоверное.

Два события называ1отся uесовмесrпuы.ми, ecJIИ появление одного


из них искл1очает появление д,ругого события в одном и том же опыте 1
т. е. не смогут произойти вместе в одном опыте. В противном случае
события называrотся совместн,1,~ми.

Так, в примере 1.1 события А и В - несовместные, А и Е - со­


вместные.

События А1, А2, ... , Ап называются попарно-несов.местньtми, если


л1обые два из них несовместны.

Несколько событий образуют полную группу, если они попарно не­


совместны и в результате каждого опыта происходит одно и только

ОДНО ИЗ НИХ.

В примере 1.1 события wгw 6 образуют полную группу, w1-w5 -


нет.

Несколько событий в данном опыте называются равновозмоэкtt'Ы­


ми, если ни одно из них не является объективно более возможным, чем
другие, т. е. вес события имеют равные «rпансы».

В примере 1.1 элементарные события w 1, w2, wa, w4 1 w5, и1в равпо­


возможны. Выпадение герба (А) или решки (В) при бросании монеты --
равновозможные события, если, конечно, монета имеет симметричну10
форму, не погнута, ....
Глава 1. Случайные события • 11

1.3. Действия над событиями

Введем основные операции над событиями; они полностью соответ­


ствуют основным операциям над множествами.

СуммоiJ соб'Ь!mиiJ А и В называется событие С= А+ В, состоящее


в наступлении хотя бы одного из них (т.е. или А, или В, или А и В
вместе).
Произведением соб'Ь!mиiJ А и В называется событие С = А · В,
состоящее в совместном наступлении этих событий (т. с. и А и В одно­
временно).
Ра3'tостъю событиiJ А и В называется событие С = А - В, про­
исходящее тогда и только тогда 1 когда происходит событие А, но не
происходит событие В.
Противопо.1юэ1Снъ1.м событию А называется событие А, которое
происходит тогда и только тогда, когда не происходит соfiытие А (т. е.
А означает1 что событие А не наступило).
Событие А вле'Чеm событ.ие В (или А явJrяется частным случаем
В), если из того, что происходит событие А, следует, что происходит
событие В; записывают А<;; В.
Если А <;; В и В <;; А, то события А и В называются равными;
записывают А = В.
Так, в примере = {2, 4, 6}, Е = {3, 4, 5, 6}, А = {5},
1.1 (п. 1.2) В
D = {1,2,3,4,5,6}. Тогда: В+ Е = {2,3,4,5,6}, В· Е = {4,6},
В-Е = {2}, А= {1,2,3,4,6}, В<;; D, D = !1 = {1,2,3,4,5,6}.
События и действия над ними можно наглядно иллюстрировать с
помощью диаграмм ЭiJ.лера-Венна: достоверное событие !1 и:юбража­
ется прямоугоJ1ы1иком; элементарные случайные события - точками
прямоугольника; случайное событие - областью внутри него.
Действия над событиями можно изобразить так 1 как показано н_а
рис. 1-5.
Операдии над событиями обладают следующими свойствами:
А+ В= В+ А, А· В= В· А (переместительное);
• (А+ В)· С= А· С+ В· С, А· В+ С= (А+ С)· (В+ С) (распреде­
лительное);
(А+ В)+ С= А+ (В+ С), (А· В)· С= А· (В· С) (сочетательное);
А+А = А, А ·А = А;
• А+ !1 = !1, А · !1 = А;
А+ А= !1, А· А= о;
• о= !1, !1 = о, А = А;
А-В =А·В;
А +В =А ·В и А ·В =А+В - законы де Морган?
12 • Раздел первый. Элементарная теория вероятностей

• А+В
п
ю А·В
п
~
4

А-В
п

Рис. 1 Рис. 2 Гш:. 3

А <; В

Рис. 4 Рис. 5

В их справедливости можно убедиться с помощью диаграмм Эйлс­


ра-Венна.

ISJ Пример 1.2. Доказа:rь формулу А+ В= А+ АВ.

а Используя 11скоторь1е ИЗ выше принедснных нранил, ПОJiучаем:

А+В = (A+B)·!l = A·!l+B·!l = A·!l+B·(A+A) = А-~1+(А+А)·В =


=А. n +А. в+ А. в= (!1 +В). А+ А. в= n. А+ А. в= А+ А. в.

Таким образом, су.м.му .любых двух собыrпиi1 .мож1tо преdставитъ в


виде суммьt двух несовместн:ь~:r; соб'Ыrnий.

Геометрическое доказательство прсдстав11ено на рис. 6.


• A+D
п

Рис. 6
• А+АВ
п
Глава 1. Случайные собt;:о1тия • 13

Упражнения

1. Доказать формулы: 1) В= А·В+А·В; 2) (А+С)·(В+С) = А·В+С;


3) А+В=А·В.

2. Пусть А, В и С --- три произволы1ь1х события. Выразить через них


следующие события: а) произошли все три события; б) произошло
только С; в) произошло хотя бы одно из событий; г) ни одного
события не произошло; д) произошли А и В, но С не произошло;
е) произошJ10 одно из этих событий; ж) произошJ10 1-re более двух
событий.

3. Релейная схема (рис. 7) состоит из 6 элементов. Пусть события А,


(i = 1, 6) состоят в том, что соответствующие элементы работают
безотказно в те·чение времени Т. Вьrразить через Ai событие, состо­
ящее в том, что схема за время Т работает безотказно.

Рис. 7

1.4. Случайные события. Алгебра событий.


(Теоретико-множественная трактовка)

ОпредеJ1им теперь основные понятия теории вероятностей, следуя


теоретико-множественному подходу, разработанному академиком Кол­
могоровым А. Н. в 1933 году.
Пусть производится некоторый опыт со случайным исходом.
Множество f2 = { w} всех возможных взаимоисключающих исхо­
дов данного опыта называется пространством элеменrпарн.'Ых собыrпиU
(коротко: ПЭС), а сами исходы w- элеме"тар"ъ~ми событиями (или
«Элементами», «точками»).
14 • Раздел первый. Элементарная теория вероятностей

С.лу'Чаii:н:ым событием А (или просто соб·ытием А) называется л10-


бое подмножество множества n, если n конечно или счетно (т. е. эле­
менты этого множества можно пронумеровать с помощью множества

натуральных чисел): А t:;; !1.


Элементарные события, входящие в подмножество А пространства
!1, называются б.лагопр11.ятствующи.ми событию А.
Множество !1 называется достоверным событием. Ему благопри­
ятствует любое элементарное событие; в результате опыта оно обяза­
тельно произойдет.
Пустое множество 0 называется невозмож'Н/Ы.Л-t событием; в резуль­
тате опыта оно произойти не может.

Пример 1.3. Опыт: один раз бросают игральную кость. В этом случае
ПЭС таково: !1 = {1, 2, 3, 4, 5, 6} или !1 = {w 1, ш2, ... , WG}, где w, - эле­
ментарное событие, состоящее в выпадении грани с i очками (i = 1, 6).
В данном случае !1 конечно. Примером события А является, например,
выпадение нечетного числа очков; очевидно, что А= {w 1,1n3,w5}; со­
быти10 А 6J1агоприятствуют элементарные события w1, wз, w5. Однако
если нас интересует только факт выпадения четного числа очков, то
ПЭС можно построить инач<>: !1 = {w 1,w2}, где W1 -- выпадение четного
числа очков, w2 - нечетного.

Пример 1.4. Опыт: стрельба по цели до первого попадания. Тогда


f2 = {w , нп
п ннп нннп
w , WЗ1 w }
. . . • , где П означает попадание в цель,
1 2 4
Н - непопадание. Исходов у этого опыта бесконечно (теоретически);
!1 счетно.

Пример 1.5. Опыт: наблюдение за временем безотказной работы не­


которого агрегата. В этом случае в качестве результата может появить­
ся л1обое чисJ10 t ): О; время t меняется непрерывно; ПЭС таково:
!1 = { t, О :;:; t < оо}. Исходов у этого опыта бесконечно, !1 несчетно
(континуально).

Над событиями можно проводить все операции, выполнимые для


множеств.

Су.м.ма (или объединение) двух событий А Е !1 и В Е !1 (обознача­


ется А +В или А U В) - это множество, которое содержит элементы,
принадлежащие хотя бы одному из событий А и В.
Произведение двух событий А Е !1 и В Е r! (обозначается АВ или
А n В) - это множество, которое содержит элементы, общие для собы­
тий А и В.
Глава 1. Случайные события • 15

Разностъ событий А Е !1 и В Е !1 (обозначается А- В или А \В) -


это множестnо, которое содержит элементы события А, не прина,цле­
жащие событию В.

Противополо:жное событию А Е !1 событие А = П\А. (А называют


также дополнением множества А.)

Событие А вле<~ет событие В (обозначается А с:; В), если каждый


элемент события А содержится в В.

По определению: 0 с:; А для любого А.

События А и В называются несов.месmн'Ы.М'lL, если их произведение


есть невозможное событие, т. е. А· В= 0.
Несколько событий А1, А2 .... , Ап образуют полную группу несов­
местных событий, eCJIИ их сумма предс'rавляет все ПЭС, а сами события
п

несовместны, т. е. 2:: А,= !1 и А,· А1 = 0 (i о1 J).


t=l
Полную группу образуют, например, события А и А (А +А = !1,
А·А=0).
В случае несчетного пространства !1 в качестве событий рассмат­
риваются не все подмножества n, а лишь некоторые классь1 этих под­
множеств, называемые алгебрами и а-алгебрами множеств.

Класс S подмножеств пространства !1 называется алгеброii мно-


жеств {событи'iJ), если:

1. 0 Е S, !1 Е S;
2. из А Е S вытекает, что А Е S;
3. из А Е S, В Е S вытекает, что А+ В Е S, А· В Е S.
Заметим, что в условии 3 достаточно трсбоnа:гь либо А +В Е S,
либо АВ Е S, так как А+ В= А+ В, А· В= А+ В.

Алгебру событий образует, например, система подмножеств S =


= { 0, !1}. Действительно, в результате применения любой из вышепри­
веденных операций: к J1юбым двум ЭJ1ементам класса S снова получа­
ется элемент данного класса: 0 + !1 = !1, IZJ • !1 = IZJ, IZJ = !1, rI = IZJ.
При расширении операций сложения и умнож<>пия па случай счет­
ного множества алгебра множеств S называется а-алгеброй,
со 00
если из Ап Е S, п = 1, 2, 3,. ", следует 2:: А" Е S, П А" Е S (доста-
n=l n=l
со 00
точно требовать либо 2:: А" Е S, либо П А" Е S).
n=l
n=l
Множество вс<'х подмножеств множества Sl, Е'СЛИ оно конечно или
счетно, образует алгебру.
16 • Раздел первый. Элементарная теория вероятностей

1.5. Свойство статистической устойчивости


относительной частоты события

Пусть в ri повторяющихся опытах некоторое событие А наст,упило


пл раз.

1§} Число пА называется ~1,acm,ornoU события А, а отно1IIепие

п: = Р'(А) (1.1)

называется относиrпелъпо/l чacrnomo1'i (или 11.acmocrn1}10) события А н


рассматриваемоit серии опытов.
Относительная частота события обладает следующими свойствами:
1. Частость л1обого события закл1очена мЕ'жду нулем и единицей, т. с.

O~P'(A)~l.

2. Частость невозможного события равна нулю, т. е.

P'(i25)=0.

3. Частостъ достоверного события равна 1, т. е.

P'(fl) = 1.

4. Частость суммы двух нссовместньrх собь1тий равна сумме частоты


этих событий, т. е. если АВ = f25, то

Р'(А +В)= Р'(А) + Р'(В).

О Свойства очевидны, так как О ~ rц ~ n для любого события А; ДJIЯ


невозможного события пА =О; для достоверного события пА = ri; ('СЛИ
события А и В несовместны (АВ = 0), то nл+в = пл+ nв, следова­
тельно, Р'(А+ В)= п·;;в = пл~ 118
= п,_;4 + п"в = Р'(А) + Р'(В). •

Частость обладает еще одним фундаментальным сuойством, 1шзы­


ваемым своUством сrпатистической устоilчивости: с увеличениf'м чи­
сла опытов (т. е. п) она принимает значения, близкие к некоторому по­
стоянному числу (говорят: частость стабилизируется, приближаясь к
неко·rорому чисJ1у, частость колебJ1стея около некоторого числа, или
ее значения группиру1отс}[ OKOJIO некоторого числа).
Так, например, в оr[ыте -- бросание мо11еты (однородной~ симмет­
ричной, ... ) ~ относительная частота ноявлепия герба при 4040 броса­

ниях (Ж. Бюффон) оказалась равной 0,5069 = ~~:~, а в опыте с 12000


Глава 1. Случайные события • 17

и 24()()() бросаниями (К. Пирсон) она окасщлась равной соответствсн-

по 0 ,и"015 --
6018
ООО и () ,;1
"00"и --
- 12012 , т. с. частносrь
' б
nри шижается к
12 24000
числу ~ = 0,500 .... А частость рождения мальчика, как r1ока·-Jыва1от
набл1од~пия 1 коJ1сблется около числа 0,515.
Отметим, что теория вероятностей изучает только те массовь1е слу­
чайные явления с неопределенным исходом, для которых предполага­
ется наличие устойчивости отпоситсJ1ьной частоты.

1.6. Статистическое определение вероятности

Для математического изучения случайного события необходимо


ввести какую-либо количественную оценку события. Гfонятно, что одни
события имеют больше шансов («более вероятны») наступить, чем дру­
гие. Такой 01~епкой является веро.яrпностъ собыrпи.я, т. е. чисJ10 1 выра­
жающее степень возможности его появления в рассматриваемом опыте.

Математических опредР,лений вероятности сун~ествует несколько, вес


они дополняют и обобщают друг друш.
Рассмотрим опыт, котuрь1й мож110 новторять л1обое •1исJ10 ра '3 (го­
ворят: «проводятся поnтор1Iьiс испытания» ) 1 в котором набJподается
некоторое событие А.
Cmamucrn1L"-tecкu11, аеро.яrпност.ъю события А пазь1вастся число,
OKOJIO которого ко11сб11ется относительная частота соб1>1ти.н А при до­
статочно большом чисJ1е испытаний {опытов).
Вероятность события А обозначается символом Р(А). Согласно
данному определению

Р(А) ;:,; Р*(А) = ';:. (1.2)

Матемагическим обоснованием близости относительной частоты Р*(А)


и вероятнпсти Г(А) некотпрого события А служит теорема Я. Бернулли
(см. п. 5.3).
Псроятпости Р(А) приписываrотся свойства 1-4 относитеJ1ьной ча­
стоты:

1. Статистическая вероятность л1обоrо собь1тия эак111оче11а меж;ху ну­


лем и едини~~ей, т. с.
О ( Г(А) ( 1.
2. Статистическая вероятность невозможного события равна нул10,
т.е.

Р(е) =О.
18 • Раздеn первый. Элементарная теория вероятностей

3. Статистическая вероятность достоверного события равна единице,


т.е.

Р(Щ = 1.
4. Статистическая вероятность суммы несовместных событий равна
сумме вероятностей этих событий, т. е. если А· В = !ZI, то

Р(А +В)= Р(А) + Р(В).


Статистический способ определения вероятности, опирающийся на
реатrьный опыт, доста·гочно полно выявляет содержание этого поня­
тия. Некоторые ученые (Р. Мизес и другие) считают, что эмпирическое
определение вероятности (т. е. р = lim n;) следует считать основным
n->oo
определением вероятности.

Недостатком статистического определения является неоднознач­


ность статистической вероятности; так в примере с бросанием монеты
(п. 1.5) в качестве вероятности можно принять не только число 0,5, но
и 0,49 или 0,51 и т. д. Для надежного определения вероятности нуж­
но проделать большое число испытаний (опытов), что не всегда просто
(или дешево).

1. 7. Классическое определение вероs~тности

Существует простой способ определения вероятности события,


основанный на равновозможности любого из конечного числа исходов
опыта. Пусть проводится опыт с п :исходами, которые можно предста­
вить в виде пол:ной группы несовместн:ых равн,овозмож'Нъtх событий.
Такие исходы называются с.лу-ча.я.ми,~ ша'Нсами, э.лемен.тарнъtми собьt­
тиями, опыт - класси-ческим. Про такой опыт говорят, что он сводится
к схеме случаев или схеме УР" (ибо вероятностную задачу для такого
опыта можно заменить эквивалентной ей задачей с урнами, содержа­
щими шары разных цветов).
Случай w, который приводит к наступлению события А, называет­
ся благоприят1'ым (или - благоприятствующим) ему, т. е. случай w
влечет событие А: w с;; А.
Вероят1'остъю события А называется отношение числа т случаев,
благоприятствующих этому событию, к общему числу n случаев, т. е.

Р(А) = ':{, (1.3)

Наряду с обозначением Р(А) для вероятности события А используется


обозначение р, т. е. р = Р(А).
Глава 1. Случайные события • 19

Из классического определения вероятности (1.3) вытекают следу­


ющие свойства:
1. Вероятность любого события заключена между нулем и единицей 1
т. е.

О ( Р(А) ( 1.
2. Вероятность невозможного события равна нулю, т. е.

1 P(iO) =О.

3. Вероятность достоверного события равна единице, т. е.

Р(Щ = 1.

4. Вероятность суммы несовместных событий равна сумме вероятно­


стей этих событий, т. е. если А· В= iO, то

Р(А +В) = Р(А) + Р(В).


Они проверя1отся так же, как и для относитеJ1ьноi1 частоты (п. 1.5).
В настоящее время свойства вероятности опрЕ>..деля1отся в виде аксиом
(см. п. 1.11).

Пример 1.6. В урне (емкости) находятся 12 белых и 8 черных шаров.


Какова вероятность того, что наудачу вынутый шар будет белым?

Q Пусть А - событие, состоящее в том, что вынут белый шар. Яс­


но, что п = 12 +8 = 20 - число всех равновозможных случаев (исхо­
дов опыта). Число случаев, 6J1агоприятствуюп.r.их событи10 А, равно 12,
т. е. т = 12. Следовательно, по формуле (1.3) имеем: Р(А) = 12 , т. е.
20
Р(А) = 0,6. 8

Упражнения

1. Найти вероятность того, что в наудачу написанном двузнач~-1ом чи­


сле цифры разные.

2. Набирая номер телефона, абонент забыл 2 последние цифры и на­


брал их наугад. Найти вероятность того, что набраны нужные ци­
фры.
20 • Раздел первый. Элементарная теория вероятностей

1.8. Элементы комбинаторики

Согласно классическому определению подсчет вероятности собы­


тия А сводится к подсчету числа благоприятствующих ему исходов.
Делают это обычно комбинаторными методами.
Комбинаторика - раздел математики, в котором изуча1отся за­
дачи выбора элементов из заданного множества и расположения их в
группы по заданным правилам, в частности задачи о подсчете числа

комбинаций (выборок), получаемых из элементов заданного конечно­


го множества. В каждой из них требуется подсчитать число возмож­
ных вариантов осуществления некоторого действия. ответить на вопрос

«СКОЛЬКИМИ способами?».
Многие комбинаторные задачи могут быть репrены с помопJ,ью слс­
ду1ощих двух nажных правил, называемых соответственно правилами

умножения и сложения..

Правило умнож:енШ< (основной принцип): если из некоторого ко­


нечного множества первый объек·г (элемент х) можно выбрать п 1 сrю­
собами и после каждого такого выбора второй объект (элемент у) мож­
но выбрать n2 способами, то оба объекта (х и у) в указанном порядке
можно выбрать 'rt1 · ri2 способами.
Этот принцип, очевидно, распространяется на случай трех и более
объектов.

Пример 1.7. Сколько трехзначных чисел можно составить из цифр 1,


2, 3, 4, 5, если: а) цифры не повторяются? б) цифры могут повторяться?

Q Имее1·ся 5 различных способов выбора цифры для первого места


(слева в трехзначном числе). После того как первое место занято, на­
пример, цифрой 2, осталось четыре цифры для заполнения второго
места. Для заполнения третьего места остается выбор из трех II,иcJ>p.
Следовательно, согласно правилу умножения имеется 5 · 4 · 3 = 60 епо­
собов расстановки цифр, т. е. искомое число трехзначных чисел есть
60. (Вот некоторые из этих чисел: 243, 541, 514, 132, ... ) Понятно, что
если цифры могут повторяться, то трехзначных чисел 5 · 5 · 5 = 125.
(Вот некоторые из них: 255, 333, 414, 111, ... ) 8

Правttло суммъt. Если некоторый объект х можно выбрать n1 спосо­


бами, а объект у можно выбрать n2 способами, причем перnые и вторые
способы нс пересекаются, то любой из указанных объектов (х или у),
можно выбрать +
n 1 n 2 способами.
Это правило распростра11яется на любое конечное число объектов.
Глава 1. Случайные события • 21

Пример 1.8. I3 студенческой группе 14 девушек и 6 юпошсй. Сколь­


кими способами можно BI>Iбpa'rь, ДJJЯ выполнения разJIИчньrх заданий,
/I.BYX С'rудептон одного пoJra'!

Q По правилу умножения двух девушек можно выбрать 14 · 13 = 182


спо~пбами, а ,r.:r,вyx 1оно11rсй -- 6 · 5 = 30 спосuбами. СJ1сдуст выбрать
двух студентов одного 110ла: двух студенток или двух юношей. Соглас­
но праnилу сложения таких способов выбора будет 1~2 + 30 = 212. 8

Рсu~снис nсроятностных (и не только их) за)J,ач часто 06J1сгчается,


eCJIИ исполь3овать комби11;:~торн1~rс (l)nрмулы. Каждая из них 011реде­
ляст чисJ10 вссnозможных исходов в некоторпr1л отrь1те (экс11еримсптс),
состояu.1/~м u выборе наудачу rn ЭJ1емснтов И3 'n раэличпых ЭJ1сментоn
рассматриваемого множества.

Сутцеству1от дn~ схемь1 nь1бора rn эJ1сментов (О < 1п, ~ ri) из исхо)~­


ного множества: бе.1 возвращен,и.я, (без поnторений) и с воаараu4ение.л1, (с
поnторенисм). В первом случае выбранные ЭJrементы 1н~ возвраrцаrотся
обратно; можно отобрать сраэу вес rn элементов ИJIИ пос""1едоватс11ыrо
отбирать их по одному. Во второй схеме вь1бор осу1цествJ1яется поэ11с­
ментпо с обя:'\ате11ь11ыl\1 llОэнра1ценисм отобранноL'О элемента на кrокдом
н1аге.

Схема выбора без возвращений

11усть дано множестuо, С-остоящее И3 ri раэличпьтх э11ементов.


Раэ.мс114е'Нис.лt из ri элементов по rn ЭJiемснтов (О < т ( r1.) на~!ы­
вается л1обос утторя;~очспное подмпожсс'rво данного r-.fножества, содер­
жащее rn э1rемептов.

Из опреде1тепия в1)1текает, что ра:1ме1цспия - это выборки (комби­


нации), состояu~иf~ И"З rn ЭJIС'ментов, которь1с отлича1отся друг от .11,J)уга
либо составом элементов, либо норядком их расположения.
ЧисJ10 ра~м<·п~ений из ri элементов по rn эJrемснтов обозначается
символом А;;' («А из эп по эм») и вычисляется по формуле

А;;'= п(п - l)(n - 2) · ... · (п - т + 1) {1.4)

или

n.!
А;;' = -(,-,.-_-m-)! ' IДС п! = 1 · 2 · 3 · ... · п, 1! = 1, О!= 1. (1.5)
22 • Раздел первый. Элементарная теория вероятностей

0 Для составления размещения А;;' надо выбрать т элементов 1


множества с п элементами и упорядочить их, т. е. заполнить m ме1

элементами множества. Первый элемент можно выбрать n способам


т. е. на первое место можно поместить любой из п элементов. ПосJ
этого второй элемент можно выбрать из оставшихся п - 1 элемент~
п - 1 способами. Для выбора третьего элемента имеется п - 2 способ
четвертого - п - 3 способа, и, наконец, для последнего m-го элеме
та - (n - (т - 1)) способов. Таким образом, по правилу умножени
существует n(n-l)(n-2) ... (n-(m-I)) способов выбора т элемент<
из данных п элементов, т. е. А;;'= n(n - l)(n - 2) ... (п - т + 1).

Пример 1.9. Составить различные размещения по 2 из элементов мн


жества D= {а, Ь, с}; подсчитать их число.

Q Из трех элементов можно образовать следующие размещения 1


два элемента: (а,Ь), (Ь,а), (а,с), (с,а), (Ь,с), (с,Ь). Согласно форм
ле (1.4) их число: А~ = 3 · 2 = 6.

Перестановкоti, из п элементов называется размещение из 1i эл


ментов по n элементов.

Из определения вытекает, что перестановки - это выборки (коJ


бинации), состоящие из п элементов и от11ичающиеся друг от дру
только порядком следования элементов. Число перестановок из n эл
ментов обозначается символом Рп («пэ из эн») и вычисляется по фо
муле

Рп =n!. (1.
Формула (1.6) следует из определения перестановки:

Рп = Аnп = п!
(n - n)! -
- п! - 1
О! - n"

Пример 1.10. Составить различные перестановки из элементов мн


жества Е = {2, 7, 8}; подсчитать их число.

Q Из элементов данного множества можно составить следующие п


рестановки: (2, 7, 8); (2, 8, 7); (7, 2, 8); (7, 8, 2); (8, 2, 7); (8, 7, 2). По фо
муле (1.6) имеем: Рз = 3! = 1 · 2 · 3 = 6.

Пример 1.11. Сколькими способами можно расставить на полке


различных книг?
Глава 1. Случайные события • 23

Q Искомое число способов равно числу перестановок из 5 элементов


(книг), т. е. Ps = 5! = 1 · 2 · 3 · 4 · 5 = 120. 8

Сочетаиием из п элементов по т (О ~ m ~ п) элементов назы­


вается любое подмножество, которое содержИ'l' т элементов данного
множества.

Из определения вытекает, что сочетания - это nыборки (комбина­


ции), каждая и~ которых состоит из т элементов, взятых из данных
п элементов, и которые отличаются друг от друга хотя бы одним эле­
ментом, т. е. отличаются только составом элементов.

Число сочетаний из п элементов по т элементов обозначается сим­


волом С;:1 («цэ из эн по эм») и вычисляется по формуле

ст= n(n- l)(n-2)". (п -m+ 1) (1.7)


n 1·2·3".m
или

ст= п! (1.8)
п m!(n-m)!

О Число А~ размещений из п элементов по m элементов можно най­


ти следующим образом: выбрать т элементов из множества, содержа­
щего n элеме11тов (это можно сделать О:;" способами); затем в каж­
дом из полученных сочетаний (подмножеств) сделать все перестанов­
ки для упорядочения подмножеств (это можно сделать Рт способа­
ми). Следовательно, согласно правилу умножения, можно записать:

Аnт _ст. р,
- п m·
О
тсюда
ст
n -
_ А;:'
Р.т
_ п(п - l)(n - 2) ". (п - m
- l .2. З ".m
+ 1)
или

ст- п! •
п - m!(n-m)!

Можно показать, что имеют место формулы:

с;::= с~-т, (rn ~ п)\ (1.9)


с~+ с~+ с~+ ... + с:;= 2n, (1.10)
спт = ст
п-1 + ст-1
п-1 ,
(1 ""m
/ / )
"" п . (1.11)

Формулу (1.9) удобно использовать при вычислении сочетаний, когда


m > ~·Так, Cbl = С[5 = 1
~: ~ 4 = 105. Формула (1.10) выражает число
всех подмножеств множества из ri элементов (оно равно 2n). Числа
с~. с~. с~ • ... ' с:; являются коэффициентами в разложении бинома
Ньютона: (а+ Ь)п = С~апь 0 + С~ап- ь + ... + с:;а 0 ьп.
1
24 • Раздел первый. Элементарная теория вероятностей

Пример 1.12. Составить различные сочетания по 2 из элементов мно­


жfства D ={а, Ь, с}; 11одсчитать их число.

Q Из трех элементов можно образовать следующие сочетания по два


элемента: (а,Ь); (а,с); (Ь,с). Их число: С~=~:~= 3 (формула (1.7)) .

Пример 1.13. Сколькими способами можно выбрать 3 цветка из вазы,
в которой стоят 10 красных и 4 розовых гвоздики? А если выбрать 1
красную гвоздику и 2 розовых?

Q Так как порядок выбора цветов не имеет значения, то выбра:гь 3


цветка из вазы, в которой стоят 14 гвоздик, можно Cf4 способами. По
формуле (1.7) находим: С{4 = 14 ·_ 13.· 12 = 7 · 13 · 4 = 364. Далее: крас­
1 2 3
ную гвоздику можно выбрать Cro = 10 способами. Выбрать две розовые
гвоздики из имеющихся четырех можно CJ = i:
~ = 6 способами. По­
этому букет из одной красной и двух розовых гвтдик можно составить,
по правилу умножения, Cfo · CJ = 10 · 6 = 60 способами. 8

Схема выбора с возвращением

Если при выборке m элементов из п эл:ементы возвраща1отся обрат­


но и упорядочиваются, то говорят, что это раз.мещени.я с повторе­

uи.ями.

Размещения с повторениями могут отличаться друг от друга эле­


ментами, их порядком и количеством повторений элемев:тов. Число
всех размещений из п элементов по m с повторен:иями обозначается
символом А;:' и вычисляется по формуле

(1.12)

Пример 1.14. Из 3 элементов а, Ь, с составить вес размещения по два


элемента с пов'.rорениями.

Q По формуле (1.12) число размещений по два с повторениями равно


А~= 32 = 9. Это: (а,а), (а,Ь), (а,с), (Ь,Ь), (Ь,а), (Ь,с), (с,с), (с,а), (с,Ь) .

Глава 1. Случайные события • 25

Пример 1.15. Сколько пятизначных чисел можно составить, исполь­


зуя цифры: а) 2, 5, 7, 8; б) О, 1, 9?

Q а) Все пятизначные числа, составленные из цифр 2, 5, 7, 8, отли­


чаются друг от друга либо порядком их следования (например, 25558
и 52855), либо самими цифрами (например, 52788 и 78888). Следова­
тельно~ они являются размеп~ениями из 4 элементов по 5 с повторени­
ями, т. е. А~. Таким образом, искомое число пятизначных чисел равно
А~ = 4·5 = 1024. Этот же результат можно получить, используя правило
умножения: первую цифру слева в пятизначном числе можно выбрать
четырьмя способами, вторую - тоже четырьмя способами, третью -
четырьмя 1 четверту10 - четырьмя, пятую - четырьмя. Всего получа­
ется 4·4·4 ·4 ·4 = 1024 пятизначных чисел.
б) Если пятизначные числа состоят из цифр О, 1, 9, то первую ци­
фру слева можпо выбрать двумя способами (О не может занимать пер­
ву10 позици10) 1 каждую из остав~пихся четырех цифр можно выбрать
тремя способами. Согласно правилу умножения, таких чисел будет
2 · 3 · 3 · 3 · 3 = 162. (Иначе: А~ - A.j = 243 - 81 = 162.) 8

Если при выборке т элементов из п элементы возвращаются обрат­


но без пос11едующего упорядочивания, то говорят, что это со-четани.я с
повторен и.ям и.

Чис110 всех сочетаний из п элементов по т с повтореt1иями обозна­


чается символом c;:i и вычисляется по формуле

с-т
n -
- ст
n+m~l·
(1.13)

Пример 1.16. Из трех элементов а, Ь, с сос'rавить все сочетания по


два элемента с повто1)е11иями.

Q По формуле (1.13) число сочетаний по два с повторениями равно


-2 2 ., 4.3
С3 = С;н 2 _ 1 = С1 = П = 6. Составляем эти сочетания с повторени-
ями: (а,а), (а,Ь), (а,с), (Ь,Ь), (Ь,с), (с,с). 8

Пример 1.17. Сколькими способами можно составить букет из 5 цве­


тов, если в наличии есть цветы трех сортов?

Q Рассматриваемое множество состоит из трех различных элементов,


а выборки имеют объем, равный 5. Поскольку порядок расположения
цветов в букете не играет роли, то искомое число букетов равно чи­
слу сочетаний с повторениями из трех элементов по 5 в каждом. По
формуле ( )
1.13 имеем C-s_
3 - 0 s_ 0 1-s_ 0 2_7·6_ 21
7 - 1 - 7 - П - · 8
26 • Раздел первый. Элементарная теория вероятностей

Пусть в множестве с п элементами есть k различных эJ1ементов,


при этом 1-й элемент повторяется п 1 раз, 2-й элемент - п 2 раз ... , k-й
элемент - nk раз, причем n1 + n2 + ... + nk = п.

Перестановки из ri ЭJiементов данного множества называют пере­


становкам1J с повторени.н.ми из п эле.ментов.

Число перестановок с повторениями из п элементов обозначается


символом Р11 ('п1, тz.2, ... 1 nk) и вычисляется по формуле

(1.14)

Пример 1.18. Сколько различных пятизначных чисел можно соста­


вить из цифр 3, 3, 5, 5, 8?

Q Применим формулу (1.14). Здесь п = 5, п1 = 2, n2 = 2, п3 = 1. Чи­


сло разлиqных пятизначных чисел, содержащих цифры 3, 5 и 8, равно

?5(2,2, 1) = 2!. ~: · 1! = 30. •

Упражнения

1. Сколько различных «Слов», состоящих из трех букв, можно обра­


зоват1, из букв слова БУРАН? А если «слова» содержат не менее
трех букв?

2. Ско11ькими способами можно выбрать один цветок из корзины, н


которой имеется 12 гвозднк, 15 роз и 7 хризантем?

З. Группа студентов изучает 10 различных дисциплин. Сколькими


способами можно составить расписание занятий в понедельник,
если в этот день должно быть 4 разных занятия?

4. Из 10 мальчиков и 10 девочек спортивного класса для участия в


эста<Рсте падо составить три команды, каждая из которых состоит
из ма.пьчика и девочки. Сколькими способами это можно сделать?

5. Сколько можно составить четырехзначных чисеJr так, чтобы любь1е


две соседние цифры были различны?
Глава 1. Случайные события • 27

6. В электричке 12 вагонов. Сколько существует способов размещения


4 пассажиров, если в одном вагоне должно быть не более одного
пассажира?

7. Сколькими способами 3 награды могут быть распределены между


10 участниками соревнования?

8. Из 4 первокурсников, 5 второкурсников и 6 третьекурсников надо


выбрать 3 студента на конференцию. Сколькими способами мож­
но осуществить этот выбор, если среди выбранных должны быть
студенты разных курсов?

9. Сколькими способами можно расставить на по;1ке 7 различных


книг, '!тобы определенные три книги стояли рядом? Не рядом?

1 О. Сколькими способами можно рассадить 5 человек за круглым сто­


лом? (Рассматривается только расположение сидящих относитель­
но друг друга.)

11. 10 студентов, среди которых С. Федин и А. Шилов, случайным обра­


зом занимают очередь в библиотеку. Сколько имеется вариантов
расстановки студентов, когда между Фединым и Шиловым окажут­
ся 6 студентов?

12. У одного школьника имеется 7 различных книг для обмена, а у


другого - 16. Сколькими способами они могут осуществить обмен:
книга на книгу? Две книги на две книги?

1 З. В урне 12 белых и 8 черных шаров. Сколькими способами можно


выбрать 5 шаров, '!тобы среди них было: а) 5 черных; б) 3 белых и
2 черных?

14. Сколькими способами можно распределить 15 выпускников по трем


районам, если в одном из них имеется 8, в другом - 5 и в третьем -
2 вакантных места?

15. Известно, что 7 студентов сдали экзамен по теории вероятностей на


хорошо и отлично. Сколькими способами могли быть поставлены
им оценки?

16. Игральная кость (на ее 6 гранях нанесены цифры от 1 до 6) бро­


сается 3 раза. Сколько существует вариантов выпадения очков в
данном опыте? Напишите некоторые из них.
28 • Раздел первый. Элементарная теория вероятностей

17. Сколькими способами можно распредеJ1ить 6 разJ1ич11ых подарков


меж,цу четырьмя ребятишками?

18. Сколькими способами можно составить набор из 6 пирожных, если


имеется 4 сорта 11ирожных'?

19. Группа ,учанJ,ихся из 8 ~rелоnек отпраn;rяется в путеurеетвие по Крп1-


му. Сколькими способами можно составить группу из учащихся 5· 7
классов?

20. Сколькими способаI'vrи мож1rо распредсJrить 4 книги на тr>сх поJ1-


ках книжного пrкафа? Найти число способов расстановки книг на
полках, ccJrи порядок их расноложсния на по;rке имеет значение.

21. Сколько «CJIOH» можно получить, переставляя буквы в с;1ове:


а) ГОРА; б) ИНСТИТУТ?

22. Сколько сун~~ствует способов размс1цения 9 {Iеловек в JJ.вухмест­


ный, трехместный и четырехместный номера гостипи1_~;ы?

23. Скош,кими способами можно распределить 16 нидов товаров по


трем магазинам, ccJIИ в 1-й магазин 11адо /],Оставить 9, во 2-й
4, а n третий --- ;J вида товаров?

1.9. Примеры вычисления вероятностей

Пример 1.19. В урне находятся 12 белых и 8 черных шаров. Найти


вероятность того, что среди наугад вынутых 5 шаров 3 будут черными?

Q Выбрать 5 шаров из 20 можно С~0 различными способами (все вы­


Gорки ·- неупорядоченные подмножества 1 состоя1цис из 5 элементов),
т. с. ri = G~do· Определим число с.ттучаев 1 благоприятству1он~их собь1ти10
В - «Среди 5 вь1нутых п1аров 3 буд;ут черпыl\1И». ЧисJ10 способов rн.1-
брать 3 черных шара из 8, паходящихся в урне, равно С§. Каждому
такому выбору соответствует Cf
2 способов выбора 2-х белых шарап и:>
12 беJ1ъ1х в урне. С1ледоватеJ1ьно 1 по основному правиJIУ комбинаторики
(правилу умножения), имеем: m = Cji · Cf2 . По формуле (1.3) находим,

что Г(В) ~с
Ci · Cf.,- '°" 0,24. е
5
С20
Глава 1. Случайные события • 29

Пример 1.20. В коробке 5 синих, 4 красных и 3 зеленых карандаша.


Наудачу nь1нима1от 3 карандаша. Какова вероятность того, что: а) все
они одного г:~;вета; 6) все они разных цветов; в) среди них 2 синих и 1
зеленый карандап1.

Q Сначала заметим, t.tтo чисJ10 способов nь16pa:ru 3 карандаurа из 12


имсюв:~;ихся в на.личин равно n = С{2 = 220.
а) Выбрать З синих карандаша из 5 можно способами; 3 крас­ cg
ных из имеющихся 4 можно выбрать С] способами; З зеленых из З
зеJ1ень1х - с~ способами.
По правилу сложения общее число т случа('в, G1ы~гонриятству10-
щих событию А= {три карандаша, вы11утых из коробки, одного ~:~;вета},
равно rn = CJ +С'{+ С] = 15. Отсю1щ Г(А) = 1;: = 21~) = }4 .
б) Пусть событие В = {три вынутых карандаша разных цветов}.
Число 111 исходов, 6J1агоприятству101цих наступ11еник1 события В, по
правилу умножения равно rn = Cg · CJ · С] = 5 · 4 · З = 60. Поэтому
Р(А) = '.;: = 2u200 =
3
11 ·
в) Пусть событие С = {из трех выбранных карандашей 2 синих и
1 зеленый}. Выбрать 2 синих карандаша из имеющихся
5 синих можно
С~ способами, а 1 зелспьгй из имею1цихся 3 зеленых - CJ способами.
Отсюда по правилу умножения имеем: m = Cg · С] = 30. Поэтому
Р(С) = ~: = 23200 = 232. 8

Пример 1.21. Дано шесть карточек с буквами Н, М, И, Я, Л, О. Найти


вероятность того, что: а) поJ1учится слово ЛОМ, если наугад одна за
другой выбираются три карточки; б) получится слово МОЛНИЯ, если
наугад одна за другой выбираются шесть карточек и располагаются в
ряд в порядке появления.

Q а) Из шести данных букв можно составить п = А~ = 120 трехбук­


венных «Слов» (НИЛ, ОЛЯ, ОНИ, ЛЯМ, МИЛ и т.д.). Слово ЛОМ
при этом появится лишь один раз, т. е. т = 1. Поэтому вероятность

появления слова ЛОМ (событие А) равна Р(А) = '.;: = l~O.


б) Шестибуквенные «слова» отличаются друг от друга лишь по­
рядком расположения букв (НОЛМИЯ, ЯНОЛИМ, ОЛНИЯМ и т.д.).
Их число равно числу перестановок из 6 букв, т.е. п = Р6 = 6!. Очевид­
но, что rn = 1. Тогда вероятность появления слова МОЛНИЯ (событие
В) равна Р(В) = 1;: = ~! = 7 ~ 0 . 8
30 • Раздел первый. Элементарная теория вероятностей

Пример 1.22. В почтовом отделении имеются открытки 6 видов. Ка­


кова вероятность того, что среди 4 проданных открыток все открытки:
а) одинаковы, б) различны?

Q Выбрать 4 открытки 6 видов можно С~ = 126 способами, т. е.


п = 126.
а) Пусть событие А = {продано 4 одинаковые открытки}. Число
т исходов, благоприятствующих наступлению события А, равно числу
видов открыток, т. е. т = 6. Поэтому
Р(А) = 1~6 = А.
б) Пусть событие В = проданы 4 различные открытки. Выбрать 4
открытки из 6 можно cg = 15 способами. т. е. т = 15. Следовательно,
15 5
Р(В) = 126 = 42· 8

Упражнения

1. В лифт 9-этажного дома вошли 4 человека. Каждый из них неза­


висимо друг от друга может выйти на любом (начиная со второго)
этаже. Какова вероятность того, что все вышли: а) на разных эта­
жах; 6) на одном этаже; в) на 5 этаже?

2. Из колоды карт (их 36) вытаскивают наудачу 5 карт. Какова веро­


ятность того, что будут вытащены 2 туза и 3 шестерки?

З. Семь человек рассаживаются наудачу на скамейке. Какова веро­


ятность того, что два определенных человека будут сидеть рядом?

4. На 5 карточках разрезной азбуки изображены буквы Е, Е, Л, П, П.


Ребенок случайным образом выкладывает их в ряд. Какова веро­
ятность того, что у него получится слово ПЕПЕЛ?

5. Из 60 вопросов, входящих в экзаменационные билеты, студент зна­


ет 50. Найти вероятность того, что среди 3-х наугад выбранных 1

вопросов студент знает: а) все вопросы; б) два вопроса.

6. В барабане револьвера 7 гнезд, из них в 5 заложены патроны. Бара­


бан приводится во вращение, потом нажимается спусковой курок.
Какова вероятность того, что, повторив такой опыт 2 раза подряд:
а) оба раза не выстрелит; б) оба раза револьвер выстрелит?
Глава 1. Случайные события • 31

7. Для проведения соревнования 10 команд, среди которых З лиде­


ра, путем жеребьевки распределяются на 2 группы по 5 команд
в каждой. Какова вероятность того, что 2 лидера попадут в одну
группу, 1 лидер - в другую?

8. Из колоды карт (их 36) наугад вынимают 2 карты. Найти вероят­


ность, что среди них окажется хотя бы одна «дама».

1.1 О. Геометрическое определение вероятности

Геометрическое определение вероятности применяется в случае,


когда исходы опыта равновозможны, а ПЭС (или !1) есть бесконечное
несчетное множество. Рассмотрим на плоскости некоторую область !1,
имеющую площадь Sn, и внутри области !1 область D с площадью Sv
(см. рис. 8).

Рис. 8

В области !1 случайно выбирается точка Х. Этот выбор можно ин­


терпретировать как бросание mо'lки Х в область !1. При этом попа­
дание точки в область !1 - достоверное событие, в D - случайное.
Предполагается, что все точки области !1 равноправны (все элементар­
ные события равновозможны) 1 т. е. что брошенная точка может попасть
в любую точку области !1 и вероятность попасть в область D пропор­
циональна nлощади этой области и не зависит от ее расположения и
формы. Пусть событие А = {Х Е D}, т. е. брошенная точка попадет в
область D.
Геометри'<еской веро.яmносmыо события А называется отношение
площади области D к площади области !1, т. е.

Р(А) = ~~. (1.15)


32 • Раздел первый. Элементарная теория вероятностей

Геометрическое опрс,цеJ1ение вероятности события примt'нимо и в


случае, кOI')J,a области [! и D обе линейные или 06·1>емпь1е. В первом
случае

Р(А) = lл . (1.16)
lп
во втором --
Г(А) = ~~, (1.17)

где l - JJ.Jтина, а V --- объем соотвстству1отцсй обJr<tсти.


Brr три формулы ((1.15)), ((1.16)), ((1.17)) можно записа-1ъ н виде

Р(А) = шesD, (1.18)


шеs О

где через шсs обшначсна мера (8, l, V) области.


Г~омt~трическая верОЯТПОСТI:. обла)J,ает ВССМИ \UOЙCTBttMИi присуПJ;И­
МИ классическому (и другим) опре;т,елснию:
1. Геометрическая вс11оятпость J1юбоrо собь1тия ·закJ11очена. ь.1сжду ну­
.нем и l'JJ,ИIIИIJ;eй, т. е.

О ( Г(А) ( 1.
2. I'еомс'l'])ИЧсская вероятность невоэможного собьrтия равна ну1rю,
т.е.

Р(о) =О.

3. ГРоме1·ричсская вероят1юстh достоверноr·о события равна единице,


т.е.

Р(Щ = 1.
4. Геометрическая вероятность суммь1 несоnмсстимых собь[тиti раnна
сумме вероятностей этих событий, т. с. сели А ·В = 0, то

Р(А +В) = Г(А) + Г(В).


Проверим, например, свойство 4: пусть А = {х Е D1 }~ В =
= {х Е D2}, ГJl.(' D1 · D2 = 0, т. е. D1 и D2 непсресека1оп~иеся 0611асти.

Тог;~а Р(А +В) =


8
D,+D, =
81
J' +
802 = Р(А) + Р(В).
81; Sл 8п

Пример 1.23. (Задача о встрече.) Два человека договорились о вст1н·­


че М('ж)l_у 9 и 10 часами утра. Пришедший первым ждет второго в '1<'-
чепис 15 мин, носле чего уходит (ссJ1и не встретились). Найти веро­
ятность того~ что uстрсча состоится, если кн.ждь1й науJ~ачу выби11ар·1
момент сnосго прихо;.I,а.
Глава 1. Случайные события • 33

Q Пусть х - время прихода первого, а у - второго. Возможные зна­


чения х и у: О ( х ( 60, О ( у ( 60 (в качестве единиц масштаба
возьмем минуты), которые на нлоскости Оху определяют квадрат со
стороной, равной 60. Точки этого квадрата изображают время встреча­
ющихся (см. рис. 9).

о 15 60 х

Рис. 9
Тогда О= {(х,у): О ( х ( 60,0 (у ( 60}; все исходы О равновоз­
можны, тnк как ли1~а ПI}Иходят наудачу. Событие А ~ лип.а встретят­
ся - произойдет, сели разность между моментами их прихода будет не
более 15 мин (по модулю), т.е. А= {(х,у): IY- xl ( 15}. Неравенство
IY - xl ( 15, т. с. :г, - 15 ( у ( х + 15 определяет область, заштри­
ховапну10 на рис. 9, т. с. точки поJrосы есть исходы, благоприятству­
ющие встрече. Искомая вероятность определяется по формуле (1.15):
602 - 2 . ~ . 45 . 45 7
Р( А) = 602 = 16 "' 0,44. •
Упражнения

1. В круг радиуса R вписан правиJIЬiiЫЙ треугоJ1ы1ик. Найти вероят­


ность того, что точка, броrпснпая :н этот круг, попадет в данный
треугольник.

2. На отрезке [О, 5] случайно выбирается точка. Най1·и вероятность то­


го, что расстоя11ие от нес ,цо правого ко11ца отрезка нс превосходит

1,6 единиц.

3. Стержень длины l разломан в двух наугад выбранных точках. Най­


ти ве11оят:ность того, что из 110J1учепных отрезков можно составить

треугольник.
34 • Раздел первый. Элементарная теория вероятностей

1 . 11 . Аксиоматическое определение вероятности

Аксиоматическое построение теории вероятностей создано в начале


30-х годов академиком А. Н. Колмогоровым. Аксиомы теории вероят­
ностей вводятся таким образом, чтобы вероятность события обладала
основными снойствами статистической вероятности, характеризующей
ее практический смысл. В этом случае теория хорошо согласуется с
практикой.

Пусть f1 ~ МПОЖС'СТВО всех ВОЗМОЖНЫХ ИСХОДОВ НСКОТОрОГО ОПЫ­


та (эксперимента), S - алгебра событий. Напомним (см. п. 1.4), что
совокупность S по;J,множеств множества f2 называется а.лгеброti, (а­
алгеброti), если выпоJ111ены СJ1еду1ощие условия:
1. S содержит невозможное и достоверное события.
2. Если события А 11 А 21 А 31 ... (конечное или с't1етное множество)
принадлежат S, то S принадлежит сумма, произведение и дополнение
(т. е. противоположное для А,) этих событий.
Вероятностъю называется функция Р(А), определенная на алгеб­
ре событий S, принимающая действительные значения и удовлетворя­
юn~ая следующим аксиомам:

Al. Аксиома неотри'Цате.лыюсти: вероятность любого события А Е S


неотрицательна, т. е.

Р(А)) О.

А2. Аксио.ма нормщюванности: вероятность достоверного события


равна единице 1 т. е.

P(!l) = 1.

АЗ. Аксиома aдOurnuвttocmu: вероятность суммы несовместных собы­


тий равна сумме вероятностей этих событий, т. с. если А, · А1 = eJ
(i#j),тo

Совокупность объек·rов (!1, S. Р), где !1 - пространство элементар­


ных событий, S- а.пгебра событий, Р - числовая функция, удовлетво­
ряющая аксиомам Аl-АЗ, называется вероятностным пространством
случайного эксперимента.
Вероятностное пространство служит математической моделью лю­
бого случайного явления; заданием этого пространства завершается ак­
сиома:rика теории вероятностей.
Глава 1. Случайные события • 35

1.12. Свойства вероятностей

Приведем ряд свойств вероятности, являющихся следствием акси­


ом Колмогорова.

Cl. Вероятность невозможного события равна нулю, т. е.

Р(0) = 0.

С2. Сумма вероятностей противоположных событий равна единице,


т. е.

Р(А) + Р(А) = 1.

С3. Вероятность любого события пе превосходит единицы, т. е.

Р(А) ~ 1.

С4. Если А~ В, т. е. событие А влечет за собой событие В, то

• Р(А) ~ Р(В).

С5. Если события А 1 , А2, ... , Ап образуют полную группу нссовмест­


n
пых событий, т. е. 2=А; = !1 и Ai · Aj = 0, то
i=l

2:P(Ai) = 1.
i=l

О Cl. Так как А+ IZJ =А и А· 0 = 0, то согласно аксиоме АЗ имеем


Р(А) + Р(0) = Р(А), следовательно, P(iZJ) =О.
С2. Поскольку А+А = !1, то Р(А+А) = Р(Щ, атак как А·А = 0,
то в силу аксиом А2 и АЗ получаем Р(А) + Р(А) = 1.
СЗ. Из свойства С2 вытекает, что Р(А) = 1 - Р(А). С учетом ак­
сиомы Al получаем Р(А) ~ 1.
С4. Так как В = (В - А) +А при А ~ В и (В - А) · А = 0, то
согласно аксиоме АЗ получаем Р(В) = Р(В-А)+Р(А). Но Р(В-А) ) О
(аксиома Al), поэтому Р(В)) Р(А).
С5. Так как А 1 + А 2 + ... + Ап = !1, то, согласно аксиомам А2 и АЗ,
имеем Р(А1 + А2 + ... + Ап) = Р(А1) + Р(А2) + ... + Р(Ап) = 1. 8

Заметим, что из Р(А) =О не следует А= IZJ.


36 • Раздел первый. Элементарная теория вероятностей

Пример 1.24. Из колоды, содержащей 36 карт, наудачу вынимают три


карты. Найти вероятность того, что среди них окажется хот.я бы од'На
«дама».

Q Пусть А - интересующее нас событие, А1 - появление одной «да­


мы», А2 - двух «дам», Аз - трех «дам». Тшда А = А1 + А2 + Аз,
причем события А1, А2, Аз несовместные. Поэтому Р(А) = Р(А1) +
+ Р(А2) + Р(Аз). Число всевозможных случаев выбора трех карт из 36
равно Cl
6 ; число случаев, благоприятных событиям А 1 , А2, Аз, соот­
ветственно равно m1 = CJ · Cl2 , m2 = Cj2 , mз = Ci ·
CJ2 . Таким Ci ·
образом, Р (А) = CJ · Cj2 + Ci · Cj2 + С1 · CJ2 ~
~
,
0,31.
3
Сзб
Задача реrпается проще, если воспользоваться свойством С2. Нахо-
дим Р(А), ще А - среди вынутых карт нет ни одной «дамы»! Р(А) =
Clz .
= - ""0,б9. Значит, Р(А) = 1 - 0,69 = 0,31. 8
3
Сзб

1.13. Конечное вероятностное пространство

Пусть производится некоторый опыт (эксперимент) 1 который имеет


конечное число возможJ1ых исходов w1, w2, wз 1 ~пп. В этом случае ••• ,

!! = {w1,1v2, ... ,wn} (или коротко!!= {w}) - конечное пространство,


S - алгебра событий, состоян(ая из всех (их 2п) подмножеств множе­
ства !!.
Каждому ЭJ1ементарному событию Wi Е n, i = 1, 2, ... , т~ поставим в
соответствие число p(wi), которое назовем «вероятностыо элементарно­
го события», т. е. зададим на !! числовую функцию, удовлетворяющую
двум условиям:

1) условие пеотрицателыюсти: р(ш,) ;? О для любого w, Е !!;


n
2) условие нормированности L:; p(w,) = 1.
i=l
Вероатностъ Р(А) для любого подмножества А Е !! определим как
сумму

Р(А) = L p(w,), (1.19)


wEA

т. е. вероятностью Р(А) события А назовем сумму вероятностей элемен­


тарных событий, составляющих событие А. Введенная таким образом
Глава 1. Случайные события • 37

вероятность удовлетворяет аксиомам Колмогорова (Аl-АЗ):

Р(А)? о, Р(Щ = L v(w,) = °Lr(w,) = 1,


w,E!l i=I

Р(А +В)= L р(щ) = L р(ш,) + L р(щ) = Р(А) + Р(В),


w,EB

сели АВ = 0, т. е. А и В - два несовместных события. Так опре­


деленная тройка {i2 EJ, Р}
1 есть конечное вероятностное пространство,
называемое «дискретны~~ вероятностным пространством».

Частным случаем опредеJ1епия вероятности (1.19) яnJ1яется клас­


си'Ч.есr.:ое определен:ие вероя1пности, когда все исходы опыта равновоз­
можны: p(w1) = р(ш2) = ... = р(wп) = k (следует из условия нормиро-
ванности:
" р(щ) = 1).
I; Формула (1.19) приобретает вид:
i=1

Г(А) = L p(w,) = h+ k + ... + k = ':::'


wEA
m

т. е. Р(А) = 1;:, где m -- число элементарных собьгrий, образуюtцих


событие А (т. е. m - число случаев, 611агоприятству101цих появлению
события А).

1.14. Условные вероятности

Пусть А и В - два события, рассматриваемые в данном опыте. На­


ступление одного события (скажем, А) может влиять на возможность
наступления другого (В). Для .сарапrперистики зависи.мосmи одних со­
бъtтu:Ь. от других вводится понятиf' ус11овноfi вероятности.
Условноti, ве1Jоатноrrпъю события В при услоnии, что произоnrло
событие А, назывnется отношение вероятности произведения этих со­
бытий к вероятности события А, причем Р(А) f О, обозначается сим­
волом P(BIA).
Таким образом, по опредс11ени10

Р(В!А) = Р(А. В) Р(А) f О. (1.20)


Р(А) '
Вероятность Р(В), п отличие от условной, пазывае·rся безус.ловн,01/, ве­
ро.ятностъю.
38 • Раздел первый. Элементарная теория вероятностей

Аналогично определяется условная вероятность события А при


условии В, т. е. P(AIB):

P(AIB) = Р(А. В) Р(В) i- О. (1.21)


Р(В) '
О'1~1С'тим, что условная вероятность, скажем P(BIA), удовлетворя­
ет аксиомам Колмогорова (п. 1.11): P(BIA) ) О, очевидно; P(!1IA) =
Р(!1 ·А) Р(А)
= Р(А) = Р(А) = 1; Р((В + C)IA) = P(BIA) + P(CIA), еслн В. С=
= !2f. Поэтому для условной вероятности справедливы все следствия
(свойства) из аксиом, полученные в н. 1.12. Формула (1.20) принимает­
ся по опредеJ1епи10 при аксиоматическом определении вероятности; в

СJ1учас классического (геометрического, статистического) определения


она можf'т быть дока·3ана.

Пример 1.25. В урне 2 белых и 7 черных шаров. Из нее последователь­


но вынимают JJ,вa шара. Какова вероятность того, что 2-fi шар окажется
белым при условии, что 1-й шар был черным?

Q Решим задачу двумя способами.


1. Пусть А - 1-й шар черный, В - 2-й шар белый. Так как событие
А произошло, то в урне осталось 8 шаров, из которых 2 белых. Поэтому
P(BIA) = g= ! .
2. Найдем P(BIA) по формуле (1.20). Очевидно, что Р(А) = ~.
Находим Р(АВ): n = 9 · 8 = 72 - общее число исходов (появление двух
шаров). Событию АВ благоприятствуют m = CJ · Cj = 14 исходов.
Поэтому Р(АВ) -- 14 -- 7 . Следовательно, P(BIA) -- 7 .. 9
7 -- 4.
1 8
72 36 36

1. 15. Вероятность произведения событий.


Независимость событий

Из определения условной вероятности (п. 1.14) следует, что

Р(А ·В) = Р(А) · P(BIA) = Р(В) · P(AIB), (1.22)

т. е. вероJ<mностъ произведенv.я двух событий равна произведению ве­


роятности одного из них на условну10 вероятность другого при условии,

что первое событие произошло.


Глава 1. Случайные события • 39

Равенство (1.22) называют правилом или теоремоiJ, (для схемы слу­


чаев оно доказывается) ум'НОJfСени.н. вероятностеt't. Это правиJто обоб­
щается на случай п событий:

Р(А1 · Az · ... · Ап) =


= Р(А1) · P(A2IA1) · Р(АзlА1 · А2) · ... · Р(АпlА1 · Az · ... · Ап-1).
(1.23)
Так для 3-х событий А 1 , Az, Аз получаем

Р(А1 · Az ·Аз)= Р((А1 · Az) ·Аз)= Р(А1 · Az) · Р(АзlА1 · А2) =


= Р(А 1 ) · P(A2IA 1) · Р(АзlА1 · Az).

Пример 1.26. В коробке находится 4 белых, 3 синих и 2 черных шара.


Наудачу последовательно вынимают 3 шара. Какова вероятность того,
что 1-й шар буде·r белым, 2-й - синим, 3-й - черным?

Q Введем следующие события: А 1 - первым вытащили белый шар,


Az - вторым - синий, Аз - третьим - черный. Тогда интересую­
щее нас событие А представится в виде А = · Az ·Аз. По прави­ А1
лу умножения вероятностей Р(А) = Р(А1) · P(A2IA1) · Р(АзlА1 · Az).
Но Р(А1) = ~; P(A2IA 1) = i,
так как шаров осталось 8, а число
благоприятных случаев для события Az равно 3; Р(АзlА1 · Az) = ~,
так как уже два шара (белый и синий) вытащены. Следовательно,

Р(А) = ~ . i .~ = А "'0,05. •

Правило умножения вероятностей имеет особо простой вид, если


события, образу1ощие произведение, независимы.
Событие А называется независимым от события В, если его услов­
ная вероятность равна безусJ1овноfi, 'Г. е. ecJIИ выполняется равенство

P(AIB) = Р(А). (1.24)

Лемма 1.1 (о взаимноii независимости событиii). Если событие А


не зависит от события В, то и собы1.'ие В не зависит от события А.

О Из равенства(1.22), с учетом равенства (1.24), следует P(BIA) =


= P(AIB) · Р(В) = Р(А) · Р(В) = Р(В)
Р(А) Р(А) ' т. е.

P(BIA) = Р(В), (1.25)


40 • Раздел первый. Элементарная теория вероятностей

а это означает, что событие В не зависит от события А.



Можно дать следующее (новое) определение независимости собы­
тий.
Два события называются независимыми, если появление одного из
них не меняет вероятность появления другого.

Для независимых событий правило умножения вероятностей (1.22)


принимает вид:

Р(А ·В)= Р(А) · Р(В), (1.26)


т. е. вероятность произведения двух независимых событий равна про­
изведению вероятностей этих событий.
Равенство (1.26) часто используют в качестве определения (еще од­
ного!) независимости событий: события А и В называются независимы­
ми, если Р(А ·В) = Р(А) · Р(В).
Можно показать, что если события А и В независимы, то незави­
симы события А и В, А и В, А и В.
На практике о независимости тех или иных событий часто судят
исходя из интуитивных соображений и анализа условий опыта, считая
независимыми события, «между которыми нет причинно-следственных
связей».
Понятие независимости может быть распространено на случай 'n
событий.
События А1, А2, ... , An называ1отся независимъtми (иJIИ независu­
мъtмu в совокупности), если каждое из них не зависит от произведения
любого числа остальных событий и от каждого в отдельности. В про­
тивном случае события А 1 , А2, ... , An назыnаются зависимъtмu.
Для независимых событий их условные вероятности равны без­
условным, и формула (1.23) упрощается

Р(А1. А2 ..... An) = Р(А1). Р(А2) ..... Р(Ап)· (1.27)

Из попарной независимости событий А1, А2 1 ••• , Ап (л1обые два из


них независимы) не следует их независимость в совокупности (обратное
верно).
Убедимся в этом, рассмотрев следующий пример.

Пример 1.27. Производится выбор (наудачу) флага из 4-х, имеющих­


ся в наличии: красного, голубоrо 1 белого и трехцветного (красно-бело­
голубого). Исследовать на независимость события: К - выбранный
флаг имеет красный цвет; Г - имеет голубой цвет; Б - имеет белый
цвет.
Глава 1. Случайные события • 41

Q Возможных исходов выбора 4; событию К благоприятствуют 2 исхо­


да (красный цвет имеется у двух флагов). Поэтому Р(К) = ~ = ! . Ана-
логично находим, что Р(Г) = Р(Б) =!.Событию К·Г- выбран флаг,
имеющий 2 цвета (красный и голубой), - благоприятствует один исход.
t.И так как Р(К Г) t
Поэтому, Р(К · Г) = Р(К) Р(Г) то· =
события К и Г независимы. Аналогично убеждаемся в независимости
= ! ·! = · ,

событий К и Б, Б и Г. Стало быть, события К, Б, Г попарно независи­


мы. А так как Р(К Г Б) t cJ Р(К) Р(Г) Р(Б) ! ,то события К,
· · = · · =
Г и Б не являются независимыми в совокупности. 8

Упражнения

1. Бросается игральная кость. Пусть событие А - появление четного


числа очков, событие В - появление более трех оqков. Зависимы
или нет события А и В?

2. Из букв разрезной азбуки составлено слово СТАТИСТИКА. Како­


ва вероятность того, что, перемешав буквы и укладывая их в ряд по
одной (наудачу), получим слово : а) ТИСКИ; б) КИСКА; u) КИТ;
г) СТАТИСТИКА?

3. Найти вероятность отказа схемь1 (рис. 10), предполагая, что отказы


отдельных элементов независимы, а вероятность отказа ЭJiемента

с номером i равна 0,2.

Рис. 10
42 • Раздел первый. Элементарная теория вероятностей

1. 1 б. Вероятность суммы событий

Как известно (п. 1.11), вероятность суммы двух несовместных со­


бытий определяется аксиомой АЗ: Р(А +В)= Р(А) + Р(В), А· В= 0.
Выв~дем формулу суммы вероятностей двух совместных событий.

Теорема 1.1. Вероятность суммы двух совместных событий равна сумме


их вероятностей без вероятности их произведения,

Р(А +В)= Р(А) + Р(В) - Р(А ·В). (1.28)

О Представим события А+ В и В в виде суммы двух несовместных


событий: А+В = А+В·А, В= АВ+ВА (см. п. 1.3, пример 1.2 и упраж­
нение 1). В справедливости этих формул можно наглядно убедиться на
рис. 11.

А-В

Рис. 11

Тогда. согласно аксиоме АЗ, имеем Р(А +В) = Р(А) + Р(В ·А) и
Р(В) = Р(А ·В)+ Р(В ·А). Отсюда следует Р(А +В) = Р(А) + Р(В) -
- Р(А ·В). 8

Формула (1.28) справедлива для любых событий А и В.


Можно получить формулу вероятности суммы трех и большего чи­
сла совместных событий; для трех событий опа имеет вид

Р(А +В+ С)= Р(А) + Р(В) + Р(С)-


- Р(А ·В) -Р(А ·С) -Р(В ·С)+ Р(А ·В· С). (1.29)
Справедливость равенства поясняет рис. 12.
Проще, однако, найти вероятность суммы нескольких совместных
событий P(S) = Р(А1 +А2+ .. .+Ап), используя равенство P(S)+P(S) =
= 1, где S = А 1 · А 2 • ••• • An - противоположно событию S. Тогда
P(S) = 1 - P(S). Мы уже использовали этот прием в п. 1.12.
Глава 1. Случайные события • 43

А·В

А·В·С

А·С в.с
с

Рис. 12

Пример 1.28. Бросаются дне игральные кости. Какова вероятность


появления хотя бы одной шестерки?

Q Введем события: А - появление шестерки на первой кости, В -


на второй кости. Тогда А+ В - появление хотя бы одной шестерки при
бросании костей. События А и В совместные. По формуле (1.28) нахо-
1 1 1 1
11 - - - 5 5 25
димР(А+В) =
6 + 6 - 6 . 6 = 36 . (Иначе: P(S) = Р(А·В) = б'6 = 36 .
Следовательно, P(S) = 1 -
25 = 11 .) 8
36 36

Упражнения

1. В урне 2 белых и 7 черных шаров. Из нее наудачу вынимают (без


возврата) 2 шара. Какова вероятность того, что они оба будут раз­
ных цветов?

2. Три орудия стреляют в цель независимо друг от друга. Вероятность


попадания в цель каждого равна 0,7. Найти вероятность попадания
в цель: а) только одного из орудий; б) хотя бы одного.

3. Надежность (т. е. вероятность безотказной работы) прибора равна


0,7. Для повышения надежности данного прибора он дублируется
n- 1 другими такими же приборами (рис. 13). Сколько приборов
надо взять, чтобы 11овысить его надежность до 0,95?
44 • Раздел первый. Элементарная теория вероятностей

0,7

0,7

0,7

Рис. 13

1. 17. Формула полной вероятности

Одним из следствий совместного применения теорем СJIОжения и


умножения вероятностей являются формулы полной вероятности и
Байеса. Напомним, что события А 1 , А 2 , .•. , Ап образуют полную груп­
п

пу, если А.-А 1 = 125, i i j и L; А,= '2. Систему таких событий называют
1=1
также разбиением.

Теорема 1.2. Пусть события Н1, Н2, ... , Нп образуют полную группу.
Тогда для любого события А имеет место формула по.лноi1 веро.ятности
или средней вероя:rпности.

Р(А) = L Р(Н,). Р(А/Н,), (1.30)


i=l

0 Так как Н1 + Н2 + ... + Нп = '2, то в силу свойств операций


над событиями (п. 1.3), А = А · f2 = А · {Н 1 + Н2 + ... + Н") =
= А · Н1 +А · Н2 + ... + А · Н". И9 того, что Н,
· Н1 = 125, слеJ,у­
ет, что (А· Н,) · (А· Н1 ) = #
J, т. е. события А · Н, и А· Н1
125, i
также несовместны. Тогда по теореме сложения вероятностей Р(А) =
п

= Р(А · Н1) + Г(А · Н2) + ... + Р(А · Нп) т.е. Г(А) = L; Р(А · Н,). По
i=1
теореме умножения вероятностей Р(А · Н,) = Р(Н,) · Р(А/Н,), откуда и
следует формула (1.30). 8

Отмстим, что в формуле (1.30) события Н1. Н2, ... , Нп обычно на­
зывают гипотезами; они исчерпыва1от все возможные предположения

(гипотезы) от11осительно исходов как бы первого этапа опыта, событи('


А ~ один из возможньrх исходов второго этапа.
Глава 1. Случайные события • 45

Пример 1.29. В сборочный цех завода поступает 40% деталей из I цеха


и 60% -- из П цеха. В I цехе производится 90% стандартных дета.пей,
а во П -- 95%. Найти вероятность того, что наудачу взятая сборщиком
деталь окажется ста11дартной.

О Взятие детали можно разбить на два этапа. Первый - это выбор


цеха. Имеется две гипотезы: Hi - деталь изго~·овлена I цехом, Н2 -
П цехом. Второй этап - взятие детали. Событие А - взятая наудачу
деталь стандартна. Очевидно, события Н 1 и Н2 образуют полную груп­
пу, Р(Н1) = 0,4, Р(Н2) = 0,6. Числа 0,90 и 0,95 являются условными
вероятностями события А при условии гипотез Н1 и Н2 соответствен­
но. т. с. Р(А\Н 1 ) = 0,90 и Р(А\Н2 ) = 0,95. По формуле (1.30) находим
2
Р(А) = 2::
Р(Н,) · Р(А\Н,) = 0,4 · 0,90 + 0,6 · 0,95 = 0,93. 8
i::::cl

1.18. Формула Байеса (теорема гипотез)

Следствием формулы (1.30) является формула Байеса или теоре­


ма гипоте.з. Она позноJ1яет переоценить вероятности гипотез Hi, приня­
тых до опыта и назь1ваемь1х априорнъ~ми («а priori» 1 доопытные, лат.)
по резуftъmата.м уже проведеиного опыта, т. е. найти условные веро­
ятности P(H1 IA), которьrе наз.ьrвают апостериорнъtми («а posteriori»,
ПОСJIСОПЫТНЫе).

Теорема 1.3. Пусть события Н1, Н2, ... , Нп образуют полную группу
событий. Тогда условная вероятность события Hk (k = 1, n) при условии,
что событие А произошло, задается формулой

Р(Н \А)= P(Hk) · P(A\Hk) (1.31)


k Р(А) '

где Р(А) = Р(А1) · P(A\Hi) + ... + Р(Нп) · Р(А\Нп) - формула 1юJ111ой


вероятности. Формула (1.31) называется форму.лоu Bai1eca 1 •

1
1702~ 1761, английский священник, математик
46 • Раздел первый. Элементарная теория вероятностей
-~~~~~~--~~~~~~~~~~~

О Применив формулы условной вероя1'1юсти (п. 1.14) и умножения


вероятностей (п. 1.15), имеем

Р(Н IA) = P(Hk ·А) = P(Hk) · P(A[Hk)


k Р(А) Р(А)

где Р(А) - формула полной вероятности (п. 1.17)



Пример 1.30. В примере 1.29 (п. 1.17) найти вероятность того, что э~·а
стандартная деталь изготовлена П цехом.

Q Определим вероятность гипотезы Н2 при условии, что событие А


(взятая деталь стандартна) уже произошло, т. е. P(H2JA):

Р(Н [А) = Р(Н2) · P(AIH2) = 0,6 . 0,95 = 19 - о 613


2
Р(А) 0.93 31 - , . •

Упражнения

1. Прибор содержит две микросхемы. Вероятность выхода из строя в


течение 10 лет первой микросхемы равна 0,07, а второй-· 0,10. Из­
вестно, что из строя вышла одна микросхема. Какова вероятность
того, что вышла из строя первая микросхема?

2. Из 40 экзаменационных билетов студент П выучил только 30. Ка­


ким выгоднее ему зайти на экзамен, первым или вторым?

3. Известно, что 90% изделий, выпускаемых данным предприятием,


отвечает стандарту. Упрощенная схема проверки качества продук­
ции признает пригодной стандартную деталь с вероятностью 0,96 и
нестандартную с вероятностью 0,06. Определить вероятность того,
что:

а) взятое наудачу изделие пройдет контроль;


б) изделие, прошедшее контроль качества, отвечает стандарту.
Глава 1. Случайные события • 47

1.19. Независимые испытания. Схема Бернулли

С понятием «независимых событий» связано понятие «11езависи­


мых испытаний (опытов)».
Несколько опытов называются независимъtми, есJ1и их исходы
представляют собой независимые события (независимые в совокупно­
сти).
Другими словами, если проводится несколько испытаний, т. е. опыт
выполняется при да1111ом комплексе усJ1овий многократно (такое ЯllJie­
ниe называется «последовательностью испытаний>>), причем вероят­
ность наступления некоторого события А в каждом испытании не за­
висит от исходов других исп~1таний, то такие испытания называются

независим'Ымu.

Примерами независимых испытаний могут служить: несколько (п


раз) подбрасываний монеты; стрельба (п раз) по мишени без попраrюк
на ранее допущенную ошибку при новом выстреJ1е; несколько (п раз)
выниманий из урны одинаковых на оrцупь занумерованных шаров, если
шары каждый раз (после просмотра) возвращаются назад в урну, и т. д.
При практическом применении теории вероятностей часто испо11ь­
зуется стандартная схема 1 называемая схе~ой Бернулли или схемой
независимых испытаний.

Последовательность п независимых испытаний, в каждом из кото­


рых может произойти некоторое событие А (его назыnают успехом) с
вероятностью Р(А) = р или противоположное ему событие А (его на­
зывают неудачеi:J) с вероятностью Р(А) = q = 1- р, называется cxeмoi:J
Бернулли.
Например, при стрельбе по мишени: событие А - попадание
(успех), событие А - промах (неудача); при обследовании п изделий
на предмет годности: событие А- деталь годная (успех), событие А­
деталь бракованная (неудача) и т.д.
В каждом таком опыте ПЭС состоит только из двух элементар­
ных событий 1 т. е. f~ = { w 01 w 1 }, где wo - неудача~ w1 - успех, при
этом А = {w 1}, А = {wo}. Вероятности этих событий обозначают че­
рез р и q соответственно (р +q
= 1). Множество элементарных исхо­
дов для п опытов состоит из 2п элементов. Например, при п = 3 1 т. е.
(А,А,А) (А,А,А) (А,А,А) (А,А,А)
опыт повторяется Зраза, f2 = { wa ; w ; w2 ; w3 ;
1

(А, А, А) (А, А, А) (А, А, А) (А, А, А)}


w ; w ; w ; w . Вероятность каждого элемен-
4 5 6 7
тарного события определяется однозначно. По теореме умножения ве-
48 • Раздел первый. Элементарная теория вероятностей

роятность события, скажем w5 =(А, А, А), равна q· q · р = pq 2 , события


w1 - Р. Р. Р = рзqо = р'! и т. д.
Часто успеху сопоставля1от число 1, неудаче - число О. Элемен­
тарным событием для п опытов будет последовательность из п нулей
и единиц. Тройка чисел (0 01 1 О) означает, что во всех трех опытах со­
бытие А не наступило; тройка чисел (О, 1, О) означает, что событие А
наступиJIО во 2- м опь1тс, а в 1- м и 3- м -- пе наступило.

1.20. Формула Бернулли

Простейu1ая задача, от11осяu.r,аяся к схеме Бернулли, состоит в


определении вероятности того, что n ·п независимых испытаниях собы­
тие А наступит rn раз (О ~ 1т~ ~ п). Обозначается искомая вероятность
так: Рп(т) или Рп,т ИJIИ P(Jtn = rn), где Jtn - число появ11ения события
А в серии из п опы1·ов.
Наприм"р, при бросании игральной кости 3 раза Р3 (2) означает
вероятность того, что в 3-х опытах событие А ~ выпадение цифры
4- произойде·1· 2 раза. Очеnидно,

Рз(2) = p2q + p2q + p2q =


= [{ (А,А,А);(А,А,А);(А,А,Л)
- - - }] 2
=3pq=3· (1)
б . 65= 72
2
5 =0,069.

Теорема 1.4. Ес11и производится п независимых иснытаний 1 в каждом


из которых вероятность появJ1ения события А равна р, а вероятность
его непоявления равна q = 1- р, то вероятность того, что событие А
произойдет т раз определяется фор.му.ло'il Вернул.ли

Рп(т) =с;:'· pm · q"-m, т =О, 1, 2, ... , n. (1.32)

О Вероятность одного сложного события, состояn~его в том 1 что со­


бытие А в п независимых опытах появится rn раз в первых rn опы­
тах и не ноявится (п - m) 1)аз в ост3.J1ы1ь1х опытах (это собь1тие
Л ·А· Л · ... ·А· А· А· ... · А) по теореме умножения nероятностей pan-
m раз (п-т) раз

на pmqn-m. Вероятность появления события А снова m раз, но в дl)уrом


Глава 1. Случайные события • 49

порядке (например, А·~ А· А" .. ·А или АААА · ... · АА и т. д.)


m раз

будет той же самой, т. е. pmqn-m.


ЧисJ10 таких СJ1ожных событий - в п опытах т раз встречается со­
бытие А в различном порядке - равно числу сочетаний из n по rn, т. е.
С;:1. Так как все эти слож11ые события несовместны, то по теореме СJIО­
жения вероятностей искомая вероятность равна сумме вероятностей
всех возможных сJ1ожных событий, т. е.

CJ.:1 слагаемых

Можно заметить, что вероятности Рп(m), m = 0 1 l, ... , п явля1отся


коэффициентами при хт в разложении (q + рх)п по формуле бинома
Ньютона:

(q+px)" = q" +C~qn-lpx+C~qn-2p2x2 + ... +C:;,'qn-mpmxrn + ... +pnxn.

Поэтому совокупность вероятностей Рп(т) называют бино.м,иалънъtм


законом расnределенщ~ вероятностей (см. п. 2.7), а функцию <р(х) =
= (q + рх)" - производ.ящеiJ функциеiJ для последовательности неза­
висимых ОПЫТОD.

Если в каждом из независимых испытаний вероятности наступле­


ния события А разнъtе, то вероятность того, что событие А наступит
m раз в ri опытах, равна коэфс}Jип:иенту при m-й степе11и многочлена
'Рп(z) = (q1 + p1x)(qz + pzx) · ... · (qn + PnZ), где <p"(z) - производящая
функция.
Если в серии из п независимых опытов, в каждом из которых может
произойти одно и только одно нз k событий А 1 , А2, ... , Ak с соответ­
ству1ощими вероятностями р 1 , р 2 , ... , Pk, то вероятность того, что n
этих опытах событие А 1 появится rri 1 раз, событие А2 -- m2 раз, ... ,
событие Ak - rnk раз, равна
n! m 1 m2 m11:
rn 1 Р1 Р2 (1.33)
rn 1·lrn 2·...
1 k·
" · Pk ,

где т1 + rn2 + ... + rnk = п. Вероятности (1.33) называются полиноми-


алъным распределеиием.

Пример 1.31. Производится 3 независимых выстрела по цели. Веро­


ятности попадания при разных выстрелах одинаковы и равны р = 0,9.
Какова вероятность: а) промаха; 6) одного попадания; в) двух попа­
даний; г) трех попаданий:? Решить задачу в случае, если вероятности
попадания при разных выстрелах различны: Pl = 0,7, pz = 0,8,рз = 0,9.
50 • Раздел первый. Элементарная теория вероятностей

Q В данном случае n = 3, р = 0,9, q = 0,1. Пользуясь формулой


Бернулли (1.32), находим:

а) Рз(О) = cg · 0,9° · 0,1 3 = 0,001 - вероятность трех промахов;


б) Р.1 (1) = CJ · 0,9 1
· О,1 2
= 3 · 0,9 · 0,01 = 0,027 - вероятность одного
попадания;

в) Рз(2) = С§ · 0,9 2 · 0,1 1 = 3 · 0,81 · 0,1 = 0,243 - вероятность двух


попаданий;

г) Р3 (3) =С~· 0,9 3 • 0,1° = 0,9 3 = 0,729 - вероятность трех попада-


ний. •

Эти результаты можно изобразить графически, отложив на оси Ох


значения т, на оси Оу - значения Рп(т) (рис. 14).

0,5

о 1 2 m

Рис. Ц

Ломаная, соединяющая точки (О; 0,001), (1; 0,027), (2; 0,243),


(3; О, 729), называется многоуголъником распределения вероятностеiJ.
Если вероятности при разных выстрелах различны 1 то производя­
щая функция имеет вид <рз(z) = + 0,7z)(0,2 + 0,8z)(0,1 + 0,9z) =
(0,3
= 0,504z 3 + 0,398z 2 + 0,092z + 0,006. Откуда находим вероятность трех,
двух, одного попаданий, промаха соответственно: Рз(3) = 0,504, Рз(2) =
= 0,398, Рз(l) = 0,092, Рз(О) = 0,006. (Контроль: 0,504 + 0,398 + 0,092 +
+ 0,006 = 1.)
Глава 1. Случайные события • 51

Упражнения

1. Монету подбрасывают 10 раз. Какова вероятность того, что г!"рб


выпадет (появится): а) 4 раза; б) ни разу; в) хотя бы один раз.

2. Что вероятнее выиграть у равносильного противника- шахматиста:


две партии из четырех или три из 1пести? Ничьи во внимание нс
принимаются.

З. В семье трое детей. Какова вероятность того, что: а) все они маль­
чики; б) один мальчик и две девочки. Счи·rать вероятность рожде­
ния мальчика 0,51, а девочки - 0,49.

4. В каждом из карманов (их 2) лежит по коробку спичек (по 10 спи­


чек в коробке). При каждом закуривании карман вь1бирается нау­
дачу. При очередном закуривании коробок оказался пустым. Найти
вероятность того, что во втором коробке 6 спичf'к.

1.21. Предельные теоремы в схеме Бернулли

Использование формулы Бернулли (1.32) при больших значениях п


и т вызывает большие трудности, так как это связано с громоздкими
вычислениями. Так, при п = 200, т = 116, р = 0,72 формула Бер­
нулли принимает вид Р200 (116) = CJJ8 · (0,72) 116 · (0,28) 84 . Подсчитать
результат практически невозможно. Вычисление Рп(т) вызывает за­
труднения также при малых значениях р (q). Возникает необходимость
в отыскании приближенных формул для вычисления Pn(m), обеспечи­
вающих необходимую точность. Такие формулы дают нам преде11ы1ые
теоремы; они со,цержат так называемые асимптотические формулы, ко­
торые при больших значениях испытаний дают сколь угодно малую
относительную погрешность. Рассмотрим три предельные теоремы, со­
держащие асимптотические формулы для вычисления биномиальной
вероятности Рп(т) при п-+ оо.
52 • Раздел первый. Элементарная теория вероятностей

Теорема Пуассона

Теорема 1.5. Если число испытаний неограничепо увеличивается


(п ---7 оо) и вероятност1> р наступления события А в каждом испыта­
нии неограничено уменыuается (р ---7 О), но так, что их произведение пр
является постоянной величиной (пр= а= const), то вероятность Рп(т)
удовлетворяет предельному равенству

(1.34)

Выражение (1.34) называется асимnтотическоiL формулоu Пуас­


сона.

О Преобразуем формулу Бернулли (1.32) с учетом того, что р = ~:

Рп(т) = '(
m.n _ m.)' · (a)m
п!
r;; · {1 - r;;a)n-m =
= n(n - l)(n - 2) ... (п - (m - 1)) . а"' . {l _ 11.)n. {l _ 11.)-m =
m! пт п, п

= ат . !.!: • n - 1 . п - 2. . n - (т - 1) . {l _ 11.)n. {l _ 11.)-т =


m.1 п п п ··· n ri ri

= ~ · 1 · (1- k). (1- ft) ... (1- rn;; 1). {1- *)n. {1- *)-т.
а те-а
Переходя к пределу при п _, оо, получим lim Рп(т) = - --
n·--tOO ffi.1
( lim {1 - *)n = е-а согласно второму замечательному пределу). •
n--+oo

Из предельного равенства (1.34) при больших пи малых р вытекает


приближенная формула Пуассона
m -а

рп (m) .~
..., "-"-- m = 0,1,2, .... (1.35)
m.1 '
Формулу (1.35) применяют, когда вероятность р = const успеха крайне
мала, т. е. сам по себе успех (появление события А) является редким
собъLmuем (например, выигрыш автомобиля по лотерейному билету),
но количество испытаний п велико, сред'Нее число успехов пр = а не­
значительно. Приближенную формулу (1.35) обычно используют, когда
n ) 50, а пр :;:; 10.
Формула Пуассона находит применение в теории массово?о обслу­
живания.
Глава 1. Случайные события • 53

Пример 1.32. Завод «Золотая балка» (Крым) отnравил в Москву 1500


бутыJ1ок вина «Каберне». Вероятность того, что в пути бутылка может
разбит1.ся, равна 0,002. Найти вероятность того, что в пути будет раз­
бито нс более 4- х бутылок (событие А).

С) Искомая вероятность равна

Так как п = 1500, р = 0,002, то а = [пр] = 3. Вероятность события А


найдем, используя формулу Пуассона (1.35):

Р(А) = ""0,815.

Формулу Пуассона можно считать математической моделью про­
стейшего потока событий.
Потоком событий называ1от последоватеJ1ьность событий, насту­
пающих в случайные моменты времени (например, поток посетителей в
парикмахерской, поток вызовов на телефонной стан1~ии 1 поток отказов
элементов, поток обсJrуженных абонентов и т. п.).
Поток собьrтиti:, обладающий свойствами стап:иопарности, ординар­
ности и отсутствия посJ1едствия называется прос1пеitшим ( пуассо'l-tов­
ским) потоком.
Свойство стацuонарности означает, что вероятность появления k
событий на участке времени длины т зависит тоJ1ько от его длины
(т. е. нс зависит от начапа его отсчета). Следовательно, среднее чuсло
coбъtmuit, по.явл.яющuхс.я в едииицу време'l-tи, так называемая U'l-tme'l-t-
C'UB'l-toc1nъ Л потока, есть величина постоянная: Л(t) =А.
Свойство ордииариости означает, что событие пояпляется не груп­
пами, а поодиночке. Другими словами, вероятность появления более
одного события на малый участок времени Лt пренебрежительно мала
по сравнению с вероятностью пояuления только одного события (на­
пример, поток катеров, подходя1цих к прича.т1у 1 ординарен).
Свойство отсутстви.я последстви.я оз1rачает, 1 rто вероятность по­
явления k событий на любом участке времени длинь1 т не зависит от
того, сколько событий появилось на любом другом не пересекающимся
с ним участком (говорят: «будуп.J.ее» потока не зависи·г от «прошлого»,
например, поток людей, входящих в супермаркет).
Можно докаэать, что вероятность появления 1т~ событий простей­
шего потока за время продолжительностью t определяется формулой
54 • Раздел первый. Элементарная теория вероятностей

Пуассона

Пример 1.33. Телефонная станция обслуживает


2000 абонентов. Веро­
ятность позвонить любому абоненту в течение часа равна 0,003. Какова
вероятность того, что в течение часа позвонят 5 абонентов?

О Среднее число позвонивших в течение часа абонентов равно


65 -6
2000 · 0,003 = 6 (а= пр= Лt). Стало быть, р5 = Т ""0,13. 8

Локальная и интегральная теоремы Муавра-Лапласа

В тех случаях, когда число испытаний n велико, а вероятность


р не близка к нулю (р /' О, р /' 1), для вычисления биномиа.пьных
вероятностей используют теоремы Муавра-Лапласа. Приведем только
их формулировки в силу сложности доказательства.

Теорема 1.6 (Локальная теорема Муавра-Лапласа). Если вероят­


ность р наступления события А в каждом испытании постоянна и отлична
от нуля и един:ицы, а число независимых испьгrаний достаточно велико,
то вероятность Рп(m) может быть вычислена по приближенной формуле

х' m-np
Т> ( ) 1 1 -- = . (1.36)
Гn m "" ;;;;-;;;; · м= е 2 , где х
vnpq v2ir .;npq
Равенство (1.36) тем точнее, чем больше п.

Выражение
х'
- 1- е-т = ip(x) (1.37)
у'21Т

называется фун~щиеiJ Гаусса, а ее график - кривоiJ веро.ятностеiJ (см.


рис. 15).
Равенство (1.36) можно переписать в виде

m-np
Pn(m)"" ~ · <р(х), где х= ;;;;-;;;; .
vnpq
(1.38)
vnpq
Глава 1. Случайные события • 55
~~~~~~~~~~~~~~~~~~~~~~~~-'--

<р(х) О ,4

''
''
''
о 03 :'
-"----i------
'
-1 о 1 2 з х

Рис. 15

Для функции <p(.r) составлены таблицы значений (они находятся, как


правило, в так называемая «Приложениях» книг по теории вероятно­
стей см. приложение 1 на с. 249). Пользуясь таблицей, следует учиты­
вать, что:

а) функция <р(х) четная, т. е. <р(-х) = <р(х);

б) при х;;, 4 можно считать, что <р(х) =О.

Функция Гаусса (1.37) буде~· подробнее рассмотрена в п. 2.7.

Пример 1.34. Вероятность попадания в мишень при одном выстреле


для данного стрелка равна 0,7. Найти вероятность того, что при 200
выстрелах мишень будет поражена 160 раз.

О Здесь п = 200, р
= 0,7, q = 0,3, т = 160. Применим форму­
лу (1.38). Имеем: ..fiiP<i = у'200 · 0,7 · 0,3 = v'42 "' 6,48, следователь-
160 - 200 · О,7 20 '
но, х = у'42 = , "' 3,09. Учитывая, что <р(З,09) "" 0,0034,
6 48
получаем ? 200 (160)"' 1 · 0,0034"' 0,0005. 8
6 48
'

В тех случаях, когда требуется вычисJ1ить вероятность того, что


в п независимых испытаниях событие А появится не менее ki раз, но
не более k2 раз, т. е. Рп(k1 ;;; т;;; k2) или Pn(k1; kz), используют инт<'­
гральную теорему Муавра-Лапласа (является частным случаем более
общей теоремы~ центральной предельной теоремы).
56 • Раздел первый. Элементарная теория вероятностей

Теорема 1.7 (Интегральная теорема Муавра-Лапласа). Если ве­


роятность р наступления события А в каждом испытании постоянна и
отлична от нуля и единицы, то вероятность Рп(k1 ,;;; т,;;; k2) может быть
найдена по приближенной формуле

k2 -пр
где Х2 = ,;npq .
(1.39)
Равенство (1.39) тем точнее, чем больше п.

Используя функцию Гаусса (1.37), равенство (1.39) можно записать


в виде
х2

Pп(k1,k2) ""J <p(x)dx.


х1

Однако для упрощения вычислений, при использовании форму­


лы (1.39), вводят специальную функцию

1 !х ~
Фо(х) = V2ir е-2 dt, (1.40)
о

называемую нормированной функциеiJ Лап.ласа.


-х t2
Функция (1.40) нечетва (Ф 0 (-х) = ~ J е-2 dt = [t = -z]
у 27Г о
х z'
= - -1-J е-2 dz = -Ф 0 (х)); при х;;, 5 можно считать, что Фо(:r)
V2ir о
= 0,5; график функции Ф 0 (х) приведен на рис. 16.

Фо(х)
------------------------------ ------------------------------
0,5

о х

-0,5

Рис. 16
Глава 1. Случайные события • 57

Выразим правую часть равенства (1.39) через функцию Лапла­


са (1.40):

Равенство ( 1.39) принимает вид

rде х1 = = ,
k1 -
ynpq
пр
(1.41)

Эту формулу обычно используют на практике.


Наряду с нормированной функцией Лапласа (1.40) используют
функцию

Ф(х) = -1- 1" t'


е-2 dt, (1.42)
.j2;
-00

называемую также фун1щиеi1 Лапласа. Для нее справедливо равенство


Ф(-х) + Ф(х) = 1; она связана с функцией Фо(х) формулой

Ф(х) = 0,5 + Ф 0 (х). (1.43)


Имеются таблицы приближенных значений функций Фо(х) и Ф(х) (ин­
теrрал не берется в элементарных функциях), которые приводятся в
большинстве учебников по теории вероятностей (см. также приJ1оже­
ние 2 на с. 250).
Приближенную формулу для вычисления вероятности Рп(k1 ,:;
,:; m ,:; k2) (1.39) можно записать в виде

Рп(k1 ,:; т ,:; kz) = Ф(х2) - Ф(.т1) = Фо(х2) - Фо(х~),


k1 - пр
rде
Xj = yr;:pq ' (1.44)

Пример 1.35. Проверкой установлено, что цех в среднем выпускает


96% продукции высщеrо сорта. На базе приемщик проверяет 200 изде­
лий этого цеха. Если среди них окажется более 10 изделий не высшего
сорта, то вся партия изделий бракуется, т. е. nозвращается в цех. Ка­
кова вероятность того, что партия будет принята'!
58 • Раздел первый. Элементарная теория вероятностей

Q Здесь п = 200, р =
0,04 (вероятность негодного изделия), q =
= 0,96. Вероятность принятия всей партии, т. е.? 200 (0 :( т :( 10),
можно найти по формуле (1.44); здесь k 1 = О, k2 = 10. Находим,
ЧТО Xt = 0 - 200 · 0,04 ::;,; _ 2 89 Х = 10 - 200 · 0,04 ::;,; О 72
2
vf200. 0,04. 0.96 ' ' vf200. 0,04. 0,96 ' ,
Р2оо(О :( т :( 10) = Фо(О,72) - Ф 0 (-2,89) = 0,26424 + 0,49807
= 0,7623. Заметим, что Ф(О,72) - Ф(-2,89) = 0,7642 - (1 - Ф(2,89))
= 0,7642 - (1 - 0,998074) = 0,7623. •

С помощью функции Лапласа можно найти вероятность отклоне­


пл
ния относительной частоты n от вероятности р в п независимых ис-
пытаниях. Имеет место формула

р { 1r:;i - р 1 :( Е} = 2Фо ( Е • JlJi) ,


где Е > О -- некоторое число.

О Из [ппл - pl :( с следует: -Е :( ппл - р :( Е, пр - пс :(пл :(пр+ пс.


По формуле (1.28) получаем:

т.е. Р{[~: -pl :(о}= 2Фо (о· Лfq). •


Пример 1.36. Вероятность попадания в цель при одном выстреле рав­
на 0,6. Найти вероятность того, что при ri = 1200 иезависимых нh1стре­
лах отклонение «частости» от вероятности по модулю не превы~наС'т

Е: = 0,05.

Q Р1200 {1~: - 0,61 :( 0,05} 2Фо ( 0,05 · 1200 ) =


0,6. 0,4
2Фо(З,54)
= 0,9996.

Глава 1. Случайные события • 59

Упражнения

1. На лекции по теории вероятностей присутствуют 84 стуцента. Ка­


кова вероятность того, что среди них есть 2 студента, у которых
сегодня день рождения?

2. Вероятность брака при изготовлении некоторого иэделия равна


O,OZ. Найти вероятность того, что среди 200 произведенных изде­
лий не более одного бракованного.

3. Найти вероятность того, что при подбрасывании монеты 100 раз


событие А - появление герба - наступит ровно 60 раз.

4. Найти такое число m, чтобы с вероятностью 0,95 можно было бы


утверждать, что среди 800 новорожденных более т девочек. Счи­
тать, что вероятность рождения девочки равна 0,485.
Глава 2
Случайные величины

2.1. Понятие случайной величины. Закон


распределения случайной величины

Одним из важнейших понятий теории вероятностей (наряду со с11у­


чайпым событием и вероят11остью) явJ1яется понятие случайной вели­
чины.

Под cлyчaiJ1'oiJ величи1'т'i понимают величину, которая в результа­


те опыта принимает то или иное значение, причем неизвестно заранее,

какое именно.

Случайные величины (сокращенно: с. в.) обозначаются прописны­


ми латинскими буквами Х, У, Z, ... (или строчными греческими букnа­
ми ~ (кси), rJ (эта),(} (тэта), ф (пси) и т. д.), а принимаемые ими значения
соответственно маJ1ь1ми буквами х i, х2, ... , У1, У2, Уз, ....
Примерами с. в. могут служить: 1) х -- ЧИСJIО OЧKOll, ПОЯВЛЯJОJДИХ­
ся при бросании игральной кости; 2) У -- число выстрелов до первого
попадания в цель; 3) Z - время безотказно!\ работы прибора и т. п.
(рост чеJrовека, курс доллара, количество бракованных деталей в пар­
тии1 температура воздуха, вь1игрыш игрока, коор;т,ината точки при слу­

чаftном nыборе ее на [О; 1], прибыль фирмы, ... ).


Случайная веJ1ичина, принима101цая конечное или счетное множе­
ство значений, называется дискретиоiJ (сокращенно: д. с. в.).
EcJIИ же множество возможных значений с. в. песчетно, то такая
величина называется нenpepъiвttoU (сокращенно: н.с. в.).
То сеть д. с. в. принимает отдельные изолироnан.ные друг О'Г ;~ру­
га значения, а н. с. в. может принимать любые значения из некоторого
промежутка (например, значения на отрезке, на всей числовой прямой
и т. д.). Случайные величины Х и У (примеры 1) и 2)) являются дис­
кретными. С. в. Z (пример 3)) является непрерывной: ее возможны<'
значения принадлежат промежутку [О, t), где t ) О, правая граница
не определена (теоретически t = +оо). Отметим, что рассматрива1отся
также с. в. смешанного типа.

Дадим теперь строгое опредсле1rие с. в., исходя из теоретико-мно­


жественной трактовки основных понятий теории вероятностей.
--
Глава 2. Случайные величины • 61

СлучаtiноU вeлu'ttUNoit Х называ<:'тся числовая функция, опреде­


ленная на пространстве элементарных событий П, которая каждому
элС'мен1·арному событию w ставит в соответствие число X(uJ), т. Р.
Х = X(w), w Е П (или Х = J(ш)).
При.мер. Опыт состоит в бросании монеты 2 раза. На ПЭС П =
= {w1,uJ2,w3,'l1'4}, где w1 = ГГ, w2 =ГР, W3 = РГ, 'l1J4 = РР, мож1rо
рассмотреть с. в. Х - число появлений герба. С. в. Х является функ­
цией от элементарного события w,: X(w1) = 2, Х(ш2) = 1, Х(шз) = 1,
Х(ш~) =О; Х --- д.с. в. со значениями х 1 =О, х 2 = 1, х 3 = 2.
Отметим, что если множество f2 конечно и11и счетно, то случай­
ной величиной является любая сlJуt1к1~ия 1 опредеJ1енная на П. В обтцсм
случае функция Х (w) должна быть такова, чтобы для любых х Е IR
событие А = {ш : Х(ш) < х} принадлежало а-алгебре множеств S
и, значит, для л1обого такого события была опредеJ1ена вероятность
Р(А) = Р(Х < х).
Для полного описания с. n. недостаточно лип1ь знания ее возмож­
ных значений; необходимо еще знать вероятности этих значений.
Любое правило (таблица. функция, график), позволяющее нахо­
дить вероятности произвольных событий А <;;; S (S - а-алгебра собы­
тий пространства f2), в частности, указывающее вероятности отдс;1ь­
ных значений случайной величины или множества этих значений, на­
зывается зако1-tо м распределен:и.я слу'Ч,аi!:ноU вели-ч.инъ~ (или просто: рас­
пределением). Про с. в. говорят, что «она подчиняется данному закону
распределения».

2.2. Закон распределения дискретной случайной


величины. Многоугольник распределения

Пусть Х ~ д. с. в., которая принимает значения х 1 , х2, х 3 , ... , Хп, ...


(множество этих значений конечно или счетно) с некоторой вероят­
ностью р 1 , где i
1, 2, 3, ... , п, .. .. Закон распределен:и.я. д. с. в. удобно
=
задавать с помощью формулы Pi = Р{Х = Xi}, z = 1, 2, 3, ... , п, .. .,
определяющей вероятность того, что в результате опыта с. в. Х примет
значение х,. Для д. с. в. Х закон распределения может быть задан в
виде таблицы расnределени.я:
62 • Раздел первый. Элементарная теория вероятностей

где первая строка содержит все возможные значения (обычно в порядке


возрастания) с. в., а вторая - их вероятности. Такую таблицу назьша­
ют рядом распределения.

Так как события {Х = х 1 }, {Х = х2} ... несовместны и образуют


полную группу, то сумма их вероятностей равна единице (см. п. 1.12),
т. е. 2=Pi = 1.
i
Закон распрецеления д. с. n. можно задать графически, если на оси
абсцисс отложить возможные значения с. в., а на оси ординат - вероят­
ности этих значений. Ломану10, соединяюп~ую последовательно точки
(х1,Р1), (х2,р2), ... наэынают многоуголън1Lко.м, (или полигоном) рас­
пределения (см. рис. 17).

Р<

''
''
'
'' Р2[
' ''
Р1:
'' ''
'
'
о

Рис. 17

Теперь можно дать более точное определение д. с. в.


Случайная ве11и·чинn Х дискретиа, если существует конечное или
счетное м1-1ожество чиссJ1 х 1 , х2, ... таких, что Р{Х = xi} = Pi > О
(i = 1, 2, ... ) и Р1 + Р2 + Рз + ... = 1.
Определим математические операции над дискретными с. в.
СуммоtJ (разностъю, произведением) д. с. в. Х, принимающей зна­
чения Xi с вероятностями Pi = Р{Х = Xi}, i = 1, 2, ... 1 пи д. с. в. У 1 r1ри­
нимающей значения YJ с вероятностями PJ = Р{У = у1 }, j = 1, 2, ... , т,
называется д.с. в. Z = Х +У (Z = Х - У, Z = Х ·У), принимающая
значения Zij = Xi +
Yj (zij = Xi - Yi, Zij = Xi · Yj) с вероятностями
Pij =
Р{Х =
х;, У= YJ} для всех указанных значений i и j. В случае
совпадения некоторых сумм х; + YJ (разностей х; - YJ, произведений
XiYj) соответствующие вероятности складываются.
Прои.зведение д. с. в. на число с называется д. с. в. сХ, принимающая
значения cxi с вероятностями Pi = Р{Х = xi}·
Две д. с. в. Х и У называются не.зависим-ыми, если события
{Х = х;} = А; и {У = у1 } = в1 независимы для любых i = 1, 2, ... , п;
Глава 2. Случайные величины • 63

J. = 1, 2, ... , m, т. е.

В противном случае с. в. называются зависим·ыми. Несколько с. в. на­


зываются взаимно независимыми, если закон распределения любой из
них не зависит от того, какие возможные значения приняли остальные

величины.

Пример 2.1. В урне 8 шаров, из которых 5 белых, оста.пьные - чер­


ные. Из нее вынимают наудачу 3 шара. Найти закон распределения
числа белых шаров в выборке.

О Возможные значения с. в. Х - числа белых шаров в выборке есть


Х1= О, Х2 = 1, Хз = 2, Х1 = 3. Вероятности их соответственно будут
со . сз 1 ci . с2
Р1 = Р{Х = О} = 5 з = - Р2 = Р{Х = 1} = 5 з = 5156'
Cl 56' cg
Рз = ~~ , р4 = ~~ . Закон распределения запишем в виде таблицы.

х о 1 2 3
р 1 15 30 10
56 56 56 56

4
(Контроль: L:Pi =
1
1
56
15
+ 56 30 10
+ 56 + 56 = 1.)

Упражнения

1. Монета бросается 4 раза. Построить многоугольник распределения


с. в. Х - числа выпадений герба.

2. Вероятность сдачи экзамена первым студентом равна 0,6, а вто­


рым - 0,9. Составить ряд распределения с. в. Х - числа студен­
тов, успешно сдавших экзамен в случае, когда: а) экзамены пере­
сдавать нельзя; б) экзамен можно один раз пересдать.
64 • Раздел первый. Элементарная теория вероятностей

2.3. Функция распределения и ее свойства. Функция


распределения дискретной случайной величины

Очевидно, ряд распределения с. в. может быть IIOCTJ)Oeн только для


д. с. в.; для н. с. в. нельзя даже перечислить все ее возможные значения.

Кроме т·ого, как увидим позже (п. 2.3, 2.4), вероятность каждого отдель­
но взятого значения н. с. в. равна нулю! Представим себе вероятность
того, что рост мужчины -- н. с. в. -- точно равен v'3 = 1,7320508 ... ме­
тров; купJ1снная нами лампа проработает - н. с. в. -- ровно 900 часов;
.... Удивительно интересный факт: coбъtrnue возможное, но имее1п ну­
левую веро.ятностъ.

Для характеристики поведения н. с. в. целесообразно использовать


вероятность события {Х < х} (а не {Х = х}), ще х ~ некоторое д<'Й­
ствитеJ1ьное число. С точки зрения практики нас мало интересует собы­
тие, состоящее, например, в том, что лампочка проработает ровно 900
часов, т. е. Х = 900. Более важным является событие вида {Х < 900}
(или { Х > 900} ). Такое событие имеет ненулевую вероятность; при из­
менс1Iии х вероятность события { Х < х} в обп~ем СJ1учае бу;~ет менять­
ся. Следовательно, вероятность Р{Х < х} является функцией от х.
У нивсрсальным способом зада11ия закона распределения всроятпо­
сте:й:, пригодным как для дискретных, так и д11я непJJСрывных случай­
ных величин, является ее функция распределения, обозначаемая Fx(x)
(или просто F(x), без индекса, если ясно, о какой с. в. идет речь).
Фyuкv,ueiJ распределениа с. в. Х называется функция F(x), которая
для любого числа х Е R равна вероятности события {Х < х}.
Таким образом, по определению

F(x) = Р{Х < х} т.е. F(x) = Р{ш: Х(ш) < з:}. (2.1)

Функцию F(x) называют также инrпегралъноiJ gjyнкv,ueiJ распределениа.


Геометрически равенство (2.1) можно истолковать так: F(x) есть
вероятность того, что с. в. Х примет значение 1 которое изображается
на числовой оси точкой:, лежащей левее точки х, т. е. с11учайная точка
Х попадет в интервал (-оо, х), см. рис. 18.

Х<х

х х
х

Рис. 18

Функция распределения обладает следующими свойствами:


Глава 2 Случайные величины • 65

1. F(x) ограничена, т. е.

О ( F(x) ( 1.

2. F(x) - неубывающая функция на R, т.е. если х 2 > х, то

3. F(x) обращает в ноль на минус бесконечности и равна единице в


плюс бесконечности, т. е.

F(+oo) = 1.

4. Вероятность попадания с. в. Х в промежуток [а, Ь) равна прираще­


нию ее функ1~ии распредеJ1ения на этом промежутке, т. е.

Р{а ( Х < Ь} = F(b) - F(a). (2.2)

5. F(x) непрерывна слева, т. е.

!iш F(x) = F(x 0 ).


:r.----+.co-0

О 1. Первое свойство следует из определения (2.1) и свойств вероят­


ности (п. 1.11, 1.12).
2. Пусть А= {Х < х 1 }, В= {Х < т2}. Если Х1 < х2, то собы­
тие А влечет событие В (п. 1.4), т. е. А с;; В. Но тогда согласно свой­
ству 4 (п. 1.12), имеем Р(А) ( Р(В), т. е. Р{Х < х1} ( Р{Х < х2} или
F(x1) ( F(x2).
Геометрически свойство 2 очевидно: при перемещении точки х
вправо по числовой оси всроя1ность попада~rия сJ1учайной точки Х в
интервал (-00 1 х) не может уменьшаться.
3. Трt>тье свойство вытекае1 непосредственно из того, что
{Х < -оо} =
С!, а {Х < +оо} =
!2; согласно свойствам вероятности
(п. 1.11, 1.12), имРем: F(-oo) = Р{Х < -оо} = P{CI} =О, F(+oo) =
= Р{Х < +оо} = Р{!2} = 1.
4. Так как а< Ь, то очевидно, 'fTO {Х < Ь} = {Х < а}+{а ( Х < Ь}
(~то хорошо видно на рис. 19).
Так как слагаемые в правой части- несовместные события, то
по теореме слож<'ния вероятностей (п. 1.11) получаем Р{Х < Ь}
= Р{Х < а}+ Р{а ( Х < Ь}. Отсюда следует Р{а ( Х < Ь}
= Р{Х < Ь} -Р{Х <а}= F(b) - F(a).
5. Свойство 5 проиллюстрируем далее на примере 2.2. 8
66 • Раздел первый. Элементарная теория вероятностей

{Х < Ь}
>·, -.,-,-,-.
>.-,-,,-:-,-,
.-', ,-,;'-~-'-Н-Н-)(-)(-)(-~:-,-)(-)(-)(-)(_), Ь
.,-.

{Х <а} {а ( Х < Ь}
Рис, 19

Всякая функция F(x), обладающая свойствами 1-3, 5, может быть


функцией распределения некоторой случайной величины,
Заметим, что формула (2,2) (свойство 4) справедлива и для н, с, в,,
и для д.с.в.

С помощью функции распределения можно вычислить вероятность


события {Х ~ х}:
=l Р{Х ~ х} = 1 - F(x), (2,3)
Можно дать более тоо;ное определение н, с, в,
Случайную величину Х называют непрерывноi1, если ее функция
распределения непрерывна в любой точке и дифференцируема всюду,
кроме, может быть, отдельных точек.
Используя свойство 4 можно показать, что «вероятность того, что
н, с. в. Х примет заранее указанное определенное значение а, равна ну­
лю».

Действительно, применим формулу (2,2) к промежутку [а, х):


Р{а,;::; Х < х}
= F(x)-F(a). Будем неограниченно приближать точку х
к а. Так как функция F(x) непрерывна в точке а, то lim F(x) = F(a), В
х--+а

пределе получим Р{Х =а}= lim F(x) - F(a) = F(a) - F(a) =О. Если
х--+а

функция F(x) везде непрерывна, то вероятность каждого отдельного


значения с. в. равна нулю.

Следовательно, для н. с. в. справедливы равенства

Р{а (; х < Ь} = Р{а < х < Ь} = Р{а (; х (; Ь} = Р{Х Е (а,Ь]},

Действительно,

Р{а,;::; х < Ь} = Р{Х =а}+ Р{а < х < Ь} = Р{а < х < Ь}

и т.д.

Функция распределения д. с. в, имеет вид

F(x) = L р"
х,<х
(2.4)

Здесь суммирование ведется по всем i, для которых х, < х. Равен­


ство (2.4) непосредственно вытекает из определения (2.1).

Глава 2. Случайные величины • 67

Пример 2.2. По условию примера 2.1 (п. 2.2) найти функцию распре­
деления F(x) и построить ее график.

О Будем задавать различные значениях и находить для них F(x) =


=Р{Х<х}:
1. Если х (О, то, очевидно, F(x) = Р{Х <О}= О;

2. Если О <х:;;; 1, то F(x) =Р{Х < х} =Р{Х =0} = l6 ;


3. Если 1 < х,,; 2, то F(x) = Р{Х = О}+Р{Х = 1} = 1 + 15 = 16 ;
56 56 56
4. Если 2 < х,,; 3, то F(x) = Р{Х =О}+ Р{Х = 1} + Р{Х = 2} =
1 15 30 46
= 56 + 56 + 56 = 56 ;
5. Если 3 < х, то F(x) = Р{Х = О}+Р{Х = l}+P{X = 2}+Р{Х =
= 3} = ~~ + ~~ = 1.
Итак,

о, если х (О;
1 если о< х:;;; 1;
56'
F(x) = 16 если 1< х:;;; 2; (2.5)
56'
46 если 2< х:;;; 3;
56,
1, если 3< х.

Строим график F(x), рис. 20.

F(x)
1 -----------------------------!} Р•
46/56 -------------------: '
'
: Рз
:'
16/56 ---------",- - -
1/56 :}Pz
1
о 1 2 з х

Puc. 20

Как видим, функция распределения д. с. в. Х есть разрывная, со


скачками р, в точках х" функция, «непрерывная слева» (при подходе
к точке разрыва слева функция F(x) сохраняет значение). Ее график
имеет ступенчатый вид.
68 • Раздел первый. Элементарная теория вероятностей

Отметим, что, пользуясь равенством (2.4), функцию распределения


можно сразу записать в виде (2.5)

F(x) =

Упражнения

1. Два стрелка делают по одному выстрелу в одну мишень. Вероят­


ность попадания для первого стрелка равна 0,6, а для второго ~
0,8. Найти и построить функцию распределения с. в. Х - числа
попаданий в мишень.

2. Убедиться, что функция

если х ~О,
еслих>О

является функцией распределения некоторой случайной величины.


Найти Р{О ~ х < 1} и построить график F(x).

3. Дана функция распределения

о,

{
при х ~О,
х2
Fx(x) = , при х ~ ,;2,
2
1, при х > ,;2.

Найти вероятность того, что в результате четырех испытаний с. в.


Х трижды примет значение, принадлежащее интервалу (О; 1).
Глава 2. Случайные величины • 69

2.4. Плотность распределения и ее свойства

Важнейшей характеристикой неnреръtвноtJ cлy"iatJнotJ вели"iинъt


(помимо функции распределения) является плотность распределения
вероя'гпостей. Напомним (см. п. 2.3), что: с. n. Х называется неnреръ~в­
ноtJ, если ее функция распределения непрерывна и дифференцируема
всюду, кроме, быть может, отдельных точек.
Плотностыо распределения вероятностеtJ ( плотностъю распреде­
ления, п.л.отностъю веро.ятностеiJ, или просто п.лотностъю) непрерыв­
ной случайной величины Х назьшастся производная ее функции рас­
пределения.

Обозначается плотность распределения н. с. в. Х через f х(х) (или


р х (х)) или просто f (х) (или р( х)), если ясно о какой с. в. идет речь.
Таким образом, по определению

f(x) = F'(x). (2.6)

Функцию /(х) называют также дифференv,иалъноtJ функv,иеtJ распреде­


ления; она является одной из форм закона распределения случайной
величины 1 существует только для непрерывных случайных величин.
Установим вероятностный смысл плотности распределения. Из
определения производной следует

_ . ЛF(х) _ . F(x + Лх) - F(x)


!( Х ) - 1IШ Л 1IШ
- Лх--tО Л ·
Лх--tО Х Х

Но согласно формуле (2.2), F(x +


Лх) - F(x) = Р{х ( Х < х Лх }. +
Р{х(Х<х+Лх}
Отношение Лх представляет собой среднюю вероят-
ность, которая приходится на единиrQТ длины участка [х, х + Лх), т. е.
среднюю плотность распределения вероятности. Тогда

. Р{х(Х<х+Лх}
!()
:r=l1m Л , (2.7)
Лх--tО Х

т. е. плотность распределения есть предел отношения вероятности по­

падания с. в. в промежуток [х; х + Лх) к длине Лх этого промежутка,


когда Лх стремится к нулю. Из равенства (2.7) следует, что

Р{х ( Х < х + Лх}"" f(х)Лх.

То есть плотность вероятности определяется как функv,и.я f(x), удо­


влетворяющая условию Р{х ( Х < х + dx} "" f(x) dx; выражение
f(x) dx называется :элементом вероятности.
70 • Раздел первый. Элементарная теория вероятностей

Отметим, что плотность f(x) аналогична таким понятиям, как


плотность распределения масс на оси абсцисс или плотность тока в
теории электричества.

Плотность распределения обладает следующими свойствами:


1. f(x) неотрицательная, т. е.

f(x) ) О.

2. Вероятность попадания н. с. в. в промежуток [а; Ь) равна определен­


ному интегралу от ее плотности в пределах от а до Ь, т. е.

f
ь

Р{а :( Х :( Ь} = J(x) dx. (2.8)


а

3. Функция распределения н. с в. может быть выражена через ее


плотность вероятности по формуле

!
х

F(x) = f(t) dt.


-оо

4. Условие нормировки: несобственный интеграл от плотности веро­


ятности п. с. в. в бесконечных пределах равен единице, т. е.

f
00

f(x)dx = 1.
-оо

О 1. Плотность распределения f(x) - неотрицательная функция:


F(x) - неубывающая функция (п. 2.3), следовательно, F'(x) ) О, т. е.
f(x) ) О. Это означает, что график плотности f(x), называемый криво(J
распределенш~, не ниже оси абсцисс; плотность может принимать сколь
угодно большие значения.
2. Так как F(.r) есть первообразная для плотности f(x), то 110 фор­
муле Ныотона-Лейбница имеем

f
ь

f(x) dx = F(b) - F(a).


а

Отсюда в силу свойства 4 функции распределения (формула (2.2)), по­


лучаем

f
ь

f(x) dx = Р{а :( Х :( Ь}.


а
Глава 2 Случайные величины • 71

Геометрически эта вероятность равна площади S фигуры, ограничен­


ной сверху кривой распределения f(x) и опирающейся на отрезок [а; Ь]
(рис. 21).

Рис. 21

3. Используя свойство 2, получаем:

J J
х х

F(x)=P{X<x}=P{-oo<X<x}= f(x)dx= f(t)dt


-00 -оо

(буква t для ясности).


4. Полагая в формуле (2.8) а = -оо и Ь = +оо, получаем достовер­
ное событие ХЕ (-оо; +оо). Следовательно,

J
+оо

f(x) dx = Р{-оо < Х < +оо} = Р{!!} = 1.


-оо

Геометрически свойство нормировки означает, что площадь фигуры,


ограниченной кривой распределения f (х) и осью абсцисс, равна еди­
нице. •

Можно дать такое определение непрерывной случайной величины:


случайная величи11а Х называется ttеnреръ~вной, если существует не­
отрицательная функция f(x) такая, что при любом х функцию распре­
деления F(x) можно представить в виде

J
х

F(x) = f(t) dt.


-оо

А затем получить, что f(x) = F'(x). Отсюда следует, что F(x) и f(x)
являются эквивалентными обобщающими характеристиками с. в. Х.
72 • Раздел перв~1й. Элементарна11 теори11 веро11тностей

Как отмечалось ранее (п. 2.3) для н. с. в. Х, вероятность события


{Х =с}, где с - число, равна нулю. Действительно,

J
с

Р{Х=с}=Р{с:;;;Х"с}= f(x)dx=O.
с

Отсюда также следует, что

Р{Х Е [а;Ь)} = Р{Х Е [а; Ь]} = Р{Х Е (а; Ь)}.

Пример 2.3. Плотность распределения с. в. Х задана функцией f(x) =


= ~ . Найти значение параметра а.
l+x

Q Согласно свойству 4 плотности, имеем

+оо d

! ~dx
-00
l+x
= 1, т.е. а d-t+oo
lim 1~=1,
с-+-оо
1 + х2
С
т.е. а· lim arctgx[d=l
d-t+oo
c-t-oo
с

или а·(~-(-~)) = 1 и, :а:аконец, получаем ап = 1, т. е. а= 1Г.


1

Упражнения

1. Случайная величина Х задана функцией распределения:

{
о, при х ~ -1,
F(x)= а(х+1) 2 , при - 1< х:;:; 2,
1, при х > 2.
Найти значение а, построить графики F(x) и f(x).

2. Кривая распределения н. с. в. Х имеет вид, указанный на рис. 22.


Найти выражение для fx(x), функцию распределения Fx(x), веро-

ятность события {х Е (~; 1) }·


Глава 2. Случайные величины • 73

f(x) М

Рис. 22

З. Является ли плотностью распределения некоторой с. в. каждая из


следующих функций:
а) f(x) = х ) при х Е (-оо; +оо);
ir(l + х2
б) f(x) = {~, при х Е (-1; 1]:
О, при х !/; (-1, 1],
в) f(x) = {О, при х <О их> 2,
ах 2 , при О ,,;; х ,,;; 2.

2.5. Числовые характеристики случайных величин

Закон распределения полностью характеризует случайную величи­


ну. Однако при решении многих практических задач достаточно знать
лишь некоторые числовъtе параметръt, характеризуюи1;ие отде.л:ьные
существенные свойства (черты) закона распределения с. в. Такие чи­
сла принято 11азывать -числовыми характеристиками с. в.

Важней111ими среди них являются характеристики положения: ма­


тематическое ожидание (центр распределения с. в.), мода 1 медиана; ха­
рактерис'Гики рассеяния: дисперсия (отклонение значений с. в. от ее
центра), среднее квадратическое отклонение.

Математическое ожидание случайной величины

Математи-ческим о'JtСuданием (или средним значением) д. с. в. Х,


имеющей закон распределения Pi = Р{Х = Xi}, i = 1, 2, 3, ... , п, назы­
вается число, равное сумме произведений всех ее значений на соответ­
ствующие им вероятнос'Ги.
74 • Раздел первый. Э.nементарная теория вероятностей

Математическое ожидание (сокращенно: м.о.) обозначается через


МХ (или: М[Х], М(Х), ЕХ, тх, ах).
Таким образом, по определению

n
МХ = Lxi ·Pi· (2.9)
i=l

Если число возможных значений с. в. Х бесконечно (счетно), то

00

МХ = Lxi · Pi, (2.10)


i=l

причем ряд в правой части предполагается сходящимся (в противном


случае с. в.Хне имеет м. о.).
Формулы (2.9) и (2.10) можно записать в виде М Х = L; XiPi·
i
Вероятностный смысл математического ожидания состоит в том,
n
что оно является средним значением с. в. Действительно, т. к. L; Pi = 1,
i=I
то
n
n L XiPi
МХ = L XiPi = _i=-;-,- - = Хсреднее·
i=l L; Pi
i=I

Математическим ожиданием н. с. в. Х с плотностью вероятности


f(x), называется число

J
00

МХ= x·f(x)dx. (2.11)


-00

Интеграл в право!! части равенства (2.11) предполагается абсолютно


сходящимся, т. е.

-оо
J"" lxl · f(x)dx < оо
(в противном случае н. с. в. Х не имеет м. о.).
Формула (2.11) является интегральным аналогом формулы (2.9).
Заменяя в ней «прыгающий» аргумент Xi на непрерывно меняющий­
ся х, вероятность Pi - элементом вероятности f(x) dx (f(x) dx =
=F'(x)dx = dF(x) "'ЛF(х) = F(x+Лx)-F(x) = Р{х < Х < х+Лх}),
получим равенство (2 .11).
Глава 2. Случайные величины • 75

Отметим, что М Х имеет ту же размерность, что и с. в. Х.


Своiiства математического ожидания.
1. Математическое ожидание постоянно!\ равно само!\ этой постоян­
ной, т.е.
Мс=с.

2. Постоянный множитель выносится за знак м.о., т.е.

М(сХ) = сМХ.

3. М. о. суммы с. в. равно сумме их м. о., т. е.

М(Х +У)= МХ +МУ.

4. М. о. отклоне1rия с. в. от ее м. о. равно нулю, т. е.

М(Х-МХ) =0.
5. М. о. произведения независимых с. в. равно произведению их м. о.,
т. е. если Х и У независимы, то

М(Х ·У)= МХ · МУ.

О 1. Постоянную с можно рассматривать как д. с. в. Х, принимающую


лишь одно значение с вероятностью 1. Поэтому Мс= с· Р{Х =с}=
=c·l=c.
2. Так как д.с. в. сХ принимает значения сх; (i = 1, п) с вероятно­
стями Pi, то
n n
МсХ = l:cx; ·р; =с l:x,p; = сМХ.
i=l i=l
3. Так как д. с. в. Х +У принимает значениях; +YJ с вероятностями
PiJ = Р{Х; = х;, У= YJ}, то
п m п т п т

М(Х +У)= LL(x; +yJ)Pij = LLXiPij + LLYJPiJ =


i=l j=l i=l j=l
п m m п п m
= L Х; L Pij + L YJ L Pij = L Х; . Pi + L YJ . PJ = м х + МУ.
i=l j=l j=I i=l i=l

При доказательстве воспоJ1ьзовались, в частности, тем, что

m n
LPiJ =pj и LPij = PJ·
j=l i=l
76 • Раздел первый. Элементарная теория вероятностей

Действительно: так как

т т

L{X = х,; У= у1 } = {Х = х,} L{Y = у1 } = {Х = т,} · Q = {Х = х,},


1=1 1=1

то

р, = Р{Х = х,} = r(f)x


;=1
= х,;У = v 1 }) =
т т

= LP{X = х,;У = у1 } = LPi1 ;


1=1 ;=1

аналогично получаем
п

Рз = LР•з·
i=l
Свойство 3 распространяется на произвольное конечное число слагае­
мых.

4. Согласно свойствам 1и3, имеем: М(Х-МХ) = МХ-М(МХ) =


= М Х - М Х =О. Отметим, что разность Х - М Х (или Х - mx) назы­
вается отклонением. с. в. Х от ее м. о. М Х и обозначается символом i:

Х=Х-МХ.

Эта с. в. Х называется также цеитрнрованиоu с. в.


5. Так как с.в. Х и У н~зависимы, то Р~з = Р{Х = х,;У =Уз}=
= Р{Х = х,} · Р{У =Уз}= р, · Рз· Следовательно,

п т

МХУ= LLXiYз Р{Х = х,;У =Уз}=


i=l 1=1

Свойства м. о., доказанные для д. с. в., остаются справедливы и для


непрерывных с. в. Так, например,

00 00

МсХ= / cxf(x)dx=c / xf(x)rlx=cMX.


-оо -оо
Глава 2. Случайные величины • 77

Пример 2.4. В лотерее имеется 1000 билетов, из них выигрышных: 10


по 500 руб,50 по 50 руб, 100 по 10 руб, 150 по 1 руб. Найти матема:ги­
ческое ожидание выигрыша на один билет.

Q Ряд распределения с. в. Х - суммы выигрыша на один билет таков:

х 500 50 10 1 о
р 0,01 0,05 0,1 0,15 0,69

5
(Контроль: l::Pi = 1.) Находим МХ:
i=l
мх = 500. 0,01+50. 0,05 + 10. 0,1+1·0,15 +о. 0,69 = 8,65 руб. •

Дисперсия

Дucnepcueft (расселние.м) с. в. Х называется математическое ожи­


дание квадрата ее отклонения от своего математического ожидания.

Обозначается дисперсия через DX (или D[X], Dx, D(X)). Таким


образом, по определению

DX = М(Х - МХ) 2 , (2.12)

или DX = МХ 2 , или DX = М(Х - mx) 2 . Дисперсия характеризует


разброс значений с. в. Х относительно ее м. о. Из определения диспер­
сии следуют формулы для ее вычисления:

DX = l:(xi - МХ) 2 · р; -для д.с. в. Х, (2.13)

DX = ! (х-МХ)
+оо

-00
2 · f(x)dx -для и.с.в. Х. (2.14)

На практике дисперсию с. в. удобно находить по формуле

DX = МХ 2 - (МХ) 2 . (2.15)

Она получается из формулы (2.12): DX = М(Х 2 -2Х·МХ +(МХ) 2 ) =


= МХ 2 - М(2Х. МХ) + М(МХ) 2 = МХ 2 - 2МХ. мх + (МХ) 2 =
= мх 2 - (МХ) 2 .
78 • Раздел первый. Элементарная теория вероятностей

Это позволяет записать формулы для ее вычисления ((2.13) и


(2.14)) в другом виде:

DX = I:хт. Pi - (МХ) 2 , (2.16)


+оо
2
DX = · f(x) dx - (МХ) 2 . (2.17)
-оо

Своiiства дисперсии.
1. Дисперсия постоянной равна нулю, т. е.

Dc =0.
2. Постоянный множитель можно выносить за знак дисперсии, возве­
дя его в квадрат, т. е.

DcX=c2 DX.
3. Дисперсия суммы независимых с. в. равна сумме их дисперсий, т. е.
если Х и У независимы, то

D(X +У)= DX +DY.


4. Дисперсия с. в. не изменится, если к этой с. в. прибавить постоян­
ную, т.е.

D(X +с)= DX.


5. Если с. в. Х и У независимы, то

D(XY) = МХ 2 . МУ 2 - (МХ) 2 . (МУ) 2 .

О 1. Dc = М(с - М с) 2 = М(с - с) 2 = МО =О.


2. DcX = М(сХ -М(сХ)) 2 = М(сХ -сМХ) 2 = М(с 2 (Х -МХ) 2 ) =
= с 2 М(Х - МХ) 2 = c2 DX.
3. Используя формулу (2.15), получаем D(X +У)= М(Х + У) 2 -
-(М(Х+У)) 2 = МХ 2 +2МХУ +МУ 2 -(МХ) 2 -2МХ·МУ-(МУ) 2 =
= МХ 2 -(МХ) 2 +МУ 2 -(МУ) 2 +2(МХУ-МХ ·МУ) = DX +DY +
+2(МХ · МУ-МХ · МУ) =DX +DY.
Отметим, что если с. в. Х и У зависимы., то

D(X +У)= DX + DY + 2М((Х -МХ) ·(У -МУ)).

4. D(c + Х) = М((с + Х) - М(с + Х)) 2 = М(Х - МХ) 2 = DX .


Доказательство свойства 5 не приводим.

Свойства дисперсии, доказанные выше для дискретных случайных
величин, остаются справедливыми и для непрерывных с. в.
Глава 2. Случайные величины • 79

Среднее квадратическое отклонение

Дисперсия DX имеет размерность квадрата с. в. Х, что в сравни­


тельных целях неудобно. Когда желательно, чтобы оценка разброса
(рассеяния) имела размерность с. в" используют еще одну числовую
характеристику - среднее квадратическое отклонение (сокращенно:
с. к.о.).
Средним квадраmи'Ческим отклонением или стандартнъ~м откло­
нением с. в. Х называется квадратный корень из ее дисперсии, обозна­
чают через ах (или аХ, а[Х], а). Таким образом, по определению

ах= ГDХ. (2.18)

Из свойств дисперсии вытекают соответству1ощие свойства с. к. о.:


ас= О, асх = lclax, а(с + Х) =ах.
Для изучения свойств случайного явления, независящих от выбо­
ра масштаба измерения и положения центра группирования, исходную
случайную величину Х приводят к некоторому стандартному виду: ее
центрируют, т. е. записывают разность Х - М Х (геометрически озна­
чает, что начало координат переносится в точку с абсциссой 1 равной
м. о.), затем делят на с. к. о. ах.
Х-МХ
Случайную величину Z = ах называют стандартноti, cлy-
·ч,ati,нoti, вели'!иноti,. Ее м. о. равно О, а дисперсия равна 1. Действителыю,

MZ= м (х -ахмх) = -ах1 М(Х -МХ) =о '


DZ = _l_D(X - МХ) = DX = DX = 1.
aJc al DX
То есть Z - центрированная (MZ = О) и нормированная. (DZ = 1)
случайная величина.

ISJ Пример 2.5. Д. с. в. Х задана рядом распределения.

х -1 о 1 2
р 0,2 0,1 0,3 0,4

Найти МХ, DX, ах.

Q Используем формулы (2.9), (2.13), (2.18): М Х = -1 · 0,2 +О· 0,1 +


+1·0,3+2·0,4 = 0,9; DX = (-1-0,9) 2 ·0,2+(0-0,9) 2 ·0,l+(l-0,9) 2 ·0,3+
+(2-0,9) 2 ·0,4 = 1,29 (или, используя формулу (2.16), DX = (-1) 2 ·0,2+
+ 02 · 0,1+1 2 · 0,3 + 22 · 0,4- (0,9) 2 = 1,29); ах= .;г,29""' 1,14. 8
80 • Раздел первый. Элементарная теория вероятностей

Мода и медиана. Моменты случайных величин. Асимметрия


и эксцесс. Квантили

Модоu д. с. в. Х называется ее значение, принимаемое с наибольшей


вероятностью по сравнению с двумя соседними значениями, обознача­
ется через М0 Х. Для н.с.в. М0 Х -- точка максимума (локального)
плотности fx(x).
EcJIИ мода единственна, то распределение с. в. называется унимо­
далънъ~м, в противном случае - поли.м.одад'ьttъ~м (рис. 23).

f(x)

х
М0 Х хр = М,Х МоХ

Рис. 23

Медианоu МеХ н. с. в. Х называется такое ее значение Хр, для ко­


торого

1
Р{Х < ·"'р} = Р{Х > Хр} = 2' (2.19)

т. е. одинаково вероятно, окажется ли с. в. Х меньше Хр иJIИ больше Хр


(рис. 23).
С помошью функции распределения F(x) равенство (2.19) можно
записать в виде F(MeX) = 1 - F(MeX). Отсюда F(M,X) = ~.
Для д. с. в. медиана обычно не определяется.
Математическое ожидание и дисперсия являются частными случа­
ями след,ующих более общих понятий - моментов с. в.
Начальным .моментом порядка k с. в. Х называется м. о. k-й сте­
пени этой величины, обозначается через ak.
Таким образом, по определению

Для д. с. в. начальный момент выражается суммой:


Глава 2. Случайные величины • 81

а для н. с. в. - интегралом: ;Т

00

°'k = J xk · f(x) dx.


-оо

В частности, а1 = М Х, т. е. начальный момент 1-го порядка есть м. о.


Центра.л,ы;ы.м .моментом порядка k с. в. Х называется м. о. вели­
чины (Х - MX)k, обозначается через µk.
Таким образом, по определению

В частrюсти, µ2 = D Х, т. е. центральный момент 2-го порядка есть


дисперсия; µ1 = М(Х - МХ) =О (см. свойство 4 м. о.).
Для д.с.в.:

µk = l.)x, - MX)k · р"

а для н. с. в.:
00

µk= J(x-MX)k·f(x)dx.
-00

Центральные моменты могут быть выражены через начальные


моменты. Так, µ 2 = DX = а 2 - ai (действительно: µ2 = DX =
= МХ 2 - (МХ) 2 = а2 - ау); µз =аз -За1а2 + 2af, µ4 = а4 -4а1аз +
+баiа2 -Заi и т.д.
Среди моментов высших порядков особое значение имеют п.ен­
тральные моменты 3-ro и 4-го порядков 1 называемых соответс'Гвенно
коэффициевтами асимметрии и эксцесса.
Коэффициентом асимметрии ( «скошенносmи») А с. в. Х называ-
ется величина

А_ Е.2_ _ М(Х - МХ) 3


- 3 - 3
ах (DX)'i
Если А > О, то кривая распределения более полога справа от МоХ
(рис. 24).
Если А < О, то кривая распределения более полога слева от МоХ
(рис. 25).
Коэфф1щиенто.м эксцесса («островершинносmи») Е с. в. Х назы­
вается величина

Е = J!:i. - 3 = М(Х - МХ)4 - 3.


ai (DX)2
82 • Раздел первый. Элементарная теория вероятностей

f(x)

А>О

Рис. 24

f(x)

А<О

о х

Рис. 25

Величина Е характеризует островершинность или плосковершин­


ность распределения. Для нормального закона распределения (см.
п. 2. 7) А =О и Е = О; остальные распределения сравниваются с нор­
мальным: если Е >О- более островершинные, а распределения «плос­
ковершинные» имеют Е <О (рис. 26).
f(x)

Рис. 26

Кроме рассмотренных вьппе числовых характеристик с. в., в при­


ложениях использу1отся так называемые квантили.

\§] Кванти.лью уровн.я р с. в. Х называется решение уравнения


Fx(xp) = р,
где р - некоторое число, О< р < 1.
Квантили xo,2s~ xo,s и хо,75 имеют свои названия: нижняя кван­
ти.ль, медиана (МеХ = хо,.>), верхи.я.я кванти.лъ соответственно. Они
делят числовую прямую на 4 части, вероятности попадания в которые
равны 0,25 (рис. 27).
Глава 2. Случайные величины • 83

!(х)

0,25
о xo,2s xo,s xo,1s х

Рис. 27

Упражнения

1. Производится 3 независимых выстрела по цели. Вероятности по­


падания при разных выстрелах одинаковы и равны р = 0,9. Найти
м. о. числа попаданий. Решить задачу в случае, если В<='роятности
попадания при разных выстрелах различны: а) Р1 = 0,7, б) Р2 = 0,8,
в) Рз = 0,9.

2. Непрерывная случайная величина задана плотностью распределе-


ния

{
о, при х ~О их > Jr,
fx(x) = 1 .
'2 s1nx, при О< х ( ir.

Найти математическое ожидание случайной величины Х.

3. Пусть Х и У - независимые д. с. в., причем МХ = 2, МУ -3,


DX = 2, DY = 9. Найти MZ и DZ, если Z = 5Х - ЗУ+ 2.

4. По условию упражнения 2 найти DX и CJx.

5. С. в. Х задана функцией распределения

{
о, при х (А,
F(x) = О,25х 2 , при А< х (В,
1, при В< х.

Найти значения А и В, МХ и CJx.

6. Пусть Xi, Х2 , ... , Хп - последовательность 11езависимых с. в.


с МХ, =а и DX, = CJ ,
2
i = 1,2,".,n. Найти м.о. и дисперсию
среднего арифметического п независимых с. в. Х 1 •
84 • Раздел первый. Элементарная теориst вероятностей

2.6. Производящая функция

Нахождение важнейших числовых характеристик д. с. в. с целыми


неотрицательными значениями удобно производить с помо1цью произ­
водящих функций.
Пусть д. с. в. Х принимает значения О, 1, 2, ... , k, ... с вероятностя­
ми ро,р1,р2, ... ,pk = Р{Х = k}, ....
~ Производлщей функv,ией для д. с. в. Х называется функция вида
00

<p(z) = LPk · zk =ро +p1z+p2z 2 + ... , (2.20)


k=O
где z- произвольный параметр, О < z <:; 1.
Отметим, что коэффициентами степенного ряда (2.20) являются
вероятности закона распределения д. с. в. Х.
Дифференцируя по z производящую функцию, получим

00
1
<p (z) = L k ·pk ·zk-l.
k=O
Тогда
00

мх =
1
<p (l) = L k . Pk = 0<1,
k=O
т.е.

°'1 = мх = <p (l). 1


(2.21)
Взяв вторую производную функции <p(z) и положив в ней z = 1, полу­
чим:

00 00 00
11 2
<p11 (z) = Lk(k-1) · Pk · zk- 2 , <p (l) = Lk 'Pk- Lk'Pk = 0<2-0<1,
k=O k=O k=O
где а2 и ai - начальные моменты соответственно 2-го и 1-го порядков
(а2 =
МХ , а1 2
=
МХ). Тогда DX МХ 2 - (МХ) 2 = а2 - ai
= (а2 - 0<1) + °'1 - ai = <р (1) + <р (1) - (<р (1) ) 2 , т. е.
11 1 1

DX = <р 11 (1) + <р (1) 1


- (<р'(1)) 2 . (2.22)

Полученные формулы (2.21) и (2.22) используются для нахождения


м. о. и дисперсии рассматриваемого распределения.

Пример 2.6. Найти дисперсию с. в. Х - числа попаданий в упражнr­


нии 1 (п. 2.5).
Глава 2. Случайные величины • 85

Q Ряд распределения с. в. Х:

х о 1 2 3
р 0,01 0,027 0,243 о, 729

Найдем DX, используя формулу (2.22). Производящая функция <p(z) =


= 0,01 +0,027z +0,243z 2 +0,729z 3 . Тогда <p1 (z) = 0,027 + 0,486z + 2,187z 2 .
Полагая z = 1, находим <р 1 (1) = 2,7 = МХ (упражнение 1 из п. 2.5).
<p11 (z) = 0,486+4,374z. Поэтому <р 11 (1) = 4,46 и DX = 4,86+2,7- (2,7) 2 =
= 0,27 (формула (2.22)).
Аналогично решаем во втором случае, когда вероятности при раз­
ных выстрелах различны (п. 1.20, пример 1.31). <p(z) = 0,006 + 0,092z +
+ 0,398z 2 + 0,504z 3 . <p'(z) = 0,092 + 0,796z + l,512z 2 , <р 1 (1) = 2,4 = МХ.
<p"(z) = 0,796 + 3,024z, <р 11 (1) = 3,82. Поэтому DX = 3,82 + 2,4- (2,4) 2 =
= 0,46. •

2. 7. Основные законы распределения случайных


величин

Биномиальный закон распределения

Среди законов распределения д. с. в. наиболее распространенным


является биномиальное распределение, с которым мы уже встречались
(п. 1.20).
Дискретная с. в. Х имеет биномиальное распределение (или рас­
пределена по биномиальному закону), если она принимает значения
О, 1, 2, 3, ... , п, с вероятностями:

(2.23)

где О < р < 1, q = 1 - р, m = О, 1,"., n.


Случайная величина Х, распределенная по биномиальному закону,
является числом успехов с вероятностыо р в схеме Бернулли проведе­
ния п независимых опытов.

Если требуется вычислить вероятность «не ме11ее n ri m успехов


независимых опытах», т.е. Р{Х;:,, m}, то имеем: Рт= Р{Х;:,, m} =
= Р{Х = m}+P{X = m+ 1}+". +Р{Х = п}. Вероятность Рт бывает
86 • Раздел первый. Элементарная теория вероятностей

удобно находить через вероятность противоположного события: Рт =


= Р{Х;;, m} = 1 - Р{Х < m}; та из двух формул лучше, где меньше
слагаемых.

Ряд распределения д.с. в. Х, имеющей биномиальное распределе­


ние, имеет вид:

X=m о 1 2 . .. m ... п

Рт=Р{Х=m} qn C~p1qn-1 С~р2qп-2 . . . CJ:}pmqn-m ... Pn

Контроль: 2:; Рт = (р + q)n = 1.


m=O
Функция распределения с. в. Х, распределенной по биномиальному
закону, имеет вид:

при х:;;;: О
при О< х ( п

при п < х.
Найдем числовые характеристики этого распределения. Производящей
функцией биномиального распределения является

п п

<p(z) = 2:: c:-pmqn-mzт = 2:: c:-(pz)mqn-m = (q + pz)n,


m;;;::O m=O

т.е. <p(z) = (q+pz)n. Тогда

<p1 (z) = п(q + pz)n-lp, <p11 (z) = п(п - l)p2 (q + pz)n- 2


Следовательно (см. п. 2.6), МХ = <р (1) =пр, т.к. p+q = 1, DX


1
=
= <р (1) + <p'(l) - ('1''(1)) 2 = п(п - l)p 2 +пр - п 2 р 2 = прq. Итак,
11

МХ =пр, DX = прq. (2.24)

Эти формулы полезно знать.

Пример 2. 7_ По условию упражнения 1 из п. 2.5 найти М Х и DX, где


Х - число попаданий в цель.

Q С. в. Х имеет биномиальное распределение. Здесь п = 3, р = 0,9,


q = 0,1. По формулам (2.24) находим МХ и DX: МХ = 3 · 0,9 = 2,7,
DX = 3 · 0,9 · 0,1 = 0,27. 8
Глава 2. Случайные величины • 87

Распределение Пуассона

Дискретная случайная величина Х имеет распределе11ие Пуассо11а,


если ее возможные значения: О, 1, 2, ... 1 m, ... (счетное множество зна­
чений), а соответствующие вероятности выражаются формулой Пуас-
сана
ат. е-а
Pm=P{X=m}= , (2.25)
m.1
где m =О, 1, 2, ... , а - параметр.
Распределение Пуассона является предельным для биномиального,
когда п --+ оо и р --+ О так, что пр = а - постоянно. Примерами слу­
чайных величин, име1ощих распределение Пуассона 1 являются: число
вызовов на телефонной станции за время t; число опечаток в большом
тексте; число бракованных дета.лей в большой партии; число а-частиц,
испускаемых радиоактивным источником, и т. д. При этом считается,
что события появляются независимо друг от друга с постоянной cpeд-
11etJ и11те11сив11остъю, характеризующейся параметром а = пр.
Случайная величина Х, распределенная по закону Пуассона, имеет
следующий ряд распределения

X=m о 1 2 ... m . ..
а
а"· е
а
ат ·е а

Рт
е-а ~ ... ...
1! 2! m!
оо оо m
Контроль: Z:: Рт= е-а Z:: ~ = е-а · е" = 1.
m==O m==O m.
Найдем м. о. и дисперсию с. в. Х, распределенной по закону Пуас-
сона. Производящей функцией распределения Пуассона будет

т.е. <p(z) = e•(z-l). Тогда <p'(z) =а· ea(z-l), <p11 (z) = а 2 · ea(z-l). Стало
быть, МХ = <р (1) =а, DX = <р (1)
1 11
+ <р (1) 1
- (<р (1)) 2 = а 2 +а - а 2 =а.
1

Итак,
MX=DX=a, (2.26)
т. е. параметр а пуассоновского распределения равен одновременном. о.

и дисперсии с. в. Х, имеющей это распределение. В этом состоит отли­


чительная особенность изучаемого распределения, которая использу­
ется на практике (на основании опытных да11ных находят оценки для
м. о. и дисперсии; если они близки между собой, то есть основание счи­
тать, что с. в. распределена по закону Пуассона).
88 • Раздел первый. Элементарная теория вероятностей

Пример 2.8. Вероятность попадания в цель при одном выстреле равна


0,01. Какова вероятность того, что число попаданий при 200 выстрелах
составит не менее 5 и не более 10?

С} Вероятность р = 0,01 очень мала, а число выстрелов (опытов)


достаточно велико. Поэтому искомую вероятность будем находить,
используя формулу Пуассона. С. в. Х - число попаданий. Требу·
ется найти Р{5 <:; Х <:; 10}. По теореме сложения вероятностей
Р{5 <:; Х <:; 10} = Р{Х = 5} + Р{Х = 6} + ... + Р{Х = 10}. Име-
ем: а= пр= 200 · 0,01 = 2, е-а = е- 2 ""0,135,

6 2в 9 10) ""0,053 .
2s
Р{5 <:; Х <:; 10} = 0,135 ( б!
1
+ 2б! + 271 + S! + 2g! + 2lO! •

Геометрическое распределение

Дискретная с. в. Х имеет геометрическое распределен.не~ ес11и ее


возможные значения: 1,2,3 14, . .. , а вероятности этих значений:

Рт= Р{Х = m} = qm-lp, {2.27)

где т = О, 1, 2, ....
Геометрическое распределение имеет с. в. Х, равная числу опытов
в схеме Бернулли, проведенной до первого успеха вероятность успехар
в единичном опыте. Примерами реальных случайных величин, распре­
деленных по геометрическому закону, являются: число выстрелов до

первого попадания, число испытаний прибора до первого отказа, число


бросаний монеты до первого выпадения решки и т. д.
Ряд распределения случайной величины Х, имеющей геометриче­
ское распределение, имеет вид

00 00 1 р
Контроль: L; pqm-l = р L; qm-l = р. - - = - = 1.
m~l m~l
1- q Р
Вероятности Рт образуют геометрическую прогре-ссию р, qp, q2p,
q3 p, .... По этой причине распределение {2.27) называют гео.метри-че·
с к им.
Глава 2. Случайные величины • 89

Найдем математическое ожидание и дисперсию геометрического


распределения. Производящей функцией для с. в. Х является функ­
ция

00 00

<p(z) = L qm-lpzm = pz L (qz)m-1 = pz 1 ! qz'


m=l m=l

т.е. <р (z ) -_ - -pz- . Для нее <р


'( z ) -_ р , <р
"( z ) -_ 2pq . С тало
1 - qz (1 - qz) 2 (1 - qz) 3
быть,

МХ=<р 1 (1)= р =J!... 1


(l-q)2 Р2 'ii'
(2.28)
DX = <p"(l) + <p'(l) - (<р'(1)) 2 = 2рзPq + lРр2
_ l = !L,
р2

,;q
т.е. МХ
1
= Р' DX = 2q и, значит, ах= р·
р

Пример 2.9. Вероятность попадания в цель при отдельном выстре­


ле для данного стрелка равна 0,1. Найти математическое ожидание и
дисперсию с. в. Х - чисJ1а выстрелов по цели до первого попадания.

Q С. в. Х имеет геометрическое распределение с параметром р = 0,1.


По формулам (2.28): МХ = 0\ = 10, DX = o,g = 90 (ах = у'9О =
' (0,1) 2
= зVIO). •

Заме'l.ание. Геометрическое распределение является частным слу-


чаем так называемого расnределеии.я Паскаля: Р{Х m} =
1' 2 ' 3 ' ... , r О МХ r DX = 2·
rq
= C r-I
т+т-1Р
r m-I
q 'т = > - целое; = Р'
р

При r = 1 распределение Паскаля совпадает с геометрическим; при


r >1- совпадает с распределением суммы независимых с. в., имею­
щих геометрическое распределение; при натуральном r оно описывает

число опытов в схеме Бернулли, необходимых для того, чтобы полу­


чить значение 1 ровно r раз. РаспредеJ1ение Паскаля имеет приложение
к статистике несчастных случаев и заболеваний и т. д.
90 • Раздел первый. Элементарная теория вероятностей

Гипергеометрический закон распределения

Дискретная с. в. Х имеет гипергеометрическое распределение, если


она принимает значения 0,1,2 1 ••• ,m 1 • • • ,min(n, М) с вероятностями

ст
М
.cn-m
N-M
Рт=Р { X=m } = сп
N
, (2.29)

где т = 0,1, ... ,min(n,M), М ~ N, m ~ п, п ~ N; п, М, N - нату-


ральнь1е числа.

Гипергеометрическое распределение возникает в случаях, подоб­


ных следующему: в урне N шаров, из них М белых, а остальные чер­
ные; из нее вынимается п шаров. Требуется найти вероятность того,
что среди извJ1ечснных шаров будет ровно m белых (остальные чер­
ные). Случайная величина Х - число белых шаров среди извлеченных
из урны.

В п. 1.7 разобран пример 1.6 подобного типа.


Математи~1еские ожидания д. с. в. Х, имеющей гипергеометриче­
ское распределение, есть

м
MX=n· N' (2.30)

а ее дисперсия

_ . _м__
D Х - п N -1
. (N - M)(N - п)
(2.31)
Nz .

Гипергеометрическое распределение определяется тремя параметрами


N, М, п. Если п мало по сравнению с N (практически при п < / N),
0
он приближается к биномиальному распределению с параметрами п и

Гипергеометрическое распределение используется при решении задач,


связанных с контролем качества продукции (и других).

Пример 2.10. В группе из 21 студентов 5 девушек. Из этоl! группы


наудачу отбирается 3 студента. Составить закон распределения д. с. в.
Х - числа девушек из отобранных С'rудентов. Найти М Х.

Q С. в. Х принимае1· значения
0,1,2,3. Вероятности этих значений

находим по формуле (2.29): Ро = Р{Х = О} =


С{6
"'=' 0,4211,
cg ·
с~1
Глава 2. Случайные величины • 91

Cg · С[6 Cg · С/ 6
Р1 = Р{Х = 1} = сз "'0,4511, pz = Р{Х = 2} = сз "'0,1203,
21 21

Рз = Р{Х = 3} =
cg · срб "'0,0075. Ряд распределения:
3
С21

X=rn о 1 2 3
Pm 0,4211 0,4511 0,1203 0,0075

Значение МХ найдем двумя способами: а)по ряду распределения:


МХ =О· 0,4211+1·0,4511+2 · 0,1203 + 3 · 0,0075 = 0,7142; б)по форму-
ле (2.30) М Х = 3 · 5 = 't5 "'0,7142. 8
21

~вномерный закон распределения

Непрерывная с. в. Х имеет равно.мерное распределение на отрезке


[а, Ь], если ее плотность вероятности f(x) постоянна на этом отрезке, а
вне его равна нулю:

f(x)={b~a' о,
при х Е [а, Ь],

при х rfc [а, Ь],


(2.32)

(т. е. f(x) =с при х Е [а, Ь], но

+оо

-00
J cdx = 1,

отсюда следует, что схJЬ = а


1, с = -Ь
1 ; вместо отрезка [а, Ь] можно

писать (а, Ь) или (а, Ь], [а, Ь), так как с. в. Х - непрерывна.)
График плотности f(x) для равномерного распределения н.с. в. Х
изображен на рис. 28.
Равномерное распределение с. в.Хна участке [а, Ь] (или (а, Ь)) бу­
дем обозначать: Х ~ R[a, Ь].
Найдем функцию распределения F(x) для Х ~ R[a, Ь]. Согласно
формуле (см. п. 2.4)

J
х

F(x) = f(x) dx,


-00
92 • Раздел первый. Элементарная теория вероятностей

f(x)
1
Ь-а

о а ь х

Рис 28

имеем

F(x) = ! х

__ill_ =
Ь-а
_t_lx х - а
Ь-аа
=
Ь-а
а

при а< х ( Ь; F(x) =О при х (а, и

а Ь х

F(x)= !
-оо
Odt+ ! ь'!!а + f
а Ь
odt= b~al:=l
при х > Ь. Таким образом,

{
о, nри х ~а,
х-а
F(x) = --, при а< х ( Ь, (2.33)
Ь-а
1, при Ь < х.
График F(x) изображен на рис. 29.
F(x)
1

х
а ь

Рис. 29

Определим М Х и D Х с. в. Х ~ R[ а, Ь].
Согласно формуле (2.11),

а Ь +оо

МХ= !
-оо
x·Odx+ !а
b:adx+ !
Ь
x·Odx= а~Ь·
(Ожидаемый результат: математическое ожидание с. в. Х ~ R[a, Ь]
равно абсциссе середины отрезка; М Х совпадает с медианой, т. е
МХ =МеХ.)
Глава 2. Случайные величины " 93

Согласно формуле (2.14),

DX = J(х - а+ ь)2. ~
ь

2 Ь-а
= _1_. ! (х
Ь-а 3
- а+2 ь)з lь = а
а

~1~ ( (Ь - а)
8
3
_ (а - Ь) )
3
(Ь - а) 2
3(Ь - а) 8 12

Таким образом, для н. с. в. Х ~ R[a, Ь] имеем

DX = (Ь-а)2
(2.34)
12

Пример 2.11. Пусть с. в. Х ~ R(a, Ь). Найти вероятность попадания


с. п. Х в интервал (а, /3), принадлежащий целиком интервалу (а, Ь).

Q Согласно формуле (2.8), имеем

11 ~
/3-а
Р{ХЕ(а,/3)}=
!
С<
f(x)dx=
!
С<
1
b-adx= Ь-а'

/3-а
т.е. Р{Х Е (а,/3)} = -ь-·

Геометрически эта вероятность представляет собой площадь пря-
моугольника, заштрихованного на рис. 30. 8

f(x)

о а f3 ь х

Рис. 30

К случайным величинам, имеющим равномерное распределение,


относятся: время ожидания пассажиром транспорта, курсирующего с

определенным интервалом; ошибка округления числа до целого (она


равномерно распределена на отрезке [-0,5; 0,5]). И вообще случайные
величины, о которых известно, что все ее значения лежат внутри не­

которого интервала и все они имеют одинаковую вероятность (плот­


ность).
94 • Раздел первый. Элементарная теория вероятностей

Дискретна.я слу-чаt/на.я величина Х имеет равномерное распреде­


ление, если она принимает целоlисленные значения 1, 2, З, ... , п с

вероятностью Рт= Р{Х = m} = r;;, где т = 1, 2, 3, ... , п.


в э1ом случ& МХ =
1 +п п 2 -1
- - , DX = ---т;г--· Так, при п = 5,
2
многоугольник распределения имеет вид, представленный на рис. 31,
МХ=З.

(),2 ------· ------- ------ -------r-------

о 1 2 3 4 5 х

Рис 31

Показательный закон распределения

Непрерывная случайная величина Х имеет показателъ'Н/Ый (или


экспонен'Циалън'ыU) закон распределения, если ее плотность вероятно-
сти имеет вид

f(x) = {ле-л,, при х) О, (2.35)


О. при х <О,

где Л >О - параметр распределения.


График плошости f(x) приведен на рис. 32.

f(x)
л

о х

Рис 32

Функция распредел<>ния показательного распределения имеет вид

F(x) = {1 -
О,
е->.х, при х ) О,
при х <О.
(2.36)
Глава 2. Случайные величины • 95

х о х

О F(x)= j f(t)dt= j Odt+ jлe->.'dt=l-e-лx. •


-оо -00 о

График F(x) представлен на рис. 33.


F(x)
1 ---------------------------------------------

о х

Рис. 33

Найдем математическое ожидание и дисперсию показательного


распределения:

1х Ле->.х 1х Ле->.х
00

МХ = · dx = lim
b---too
· dx =[интегрируем по частям)=
о о

= lim (-х ·е->.хlь


b---too О
_l_ · е->.хlь)
Л О
=О - l(o -
.\
1) = 1-.
Л

1
00 00

DX = x 2 f(x)dx-(MX) 2 =[формула (2.17)] = лf х 2 е-лхdх- ; 2 =


-оо о

= [дважды интегрируем по частям] =

= Л (lim (-хЛ е-.\х + ~Л (-"'-е-.\х


2
_ _!_е-.\х)) IЬ)- _!_ =
b---too Л ;..2 о ;..2

= л (о + ~ (о + о - (о - 1))) - ;2 ;2 = ~2 -;2 ;2. =

Таким образом,

1 1
DX = Л 2 , ах= л· (2.37)

Найдем вероятность попадания случайной величины Х, распределен­


ной по показательному закону, в интервал (а, Ь). Используя форму­
лу (2.2) и формулу (2.36), получаем

Р{а < Х < Ь} = F(Ь) - F(a) = (1 - е-.\Ь) - (1- е-.\а) = е-.\а - е-ль,

т.е. Р{а < Х < Ь} = е-ла - е-ль.


96 • Раздел первый. Элементарная теория вероятностей

Пример 2.12. Случайная величина Т - время работы радиолампы


имеет показательное распределение. Найти вероятность того, ·что лам­
па проработает не менее 800 часов, если среднее время работы радио­
лампы 400 часов.

Q МТ = 400, значит (формула (2.37)), Л =


4 0
6 . Искомая вероятность
800
Р{Т;;, 800} = 1-Р{Т < 800} = 1-F(SOO) = l-(l-e400) = е- 2 ::::; 0,135 .

Показательное распределение используется в приложениях теории
вероятностей, особенно в теории массового обслуживания (ТМО), в фи­
зике, в теории надежности. Оно используется для описания распреде­
ления случайной величины вида: длительность работы прибора до пер­
вого отказа, длительность времени обслуживания в системе массового
обслуживания и т. д.
Рассмотрим, например, н. с. в. Т - длительность безотказной ра­
боты прибора. Функция распределения с. в. Т, т. е. F(t) = Р{Т < t},
определяет веро.ятностъ отказа за врем.я длительностью t. И, значит 1
вероятностъ безотказноtJ работы за вре.мя t равна R(t) = Р{Т > t} =
= 1 - F(t). Функция R(t) называется функчиеtJ наде:жности.
Случайная величина Т часто имеет показательное распределение.
Ее фупкция распределения имеет вид F(t) = 1- e->.t (формула (2.36)).
В этом случае функция надежности имеет вид R(t) = 1 - F(t) =
= = =
1-(1-e->.t) е-лt, т. с. R(t) e->-t, где Л- интенсивностъ отказов,
т. е. среднее число отказов в единицу времени.

Показательный закон - единственный из законов распредеJ1ения 1


который обладает своitством «отсутствия посJ1едствия» {т. е. если про­
межуток времени Т уже длиJ1ся некоторое время т, то показатель­
ный закон распределения остается таким же и для оставrпейся части
Т1 = Т - т промежутка).

Нормальный закон распределения

Нормальный закон («закон Гаусса») играет исключительную роль


в теории вероятностей. Главная особенность закона Гаусса состоит в
том, что он явJ1яется преде.лъным законом, к которому приближаются~
при определенных условиях, другие законы распределения. Нормаль­
ный закон наи60J1ее часто встречается на практике.
Глава 2. Случайные величины • 97

Непрерывная с. в. Х распределена по 1<ормалъному зако1<у с пара­


метрами а и а > О, если ее плотность распределения имеет вид

(х - а) 2

f(x) = ~е ~ х Е R. (2.38)
а· 27Г

Тот факт, что с. в. Х имеет нормальное (или гауссовское) распреде­


ление с параметрами а и а, сокращенно записывается так: Х f"VN (а, а).
Убедимся, что f(x) - это функдия плотности. Очевидно, f(x) >О.
00

Проверим выполнение условия нормировки / f(x) dx = 1. Имеем:


-оо

(x2~:) dx=
2

/ е-(Л.:)'d(х-а)=
00 00

е
!
-оо
1
a·../2ii
a·v12
a·../2ii -00 v12·a
00

= у7Г 1 с
1 ;· е -t 2 dt= .;;r·y7Г=l.
-00

Здесь применили подстановку и использовали «интеграл Пуассона»


00

с
!
-00
е
-t'
di=y1Г. {2.39)

Из равенства (2.39) следует:

/
о
/
оо
00
z' z'
.;;г ,
!
о
е
-t' d t --
2
о
е - -2 dz = /'if;. =

-00
е-т dz. (2.40)

Функция распределения F(x) = / f(t) dt н. с. в. Х ~ N(a, а) имеет


-оо
вид

F(x) =
и.
1
../2ii
27r
! -
-00
х
е-
(t-a) 2
2~ 2 rlt. {2.41)

Если а = О и и = 1, то нормальное распределение с такими параме­


трами называется ста1<дартным. Плотность стандартной случайной
величины имеет вид
98 • Раздеп nервыА. Эпементарная теория вероятностей

С ней мы уже встречались в п. 1.21, формула (1.37).


Функция распределения с. в. Х ~ N(O, 1) имеет вид

и называется, как мы уже знаем (п. i.21, формула (1.42)), функv,и­


еii Лапласа. Она связана с нормированной функцией Лапласа Фо(х)
(п. 1.21, формула (1.40)), как мы уже знаем (формула (1.43) п. 1.21),
равенством

Ф(х) = 0,5 + Фо(х). (2.42)


Действительно,

х
! !о + - 1 - !х е-2 dt =
12 12 12
Ф(х) = - 1- е-2 dt = - 1- е-2 dt
v'27Г v'27Г v'27Г
-оо -оо о

= k ·/if + Фо(х) ! + Фо(х). =

(см. (2.40)).
Установим смысл параметров а и CJ нормального распределения.
Для этого найдем математическое ожидание и дисперсию с. в. Х ~
~ N(a, CJ).

оо оо (х _ •)'

МХ = j х · f(x) dx =
(J •
1
v'27Г
j х · е-2Т dx =
-оо -00

f(
00

= [подстановка х;;;; а = t] = ~ J2CJt + a)e-t' J2CJ dt =


у 2CJ (J. 211"
-оо

f J,r f
00 00

= CJ: te-t' dt + e-t' dt =О+ J,r .у'1Г =а,


-оо -00

т. е. М Х = а. Первый интеграл равен нулю, так как подинтегральная


функция нечетная, а пределы интегрирования симметричны относи­
тельно нуля, а второй интеграл равен у'1Г (см. равенство (2.39)). Таким
образом, параметр а - математическое ожидание.
При на.хождении дисперсии с. в. Х ~ N(a, CJ) снова сделаем подста­
х - а
новку Гn= t и применим метод интегрирования по частям:
v2CJ
Глава 2. Случайные величины • 99

оо оо (х - а)'
DX= f(x-a) f(x)dx= /(х-а) 2 -
2 1 -е 2и 2 dx=
стv'21Т
-00 -оо

00 00

2cт 2 t 2 e- 1 'cт../2dt = 2ст /


2
= - 1- / t 2e-t' dt =
ст У21Г ,/iГ
-оо -00

= 2ст2 (-lte-t'loo +l
,/iГ 2 -оо 2
!00

e-t' dt) = 2ст2. l,fi = ст2.


,/iГ 2
-оо

Таким образом, DX = ст 2
, а ст - среднее квадратичное отклонение.
Можно показать, что для с.в. Х ~ N(а,ст): М0 Х = м.х =а,
А- µз --О' Е -
- 3 - 4 - 3 -- О . µ4
ст ст
Исследуем дифференциальную функцию (2.38) нормального за-
кона:

1. f(x) >О при любом х Е (-00,00); график функции расположен


выше оси Ох.
2. Ось Ох служит асимптотой графика функции f(x), так как
lim f(x) =О.
х-+±оо
3. Функция f(x) имеет один максимум при х = а, равный f(a) =
= ~·Действительно,
стv 211"
(х-а) 2
'() = -
( х-а ) - -2и-2 - .
! х
стзv'21Г
е

Отсюда f'(x) =О при х =а, при этом: если х < а, то f'(x) > О, а
если х >а, то f'(x) <О. Это и означает, что х =а точка максимума
1
и fmax = f(a) = м=·
сту27r
4. График функции f(x) симметричен относительно прямой х = а,
так как аналитическое выражение f(x) содержит разность х - а в
квадрате.

5. Можно убедиться, что точки

являются точками перегиба графика функции f(x).


Пользуясь результатами исследования, строим график плотности
распределения вероятности нормального закона - кривую распреде­

ления, называемую нор.малыюй кривой, или кривой Гаусса (рис. 34).


100 • Раэде11 первый. Э11ементарная теория вероятностей

f(x)
1
и,/21Г

1 '
'
-------t------
' '
'' ''
' ''
''
''
'
о а-и а а+.,- х

Рис. 34

Как влияет изменение параметров а и и на форму кривой Гаус­


са? Очевидно, что изменение а не изменяет форму нормальной кривой
(графики функции f(x) и f(x - а) имеют одинаковую форму; график
f(x - а) получается из графика функции f(x) путем сдвига последнего
на а единиц вправо, если а> О, и влево, если а < О). С изменением а
максимальная ордината точки кривой изменяется. Так как площадь,
ограниченная кривой распределения, равна единице при любом значе­
нии а, то с возрастанием а кривая Гаусса становится более пологой,
растягивается вдоль оси Ох ....
На рис. 35 изображены нормальные кривые при различных значе­
ниях а (а 1 < а < а2) и некотором значении а (одинаковом для всех
трех кривых).

f(x)

а х

Рис. 35

Нормальному закону подчиняются ошибки измерений, величию.


износа дета.лей в механизмах, рост человека, ошибки стрельбы, вес
клубней картофеля, величина шума в радиоприемном устройстве, ко·
лебания курса акций и т. д.
Глава 2. Случайные величины • 101

Найдем вероятностъ попадания с. в. Х ~ N(a,a) на заданны() у"<а­


сток (а, l'i). Как было показано,

Р{а < Х < Ь} = J


а
f(x)dx

(п. 2.4, формула (2.8)). В случае нормального распределения

fJ (х-а) 2
Р{а < Х < l'i} = - 1-Je--z;;- dx = [х-;;а = t] =
av'2i
/3-а
" {3-а а-а

=
1
,/2i
! и е
_L2 d
2 t = ,/2i
1 !" е
t' d
--
2 t - ,/2i
1 !" е
2
- t- d
2 t.
а- а О О
и

Используя функцию Лапласа (см. п. 1.21, формула (1.40))

1
Фо(х) = ,/2i ! х

t'
е-2 dt,
о

получаем

P{a<X<l'i}=Фo ( -l'i 17- - а) -Фо (°'- - а)


17 - • (2.43)

Через функцию Лапласа Ф 0 (х) выражается и функция распределения


F(x) нормально распределенной с. в. Х.

х (t-a) 2
F(x) = f-1-е-2Т dt = Р{-оо < Х < х} =
a,/2i
-оо

=Фо ( -а-
х-а) -Фо (-оо-а)
а =Фо (х-а)
-а- 1
+2,
т.е.

F(x) = 1 + Фо (х
-
2
- а)
17
- • (2.44)

Здесь воспользуемся формулой (2.43), нечетностью функции Фо(х) и


тем, что Фо(оо) = ~'действительно

Фо(оо) = ,/2i
1 1
00

е
_!!..
2 dt = ,/2i ·у
1 fii 1
2 = 2·
о
102 • Раэдеп nервы~. Элементарная теория вероятностей

Если функция Лапласа (или «интеграл вероятностей») есть

Ф(х) = k! х

-00
t'
е-2 dt,

то

F(х)=Ф(х;;а) (2.45)
(непосредственно вытекает из равенств (2.42)) и (2.44)).
Равенство (2.43) можно переписать и так:

(2.46)

На практике часто приходиться вычислять вероятность попада­


ния нормально распределенноit cлy'Чaitнoit вели'<UНЪI в интервал, сим­
метри'<ныit относительно 'Центра рассеяния а. Пусть таким интер­
валом будет (а - l,a + l) длины < Х < а+ l}
21. Тогда Р{а - l =
= P{IX - al < l} = Фо (а+~ - а) - Фо (а - ~ - а) = 2Фо ( ~), т. е.

P{IX - al < 1} = 2Ф 0 (~) = 2Ф (~) - 1. (2.47)

Полагая в равенстве (2.47) l = Зо, получим P{IX - al < 3о} = 2Фо(3).


По таблице значений для Ф 0 (х) находим: Ф 0 (3) = 0,49865. Следова­
тельно, P{IX - al < 3о} "" 0,9973, т. е. отклонение с. в. Х от своего
математического ожидания меньше, чем За- почти достоверное собы­
тие.

Важныit вывод: практически достоверно, что с. в. Х ~ N(a, о) при­


нимает свои значения в промежутке (а - 3о, а+ Зо). Это утверждение
называется <<:правилом трех сигм».

Пример 2.13. При измерении детали получаются случайные ошибки,


подчиненные нормальному закону с параметром о = 10 мм. Произво­
дится 3 независимых измерения детали. Найти вероятность того, что
ошибка хотя бы одного измерения не превосходит по модулю 2 мм.

Q По формуле (2.47) находим:

P{IX - al < 2} = 2Ф 0 ( 120 ) ""2 · 0,07926 = 0,15852.

Вероятность того, что эта ошибка (погрешность) превышает 2 мм в


одном опыте (измерении), равна

P{IX - al > 2} = 1 - P{IX - ai < 2} = 0,84148.


Глава 2. Случайные величины • 103

По теореме умножения вероятность того, что во всех трех опытах ошиб­


ка измерения превышает 2 мм, равна 0,84148 3 "'=' 0,5958. Следовательно,
искомая вероятность равна 1 - 0,5958 = 0,4042. 8

Упражнения

1. Известно, что с. в. Х ~ N{З, 2). Найти

Р{-3 < Х < 5}, Р{Х ~ 4}, P{IX -31<6}.

2. Нормально распределенная с. в. Х задана плотностью вероятно­


стей
х>
f(x) = ~е-т.
v2ir
Наi!ти: а) вероятность попадания с. в. в интервал (1, 3); 6) симмет­
ричный относительно математического ожидания интервал, в ко­
торый с вероятностью 0,8926 попадет с. в. Х в результате опыта;
в) МоХ и М.Х. Построить нормальную кривую f(x).

З. Наi!ти коэффициенты асимметрии и эксцесса нормального распре­


деления с параметром а = О.
Глава 3
Системы случайных величин

3. 1. Понятие о системе случайных величин и законе


ее распределения

При изучении случайных явлений часто приходится иметь дело с


двумя, тремя и большим числом случайных величин. Совместное рас­
смотрение нескольких случайных величин приводит к системам слу­
чайных величин. Так, точка попадания снаряда характеризуется си­
стемой {Х, У) двух случайных величин: абсциссой Х и ординатой У;
успеваемость наудачу взятого абитуриента характеризуется системой
п случайных величин (Х 1 ,Х2, ... ,Xn) - оценками, проставленными в
его аттестате зрелости.

Упорядоченный набор {Х1,Х2, ... , Хп) случайных величин Х; (i =


= 1, n), заданных на одном и том же ПЭС 11, называется n-мepнotJ
cлyчatJнotJ величиноtJ или системоiJ n случаtJных величин.
Одномерные с. в. Х1, Х2 , ... , Xn называются компонентами или
составляющими п-мерной с. в. {Х1, Х2, ... , Xn)· Их удобно рассма­
тривать как координаты случайной точки или случайного вектора
Х = (Х1,Х2, ... ,Xn) в пространстве n измерений.
На многомерные случайные величины распространяются почти без
изменений основные понятия и определения, относящиеся к одномер­
ным случайным величинам. Ограничимся для простоты рассмотрени­
ем системы двух случайных величин; основные понятия обобщаются
на случай большего числа компонент.
Упорядоченная пара {Х, У) двух случайных величин Х и У назы­
вается двумерноiJ c.лyчaiJнotJ величиноtJ или системой двух одномерных
слу"<аi:Jных вели"<ин Х и У.
Систему {Х, У) можно изобразить cлy.,,atJнotJ то'ЧкоtJ М(Х, У) или
случаtJным вектором ОМ (рис. 36 и 37).
Система {Х, У) есть функция элементарного события: (Х, У) =
= \O(w). Каждому элементарному событию w ставится в соответствие
два действительных числах и у (или х 1 и х2) - значения Х и У (или
Х1 и Х2} в данном опыте. В этом случае вектор х = (х1,х2) называется
реализациеiJ случайного вектора Х = {Х 1 ,Х2).
Глава 3. Системы случайных величин • 105
у у

М(Х,У) М(Х,У)
У'" --------------r у -------------
:'
''
''
'
о х х х х

Рис. 36 Рис. 37

Пример 3-1- Бросаются две игральные кости. Пусть с. в. Х - число


выпавших очков на первой кости, с. в. У - на второй; ПЭС состоит
из 36 элементов: П = { (1, 1), (1, 2)" .. , (1, 6), (2, 1), (2, 2)" .. , (6, 4), (6, 5),
(6, 6) }. Элементарному событию, например, (6, 5) = w 65 соответствует
пара чисел х = 6 и у = 5. Совокупность этих значений - функция
элементарного события w.

Системы случайных величин могут быть дискретными, непрерыв­


ными и смешаm-t'ыми в зависимости от типа случайных величин, обра­
зующих систему. В первом случае компоненты этих случайных систем
дискретны, во втором - непрерывны, в третьем - разных типов.

Полной характеристикой системы (Х, У) является ее закон рас­


пределения вероятностей, указывающий область возможных значе­
ний системы случайных величин и вероятности этих значений. Как
и для отдельных случайных величин закон распределения системы
может иметь разные формы (таблица, функция распределения, плот­
ность, ... ).
Так, закон распределения дискретной двумерной с. в. (Х, У) можно
задать формулой

Pij = Р{Х = х;, У= Yj}, i=l,n, j=l,m (3.1)


или в форме таблицы с двойным входом:

Х"-У У1 У2 Уз ... Ym
Х1 Р11 Р12 Р1з ... Р1т
х2 Р21 Р22 Р2з ... Р2т
. .. . . . .. . .. . . . . . ..
Xn Pn1 Pn2 Рnз ... Pnm
Причем, сумма всех вероятностей р,3 , как сумма вероятностей полной
группы несовместных событий {Х = х;, У= у3 }, равна единице:

п m
LLPij = 1.
t=l J=l
106 • Раздел первый. Эnементарнаfl теориfl вероятностей

На рис. 38 приведен примерный график распределения двумерной


дискретной случайной величины (Х, У).

Pij

Р1з
Р11
Р12
У1 У2 Уз
о
у

Рис. 38
Зная закон распределения двумерной дискретной случайной ве­
личины, моJ1Сно найти законы распределения ка:ж:.дой uз компонент
(обратное, вообще говоря, неверно). Так, Рх 1 = Р{Х = х1} = Р11 +
+ Р12 + ... + Р1т, что следует из теоремы сложения несовместных со­

бытий {Х = Х1, У = У1}, {Х = Х1, У = У2}, ... , {Х = х1, У = Ут}·


Аналогично можно найти
m n
Рх; = Р{Х = х;} = LPij, Ру;= Р{У = Yj} = LPij·
j:l i=l

Пример 3.2. В урне 4 шара: 2 белых, 1 черный, 1 синий. Из нее наудачу


извлекают два шара. Пусть с. в. Х - число черных шаров в выборке,
с. в. У - число синих шаров в выборке. Составить закон распределения
для системы (Х, У). Найти законы распределения Х и У.

О С. в. Х может принимать значения О, 1. 1; с. в. У - значения О,


Вычислим соответствующие вероятности: Р11 = Р{Х = О, У = О} =
с2 с
1
1 2 1 1 2
= С; = 6 (или: 4 · 3 = 5); Р12 = Р{Х = О,У = 1} = С; = 5;
4 4
pz1 = Р{Х = 1,У =О}=~; pzz = Р{Х = 1,У = 1} i· Таблица
распределения системы (Х, У) имеет вид:

Х"'.У о 1
о
1 2
6 6
1 2 1
6 6
Глава 3. Системы случайных величин • 107

Отсюда следует: Р{Х = О} = t+ i =~, Р{Х = 1} = ~ + = ~; t


t
Р{У =О}= + ~ = ~, Р{У
составляющих Х и У имеют вид:
= 1} = t
б + =~·Законы распрмеления

3.2. Функция распределения двумерной случайной


величины и ее свойства

Универсальной формой задания распределения двумерной случай­


ной величины является функция распрмеления (или «интегральная
функция»), пригодная как для дискретной, так и для непрерывной слу­
чайной величины, обозначаемая Fx,v(x, у) или просто F(x, у).
Функцией расnреде.ле><ия двумерной с.лучай..ой ве.личи><ъ~ (Х, У) на­
зывается функция F(x, у), которая для любых действительных чисел х
и у равна вероятности совместного выполнения двух событий {Х < х}
и{У<у}.
Таким образом, по определению

F(x,y) = Р{Х < х, У< у} (3.2)

(событие {Х < х, У < у} означает произвмение событий {Х < х} и


{У< у}).
Геометрически функция F(x, у) интерпретируется как вероятность
попадания случайной точки (Х, У) в бесконечный квадрант с вершиной
в точке (х,у), лежащий левее и ниже ее (рис. 39).
Функция распрмеления двумерной дискретной случайной величи­
ны (Х, У) находится суммированием всех вероятностей Рiз, для кото­
рых х; < х, Yj <у, т.е.

F(x, у) = L L Pij· (3.3)


Xi<XY1<Y

Геометрическая интерпретация функции распрмеления позволяет


наглядно иллюстрировать ее свойства.
108 • Раздел первь1й. Элементарная теория вероятностей

-------------- __________________,(х, у)
''
''
''
''
• (Х,У) ''J
'
о х

Рис. 39

Своiiства функции распр~еления двумерноii случаi!.ноii


величины:

1. Функция распределения F(x,y) ограничена, т.е.

О,,;; F(x,y),,;; 1.
2. F(x, у) не убывает по каждому из своих аргументов при фиксиро­
ванном другом, т. е.

F(x2,y);:;, F(x1,y) при Х2 > х1;


F(x,y2);:;, F(x,y1) при У2 > Yt·
3. Если хотя бы один из аргументов обращается в -оо, то функция
распределения F(x, у) равна нулю, т. е.

F(x, -оо) = F(-oo, у)= F(-oo, -оо) =О.

4. Если оба аргумента обращаются в +оо, то F(x,y) равна 1, т.е.

F(+oo,+oo) = 1.
5. Если один из аргументов обращается в +оо, то функция распреде­
ления системы случайных величин становится функцией распре­
деления с. в., соответствующей другому элементу, т. е.

F(x,+oo) = F1(x) = Fx(x), F(+oo,y) = F2(Y) = Fy(y). (3.4)


6. F(x, у) непрерывна слева по каждому из своих аргументов, т. е.

lim F(x, у) = F(xo, у), lim F(x, у) = F(x, Уо).


х--+хо-0 у--+уо-0
Глава 3. Системы случайных величин • 109

Q 1. F(x, у) есть вероятность, следовательно, О:;;:; F(x, у):;;:; 1.


2. При увеличении какого-либо из аргументов (х, у) заштрихован­
ная на рис. 39 область увеличивается; значит, вероятность попадания
в нее случайной точки (Х, У) не может уменьшаться.
3. События {Х < -оо}, {У< -оо} и их произведения невозмож­
ны: попадание в квадрат с отодвинутой в -оо границей невозможно.
Вероятность такого события равна нулю.
4. Событие {Х < +оо} ·{У< +оо} достоверно, следовательно, его
вероятность равна единице.

5. {Х < +оо} - достоверное событие, следовательно {Х < +оо}х


х{У <у}= {У< у} и F(+oo,y) = Р{Х < +оо;У <у}= Р{У <у}=
= Fy(y).
Аналогично, F(x, +оо) = Fx(x).

Подчеркнем: зная совместное распределение двух случайных вели­
чин Х и У, можно найти одномерные распределения этих случайных
величин, но обратное, вообще говоря, неверно.
Отметим, что с геометрической точки зрения F(x, у) есть некото­
рая поверхностъ (ступенчатая для двумерной дискретной случайной
величины), обладающая указанными свойствами.
С помощью функции F(x, у) легко можно найти вероятностъ по­
падания cлyчatJ.нotJ. точки (Х, У) в пря.моуголъник D со сторонами, па­
раллельными координатным осям:

Р{х1:;;:; Х:;;:; х2,У1:;;:; У:;;:; У2} =


= F(x2,y2) - F(x1,y2) -F(x2,y1) + F(x1,y1). (3.5)
Приведем «геометрическое доказательство», см. рис. 40.
у

,._,,_,._..,,.._....,.._.,,.___,..___,.,,: (х 2 , у 1 )
'

Рис. 40
110 • Раздел первый. Элементарная теория вероятностей

Здесь F(x2, у2) - вероятность попадания случайной точки в


область, заштрихованную косыми линиями, F(x1, yz) - вертикальны­
ми, F(x2, У1) - горизонтальными, F(x1, У1) - косыми, вертикальными,
горизонтальными (эту область дважды вычли, следует один раз при­
бавить).

Пример 3.3. По таблицам распределения системы (Х, У) компонент


Х и У примера 3.2 п. 3.1 найти F1(x), F2(y), F(x,y).

Q Используя формулу (2.4), находим функции распределения F 1 (x)


и F2(y):

{
О, прих~О,

{
О, приу~О,
F1(x) = 0,5, при О< х ~ 1, F2(y) = 0,5, при О< у~ 1,
1, при х ;;;, 1, 1, при у;;;, 1.

Используя формулу (3.3), находим функцию распределения F(x,y):

Х"-.У у~О 0<у~1 1 <у


х~О о о о

0<х~1 о
1
6
Q=!+~
6 6 6 •
1<х о Q=!+~ 1=!+~+~+!
6 6 6 6 6 6 6

З.З. Плотность распределения вероятностей


двумерной случайной величины и ее свойства

Исчерпывающей характеристикой непрерывной двумерной случай­


ной величины является плотность вероятности. Вводится это понятие
аналогично тому, как это делалось при рассмотрении плотности рас­

пределения вероятностей одной случайной величины (п. 2.4).


Двумерная слу'lаilная вели'lина называется неnрерывноil, если ее
функция распределения F(x, у) есть непрерывная функция, диффе­
ренцируемая по каждому из аргументов, у которой существует вторая

смешанная производная F:,:y(x, у).


Плотностью распределения вероятностей (или совместноil плот­
ностью) непрерывной двумерной случайной величины (Х, У) называ­
ется вторая смешанная производная ее функции распределения.
Глава З. Системы случайных величин • 111

Обозначается совместная плотность системы двух непрерывных


случайных величин (Х, У) через f(x,y) (или р(х,у)).
Таким образом, по определению

д2F(х,у) " ( )
f(x,y)= дхду =Fxyx,y. (3.6)

Плотность распределения вероятностей непрерывной двумерной слу­


чайной величины (Х, У) есть предел отношения вероятности попадания
случайной точки (Х, У) в элементарный прямоугольник со сторонами
дх и ду, примыкающий к точке (х, у), к площади этого прямоуголь­
ника, когда его размеры дх иду стремятся к нулю (рис. 41).

о х
х+Лх

Рис. 41

Действительно, используя формулу (3.6), получаем: средняя плот­


ность вероятности в данном прямоугольнике равна

f _Р{х.;;;Х<х+дх,у.;;;У<у+ду} _
ер - дх. Ду -

= _1 . (F(х+дх,у+ду)-F(х,у+ду) _ F(x+дx,y)-F(x,y)).
ду Лх дх

ПереходЯ к пределу при дх -+ О и ду -+ О, получаем

. , . F'(x,y+дy)-F'(x,y)
1lffi Jcp = 1lffi Д ,
дх-tО ду-tО у
ду-tО

т.е. f(x,y) = (F;(x,y))~ = F;{y(x,y).


По аналогии с плотностью вероятности одномерной непрерывной
случайной величины, для двумерной случайной величины ( Х, У) плот­
ность вероятности определяется как функция f(x, у), удовлетворяю­
щая условию

Р{х.;;; Х < x+dx,y.;;; У< y+dy} ""f(x,y)dxdy; (3.7)

выражение f(x, у) dxdy называется элементом вероятности двумер­


ной случайной величины (Х, У).
112 • Раздел первый. Элементарная теория вероятностей

Геометрически плотность распределения вероятностей f(x, у) си­


стемы двух случайных величин (Х, У) представляет собой некоторую
поверхность, называемую поверхностью распределения (рис. 42).

f(x,y)

Рис. 42

Плотность распределения f (х, у) обладает следуюш,ими


своliствами:
1. Плотность распределения двумерной случайной величины неотри­
цательна, т. е.

f(x,y)) О.

2. Вероятность попадания случайной точки (Х, У) в область D равна


двойному интегралу от плотности по области D, т. е.

Р{(Х, У) Е D} = !!
D
f(x, у) dxdy. (3.8)

3. Функция распределения двумерной случайной величины может


быть выражена через ее плотность распределения по формуле:

JJ
х у

F(x,y) = fx,Y(u,v)dudv. (3.9)


-00-00

4. Условие нормировки: двойной несобственный интеграл в бесконеч­


ных пределах от плотности вероятности двумерной с. в. равен еди­
нице, т.е.

JJ
00 00

f(x, у) dxdy = 1.
-оо -00
Глава 3. Системы случайных величин • 11 З

5. Плотности распределения одномерных составляющих Х и У могут


быть найдены по формулам:

f f
+со +со

J(x,y)dy = f1(x) = fx(x), j(x, у) dx = f2(y) = fy(y). (3.10)


-со -со

О 1. Следует из того, что F(x, у) есть неубывающая функция по каж­


дому из аргументов.

2. Элемент вероятности f(x, у) dxdy (см. (3.7)) представляет собой


вероятность попадания случайной точки (Х, У) в прямоугольник со
сторонами dx и dy (с точностью до бесконечно малых более высокого
порядка по сравнению с произведением dxdy). Разбив область D на пря­
моугольники и применив к каждому из них равенство (3.7), получаем,
по теореме сложения вероятностей, при стремлении к нулю площадей
прямоугольников (т. е. dx-+ О и dy-+ О), формулу (3.8). Геометрически
эта вероятность изображается объемом цилиндрического тела, ограни­
ченного сверху поверхностью распределения f(x, у) и опирающегося на
область D.
3. Выражение функции распределения F(x,y) системы случайных
величин (Х, У) через плотность f(x, у) получим, используя форму­
лу (3.8) (область D есть прямоугольник, ограниченный абсциссами
-оо, х и ординатами -оо, у):

F(x,y) = Р{Х < х,У <у}= Р{-оо < Х < х,-ос <У< у}=
х у

= j j f(x, у) dxdy.
-00-00

4. Положив в формуле (3.9) х = у = +ос и учитывая, что


F(+oo,+oo) = 1, получим

ff
00 00

F(+oo,+oo)= J(x,y)dxdy=l.
-00 -00

Геометрически свойство 4 означает, что об,е.м тела, ограниченного по­


верхностью распределения и плоскостью Оху, равен единице.
5. Найдем сначала функции распределения (зная совместную плот­
ность двумерной случайной величины (Х, У)), составляющих Х и У:

ff
х +оо

F1(x) = F(x,+oc) = J(x,y)dxdy,


-00-00
114 • Раздел первый. Элементарная теория вероятностей

ff
+оо У

F2(y) = F(+oo, у)= f(x, у) dxdy,


-00-00

т. е.

F1(x)
х
=_L \_L( +оо
f(x,y)dy
)
dx, F2(y) = _l (L 00

f(x, у) dx) dy.


(3.11)
Дифференцируя первое равенство по х, а второе по у, получим плот­
ности распределения случайных величин Х и У:

f
00

f1(x) = F{(x) = J(x,y)dy


-оо

f
00

/2(у) = FHy) = f(x, у) dx.


-оо

Отметим, что решение обратной задачи (восстановить закон распреде­


ления системы (Х, У) по известным законам распределения составля­
ющих системы) в общем случае невозможно. 1

Пример 3.4. Двумерная случайная величина (Х, У) задана плотно­


стью распределения вероятностей f(x, у) = А2
. Найти:
(1+х 2 )(l+y)
1) А; 2) F(x,y); 3) Р{Х < 1, У< 1}; 4) fi(x) и /2(у).

Q 1) Постоянную А найдем, используя условие нормировки:

00 00
А
!!
-00-00
(1 +х 2
)(1 +у 2
)
dxdy = 1,

00 00
лjdxjdy_ 1
2 1+х
2 1+у - '
-оо -00

+oo 1+00
А· arctg х _ · arctg у _ = 1,
00 l 00
А· " 2 = 1.

Следовательно, А = --\.

Глава 3. Системы случайных величин • 115

2) Используя формулу (3.9), находим:

! (!х -\·~)~=-\(arctgx+Z!:
2 )·arctgyly
у

F(x,y) =
+ +
7Г 1 х 1 у 7Г -оо
=
-оо 00

= (} arctg х + !) (} ai·ctg у+!) .


3) Р{Х < 1,У <1} F(l,1) = = (}·~+!) (}·~+!) = 9
16
(использовали формулу (3.2), можно воспользоваться формулой (3.8)).
4) По формуле (3.10) получаем:
00

!
00
f1(x) = -7Г21 · (1 + х2)(1
dy
+ у2) = 1Г2(1 + х2) arctgy -оо =
1 1

-00

00

f2(Y) = J
-оо
:2 . (1 + х2~(1 + у2) = ". = 7r(l ~ у2). •

Упражнения

1. Двумерная случайная величина (Х, У) задана совместной плотно­


стью распределения

{ о,е
А -х-у
при х ;;;: О, у ;;;: О,
f(x,y) = '
в противном случае.

Найти: 1) коэффициент А; 2) Fx,v(x,y); 3) Fx(x) и Fv(y); 4) fx(x)


и fy(y); 5) Р{Х >О, У< 1}.

2. Непрерывная двумерная случайная величина (Х, У) равномерно


распределена {т. е. f(x, у) = с) внутри треугольника с вершина­
ми 0(0, О), А(О, 4), В( 4, О). Найти: 1) совместную плотность f(x, у);
2) fx(x) и fy(y); 3) вероятность события

А= {О < Х < 1, 1 <У < 3}.


116 • Раздел первый. Элементарная теория вероятностей

3. Вероятность попадания в цель при одном выстреле для I стрел­


ка равна 0,4, для II - 0,6. Оба стрелка, независимо друг от дру­
га, делают по два выстрела в цель. Найти: 1) закон распределе­
ния случайных величин Х и У; 2) совместный закон распределе­
ния системы случайных величин (Х, У); 3) функцию распределе­
ния Fx,y(x, у), если случайная величина Х - число попаданий I
стрелка, случайная величина У - II стрелка.

3.4. Зависимость и независимость двух случайных


величин

Зная законы распределения случайных величин Х и У, входящих


в систему (Х, У), можно найти закон распределения системы толъко в
случае, когда случаftные величины Х и У - независимы. С понятием
независимости случайных величин мы уже встречались в п. 2.5: две
случайные величины называются независи.м'Ьtми, если закон распреде­
ления каждой из них не зависит от того, какие значения принимает
другая. В противном случае случайные величины называются зависи­
мъ~ми.

Теперь дадим общее определение независимости случайных вели­


чин.

Случайные величины Х и У называются независимыми, если не­


зависимыми являются события {Х < х} и {У < у} для любых действи­
тельных х и у. В противном случае случайные величины называются
зависим'Ымu.

Сформулируем условие независимости случайных величин.

Теорема 3.1. Для того, чтобы случайные величины Х и У бьши незави­


симы, необходимо и достаточно, чтобы функция распределения системы
(Х, У) была равна произведению функций распределения составляющих:

F(x, у)= F1 (х) · F2(y). (3.12)

О Если случайные величины Х и У независимы, то события {Х < х}


и {У< у} независимы. Следовательно, Р{Х < х, У< у}= Р{Х < х}х
хР{У < у}, т. е. F(x,y) = F 1(x) · F2(y). Если же имеет место равен-
Глава 3. Системы случайных величин • 117

ство (3.12), то Р{Х < х, У < у} = Р{Х < х} · Р{У < у}. Значит,
случайные величины Х и У независимы. •

Заметим, что условие (3.12) есть иначе записанное условие неза­


висимости двух событий: Р(А · В) = Р(А) · Р(В) (п. 1.15) для случая
событий А= {Х < х}, В= {У< у}.

Теорема 3.2. Необходимым и достаточным условием независимости


двух непрерывных случайных величин, образующих систему (Х, У), яв­
ляется равенство

f(x,y) = f1(x) · f2(y). (3.13)

а Если х и у независимые непрерывные случайные величины, то


имеет место равенство (3.12). Дифференцируя это равенство по х, а
затем по у, получим f(x, у) = fx F1 (х)· fy F2(Y) или f(x, у) = !1 (x)·f2(y).
И обратно. Интегрируя равенство (3.13) по х и по у, получим

JJ J
х у х у

-00-00
f(x,y)dxdy=
-00
fi(x)dx· J
-00
f2(y)dy,

т. е. F(x,y) = F1 (х) · F2(y). На основании теоремы 3.1 заключаем, что


случайные величины Х и У независимы. •

Теорема 3.3. Необходимым и достаточным условием независимости


двух дискретных случайных величин Х и У, образующих систему (Х, У),
является равенство

Р{Х = х" У= Уз}= Р{Х = х,} · Р{У =Уз} (3.14)


для любых i == 1, 2, ... , n, j = 1, 2, ... , т

(или, что то же самое: Pi1 = Рх 1 Ру 1 , i = 1, n, j = 1, m).


Пример 3.5. Зависимы или независимы случайные величины Х и У,


рассмотренные в примерах а) 3.2 п. 3.1; б) 3.4 п. 3.3?
118 • Раздел первый. Элементарная теория вероятностей

Q а) р 11 = Р{Х =О, У= О} = ~,а Р{Х =О}· Р{У =О} = ! ·! = i•


т. е. Р\1 # Рх, · Ру 1 • Случайные величины Х и У зависимы.
1 1 1 1 1
б) f(x,y) = 2(1 +x 2)(l +y 2),af1(x) = ?i''l +х 2 ' f2(Y) = 71'' l +у 2 ·
7r

Так как f(x,y) = f1(x) · f 2(y), то, согласно условию (3.13), заключаем:
случайные величины Х и У независимы. 8

3.5. Условные законы распределения

Если случайные величины Х и У, образующие систему (Х, У), за­


висимы между собой, то д.л.я. характеристики их зависимости вводится
понятие условных законов распределения случайных величин.
Условнъ~м законом распределения одно1J из случа1Jн'Ьlх величин, вхо­
дящей в систему (Х, У), называется ее закон распределения, найден­
ный при условии, что другая случайная величина приняла определен­
ное значение (или попала в какой-то интервал).
Пусть (Х, У) - дискретная двумерная случайная величина и р,1 =
= Р{Х = х" У= у1 }, i = 1,п, J
1,т. В соответствии с определени-
=
Р(АВ)
ем условных вероятностей событий (напоминание: P(BIA) = Р(А) ,

п. 1.14), условная вероятность того, что случа1Jная величина У при­


мет значение у3 при условии, что Х = х, определяется равенством

Р{Х = х" У= у1 }
Р{У = Y1IX = х,} = Р{Х = х,} ,
i = 1, 2, ... , п; J = 1, 2, ... , т (3.15)

(или коротко: р(у1 1х,) Р•1) .


= р-
х,

Совокупность вероятностей (3.15), т. е. p(y1lx,),p(y2lx,), ...


. . . ,р(Утlх,), представляет собой условн'ЬliJ закон распределения случаiJ­
но1J величин'ЬI У при условии Х = х,. Сумма условных вероятностей
р(у1 lx,) равна 1, действительно:

L р(У1 х, = L 1 )
m
P•J
-Рх, 1
= -Pxi L P•J = Рх,
m

- = 1
Pxi
3=1 J=I J=I

m
(см. п. 3.1: Рх, = LPi 1 ).
J=l
120 • Раздел первый:. Элементарная теория вероятностей:

Плотностъ вероятности условного распределения (или условная


плотность) случаtiно(J, величины У при условии Х = х определяется
равенством

f( I )= f(x,y) = _f_(x_,y_)_ где !1 (х) 'f О. (3.17)


ух f1(x) оо
j f(x,y)dy
-оо

Условная плотность обладает свойствами плотности распределения,

J
00

так: f(ylx);;;, О, f(ylx) dy = 1.


-00
Аналогично определяется условная плотность распределения слу­
чайной величины Х при условии У = у:

f(xly) = f(x, у) = --,--,--f~(_x,_y)~ (3.18)


!2(у)

-оо
J
00

f(x,y)dx

Используя соотношения (3.17) и (3.18), можно записать

f(x, у)= f1(x) · f(ylx) = !2(у) · f(xly), (3.19)


т. е. совместная плотность распределения системы случайных величин
равна произведению плотности одной составляющей на условную плот­
ность другой составляющей при заданном значении первой.
Равенство (3.19) называют теоремоii (правилом) умно:жения
плотностеii распрЕ\Целениii (она аналогична теореме умножения ве­
роятностей для событий, п. 1.15).

Пример 3.7. Двумерная случайная величина (Х, У) задана плотно­


стью совместного распределения

f(x, у) = {Сху, при (х, у) Е D,


о, при (х, у) ~ D,

где D - область на плоскости

{
у> -х,
у< 2,
х <о.

Найти безусловное и условное распределение составляющей Х. Убе­


диться, что случайные величины Х и У зависимы.
Глава 3. Системы случайных величин • 121

Рис. 43

О Область D изображена на рис. 43.


Сначала найдем коэффициент С из условия нормировки:

00 00

/ / f(x,y)dxdy = 1.
-00-00

0000 о 2 о

/ / f(x,y)dxdy= / dx / Cxydy=C / xdx(y;l~x) =


-00 -оо -2 -х -2
о

С/ х ( 2 - ~ ) dx = С ( х2 - ~ ) [
2 4
= 2
= -2С.
-2

Поэтому С = - ~. Теперь находим


00 2

(-~ху) dy = -!х · ~ 1~х=


2

fi(x) = [ / f(x,y)dy] = /
-00 -х

2) = х - 4х ,
3
=-
1 х4-х
(
4 4
т.е. f 1 (x) = l(x 3 -4х), х Е (-2,0) (контроль:
о

J
00

/l(x 3 -4x)dx=l(~ -2x 2 )[ 2 =l(-4+8)=~=1).


4
f 1 (x)dx=
-00 -2

Для нахождения f(xJy) воспользуемся формулой (3.18), предваритель­


но найдя f2(y):
00 о

(-~ху) dx=-~y-~ [Y= ~ ,


2 3

f2(y)= [ / f(x,y)dx] = /
-00 -у
122 • Раздел первый. Элементарнаfl теория вероятностей

f(x, у)] 1
у Е (О, 2). Тогда f(xly) = [ f 2(y) = --ху (х,у) Е D
2
(контроль:

/о (-2х) 2х-22 1°
00

/
f(xly) dx = - dx = - -
у2 у2 -у
=--(О
у2
1 - у2 ) = 1).
-оо -у

Как видно, безусловный закон распределения случайной величины Х


(f1(x)) не совпадает с условным законом распределения случайной ве­
личины Х (f(xly)); случайные величины Х и У - зависимы. 8

В случае произвольного типа случайных величин функция распре­


деления F(x,y) системы зависимых случайных величин (Х, У) может
быть записана в виде:

F(x,y) = F1(x) · F2(YIX < х) = F2(y) · F1(xlY <у),


где F2(ylX < х) = Р{У < ylX < х} - условная функция распреде­
ления случайной величины У при условии {Х < х}; F1(xlY < у) =
= Р{Х < xlY < у} - условная функция распределения случайной
величины Х при условии {У< у}.

3.6. Числовые характеристики двумерной случайной


величины. Математическое ожидание и дисперсия

Для системы случайных величин также вводятся числовые харак~


теристики, подобные тем, какие были для одной случайной величины.
В качестве числовых характеристик системы (Х, У) обычно рассмат­
ривают моменты различных порядков (см. п. 2.5). На практике чаще
всего используются моменты I и П порядков: математическое ожидание
(м. о.}, дисперсия и корреляционный момент. Математическое ожида­
ние и дисперсия двумерной случайной величины служат соответствен­
но средним значением и мерой рассеяния. Корреляционный момент вы­
ражает меру взаимного влияния случайных величин, входящих в си~

стему {Х, У}.


Матемаmи"<еским о:жиданием двумерноtJ с. в. (Х, У) называется
совокупность двух м.о. МХ и МУ, определяемых равенствами:

n m n m
MX=mx = LLx,p,1 , MY=my = LLY1 p,1 , (3.20)
t=l J=l i=l ;=1
Глава З. Системы случайных величин • 123

если (Х, У) - дискретная система с. в. (здесь PiJ = Р{Х = Xi, У= YJ});


и

ff
00 00 00 00

МХ = j j xf(x,y)dxdy, МУ = yf(x,y)dxdy, (3.21)


-00-00 -00-00

если (Х, У) - непрерывная система с. в. (здесь f(x, у) - плотность


распределения системы).
Дисперсией системъ~ с. в. (Х, У) называется совокупность двух
дисперсий DX и DY, определяемых равенствами:

n m n m
(3.22)

если (Х, У) - дискретная система с. в. и

f f (х f f (у
00 00 00 00

DX = - тх) 2 f(x, у) dxdy, DY = - ту) 2 f(x, у) dxdy,


-00-00 -00-00

(3.23)
если (Х, У) - непрерывная система с. в.
Дисперсии DX и DY характеризуют рассеяние (разброс) случай­
ной точки (Х, У) и в направлении осей Ох и Оу вокруг точки (тх, ту)
на плоскости Оху - центра рассеяния.
Математические ожидания тх и ту являются частными случаями
начального момента ak,s nор.ядка k+ s системы (Х 1 У), определяемого
равенством

Olk,s = M(XkYs);

тх = М(Х 1 У 0 ) = О11,о и ту= М(Х 0 У 1 ) = О10,1.


Дисперсии DX и DY являются частными случаями чентралъного
момента µk,s nopяih:a k +s системы (Х, У), определяемого равенством

µk,s = М((Х - mx)k(Y - ту)');

DX = М(Х - mx) 2 = µz,o и DY = М(У - my) 2 = µ0,2.


Математическое ожидание с. в. ср(Х, У), являющейся функцией
компонент Х и У двумерной с. в. (Х, У) находится, аналогично, по фор-
мулам:

ff
00 00

М(ср(Х,У)) = cp(x,y)f(x,y)dxdy (3.24)


-00-00
124 • Раздел первый. Элементарная теория вероятностей

для непрерывного случая и

n т

M(rp(X, У))= LL rp(x;, YJ)Pij (3.25)


i=l j=l
для дискретного случая.

Начальный момент П порядка а 1 ,1 = МХУ часто встречается в


приложениях. Вычисляется по формуле
n т

мХУ = L L XiYjPij (3.26)


i=l j=l
для дискретных с. в.

ff
00 00

МХУ= xyf(x,y)dxdy (3.27)


-00-00

для непрерывных с. в.

3. 7. Корреляционный момент, коэффициент


корреляции

Особую роль играет центральный смешанный момент второго по­


рядка µ1,1 = M(X-mx)(Y-my) =МХУ, называемый корреляционным
моментом или моментом связи.

Корреляционным .моментом (или ковариаv,ией) двух случайных ве­


личин Х и У называется м. о. произведения отклонений этих с. в. от их
м. о. и обозначается через Kxv или cov(X, У).
Таким образом, по определению

Kxv = cov(X, У) = М[(Х - тх)(У - my)] =МХУ (3.28)


При этом: если (Х, У) - дискретная двумерная с.в., то ковариацвя
вычисляется по формуле
n m
Kxv = L L(x; - mx)(Yj - my)P;j; (3.29)
i=l j=l

если (Х, У) - непрерывная двумерная с. в., то

f f (х
00 00

Kxv = - mx)(Y - my)f(x, у) dxdy (3.30)


-00-00
Глава 3. Системы случайных величин • 125

(формулы (3.29) и (3.30) получены на основании формул (3.24) и


(3.25)).
Ковариацию часто удобно вычислять по формуле

Кху = cov(X, У)= МХУ -МХ · МУ, (3.31)

которая получается из определения (3.28) на основании свойств мате­


матического ожидания:

Кху = М[(Х- тх)(У - ту)]= М(ХУ - Хту - Утх + тхту) =


== MXY-myMX-mxMY +тхту == MXY-mxmy-mxmy+mxmy ==
=МХУ - М Х · МУ.

Формулу (3.30) можно записать в виде

J Jху
00 00

Кху = f(x, у) dxdy - тхту. (3.32)


-оо -оо

Своikтва ковариации:
1. Ковариация симметрична, т. е.

Кху = Кух.

2. Дисперсия с. в. есть ковариация ее с самой собой, т. е.

Кхх =DX, Куу == DY.

3. Если случайные величины Х и У независимы, то

Кху =0.

4. Дисперсия суммы (разности) двух случайных величин равна сумме


их дисперсий плюс (минус) удвоенная ковариация этих случайных
величин, т. е.

D(X ±У)== DX + DY ± 2Кху.


5. Постоянный множитель можно вынести за знак ковариаций, т. е.

Ксх,У = с·Кху = Кх,сУ или cov(cX, У)= c·cov(X, У)= cov(X, сУ).

6. Ковариация не изменится, если к одной из с. в. (или к обоим сразу)


прибавить постоянную, т. е.

Кх+с,У = Кху = Кх,У+с = Кх+с,У+с


126 • Раздел первый. Элементарная теория вероятностей

или

cov(X +с, У) = cov(X, У) = cov(X, У+ с) = cov(X +с, У+ с).


7. Ковариация двух случайных величин по абсолютной величине не
превосходит их с. к. о., т. е.

О 1. Следует из определения (3.28) ковариации.


2. Кхх = М[(Х - тх)(Х - тх)] = М(Х - тх)2 = DX.
3. Из независимости с. в. Х и У следует независимость их откло­
нений Х - тх и У - ту- Пользуясь свойствами м. о. (п. 2.5), получаем
Кху = М(Х - тх) · М(У - ту)= О.

4. D(X +У)= М((Х +У) - М(Х + У)) = 2

= М((Х-МХ)+(У-МУ)) 2 = М(Х -МХ) 2 +2М(Х-МХ)(У-МУ)+


+ М(У - МУ) 2 = DX + DY + 2Кху,
D(X -У)= DX +D(-Y) +2М(Х-МХ)(-У-М(-У)) =
= DX + DY - 2Кху.

5. Kcx,v = М(сХ - МсХ)(У - МУ) = М[с(Х - МХ)(У - МУ)] =


= cKxv-
6. Доказывается аналогично.
Х-тх У-ту
7. Применяя свойство 4к двум стандартным с. в. ах и ау

(см. 2.5), получаем:

= 1+1±2М (Х -ахтх. У -ауту) = 2 (i ± Kxv).


аха у

Любая дисперсия неотрицательна, поэтому


Глава 3. Системы случайных величин • 127

Из свойства 3 следует, что если Кху 'f О, то с. в. Х и У зависимы.


Случайные величины Х и У в этом случае (Кху # О) называют корре­
лированными. Однако из того, что Кху =О, не следует независимость
с. в. Х и У. В этом случае (Кху =О) с. в. Х и У называют некоррелиро­
ванными. Из независимости вытекает некоррелированность; обратное,
вообще говоря, неверно.
Как следует из свойств ковариации, она (Кх1') характеризует и
степень зависимости случайных величин, и их рассеяние вокруг точки
(тх, ту). Размерность ковариации равна произведению размерностей
с. в. Х и У. В качестве числовой характеристики зависимости (а не
рассеяния) с. в. Х и У берут безразмерную величину - коэффициент
корреляции. Он является лучшей оценкой сте11ени влияния одной с. в.
на другую.

1eJ Коэффициентом коррел.яи,ии rxy двух с. в. Х и У называется от­


ношение их ковариации (корреляционного момента) к произведению их
с.к.о.:

Кху cov(X, У)
rxy =- - = v'DXVIW.
GxGy
(3.34)

Очевидно, коэффициент корреляции равен ковариации стандартных


Х-тх У-ту
с. в. Z1 = <Jx и Z2 = <Jy , т. е. rxy = cov(Z1, Z2).
Своliства коэффициента корреляции:
1. Коэффициент корреляции по абсолютной величине не превосходит
1, т.е.
lrxyl ~ 1 или - 1 ~ rxy ~ 1.
2. Если Х и У независимы, то

rxy =О.

3. Если с. в. Х и У связаны линейной зависимостью, т. е. У = аХ + Ь,


а# О, то
lrxyl = 1,

причем rxy = 1 при а> О,


rxy = -1 при а< О.
4. Если lrxy 1 = 1, то с. в. Х и У связаны линейной функциональной
зависимостью.

О 1. Так как IKxyl ~ <Jx · <Jy (свойство 7 ковариации), то


128 • Раэдеn nepвыii. Эnементарная теория вероятностей

2. Кху =О в случае независимости Х и У. Следовательно,

Kxv
rxv = - - =О.
GxGy

3. Согласно свойствам ковариации, имеем

cov(X, У)= cov(X,aX + Ь) = cov(aX + Ь,Х) = acov (х + ~,х)


= acov(X,X) = aDX

и DY = D(aX + Ь) = а 2 DX. Поэтому

cov(X, У) aDX а
rxy = ЛJX../DY = Л5Х · lal. Л5Х = ~ =
{1,
-1,
при а> О,
при а< О.

4. Пусть rxy = 1. Тогда из равенства

(см. свойство 7 ковариации) получаем

D ( х -тх
ах -
У-ту)
ау =О,

Х-тх У-т
т. е. СТх - cry У =с~ постоянная. Но

с= Мс= М ( Х ~хтх - у ~Уту) = М (Х ~хтх )-м (у ~Уту) =


=0-0=0,

Х-тх У-ту ау
т. е. с= О. Значит, ах = ау , т. е. У = ах (Х - тх) +ту. При
rxv = -1 получаем

ау
У= -ах(Х-тх) +ту.

Таким образом, при rxy = ±1 с. в. Х и У связаны линейной функцио­


нальной зависимостью. 1

Итак, для независимых случайных величин rxy =О, для линейно


связанных Jrxvl = 1, а в остальных случаях -1 < rxv < 1; гово­
рят, что с. в. связаны nоложuтелъной корремцuей, если rxy > О; если
Глава 3. Системы случайных величин • 129

rxy <О - отрицателъноil корре.л,яциеil. Чем ближе lrxvl к единице,


тем больше оснований считать, что Х и У связаны линейной зависи­
мостью. Отметим, что корреляционные моменты и дисперсии системы
с. в. обычно задаются корре.л,яционноil .матрицеil:

( Кхх
Кух
Kxv)
Куу
или
(
DX Kxv)
DY .

Пример 3.8. Закон распределения дискретной двумерной с. в. задан


таблицей:
Х"'-У -1 о 1
о 0,15 0,40 0,05
1 0,20 0,10 0,10

Найти коэффициент корреляции rxy.

О Находим законы распределения составляющих Х и У:

х у -1
о 1 о 1
и
р 0,6 0,4 р 0,35 0,50 0,15

Находим математическое ожидание составляющих: тх = 0·0,6+ 1 ·0,4 =


= 0,4, ту = -1 · 0,35 +О· 0,50 + 1 · 0,15 = -0,20 (их можно было бы
найти, используя формулу (3.20); так

2 3
тх =L L х;р;1 = О·О,15+0·0,40+0·0,05+ 1·0,20+1·0,10+ 1·0,10 = 0,4).
i=l j=l

Находим дисперсии составляющих:

DX = [МХ 2 - (МХ) 2 ] = (0 2 · 0,6 + 12 · 0,4) - (0,4) 2 = 0,24,


DY = ((-1) 2
· 0,35 + 0 2
• 0,50 + 1 2
· 'J,15) - (-0,20) 2
= 0,46.
Стало быть: ах =
JD,24"" 0,49, ау JD,40"" 0,68. Находим МХУ, =
используя формулу (3.26): МХУ= О· (-1) ·О,15+0·0·0,40+0· 1·0,05+
+ 1·(-1)·0,20+ 1·О·0,10 + 1·1·0,10 = -0,10 (можно было бы составить
закон распределения Z = ХУ, а затем найти М Z = МХУ:
130 • Раздел первый. Элементарная теория вероятностей

MZ =МХУ= -1·0,20+0·0,70+1 ·0,10 = -0,10). Находим корреляци­


онный момент, используя формулу (3.31): Кху = [МХУ-МХ ·МУ] =
= -0,10-0,4·(-0,20) = -0,10+0,08 = -0,02 iz О. Находим коэффициент
корреляции (формула (3.34)):

rxv = [ ~~:] = о,~0.'~~68 ""' -О,06,


отрицательная корреляция.

Упражнения

1. Двумерная с. в. (Х, У) задана законом распределения.

Х"-У 1 2 з 4
1 0,07 0,04 0,11 0,11
2 0,08 0,11 0,06 0,08
з 0,09 0,13 0,10 0,02

Проверить, зависимы ли с. в. Х и У. Найти cov(X, У).

2. Плотность совместного распределения с. в. Х и У задана формулой

f(x ) = {a(l - ху 3 ), при lxl ~ 1, IYI ~ 1,


'у О, в остальных случаях.

Найти постоянную а и коэффициент корреляции.

3. Непрерывная двумерная с. в. (Х, У) задана плотностью распреде­


ления вероятностей

f(x, у) = { ~;х +у), при О~ х ~ 1, О~ у,;;; 1,


в противном случае.

Зависимы ли с. в. Х и У? Найти м. о. и дисперсию с. в. Х и У.


Глава 3. Системы случайных величин • 131

3.8. Двумерное нормальное распределение

Среди законов распределения деумерной с. в. (Х, У) на практике


чаще всего встречается нормальное (гауссовское) распределение веро­
ятностей. Оно применяется, в частности, для описания 2-х результатов
измерения, абсциссы и ординаты точки попадания (Х, У) при стрельбе
и т.д.

Двумерная с. в. (Х, У) назъ~ваетс.я распределенноtJ по нормалъному


закону, если ее совместная плотность f(x, у) имеет вид

f(x,y) = 1 х
21Гaxayv'l - r 2

Х е
1
2(1 - r
2
)
((x-m.)и;
2

(3.35)

где mx, ту, их, ау, r = r"yy - параметры этого распределения.

Распределение (3.35) называется также нормалън'ЬIМ законом рас­


пределени.я на плоскости или двумерным нормалъным (гауссовским)
распределением.
Можно доказать, что f(x, у) - это функция плотности, т. е. спра­
ведливо равенство

JJ
00 00

f(x, у) dxdy = 1;
-00-00

тх = МХ, ту= МУ; ах и ау - средние квацратические отклонения


(с. к. о.); r - коэффициент корреляции с. в. Х и У.
Это означает, что двумерное нормальное распределение полностью
определяется заданием его числовых характеристик, что удобно на
практике (опытным путем находят эти параметры-характеристики и
получают совместную плотность f(x, у) двух нормально распределен­
ных с.в. х и У).
Выясним смысл, например, параметров тх и ах, найдя распреде­
ление вероятностей составляющей Х (т. е. плотность вероятностей од­
номерной с. в. Х). Согласно формуле (3.10) (п. 3.3) имеем:

оо (х - mж:)2

fi(x)=/f(x,y)dy= 1 e2u~(l-r')x
21Гахау~
-оо

1 ((y-my) 2 2r(x-m.)(y-m,))
2(1 - r2) q2 U;r;U'll d
• у=

-оо
132 • Раздел первый. Элементарная теория вероятностей

х-т у-ту
подстановки rг; х = t, J2
[ v2o-x 2о-у

=----==--е
21Гахау~
rг;
У .t.C!y
t2
---
1-r
2 ! ---
00

е 1-r
1
2 (z 2 -2rtz)
dz=
-00

= ----~-е
1 - --
1-r
1
2
2 ! --
00

е 1-r
1
- 2 ((z-rt) 2 -r 2 t 2 )
dz=
J21Гах~ -00

- е
t2
- - -2+ - -2
1- r
- J21ГaxV1 - r 2
r2t2
1- r !
оо

е
(z - rt) 2
1- r' dz =
-оо

=[ подстановка
z - rt =и
] =
v1-r 2
e-t
2

J21Гах~
Vl - r2 ! 00

е-и
2
du = -t' ,/1Г =
е
J21Гах
-оо

= _l
[так как е-и' du = ,/1Г - интеграл Пуассона, формула (2.39)]
(x-m:r) 2

т.е.
(x-mz) 2
fi(x) = ~ е 2а; (3.36)
21Гах
Случайная величина Х имеет нормальное распр~еление с м. о. тх и
дисперсией а;. Аналогично получаем

(у-т,)'
2а;
(3.37)

т. е. У ~ N(ту, ау)-
График плотности f (х, у) нормального распределения двумерной
с. в. (Х, У) представляет собой холмообразную поверхность, верши-

на которой находится в точке (тх, ту, 21Гахау п),


1- r
т. е. макси- 2

мум функции f(x, у) достигается в точке (тх, ту), рис.34. Сечения


поверхности распр~еления плоскостями, проходящими через точку
Глава 3. Системы случайных величин • 133

(тх, ту, 21mхиу


~)
1-
перпендикулярно плоскости Оху, предста-
r2
вляют собой кривые Гаусса вида z = Ь е-а(х-тх J'. Пересекая поверх­
ность распределения z = f {х, у) плоскостью z = zo, где О < zo < Zmю<>
параллельной плоскости Оху, получим в сечении эллипс, уравнение
проекции которого на плоскость Оху, имеет вид

(х - тх) 2 (х - тх)(У - ту) (у - ту) 2 2


-'---~2---'- - 2r
ах
и и
х У
+ ау
2 = h ' (3.38)

где h2 = -2(1 - r 2 ) 1n(21Гzоихиу~). {В силу ограничения на zo ар­


гумент логарифма меньше 1, следовательно, значение логарифма отри­
цательно.) Если осуществить преобразование параллельного переноса
и поворота осей по формулам

{
х = тх + xocosa -yosina,
у= ту+ xosina + yocosa,

2raxay
где угол а подобран так, что tg 2а = , то уравнение (3.38) пре-
2 2
ах -ау

образуется в каноническое уравнение эллипса. Эллипс {3.38) называют


эллипсом рассеяния; оси симметрии эллипса (они образуют с осью Ох
углы а и ~+а) - главными осями рассе.я.ни.я,, а центр эллипса (точка
(тх, ту)) - центром рассеяния.
Если компоненты двумерной нормально распределенной с. в. (Х, У)
некоррелированы (r = rxy = О), то функция плотности (3.35) прини­
мает вид

1
_l ((х
2
- m,)
0"2
2
+(у - m,) 2 )
(7"2
f(x,y)= е • , =
2-тrахау
(y-m,J'
__l_e 2и~ = f1(x) · !2(у),
v121Гиу

т.е. f(x,y) = /1(х) · f2(y), где /1(х} - плотность распределения с.в. Х,


/2 (у) - с. в. У. Отсюда следует вывод: некоррелированные нормально
распределенные слу"<аiJные вели"<ины .явл.я.ютс.я. так:же и независимы­
ми. Справедливо и обратное утверждение. Таким образом, для нор­
мально распределенных с. в. термины «независимость» и «некоррели­

рованность» эквивалентны.
134 • Раздел первый. Элементарная теория вероятностей

Уравнение эллипса рассеяния для некоррелированных с. в. запи-


сывается в виде

(х - mx) 2 + (у - 2
my) =
1
(hax) 2 (hay) 2
(следует из равенства (3.38) при r = О). На рис. 44 изображен один
такой эллипс (при h = 1).
у

ту --- ----~-----!-,-~:::-"i

'''
о т. х

Puc. 44

Утверждение. Если с. в. Х и У независимы, то вероятность попа­


дания слу-.айной то-.кu (Х, У), распределенной по нормальному закону
в прямоугмьнuк R ={а~ х ~ Ь,с ~у~ d}, находится по формуле:

Р {а ~ Х ~ Ь, с ~ У ~ d} = ( Фо ( Ь ~:zx) - Фо (а ~;"х)) х
х ( Фо ( d ~;У) - Ф 0 (с ~';У)),
х z2
где Фо(х) = ~ J е-2 dz - функция Лапласа.
y27r о

Q Используя формулу (3.8),находим:

Р{а~Х ~ Ь,с~ У ~d} =


Ь (х - m,)' d (у - m,)'

-~=1~/е
../'iiiax
2и~ 1 fe
dx· ../'iiiay 2и~ dy =
а с


Произвольную область D можно приближенно заменить областью,
составленной из прямоугольников. На этом основано применение так
называемых «сеток рассеивания».
Глава 3. Системы случайных величин • 135

Можно показать, что вероятность попадания такой же точки (Х, У)


в один из эллипсов рассеяния равна

Пример 3.9. Найти вероятность попадания точки (Х, У) в прямо­


угольник {lxl ~ 1, IYI ~ 2}, если плотность совместного распределения
х2 + 4у2
с.в.ХиУравнаf(х,у)= ~е-
3 6

Q Функцию f(x, у) можно переписать в виде

(у - О)'

f(x,y) = 1
(х - 0) 2
е- 2(v'з)' . 1 е
2 (2VЗ)' = fi(x) · f2(y).
VЗV21r ./.! v'21r
Значит, с. в. Х и У независимы и Х ~ N(O, VЗ), У~ N (О, ~). Поэто­
·
му P{lxl ~ 1, IYI ~ 2} = 2Фо ( Jз) 2Фо ( .Jз) = 4Фо(О,58) · Фо(2,31) =
=~4~. •

3.9. Регрессия. Теорема о нормальной корреляции

При изучении двумерной случайной величины рассматриваются не


только числовые характеристики одномерных компонент Х и У (см.
п. 3.6), но и числовые характеристики условных распределений: услов­
ные м. о., условные дисперсии.

Условным математическим ожиданием одной из с. в" входящих


в систему (Х, У) называется ее м. о., вычисляемое при усJ1овии, что
другая с. в. приняла определенное значение (или попала в данный ин­
тервал). Обозначается: M(YIX = х) или M(Ylx) и M(Xly).
Вычисляются эти характеристики по обычным формулам м. о., в
которых вместо плотности распределения и вероятностей событий ис­
пользуются условные плотности распределения или условные вероят­

ности (п. 3.5).


136 • Раздел первый. Элементарная теория вероятностей

Для непрерывных с. в.

Jу Jх
00 00

М(У[х) = f(y[x) dy, М(Х[у) = f(x[y) dx, (3.39)


-00 -00

где f(y[x) и f(x[y) - условные плотности распределения с. в. Х и У,


определяемые равенствами (3.17) и (3.18) п. 3.5.
Для дискретных с. в. Х и У условные м. о. вычисляются по фор­
мулам

т n
М(У[х;) = LYjP(Yj[x;) M(X[yj) = L x;p(x;[yj), (3.40)
j=l i=l

где p(yj[x;) = Р{У = щ[Х = х;}, p(x;[Yj) = Р{Х = х;[У = Yj}, форму­
лы (3.15) и (3.16).
Условное математическое ожидание с. в. У при заданном Х = х 1 т. е.
М(У[х) = <р(х), называется функциеii. регрессии или просто регрессиеiJ
У на х (или У по х). Аналогично, М(Х[у) = <р(у) - регресси.я Хна у
(или Х по у).
Графики этих функций называются соответственно линиями (или
«кривыми») регрессии У на х и Хна у.
Если обе функции регрессии У на х и Х на у линейны, то говорят,
что с. в. Х и У связаны линеii.ноii. корреляционноii. зависимостью.

Теорема 3.4 (Теорема о нормальноlii корреляции). Если двумерная


с. в. (Х, У) распределена по нормальному закону, то с. в. Х и У связаны
линейной корреляционной зависимостью.

О Условное м. о. М(У[х) (т. е. функцию регрессии У на х) найдем,


используя условный закон распределения с. в. У при Х = х, кото­
рый определяется условной плотностью распределения f(y[x). Соглас-
f(х, у)
но формуле (3.17) f(y[x) = fi(x) . Совместная плотность f(x,y) зада-

на формулой (3.35), а плотность распределения составляющей Х есть

(х- mx) 2

fi(x) = ,;,/; е 2и~


2irax
(см. формулу (3.36)). Имеем
Глава 3. Системы случайных величин • 137

f(ylx)= ~х
21ГGхау - r

Х е 2(1 -
1
r 2
)
((x-m,) 2
и;
2r(x - m,)(y - ту)+ (у -
С1хС1у
m,)')
u2 Y2irax
у •
(х - m:.c) 2

е
2ст;

Произведем упрощение показателя зкспоненты в последней формуле.


Так как

1 ((х-тх) 2 2r(х-тх)(у-ту) (у-ту) 2 )


2(1 - r 2 )
- -а;- - - а хау
+ а;
+
(х-тх) 2 l-r 2 1
+ ·--= х
2а~ 2
1- r 2(1 - r 2 )
х ((х-тх) 2 _ 2r(х-тх)(у-ту) _ (х-тх) 2 (1-r 2 ) + (у-ту) 2 ) =
а2 ахау а2 а2
х х у

2 2 2
= 1 ((у-ту) _ 2r(х-тх)(у-ту) + r (х-тх) ) =
2(1 - r 2 ) а~ ахау а;

(у-ту х-тх)
2
1
= 2(1 - r2) ау - r. ах ,

то

Uy 2
у- (ту +r · и;(х- mx))

f(ylx) = V2i(ay~) е 2(и,~) 2

Как видно, условный закон распределения является тоже нормальным


с условным м. о. и условной дисперсией, определяемыми формулами

а (х - тх)
M(Ylx) =ту+ r · У ах и D(Ylx) = а;(1- r 2 ). (3.41)

Аналогично можно получить функцию регрессии Х на у:

ах(У- ту)
ср(у) = M(Xly) = тх + r · а у
и D(Xly) = a~(l - r 2 ). (3.42)

Так как обе функции регрессии (3.41) и (3.42) линейны, то корреляция


между с. в. Х и У линейная. 8
138 • Раэдеn первый. Эnементарная теория вероятностей

Пример 3.10. Построить линию регрессии У на х для двумерной с. в.


(Х, У), закон распределения которой задан таблицей:

Х"'.У -1 о 1 L:
о 0,10 0,15 0,20 0,45
1 0,15 0,25 0,15 0,55
L: 0,25 0,40 0,35 1

Q Находим условные ряды распределения с. в. У при х 1 =О, х2 = 1,


используя формулы (3.15).
0,10 10
p(y1Jx1) = Р{У = -lJX =О}= О, 45 = 45 ,
0,15 15
p(y2Jx1) = Р{У = OJX =О} = О 45 = 45 ,
'
0,20 20
р(узJх1) = Р{У = lJX =О}= О,
45 = 45 .
10 15 20 10
Согласно (3.40) имеем M(YJx1) = -1 · +О·
45 45 + 1 · 45 = 45 ·
Далее:

0,15 15
p(y1Jx2) = Р{У = -lJX = 1} =О = ,
55 55
'
0,25 25
p(y2Jx2) = Р{У = OJX = 1} = О, 55 = 55 ,

р(узJх2) = Р{У = lJX = 1} = 0,15


О
55 = 15
55 .
'
Следовательно, М (YJx2) = -1 · 15
+О·
25 + 1 · 15 =О.
55 55 55
Линия регрессии У на х изображена на рис. 45.

M(Yjx,)
1

х
1

Рис. 45
Глава 3. Системы случайных величин • 139

Упражнения

1. Построить линию регрессии Хна у по условию примера 3.10.

2. Пусть (Х, У) - двумерная нормальная с. в. с параметрами тх =


=ту= О, О'х = О'у = 1. Найти условную плотность распределения
с. в. Х при условии, что У =у и с. в. У при условии, что Х =х
(воспользоваться формулами (3.36) и (3.37)).

3.1 О.
Многомерная (п-мерная) случайная величина
(общие сведения)

Систему п случайных величин называют n-мep"oti. (м"огомер"оti.}


с. в. или случайным вектором Х = (Х1, Х2, ... , Xn)·
м"огомер"ая с. в. есть фу"кция элементарного события w:
(Х1,Х2" ."Xn) = <p(w); каждому элементарному событию w ста­
вится в соответствие п действительных чисел х1 , х2 , ... , Xn -
значения, принятые с. в. Х1, Х2, ... , Xn в результате опыта. Век­
тор х = (х1,х2". "xn) называется реализациеti. случайного вектора
(Х1,Х2". "Хп) = Х.
Закон распределения вероятностей п-мерной с. в. задается ее фу"к­
циеti. расnределе"ия

Функция распределения F(x1, х2, ... , xn) обладает такими же свойства­


ми, как и функция распределения двух с. в. F(x, у). В частности: она
принимает значения на отрезке [О, 1], F(+oo, +оо, ... , оо) = 1, Fз(хз) =
= F(+oo, +оо, хз, +оо, ... , +оо).
Плот"ость расnределе"ия систем и n непрерывных с. в. (Х1, Х2, ...
. . . , Xn) определяется равенством

anF(x1,xz, ... ,хп)


! X1,X2, ... ,Xn (x1,x2, ... ,Xn ) = 8 8
Х1 Х2 · · ·
8
Xn
.

00 00 00

/ / ... / f(x1,x2"."xn)dx1dx2 .. "dxn = 1.


-00-00 -00

п
140 • Раздел первый. Элементарная теория вероятностей

Вероятностъ попадания cлyчattнott точки (Х 1 , Xz, ... , Xn) в областъ


D из п-мерного пространства выражается п-кратным интегралом

Р{(Х1, Х2, ... , Xn) Е D} = JJ... J


(D)
J(x1,x2, .. "Хп) dx1dx2 ... , dхп.

Функция распределения F(x 1 ,x2 , •.• ,хп) выражается через плотность


f(x1, х2, ... , Xn) n-кратным интегралом
Х1 Х2

J J". J
Xn

F(x1,xz,""xn) = f(x1,xz,""xn)dx1dx2".,dxn.
-оо -оо -оо

Необходи.м:ым и достато'Чн:ь~м условием взаимноi1 независимости


п с. в. является равенство:

Fx,,x"""x. (х1, х2, ... , Xn) = Fx, (х1) · Fx2 (х2) ... Fx. (xn);
для n непрерывных с. в.:

f Х 1 ,х"""х. (х1, Х2"", Хп) = f Х 1 (х1) · f х, (xz) · · · f Xn (xn)·


Основными числовыми характеристиками многомерноtt с. в. (Х 1 ,
Х2, .. . , Xn) являются:
1. п м.о. составляющих Xi, т.е. m1 = МХ1, m2 = МХ2, ... , тп =
=МХп;
2. n дисперсий составляющих Xi, т.е. D1 = DX1, Dz = DX2, ""
2 . -
Dn = DXn, при этом Di = М ( Xi - mi ) , i = 1,п;
3. n(n-1) ковариаций,т.е. Kij = M(ii.ij),i ioj, приэтомКij = Kji,
Kii = Di.
Ковариации Kij образуют ковариационную матрицу

К12
К22
К1п)
K2n
(D1 К12
D2
или

Kn2 Knn

3. 11 . Характеристическая функция и ее свойства

Наряду с функцией распределения, содержащей все сведения о с. в"


для ее описания можно использовать так называемую характеристи­

ческую функцию. С ее помощью, в частности, упрощается задача на­


хождения распределения суммы независимых с. в., нахождения число­

вых характеристик с. в.
Глава 3 Системыслучайныхвеличин • 141

Характеристическоil фупкциеil с. в. Х называется м. о. с. в. e•tX,


обозначается через <рх (t) или просто <p(t).
Таким образом, по определению

где t- параметр, i = А - мнимая единица.


Для д.с.в. Х, принимающей значения х 1 , xz, .. . с вероятностями
Pk = Р{Х = Xk}, k = 1,2,3"." характеристическая функция опреде­
ляется формулой
00

<px(t) = 2::::;e•tx•pk, (3.43)


k=l
для н.с. в. с плотностью /(х) - формулой

J
00

<px(t) = e•txf(x)dx. (3.44)


-оо

Заметим, что:
1. Характеристическая функция н. с. в. есть преобразование Фурье от
плотности ее распределения; плотность f(x) выражается через <p(t)
обратным преобразованием Фурье:

J
00

f(x) =
2~ -оо
cp(t)e-•tx dt.

2. Если с. в. принимает целочисленные значения О, 1, 2, ... , то <p(t) =


= 1/;(z), где z = е' 1 • Тогда
00

·ф(z) = L zkpk
k=O

(см. п. 2.6).
Своiiства характеристическоii функции:
1. Для всех t Е R имеет место неравенство

\<p(t)i ,;; <р(О) = 1.

2. Если У = аХ + Ь, где а и Ь - постоянные, то


142 • Раэдеn первый. Эnементарная теория вероятностей

3. Характеристическая функция суммы двух независимых с. в. Х и У


равна произведению их характеристистических функций, т. е.

'PX+Y(t) = <px(t) · <py(t).


4. Если для некоторого k существует начальный момент k-го порядка
с.в. Х, т.е. ak = M(Xk), то существует k-я призводная характери­
стической функции и ее значение при t =О равно ak, умноженному
на ik, т.е.

Q 1. <p(t) = IMe•tXI ,,;;; Mle'txl = Ml = 1. (Действительно, le''xl =


= 1 costX + isintXI = ../cos 2 tX + sin2 tX = 1); <р(О) = Ме0 = Ml = 1.
2. <py(t) = ме•tУ = Ме•t(аХ+Ь) = M(e''ЬeiaXt) = e•tЬмeiatX
= e•tb<px(at).
3. 'PX1+x,(t) = Me•t(X1+X2) = M(e•tX1e•tX2) = Me•tX1 . ме•tХ,
= <рх 1 (t) · <px2(t). Свойство справедливо для суммы n независимых с. в.
4. 'Р~) (t) = dk М e•tX = ik M(Xke•tX). Поэтому при t = О имеем
dtk
<p~J{O) = ik M(Xk) = ikak. 8

Из свойства 4 следует ak = i-k'P~) (О). Отсюда, как частный случай,


можно получить:

ai = МХ = -i<p (0) 1
(,-i = ~ = i~ = ~l = -i),
а2 = МХ 2 = -<р"(О), (3.45)
DX = <>2 - <>I = -<р"(О) + ('Р'(О)) 2
.

Пример 3.11. Найти характеристическую функцию с. в. Х, распреде­


ленной по биномиальному закону. Найти МХ и DX.

Q С. в. Х принимает значения О, 1, 2, ... , n с вероятностями

Поэтому, используя формулу (3.43) и формулу бинома Ньютона, нахо­


дим, что

n n
r,o(t) = L e•tkC~pkqn-k = L С~(е''. p)kqn-k = (eitp + q)n,
k=O k=O
Глава 3. Системы случайных величин • 143

т.е. ip(t) = (ei 1p+q)n. Используя формулы (3.45), находим:

МХ = -i(n(ei1p+q)n-I .peit ·i)I =пр, DX = npq. 8


t=O

Упражнения

1. Найти характеристическую функцию с. в. Х, равномерно распре­


деленной на отрезке [а, Ь].

2. Найти МХ с. в. Х, распределенной по закону Пуассона с параме­


тром а, используя характеристическую функцию <р х (t).

{
-2х, прихЕ[-1,О],
3. Дано fx(x) = - плотность с.в. х.
О, в противном случае
Найти <px(t).

3. 12. Характеристическая функция нормальной


случайной величины

Согласно формуле (3.44), характеристическая функция с. в. Х ~


~ N(a, u) равна

<p(t) = _1_
,/27Гu
J00

eitxe
(х - а) 2
2и 2 dx=-1-
,/27Гu 1
00

е-
х 2 - 2(а + ito- 2 )x + о. 2
2и 2 dx=
-оо -оо

00 2
х - 2х(а + ito-2) +(а+ ito-2) 2 + о. 2
- (а+ ito- 2 ) 2
1
= ,/27Гu
jе 2а 2
dx =
-оо

(х - (а+ itu 2 )) 2 2aito- 2 + (itu 2 ) 2


20' 2 · е 2и 2 dx =

2aitq 2 - t 2u 4 (х - (а+ itu 2 )) 2


= _l_e 2и 2 2и 2 dx =
,/27Гu
-оо
144 • Раздел первый. Элементарная теория вероятностей

= _l_eiat-
../21ГСJ
12
;
2
!оо
е-
(x-(a+it"')\, 2
.,/2и } d (х - (а+ itCJ2 )) . _,,-21) =
V2(J
-00

. t2u2 . t2u2
1 i t a - - r= ita--
= -е 2 у1Г = е 2
,;:ii

(l е-и' du = ,;:ii - интеграл Пуассона) .


t2u2
Таким образом, <px(t) = е• 1 •--2-, если Х ~ N(a,CJ).

Пример 3.12. Найти с помощью характеристической функции м. о. и


дисперсию с. в. Х ~ N(a, CJ).

Q Применим формулы (3.45):

t2u2 1
МХ = [-i<p'(O)] = -ie'at--2-(ia -tCJ 2) = -i · 1 · ia =а,
t=O

т.е. МХ =а;

DX = [-<р"(О) + (<р (0)) ] =


1 2

= - ( -CJ2eiat- t';' + (ia - tCJ2)2eiat- t';') lt=O +(ia)2 =


= а2 _ i2a2 + i2a2 = az,

т. е. DX = CJ 2 . Получили известные нам результаты: а - м. о., CJ -


с. к. о.; эти параметры полностью определяют с. в., распределенную по

нормальному закону. •
Глава 4
Функции случайных величин

Часто возникают задачи, в которых по известному закону распре­


деления (или числовым характеристикам) одной (или нескольких) слу­
чайной величины требуется определить распределение другой (или не­
скольких) случайной величины, функционально связанной с первой.
Построение законов распределения функций некоторых д. с. в. (сХ,
Х +У, Х ·У) уже было рассмотрено в п. 2.5 (свойства 2, 3, 5 мате­
матического ожидания).

4. 1 . Функция одного случайного аргумента

Если каждому возможному значению с. в. Х по опр(Щеленному пра­


вилу соответствует одно возможное значение с. в. У, то У называют
функциеЬ случаЬного аргумента Х, записывают У= <р(Х).
Пусть Х - д. с. в. с возможными значениями х1, х2, хз, ... , Xn, ве­
роятности которых равны соответственно р1,р2,рз, ... ,pn, т. е. Pi =
= Р{Х = х;}, i = 1,2,3,""n. Очевидно, что с.в. У = <р(Х) так­
же д.с.в. с возможными значениями У1 = ip(x1), у2 = ip(x2), Уз =
= <р(хз), ... , Yn = <р(хп), вероятности которых равны соответственно
р1,р2,рз, ... ,рщ т. е. если у; = ip(xi), то Pi = Р{У =у;} = Р{Х = х,},
i = 1,n.
Отметим, что различным значениям с. в. Х могут соответствовать
одинаковые значения с. в. У. В этом случае вероятности повторяющих­
ся значений следует складывать.
Математическое ожидание и дисперсия функции У = ip(X) опреде­
ляются соответственно равенствами

n n
МУ = L ip(x;)p" DY = L(ip(xi) - my) Pi·
2

i=l i=l
146 • Раздел первый. Элементарная теория вероятностей

[S_J Пример 4.1. Задан закон распределения д. с. в. Х:

х -1 1 2 1
р 0,1 0,3 0,6 1

Найти МУ, если: а) У= Х 2 , б) У= 2Х + 10.

Q а) С.в. У принимает значения У1 = <р(х1) = (-1) 2 = 1, У2 = 12 =


= 1, Уз = 2 2 = 4, т. е. она принимает два значения: 1 и 4, причем
Р1 = Р{У = 1} = Р{Х = -1} + Р{Х = 1} = 0,1 + 0,3 = 0,4, Р2 =
= Р{У = 4} = Р{Х = 2} = 0,6. Следовательно, МУ = 1·0,4 + 4 · 0,6 =
=2,8.
6) Закон распределения У имеет вид

у
8 12 14
р 0,1 0,3 0,6

Значит, МУ = 8 · 0,1+12 · 0,3 + 14 · 0,6 = 12,8.



Пусть Х - непрерывная с. в. с плотностью распределения f (х), а
с. в. У есть функция от Х, т. е. У = <р(Х). Найдем закон распределе·
ния с. в. У. Будем считать функцию У = <р(Х) непрерывной, строго
возрастающей и дифференцируемой в интервале (а, Ь) (он может быть
бесконечным: (-оо, оо)) всех возможных значений с. в. Х. Тогда суще­
ствует функциях= ,Р(у), обратная функции у= <р(х) (случайная точка
(Х, У) лежит на кривой у = <р(х)). Функция распределения Gy(y) (ее
можно обозначить и так: G(y), Fy(y) или Fy(x)) с. в. У определяется по
формуле G(y) = Р{У < у}. И так как событие {У < у} эквивалентно
событию {Х < ,Р(у)} (рис. 46), то

у= ip(x)

х
ь

Рис. 46
Глава 4. Функции случайных величин • 147

ф(у)

G(y)=P{Y<y}=P{X<'l/J(y)}=Fx('l/J(y))= ! f(x)dx,т.e.
а

ф(у)

G(y) = Jа
f(x) dx.

Дифференцируя полученное равенство по у, найдем плотность распре­


деления с. в. У:

dG(y) d
g(y) = CfY = f('Ф(у)). dy (,Р(у)) = f(,P(y)). 'Ф'(у),
т.е.

g(y) = f(ф(у))'Ф'(у). (4.1)

Если функция у= ср(х) в интервале (а,Ь) строго убывает, то событие


{У< у} эквивалентно событию {Х > ф(у)}. Поэтому

Ь Ф,

G(y) = J f(x) dx = - J f(x) dx.


ф(у) ь

Отсюда следует, что


g(y) = - f(ф(у))ф'(у). (4.2)

Учитывая, что плотность распределения не может быть отрицательной,


формулы (4.1) и (4.2) можно объединить в одну

g(y) = f('Ф(v)Jl'Ф'(vJI. (4.3)

И, наконец, если функция у = ер( х) немонотонна в интервале (а, Ь), то


для нахождения g(y) следует разбить интервал на п участков монотон­
ности, найти обратную функцию на каждом из них и воспользоваться
формулой
n
g(y) = L /(1/Ji(Y))l'Ф:tvJI. (4.4)
i=l

Если с. в. Х является непрерывно!! и f(x) - плотность ее распреде­


ления, то для нахождения числовых характеристик с. в. У = ср(Х)
необязательно находить закон ее распределения, можно пользоваться
148 • Раздел первый. Элементарная теория вероятностей

формулами

J
00

МУ = М(<р(Х)) = <p(x)f(x) dx,


-оо
(4.5)
= J(<р(х)
00

DY = D(<p(X)) - my) 2 f(x) dx.


-оо

Пример 4.2. Найти плотность распределения функции У = -5Х + 2,


считая Х и.с.в. с плотностью f(x).

Q Функция у = -5х +2 монотонно убывает в интервале (-оо, оо).


Обратная функция есть х = t(2 - у) = ф(у), ф'(у) = -i· По форму-
ле (4.3) имеем g(y) = f ( -2 -5 -у) · 1-511 = 1 (2-у)
5! - 5- , У Е (-оо, оо). 8

Проиллюстрируем на примере 4.2 вывод формул для функции и


плотности распределения:

G(y) = Р{У <у}= Р{-5Х + 2 <у}= Р { Х > 2 ~у}=

{ 2 2 2
{
= 1 - р х,,; ~у}= 1 - (р х < ~у}+ р х = ~у}) = {
= 1- Р { Х < 2 ~у} = 1 - Fx (
2
~у),

так как Р{х = 2 ~У} =О, т.е. G(y) = 1-Fx ( ~У)


2
- функция
распределения с. в. У. Тогда

g(y)=G'(y)=(1-Fx( 2 ~Y))~ =-!х( 2 ~У)·( 2 ~У)~ -


=-!(2~y)·(-t).

т.e.g(y)=iJ( 2 ~Y),yE(-oo,oo).
Отметим, что линейное преобразование У = аХ + Ь не меняет ха­
рактера распределения: из нормальной с. в. получается нормальная; из
равномерной - равномерная.
Глава 4. Функции случайных величин • 149

Пример 4.3. Пусть с. в. Х имеет равномерное распределение в интер­

вале (-~, i)· Найти математическое ожидание с. в. У= cosX: а) най­


дя плотность g(y); б) не находя g(y).

Q а) Имеем:

{ О,
~' ХЕ (-i,i),
f(x) =
x9!(-i,i)·
В интервале ( - ~, ~) функция у = cos х не монотонна: в ( О) функ­ -i,
ция возрастает, в (О, i) - убывает. На первом участке обратная функ­
ция х1 = - arccos у = 'Ф1 (у), на втором - Х2 = arccos у = .Р2(у). По
формуле {4.4) имеем

g(y) = f('Ф1(y))l'Ф~(y)I + !('Ф2(у))l'Ф~(у)I =

1 1 +1 1 2
= ---="'==
1Г ~ 1Г 1Г~'
т.е.

g(y) = { 1Гу112- у2' при О< у< 1,

о, при у ,,;; О или у ;;, 1.


Тогда

2 2
= -1Г. 1 ! 1
1 2у~1
{1 - у 2 ) _!2 d(l - у 2 ) = -1Г. 2
1 - у2 о= 1Г•
1

2
т.е. МУ = 1f·
6) Используем формулу (4.5):

т.е. МУ = 1f·
2

150 • Раздел первый. Элементарная теория вероятностей

Упражнения

1. Дискретная с. в. Х задана законом распределения

х -2 1 -1 о 1 2 3
р 0,10 1 0,20 0,30 0,25 0,10 0,05

Найти закон распределения случайных величин: а) У = 2Х 2 - 3;


6) У= ../Х + 2; в) У= sin iX.

2. Дискретная с. в. Х задана своим рядом распределения

х о 1 2 3
р 0,3 0,4 0,2 0,1

Построить многоугольник распределения с. в. Х и У = cos2 ~Х.


Найти МУ и иУ.

З. Найти плотность распределения и дисперсию с. в. У = Х + 1, если


X~R(-2,2].

4. Случайная величина Х ~ N(O, 1). Найти плотность распределения


с. в.: а) У= 3Х ; б) У=3
IXI.
5. Пусть Х - и.с.в. с плотностью

при х ;;: О,
при х <О.

Найти функцию распределения и плотность распределения с. в. У,


если а) У= 2Х - 1; б) У= Х 2 .

4.2. Функции двух случайных аргументов

Для решения ряда практических задач необходимо знать закон рас­


пределения (или числовые характеристики) случайных величин вида
Z = Х±У, Z = Х ·У, Z = ../Х 2 + у2, Z = max(x,Y) и других.
Если каждой паре возможных значений с. в. Х и У по определен­
ному правилу соответствует одно возможное значение с. в. Z, то Z
называют функцией двух с.лучааных аргументов Х и У, записывают
Z = <Р(Х, У).
Глава 4. Функции случайных величин • 151

Найдем закон распределения суммы двух случайных величин (наи­


более важный на практике), т. е. закон распределения с. в. Z = Х + У.
Пусть система двух непрерывных с. в. (Х, У) имеет совместную
плотность распределения f(x, у). Найдем по формуле (3.8) функцию
распределения с. в. Z = Х +У.

Fz(z) = P{Z < z} = Р{Х +У< z} = jj f(x,y) dxdy.


D,

Здесь D, - множество точек плоскости Оху, координаты которых удо­


влетворяют неравенству х +у< z, см. рис. 47.

Рис. 47

Имеем

-оо -00

Дифференцируя полученное равенство по переменной z, входящей в


верхний предел внутреннего интеграла, получаем выражение для плот­

ности распределения с. в. Z = Х +У:

00

fz(z) = j f(x, z - х) dx. (4.6)


-оо

Если с. в. Х и У независимы, то, как известно (п. 3.4), f(x, у) =


= f1(x)f2(y). Формула (4.6) примет вид
00

fz(z) = !x+y(z) = j !1(x)f2(z - х) dx. (4.7)


-оо

Закон распределения суммы независимых с. в. называется компо­


зициеit или сверткоit законов распределения слагаемых.
152 • Раздел первый. Элементарная теория вероятностей

Плотность распределения с.в. Z можно записать в виде fx+Y


= fx * fy, где* - знак свертки, а формулу (4.7) называют формулой
свертки или формулой композиции двух распределений.
Записав Z в виде Z = У+ Х, можно получить другое представление
для fz(z), а именно

J
00

fz(z) = f(z-y,y)dy
-00

J
00

fz(z) = f1(z -y)f2(y) dy


-оо

в случае независимости с. в. Х и У.
Задача нахождения закона распределения с. в. вида Z Х-У,
Z= Х ·У и других решаются аналогично.

Пример 4.4. Пусть с. в. Х ~ N(O, 1), с. в. У ~ N(O, 1). Найти закон


распределения с. в. Z = Х +У, считая Х и У независимыми с. в.

Q Используя формулу (4.7), получаем

fz(z) =
!
00
1 _х'
--е 2
,/21Г
·
1
--е-
,/21Г
~
2 dx
( )'

-1
= 211' !00

е
2х 2 - 2zx
2
+ z2
dx =
-оо -00

2 z2
=..!...e-z4.j1Г= 1 e-2(v'2)'
211' ,/2,/21Г

(l е-и' du = .j1Г - интеграл Пуассона)


т.е.
z2
1 -2 - -
!x+v(z) = е Cv2)'.
,/2,/21Г

Сумма независимых нормальных с. в. (с m =О, а= 1) имеет нормаль·


ное распределение (с m =О, а= ,/2). 8
Глава 4. Функции случайных величин • 153

Пример 4.5. Совместное распределение с. в. Х и У задано плотностью


распределения вероятностей

f( x ) = {х +у, при О ~ х ~ 1, О~ у ~ 1,
'у О, в противном случае.

Найти плотность распределения вероятностей с. в. Z = Х - У.

Q Найдем сначала функцию распределения F(z) с. в. Z, а затем - ее


производную Fz(z) = fz(z).

Fz(z) = P{Z < z} = Р{Х -У< z} = JJ(x+y)dxdy,


D,

где Dz - множество точек, координаты которых удовлетворяют нера­


венству х-у < z, т.е. у> x-z {они находятся выше прямой у= x-z),
где z - произвольное число. Очевидно, если z ~ -1, то F(z) =О; так
как f(x,y) =О вне квадрата О~ х ~ 1, О~ у~ 1. Область интегриро­
вания Dz при -1 < z ~ О изображена на рис. 48, при О < z ~ 1 - на
рис. 49).

y=x-z

l+z 1 х

Рис. 48 Рис. 49

При-l<z~Оимеем

l+z 1 l+z

dx(xy+~ )1:_z=
2

F(z)= ff(x+y)dxdy= f dx J(x+y)dy= J


п~ о x~z о

l+z 2
= J (x+!-x 2 +xz- (x~z) )dx=
о

= (х2 + lx- хз +zx2 - {х-z}з) ll+z=


2 2 3 2 6 о

(l+z) 2 l+z {l+z) 3 z{l+z) 2 1 zз {z+l) 2


= 2 + -2- - 3 + 2 - 6- 6 = 2
154 • Раздел первый. Элементарная теория вероятностей

При О < z ,,;; 1 имеем


z 1 1 1

F(z) = jj(x +y)dxdy = j dx j(x +y)dy+ j dx j (х + y)dy =


Dz О О z x-z
z 1

(ху+ у;) 1:+ j (ху+ У2 ) 1:_,=


2

= j dx dx
о z
z
J(х !) dx + J(х + ! - х2 + xz -
1
2
= + (х ~ z) ) dx =
о z

= (х2+:!О)1' + (х2 +:!О - хз +zx2 - (х- z)з) 11=


220 223 2 6 z

= z2 +~+l_z2 +l-~_l+zз +~-zз _(1-z)з -0= -z2+2z+l


2222223322 6 2
При z > 1 имеем
1 1

F(z) = j j (х +у) dxdy = j dx j (х +у) dy =


Dz О О

Таким образом,

о, при z,,;; -1,


(z + 1) 2
при - 1 < z ,,;; О,
Fz(z) = 2
-z2 +2z+1 , при О < z ,,;; 1,
2
1, при z > 1.

Следовательно,

z ,,;; -1, z > 1,


{
о, при
Fi(z) = fz(z) = z + 1, при - 1 < z ,,;; О,
1- z, при О < z ,,;; 1.
Контроль:
Глава 4. Функциислучайныхвеличин • 155

00 -1 о 1 00

J f(z)dz= J Odz+ J(z+l)dz+ J(l-z)dz+ J Odz=


-00 -оо -1 о 1

(z + 1) 2[о
_ 2
(1 - z) [1- !_ _ _ !_ _
- 2 -1 2 о - 2 о о+ 2 - l. 8

Пример 4.6. Независимые с. в. Х и У распределены равномерно


Х ~ R[O, 4], У ~ R[O, 1]. Найти плотность распределения вероятностей
с. в. Z = Х +У (рис. 50).

11

x+y=z x+y=z x+y=z


Рис. 50

О Система с. в. (Х, У) равномерно распределена в прямоугольнике


D ={О:;;; х,,;; 4,0,,;; у,,;; 1},

fr(x) = {~' х Е [0,4], f 2 (y) = {1, у Е [О, 1],


о, х ф [0,4], О, уф [О, 1].

Так как с. в. Х и У независимы, то f(x,y) = f,(x) · f~(y) = ~ · 1 = ~-

Fz(z) = Р{Х +У< z} = jj ~dxdy = ~Sv"


D,
(x+y<z)

где Sv, - площадь области


Dz - части прямоугольника, лежащей
ниже прямой х +у = z. Если z ( О, то F(z) = О; если О < z ( 1, то
F(z) = ~ · !z2 (так как Svz = ! · z · z); если 1 < z ( 4, то

F (z ) = 4:1 · (z - 21 + z · 1) = S1 (2z - 1) ;
156 • Раздел первый. Элементарная теория вероятностеА

если 4 < z ,;;; 5, то

F(z) = t ·(1·4- ~(5 - z)(5 - z)) = ~(8 - (5 - z) 2 ).


Итак,
о, z,;;; о, z > 5,
1
4z, о< z,;;; 1,
J(z) = Fz(z) = 1
1 < z,;;; 4,
4'
t(5 - z), 4 < z,;;; 5.

Контроль:

00 1 4 5

f
-оо
f(z)dz= /tzdz+ /tdz+t/(5-z)dz=l.
о 1 4

Плотность распределения fz(z) можно найти, используя формулу

00

f(z)= / fi(x)·f2(z-x)dx.
-оо

Имеем
4 4

f(z) = / tf2(z - х) dx = tf f2(z - х) dx.


о о

Функция под знаком интеграла отлична от нуля лишь в случае

{
о,;;; х,;;; 4,
о,;;; z - х,;;; 1,

т.е.

о,;;; х,;;; 4,
{ z-1,;;; х,;;; z.
(4.8)

Решение системы зависит от значения z.


1. Если z ,;;; О, система несовместна; отрезки [О, 4] и [z - 1, z] не
пересекаются, (см. рис. 51).
Следовательно, f2(z - х) =О и !x+y(z) =О.
2. Если О < z ,;;; 1, система (4.8) эквивалентна неравенству О ,;;; х < z
(см. рис. 52).
Глава 4. Функции случайных величин • 157

z-1 z х

о 4 х

Рис. 51

z-1 z х

о 1 4 х

Рис. 52

Поэтому
z

fx+y(z) = 1J1 dx
о
= lxl: = f·
3. Если 1<z о:; 4, система (4.8) эквивалентна неравенству z- 1 о:;
о:; х <z (см. рис. 53).

z-1 z х

о 1 4 х

Рис. 53

Поэтому

fx+y(z) = 1
4
! z

1dz = 41 х lzz-l= 41 (z-z+1) 1


= 4·
z-1

4. Если 4 <z о:; 5, то z - 1 о:; х <4 (см. рис. 54).

z-1 z 5 х

о 4 х

Рис. 54

Поэтому

fz(z) = 1
4
! 4

1 dx = 41 х 1z-l = 4
4
z
1 (4 - z + 1) = 5- - -.
4
z-1
158 • Раздел первый. Элементарная теория вероятностей

5 z-1 z х

о 4 х

Рис. 55

5. Если 5 < z, то система (4.8) несовместна (см. рис. 55), а, значит,


fz(z) =О. Итак,

о, z ~о, z > 5,
1 о< z ~ 1,
4z,
f(z) = 1
4'
1 < z ~ 4, •
~(5 - z), 4 < z ~ 5.

Упражнения

1. По условию примера 4.5 найти функцию и плотность распределе­


ния вероятностей с. в. Z = Х +У.

2. По условию примера 4.5 найти плотность распределения вероятно­


у
стей с.в. z= х·

4.3. Распределение функций нормальных случайных


величин

Рассмот~им распределение некоторых с. в., представляющих функ­


ции нормальных величин, используемые в математической статистике.
Глава 4. Функции случайных величин • 159

Распределение х 2 (хм-квадрат или Пирсона)

Распределением х;; с п cmene'll.Ямu свободы называется распределе­


ние суммы квадратов п независимых стандартных случайных величин,
т.е.
n
Х~ = LXf, где Х; ~ N(0,1), i = 1,2, ... ,п.
i;;:::l

Плотность вероятности с. в. х 2 зависит только от числа п, т. е. чи­


сла слагаемых. Если п = 1, то х 2 = Х 2 , где Х ~ N(O, 1),

х2
fx(x) = -1-е-2.
v'21ё
Плотность расп~еления с. в. у= Х 2 равна (согласнп (4.4))

Плотность расп~еления х;; имеет вид

при х >О,

при х,;;; О,

где Г(р) = J
00

tP-le-t dt - гамма-функция Эйлера (Г(р) = (р - 1)! для


о
целых положительных р). С возрастанием числа степеней свободы п
распределение х 2 приближается к нормальному закону распределения
(при п > 30 распределение х2 практически не отличается от нормаль­
ного);
Мх~ = п, Dx~ = 2п.
На практике, как правило, используют не плотность вероятности, а
квантили расп~еления х;;.
Квантилью распределения x;i, отвечающей уровню значимости а,
называется такое значение х~ = x~,n' при котором
00

Р{х~ > Х~,п} = j fx~ (х) dx =а.


X~,n
160 • Раздел первый. Элементарная теория вероятностей

/(х2)

2 х
Xet,n

Рис. 56

С геометрической точки зрения нахождение квантили х~.п заклю­


чается в выборе такого значениях~= X~,n' чтобы площадь заштрихо­
ванной на рис. 56 фигуры была равна а.
Значения квантилеi! приводятся в специальных таблицах-прило­
жениях.

Д,Ля стандартного нормального распределения квантили уровня


а обозначаются через ±и," причем Ua являеТся решением уравнения

Ф(иа ) = -1 - -.
2
°'

Распределение Стьюдента

Распределением Стъюдента (или t-распределением) сп степенями


свободы называется распределение с. в.

z
Тп = ..;Гхf.'
lx2 n n

где Z ~ N(O, 1) - стандартная нормальная величина, независимая от


х~-распределения.
Плотность вероятности распределения Стьюдента имеет вид

Г (n+l) _п+l
!т. (t) = -г-(~-)-~-,,.-п ( 1 + ~) 2 t Е (-оо; оо).

При п --+ оо распределение Стьюдента приближается (уже при п > 30


почти совпадает) к нормальному;

DТп ~,
MTn =0, =
п- 2 п > 2.
Глава 4. Функциислучайныхвеличин • 161

На практике используют квантили t-распределения: такое значение


t = ta , ЧТО
2•n

!
00

P{lti > to_2'n } = 2 J(t) dt =а.


t"
2•n
С геометрической точки зрения нахождение квантилей заключается в
выборе такого значения t = t о.2 ,n , чтобы площадь заштрихованной на

рис. 57 фигуры была равна а.

f(t)

о t

Рис. 57

Распределение Фишера-Снедекора

Распределением Фишера-Снедекора (или F-расnределением) с m и


п степенями свободы называется распределение с. в.

1 2
F= m:Xm
1 2 ,
nXn
где х~ и х~ ~ независимые с. в" имеющие х 2 -распределение соответ­
ственно с т и п степенями свободы.
При n-+ оо F-распределение стремится к нормальному закону.

2n 2 (m + п - 2)
MF = ___!!:_ , п > 2, DF= , п > 4.
п- 2 m(n - 2) 2 (п - 4)
На практике обычно используют квантили распределения: такое зна­
чение F = Fa,m,n, что

!
00

P{F > Fa,m,n} = J(F) dF =а.


FCl.om,n
162 • Раздел первый. Элементарная теория вероятностей

С геометрической точки зрения нахождение квантили заключается в


выборе такого значения F = Fa,m,n• чтобы площадь заштрихованной
на рис. 58 фигуры была равна а.

о Fa,m,n F

Рис. 58
Глава 5
Предельные теоремы теории вероятностей

Рассмотрим ряд утверждений и теорем из большой группы так на­


зываемых предельных теорем теории вероятностей, устанавливающих
связь между теоретическими и экспериментальными характеристика­

ми случайных величин при большом числе испытаний над ними. Они


составляют основу математической статистики. Предельные теоремы
условно делят на две группы. Первая группа теорем, называемая зако­
ном больших чисел (коротко: ЗБЧ), устанавливает устойчивость сред­
них значений: при большом числе испытаний их средний результат пе­
рестает быть случайным и может быть предсказан с достаточной точ­
ностью. Вторая группа теорем, называемая центральной предельной
теоремой (коротко: ЦПТ), устанавливает условия, при которых закон
распределения суммы большого числа случайных величин неограни­
ченно приближается к нормальному.
В начале рассмотрим неравенство Чебышева, которое можно ис­
пользовать: а) для грубой оценки вероятностей событий, связанных со
с. в., распределение которых неизвестно; б) доказательства ряда теорем
ЗБЧ.

5.1. Неравенство Чебышева

Теорема 5.1. Если с. в. Х имеет м. о. МХ =а и дисперсию DX, то для


любого е >О справедливо неравенство Чебышева

P{IX-MXI;;;, с:}:;::; -DX


2 •
(5.1)
с:
164 • Раздел первый. Элементарная теория вероятностей

О Докажем неравенство (5.1) для непрерывной с.в. Х с плот!iостью


f(x). Вероятность P{IX - al ;;;: Е} есть вероятность попадания с. в. Х в
область, лежащую вне промежутка [а - Е, а + е]. Можно записать

J J J
а-с +оо

P{IX-al;;o:e}= f(x)dx+ f(x)dx= f(x)dx=


-оо a+G lx-al~.::

= J
lx-al~G
l·f(x)dx,;; J
lx-aj;?:E

так как область интегрирования lx - al ~ Е можно записать в виде


(х - а) 2
(х - а) 2 ;;;: с 2 , откуда следует 1,;; . Имеем
е2

J (х J(х
00

P{IX - а[;;;: е},;; \ - а) 2 f(x) dx,;; \ - а) 2 f(x) dx,


0 0
lx-al;?:c -оо

так как интеграл от неотрицательной функции при расширении обла­


сти интегрирования может только возрасти. Таким образом,

00

1
P{IX-al;;o:e},;; 2
j(x-a) 2 f(x)dx= \DX,
Е Е
-00

т. е. P{IX - al;;;: е},;; D?f.


Е
Аналогично доказывается неравенство Чебышева и для дискрет-
ной с. в. Х, принимающей значения Х1, Х2, Хз, ... с вероятностями Р1, Р2.

р3 , ..• ; только интегралы (вида J )заменяются соответствующими


Jx-al;?:c
суммами (вида 2:: ).
~Xi-aj;?=t'

Отметим, что неравенство Чебышева можно записать в другой
форме:

P{IX - МХ[ < е};;;: 1- D?f. (5.2)


Е

В форме (5.2) оно устанавливает нижнюю границу вероятности собы­


тия, а в форме (5.1) - верхнюю.
Глава 5. Предельные теоремы теории вероятностей • 165

Неравенство Чебышева справедливо для .любых с. в. В частности,


для с. в. Х = т, имеющей биномиа.лъное распределение с матожиданием
МХ =а= пр и дисперсией DX = npq (п. 2.7), оно принимает вид

P{lm-npl < Е}? 1- n~q; {5.3)


Е

для -частости 1:; (или ~А, r1. 1.5) события в п независимых испы­
таниях, в каждом из которых оно может произойти с вероятностью

р = М ( r;;) = а, дисперсия которых D ( r;;) = Т:::,, неравенство Чебыше­


ва имеет вид

P{lr;;-pl<c}?l- pq2 • (5.4)


nE
Оценку вероятности попадания с. в. Х в промежуток [с:, оо) дает
неравенство Маркова.

Теорема 5.2 (Неравенство Маркова). Для любой неотрицательной


с. в. Х, имеющей м. о. М Х и е > О, справедливо неравенство:

Р{Х? с} ( -мх
0
-, {5.5)

J J~f(x)dx = f J
00 00 00

О Р{Х? Е} = f(x)dx ( xf(x)dx (


'
xf(x) dx = -мх

00
( е1 f 0
-.
о

Неравенство (5.5) можно записать в форме

мх
P{X<c}?l--
0
-. (5.6)

Пример 5.1. Оценить с помощью неравенства Чебышева вероятность


того, что отклонение с. в. Х от своего м. о. будет меньше трех с. к. о.,
т. е. меньше Зах.

О Полагая Е = Зах в формуле (5.2), получаем

а;
P{IX -MXI <Зах}? 1 - - - = 1- -91 = -89 ""0,8889.
(Зах) 2
Эта оценка, как известно (п. 2.7), называется правило.л.t трех сигм; для
с. в. Х ~ N(a, а) эта вероятность равна 0,9973. 8
166 • Раздел первыА. Элементарная теория вероятностеА

5.2. Теорема Чебышева

Основное утверждение ЗВЧ содержится в теореме Чебышева. В ней


и других теоремах ЗВЧ используется понятие «сходимости случайных
величин по вероятности».

Случайные величины Х1,Х2, ... ,Xn, ... сходятся no вероятности


к величине А {случайной или неслучайной}, если для любого с: > О
вероятность события {IXn - AI <с:} при п ---7 ос стремится к единице,
т.е.

lim P{/Xn -А/< с:}= 1


n->oo

{или P{IXn -А/< с:} ---7 1}. Сходимость по вероятности символически


записывают так:
р

Xn --+А.
n->oo

Следует отметить, что сходимость по вероятности требует, чтобы


неравенство /Xn - А/ < с: выполнялось для подавляющего числа членов
последовательности (в математическом анализе - для всех n > N, где
N - некоторое число), а при n ~ оо практически все члены последо­
вательности должны попасть в с:-окрестность А.

Теорема 5.3 (ЗБЧ в форме П. Л. Чебышева, 1886 г.). Если случай­


ные величины Х1, Х2, ... , Xn, ... независимы и существует такое число
С> О, что DX; ~ С, i = 1, 2, ... , то для любого с: > О

{5.7}

т. е. среднее арифметическое этих случайных величин сходится по веро­


ятности к среднему арифметическому их м. о.:

n n
nlL Х;--+
р n
n->oo
lL МХ;.
i=l i=l

О Так как DX; ~С, i = 1,2, .. " то


Глава 5. Предельные теоремы теории вероятностей • 167

1 1 1 с
= 2(DX1 + DX2 + ... + DXn) ~ 2(С +С+ ... + С)= 2Cn = n.
n n n
Тогда, применяя к с. в.
n
х= kI:xii=1

неравенство Чебышева (5.2), имеем

с
;;:.1--2· (5.8)
nE:

Переходя к пределу при n -+ оо и учитывая, что вероятность любого


события не превышает 1, получаем

j~~P{jk tx; -ktмx;j <о}= 1. •


СлЕЩствие. Если с. в. Х 1 , Х2, ... , Xn, ... независимы и одинаково
распределены, МХ; =а, DX; = а , то для любого Е >О 2

(5.9)

т. е. среднее арифметическое с. в. сходится по вероятности к математи­


ческому ожиданию а:
n
1I: р
n Х;---+ а.
n-->oo
i=l

О Так как
n
k I: МХ; = k(MX1 +МХ2+ .. . +МХп) = k(a+a+ ... +а)= k·na =а,
i=l

а дисперсии с. в. Xi равны числу о- 2 , т. е. ограничены, то, применив ЗБЧ


в форме Чебышева (5.7), получим утверждение (5.9). 8

Следствие (5.9) теоремы Чебышева обосновывает «принцип сред­


него арифметического с. в. Х;», постоянно используемы!! на практике.
Так, пусть произведено n независимых измерений некоторой величи­
ны, истинное значение которой а (оно неизвестно). Результат каждого
168 • Раздел первый. Элементарная теория вероятностей

измерения есть с. в. Xi. Согласно следствию (5.9), в качестве прибли­


женного значения величины а можно взять среднее арифметическое
результатов измерений:
n
а"' ft L Х; = Х.
i=l
Равенство тем точнее, чем больше п.
На теореме Чебышева основан также широко применяемый в ста­
тистике выборо'tныit метод, суть которого в том, что о качестве боль­
шого количества однородного материала можно судить по небольшой
его пробе.
Теорема Чебышева подтверждает связь между случайностью и не­
обходимостью: среднее значение случайной вели'tины
n
X=ftLXi
i=l
практически не отличается от н,ecлy'ЧaiJ,uoiJ, вели'ЧUU'Ы

Пример 5.2. Глубина моря измеряется прибором, не имеющим систе­


матической ошибки. Среднее квадратическое отклонение измерений не
превосходит 15 м. Сколько нужно сделать независимых измерений, что­
бы с вероятностью, не меньшей 0,9, можно было утверждать, что сред­
нее арифметическое этих измерений отличается от а (глубины моря)
по модулю меньше, чем на 5 м?

Q Обозначим через Х; результаты n независимых измерений глубины


моря. Нужно найти число n, которое удовлетворяет неравенству (5.8):

P{jk tx; -k tмx;j < 0 };, 1- n~2 ,


где М Xi = а 1 что означает отсутствие при измерениях системати­
ческоil ошибки (т. е. измере11ия производятся с одинаковой точностью).
По условию Е = 5, С = 225, так как а = v75X = 15м. Отсюда

P{jk t-al < 5};, 1- ~~~;, 0,9,


т. е. 0,1;, ~' n;, 90. Измерение нужно проводить не менее 90 раз. 8
Глава 5. Предельные теоремы теории вероятностей • 169

5.З. Теорема Бернулли

Теорема Бернулли исторически является первой и наиболее про­


стой формой закона больших чисел. Она теоретически обосновывает
свойство устойчивости относительной частоты (см. п. 1.5).

Теорема 5.4 (ЗБЧ в форме Я. Бернулли, 1713 r.). Если вероятность


появления события А в одном испытании равна р, число наступления
этого события при n независимых испытаниях равно пА, то для любого
числа Е >О имеет место равенство

(5.10)

т. е. относительная частота Р* (А) события А сходится по вероятности к


р
вероятности р события А: Р*(А) ~ Р(А).
n-too

0 Введем с. в. Х1, Х2, ... , Хп следующим образом: Xi = 1, если в i-м


испытании появилось событие А, а если не появилось, то Xi = О. Тогда
число nA (число успехов) можно представить в виде

М.о. и дисперсия с.в. Xi равны: МХ; = 1 · р +О· (1 - р) = р,


DX; = (О - р) (1 - р) + (1 - р) 2 р = p(l - р) = pq. Закон распределения
2

с. в. xi имеет вид

при любом i. Таким образом, с. в. Х; независимы, их дисперсии огра­

ничены одним и тем же числом 1, так как


2
p(l - р) =р - р2 = 41 - (р - 2
1) ~ 4·
1

Поэтому к этим с. в. можно применить теорему Чебышева (5.7):


170 • Раздел первый. Элементарная теория вероятностей

Но
n n
.!.
nL.J
"Х· =пл
n'
i
ft L МХ; = ft . пр = р.
i=l i=l

Следовательно, ,!~~ Р { 1пТ: - pl < f:} = 1.



Теорема Бернулли теоретически обосновывает возможность при­
ближенного вычисления вероятности события с помощью его относи­
тельной частоты. Так, например, за вероятность рождения девочки
можно взять относительную частоту этого события, которая, соглас­
но статистическим данным, приближенно равна 0,485.
Неравенство Чебышева (5.2) для случайных величин

пл= ftLX;
i=l

принимает вид

Р{lппл-рl<о};;,1-::2· (5.11)

Обобщением теоремы Бернулли на случай, когда вероятности р;


появления события А в каждом из п испытаний различны, является
теорема Пуассона:
п

Р*(А) ~
n---too
"р;,
ft L...., (5.12)
i=l

где р; - вероятность события А в i-м испытании.

Пример 5.3. Вероятность наличия опечатки на одной странице руко­


писи равна 0,2. Оценить вероятность того, что в рукописи, содержащей
400 страниц, частость появления опечатки отличается от соответству­
ющей вероятности по модулю меньше, чем 0,05.

О Воспользуемся формулой (5.11). В данном случае р = 0,2, q = 0,8,


п = 400, е = 0,05. Имеем

= 1- 0,2 . 0,8 = 0,84,


400. 0,05 2

т. е. р ;;, 0,84.

Глава 5. Предельные теоремы теории вероятностей • 171

5.4. Центральная предельная теорема

Центральная предельная теорема (ЦПТ) представляет собой вто­


рую группу предельных теорем, которые устанавливают связь между

законом распределения суммы с. в. и его предельной формой - нор­


мальным законом распределения.

Сформулируем ЦПТ для случая, когда члены суммы имеют одина­


ковое распределение (именно эта теорема чаще других используется на
практике, так в математической статистике выборочные случайные ве­
личины имеют одинаковые распределения, так как получены из одной
и той же генеральной совокупности).

Теорема 5.5. Пусть с. в. Х 1 , Х2, ... , Хп независимы, одинаково распре­


делены, имеют конечные математическое ожидание М Xi = а и диспер­
сию DX; = tY 2 , i = 1,п. Тогда функция распределения центрированной и
нормированной суммы этих случайных величин стремится при п -+ оо к
функции распределения стандартной нормальной случайной величины:

L; Х, - па
i=l
=--~~-

tYVn
(5.13)

!
х t2
Fz.(x) = P{Zn < х} - - t Ф(х) = ~ е-2 dt.
n-too V 21f
-оо

Из соотношения (5.13) следует, что при достаточно большом п сумма Zn


приближенно распределена по нормальному закону: Zn ~ N(O, 1). Это
означает, что суммаSn = Х1 + Х2 + ... + Xn приближенно распределена
no нормальному закону: Sп ~ N(па, VntY). Говорят, что при п -+ оо с. в.
n
L; Х; асимптотически норма.льна.
i=l

Напомним, что:
1. С. в. Х называется центрированной и нормированной (т. е. стан­
дартной), если МХ =О, а DX = 1.
2. Если с. в. Xi, i = 1, n независимы, М Xi =а, DXi = а 2 , то

М (~ Х;) = а+ а+ ... +а == па,


172 • Раздел первый. Элементарная теория вероятностей

v(txi) = tvxi = а 2 +а2 + ... + а 2 = па2 .


3. Ф(х) 1
= ../'iii ! х

е-т
t' dt - функция Лапласа; Ф(х) = ~ + Ф 0 (х), где
-оо

= ../'iii !
х

Фо(х) 1 t'
е-т dt - нормированная функция Лапласа.
о
Формула (5.13} позволяет при больших п вычислять вероятности
различных событий, связанных с суммами случайных величин. Так,
перейдя от с. в.
n n
s" = L:xi= L:x;
i=l i=l
к стандартной с. в., получим:

n
n I: xi -па
Р{а <::; L Xi
i;l
<::; /3} = р{ аayn
- па <::; i;l
ayn
<::; /3ayn
- па} ~
~ Ф (/3-па)-Ф (а-па),
ayn ayn
или

P{a,,;.S ,,;.{3}~Ф(/3-МSп)-Ф(°'-МSп)-
"' п"' ,/DSn ,/DSn
(5.14)

формула для определенnя вероятности того, что сумма нескольких с. в.


окажется в заданных прЕ\делах (см. (2.43) и (2.46)). Часто ЦПТ исполь­
зуют, если п > 10.
Пример 5.4. Независимые с. в. Xi распределены равномерно на отрез­
ке [О, 1]. Найти закон распрЕ\Целения с. в.
100
У= L:xi,
i=l
а также вероятность того, что 55 < У < 70.
Q Условия ЦПТ соблюдаются, поэтому с. в. У имеет приближенно
плотность распрЕ\Целения

(у - ту)'
2а~
Глава 5. Предельные теоремы теории вероятностей • 173

По известным формулам для м. о. и дисперсии в случае равномерного

распределения нахоттим: МХ•. О+2 1 l2, DX·' -- (l -12О)


2
= = 1
~ 12,
1 1
ст Х; = y'i2 =
2 уЗ. Тогда

ту= м(~хi
100 ) 100
= ~МХ; = 100. ! = 5о,
100 100
ст~ = D (~ Х;) = ~ DX; = 100. l~ = 2:,
5уЗ
иу = - -. Поэтому
3
3(у - 50) 2
fy(y) ~ - 3 -е- 50
5v'61Г
Используя формулу (5.14), находим

Р{55 <у< 70} = Ф (70 - 5v'з


50) - Ф (55 - 50) = Ф(4J3) - Ф( v'З) =
5v'з
-3- -3-

= Ф(б,9282) - Ф(l,73) ~ 0,04,


т. е. Р{55 < У < 70} ~ 0,04.

5.5. Интегральная теорема Муавра-Лапласа

Следствиями ЦПТ являются рассмотренные ранее (п. 1.21) локаль­


ная и интегральная теоремы Муавра-Лапласа. Приведем вывод инте­
гральной теоремы Муавра-Лапласа.
Рассмотрим схему Бернулли. Пусть пл - число появления собы­
тия А (число успехов) в n независимых испытаниях, в каждом из кото­
рых оно может появиться с вероятностью р (не появиться~ с вероят­
ностью q = 1- р). Случайную величину пл можно представить в виде
суммы п независимых с.в. X 1 ,X2, ... ,Xn таких, что Xi = 1, если в i-м
испытании событие А наступило, и Xi = О в противном случае, т. е.

n
пл= LX;.
i=l
174 • Раздел первый. Элементарная теория вероятностей

Так как МХ; = р, DX; = pq (п. 5.3), то

МпА = м(.f,х;) =пр,


z=l

(да это уже давно известно, см. (2.24), в.щь с. в. пА имеет биномиальный
закон распр.щеления). Тогда с. в.

пл -пр
=---
,,Гпрq

пр.щставляет также сумму п независимых, одинаково распределенных

случайных величин. При этом Zn ~ N(O, 1), действительно:

MZn = М (пл - пр) =пр - пр= О


,,Гпрq ,,Гпрq

DZn =D ( пА,,Гпрq
- пр) 1
= прqDпА = прq
прq = 1.

Сл.щовательно, на основании ЦПТ (5.13) с. в. Zn при большом чи­


сле п имеет приближенно нормальное распр.щеление. Согласно свой­
ству (2.46) нормального закона, записываем

(Ф(z) - функция Лапласа). Полагая

двойное неравенство

можно переписать в эквивалентном виде k1 ~пл ~ k2. Таким образом,


получаем

т. е. интегральную формулу Муавра-Лапласа.


Глава 5. Предельные теоремы теории вероятностей • 175

Заметим, что интегральная предельная теорема Муавра-Лапласа

(5.15}

для схемы Бернулли непосредствнно вытекает из ЦПТ (5.13} с учетом


n
результатов, полученных в п. 5.3 (пл = LX" МХ, = р, DX, = pq;
t=l
тогда па= пр, uyn = ,/Piivn = ,;npq).
Для подсчета сумм биномиальных вероятностей можно воспользо­
ваться приближенной формулой

f
k=O n,k
P, "'Ф (m- пр)
,;npq (5.16}

Действительно,

m
LPn,k = Р{nл ~ m} = Р{-оо <пл~ m} =
k=O
= р {-оо < пл - пр <
,;npq
m
,;npq
- np) _Ф(-оо} =
- пр} = Ф (m,;npq
=Ф (m-np),
,;npq
где Ф(х) - функция Лапласа.

Пример 5.5. Машинистке требуется напечатать текст, содержащий


8000 слов, состоящих из четырех и более букв. Вероятность <;делать
ошибку в любом из этих слов равна 0,01. Какова вероятность, что при
печатании будет <;делано не более 90 ошибок?

Q Применим формулу (5.16). Так как п = 8000, р = 0,01, q = 0,99,


m = 90, то

1 = 1 =-1-,,,0112
,;npq у'8000 · 0,01 · 0,99 у'79,2 ' '
m-np 10
,;npq "' 8,9 "' 1,12,

90
Ф(l,12) = 0,8686. СЛЕщовательно, Р{ пл ~ 90} =L Pn,k "=' 0,869. 8
k=O
176 • Раздел первый. Элементарная теория вероятностей

Упражнения

1. Оценить с помощью неравенства Чебышева вероятность того, что:


а) при бросании монеты 500 раз число выпадений герба будет заr
ключено между 200 и 300; б) при бросании 10 игральных костей
сумма очков отклонится от м. о. меньше, чем на 8.

2. Дисперсия каждой из данных независимых случайных величин не


превышает 5. Найти число этих величин, при котором вероятность
отклонения их средней арифметической от средней арифметиче­
ской их м. о. менее чем на 0,1 превысит 0,9.

3. Оценить вероятность того, что при бросании монеты 500 раз ча­
стость появления герба отклонится от вероятности появления гер­
ба при одном бросании по модулю менее чем на 0,1.

4. Стрелок попадает при выстреле в мишень в десятку с вероятностью


0,5, в девятку - 0,3, в восьмерку - 0,1, в семерку - 0,1. Стрелок
сделал 100 выстрелов. Какова вероятность того, что он набрал не
менее 940 очков?

5. Приживаются в среднем 70% числа посаженных саженцев. Сколь­


ко нужно посадить саженцев, чтобы с вероятностью не меньшей 0,9
ожидать, что отклонение числа прижившихся саженцев от их м. о.

не превышало по модулю 40? Решить задачу с помощью: неравен­


ства Чебышева.
Основы
...
математическои

статистики
Раздел второй
Глава 6
Выборки и их характеристики

6. 1. Предмет математической статистики

Матемаmи'Ч.еская статистика - раздел математики, в котором


изучаются методы сбора, систематизации и обработки результатов на­
блюдений массовых случайных явлений для выявления существующих
закономерностей.
Математическая статистика тесно связана с теорией вероятностей.
Обе эти математические дисциплины изучают массовые случайные
явления. Связующим звеном между ними являются предельные теоре­
мы теории вероятностей. При этом теория вероятностей выводит из ма­
тематической модели свойства реального процесса, а математическая
статистика устанавливает свойства математической модели, исходя из
данных наблюдений (говорят «из статистических данных»).
Предметом математической статистики :fшляется изучение случай­
ных величин (или случайных событий, процессов) по результатам на­
блюдений. Полученные в результате наблюдения (опыта, эксперимен­
та) данные сначала надо каким-либо образом обработать: упорлдо'Чить,
представить в удобном для обозрения и анализа виде. Это первая зада­
ча. Затем, это уже вторая задача, оценить, хотя бы приблизительно,
интересующие нас характеристики наблюдаемой случайной величи­
ны. Например, дать оценку неизвестной вероятности события, оценку
неизвестной функции распределения, оценку математического ожида­
ния, оценку дисперсии случайной величины, оценку параметров рас­
пределения, вид которого неизвестен, и т. д.

Сшщующей, назовем ее условно третьей, задачей является провер­


ка статисти'Ческих гипотез, т. е. решение вопроса согласования ре­

зультатов оценивания с опытными данными. Например, выдвигается


гипотеза, что: а) наблюдаемая с. в. подчиняется нормальному закону;
б) м. о. наблюдаемой с. в. равно нулю; в) случайное событие обладает
данной вероятностью и т. д.
Одной из важнейших задач математической статистики является
разработка методов, позволяющих по результатам обследования вы-
Глава 6. Выборки и их характеристики • 179

барки (т. е. части исследуемой совокупности объектов) делать обосно­


ванные выводы о распределении признака (с. в. Х) изучаемых объектов
по всей совокупности.
Для обработки статистических данных созданы специальные про­
граммные пакеты (STADIA, СтатЭксперт, Эвриста, SYSTAT, STAT-
GRAPHICS и др.), которые выполняют трудоемкую работу по расче­
ту различных статистик, построению таблиц и графиков. Простейшие
статистические функции имеются в программируемых калькуляторах
и популярных офисных программах (EXCEL).
Результаты исследования статистических данных методами мате­
матической статистики исnолъзуютс.я для nрин.яти.я решения (в зада­
чах планирования, управления, прогнозирования и организации произ­

водства, при контроле качества продукции, при выборе оптимального


времени настройки или замены действующей аппаратуры и т. д.), т. е.
для научных и практических выводов.

Говорят, что «математическая статистика - это теория принятия


решений в условиях неопределенности».
Математическая статистика возникла в XVIII веке в работах
Я. Бернулли, П. Лапласа, К. Пирсона. В ее современном развитии опре­
деляющую роль сыграли труды Г. Крамера, Р. Фишера, Ю. Неймана
и др. Большой вклад в математическую статистику внесли русские уче­
ные П. Л. Чебышев, А. М. Ляпунов, А. Н. Колмогоров, Б. В. Гнеденко
и другие.

6.2. Генеральная и выборочная совокупности

Пусть требуется изучить данную совокупность объектов относи­


тельно некоторого признака. Например, рассматривая работу диспет­
чера (продавца, парикмахера" .. ) , можно исследоватr,: его загружен-
11ость, тип клиентов, скорость обслуживания, моменты поступления
заявок и т.д. Каждый такой признак (и их комбинации) образует слу­
чайную величину, наблюдения над которой мы и производим.
Совокупность всех подлежащих изучению объектов или возможных
результатов всех мыслимых наблюдений, 11роизводимых в неизменных
условиях над одним объектом, называется генералъноti, совокупностъю.
Более строго: генеральная совокупность - это с. в. Х (UJ), заданная
на пространстве элементарных событий n с выделенным в нем классом
S подмножеств событий, для которых указаны их вероятности.
180 • Раздел второй. Основы математической статистики

Зачастую проводить сплошное обследование, когда изучаются все


объекты (например - перепись населения), трудно или дорого, эконо­
мически нецелесообразно (например - не вскрывать же каждую кон­
сервную банку для проверки качества продукции), а иногда невозмож­
но. В этих случаях наилучшим способом обследования является вы­
бороч11ое 11аб11юде11ие: выбирают из генеральной совокупности часть ее
объектов («выборку») и подвергают их изучению.
Выбороч11оi:J совокуп11осrпъю ( выборкоi:J) называется совокупность
объектов, отобранных случайным образом из генеральной совокупно­
сти.

Более строго: выборка - это последовательность Х 1 , Х2, ... , Xn


независимых одинаково распределенных с. в. 1 распределение каждой
из которых совпадает с распределением генеральной случайной вели­
чины.

Число объектов (наблюдений) в совокупности называется ее обое­


мом.

Конкретные значения выборки, полученные в результате наблюде­


ний (испытаний), называют реализациеi:J выборки и обозначают строч­
ными буквами Х1, х2, ... 1 Xn.
Метод статистического исследования, состоящий в том 1 что на осно­
ве изучения выборочной совокупности делается заключение о всей ге­
неральной совокупности, называется въ~борочным.
Для получения хороших оценок характеристик генеральной сово­
купности необходимо, чтобы выборка была penpeзe11rnarnuвнoi:J (или
предсrпавиrпелъноi:J), т. е. достаточно полно представлять изучаемые
признаки генеральной совокупности. Условием обеспечения репрезен­
тативности выборки является, согJ1асно закону больших чисел, соблю­
дение случайности отбора, т. е. все объекты генеральной совокупности
должны иметь равные вероя-гности попасть в выборку.
Различаю-г выборки с возвращением (повторные) и без возвраще­
ния ( бесповrпорн-ые). В первом случае отобранный объект возвращается
в генеральную совокупность перед извлечением следующего; во вто­

ром - не возвращается. На практике чаще используется бесповторная


выборка.
Заметим, если объем выборки значительно меньше объема гене­
ральной совокупности, различие между повторной и бесповторной вы­
борками очень мало, его можно не учитывать.
В зависимости от конкретных условий для обеспечения репрезента­
тивности применяют различные способы отбора: npocmoi:J, при котором
из генеральной совокупности извлекают по одному объекту; типиче­
ский, при котором генеральную совокупность делят на «типические»
Глава 6. Выборкиииххарактеристики • ltl1

части и отбор осуществляется из каждой части (например, мнение о


референдуме спросить у случайно отобранных людей, разделенных по
признаку пола, возраста, ... ); механическиii., при котором отбор произ­
водится через определенный интервал (например, мнение спросить у
каждого шестидесятого ... ); серийнъ~·tJ., при котором объекты из гене­
ральной совокупности отбираются «Сериями», которые должны иссле­
доваться при помощи сплошного обследования.
На практике пользуются сочетанием вышеупомянутых способов от~
бора.

Пример 6.1. Десять абитуриентов проходят тестирование по мате,1а­


тике. Каждый из них может набрать от О до 5 баллов включительно.
Пусть Xk - количество баллов, набранных k-м (k = 1, 2, ... , 10) аби­
туриентом.

Тогда значения О, 1, 2, 3, 4, 5 - все возможные количества бал­


лов, набранных одним абитуриентом, - образуют генеральную сово­
купность.

Выборка Х1, Х2, Хз, ... , Х10 - результат тестирования 10 абитури­


ентов.

Реализациями выборки могут быть следующие наборы чисел: {5,


3, о, 1, 4, 2, 5, 4, 1, 5} или {4, 4, 5, 3, 3, 1, 5, 5, 2, 5} или {3, 4, 5, о, 1, 2,
3, 4, 5, 4} и т. д.

6.3. Статистическое распределение выборки.


Эмпирическая функция распределения

Пусть изучается некоторая с. в. Х. С этой целью над с. в. Х про­


изводится ряд независимых опытов (наблюдений). В каждом из этих
опытов величина Х принимает то или иное значение.
Пусть она приняла n1 раз значение х 1 , n2 раз - значение х2, ... ,
nk раз - значение Xk. При этом n1 +n2 + ... +nk = п- объем выборки.
Значения х 1 , х2, ... ,xk называются вариантами с.в. Х.
Вся совокупность значений с. в. Х представляет собой первичный
статистический материал, который подлежит дальнейшей обработке,
прежде всего - упорядочению.

Операция расположения значений случайной величины (призна­


ка) по неубыванию называется ран;ж;ированием статистических дан­
ных. Полученная таким образом последовательность X(l), х{ 2 ), ... , x(n)
182 • Раздел второй. Основы математической статистики

значений с. в. Х (где X(I) ~ Х(2) ~ ..• ~ X(n) и X(I) = m.in Х;, ... , X(n) =
1~i~n
= ma.x Х;) называется вариационным рядом.
1~i~n

Числа ni, показывающие, сколько раз встречаются варианты Xi в


ряде наблюдений, называются <tастотами, а отношение их к объему
выборки - 'Частостями или относительн:ыми частотами (Pi), т. е.

(б.1)

k
где п = Lni.
i=l
Перечень вариантов и соответствующих им частот или частостей
называется статисти<tеским распределением выборки или статисти­
<tеским рядом.
Записывается статистическое распределение в виде таблицы. Пер­
вая строка содержит варианты, а вторая - их частоты n; (или часто­
сти pi).

Пример 6.2. В результате тестирования (см. пример б.1) группа аби­


туриентов набрала баллы: 5, 3, О, 1, 4, 2, 5, 4, 1, 5. Записать полученную
выборку в виде: а) вариационного ряда; б) статистического ряда.

Q а) Проранжировав статистические данные (т. е. исходный ряд), по­


лучим вариационный ряд (x(i), х( 2 ), ••• , Х(!о)):

(О, 1, 1, 2, 3, 4, 4, 5, 5, 5).

б) Подсчитав частоту и частость вариантов х1 = О, х2 = 1, хз = 2,


х4 = 3, х 5 = 4, х5 = 5, получим статистическое распрЕЩеление выборки
(так называемый дискретный статистический ряд)

или

Х;

Pi
о
1
10
1
2
10
1
10
2 3
1
10
4
2
10
5
3
10
(tPi
t=l
= 1). •
Статистическое распределение выборки является оценкой неиз­
вестного распределения. В соответствии с теоремой Бернулли (п. 5.3)
относительные частоты pf: сходятся при п --+ оо к соответствующим
Глава 6. Выборки и их характеристики • 183

вероятностям р;, т. е. Pi ~ Pi· Поэтому при больших значениях п


n-too
статистическое распределение мало отличается от истинного распре-

деления.

В случае, когда число значений признака (с. в. Х) велико или при­


знак является непрерывным (т. е. когда с. в. Х может принять любое
значение в некотором интервале), составляют интерва.лън:ыtt стати­
стический ряд. В первую строку таблицы статистического распределе­
ния вписывают частичные промежутки [х 0 , х 1 ), [х 1 , х 2 ), ••. , [xk_ 1, xk),
которые берут обычно одинаковыми по длине: h = х1 - хо= х2 - Х1 =
= .... Для определения величины интервала (h) можно использовать
формулу Стерджеса:
h= Xmax - Xmin
1 + log 2 п '
где Xmax - Xmin - разность между наибольшим и наименьшим значени­
ями признака, m = 1 + log 2 n - число интервалов (log 2 n"" 3,322 lg п).
За начало первого интервала рекомендуется брать величину Хнач =
= Xrnin - ~. Во второй строчке статистического ряда вписывают коли­
чество наблюдений п, (i = 1, k), попавших в каждый интервал.

Пример 6.3. Измерили рост (с точностью до см) 30 наудачу отобран­


ных студентов. Результаты измерений таковы:
178, 160, 154, 183, 155, 153, 167, 186, 163, 155,
157, 175, 170, 166, 159, 173, 182, 167, 171, 169,
179, 165, 156, 179, 158, 171, 175, 173, 164, 172.
Построить интервальный статистический ряд.

Q Для удобства проранжируем полученные данные:


153, 154, 155, 155, 156, 157, 158, 159, 160, 163, 164, 165, 166, 167, 167, 169,
170, 171, 171, 172, 173, 173, 175, 175, 178, 179, 179, 182, 183, 186.
Отметим, что Х - рост студента - непрерывная с. в. При более
точном измерении роста значения с. в. Х обычно не повторяются (веро­
ятность наличия на Земле двух человек, рост которых равен, скажем
vГз = 1,732050808 ... метров, равна нулю!).
Как видим, Xmin = 153, Xrnax = 186; по формуле Стерджеса, при
п = 30, находим длину частичного интервала

h = 186 - 153 "" 33 "" _1L "" 5,59.


1 + log2 30 1 + 3,322 lg 30 5,907

Примем h 6. Тогда Хнач = 153 - ~ = 150. Исходные данные


=
разбиваем на 6 (m = 1 + log 2 30 = 5,907 "" 6) интервалов: [150,156),
[156,162), [162,168), [168,174), [174, 180), [180, 186).
184 • Раздел второй. Основы математической статистики

Подсчитав число студентов (n;), попавших в каждый из получен­


ных промежутков, получим интервальный статистический ряд:

Рост [150-156) [156-162) [162-168) [168-174) [174-180) [180-186)


Частота
Частость
4
0,13
5
0,17
6
0,20
7
0,23
5
0,17
3
0,10

Одним из способов обработки вариационного ряда является постро­
ение эмпирической функции распределения.
Эмnирическо-11 (статисmи'Ческо-11) функцией распределения называ­
ется функция F~(x), определяющая для каждого значениях частость
события {Х < х}:
F;(x) =р*{Х < х}. (6.2)
Для нахождения значений эмпирической функции удобно F;(x) за-
писать в виде

F;(x) = ~х,
где n- объем выборки, n, - число наблюдений, меньших х (х Е JR).
Очевидно, что F~(x) удовлетворяет тем же условиям, что и истин­
ная функция распределения F(x) (см. п. 2.3).
При увеличении числа n наблюдений (опытов) относительная ча­
стота события {Х < х} приближается к вероятности этого события
(теорема Бернулли, п. 5.3). Эмпирическая функция распределения
F~ ( х) является оценко-11 вероятности события {Х < х}, т. е. оценкой
теоретической функции распределения F(x) с. в. Х. Имеет место

Теорема 6.1 (Гливенко). Пусть F(x) - теоретическая функция рас­


пределения с. в. Х, а F~ (х) - эмпирическая. Тогда для любого с: >О
lim {[F;(x) - F(x)[ >с:}= О.
n--too

Пример 6.4. Построить функцию F~(x), используя условие и резуль­


таты примера 6.2.

Здесь n = 10. Имеем Fi0 (x) = ~ =О при х,;; О (наблюдений мень­


Q
1
ше О нет); F 1*0 (x) = ~ при О< х '( 1 (здесь nx = 1) и т. д. Окончательно
1
Глава 6. Выборки и их характеристики • 185

получаем

о, при х (О,

0,1, при О< х ( 1,


0,3, при 1< х ( 2,
F{0 (x) = 0,4, при 2 < х ( 3,
0,5, при 3 < х ( 4,
0,7, при 4 < х ( 5,
1, при 5 < х.

График эмпирической функции распределения приведен на рис. 59. •

----------------------------------------
0,1 -------------------------------!

Рис. 59

6.4. Графическое изображение статистического


распределения

Статистическое распределение изображается графически (для на­


глядности) в виде так называемых полигона и гистограммы. Полигон,
как правило, служит для изображения дискретного (т. е. варианты от­
личаются на постоянную величину) статистического ряда.
Полигоном частот называют ломаную, отрезки которой соединя-
ют точки с координатами (x1,n1),(x2,n2), ... ,(xk,nk); полигоном -ч.а-
стостеiJ ~с координатами (x1,pr), (х2,Р2), ... , (ч,piJ·
Варианты (xi) откладываются на оси абсцисс, а частоты и, соот­
ветственно, частости - на оси ординат.
186 • Раздел второй. Основы математической статистики

Pi
1

Рис. 60

Пример 6.5. Для примера 6.2 (п. 6.3) полигон частосте!t имеет вид,
изображенный на рис. 60.
Заметим, что Pi + Pz + ... + Рб = 1.

Как видно, полигон частостей является статистическим аналогом


многоугольника распределения (см. п. 2.2).
Для непрерывно распределенного признака (т. е. варианты могут
отличаться один от другого на сколь угодно малую величину) можно
построить полигон частот, взяв середины интервалов в качестве значе­

ний х1, х2, ... , Xk. Более употребительна так называемая гистограмма.
Гистограммо1J .,,ас тот ( '!acmocme1J) называют ступенчатую фигу­
ру, состояшую из прямоугольников, основаниями которых СJrужат ча­

стичные интервалы длины h, а высоты равны отношению hi - плот-
р! п·
ность частоты ( /,, или п ·ih - плотности частости).
Очевидно, площадь гистограммы ·частот равна объему выборки, а
площадь гистограммы частосте!t равна единице.

Пример 6.6. Используя условие и результаты примера 6.3 из п. 6.3


построить гистограмму частосте!t.

Q В данном случае длина интервала равна h = 6. Находим высоты


0,13 h 0,17 h 0,20
h; прямоугольников: h 1 = - - "" 0,022, 2 = - - "" 0,028, з = - - ""
6 6 6
0,23 0,17 h 0,1 о
"" 0,033, h 4 = - - "" 0,038, h 5 "" - - = 0,028, 6 "" б = ,017.
6 6
Гистограмма частосте!t изображена на рис. 61.
Гистограмма частот является статистическим аналогом дифферен­
циала функции распределения (плотности) f (х) с. в. Х. Сумма площа-
Глава 6. Выборки и их характеристики • 187

Рис. 61

дей прямоугольников равна .щинице

h + · · · + h · Рв
( h · Pi h = Р1* + · · · + Рб* = 1) ,

что соответствует условию

J
00

f(x)dx = 1
-оо

для плотности вероятностей f(x) (см. п. 2.4). На рис. 61 показана и


плотность вероятностей f(x).
Если соединить середины верхних оснований прямоугольников от-
резками прямой, то получим полигон того же распр.щеления. 8

6.5. Числовые характеристики статистического


распределения

Для выборки можно опр.щелить ряд числовых характеристик, ана­


логичным тем, что в теории вероятностей определялись для случайных
величин (см. п. 2.5).
Пусть статистическое распределение выборки объема п имеет вид:

Xi Х\ Х2 Х3 ... Xk
(6.3)
n; n1 n2 nз ... nk

Выборо'ЧН'ЬIМ средним х. называется ср<ЩНее арифметическое всех


значений выборки:

(6.4)
188 • Раздел второй. Основы математической статистики

Выборочное среднее можно записать и так:

k
Хв = LXi ·p'J, (6.5)
i=l

п·
где Pi = n
1
- частость. Для обозначения выборочного среднего ис-
пользуют следующие символы: Х, М*(Х), т;.
Отметим, что в случае интервального статистического ряда в ра­
венстве (6.4) в качестве х; берут середины его интервалов, а п; - со­
ответствующие им частоты.

Выборо-чноtJ дucnepcuetJ Dв называется среднее арифметическое


квадратов отклонений значений выборки от выборочной средней Х 8 ,
т. е.
k
Dв = ft L(Xi - Х8 ) 2
· n; (6.6)
i=l
или, что то же самое,

k
D 8 = L(х;-хв) 2 ·pj. (6.7)
i=l

Можно показать, что Dв может быть подсчитана также по формуле:


k
Dв = ft L х? · ni -
2
(х8 ) , т. е.
i=l

D8 = х2 - (х) 2 , (6.8)

здесь Х =Ха.
Выборо-чное среднее квадрати-ческое отк.п.онение выборки опреде­
ляется формулой
а8 = .JD:,. (6.9)
Особенность выборочного с. к. о. (а 8 ) состоит в том, что оно изме­
ряется в тех же единицах, что и изучаемый признак.
При решении практических задач используется и величина

k
8 = n ~ 1 . L(Xi - Хв) 2 • п;,
2
(6.10)
i=l

т.е.

= _!!__ Dв,
82
n- 1 (6.11)
Глава 6. Выборки и их характеристики • 189

которая называется исправленноiJ выборочноiJ дucnepcueiJ (см. далее


п. 7.1).
Величина
(6.12)
называется исправленным выборочным средним квадратическим от­
клонеиием.

Для непрерывно распределенного признака формулы для выбо­


рочных средних будут такими же, но за значения x1,x2, ... ,xk на­
до брать не концы промежутков [хо,х1),[х1,х2), ... , а их середины
Хо+ Х) Х1 + Х2
2 2 , ".
В качестве описательных характеристик вариационного ряда X(l)>
х( 2 ), ... , Х(п) {или полученного из него статистического распределения
выборки (6.3)) используется медиана, мода, размах вариации (выбор­
ки) и т.д.
Размахом вариации называется число R = X(n) - x(l), где X(l) =
= min Xk, X(n) = max Xk или R = Xmax-Xmin, где Xma.x - наибольший,
l(k(n l(k(n
Xrnin - наиме1Iьший вариант ряда.
MoдoiJ м; вариационного ряда называется вариант, имеющий наи­
большую частоту.
МедианоiJ м; вариационного ряда называется значение признака
(с. в. Х), приходящееся на середину ряда.
Еслип = 2k (т.е. pядx(l),x( 2 ),···,x(k),X(k+l)>··· ,x(2k) имеет четное
X(k) + X(k+l)
ЧИСЛО членов), ТО м; = ; если n = 2k + 1, ТО м; = X(k+l)·
2
Пример 6. 7. По условию примера 6.2 из п. 6.3 найти характеристики
выборки - результаты тестирования 10 абитуриентов.

Q Используя формулы (6.4)-(6.12) и определения из п. 6.5, находим:


1
х. = 10 · (О · 1 + 1 · 2 + ... + 5 · 3) = 3,
D. = / ((о - 3) 2 . 1 + (1 - 3) 2 • 2 + ". + (5 - 3) 2 • 3) = 3,2,
0
'°" 1, 79,
<Тв = у'3,2
21
°.
s = 9 3,2 "" з,56,
s = vз,56"" 1,87,
R= 5-0 = 5,
м~ =5,
М*=З+
е 2
4
=35
' . •
190 • Раздеn второй. Основы математической статистики

Упражнения

1. Найти и построить эмпирическую функцию распределения для вы­


борки, представленной статистическим рядом.

Xi 1 3 6
ni 10 8 12

2. На телефонной станции производились наблюдения за числом не­


правильных соединений в минуту. Результаты наблюдений в тече­
ние часа представлены в виде статистического распределения.

х, о 1 2 3 4 5 6
п, 8 17 16 10 6 2 1

Найти выборочные среднее и дисперсию. Сравнить распределение


е-а ат)
частостеl! с распределением Пуассона ( Pn,m "" ~! .

3. Изучается с. в. Х - число выпавших очков при бросании игральной


кости. Кость подбросили 60 раз. Получены следующие результаты:
3, 2, 5, 6, 6, 1, 4, 6, 4, 6, 3, 6, 4, 2, 1, 5, 3, 1, 6, 4,
5, 4, 2, 2, 4, 2, 6, 3, 1, 5, 6, 1, 6, 6, 4, 2, 5, 4, 3, 6,
4, 1, 5, 6, 3, 2, 4, 4, 5, 2, 5, 6, 2, 3, 5, 4, 1, 2, 5, 3.
1. Что в данном опыте-наблюдении представляет генеральную со­
вокупность? 2. Перечислите элементы это!! совокупности. 3. Что
представляет собой выборка? 4. Приведите 1-2 реализации выбор­
ки. 5. Оформите ее в виде: а) вариационного ряда; б) статистическо­
го ряда. 6. Найдите эмпирическую функцию распределения выбор­
ки. 7. Постройте интервальны!! статистически!! ряд. 8. Постройте
полигон частот и гистограмму частостей. 9. Найдите: а) выбороч­
ную среднюю; б) выборочную дисперсию; в) исправленную выбо­
рочную дисперсию и исправленное среднее квадратическое откло-

·че; г) размах вариации, моду и медиану.


Глава 7
Элементы теории оценок и проверки гипотез

7. 1 . Оценка неизвестных параметров

Понятие оценки параметров

Пусть изучается случайная величина Х с законом распределения,


зависящим от одного или нескольких параметров. Например, это пара-

метр а в распределении Пуассона (Р{Х = m} =ат· ~-а) или пара­


т.
метры а и а для нормального закона распределения.

Требуется по выборке X 1,X2, ... ,Xn, полученной в результате п


наблюдений (опытов), оценить неизвестный параметр IJ.
Напомним, что X1,X2, ... ,Xn - случайные величины: Х1 - ре­
зультат первого наблюдения, Х2 - второго и т. д., причем с. в. Х"
i = 1, 2, .. . , n, имеют такое же распределение, что и с. в. Х; конкретная
выборка х1,х2, ... 1 Xn - это значения (реализация) независимых с. в.
X1,Xz, ... ,Xn.
Статистическоtt оценкоtt ifn (далее просто - оценкоtt if) параме­
тра 8 теоретического распределения называют его приближенное зна­
чение, зависящее от даннь~ выбора.
Очевидно, что оценка IJ есть значение некоторой функции резуль­
татов наблюдений над случайной величиной, т. е.

(7.1)

Функцию результатов наблюдений (т. е. функцию выборки) назы-


вают cmamucmuкott.
Можно сказать, что оценка if параметра 8 ес~ъ статистика, которая
в определенном смысле близка к истинному значению 8.
Так, F*(x) есть оценка Fx(x), гистограмма - плотности f(x).
192 • Раздел второй. Основы математической статистики

Оценка () является случайной величиной, так как является функ­


цией независимых с. в. Х1, Х2, ... , Хп; если произвести другую выборку,
то функция примет, вообще говоря, другое значение.
Если число опытов {н~блюдеIIий) невелико, то замена неизвестного
параметра() его оценкой(), например математического ожидания сред­
ним арифметическим, приводит к ошибке. Это ошибка в среднем тем
больше, чем меньше число опытов.
К оценке любого параметра предъявляется ряд требований, кото­
рым она должна удовлетворять, чтобы быть «близкой» к истинному
значению параметра, т. е. быть в каком-то смысле «доброкачественной»
оценкой.

Свойства статистических оценок

Качество оценки определяют, проверяя, обладает ли она свойства-


ми несмеще1!_.ности, состоятельности, эффективности. ,..,
Оценка f!, параметра () наlывается несмещенной, если М () = ().
Если MIJ # IJ, то оценка IJ называется смещенной.
Чтобы оценка О не давала систематической ошибки (ошибки одного
знака) в сторону завышения (МО > IJ) или занижения (МО < !J), на­
до потребовать, чтобы «математическое ожидание оценки было равно
оцениваемому параметру».

Если MBn -7 В, то оценка 'ifn называется асимптотически несме­


щенной.
Требование несмещенности особенно важно при малом числе на­
блюдений (О_!'ЫТОВ}.
Оценка !Jn параметра (} называется состоятельной, если она схо­
дится по вероятности к оцениваемому параметру:

- р
(} n ---'--+ (}'
n-too

т. е. для любого е >О выполнено

Em
n-+oo
P{IOп-!JI < е} = 1.

Это означает, что с увеличением объема выборки мы все ближе


приближаем5я к истинному значению параметра IJ, т. е. практически
достоверно Оп ~ ().
Свойство состоятельности обязательно для любого правила оцени­
ва.ния (несостоятельные оценки не используются).
Глава 7. Элементытеорииоценокипроверкигипотез • 193

Состоятельность оценки Оп часто может быть установлена с помо­


щью следующей теоремы.

Т~орема 7.1. Если оц~нка Оп параметра О является несмещенной и


DOn --+ О при п --+ оо, то Оп - состоятельная оценка.

О Запишем неравенство Чебышева для с. в. Оп для любого е > О:


- DO
Р(IОп - OI < е) ~ 1- -f·

Так как по условию lim DOn = О, то lim P(IBn - 01 < е) ~ 1. Но


n-too n-too
вероятность любого события не превышает 1 и, следовательно,

P(IBn - OI < е) = 1,

т. е. Оп - состоятельная оценка параметра О.



Несмещенная оценка Вп параметра О называется эффектив11ой,
если она имеет наименьшую дисперсию сееди всех возможных несме­

щенных оценок параметра О, т. е. оценка Оп эффективна, если ее дис­


персия минимальна.

Эффективную оценку в ряде случаев можно найти, используя 11е­


раве11ство Рао-Кра.мера:
-
DОп ~ -1 ,
n· 1
где 1 = I(O) - информация Фишера, определяемая в дискретном слу­
чае формулой

8 ]2 ~ [р0((х"о)]
I = М [ дО lnp(X, О) = L О)
2

· р(х" О),
t=l р Х1,

где р(х,О) = р{Х = х}, а в непрерывном - формулой

[Л(х,0)]
2
8 )2
I = М [ дО ln f (Х, О) =
j"" f(x, О) · f(x, О) dx,
-оо

где f(x,O) - плотность распределения н.с. в. Х.


Эффективность оценки определяется отношением

-
eff Оп=
поэ
_п,
DОп
194 • Раздел второй. Основы математической статистики

-
где/!~
-
- эффективная оценка. Чем ближе effliп к 1, тем эффективнее
оценка Оп. Если eff Оп -; 1 при п-; оо, то оценка называется асимnто­
mu'Ч.ески эффективно{J.
Отметим, что на практике не всегда удается удовлетворить всем
перечисленным выше требованиям (несмещенность, состоятельность,
эффективность), и поэтому приходится довольствоваться оценками, не
обладающими сразу всеми тремя свойствами. Все же три свойства, как
правило, выделяют оценку однозначно.

Точечные оценки математического ожидания и дисперсии

Пусть изучается с. в. Х с математическим ожиданием а = МХ и


дисперсией DX; оба параметра неизвестны.
Статистика, используемая в качестве приближенного значения не­
известного параметра генеральной совокупности, называется ее mо'Ч.е'Ч.­
но{J оценко{J. То есть точечная оценка характеристики генеральной со­
вокупности - это число, определяемое по выборке.
Пусть х1,х2, ... ,хп - выборка, полученная в результате проведе­
ния п независимых наблюдений за с. в. Х. Чтобы подчеркнуть случай­
ный характер величин x1,xz," "хп, перепишем их в виде X1,Xz""
". , Хп, т. е. под Xi будем понимать значение с. в. Х в i-м опыте.
Случайные величины Х 1 ,Х 2 , .•. ,Хп можно рассматривать как n не­
зависимых «экземпляров» величины Х. Поэтому МХ1 = MXz = ...
. . . = МХп = МХ =а, DX1 = DXz = ... = DХп = DX.
Теорема 7.2. Пусть Х 1 , Xz, ... , Хп - выборка из генеральной совокуп­
ности и MXi = МХ =а, DXi = DX (i = 1,п). Тогда выборочное среднее
n
Хв = ft L Xi - несмещенная и состоятельная оценка математического
i=l
ожидания М Х.

Q Найдем м. о. оценки Х •'

мх. = м(k txi) = kм(txi) = ktlv!Xi = k·п ·а.


i=l i=l i=l

Отсюда по определению получаем, что Х • - несмещенная оценка МХ.


Далее, согласно теореме Чебышева (п. 5.2), для любого е > О имеет
Глава 7 Элементы теории оценок и проверки гипотез • 195

место равенство

которое, согласно условию теоремы, можно переписать так:

lim Р {IХв - MXI <с:}= 1


n-too

или, что то же самое, lim р


n-too
{IB -111 <с:} = 1. Согласно опр(Щелению
получаем, что Хв - состоятельная оценка МХ. 8

Можно показать, что при нормальном распределении с. в. Х эта


оценка, т. е. Х" будет и эффективной. На практике во всех случа­
ях в качестве оценки математического ожидания используется среднее

арифметическое, т. е. Х 8 •

В статистике оценку математического ожидания принято обозна~


чать через Х или Х" а не Х.
Покажем, что
n-1
MD.=-n-DX. (7.2)
Действительно,

= м(k ~(х, -х) ) = м(k ~х?- (k ~х.) ) =


2
2

MD.

kм(~х;) - ,;2 м(~х.) М(Х[ +xi + ". + х;)­


2
= = k ·

---\-. М(Х1 + Х2 + ... + Xn) 2 = k(мх[ + MXi + ... + мх;)-


п

- ~2 ·М( Xf+Xi+ .. . +х;+2(Х1Х2 + Х1Хз + Х2Хз + ... + Хп-1Хn)) =


с~

= n--;
n
1
·(MX[+MXi+".+мx;)-
- 22 • (МХ1 · МХ2 + МХ1МХз + МХ2МХз + ... + МХп-1МХп) =
п

· (МХ 2 +МХ 2 + ... +MX 2)-


1
= n--;
n ., ,
п

2
- 2(МХ ·МХ+МХ·МХ+ ... +мх ·МХ) =
п

= n- l ·n·MX 2 _.1_, n(n-1) ·(МХ)2 = n-1.мх2- n-l(MX)2 =


п2 п2 2 п п
196 • Раздел второй. Основы математической статистики

= п;:; 1 (МХ2 - (МХ)2) = п;:; 1. DX.


Из равенства (7.2) следует, что М Dв f
DX, т. е. выборочна.я дис­
персия является с.мещенно{J о-ценко{J дисперсии
D Х. Поэтому выбороч­
ную дисперсию исправляют, умножив ее на ___!!_ , получая формулу
n- 1
52 = ___!!_ Dв (см. (6.11)).
n- 1

Теорема 7.3. Пусть Х1, Х2, ... ,Xn - выборка из генеральной совокуп­
ности и МХ; = МХ =а, DXi = DX (i = 1,п). Тогда исправленная
n
выборочная дисперсия 5 2 = ___!__
п - 1~
~(Х; -Х) 2 = ___!!_l
n-
· Dв - несмещен-
i=1
ная состоятельная оценка дисперсии DX.

О Примем без доказательства состоятельность оценки 5 2 . Докажем


ее несмещенность.

Имеем

2 ( п ) n п n-1
М 5 =М n-lD" =n-l·MD8 =n-l·-n-DX=DX,

т. е. MS 2 = DX. Отсюда по определению получаем, что 8 2 - несме­


щенная оценка D Х. •

Отметим, что при больших значениях n разница между Dв и 5 2


очень мала и они практически равны, поэтому оценку 5 2 используют
для оценки дисперсии при малых выборках, обычно при п :;;; 30.
Имеют место следующие теоремы.

Теорема 7.4. Относительная частота nnA появления события А в пне-


зависимых испытаниях является несмещенной состоятельной и эффек­
тивной оценкой неизвестной вероятности р = Р(А) этого события (р -
вероятность наступления события А в каждом испытании).

- nA
Отметим, что состоятельность оценки (} = n непосредственно вы-
текает из теоремы Бернулли (см. п. 5.3).

Теорема 7.5. Эмпирическая функция распределения выборки F*(x)


является несмещенной состоятельной оценкой функции распределения
F(x) случайной величины Х.
Глава 7. Элементы теории оценок и проверки гипотез • 197

Пример 7.1. Монету подбрасывают п раз. Вероятность выпадения гер­


ба при каждом подбрасывания равна р. В ходе опыта монета выпала
гербом пл раз. Показать несмещенность оценки
-
8 =
пл
n вероятности
8= р выпадения герба в каждом опыте.

Q Число успехов (пл) имеет распределение Бернулли. Тогда М(пл) =


= пр, D(пл) = прq = пр(I - р). Следовательно, МО = М (п:)
1 1 - пл
= п · М(пл) = n · п · р = р = 8, т. е. оценка!!= n - несмещенная. 8

7.2. Методы нахождения точечных оценок

Рассмотрим наиболее распространенные методы получения точеч­


ных оценок параметров распределения: метод моментов и метод мак­

симального правдоподобия (кратко: ММП).

Метод моментов

Метод моментов для нахождения точечных оценок неизвестных


параметров заданного распределения состоит в приравнивании теоре­

ти'Ческих моментов распределения соответствующим эмпирическим


моментам, найденных по выборке.
Так, если распределение зависит от одного параметра 8 (напри.мер,
задан вид плотности распределения f( х, О)), то для нахождения его
оценки надо решить ОТНОСИТеЛЬНО 8 ОДНО уравнение:

МХ=Хв

Jх·f(х,8)dх=<р(8)естьфункцияот0).
00

(МХ=
-оо

Если распределение зависит от двух параметров (например, вид


плотности распределения f(x,8 1 ,82)) - надо решить относительно 81
и 82 систему уравнений:

{ DX =D•.
мх =Х.,
198 • Раздел второй. Основы математической статистики

И, наконец, если надо оценить п параметров 01, 02, ... , Оп - надо


решить одну из систем вида:

1 n
МХ=пЕХ" МХ=Х,
i=l
мх2 = lnL.J
~ х2i ' DX = D"
i=1 или

Метод моментов является наиболее простым методом оценки пара­


метров. Он был предложен в 1894 г. Пирсоном. Оценки метода момен­
тов обычно состоятельны, однако их эффективность часто значительно
" меньше единицы.

Пример 7.2. Найти оценки параметров нормального распределения


с. в. Х методом моментов.

Q Требуется по выборке х1, х2, ... , Xn найти точечные оценки неиз­


вестных параметров а= МХ = 01 и а2 = DX = 02.
По методу моментов приравниваем их, соответственно, к выбороч­
ному среднему и выборочной дисперсии (сч = МХ - начальный мо­
мент I порядка, µ2 = DX - центральный момент П порядка). Полу-
чаем

{
МХ =хв,
DX=Dв,
т.е.

{
а =Хв,
а 2 = Dв.
Итак, искомые оценки параметров нормального распределения:

В1 = Хв И В2 = $.. •
Метод максимального правдоподобия

Пусть х1, х2, ... ,xn - выборка 1 полученная в результате проведе­


ния п независимых наблюцений за с. в. Х. И пусть вид закона рас­
пределения величины Х, например, вид плотности f (х, О), известен, но
Глава 7. Элементы теории оценок и проверки гипотез • 199

неизвестен параметр IJ, которым определяется этот закон. Требуется


по выборке оценить параметр В.
В основе метода максимального правдоподобия (ММП), предло­
женного Р. Фишером, лежит понятие функции правдоподобия.
ФункциеiJ правдоподобия, построенной по выборке Х1, х2, .•. , Xn, на­
зывается функция аргумента IJ вида

или
n
L(x,IJ) = ПJ(x"IJ),
i=l

где f(x, IJ) - плотность распределения с. в. Х в случае, если Х - не­


прерывная. Если Х - дискретная с. в" то функция правдоподобия име­
ет вид

n
L(x,IJ) =р(х1,В) ·p(x2,IJ) -."·p(xп,IJ) = Пp(x;,IJ),
i=l

где p(x"IJ) = р{Х = x;,IJ}.


Из определения следует, что чем больше значение функции L(x, В),
тем более вероятно (правдоподобнее) появление (при фиксированном
IJ) в результате наблюдений чисел х1,х2, ... ,xn.
За то'Че'Чную оценку параметра IJ, согласно ММП, берут такое
его зна'Чение В, при котором функция правдоподобия достигает мак­
симума.

Эта оценка, называемая оценкоiJ .максимального правдоподобия,


является решением уравнения

dL(x, IJ)
dlJ =о.

Так как функции L(x, IJ) и ln L(x, IJ) достигают максимума при од­
ном и том же значении (), то вместо отыскания максимума функции
L(x, IJ) ищут (что проще) максимум функции lnL{x, IJ).
Таким образом, для нахождения оценки максимального правдопо­
добия надо:
1. решить уравнение правдоподобия

d(lnL(x,IJ))
dB =О;
200 • Раздел второй. Основы математической статистики

2. отобрать то решение, которое обращает функцию lnL(x, 11) в мак­


симум (удобно использовать вторую производную: если

d lnL(x, О)
2
1
0'
d""' 0=0-<

то 11 = е - точка максимума).
Если оценке подлежат несколько параметров 01 , 112 , ... , 11n распре­
деления, то оценки 01, ... ,ifn определяются решением системы уравне­
ний правдоподобия:
д(lnL) =О
8111 '
... '
д(lnL)
дОn =О.

Пример 7.3. Найти оценку параметра а распределения Пуассона ме­


тодом максимального правдоподобия.

Q В данном случае р{Х = m} =ат· ~-а. Поэтому


m.
ох -О
р(х;, 11) = р{Х = х;, 11} = '· f
Xi•

при х; Е N. Составляем функцию правдоподобия (для дискретной


с.в. Х):

- e-8n • oi'fl Xi . 1
- x1!· ... ·Xn!'

Тогда

n
lnL(x,11) = -n · 11 + L:x; · lnl1- ln(x1! · х2! · ... · Xn!)
i=l

dlnL(x,11) _ _ 1. ~ .
dO - п+ 11 L.,x,.
i=l
Уравнение правдоподобия имеет вид:
Глава 7. Элементы теории оценок и проверки гипотез • 201

Отсюда находим

- 111"
(} = ~
n
Xi = -
Хв.
t=l
А так как
d2!nL(x,8)1 = _ _!_ ~ х < 0
d8 2 8=0 82 L. ' ,
i=l

то оценка О = Хв является оценкой максимального правдоподобия.


Итак, 'jj = 0: = Х 8 •

Метод наименьших квадратов

Метод нахождения оценки О неизвестного параметра 8, основанный


на минимизации суммы квадратов отклонений выборочных данных от
определяемой (искомой) оценки О, называется методом наименьших
квадратов (коротко: МНК). _
Другими словами, в МНК требуется найти такое значение 8, кото­
рое минимизировало бы сумму
n
F(8) = L(X, - 8) 2 -t min.
t=l
Отметим, что МНК является наиболее простым методом нахождения
оценок параметра 8.

Пример 7.4. Найти оценку параметра а распределения Пуассона ме­


тодом наименьших квадратов.

n
Q Найдем точку минимума функции F(8) = L(X, - 8) 2 :
i=l

n )' n
F=~(X,-8) 2
F'(8)= (
8 =~2(Х,-8)·(-1);

n
из уравнения F'(8) =О находим критическую точку: -2 L(Xi -8) =О,
i=l
n n n n
т.е. LX; - L8 =О, т.е. LXi = n8, Окр= ft LX;. А так как
i=l i=l i=l i=l

n )' n
F"(Вкр) = ( -2 ~(Х, - 8) = -2 ~(-1) = 2п >О
8
202 • Раздел второй. Основы математической статистики

n
при любом значении (}, то Окр = ft L Х; - точка минимума функ­
i:=l
ции F(O). Таким образом, оценкой параметра а в распределении Пуас­
аm. е-а
сона Р(т; а)
т.1
, m = О, 1, 2, ... согласно МНК, является
n
(}- = n;~X;.
1"'"'
i::;;l
Можно доказать, что:

М(О) =(}=а, D(O) = ~·


Упражнения

1. Найти оценку параметра распределения Пуассона методом момен­


тов.

2. Пользуясь ММП, оценить вероятность появления герба, если при


10 бросаниях монеты герб появился 6 раз.

З. Найти оценку неизвестной вероятности успеха в схеме Бернулли


методом моментов и ММП.

4. Дано: с. в. Х ~ R[a, Ь]. По выборке х 1 , х2, ... , Xn оценить величины


а и Ь методом моментов.

5. Найти оценки параметров нормального распределения с. в. Х ме­


тодом максимального правдоподобия.

7.3. Понятие интервального оценивания параметров

Точечные оценки неизвестного параметра (} хороши в качестве пер­


воначальных результатов обработки наблюдений. Их недостаток в том,
что неизвестно, с какой точностью они дают оцениваемый параметр.
Глава 7. Элементы теории оценок и проверки гипотез • 203

Для выборок небольшого объе~ вопрос о точности оценок очень су­


щественен, так как между 8 и 8 может быть большое расхождение в
этом случае. Кроме того, при решении практических задач часто тре­
буется определить и надежность этих оценок. Тогда и возникает зада­
ча О приближении параметра 8 не ОДНИМ ЧИСЛОМ, а ЦелЫМ ИНТервалОМ
(01, 02).
Оценка неизвестного параметра называется интервалъноit, если
она определяется двумя числами - концами интервала.

Задачу интервального оценивания можно сформ~лировать так: по


данным выборки построить числовой интервал (8 1 ,82 ), относительно
которого с заранее выбранной вероятностью 'У можно сказать, что вну­
три этого интервала находится точное значение оцениваемого парамет­

ра (см. рис. 62).

62

Рис. 62

Интервал (О1,О2), накрывающий с вероятностью 'У истинное зна­


чение параметра 8, называется доверителъным интервалом, а вероят­
ность 'У - надежностъю оценпи или доверителъноit вероятностъю.

Очень часто (но не всегда) доверительный интервал вь!бирается


симметричным относительно несмещенной точечной оценки 8, т. е. вы­
бирается интервал вида (О- Е,0 + Е) такой, что

Число Е > О характеризует точность оценки: чем меньше разность


(11- О(, тем точнее оценка.
Величина 'У выбирается заранее, ее выбор зависит от конкретно
решаемой задачи. Так, степень доверия авиапассажира к надежности
самолета, очевидно, должна быть выше степени доверия покупателя к
надежности телевизора, лампочки, игрушки ... Надежность 'У принято
выбирать равной0,9; 0,95; 0,99 или 0,999. Тогда практически достоверно
нахождение параметра 11 в доверительном интерв!3.J!е (О- Е,0 + Е).
204 • Раздел второй. Основы математической статистики

7.4. Доверительные интервалы для параметров


нормального распределения

Построим доверительные интервалы для параметров нормального


распределения, т. е. когда выборка производится из генеральной сово­
купности, имеющей нормальное распределение с параметрами а и а 2 •

Доверительный интервал для математического ожидания при


известной дисперсии

Пусть с. в. Х ~ N (а, а); а - известна, доверительная вероятность


(надежность) 'У - задана.
Пусть Х1, х2, ... , Xn - выборка, полученная в результате проведе­
ния п независимых наблюдений за с. в. Х. Чтобы подчеркнуть случай­
ный характер величин x1,x2, ... ,xn, перепишем их в виде Х1,Х2, ...
. . . , Xn, т. е. под Xi будем понимать значение с. в. Х в i-м опыте.
Случайные величины Х1, Х2, ... , Xn ~ независимы, закон распреде­
ления любой из них совпадает с заковом распределевия с. в. Х (т. е.
Х; ~N(a,a)). А это значит, что МХ 1 = МХ2 = ... = MXn = МХ =а,
DX1 = DX2 = ... = DХп = DX.
Выборочное среднее

n
х. =Х = ftLXi
i=l

также будет распределено по нормальному закону (примем без дока­


зательства). Параметры распределения Х таковы: М(Х) =а, D(X) =
2
= ';,, . Действительно,

n ) n n
М(Х)=М ( kt;xi =k·t;MX;=k·t;MX=MX=a,

- 1 n ) 1 n 1 n 1 а2
D(X) = D ( п I:xi = 2 l:DXi = 2 l:DX = п. DX = п·
i=l п i=l п i=l

Таким образом, Х ~ N (а, J;i).


Следовательно, пользуясь формулой

p{IX - al < 1} = 2Фо (~) = 2Ф (~) -1


Глава 7. Элементы теории оценок и проверки гипотез • 205

(формула (2.47)), можно записать

')' = р{[Х -- а[< с:}= 2Фо (" ...;п) =


-а- 2Фо(t),

E·Vn
где t =-а-· Из последнего равенства находим

t ·а
(7.3)
Е= Vп'

поэтому 'У= р {fx - а[< t ; } = 2Фо(t) или


р{Х
- а < а < -Х + t · Vn
- t · Vn а} = 2Ф 0 (t) ='У· (7.4)

В соответствии с определением доверительного интервала получа­


ем, что доверительный интервал для а = М Х есть

(-X-t· Vn,X+t·
а- а) ,
..fii, (7.5)

где t определяется из равенства (7.4), т. е. из уравнения

Фо(t) = ~ (7.6)

(или Ф(t) = -1 +'У


2
-); при заданном 'У по таблице функции Лапласа на-
ходим аргумент t.
Заметим, что из равенства (7.3) следует: с возрастанием объема
выборки n число с убывает и, значит, точность оценки увеличивается;
увеличение надежности / влечет уменьшение точности оценки.

Пример 7.5. Произведено 5 независимых наблюдений над с. в. Х ~


~ N(a, 20). Результаты наблюдений таковы: Х1 = -25, х2 = 34, Хз =
= -20, Х4 = 10, Xs = 21. Найти оценку для а= МХ, а также построить
для него 95%-й доверительный интервал.

Q Находим сначала х8 : х = t ·(-25 + 34 - 20 + 10 + 21) = 4, т.е.


х = 4. Учитывая, что 'У = 0,95 и Фо(t) = ~, получаем Фо(t) = 0,475.
По таблице (см. Приложение) выясняем, что t = t 7 = 1,96. Тогда Е =
1 96. 20
= ' "' 17,5 (формула (7.3)). Доверительный интервал для а=
.,/5
= М Х (согласно (7.6)) таков: (4 - 17,5; 4 + 17,5), т. е. (-13,5; 21,5). 8
206 • Раздел второй. Основы математической статистики

Доверительный интервал дпя математического ожидания при


неизвестной дисперсии

Пусть с. в. Х ~ N(a, cr), cr - неизвестна, 'У - задана. Найдем такое


число е, чтобы выполнялось соотношение р{Х - е < а< Х + е} ='У
или

P{IX - а!< е} ='У· (7. 7)


Введем случайную величину

Х-а
T=-s-,
v'n
где S- исправленное среднее квадратическое отклонение с. в. Х, вы­
численное по выборке:

S= n~l ·°E(X,-X)2.
i=l

Доказывается, что с. в. Т имеет распределение Стьюдента (см.


п. 4.3) с п - 1 степенью свободы. Плотность этого распределения имеет
вид:

fт(t, п - 1) =
Г(~)
v'1Г(п - i). г
(п
- 2-
1) . ( 1 + n t2- 1 )-q '

f
00

где Г(р) = uP-l · e-udu - гамма-функция; fт(t, п - 1) - четная


о
функция.
Перейдем в левой части равенства (7. 7) от с. в. Х к с. в. Т:

р
!Х-s ai < sе }-
-'У
{
v'n v'n

или р {ITI < SеvГп} ='У или p{ITI < t~} = "f, где
(7.8)
Глава 7. Элементы теории оценок и проверки гипотез • 207

Величина t 7 находится из условия

t"'f t"'f

p{ITI < t 7 } = j fт(t, п - 1) dt = 2 · j fт(t, п - 1) dt = /,


-t""f о

т. е. из равенства

2·/ fт(t,n-1)dt=1.
о
t"

Пользуясь таблице!! квантилеi! распределения Стьюдента (см. прило­


жение 4 на с. 252), находим значение t, в зависимости от доверительно!!
вероятности / и числа степеней свободы п - 1 (t 7 - квантиль уров­
ня l -1).
Определив значение t 7 из равенства (7.8), находим значение о:

(7.9)

Следовательно, равенство (7.7) принимает вид

р {-х - t,. vn s} = /.
s <а< -х + t,. vn

А это значит, что интервал

покрывает а = М Х с вероятностью r, т. е. является доверительным


интервалом для неизвестного математического ожидания с. в. Х.

Пример 7.6. По условию примера 7.5, считая, что с.в. Х ~ N(a,a),


построить для неизвестного М Х = а доверительны!! интервал. Считать
1=0,95.

Q Оценку х для М Х уже знаем: х = 4. Находим значение S:


82 = t(
(-25 - 4) 2 • 1 + (34 - 4) 2 + (-20 - 4) 2 + (10 - 4) 2 + (21 - 4) 2 ) =
= 660,5; S"" 25,7. По таблице для/= 0,95 и п-1 = 4 находим t, = 2,78.
Следовательно, 6 = 2,78 · ;s2:' ""31,9. Доверительны!! интервал таков:
(-27,9; 35,9). •
208 • Раздел второй. Основы математической статистики

Доверительный интервал для среднего квадратического


отклонения нормального распределения

Пусть с. в. Х ~ N (а, а), а - неизвестно, 'У - задано. Можно по­


казать, что если М Х = а известно, то доверительный интервал для
среднего квадратического отклонения а имеет вид:

Vn ·Во Vп ·Во)
( Х2 ' Х1 '

где п - объем выборки, BJ = k 2: (Xi -


п

i= 1
а) 2 , а

2 2 2 2
х1=х1+?;
-2-,п
Х2 = XI-?
-2-;n

являются квантилями х 2 -распределения с п степенями свободы (см.


п. 4.3), определяемые по таблице квантилей XZt,n распределениях; (см.
приложение 3 на с. 251).
Если а = М Х неизвестно, то доверительный интервал для неиз­
вестного а имеет вид:

vn=l·B vn=l·B)
( Х2 ' XI '

n
где п - объем выборки, В = п ~ 1 · L(Xi - Х) 2
2
- исправленное
i=l
среднее квадратическое отклонение, квантили

2 2 . 2 2
х1=х1+?
--;п-1
, Х2 = Х1 - ?
2 --;п-1
2
2
определяются по таблице Xa,k при k =п- 1 и а = -1+1
-
2
и а = -l-1
2
-
соответственно.

Пример 7. 7. Для оценки параметра нормально распределенной слу­


чайной величины была сделана выборка объема в 30 единиц и вычи­
слено В= 1,5. Найти доверительный интервал, покрывающий а с ве­
роятностью 'У = 0,90.

О Имеем п = 30, 'У = 0,9. По таблице x~,k находим

xi = xl-2-;30-1
+ о,9 =х 2
(О,95; 29) = 17,7,
Глава 7. Элементы теории оценок и проверки гипотез • 209

х~ = х1- о,9 = х 2 (0,О5; 29) = 42,6.


--iЗО-1
2
Доверительный интервал имеет вид:

J3o - 1. 1,5 JЗО=Т · 1,5)


( J42,6 , ,/Г7;7

или 1,238 < а < 1,920.



Скажем несколько слов о доверительном интервале для оценки ве­
роятности успеха при большом числе испытаний Бернулли.
Доверительный интервал, который с надежностью ')' покрывает
оцениваемый параметр р при больших значениях п (порядка сотен),
имеет вид (р1,Р2), где

* /р*(1-р*)
PI = р • - t. Jp*(1-p*)
п и P2=p+t·v п , (7.10)

где р* = nnA - относительная частота события А; t определяется из


равенства 2Фо(t) = 1'·
Для оценки приближенного равенства р "" р* можно использовать

равенство p{jp* - pj < Е} = 2Фо ( Е Ji:) (см. п. 4.1).

Упражнения

1. Глубина моря измеряется прибором, систематическая ошибка ко­


торого равна нулю, а случайные ошибки распределены нормально
с а = 15 м. Сколько надо сделать независимых измерений, чтобы
определить глубину моря с ошибкой не более 5 м при надежности
')' = 0,9?

2. По условию примера 6.3 найти точечную оценку и доверительный


интервал для среднего роста студентов, считать f = 0,95.

З. Производятся независимые испытания с одинаковой, но с неизвест­


ной вероятностью р появления события А в каждом испытании.
Найти доверительный интервал для оценки р с надежностью 0,95,
если в 400 испытаниях события А появилось 80 раз.
210 • Раздел второй. Основы математической статистики

7.5. Проверка статистических гипотез

Задачи статистической проверки гипотез

Одна из часто встречающихся на практике задач, связанных с при­


менением статистических методов, состоит в решении вопроса о том,

должно ли на основании данной выборки быть принято или, напро­


тив, отвергнуто некоторое предположение (гипотеза) относительно ге­
неральной совокупности (случайной величины).
Например, новое лекарство испытано на определенном числе лю­
дей. Можно ли сделать по данным результатам лечения обоснованный
вывод о том, что новое лекарство более эффективно, чем применявшие­
ся ранее методы лечения? Аналогичный вопрос логично задать, говоря
о новом правиле поступления в вуз, о новом методе обучения, о пользе
быстрой ходьбы, о преимуществах новой модели автомобиля или те.х­
нологического процесса и т. д.

Процедура сопоставления высказанного предположения (гипотезы)


с выборочными данными называется проверкой гипотез.
ЗаiJачи статистическоf1 проверки гипотез ставятся в следующем
виде: относительно некоторой генеральной совокупности высказыва­
ется та или иная гипотеза Н. Из этой генеральной совокупности из­
влекается выборка. Требуется указать правило, при помощи которого
можно было бы по выборке решить вопрос о том~ следует ли отклонить
гипотезу Н или принять ее.
Следует отметить, что статистическими методами гипотезу можно
толъко опровергнутъ или не опровергнуть, но не доказать. Например,
для проверки утверждения (гипотеза Н) автора, что «в рукописи нет
ошибок», рецензент прочел {изучил) несколько страниц рукописи.
Если он обнаружил хотя бы одну ошибку, то гипотеза Н отверга­
ется, в противном случае - не отвергается, говорят, что <<результат

проверки с гипотезой согласуется».


Выдвинутая гипотеза может быть правильной или неправильной,
поэтому возникает необходимость ее проверки.

Статистическая гипотеза. Статистический критерий

Под статистической гипотезой (или просто гипотезой) понима­


ют всякое высказывание (предположение) о генеральной совокупности,
проверяемое по выборке.
Глава 7. Элементы теории оценок и проверки гипотез • 211

Статистические гипотезы делятся на гипотезы о параметрах рас­


пределения известного вида (это так называемые nараметри'Ческие ги­
потезы) и гипотезы о виде неизвестного распределения (непараметри­
ческие гипотезы).
Одну из гипотез выделяют в качестве основной (или нулевой) и
обозначают Н0 , а другую, являющуюся логическим отрицанием Н0 ,
т. е. противоположную Но - в качестве конкурирующей (или алътер­
нативной) гипотезы и обозначают Н1 .
Гипотезу, однозначно фиксирующую распределение наблюдений,
называют простой (в ней идет речь об одном значении параметра), в
противном случае - слож;ной.

Например, гипотеза На, состоящая в том что математическое ожи­


дание с. в. Х равно а 0 , т. е. М Х = а 0 , является простой. В качестве
альтернативной гипотезы можно рассматривать одну из следующих ги­
потез: Н 1 : МХ > ао (сложная гипотеза), Н1: МХ < ао (сложная), Н1:
МХ о1 ао (сложная) или Н1: МХ = а1 (простая гипотеза).
Имея две гипотезы Но и Н1, надо на основе выборки Х1, ... , Хп
принять либо основную гипотезу Но, либо конкурирующую Н1.
Правило, по которому принимается решение принять или откло­
нить гипотезу Но (соответственно, отклонить или принять Н1), назы­
вается статисmu'Ческим крuтерием (или просто критерuем) проверки
гипотезы Но.
Проверку гипотез осуществляют на основании результатов выбор-
ки Х1,Х2, ... ,Хп, из которых формируют функцию выборки Tn =
= Т(Х1, Х2, ... , Хп), называемой статистико(l критерия.
Основной принцип проверки гипотез состоит в следующем. Мно­
жество возможных значений статистики критерия Tn разбивается на
два непересекающихся подмножества: криmи'Ческую областъ S, т. е.
область отклонения гипотезы Но и областъ S принятия этой гипоте­
зы. Если фактически наблюдаемое значение статистики критерия (т. е.
значение критерия, вычИсленное по выборке: Тнабл = Т(х1, х2, ... , Хп))
попадает в критическую область S, то основная гипотеза Но отклоняет­
ся и принимается альтернативная гипотеза Н1; если же Тнабл попадает
в S, то принимается Но, а Н1 отклоняется.
При проверке гипотезы может быть принято неправильное реше­
ние, т. е. могут быть допущены ошибки двух родов:
Ошибка первого рода состоит в том, что отвергается нулевая гипо­
теза Но, когда на самом деле она верна.
Ошибка второго рода состоит в том, что отвергается альтернатив­
ная гипотеза Н 1 , когда она на самом деле верна.
212 • Раздел второй. Основы математической статистики

Рассматриваемые случаи наглядно иллюстрирует следующая таб­


лица.

Гипотеза Но Отвергается Принимается


верна ошибка 1-го рода правильное решение

неверна правильное решение ошибка 2-го рода

Вероятность ошибки 1-го рода (обозначается через а) называется


уровнем значимости критерия.

Очевидно, а= p(H1IH0). Чем меньше а, тем меньше вероятность


отклонить верную гипотезу. Допустимую ошибку 1-го рода обычно за­
дают заранее.

В одних случаях С'"Iитается возможным пренебречь событиями, ве­


роятность которых меньше 0,05 (а = 0,05 означает, что в среднем в 5
случаях из 100 испытаний верная гипотеза будет отвергнута), в других
случаях, когда речь идет, например, о разрушении сооружений, гибе­
ли судна и т. п., нельзя пре1iебречь обстоятельствами, которые могут
появиться с вероятностью, равной 0,001.
Обычно для а используются стандартные значения: а = 0,05;
а= 0,01; 0,005; 0,001.
Вероятность ошибки 2-го рода обозначается через (3, т. е. (3 =
=p(HolH1).
Величину 1 - (3, т. е. вероятность недопущения ошибки 2-го рода
(отвергнуть неверную гипотезу Но, принять верную Н1), называется
.мощностъю критерия.

Очевидно, 1- (3 = p(H1IH1) = р((х1,х2, ... ,xn) Е SIH1).


Чем больше мощность критерия, тем вероятность ошибки 2-го рода
меньше, что, конечно, желательно (как и уменьшение а).
Последствия ошибок 1-го, 2-го рода могут быть совершенно раз­
личными: в одних случаях надо минимизировать а, в другом - {З.
Так, применительно к радиолокации говорят, что а - вероятность
пропуска сигнала, f3 - вероятность ложной тревоги; применительно
к производству, к торговле можно сказать, что а - риск поставщика

(т. е. забраковка по выборке всей партии изделий, удовлетворяющих


стандарту), (3 - риск потребителя (т. е. прием по выборке всей партии
изделий, не удовлетворяющей стандарту); применительно к судебной
системе, ошибка 1-го рода приводит к оправданию виновного, ошибка
2-го рода - осуждению невиновного.
Отметим, что одновременное у.менъшение ошибок 1-го и 2- го рода
воз.можно лишъ при увеличении оббе.ма выборок. Поэтому обычно при
заданном уровне значимости а отыскивается критерий: с наибольшей
мощностью.
Глава 7. Элементы теории оценок и проверки гипотез • 213

Методика проверки гипотез сводится к следующему:

1. Располагая выборкой Х 1 , Х2 , ••. , Xn, формируют нулевую гипотезу


Но и альтернативную Н 1 .

2. В каждом конкретном случае подбирают статистику критерия Tn =


= Т(Х1, Х2, ... , Хп), обычно из перечисленных ниже: И - нормаль­
ное распределение, х 2 - распределение хи-квадрат (Пирсона), t-
распределение Стьюдента, F - распределение Фишера-Снедекора.

3. По статистике критерия Tn и уровню значимости а определяют


критическую область S (и S). Для ее отыскания достаточно найти
критическую точку tкр, т.е. границу (или квантиль), отделяющую
область S от S.
Границы областей определяются, соответственно, из соотношений:
Р(Тп > tкр) = а, для правосторонней критической области S
(рис.63); P(Tn < tкр) = а, для левосторонней критической обла­
сти S (рис. 64); P(Tn < t;:p) = P(Tn > t~p) = для двусторонней I'
критической области S (рис. 65).

fт.

Рис. 63

Для каждого критерия имеются соответствующие таблицы, по ко­


торым и находят критическую точку, удовлетворяющую приведен­

ным выше соотношениям.

4. Для полученной реализации выборки х = (х1,х2, ... , xn) подсчи­


тывают значение критерия, т. е. Тнабл = Т(х1, х2, ... , xn) = t.

5. Если t Е S (например, t > tкр для правосторонней области S), то


нулевую гипотезу Но отвергают; если же t Е S (t < tкр), то нет
оснований, чтобы отвергнуть гипотезу Н0 .
214 • Раздел второй. Основы математической статистики

fт.

Рис. 64

fт.

<>
2

Рис. 65

7.6. Проверка гипотез о законе распределения

Во многих случаях закон распределения изучаемой случайно вели­


чины неизвестен, но есть основания предположить, что он имеет вполне

опрЕЩеленный вид: нормальный, биномиальный или какой-либо дру­


гой.
Пусть необходимо проверить гипотезу Но о том, что с. в. Х под­
чиняется опрЕЩеленному закону распределения, заданному функцией
распределения F0 (x), т. е. Но: Fx(x) = Fo(x). Под альтернативной гипо­
тезой Н 1 будем понимать в данном случае то, что просто не выполнена
основная (т. е. Н 1 : Fx(x) # Fo(x)).
Глава 7. Элементы теории оценок и проверки гипотез • 215

Для проверки гипотезы о распределении случайной величины Х


проведем выборку, которую оформим в виде статистического ряда:

Xi XJ х2 1 ... Xm
(7.11)
ni n1 n2 1 ". nm

где L ni = п - объем выборки.


i=l
Требуется сделать заключение: согласуются ли результаты наблю-
дений с высказанным предположением. Для этого используем специ­
ально подобранную величину - критерий согласия.
Критерием согласия называют статистический критерий проверки
гипотезы о предполагаемом законе 11еизвестного распределения. (Он
используется для проверки согласия предполагаемого вида распреде­

ления с опытными данными на основании выборки.)


Существуют различные критерии согласия: Пирсона, Колмогорова,
Фишера, Смирнова и др.
Критерий согласия Пирсона - наиболее часто употребляемый кри­
терий для .проверки простой гипотезы о законе распределения.

Критерий х 2 Пирсона

Для проверки гипотезы Но поступают следующим образом.


Разбивают всю область значений с. в. Х на m интервалов Л1,
Л2, ... , Лm и подсчитывают вероятности Pi (i = 1, 2, ... , т) попа­
дания с. в. х (т. е. наблюдения) в интервал лi, используя формулу
Р{а,,;; Х ,,;; fi} = Fo(fi) - Fo(a). Тогда теоретическое число значений
с. в. Х, попавших в интервал Лi, можно рассчитать по формуле п · Pi·
Таким образом, имеем статистический ряд распределения с. в. Х (7.11)
и теоретический ряд распределения:

(7.12)

Если эмпирические частоты (ni) сильно отличаются от теоретиче­


ских (пр; = п:), то проверяемую гипотезу Но следует отвергнуть; в
противном случае - принять.

Каким критерием, характеризующим степень расхождения между


эмпирическими и теоретическими частотами 1 следует воспользовать­

ся? В качестве меры расхождения между п; и пр; для i = 1, 2, ... , m


216 • Раздел второй. Основы математической статистики

К. Пирсон (1857-1936; англ. математик, статик, биолог, философ) пред­


ложил величину («критерий Пирсона»):

m ( )2 т 2
2 =~ ni - npi = '"""' ni - (7.13)
Х L., пр; L., пр; п.
i=l i=l

Согласно теореме Пирсона, при п-+ оо статистика (7.13) имеет х 2 -


распределение с k= т- r - 1 степенями свободы, где т - число групп
(интервалов) выборки, r - число параметров предполагаемого распре­
деления. В частности, если предполагаемое распределение нормально,
то оценивают два параметра (а и а), поэтому число степеней свободы
k = m-3.
Правило применения критерия х 2 сводится к следующему:
1. По формуле (7.13) вычисляют Х~абл - выборочное значение стати­
стики критерия.

2. Выбрав уровень значимости а критерия, по таблице х 2 -распреде­


ления находим критическую точку (квантиль) k" x:i.
3. Если х;абл ~ х~ k' то гипотеза Но не противореч~т опытным дан­
ным; если х;абл >. х~ k' то гипотеза Но отвергается.
Необходимым услов,;ем применения критерия Пирсона является
наличие в каждом из интервалов не менее5 наблюдений (т. е. пi ;;о 5).
Если в отдельных интервалах их меньше, то число интервалов надо
уменьшить путем объединения (укрупнения) соседних интервалов.

Пример 7.8. Измерены 100 обработанных деталей; отклонения от за­


данного размера приведены в таблице:

[х;, Xi+J) [-3, -2) [-2,-1) [-1,0) [О, 1) [1, 2) [2, 3) [3, 4) [4, 5)
n; 3 10 15 24 25 13 7 3
Проверить при уровне значимости а = 0,01 гипотезу Но о том, что
отклонения от проектного размера подчиняются нормальному закону

распределения.

Q Число наблюдений в крайних интервалах меньше 5, поэтому объ­


единим их с соседними. Получим следующий ряд распределения (п =
= 100):
[xi, хн1) [-3, -1) [-1,0) [О,1) [1, 2) [2, 3) [3, 5)
пi 13 15 24 25 13 10
Случайную величину - отклонение - обозначим через Х. Для вычи­
сления вероятностей Pi необходимо вычислить параметры, определя­
ющие нормальный закон распределения (а и о-). Их оценки вычислим
Глава 7. Элементы теории оценок и проверки гипотез • 217

по выборке: х = 160 · (-2 · 13 + (-0,5) · 15 + ... + 4 · 10) = 0,885 "" 0,9,


Dв = 1 ~ (4·13+0,25·15+ ... +16·10)-(0,885) 2 ""2,809, и"" 1,676"" 1,7.
0
Находим р, (i = 1,6). Так как с.в. Х ~ N(a,u) определена на
(-оо, оо), то крайние интервалы в ряде распределения заменяем, соот­
ветственно, на (-оо, -1) и (3, +оо). Тогда Р1 = р{-оо < Х < -1} =
= Фо (-1 - о 9)
, '
17
- Фо(-оо) = 1
2- Фо(l,12) = 0,1314. Аналогично
получаем: Р2 = 0,1667, РЗ = 0,2258, р4 = 0,2183, р5 = 0,1503, Р6 =
= р{3 ~ Х < оо} = Ф 0 (оо) - Ф0 (3-1,7о ' 9) = 0,5 - Фо(l,24) = 0,1075.
Полученные результаты приведем в следующей таблице:

[х;, Xi+1) (-оо, -1) [-1,0) [О,1) [1, 2) [2, 3) [3, оо)
n; 13 15 24 25 13 10
п' =пр~ 13,14 16,67 22,58 21,83 15,03 10,75

Вычисляем х;абл:

= '°'
6 2
2 ni
Хнабл L., пр; - n =
t=l

132 152 102 )


= ( 13 14 + 16 67 + ... + 10 75 - 100 = 101,045 - 100,
, , '

т. е. х;абл "" 1,045.


Находим число степеней свободы; по выборке рассчитаны два па­
раметра, значит, r = 2. Количество интервалов 6, т. е. m = 6. Следо­
вательно, k = 6- 2- l = 3. Зная, что °' = 0,01 и k = 3, по таблице
Х 2 -распрЕЩеления находим Xa,k
2 -- 11 , 3. и так, Хнабл
2 < 2
Xa,ki следова-
тельно, нет оснований отвергнуть проверяемую гипотезу. е

Критерий Колмогорова

Критерий Колмогорова для простой гипотезы является наиболее


простым критерием проверки гипотезы о виде закона распределения.

Он связывает эмпирическую функцию распределения F;(x) с функци­


ей распределения F(x) непрерывной случайной величины Х.
218 • Раздел второй. Основы математической статистики

Пусть х1,х2, ... ,xn - конкретная выборка из распределения с не­


известно!! непрерывно!! функцией распределения F(x) и F~(x) - эмпи­
рическая функция распределения. Выдвигается простая гипотеза Н0 :
F(x) = Fo(x) (альтернативная Н1: F(x) i Fo(x), х Е JR).
Сущность критерия Колмогорова состоит в том, что вводят в рас­
смотрение функцию

Dn = max IF~(x) - Fo(x)I, (7.14)


-оо<х<оо

называемо!! статистикоu Колмогорова, представляюще!! собо!! мак­


симальное отклонение эмпирическо!! функции распределения F~(x) от
гипотетическо!! (т. е. соответствующе!! теоретическо!!) функции распре­
деления Fo (х).
Колмогоров доказал, что при п --+ оо закон распределения слу­
ча!!но!! величины уГп · Dn независимо от вида распределения с. в. Х
стремится к закону распределени:х Кол.могорова:

Р{уГп · Dn < х}--+ К(х),

где К(х) - функция распределения Колмогорова, для которо!! соста­


влена таблица, ее можно использовать для расчетов уже при п ): 20:
а 0,1 0,05 0,02 0,01 0,001
Хо 1,224 1,358 1,520 1,627 1,950
На!!дем Do такое, что P(Dn > Do) = а.
Рассмотрим уравнение К(х) = 1-а. С помощью функции Колмого­
рова на!!дем корень х 0 этого уравнения. Тогда по теореме Колмогорова,
Р{уГп· Dn <хо}= 1-а, P{yГn·Dn >хо}= а, откуда Do = Fп·
Если Dn < Do, то гипотезу Но нет основани!! отвергать; в против­
ном случае - ее отвергают.

Пример 7.9. Монету бросали


4040 раз (Бюффон). Получили п 1 = 2048
выпадени!! герба и п 2= 1992 выпадени!! решки. Проверить, используя
а) критерий Колмогорова; 6) критери!! Пирсона, согласуются ли эти
данные с гипотезо!! Но о симметричности монеты (а= 0,05).

О Случа!!ная величина Х принимает два значения: х1 = -1 (решка)


и х2 = 1 (герб). Гипотеза Но: Р{х = -1} = Р{х = 1} = ~-
а) По таблице распределения Колмогорова находим корень урав­
Хо
нения К(х) = 1-а при а= 0,05. Следует хо= 1,358. Тогда Do = Vn =

= 1,358 ""о 021.


v'4040 ,
Глава 7. Элементытеорииоценокиnроверкигипотез • 219

Для нахождения по выборке Dn строим функции Fo(x) и F~(x) и


вычисляем величину Dn = max IF~(x) - Fo(x)I.
х

{
решка герб о, при х ~ -1,
х; Xj = -1 Х2 = 1 ---+ Fa(x) = 0,5, при - 1 <х ( 1,
Pi 0,5 0,5 1, при 1< х.

решка герб

{
о, прих~-1,
Xi XJ = -1 Х2 = 1
1992 2048
---+ F~(x) = 0,493, при -1 <х ( 1,
п;

Pi ~ 0,493 ~ 0,507
1, при 1 < х.
Максимальное отклонение Fo(x) от F~(x) равно 0,007, т. е. Dn =
= 0,007. Поскольку Dn < D 0 , то нет оснований отвергать гипотезу
Н0 ; опытные данные согласуются с гипотезой Но о симметричности
монеты.

б) Вычисляем статистику х 2 :

2 2 2 2
х2 = """""ni _ п = 1992 + 2048 _ 4040 = 0 776
набл L., npi ! · 4040 ! · 4040 ' .
i=l 2 2

По таблице х 2 -распределения находим критическую точку х~ k =


= X~,OS;l = 3,8. Так как х;абл < x~,OS;l' то опытные данные согласу~тся
с гипотезой о симметричности монеты. 8

Упражнения

1. Распределение признака Х (случайной величины Х) в выборке за­


дано следующей таблицей:

Xi-1 - Xi 0-0,1 0,1 - 0,2 0,2 - 0,3 0,3 - 0,4 0,4 - 0,5
ni 105 95 100 100 102
Xi-1 - Xi 0,5 - 0,6 0,6 - 0,7 0,7 - 0,8 0,8 - 0,9 0,9 - 1,0
n; 98 104 96 105 95
При уровне значимости а= 0,01 проверить гипотезу Но, состояшую
в том, что с. в. Х имеет равномерное распределение на отрезке [0,1]
(вероятности Pi определяются формулами Pi = hi (i = 1, 2, ... , k),

где hi - длина i-го отрезка [xi-i; Xi] (t


i=l
= h; = 1) ).
220 • Раздел второй. Основы математической статистики

2. Результаты наблюдений над с. в. Х (рост мужчины) представлены


в виде статистического ряда:

Х(рост) [150 - 155) [155 - 160) [160 - 165) [165 - 170)


n; (частота) 6 22 36 46
Х(рост) [170-175) [175 - 180) [180 - 185) [185 - 190)
п, (частота) 56 24 8 2

Проверить при уровне значимости а = 0,05 гипотезу Но о том, что


с. в. Х подчиняется нормальному закону распределения, используя
критерий согласия Пирсона.

3. По данным упражнения 2 проверить гипотезу о нормальном рас­


пределении с. в. Х, используя критерий Колмогорова.
Ответы к упражнениям

Раздел первый

Глава 1

1.3
1) Б = Б · !! = Б(А + А) = А · Б + А · Б; 2) (А + С) · (Б + С) =
= АВ+АС+БС+С = АБ+АС+С = А·Б+С; 3) Пусть w Е А+ Б =} w rf:
rf: А + Б =} w rf: А, w rf: Б =} w Е А, w Е Б =} w Е А · Б, т. е. А + Б <;; А · Б.
Аналогично убеждаемся, что А· Б <;;А+ Б =}А+ Б =А· Б.
а) АБС; б) А·Б·С; в) А+Б+С; г) А·Б·С; д) АБС; е) АБ·С+АБС+А·БС;
ж) АБС=А+Б+С.
А1А2(Аз + А4 + Аs)Аб.

Из 90 двузначных чисел 9 имеют одинаковые цифры, т. е. п = 90, m =


= 90 - 9 = 81. Следовательно, р = 81 90
= 0,9.
р = 0,01, так как m = 1, n = 10 · 10 = 100 .


5. 4 . 3 = 60; 5 . 4 . 3 + 5 . 4. 3 . 2 + 5 . 4 . 3 . 2 . 1 = 300.
12 + 15 + 7 = 34.
10. 9 . 8 . 7 = 5040.
(10 · 9 · 8) 2 = 7202 = 518400 или А1 0 · Af 0 .
94 = 6561.
At 2 = 12 · 11 · 10 · 9 = 11880.
Ау 0 = 720.
А~ · А~ · А~ = 120.
Ps · Рз = 720; Р., - 720 = 4320.
222 • Ответы к упражнениям

10. Р4 = 4! = 24 (один сел где угодно).


11. 3 . 2 . 8! = 241920.

0000
Рис. бб

12. 112 = 7 · 16; 2520 =с?· С[6 .


13. а) С~= 56; б) С/2 · = 6160. Cl
14. cf5 · с~ · c:f или 8 f5~~! = 135135.
15. А~= 2 7 = 128 или 2. 2. 2. 2. 2. 2. 2.
16. 63 = 216. Это 234, 666, 165, ....
17. А~= 46 = 4096.
18 .с-64 = св9 = сз9 = 9·8·7
1. 2. 3 = 21 . 4 = 84.
19. CN = Cf0 = С[0 = 45.
20. с§ = ct = ci = 15, 15 . Р4 = 360.
21. а) 4! = 24; б) 2! . 3!. ~i. l! . l! = 3360.
9! -
22. 2! . 3! . 4 ! - 1260.
23. ! . ~!. ! = 400400
1
9 43
= Cf6 · Gj · GJ.
1.9
1. n 1680
= А-48 = 84 = 4096 а) т = 8 · 7 · 6 · 5 = 1680, Р1 = 4096 ""0,41; б) т = 8,
Р2 = 8 ""0,00195; в ) т = 1, Рз = 1 ""О, 00024.
4096 4096
2. n = С36s , т = С42 · С4з , р = Cl ·5Gi ""0,000064.
Сзв
3 . n -- 71" т -- 61. . 2 ' р -- 6 '7!. 2 -- ~7 ~
~ о ' 29 .

4. n = 5! = 120, т = 2 · 2 · 1 · 1; р = 4 = 0,033 ....


120
сз с2 . ci10
5. а) р = ~о "" 0,573; б) р = 50
3
"" 0,36.
Сво Сво
6. а) р = ~: ~ = 4~ ""0,08; б) р 4
= 5 94 ""0,408.
7. Группа из 5 команд может быть выбрана cr
0 способами (вторая группа
образуется автоматически), т. е. n = Cf0 . В первую группу попадет ли·
бо один лидер, либо два. Стало быть, т = Cj · Gj + С§ · Gf. Поэтому
~ О 833
р
= Cj · Gi
cs+10Cj · Gf ~ ' .

L
Ответы к упражнениям • 2~

8. р= CJ · CJz
2
+ C;f · 2С~2 ""'0,21. Воспользовались свойством: Р(А +В)
Сзб Сзб
= Р(А) + Р(В), АВ = iZ!. Здесь А =одна дама, В= две дамы.

1.10

1. Сторона треугольника равна Rv'з. Значит, р =


sд =
зн 2 v'з
=
So 47ГR 2
""'0,41.
1,6
2. р = 5 = 0,32.
З. Обозначим длину I отрезка Ч('рез х, II - через у, тогда III отрезок имес
длину l - х - у. !1 = {(х,у) : О< х +у< 1}, т.е. О< х +у< l - вс
возможные комбинации длин частей отрезка. Чтобы из них можно был
составить треугольник, необходимо выполнение условий: т +у >l- т- 1
l l l
х +l - х - у > у, у+ l - х - у > х, т. е. х < 2, у < 2, х +у > 2· Эт
неравенства определяют область, заштрихованную на рис. 67.
у

l ---------------

l l х
2

Рис. 67
1 l l
2·2·2
Имеем: Р = = 0,25.
~l. l

1.15
1. Да. !1 = {2,4,6}, В= {4,5,6}. Ясно, что Р(А) = 6
{1,2,З,4,5,6}, А=
3 = 1
2
1 2 1 1 ( (
Р(В ) = , а Р(АВ) = б = З' т. е. Р(АВ) = 3 о1 Р А)· Р В) = 2 · 2 = 4·
11 1
2
2. а) А 1 - первая буква Т, А2 - вторая буква И, ... , As - пятая букв.
И. Вероятность события А - получится слово ТИСКИ, равна Р(А) =
= Р(А1А2АзА4Аs) = · ~ · ~~i = ""'0,0004; б) О, так как второ!
3 1
10 25 20
1 2 3 1
буквы К в слове СТАТИСТИКА нет; в) р = · 9 · 8 = 120 ""' 0,008
10
232221111
г) р = 10 . 9. 8. 7 . 6 . 5 . 4 . 3. 2. 1 '°"' 0,0000132.
З. q, = 0,2 - вероятность отказа i-го элемента, р, = 0,8 - вероятность егс
исправной работы. Цепь последовательно соединенных элементов 1-2-:
224 • Ответы к упражнениям

будет работать, если исправны все три элемента: Р12з = Р1 · Р2 · Рз = О,8з =


= 0,512. Цепь параллельно соединенных элементов 5-6 отказов, только в
случае отказа обоих элементов qsв = qsqв = 0,2 2 = 0,04, а вероятность ее
исправно!! работы равна Р56 = 1 - q55 = 0,96, Р456 = р4 · Рsб = 0,8 · 0,96 =
= 0,768; Р12з456 = 1 - qi2з · q456 = 1 - (1 - 0,512) · {1 - 0,768) "" 0,887;
Ротк = 1 - Р12З456 · р7 "" 1 - 0,887 · 0,8 ""0,291.

1.16
1. А- первый шар белый, В - + АЁ - оба
второй шар черный. Тогда АВ
--
28 7 2 7 7 2
шара разных цветов. Р (АВ + АВ) = 9 · 8 + 9 · 8 =
72 = 18 "" 0,39.
2. а) Ai - попадание первого орудия, А 2 - второго, Аз - третьего. Значит,
АЁё + Авё + АЁС = D - попадание только одного из них. P(D) =
= О,7·0,3-0,3-3 = 0,189; б) S = А 1 А2Аз - три промаха. P(S) = 0,3·0,3·0,3 =
= 0,027. Значит, P(S) = Р(А1 + А2 +Аз) = 1 - P(S) = 1 - 0,027 = 0,973.
3. Вероятность выхода из строя всех n приборов равна

(1 - 0,7). (1 - 0,7) ..... (1 - 0,7) = 0,3n.


n

Следовательно, вероятность безотказно!\ работы равна 1- О,3п. По усло­


вию 1- О,3п) 0,95. Отсюда О,3п ~ 0,05, nln0,3 ~ ln0,05,

n ) ln 0,05 : ln 0,3 "" 2,488,

т.е. п) 3.

1.18
1. А - вышла из строя одна микросхема, Но - о,тказали обе, Н 1 - отка­
зала первая микросхема, Н2 - отказала вторая~ Нз - обе не отказали.
Тогда Р(Но) = 0,07 · 0,1 = 0,007, Р(Н 1 ) = 0,063, Р(Н2 ) = 0,093, Р(Нз) =
з
= 0,837 (Контроль: L Р(Н,) = 1). P(AIHo) =О, P(AIH1) = 1, P(AIH2) =
i:;;:Q
= 1, Р(АIНз) =О. Значит, Р(А) = 0,156 и P(H1IA) = 0,404.
2. А1 - студент П сдаст экзамен, если зайдет первым, Р(А1) = ~g = i·
А2 - студент П сдаст экзамен, если зайдет вторым, Р(А 2 ) = ? Введем
гипотезы: Н 1 - первый студент вытащил билет, который знает студевт
П, Н2 - первый студент вытащил билет, который не знает студент П.

Р(Н1) = ~~ = ~, Р(Н2) = ~g = ~ (~ + ~ = 1). Далее: P(A2IH1) = ~~,


Р ( А2 1Н2 ) = 30 . Значит,
( ) 3 · 29 + 4
Р А2 =
1 · 30 = 3 . Все равно.
39 4 39 39 4
Ответы к упражнениям • 2~

З. Пусть А - изделие пройдет контроль, Н1 - взятое изделие стандар·


но, Н2 - не стандартно. Р(Н1) =
0,9; Р(Н2) = 0,1; P(AIH1) = 0,91
P(AIH2) = 0,06. Следовательно, а) Р(А) = 0,9 · 0,96 + 0,1 · 0,06 = 0,8'
б) P(H1IA) = о, 90 · 8°/ 6 ""0,993.
'

1.20
10
а) Р10 (4) С[0 • (!) ""0,21; б) Р1 о(О) = в) р •
4 6
1. = • (!) (!) ""0,00098;
= P1o(l) + Р1 о(2) + ... + Р10(10) = 1 - Р1о(О);::: 0,999.
2. р = q = !· ?4(2) = Ci · (!)
2
· (!)
2
= i; Рв(3) = Cg · (!) 3
• (!/ = :Е
Следует, что ?4(2) > Рв(3), т. е. 2 из 4.
З. а) Р3 (3) = Cj · 0,51 3 · 0,49°;::: 0,133, б) Р3 (1) = CJ · 0,51·0,49 2 ""0,368.
4. Спички брались 2 · 10 - 6 = 14 раз, из них 10 раз из коробки, котора
оказалась пустой. Имеем 10 «успехов» в 14 «испытаниях», т. е. P14(lO) '
10 4
= cfg. . (!) ""0,061.(!)
1.21

1. р = 1 : 365 ;::: 0,0027, п = 84, а ;::: 0,23. По формуле Пуассона ?34(2) "
О,
232
;::: ~~, 7945
""0,021. (е- 0 · 23 ""0,7945).
2. п = 200, р = 0,02. Значит, а= [пр] = 4. Искомая вероятность:

Р2оо(О) + P2oo(l) = +
40 -4
+ ~!
4 -4
""0,09.

З. З_десь п = 100, m = 60, р = q = !· Используем локальную теорему Муав


60 - 100 . 0,5 1
ра-Лапласа: х = = 2. Тогда Р100(6О) = -5 <р(2) = О,2·0,054"
vflOO · 0,5 · 0,5
""0,0108.
4. Рвоо(m, 800) = 0,95. Используем интегральную теорему Муавра-Лапласа
m-388
х1 = , х2 = 29. Значит,
14

Фо(х2) = 0,5; 0,5 - Фо (


388
1
4т) = 0,95.
388 - т) 388 - т
Откуда Фо ( 14
= 0,45, 14
= 1,65. Значит, m = 365.
226 • Ответы к упражнениям

Глава 2

2.2
1. Возможные значения с. в. Х есть О, 1, 2, 3, 4. Их вероятности равны со­
4
ответственно: Р1 Р{Х =О}= cg · (!) 1~, Р2 = Р{Х = 1} =
0
= · (!) =
1 3
=С41 · (1)
2 . (1) 4
2 =16'рз=15'Р 6 4 =15'Р 4 5 =Р{Х= 4 }=16· 1
2. Пусть А 1 - первый студент сдает экзамен, А2 - второй сдает экзамен.
С. в. Х принимает три значения: 0,1,2. а) Р1 = Р{Х = О} = Р(А1А2) =
= 0,4 · 0,1 = 0,04; р2 = Р{Х = 1} = Р(А1А2 + А1А2) = 0,6 · 0,1+0,4 · 0,9 =
= 0,42; Рз = Р{Х = 2} = Р(А1А2) = 0,6 · 0,9 = 0,54 (2:Pi = 1}; б) Р1 =
= Р{Х =О}= Р(А 1 А 1 А 2 А2) = 0,4 · 0,4 · 0,1·0,1 = 0,0016; Р2 = Р{Х = 1} =
= Р(А 1 А2А2 + А1А 1 А2 + А1А2А1А2 + A1A1.ii2A2) = ... = О,1668;

рз = Р{Х = 2} = Р(А1А2 + А1А2А2 + А1А1А2 + А1А2А1А2) =


= 0,6. 0,9 + 0,6. 0,1 . 0,9 + 0,4. 0,6. 0,9 + 0,4. 0,1. 0,6. 0,9 = 0,8316
3
(2: Pi = 1).
i=l

2.3
1. А1 - попадание I стрелка, А2 - П. Тогда Р{Х = х1} = Р{Х = О} =
= Р(А 1 А 2 ) = 0,08, Р{Х = х2} = Р{Х = 1} = Р(А1А2 + А1А2) = 0,44,
Р{Х = 2} = 0,48.

!
О, х ~О;
F(x) = 0,08, О< х ~ 1;
0,52, 1 < х ~ 2;
1, 2 < х.
2. F(x) удовлетворяет свойствам функции распределения;

Р{О ~ х < 1} = F(l} - F(O) = 1 - е- 1 =1- ~ ~ 0,632.


1
Р{Х Е (О, 1}} = !· Значит, Р4(3} =С]· (!) · (!)
3
3. F(l} - F(O) = = 0,25.

2.4
1. F(2} = 1. Значит,

+ 1)
{
2(х
а - !.. хЕ(-1;2),
1=а(2+1) 2 , - 9' f(x) = F'(x) = 9 '
о, хф_(-1;2].
Ответы к упражнениям • 2:2

у-4
2. Sл
1 1
= 2. 2h = 1. Значит, ом= h = 4. Уравнение MN: о - 4 = х-0
! - о' Т.4
2
у = -8х + 4. Стало быть,

{
-8х + 4,
f(x) =
о,

если х ~О, то
х

F(x)= jodt=O;
-00

<х 1
если О ~
2 , то
о "
F(x)= / Odt+ f(-8t+4)dt=-4x 2 +4x;
-оо о

если х > 21 , то
1
о 2 х

F(x)= J
-оо
Odt+ j(-8t+4)dt+ jodt=l,
о 1
2
таким образом

{ -4х + 4х,
о, х ~о,

F(x) =
2
О< х ~ !'
1
' х > .!..
2'
1
2 1

Р{ХЕ (~,1)}= j(-8x+4)dx+ jodx=~.


1 1
4 2
00

З. а) нет, так как f(x) ~О при х Е (-оо,О); б) да, f(x) ~О, / f(x)dx = 1
-оо

о 2

J
00 00

jodx+jax 2 dx+jodx=l,т.e.a~ 1:=1,a=i·Ecл:


3
в) f(x)dx=
-оо -оо о 2
а= i' то f(x) - плотность распределения; а rf i - нет.
228 • Ответы к упражнениям

2.5
1. Учитывать результаты примера примера 1.Зl (п. 1.20) в первом случае
имеем: МХ = О· 0,001+1 · 0,027 + 2 · 0,243 + 3 · 0,729 = 2,7; во втором
случае: М Х = О · 0,006 + 1 · 0,092 + 2 · О,З98 + З · 0,504 = 2,4.
о

f
00 1r 00 1r

2. МХ = [ / xf(x)dx] = / x·Odx+ / bxsinxdx+ x·Odx = Ь/ xsinxdx =


-оо -оо о 7r о


3. = М(5Х - ЗУ + 2) =
Согласно свойствам м. о. и дисперсии, имеем М Z
= М5Х - МЗУ + М2 = 5М Х - 3МУ + 2 = 5 · 2 - З · ( -З) + 2 = 21 и
DZ = D(5X - ЗУ+ 2) = D5X + D(-ЗУ) + D2 = 25DX + 9DY +О=
= 25. 2 + 9. 9 = lЗl.
00 о 1r 00

2 2 2 2 2
4. DX = [ / x f(x)dx-(MX) ] = / x ·0dx+ / x ·bsinxdx+ / x ·0dx-
-oo -оо о 1r
п

-(~)
2

Ь/ x 2 sinxdx- ~
2
2
= = b(-x cosxl:+2(xsinxl:+cosxl:))
о
~2 п2 п2 п2
- 4 = 2 - 2 - 4 = 4 - 2 ""'0,467; О'Х = J0,467""' 0,68.
5. Если х -> А, то F(x) -> О, lim 0,25х 2 = О, т. е. О,25А 2 = О, А
x-tA+O
О·,
2
lim О,25х = 1, т. е. 0,258 2 = 1, В = 2. Поэтому
х-+В

{
о, при х,;;;; о,
F(x) = О,25х , 2
при О< х,;;;; 2,
1, при 2 < х.
Тогда
> 2,
J(x) = {~'5х
, ,
при х ,;;;;
при О< х,;;;;
О и х
2.
Поэтому
2 2

МХ= f x·0,5xdx=~ 1:=4/3,


о
3
DX= f x ·0,5xdx-(i)
о
2 2
=~·

Значит, О'Х = з·
J2

6. м(ktx;) = k'tмxi = k t a = k(µ+a+.".+a) = k·na =а;


i=l i=l i=l n

D(k t x i ) = -\D(tx;) =--\ tDX; =--\ t0' =--\. n0'


i=l n i=1 n i=1 n i=1 n
2 2
=а:.
Ответы к упражнениям • 2:

2.7
1. Р{-3 < Х < 5} = Фо ( 5 ; 3 ) - Фо (- 32- 3 ) = Фо(l) + Фо(3) = 0,841
Р{Х ~ 4}= Р{-оо < Х ~ 4} = Ф 0 ( 4 ; 3 ) - Ф 0 (-~- 3 ) = Ф 0 (0,5)
+ Фо(оо) = 0,19146 + 0,5 = 0,69146; P{JX - 3J < 6} = P{IX - 3J < 3 · 2}
= 2Ф 0 (3) = 0,9973.
2. По условию а = О, = 1 а) Р{Х Е (1, 3)} = Фо ( 3 l 0 ) - Фо (11°)
(J

= Фо(3) - Ф 0 (1) = 0,49865 - 0,34134 = 0,1573; б) 2Ф 0 (t) = 0,8926, отсю.r


Фо(l) = 0,4463. По таблицам находим, l = 1,62, и интервал имеет в>
(-1,62; 1,62); в) МоХ =О; Ме =О.
З. Коэффициент асимметрии А нормального распределения равен О (А= О
так как кривая Гаусса симметрична относительно прямой х = а, проход:
щей через центр распределения а. Найдем (аналитически) коэффицие~
эксцесса, т. е. Е = µ: - 3. Сначала найдем
(J
µ4:

х' = [и= хз
00
du = 3х 2 dx
µ4 =
1 <JV21C
-оо
х 4 -1-е - 2и2 dx х2
dv = хе - 2и 2 dx v =
х'
-а 2 е - 2cr 2
] =

<J.k ( З<J 2 (О+ <J2<JJ21 е -( vi,,.) ~<J))) =


2

= d(
-00

Стало быть: Е = -3<J44


(J
- 3= З - З = О.
230 • Ответы к упражнениям

Глава3

3.3
00 00 00 00 00

1. 1) f f f(x,y)dxdy = 1. Поэтому А f f е-х-у dxdy = лfe-"dxx


-оо -00 о о о
00 00 00

х f е-У dy = А f е-х (-e-YI:) dx = А f е-х dx = А = 1. 2) F(x, у)


о о о
х у ж у х

= f f e-u-v dudv = f е-и du f e-v dv = f е-и (-е-• 1:) du = (1 - е-У) х


о о о о о
х

х f е-и du = (1 - е-х)(1 - е-У) при х) О, у) О, т. е.


о

(1- е-х)(1- е-У), при х) О,у) О,


FХУ =
1
{ О, в противном случае.

3) Fx(x) = [ ] ( / f(x,y)dy)dx] =
-00 -00
](Je-иe-"dv)dи= 1-е-иdи=
о о
J
о

= -е-иJ: = 1- е-х, при х;?: О, т.е.

Fx = {1-е-х, при х) О,

о, при х <О.

Аналогично
Fy = {1 - е-У, при у) О,
О, при у< О.

(1 - е-Х)' при х) О,= {е-х, при х) О,


4) fx(x) = fi(x) = F~(x) = '
{ о, при х <О, О, при х <О.

при у) О,
Аналогично, fy(y) = е '
{ о, при у< О.

! ! f е-х
00 1 00

5) Р{Х > О,У < 1} = e-"dx e-Ydy = -(е- 1 - 1) dx


о о о

= (1- i) (e-")I: = 1- i ""а,63.


Ответы к упражнениям • 231

оо оо 4 4-х 4

2. 1) f f f(x,y)dxdy=1,т.e. f dx f Cdy=1,C f(4-x)dx=1,C=k·


-00 -00 о о о

с ледовательно, !( х, у ) = {
-1 , при х ;:;, О, у;:;, О, х +у ~ 4;
8
О, в противном случае.

2) fx(x) = [] f(x,y) dy] = 7х k dy = kvJ:-x = 4 ~ х, х Е (0,4), fy(y) =


= -4-у
8
-, О
-оо

< у < 4; 3) Р{О <


о

Х < 1, 1 < У < 3} !! f(x, у) dxdy =


D1
1 3

= !f dx f dy = 0,25 (см. рис. 68).


о 1

х+у=4

о 1

Рис. 68

З. 1) С. в. Х принимает значения О, 1, 2. Очевидно,р 1 = Р{Х =О}= 0,6·0,6 =


= 0,36, Р2 = 0,4 · 0,6 + 0,6 · 0,4 = 0,48, Рз = 0,4 · 0,4 = 0,16. Стало быть:

х о 1 2
р 0,36 0,48 0,16

3
(LPi = 1). Аналогично находим, что
i=l

у о 1 2
р 0,16 0,48 0,36

есть ряд распределения с. в. У. 2) Возможные значения системы (Х, У):


(О, О), (О, 1), (О, 2), (1, О), (1, 1), (1, 2), (2, О), (2, 1), (2, 2). Совместная таблица
232 • Ответы к упражнениям

распределения имеет вид:

Х"'-У о 1 2
о 0,0576 0,1728 0,1296
1 0,0768 0,2304 0,1728
2 0,0256 0,0768 0,0576

так как Р11 = Р{Х = О, У = О} = 0,4 · 0,4 · 0,6 · 0,6 = 0,16 · 0,36 = 0,0576,
Р12 = Р{Х = 0,У = 1} = 0,36 · 0,48 = 0,1728, Р1з = Р{Х = 0,У = 2} =
= 0,36 · 0,36 = 0,1296, р21 = Р{Х = 1, У = О} = 0,48 · 0,16 = 0,0768,
Р22 = Р{Х = 1, У= 1} = 0,48 · 0,48 = 0,2304, Р2з = Р{Х = 1, У= 2} =
= 0,48 · 0,36 = 0,1728, Рз1 = Р{Х = 2, У = О} = 0,16 · 0,16 = 0,0256,
Рз2 = Р{Х = 2, У = 1} = 0,16 · 0,48 = 0,0768, р 33 = Р{Х = 2, У = 2} =
= 0,16 · 0,36 = 0,0576. 3) По таблице распределения, пользуясь равенством
F(x,y) = L L
PiJ, находим значения функции распределения F(x,y):
Xi<XYi<Y

Х"'-У у:;;; о O<y(l l<y(2 у>2


х(О о о о о
O<x(l о 0,0576 0,2304 0,3600
l<x(2 о 0,1344 0,5376 0,8400
х>2 о 0,1600 0,6400 1,0000

3.7
1. Имеем

х 1 2 3 у 1 2 3 4
и
р 0,33 0,33 0,34 р 0,24 0,28 0,27 0,21
Тогдаmх = 1·0,33+2·0,33+3·0,34 = 2,01, ту= 1·0,24+2·0,28+3·0,27+
+ 4 · 0,21 = 2,45. Так как

Р{Х = 1, У= 1} = 0,07 о/- Р{Х = 1} · Р{У = 1} = 0,33 · 0,24 = 0,0792,


то с. в. Х и У - зависимы. Находим МХУ: МХУ = 1 · 0,07 + 2 · 0,04 +
+3. 0,11+4·0,11+2. о,о8+4. 0,11 +6 -0,06+8. о,о8+3. о,о9+6·0,13 + 9 -0,10 +
+ 12 · 0,02 = 4,71. Поэтому cov(X, У)= 4,71 - 2,01 · 2,45 = -0,2145.
2. JJf(x, у) dxdy = 1, поэтому
D

1 1 1 1

а f f
-1
dx
-1
3
(1-xy )dy =а f
-1
dx (у-х~ ) 1~ 1 = а
4

f
-1
2dx = 4а = 1, а=
1

Ответы к упражнениям •

1 1

MX=tf xdx J(l-xy 3 )dy= ... =0,


-1 -1
1 1
(у22 у55 ) 11 х21 1
1
1 3 1
МУ=- / dx / y(I-xy)dy=- / dx --х- 1 3
=-·-·-
4 4 -1 4 5 2 -1
-1 -1 -1
1 1
DX = t/ (х
-1
2
- 0) dx / (1 -
-1
ху 3 ) dy = ... = !•
1
значит, ах = у13·

00 00 1 1

DY = [ / / (у-ту) f(x,
2 у) dxdy] = t / dx / у2 (1-ху 3 ) dy = ... '
-00 -00 -1 -1

1
значит, ау = у'З'

1 1

Кху = t/ /-1-1
xy(l - ху 3 ) dxdy - О= ... = -л.
1
-15 1
Следовательно, rxy = ..l. . ..l.
=- -.
5
vГз vГз
1 1

З. с/ dx / (х +у) dy = Отсюда с=
1. 1. Находим плотность вероятност>
о о

f1(x) = J(x+y)dy = х+ !,
о
1

f2(y) =/ (х +у) dx = ( ~ +ух) 1: =у+ !·


о

Так как f1(x) · f2(y) = (х+ !) (у+!)#- х+у = f(x,y), то с.в. Х


зависимы.

1 1 1

МХ= / xdx J(x+y)dy= / х(х+!) dx= 2 ,J


о о о
234 • Ответы к упражнениям

7
МУ = 12'
1 1

(х- 1~~
2
DX = J /2 ) dx Jrx +y)dy =
о о

или

1
1 1

DX= x2dx f(x+y)dy-(i~)2 = 114~'


о о

11
DY = 144'

3.9
1. НайдемусловноераспределениеХ:р(х 1 [у 1 ) = Р{Х = О[У = -1} = ~:~~ =
10 0,15 15 10 15 15
=
25
, р(х2[У1) = О,
25 = 25 . Значит, М(Х[у1) =О· 25 + 1 · 25 = 25 = 0,6.
0,15 15 25 15 25
р(х1[У2) = О,
40 = 40 , р(х2[У2) = 40 . Значит, М(Х[у2) =О· 40 + 1 · 40 =
= ~~ "" 0,63. р(х1 [уз) = ~~, р(х21Уз) = ~~. Значит, М(Х[уз) = ~~ "" 0,43.
Кривая регрессии Х на у имеет вид, изображенный на рис. 69.
M(X[yi)
1

0,63

-1 о 1 у

Рис. 69

2. Как известно, для нормально распределенной с. в. (Х, У) ее составляющая


У также распределена по нормальному закону (формула (3.37)):

(у - ту)'
20"~

Имеем

2
у =
i(x[y) = J(x, у) = е 1 ') ( х 2 -2rxy+y ' ) 1 __
1 2( 1 -r : --е 2
/2 (у) 2кvl - r2 V2iГ
Ответы к упражнениям •
(х - yr
= 1 е - 2(V1=Т
,п:; . у1=-;:2
т. е. условная плотность распределения f(xly) есть плотность нормальн
распределения с параметрами m = yr и а = v'l - r 2 . Аналогично наход
что
(у - xr) 2
f(ylx) = f(x, у) = 1 е 2{v'Т°=?)'.
f 1 ( х) ,Гz;уТ=-;:2

3.11
1. Так как

f(х)={Ь~а' о,
х Е (а,Ь],

х t; [а,Ь],
ТО

<p(t) = _1_!
Ь - а
ь

eitxdx = _1_. l(eitb _eita) =


Ь - а it (а
i
- b)t
(eitb -eita).
а

ake-a
2. Так как Pk = ~, k =О, 1, 2, .. " то

<px(t) = L
00
eitk а
k
z1-a = е-а L00 (
а~!
it)k
= е-а . еае" = e-a(I-e")
k=O k=O

Тогда <p'(t) = e-a(I-e") · (-a)·(-eit)-i, значит, М Х = [-i<p'(O)] = -i·(l·ai


= а, т. е. М Х = а.

f f f f
-1 о 00 о

3. <p(t) = eitx · Odx + eitx(-2x)dx + eitx · Odx = -2 eitxxdx


-оо -1 о -1

'!' eitxf _l. J.eitxf 0 ) = _ 2 (О _ -:-1 e-it


0
= -2 ( + l(l _ e-it)) = 2ie-i
it -1 it it -1 it t2 t
2 2e-it 2ite-it - 2 + 2e-it
-t2 +т= t2 •

Гпава4

4.1
у -3 -1 5 15
1. а)г---r.,,..,,.,,-+,...-,,,,-+-7'7.,-+~=-1
р 0,30 0,45 0,20 0,05
236 • Ответы к упражнениям

б)
у
о 1 J2 J3 2 V5
р 0,10 0,20 0,30 0,25 0,10 0,05

у J3 о
J3
в) -т 2
р 0,3 0,35 0,35
у о 1
2.
р 0,5 0,5
Многоугольники распределения с. в. Х и У изображены, соответственно,
на рис. 70, 71.
р р

0,5 1
0,4 - ----
0,3
0,5

о 1 2 3 х о 1 у

Рис. 70 Рис. 71

МУ = 0·0,5+1·0,5 = 0,5; DY = [МУ 2 -(МУ)2] = 02 ·0,5+1 2 ·0,5-(0,5) 2 =


= 0,5 - 0,25 = 0,25. Отсюда о.У = VDY = v'D,25 = 0,5.
З. С. в. Х имеет равномерное распределение, значит,

fx(x) = { ~, х Е [-2, 2],


о, х 1. [-2, 2].
Функция у = х +1 строго возрастает в (-00,00), обратная функция
х = у - 1 = ..р(у), у Е [-1,3]. По формуле g(y) = /(-ф(у)) · l..P'(y)I нахо-
дим:

g(y) = { ~; 1, у Е [-1, 3],


О, у f. [-1, 3],
з

т.е. У ~R(-1,3]. НаходимМУ: МУ = J


-1
tdy = 1 (илиМУ = M(X+I) =

2 з

= J(x+1)·~dx=1).DY=MY 2 -(MY) 2 = !~ dy-1 2 =1,aY= }з·


-2 -1
Ответы к упражнениям • 237

т'
4. По условию fx(x) = ~е-2. а) Функция у = Зх 3 имеет обратную
v27Г

х = зffl.3 = -ф(у), х' = -ф'(у) = 3~ • 3~. Поэтому


VЗ ?з з{-уz

{
х х?О
б) у = lxl =
-х,
'
х < о'. На (-оо, О) обратная функция для у = lxl есть

х1 =-у= -ф 1 (у). На (О,оо) обратная функция есть х2=у=1/J2(y). Стало


быть,

у Е [О, оо).
5. а) По условию f(x) = е-х, х ;) О и F(x) = 1- е-х, х ;) О. G(y)
= Р{У <у}= Р{2Х-1 <у}= P{X<y;l} = F(y;l) =
у+!
= 1 - е--2-, у ;;;, -1 (так как условие х ;;;, О переходит для у = 2х - 1
y+l
в условие у ;;;, -1). Следовательно, g(y) = G'(y) = -е--2- (-~) =
1 у+ 1
= 2е--2- при у> -1 (g(y) =О при у< -1). б) Если у,;;; О, то G(y) =
= Р{У <О} =О и g(y) = G'(y) =О. При у> О имеем G(y) = Р{У <у}=
= Р{Х 2 < у} = P{IXI < JY} = P{-JY < Х < JY} = Р{О < Х < JY} =
= Р{Х < JY}-P{X <О}= F(JY)-F(O) = (1-e-v'Y)-(1-e 0 ) = 1-e-v'Y,
у> О. Тогда g(y) = G'(y) = (1 - e-v'Y)~ = - 1 · e-v'Y, т. е.
2JY

-1 , у>О,
g(y) = 2JY
{ о, у< о.

f f О· + f 2 ~e-v'Ydy f
00 00 00

Контроль: g(y) dy = 1, dx = - e-v'Yd(-Vii) =


-00 -оо о о

= -e-v'YI: = -(О - 1) = 1. (Иначе: при х Е (О, оо) имеем х = JY = -ф(у).


Поэтому g(y) = f(JY) · (JY)~ = e-v'Y · ~, у> О.)
2
238 • Ответы к упражнениям

4.2

1. Находим Fx+y(z). F(z) = Р{Х +У< z} = /!


D,
(x+y)dxdy. F(z) =О
(x+y<z)
при z,;;; О; при О< z,;;; 1 (на рис. 72 область D, заштрихована вертикаль­
ными линиями) имеем

f f f (zx-x2+(z~x)2)dx=
z z-x z

F(z)= dx (x+y)dy=
о о о

= (zx2 - хз (х - z}з) 1•о = 1 з.


2 3 + 6 зz ,

при 1 < z ,;;; 2 (область Dz заштрихована горизонтальными линиями)


имеем

z-1 1 1

f f (х +у) + f f (х +у) =
z-x

F(z) = dx dy dx dy
О О z-1 О

z-1 1

f (x+~)dx+ f (xz-x +(z~x) )dx=


=
О z-1
2
2

= (х2 + :t:.) 1•-l + (zx2 - хз + (х - z)з) 11 = 1(-zз + 3z2 - 1).


2 2 О 2 3 6 z-1 3

Итак,

о, z,;;; о,
lzз о < z,;;; 1,
3 ,
F(z} =
~(-z 3 + Зz 2 - 1), 1 < z,;;; 2,
1, z > 2.

Отсюда

z > 2,
{
о, z ,;;; о, или
f(z) = F'(z) = z2 , о< z,;;; 1,
2z - z 2 , 1 < z,;;; 2.
ответы к упражнениям •
у у
у= zx

у= zx
y=z-x

О z-1 z 1 х х
y=z-x

Рис. 12 Рис. 13

2. F(z)=P{I<z}= J (x+y)dxdy.F(z)=Oпpиz:;;;O;пpиO<z
D,
(~<z)
имеем

1 zx

F(z)= J dx J(x+y)dy=~+z:.
о о

При 1<z < оо имеем

l
z xz 1 1

F(z) = J dx J(x+y)dy+ J dx J(x+y)dy =


о о l о
z
=-1 +-1 + 1 -1- - -1= 1 - 1
--
3z2 6z 2z2 2z 3z

Следовательно,

0, z ~о,
1 z о< z:;;; 1,
F'(z) = f(z) = 3 + 3'
1 _1_ + _1_
3z2 Зz 3 '
1 < z < 00.

! ! (i + ~) ! ( 3 ~2 + 3 ~3 )
00 00

Контроль: f(z) dz = dz+ dz = 1 (см. рис.


-оо о 1
240 • Ответы к упражнениям

Глава 5

5.5
1. а) С. в. Х - число выпавших гербов. М Х = 500 · ~ = 250. Неравенство
200 < Х < 300 можно переписать в виде -50 < Х-250 < 50 или IX-2501 <
< 50. А так как DX = [npq] = 500 · ~ · ~ = 125, то Р{200 < Х < 300} =
= P{IX - 2501 < 50} ~ [1- п;] = 1- 12 ~ = 1 - 0,05 = 0,95; б) с.в.
Е 50
Х - сумма очков, Х, - число очков на i-ofi кости (z = 1, 2, ... , 10). Х =

= Х1 + Х2 + ... + Х10. МХ, =


10
i(l + 2 + 3 + 4 + 5 + 6) = 3,5, DX, = ~~·
Значит, МХ = LMX, = 35, DX = 1 ~ 5 . Поэтому P{IX - 351 < 8} ~
i=l
175
~

t t
1 - 6 . 64 = 1 - 0,4557 = 0,5443.

2. Р{ k Х, - k М Х,
1 1 < Е} ~ 1 - п~2 , при Е = 0,1 и С = 5 получаем:
1- 5 > 0,9. Отсюда п > 5000.
n· (0,1) 2
3. P{lnnA -pl <е:} ~ 1- ::2 • Из условия следует, что п = 500, Е = 0,1,
_q_
р- - -1 . Получаем Р {lпл - O,v
0,5·0,5 -_ 0,95. •1 < 0,1 } ~ 1-
2 500. (0,1) 2
500
4. Пусть Х, - число набранных очков при z-м выстреле, а 8100 - суммарное
число очков при 100 выстрелах. Тогда МХ, = 10·0,5+9·0,3+8·0,1+7·0,1 =
= 9,2,
100
м(l:х.) = 9,2. 100 = 920;
i=l

DX, = 100 · 0,5 + 81 · 0,3 + 64 · 0,1 + 49 · 0,1 - (9,2) 2 = 0,96,


100
п(~х.) = о,96. lOO = 96.

По формуле (5.14) Р{940 ,,;; 8100 < оо} "" Ф(оо) - Ф (


- 920) =
940у'96

=1- Ф(2,04) =1- 0,9793 = 0,0207.


5. Пусть Х - число прижившихся из п посаженных саженцев. По усло­
вию р = 0,7, q = 0,3. Тогда МХ = О,7п, DX = 0,3 · О,7п = О,21п.
0,21п 0,21п
P{IX - 0,7nl,,;; 40} ~ 1- . Имеем 1- ~ 0,9, п,,;; 761.
1600 1600
Ответы к упражнениям

Раздел второй

Глава 6

6.5
О, при .т ( 1,
1, при 1< х ( 3,
1. п
10 Р2* = 30'
= 30 , Р1• = 30, 12 F*10 (х ) =
8 Рз• = 30. 3
3
5, при 3< х ( 6,
1, при 6 < х.
2. Хв = 1,983 "" 2; Dв = 1,949 ;:,: 1,95. Ча.стость pj такова: Pi 8 ;:,: 1
=
60
Р2 = ~~ ""0,283, РЗ = 0,267, Р4 = 0,167, Р5 = 0,100, Рб = 0,033, Р7 =
7
(LPi = 1). Находим вероятности р; по формуле Пуассона, счита>
i=l
_ е-2 . 20 е-2 . 21 0,135.
= Хв = 2. Р1 = О! "" 0,135, Р2 l! "" 0,270, Рз 21
О 135 · 23
7
;:,: 0,270, р4 = ' ;:,: 0,180, р5 ""0,090, Рв ;:,: 0,036, р7 ;:,: 0,017 (~~
31
= 1). Как видим, с. в. Х - число неправильных соединений имеет
•=
тическое пуассоновское распределение.

3. 1. Все возможные значения с. в. Х - числа очков, выпавших на веJ


грани кости при одном подбрасывании ее.
2. Это числа 1, 2, 3, 4, 5, 6.
3. Это результат 60-ти подбрасываний игральной кости, описываете
Х1,Х2,Хз, ... ,Х59,Хво·
4. Первая реализация выборки приведена в условии, вторая - может
такая: 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 4
4, 4, 4, 4, 4, 4, 4, 4, 4, 5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 6, 6, 6
6, 6. Здесь X(l) = 1, ... , Х(зо) = 4, Х(зl) = 4, ... , х(во) = 6.
5. а) Вторая реализация и представляет собой вариационный ряд.
б) Статистический ряд таков:

Xi 1 2 3 4 5 6
n; 7 10 8 12 10 13
7 10 8 12 10 13
Pi 60 60 60 60 60 60
6 6
(L n; = 60, LPi = 1).
i=l i=l
242 • Ответы к упражнениям

О, прих(l,
7 , при 1< х ( 2,
60
17 , при2<х(3,
60
25 ,
6. F60 (x) = 60
при3<х(4,

37 , при4<х(5,
60
47 , при 5< х ( 6,
60
1, при 6< х.

7. Число интервалов m = 1 + log2 60 = l + 3,322 lg 60"' 6,9. Возьмем m = 6.


Xmax - Xmin = 6 - 1 = 5; длина интервала h = 6 5 = 0,833. Возьмем h = 1.
Интервальный статистический ряд имеет вид:

[0,5; 1,5) 1 [1,5; 2,5) 1 [2,5; 3,5) [3,5; 4,5) 1 [4,5; 5,5) 1 [5,5;6,5) 1
1 п, 7 1 10 1 8 12 1 10 1 13 1

8. Полигон частот и гистограмма частостей изображены, соответственно,


на рис. 74 и 75.

n,

Рис. 74

9. а) Хв = 1 . 7 + 2 . 1066 ... + 6 . 13 "' 3, 783; б) Dв = 6~ (12 . 7 + 22 . 10 + ...


. . . + 62 . 13) - (3,783) 2 "'2,839; в) S 2 "' ~~ . 2,836 "'2,888, s = VS2"' 1,699;
г) R = 6 - 1 = 5; М0 = 6; м; = 1 (х(зо) + Х(Зl)) = 1 · (4 + 4 ) = 4.
2 2
Ответы к упражнениям • 2

Pi
13 R<0217 h
60~~ ~0,2 :::::::::::::::::::::::::---------------
10
60 R<0,167 ----------"""""-..,..,..,.

lo R<0,117 ---гт~>I"-

Рис. 75

Глава 7
7.2
m -а

1 - Распределение Пуассона р{ Х = m} = а ·~
m.
содержит один параметр
Для оценки его методом моментов запишем уравнение М Х = х" т. е. а
n
= -х•. -
Оценка 1) параметра а = (} есть 1)- = -х. = n1"
L_, Xi, - = -х.
т. е. 1)
i=l
2. Х - дискретная с. в. с законом распределения

Так как
1- В если Xi = О,
р(х;, IJ) = р{ Х = Xi, IJ} = { IJ, '
если Xi = 1,
то функция правдоподобия имеет вид: L = L(x, IJ) = IJ 6 • (1 - IJ) 4 . Тог~
lnL = 6 · lnlJ + 4\n(l - IJ), уравнение правдоподобия

( ~ - 1 ~ 1J) lo=ii = О.
Отсюда находим, что IJ = р* = 0,6.
3_ а) Пусть О (или ji или р*) - оценка неизвестной вероятности IJ (или р) ш
явления некоторого события А (успех) в одном испытании. Согласно мет<
ду моментов приравниваем теоретическое М Х = р выборочному среднем

р=х.

Искомая оценка есть IJ = х.


244 • Ответы к упражнениям

б) Так как

p(xi, О)= р{Х = Xi, О}= {~,-О, если Xi =О,


если Xi = 1,
то функция правдоподобия имеет вид:

L = L(х1,х2, ... ,хп;О) =р{Х = х;,О} =


= р{х1, О} · р{х2, О} · ". · p{xn, О} = опл · (1 - е)п-пл,

n
где пА = LX, - число успехов (наступления события А) в п независи­
~=l
мых испытаниях. JnL = пА · lnO + (п - пА) ln(l - О). Решаем уравнение
nA п - пл пл ..., пл
правдоподобия 7Г - _О =О. Отсюда О= n' т.е. оценка В= n'
1
((lnL)~8 <О).
4. Требуется оценить две величины 01 и 02 , т. е. а и Ь, методом моментов. Так
а+ Ь (Ь- а) 2
как для с.в. Х ~ R[a,b], то МХ = - -, DX = . Решаем систему
2 12
уравнений
_
{ ~а?~'
а+Ь

{ DX =D.,
мх =х.,
т.е. 2
12 - а.,

Ь = 2х. - а, (2х. - 2а) 2 = 12а;, т. е. (х. - а) 2 = за;, х. - а = ±v'За.,


Хв = а+v'за. и, значит, а= х.-v'за., Ь = х.+v'за. (вариант х. = а-v'За.,
т. е. а= х. + v'за., Ь = х. - v'зав исключаем, так как а< Ь).
Таким образом, оценки величин а и Ь таковы: 01 = а = х. - v'За.,
02 = Ь = х. + v'за•.
Отметим, что, решая систему

получим те же оценки для а и Ь. В этом случае

MX=Jxdx=a+Ь
ь

Ь- а 2 ' МХ-
2 _ ! ь

x 2dx _ а2 + аЬ + Ь2
Ь-а- 3 .
а а

Система принимает вид:

{
а;ь = х,
а2 + ~ь + ь2 = х2.
Ответы к упражнениям • 245

Отсюда следует, а = х - у'3 · Jx 2 - (х) 2 = х - у'3 · ,;D;, = х - v'ЗО'в,


Ь = Х + у'30' 6 •
5. В данном случае

(х - а) 2
1
fx(x) = --е -~ = fx(x,a,O').
()'V27Г

Так как
(xi-81) 2

!( Xi, 6) = 1 20~
. V27Г 'е
62
то функция правдоподобия имеет вид:

1
L = L(x, 6) = п ·е
62 · (2к )2
Тогда
п

lnL = -nln62 - !! ln2к - - 1-2 · '°'(х - 6 1 ) 2 .


2 262 ~ i=l
'

Система уравнений максимального правдоподобия имеет вид:

Отсюда
n
L
п

Xi - ri'if1 = О, Т. е. - 1"
81 = ri -
L...,;Xi = Х,
i=l i=l

-2
62 = n1 I;
n
(Xi -
-
х) 2 ( 62 - оценка неизвестного параметра О' = 62). Можно
i=l
убедиться, что (iJ1Ji2) - точка максимума функции lnL(x, 6). Найдем
Л = АС - В 2 , где

А= 82\nLI = _.!!:...
86~ (ё, ,ё,) 6~ '
2
В= 8 lnL1 - -
86 1 862 (О1,О2)
2 ~(Xi
=-о;;-· '°' п

- -
61) 2 · 0 = 0,
= -=
6~ i=l 6~
246 • Ответы к упражнениям

2
Следовательно, Л = 1::. > О, А < О, поэтому точка (В1,В2) есть точка
е~
максимума функции L(x,O).

7.4
1. Воспользуемся формулой (7.3): е = t/n и (7.6) Ф 0 (t) = ~· Имеем е = 5,
и = 15,
/ = 0,9, = 0,45. По таблице находим,
Фо(t) что t = 1,65. Тогда

5-
- 1,65. 15 о
г.; .
- 1,652 . 152 = 24,5025, т. е. необходимо сделать не
тсюда п -
vn 52
менее 25 измерений.
6
2. Х8 = Х = 3~ L Xini = 310 · (153·4+159·5+ 165·6+ 171·7+177·5+183 · 3) =
1·=1
= 167,6; S = 9,28; при / = 0,95 и п - 1 = 29 по таблице распределения
2 05. 9,28
Стьюдента находим t-r = 2,05. Следовательно, е = ' мг; ""3,47. Дове-
v30
рительный интервал таков: (164,13; 171,07).
З. По условию п = 400, n,4 = 80, / = 0,95. Относительная частота события А
есть р* = n;
= 0,2. Из соотношения Фо(t) = ~ = 0,475 находим t, пользу­
ясь таблицей значений функции Лапласа: t = 1,96. Находим Pl и Р2 (фор-

мула (7.10) ): Р1 = 0,2-1,96 · O,~~g' 8 ""0,161, Р2 = 0,2+ 1,96 · O,~~g, 8 ""


""0,239. Итак, доверительный интервал есть (0,161; О,239).

7.6
1. п = 1000, Х ~ [0,1], т.е. а= О, Ь = 1, Р1 = 0,1 = Р2 = ... = Р10; Х~абл =
1052 95 2 105 2 95 2 2
= 100 + lOO + · · · + lOO + lOO - 1000 = 1,4; Xo,OJ;g = 21,7. Так как
2 2
< Хо,о
Хнабл 1 ;9, то гипотеза не отвергается.
2. Находим Хв и и.: Хв = (152,5 · 6 + 157,5 · 22 + 162,5 · 36 + ... + 187,5 · 2) ·
2 0
= 6
150 + 155 155 + 160
= 168,45. Здесь 152,5
2
=
, 157,5 =
2
и т. д. Dв =

=
2 0
6
(152,5 2 · 6 + 157,52 · 22 + ... + 187,5 2 · 2) - (68,45) 2 = 53,348. Тогда
и = 7,3. Так как п 8 = 2 - мало, то последние два интервала объединяем.
Составляем таблицу:

(-ос, 155) [155, 160) [160, 165) [165, 170) [170, 175) [175, 180) [180, +ос)
6 22 36 46 56 24 10

l
Ответы к упражнениям • 24 7

Для расчета вероятностей р, попадания случайной величины Х в ~-й ин­


тервал используем функцию Лапласа:

155 -168,45)
PI = Фо ( , - Фо(-оо) = 0,5- Фо(l,84) = 0,5 -0,4671 = 0,0329
73
=Ф (160-168,45)-Ф (155-168,45) =
pz о 73
, о 73
,
= Фо(-1,15) - Ф 0 (-1,84) = 0,0922
- ф (165 - 168,45) - ф (160 - 168,45) -
Рз - о 7,3 о 7,3 -
= Ф 0 (-0,47) - Фо(-1,15) = 0,194
= ф (170 - 168,45) - ф (155 -168,45) =
Р4 о 7,3 о 7,3
= Фо(-0,21) - Фо(-0,47) = 0,26
р5 = 0,2327, Рб = 0,127, р7 = 0,5 - Фо(l,58) = 0,0571.

Тогда

2 [~ п~ ] 1 ( 52 222 102 )
Хнабл = ~ пр, - п = 200 0,0329 + 0,0922 + · · · + 0,0571 - 2
ОО "" '

По таблице x;,k = хб,оs, 4 = 9,5. Так как Х~абл < хб,о5 , 4 , то гипотеза Но
отвергается.

3.
х [150, 155) [155, 160) [160, 165) [165, 170)
п, 6 22 36 46
р;
6 0,11 0,18 0.23
200 = 0,03
х [170, 175) [175, 180) [180, 185) [185, 190)
п, 56 24 8 2
р; 0,28 0,12 0,04 0,01
8
LP: = 1, Хв = 168,45, U = 7,3.
i:::::l
Составим таблицу:

х 150 155 160 165 170


F;(x) о 0,03 0,14 0,32 0,55
Fo(x) 0,0057 0,0329 0,123 0,3192 0,5832
д= IF;-Fol 0,0057 0,0029 0,017 0,0008 0,0332
248 • Ответы к упражнениям

х 175 180 185 190


F,;(x) 0,83 0,95 0,99 1
Fo(x) 0,8159 0,9429 0,9884 0,9984
д = IF,; - Fol 0,0141 0,0071 0,0016 0,0016

Проверяемая гипотеза состоит в том, что с. в. Х имеет нормальное рас­


х - а
пределение, т. е. Fo(x) = 0,5 + Фо(-а-):

150 - 168,45)
F0 (150) = 0,5 + Ф 0 ( , = 0,5 - Ф 0 (2,53) = 0,0057;
73

Fo(155) = 0,5 + Фо ( 155 -7,168,45)


3
= 0,5 - Фо(l,84) = 0,0329;

Fo(160) = 0,5 + Фо ( 160-7,168,45)


3
= 0,5 - Фо(l,16) = 0,123;

F 0 (165) = 0,5 + Ф 0 ( 165 -7,168,45)


3
= 0,5 - Ф 0 (0,47) = 0,3192;

F 0 (170) = 0,5 + Ф 0 ( 170 -7,168,45)


3
= 0,5 + Фо(О,21) = 0,5832;

Fo(l 75) = 0,5 + Фо ( 175 -168,45)


,
73
= 0,5 + Фо(О,90) = 0,8159;

Fo(180) = 0,5 + Фо ( 180 -7,168,45)


3
= 0,5 + Фо(l,58) = 0,9429;

F 0 (185) = 0,5 + Ф 0 ( 185 -7,168,45)


3
= 0,5 + Ф 0 (2,27) = 0,9884;

Fo(190) = 0,5 + Фо ( 190 -7,168,45)


3
= 0,5 + Фо(2,95) = 0,9984.

Максимальное отклонение эмпирической функции распределения от тео­


ретической есть Dn = IF,;(170) - Fo(170)I = 0,0332. Следовательно,
Dn · Vп = V20Q · 0,0332 "" 0,47. Критическое значение критерия Кол­
могорова равно Ло,05 = Ла = 1,36. Так как DnVn < Ла, то гипотеза Но
согласуется с опытными данными.
Приложения
х2
1 --
Приложение 1. Значение функции <р(х) = м: е 2
v27Г

Сотые доJ1и х
х о 1 2 3 4 5 6 7 8 9
0,0 0,3989 3989 3989 3988 3986 3984 3982 3980 3977 3973
0,1 3970 3965 3961 3956 3951 3945 3939 3932 3925 3918
0,2 3910 3902 3894 3885 3876 3867 3857 3847 3836 3825
0,3 3814 3802 3790 3778 3765 3752 3739 3726 3712 3697
0,4 3683 3668 3653 3637 3721 3605 3588 3572 3555 3538
0,5 3521 3503 3485 3467 3448 3429 3411 3391 3372 3352
0,6 3332 3312 3292 3271 3251 3230 3209 3187 3166 3144
0,7 3123 3101 3079 3056 3034 3011 2989 2966 2943 2920
0,8 2897 2874 2850 2827 2803 2780 2756 2732 2709 2685
0,9 2661 2637 2613 2589 2565 2541 2516 2492 2468 2444
1,0 2420 2396 2371 2347 2323 2299 2275 2251 2227 2203
1,1 2179 2155 2131 2107 2083 2059 2036 2012 1989 1965
1,2 1942 1919 1895 1872 1849 1827 1804 1781 1759 1736
1,3 1714 1692 1669 1647 1626 1604 1582 1561 1540 1518
1,4 1497 1476 1456 1435 1415 1394 1374 1354 1334 1315
1,5 1295 1276 1257 1238 1219 1200 1181 1163 1145 1127
1,6 1109 1092 1074 1057 1040 1023 1006 0989 0973 0957
1,7 0941 0925 0909 0893 0878 0863 0848 0833 0818 0804
1,8 0790 0775 0761 0748 0734 0721 0707 0694 0681 0669
1,9 0656 0644 0632 0620 0608 0596 0584 0573 0562 0551
Десятые доли х
х о 1 2 3 4 5 6 7 8 9
2, 0540 0440 0355 0283 0224 0175 0136 0104 0079 0060
3, 0044 0033 0024 0017 0012 0009 0006 0004 0030 0020
4, 0001
250 • Приложения

Приложение 2. 1
Значение функции Ф 0 (х) = у'2iГ 1" е-2t' dt
о

Сотые доли х
х о 1 2 3 4 5 6 7 8 9
0,0 0,0000 0040 0080 0112 0160 0199 0239 0279 0319 0359
0,1 0398 0438 0478 0517 0557 0596 0636 0675 0714 0754
0,2 0793 0832 0871 0910 0948 0987 1026 1064 1103 1141
0,3 1179 1217 1255 1293 1331 1368 1406 1443 1480 1517
0,4 1554 1591 1628 1664 1700 1736 1772 1808 1844 1879
0,5 1915 1950 1985 2019 2054 2088 2123 2157 2190 2224
0,6 2258 2291 2324 2357 2389 2422 2454 2486 2518 2549
0,7 2580 2612 2642 2673 2704 2734 2764 2794 2823 2852
0,8 2881 2910 2939 2967 2996 3023 3051 3079 3106 3133
0,9 3159 3186 3212 3238 3264 3289 3315 3340 3365 3389
1,0 3413 3438 3461 3485 3508 3531 3553 3577 3599 3621
1,1 3643 3665 3686 3708 3729 3749 3770 3790 3810 3830
1,2 3849 3869 3888 3907 3925 3944 3962 3980 3997 4015
1,3 4032 4049 4066 4082 4099 4115 4131 4147 4162 4177
1,4 4192 4207 4222 4236 4251 4265 4279 4292 4306 4319
1,5 4332 4345 4357 4370 4382 4394 4406 4418 4430 4441
1,6 4452 4463 4474 4485 4495 4505 4515 4525 4535 4545
1,7 4554 4564 4573 4582 4591 4599 4608 4616 4625 4633
1,8 4641 4649 4656 4664 4671 4678 4686 4693 4700 4706
1,9 4713 4719 4726 4732 4738 4744 4750 4756 4762 4767
Десятые доли х
х о 1 2 3 4 5 6 7 8 9
2, 4773 4821 4861 4893 4918 4938 4953 4965 4974 4961
3, 4987 4990 4993 4995 4997 4998 4998 4999 4999 5000 1

1
Точное значение отличается меньше, чем на 5 · 10- 5 •
Приложения • 2

Приложение 3. Квантили x;,k распределения Х~


(k - число степеней свободы)

Уровень значимости а
k 0,01 0,025 0,05 0,95 0,975 0,99
1 6,6 5,0 3,8 0,0039 0,00098 0,00016
2 9,2 7,4 6,0 0,103 0,051 0,020
3 11,3 9,4 7,8 0,352 0,216 0,115
4 13,3 11,1 9,5 0,711 0,484 0,297
5 15,1 12,8 11,1 1,15 0,831 0,554
6 16,8 14,4 12,6 1,64 1,24 0,872
7 18,5 16,0 14,1 2,17 1,69 1,24
8 20,1 17,5 15,5 2,73 2,18 1,65
9 21,7 19,0 16,9 3,33 2,70 2,09
10 23,2 20,5 18,3 3,94 3,25 2,56
11 24,7 21,9 19,7 4,57 3,82 3,05
12 26,2 23,3 21,0 5,23 4,40 3,57
13 27,7 24,7 22,4 5,89 5,01 4,11
14 29,1 26,1 23,7 6,57 5,63 4,66
15 30,6 27,5 25,0 7,26 6,26 5,23
16 32,0 28,8 26,3 7,96 6,91 5,81
17 33,4 30,2 27,6 8,67 7,56 6,41
18 34,8 31,5 28,9 9,39 8,23 7,01
19 36,2 32,9 30,1 10,1 8,91 7,63
20 37,6 34,2 31,4 10,9 9,59 8,26
21 38,9 35,5 32,7 11,6 10,3 8,26
22 40,3 36,8 33,9 12,3 11,0 9,54
23 41,6 38,1 35,2 13,1 11,7 10,2
24 43,0 39,4 36,4 13,8 12,4 10,9
25 44,3 40,6 37,7 14,6 13,1 11,5
26 45,6 41,9 38,9 15,4 13,8 12,2
27 47,0 43,3 40,1 16,2 14,6 12,9
28 48,3 44,5 41,3 16,9 15,3 13,6
29 49,6 45,7 42,6 17.7 16,0 14,3
30 50,9 47,0 43,8 18,5 16,8 15,0
252 • Приложения

Приложение 4. Квантили t-распределения Стьюдента


(k - число степеней свободы)

Уровень значимости а
(двусторонняя критическая область)
k 0,10 0,05 0,02 0,01 0,002 0,001
1 6,31 12,7 31,82 63,7 318,3 637,0
2 2,92 4,30 6,97 9,92 22,33 31,6
3 2,35 3,18 4,54 5,84 10,22 12,9
4 2,13 2,78 3,75 4,60 7,17 8,61
5 2,01 2,57 3,37 4,03 5,89 6,86
6 1,94 2,45 3,14 3,71 5,21 5,96
7 1,89 2,36 3,00 3,50 4,79 5,40
8 1,86 2,31 2,90 3,36 4,50 5,04
9 1,83 2,26 2,82 3,25 4,30 3,78
10 1,81 2,23 2,76 3,17 4,14 4,59
11 1,80 2,20 2,72 3,11 4,03 4,44
12 1,78 2,18 2,68 3,05 3,93 4,32
13 1,77 2,16 2,65 3,01 3,85 4,22
14 1,76 2,14 2,62 2,98 3,79 4,14
15 1,75 2,13 2,60 2,95 3,73 4,07
16 1,75 2,12 2,58 2,92 3,69 4,01
17 1, 74 2,11 2,57 2,90 3,65 3,96
18 1,73 2,10 2,55 2,88 3,61 3,92
19 1,73 2,09 2,54 2,86 3,58 3,88
20 1,73 2,09 2,53 2,85 3,55 3,85
21 1,72 2,08 2,52 2,83 3,53 3,82
22 1,72 2,07 2,51 2,82 3,51 3,79
23 1,71 2,07 2,50 2,81 3,49 3,77
24 1,71 2,06 2,49 2,80 3,47 3,74
25 1,71· 2,06 2,49 2,79 3,45 3,72
26 1,71 2,05 2,48 2,78 3,44 3,71
27 1,71 2,05 2,47 2,77 3,42 3,69
28 1,70 2,05 2,46 2,76 3,40 3,66
29 1,70 2,05 2,46 2,76 3,40 3,66
30 1,70 2,04 2,46 2,75 3,39 3,65
40 1,68 2,02 2,42 2,70 3,31 3,55
60 1,67 2,00 2,39 2,66 3,23 3,46
120 1,66 1,98 2,36 2,62 3,17 3,37
00 1,64 1,96 2,33 2,58 7,09 8,29

Вам также может понравиться