Академический Документы
Профессиональный Документы
Культура Документы
Ю.И. Галанов
Издательство ТПУ
Томск 2016
УДК 519.21(0.75,8)
ББК 22 171 Я73
Б24
УДК 519.21(0.75,8)
ББК 22 171 Я73
3
áâì I
Случайные события и их
вероятности
4
Лекция 1.
6
¥ªæ¨ï 1. ¯¥à 樨 ¤ ᮡëâ¨ï¬¨
7
¥ªæ¨ï 1. ⥬ â¨ç¥áª ï ¬®¤¥«ì á«ãç ©®£® íªá¯¥à¨¬¥â
9
¥ªæ¨ï 1. ⥬ â¨ç¥áª ï ¬®¤¥«ì á«ãç ©®£® íªá¯¥à¨¬¥â
10
¥ªæ¨ï 1. ¥à®ïâ®áâì ᮡëâ¨ï
11
¥ªæ¨ï 1. ⥬ â¨ç¥áª ï ¬®¤¥«ì á«ãç ©®£® íªá¯¥à¨¬¥â
где
𝑚 — число исходов, благоприятствующих событию 𝐴,
𝑛 — общее число исходов опыта.
Достоинство определения – вероятность события можно определить до
опыта. Недостаток – вероятность можно определить только для равновозмож-
ных исходов опыта.
Геометрическая вероятность. В задачах, сводящихся к случайному
бросанию точки на конечный участок прямой, плоскости, трёх- или много-
мерного пространства, когда возможность появления точки внутри некоторой
области в пространстве определяется не положением этой области и её грани-
цами, а только её мерой (мера обозначается как 𝑚𝑒𝑠), т.е. длиной, площадью,
объёмом, то вероятность появления случайной точки внутри некоторой обла-
сти находится как отношение меры этой области к мере всей области, в которой
может появиться данная точка:
𝑚𝑒𝑠 (𝐴)
𝑃 (𝐴) = (1.4.)
𝑚𝑒𝑠 (Ω)
12
¥ªæ¨ï 1. ¥à®ïâ®áâì ᮡëâ¨ï
или
𝑙𝐴 𝑆𝐴 𝑉𝐴
𝑃 (𝐴) = ; 𝑃 (𝐴) = ; 𝑃 (𝐴) = , (1.5.)
𝑙 𝑆 𝑉
соответственно, для отрезка 𝑙 прямой, области 𝑆 на плоскости, области 𝑉 трёх-
мерного пространства. Это определение вероятности называется геометриче-
ским .
13
¥ªæ¨ï 1. ⥬ â¨ç¥áª ï ¬®¤¥«ì á«ãç ©®£® íªá¯¥à¨¬¥â
14
¥ªæ¨ï 1. ¥è¥¨¥ § ¤ ç ª« áá¨ç¥áªãî ¢¥à®ïâ®áâì
𝑃𝑛 = 𝑛 · (𝑛 − 1) · (𝑛 − 2) · . . . · 1 = 𝑛! (1.6.)
𝑚 𝑛!
𝐴𝑛 = 𝑛 · (𝑛 − 1) · (𝑛 − 2) · ... · (𝑛 − 𝑚 + 1) = . (1.7.)
(𝑛 − 𝑚)!
Сочетанием из 𝑛 элементов по 𝑚 называется любое неупорядоченное
подмножество 𝑚 элементов из 𝑛. Число сочетаний 𝐶𝑛𝑚 (от латинского combinare
— соединить) подсчитывается следующим образом. Если во всех сочетаниях
произвести всевозможные перестановки, то мы получим всевозможные разме-
щения. Следовательно, имеет место формула
𝑚 𝐴𝑚
𝑛 𝑛! 𝑛(𝑛 − 1)(𝑛 − 2)...(𝑛 − 𝑚 + 1)
𝐶𝑛 = = = . (1.8.)
𝑚! 𝑚! · (𝑛 − 𝑚)! 𝑚!
Основное свойство сочетаний:
15
¥ªæ¨ï 1. ⥬ â¨ç¥áª ï ¬®¤¥«ì á«ãç ©®£® íªá¯¥à¨¬¥â
16
¥ªæ¨ï 1. ý஢ë¥þ á奬ë á«ãç ©ëå íªá¯¥à¨¬¥â®¢
17
¥ªæ¨ï 1. ⥬ â¨ç¥áª ï ¬®¤¥«ì á«ãç ©®£® íªá¯¥à¨¬¥â
¨á. 1.9. Выбор с возвращением без учёта порядка или размещение 𝑚 элементов по 𝑁
ячейкам
18
¥ªæ¨ï 1. ý஢ë¥þ á奬ë á«ãç ©ëå íªá¯¥à¨¬¥â®¢
19
Лекция 2.
20
¥ªæ¨ï 2. «®¦¥¨¥ ¨ 㬮¦¥¨¥ ¢¥à®ïâ®á⥩
21
¥ªæ¨ï 2. á®¢ë¥ â¥®à¥¬ë ¨ ä®à¬ã«ë ⥮ਨ ¢¥à®ïâ®á⥩
𝑃 (𝐴1 + 𝐴2 + · · · + 𝐴𝑛 ) =
= 𝑃 (𝐴1 ) + 𝑃 (𝐴2 ) + · · · + 𝑃 (𝐴𝑛 ) − 𝑃 (𝐴1 𝐴2 )−
· · · − 𝑃 (𝐴1 𝐴3 ) − · · · − 𝑃 (𝐴𝑛−1 𝐴𝑛 ) − 𝑃 (𝐴1 𝐴2 𝐴3 )−
− 𝑃 (𝐴𝑛−2 𝐴𝑛−1 𝐴𝑛 ) − · · · − 𝑃 (𝐴1 𝐴2 · · · 𝐴𝑛 ). (2.4.)
22
¥ªæ¨ï 2. «®¦¥¨¥ ¨ 㬮¦¥¨¥ ¢¥à®ïâ®á⥩
𝑃 (𝐴) = 1 − 𝑃 (𝐴1 + 𝐴2 + 𝐴3 + · · · + 𝐴𝑛 ) =
= 1 − 𝑃 (𝐴1 · 𝐴2 · 𝐴3 · . . . · 𝐴𝑛 ) = (2.5.)
(︀ )︀ (︀ )︀ (︀ )︀ (︀ )︀
= 1 − 𝑃 𝐴1 · 𝑃 𝐴2 · 𝑃 𝐴3 · . . . · 𝑃 𝐴𝑛 .
Или
𝑃 (𝐴) = 1 − 𝑞1 𝑞2 · · · 𝑞𝑛 , (2.6.)
где 𝑞𝑖 = 1 − 𝑃𝑖 .
Частный случай: если 𝑃1 = 𝑃2 = . . . = 𝑃𝑛 = 𝑃, 1 − 𝑃 = 𝑞, то
𝑃 (𝐴) = 1 − 𝑞 𝑛 .
Формула полной вероятности. Пусть событие 𝐴 может произойти
совместно с одним из событий 𝐻1 , 𝐻2 , . . .∑︀
, 𝐻𝑛 , которые попарно несовместны
и образуют полную группу событий, т.е. 𝑛𝑖=1 𝐻𝑖 = Ω, а, 𝐻𝑖 ∩ 𝐻𝑖 = ∅, 𝑖 ̸= 𝑗 и
𝑃 (𝐻1 ) + 𝑃 (𝐻2 ) + . . . + 𝑃 (𝐻𝑛 ) = 1.
События 𝐻𝑖 называются гипотезами. Тогда любое событие можно пред-
ставить в виде суммы непересекающихся составляющих: 𝐴 = 𝐴 · 𝐻𝑖 . (См.
∑︀
𝑖
рис. 2.2)
23
¥ªæ¨ï 2. á®¢ë¥ â¥®à¥¬ë ¨ ä®à¬ã«ë ⥮ਨ ¢¥à®ïâ®á⥩
24
¥ªæ¨ï 2. ®¢â®àë¥ ¥§ ¢¨á¨¬ë¥ ¨á¯ëâ ¨ï. 奬 ¥àã««¨.
¨á. 2.3. Пример реализации серии независимых испытаний. Светлые точки — событие
произошло; тёмные точки — событие не произошло
25
¥ªæ¨ï 2. á®¢ë¥ â¥®à¥¬ë ¨ ä®à¬ã«ë ⥮ਨ ¢¥à®ïâ®á⥩
𝑛𝑝 − 𝑞 6 𝑚0 6 𝑛𝑝 + 𝑝, (2.13.)
26
¥ªæ¨ï 2. ।¥«ìë¥ ¯à¨¡«¨¦¥¨ï ¢ á奬¥ ¥àã««¨
27
¥ªæ¨ï 2. á®¢ë¥ â¥®à¥¬ë ¨ ä®à¬ã«ë ⥮ਨ ¢¥à®ïâ®á⥩
1
𝑃𝑛 (𝑚) = √ 𝜙(𝑥(𝑚)), (2.16.)
𝑛𝑝𝑞
где
(︂ 2 )︂
1 𝑥 𝑚 − 𝑛𝑝
𝜙(𝑥) = √ exp − , 𝑥(𝑚) = √ , 𝑞 = 1 − 𝑝.
2𝜋 2 𝑛𝑝𝑞
Функция 𝜙(𝑥) называется функцией Гаусса; она является чётной, т.е.
𝜙(−𝑥) = 𝜙(𝑥); для неё составлены подробные таблицы.
На практике при большом числе испытаний 𝑛 и не слишком малой ве-
роятности 𝑝 важно оценить вероятность того, что число появлений события 𝐴
лежит в некоторых границах. Эту оценку устанавливает
Теорема 2.6. Интегральная теорема Муавра – Лапласа. Если вероят-
ность 𝑝 наступления события 𝐴 в каждом испытании постоянна, при-
чём 0 < 𝑝 < 1, то вероятность того, что событие 𝐴 появится в испы-
таниях от 𝑚 до 𝑚 раз, приближённо равна
1 2
28
¥ªæ¨ï 2. ⪫®¥¨¥ ç áâ®âë ®â ¢¥à®ïâ®áâ¨
(︂⃒ ⃒ )︂ (︂⃒ ⃒ √︂ )︂ (︂ √︂ )︂ (︂ √︂ )︂
⃒𝑚 ⃒ ⃒ 𝑚 − 𝑛𝑝 ⃒ 𝑛 𝑛 𝑛
𝑃 ⃒⃒ − 𝑝⃒⃒ 6 𝜀 = 𝑃 ⃒⃒ √ ⃒6𝜀· ≈Φ 𝜀 − Φ −𝜀 =
𝑛 𝑛𝑝𝑞 ⃒ 𝑝𝑞 𝑝𝑞 𝑝𝑞
(︂ √︂ )︂
𝑛
= 2Φ 𝜀
𝑝𝑞
(2.18.)
29
¥ªæ¨ï 2. á®¢ë¥ â¥®à¥¬ë ¨ ä®à¬ã«ë ⥮ਨ ¢¥à®ïâ®á⥩
30
Лекция 3.
31
¥ªæ¨ï 3. «ãç ©ë¥ ¢¥«¨ç¨ë ¨ ¨å § ª®ë à á¯à¥¤¥«¥¨ï
32
¥ªæ¨ï 3. «ãç ©ë¥ ¢¥«¨ç¨ë
0 6 𝐹 (𝑥) 6 1.
lim 𝐹 (𝑥) = 𝑃 (𝑥 6 𝑥0 ).
𝑥→𝑥0 +0
Функция 𝐹 (𝑥) может иметь разрывы только первого рода, причём в силу
монотонности 𝐹 (𝑥) и неравенства 06 𝐹 (𝑥) 61 таких скачков конечное или
счётное множество.
5.
lim 𝐹 (𝑥) = 0 ⇐⇒ { Невозможное событие},
𝑥→−∞
𝑋 = {𝑥1 , 𝑥2 , . . . , 𝑥𝑛 }.
33
¥ªæ¨ï 3. «ãç ©ë¥ ¢¥«¨ç¨ë ¨ ¨å § ª®ë à á¯à¥¤¥«¥¨ï
𝑝𝑖 = 𝑃 (𝑋 = 𝑥𝑖 ) = 𝐹 (𝑥𝑖 + 0) − 𝐹 (𝑥𝑖 ).
Таким образом, функция распределения дискретной случайной величины
является кусочно-непрерывной, в точках разрыва 𝑥𝑖 имеет скачки 𝑃𝑖 и непре-
рывна слева в точках разрыва 𝑥𝑖 .
34
¥ªæ¨ï 3. «ãç ©ë¥ ¢¥«¨ç¨ë
Свойства 𝑓 (𝑥):
∫︁𝑥
𝐹 (𝑥) = 𝑓 (𝑡)𝑑𝑡; (3.7.)
−∞
𝑓 (𝑥) > 0, т.е. не отрицательная функция; (3.8.)
∫︁𝑏
𝑃 (𝑎 6 𝑥 < 𝑏) = 𝐹 (𝑏) − 𝐹 (𝑎) = 𝑓 (𝑥)𝑑𝑥; (3.9.)
𝑎
∫︁+∞
𝑓 (𝑥)𝑑𝑥 = 1; условие нормировки. (3.10.)
−∞
35
¥ªæ¨ï 3. «ãç ©ë¥ ¢¥«¨ç¨ë ¨ ¨å § ª®ë à á¯à¥¤¥«¥¨ï
𝑥1 𝑚1 + 𝑥2 𝑚2 + . . . + 𝑥𝑘 𝑚𝑘 𝑚1 𝑚2 𝑚𝑘
𝑥= = 𝑥1 + 𝑥2 + . . . + 𝑥𝑘 =
𝑛 𝑛 𝑛 𝑛
= 𝑥1 𝑝1 * +𝑥2 𝑝2 * + . . . + 𝑥𝑘 𝑝𝑘 *,
𝑚𝑖
где 𝑝𝑖 * = — относительная частота значения 𝑥𝑖 .
𝑛
Если число опытов достаточно велико, то относительная частота прибли-
жённо равна вероятности события. Таким образом, математическое ожидание
36
¥ªæ¨ï 3. ¨á«®¢ë¥ å à ªâ¥à¨á⨪¨ á«ãç ©ëå ¢¥«¨ç¨
т.е. математическое ожидание есть абсцисса центра масс данной системы мате-
риальных точек.
Пусть 𝑋 — непрерывная случайная величина и 𝑓 (𝑥) — её дифференци-
альная функция распределения или плотность вероятности.
Математическим ожиданием непрерывной случайной величины 𝑋 назы-
вается число
∫︁∞
𝑀 [𝑋] = 𝑚𝑥 = 𝑥𝑓 (𝑥)𝑑𝑥, (3.13.)
−∞
37
¥ªæ¨ï 3. «ãç ©ë¥ ¢¥«¨ç¨ë ¨ ¨å § ª®ë à á¯à¥¤¥«¥¨ï
Итак, ∫︁ +∞
2
𝐷[𝑋] = 𝑀 [𝑋 ] − 𝑚2𝑋 = 𝑥2 𝑓 (𝑥)𝑑𝑥 − 𝑚2𝑋 , (3.19.)
−∞
то есть дисперсия случайной величины 𝑋 равна разности математического
ожидания квадрата случайной величины и квадрата математического ожида-
ния.
Формула (3.19.) удобна для практического вычисления дисперсии. Раз-
мерность
√︀ дисперсии равна квадрату размерности величины 𝑋 . Величина
𝜎[𝑋] = 𝐷[𝑋] называется средним квадратичным отклонением случайной ве-
личины.
Её размерность совпадает с размерностью величины 𝑋 .
Вероятностный смысл дисперсии: дисперсия измеряет меру рассеивания
значений случайной величины 𝑋 относительно своего математического ожи-
дания.
38
¥ªæ¨ï 3. ¨á«®¢ë¥ å à ªâ¥à¨á⨪¨ á«ãç ©ëå ¢¥«¨ç¨
𝑘
𝑘
]︀ ∑︁
(−1)𝑖 · 𝐶𝑘𝑖 · 𝑚𝑖 · 𝛼𝑘−𝑖
[︀
𝜇𝑘 = 𝑀 (𝑥 − 𝑀 [𝑥]) = (3.22.)
𝑖=0
39
¥ªæ¨ï 3. «ãç ©ë¥ ¢¥«¨ç¨ë ¨ ¨å § ª®ë à á¯à¥¤¥«¥¨ï
𝜇3
𝛾1 = (3.23.)
𝜎3
𝜇4
𝛾2 = 4 − 3 (3.24.)
𝜎
40
¥ªæ¨ï 3. ¨á«®¢ë¥ å à ªâ¥à¨á⨪¨ á«ãç ©ëå ¢¥«¨ç¨
𝑥 0 1 2 3 ... 𝑛
𝑝 (1 − 𝑝)𝑛 𝑛𝑝(1 − 𝑝)𝑛−1 𝐶𝑛2 𝑝2 (1 − 𝑝)𝑛−2 𝐶𝑛3 𝑝3 (1 − 𝑝)𝑛−3 ... 𝑝𝑛
Математическое ожидание
𝑀 [𝑋] = 𝑛 · 𝑝. (3.26.)
Дисперсия
𝐷[𝑋] = 𝑛 · 𝑝 · (1 − 𝑝) (3.27.)
41
¥ªæ¨ï 3. «ãç ©ë¥ ¢¥«¨ç¨ë ¨ ¨å § ª®ë à á¯à¥¤¥«¥¨ï
𝜆𝑘 𝑒−𝜆
𝑃𝑛 (𝑘) = , (3.29.)
𝑘!
где 𝜆 — параметр распределения (однопараметрическое распределение).
Замечание. Пуассоновское распределение является предельным для би-
номиального распределения. Дискретная случайная величина 𝑋 распределена
по закону Пуассона, если число испытаний велико, а вероятность 𝑝 появления
события в каждом испытании в схеме Бернулли очень мала и 𝜆 = 𝑛·𝑝 — среднее
число появлений события в 𝑛 испытаниях. Случайная величина 𝑋 имеет ряд
распределения:
𝑥 0 1 2 3 ... 𝑚 ...
2 3 𝑚
𝜆 −𝜆 𝜆 −𝜆 𝜆 −𝜆
𝑝 𝑒−𝜆 𝜆𝑒−𝜆 𝑒 𝑒 ... 𝑒 ...
2! 3! 𝑚!
√
𝑀 [𝑥] = 𝜆; 𝐷[𝑥] = 𝜆; 𝜎[𝑋] = 𝜆. (3.30.)
42
¥ªæ¨ï 3. ¨á«®¢ë¥ å à ªâ¥à¨á⨪¨ á«ãç ©ëå ¢¥«¨ç¨
∫︁𝛽
𝛽−𝛼
𝑃 (𝛼 < 𝑥 < 𝛽) = 𝑓 (𝑥)𝑑𝑥 = . (3.33.)
𝑏−𝑎
𝛼
(𝑏 − 𝑎)2 𝑏−𝑎
𝐷[𝑥] = , 𝜎[𝑋] = √ . (3.35.)
12 2 3
Пример . Ошибка отсчёта показаний стрелочного прибора распределена
равномерно на отрезке, равном цене деления.
Экспоненциальное распределение. Непрерыв-
Определение 3.8.
ная случайная величина 𝑋 называется распределённой по экспоненциаль-
ному (показательному) закону, если дифференциальная функция распре-
деления имеет вид: {︂
0, 𝑥<0
𝑓 (𝑥) = −𝜆𝑥 , (3.36.)
𝜆𝑒 , 𝑥 > 0
где 𝜆 — параметр распределения. Интегральная функция распределения
имеет вид: ∫︁ {︂𝑥
0, 𝑥<0
𝐹 (𝑥) = 𝑓 (𝑡)𝑑𝑡 = −𝜆𝑥 . (3.37.)
1−𝑒 , 𝑥>0
−∞
43
¥ªæ¨ï 3. «ãç ©ë¥ ¢¥«¨ç¨ë ¨ ¨å § ª®ë à á¯à¥¤¥«¥¨ï
1 1 1
𝑀 [𝑥] = , 𝐷[𝑥] = 2 , 𝜎[𝑥] = . (3.38.)
𝜆 𝜆 𝜆
Эти формулы устанавливают вероятностный смысл параметра 𝜆.
Вероятность попадания в интервал (𝛼, 𝛽) даётся выражением:
∫︁𝛽
𝑃 (𝛼 6 𝑥 < 𝛽) = 𝑓 (𝑥)𝑑𝑥 = 𝑒−𝜆𝛼 − 𝑒−𝜆𝛽 . (3.39.)
𝛼
44
¥ªæ¨ï 3. ¨á«®¢ë¥ å à ªâ¥à¨á⨪¨ á«ãç ©ëå ¢¥«¨ç¨
Именно (︂ )︂
1 𝑥−𝑎
𝐹 (𝑥) = + Φ . (3.44.)
2 𝜎
Функция Φ(𝑥) — нечетная.
45
¥ªæ¨ï 3. «ãç ©ë¥ ¢¥«¨ç¨ë ¨ ¨å § ª®ë à á¯à¥¤¥«¥¨ï
(︂ )︂ (︂ )︂
𝛽−𝑎 𝛼−𝑎
𝑃 (𝛼 6 𝑥 < 𝛽) = 𝐹 (𝛽) − 𝐹 (𝛼) = Φ −Φ . (3.47.)
𝜎 𝜎
Если 𝛼 = 𝑎 − 𝛿 , 𝛽 = 𝑎 + 𝛿 , где 𝛿 — произвольное число, то
(︂ )︂ (︂ )︂ (︂ )︂
𝛿 𝛿 𝛿
𝑃 (𝑎 − 𝛿 6 𝑥 < 𝑎 + 𝛿) = Φ −Φ − = 2Φ .
𝜎 𝜎 𝜎
При 𝛿 = 3𝜎
46
¥ªæ¨ï 3. ¨á«®¢ë¥ å à ªâ¥à¨á⨪¨ á«ãç ©ëå ¢¥«¨ç¨
47
¥ªæ¨ï 3. «ãç ©ë¥ ¢¥«¨ç¨ë ¨ ¨å § ª®ë à á¯à¥¤¥«¥¨ï
48
¥ªæ¨ï 3. ¨á«®¢ë¥ å à ªâ¥à¨á⨪¨ á«ãç ©ëå ¢¥«¨ç¨
49
Лекция 4.
... ...
50
¥ªæ¨ï 4. ª®ë à á¯à¥¤¥«¥¨ï ¤¢ã嬥ன
¡«¨æ 4.1.
Ряд распределения системы из двух дискретных случайных величин
𝑋
𝑌
𝑥1 𝑥2 ... 𝑥𝑛
𝑦1 𝑝11 𝑝12 ... 𝑝1𝑛
𝑦2 𝑝21 𝑝22 ... 𝑝2𝑛
... ... ... ... ...
𝑦𝑚 𝑝𝑚1 𝑝𝑚2 ... 𝑝𝑚𝑛
частные за-
𝑗=1 𝑖=1
Зная матрицу распределения системы (𝑋, 𝑌 ), можно найти
коны распределения СВ 𝑋 и 𝑌 , входящих в систему.
Так, СВ 𝑋 принимает значение 𝑥𝑖 в комбинациях
𝐴 = (𝑋 = 𝑥𝑖 ) = (𝑋 = 𝑥𝑖 , 𝑌 = 𝑦1 ) ∪ (𝑋 = 𝑥𝑖 , 𝑌 = 𝑦2 ) ∪ . . .
. . . ∪ (𝑋 = 𝑥𝑖 , 𝑌 = 𝑦𝑚 ) (4.1.)
51
¥ªæ¨ï 4. ®£®¬¥àë¥ á«ãç ©ë¥ ¢¥«¨ç¨ë
(𝑖– фиксировано).
Аналогично находится закон распределения СВ 𝑌 . В результате мы по-
лучаем следующие ряды распределения:
¡«¨æ 4.2. ¡«¨æ 4.3.
Ряд распределения СВ 𝑋 Ряд распределения СВ 𝑌
𝑋 𝑥1 𝑥2 ... 𝑥𝑛 𝑌 𝑦1 𝑦2 ... 𝑦𝑚
𝑚
∑︀ 𝑚
∑︀ 𝑚
∑︀ 𝑛
∑︀ 𝑛
∑︀ 𝑛
∑︀
𝑝𝑥 𝑝𝑗1 𝑝𝑗2 ... 𝑝𝑗𝑚 𝑝𝑦 𝑝1𝑖 𝑝2𝑖 ... 𝑝𝑚𝑖
𝑗=1 𝑗=1 𝑗=1 𝑖=1 𝑖=1 𝑖=1
𝑋 𝑥1 𝑥2 𝑥3 ... 𝑥𝑛
𝑝 𝑝1 𝑝2 𝑝3 ... 𝑝𝑛
𝑋 𝑥1 𝑥2 ... 𝑥𝑛
𝑌 𝜙 (𝑥1 ) 𝜙 (𝑥2 ) ... 𝜙 (𝑥𝑛 )
𝑝 𝑝1 𝑝2 ... 𝑝𝑛
𝑃 (𝑌 = 𝜙 (𝑥𝑖 )) = 𝑃 (𝑋 = 𝑥𝑖 ) + 𝑃 (𝑋 = 𝑥𝑗 ) = 𝑃𝑖 + 𝑃𝑗
Пусть 𝑋 и 𝑌 – дискретные независимые СВ с законами распределения
52
¥ªæ¨ï 4. ª®ë à á¯à¥¤¥«¥¨ï ¤¢ã嬥ன
𝑋 𝑥1 𝑥2 ... 𝑥𝑛 𝑌 𝑦1 𝑦2 ... 𝑦𝑚
𝑝𝑥 𝑝1 𝑝2 ... 𝑝𝑚 𝑝𝑦 𝑝1 𝑝2 ... 𝑝𝑚
𝑃 (𝑍𝑖𝑗 ) = 𝑝𝑖 · 𝑝𝑗 (4.2.)
𝑃 (𝑍𝑖𝑗 ) = 𝑝𝑖 · 𝑝𝑗
Если среди значений 𝑍𝑖𝑗 есть одинаковые, то нужно сложить их вероят-
ности.
53
¥ªæ¨ï 4. ®£®¬¥àë¥ á«ãç ©ë¥ ¢¥«¨ç¨ë
4. lim 𝐹 (𝑥, 𝑦) = 0,
𝑦→−∞
5. lim 𝐹 (𝑥, 𝑦) = 0,
𝑥 → −∞
𝑦 → −∞
6. lim 𝐹 (𝑥, 𝑦) = 1,
𝑥 → +∞
𝑦 → +∞
Первые три предела соответствуют вероятностям невозможных событий а чет-
вёртый – достоверного события.
Частные функции распределения для СВ 𝑋 и 𝑌 𝐹1 (𝑥) и 𝐹2 (𝑦) получим с
помощью следующих преобразований:
54
¥ªæ¨ï 4. ª®ë à á¯à¥¤¥«¥¨ï ¤¢ã嬥ன
𝑃 (𝑥1 6 𝑋 6 𝑥2 , 𝑦1 6 𝑌 6 𝑦2 ) =
= [𝐹 (𝑥2 , 𝑦2 ) − 𝐹 (𝑥1 , 𝑦2 )] − [𝐹 (𝑥2 , 𝑦1 ) − 𝐹 (𝑥1 , 𝑦1 )] =
= [𝐹 (𝑥1 , 𝑦1 ) + 𝐹 (𝑥2 , 𝑦2 )] − [𝐹 (𝑥1 , 𝑦2 ) + 𝐹 (𝑥2 , 𝑦1 )] (4.5.)
Неотрицательность.
𝑓 (𝑥, 𝑦) > 0, ∀𝑥, 𝑦 6 𝑅; (4.7.)
∫︁𝑥 ∫︁𝑦
𝐹 (𝑥, 𝑦) = 𝑓 (𝑥, 𝑦) 𝑑𝑥𝑑𝑦; (4.9.)
−∞ −∞
Условие нормировки.
∫︁+∞ ∫︁+∞
𝑓 (𝑥, 𝑦) 𝑑𝑥𝑑𝑦 = 1; (4.10.)
−∞ −∞
55
¥ªæ¨ï 4. ®£®¬¥àë¥ á«ãç ©ë¥ ¢¥«¨ç¨ë
∫︁𝑦
⎡ +∞ ⎤
∫︁
𝐹2 (𝑦) = ⎣ 𝑓 (𝑥, 𝑦) 𝑑𝑥⎦𝑑𝑦; (4.12.)
−∞ −∞
∫︁+∞ ∫︁+∞
𝑓1 (𝑥) = 𝑓 (𝑥, 𝑦) 𝑑𝑦, 𝑓2 (𝑦) = 𝑓 (𝑥, 𝑦) 𝑑𝑥. (4.13.)
−∞ −∞
𝑃 (𝐴) = 𝑃 (𝐵𝐶) =
{︃
𝑃 (𝐵) · 𝑃 (𝐶) 𝐵 и 𝐶 независимы
= (4.14.)
𝑃 (𝐵) · 𝑃 (𝐶 |𝐵 ) = 𝑃 (𝐶) · 𝑃 (𝐵 |𝐶 ) 𝐵 и 𝐶 зависимы
56
¥ªæ¨ï 4. ª®ë à á¯à¥¤¥«¥¨ï ¤¢ã嬥ன
Условные вероятности
𝑃 (𝑋 = 𝑥𝑖 , 𝑌 = 𝑦𝑗 ) 𝑝𝑖𝑗
𝑃 (𝑌 = 𝑦𝑗 | 𝑋 = 𝑥𝑖 ) = = (4.15.)
𝑃 (𝑋 = 𝑥𝑖 ) 𝑝𝑖
𝑃 (𝑋 = 𝑥𝑖 , 𝑌 = 𝑦𝑗 ) 𝑝𝑖𝑗
𝑃 (𝑋 = 𝑥𝑖 | 𝑌 = 𝑦𝑗 ) = = (4.16.)
𝑃 (𝑌 = 𝑦𝑗 ) 𝑝𝑗
и есть условные законы распределения двух дискретных случайных величин,
входящих в систему.
Если случайные величины независимы, то из условия независимости
(4.14.) следует, что 𝑝𝑖𝑗 = 𝑝𝑗 · 𝑝𝑖 и условные распределения совпадают с без-
условными:
𝑝𝑗𝑖 𝑝𝑗 · 𝑝𝑖
𝑃 (𝑦 | 𝑋 = 𝑥𝑖 ) = = = 𝑝𝑗
𝑝𝑖 𝑝𝑖
𝑝𝑗𝑖 𝑝 𝑗 · 𝑝𝑖
𝑃 (𝑥 | 𝑌 = 𝑦𝑗 ) = = = 𝑝𝑖 (4.17.)
𝑝𝑗 𝑝𝑗
Условные функции распределения дискретных СВ вводятся аналогично:
𝑃 (𝑌 < 𝑦, 𝑋 = 𝑥𝑖 )
𝐹 (𝑦 | 𝑋 = 𝑥𝑖 ) = 𝑃 (𝑌 < 𝑦 | 𝑋 = 𝑥𝑖 ) =
𝑃 (𝑋 = 𝑥𝑖 )
𝑃 (𝑋 < 𝑥, 𝑌 = 𝑦𝑗 )
𝐹 (𝑥 | 𝑌 = 𝑦𝑗 ) = 𝑃 (𝑋 < 𝑥 | 𝑌 = 𝑦𝑗 ) = (4.18.)
𝑃 (𝑌 = 𝑦𝑗 )
Непрерывные СВ
57
¥ªæ¨ï 4. ®£®¬¥àë¥ á«ãç ©ë¥ ¢¥«¨ç¨ë
58
¥ªæ¨ï 4. ¨á«®¢ë¥ å à ªâ¥à¨á⨪¨ á¨á⥬ë
∑︁ ∑︁ ∑︁ ∑︁ ∑︁
𝑀 [𝑥] = 𝑚𝑥 = 𝑥 𝑖 𝑝𝑖 = 𝑥𝑖 𝑝𝑖𝑗 = 𝑥𝑖 𝑝𝑖𝑗 .
𝑖 𝑖 𝑗 𝑖 𝑗
∑︁ ∑︁ ∑︁ ∑︁ ∑︁
𝑀 [𝑦] = 𝑚𝑦 = 𝑦 𝑗 𝑝𝑗 = 𝑦𝑗 𝑝𝑖𝑗 = 𝑦𝑗 𝑝𝑖𝑗 .
𝑗 𝑗 𝑖 𝑗 𝑖
Если 𝑍 = 𝜙 (𝑋), то
𝑛
∑︁ 𝑚 ∑︁
∑︁ 𝑛
𝑀 [𝑍] = 𝑝𝑖 𝜙(𝑥𝑗 ) = 𝑝𝑗𝑖 𝜙(𝑥𝑗 ).
𝑖=1 𝑗=1 𝑖=1
Если 𝑍 = Ψ (𝑌 ), то
𝑚
∑︁ 𝑛 ∑︁
∑︁ 𝑚
𝑀 [𝑍] = 𝑝𝑗 Ψ(𝑦𝑗 ) = 𝑝𝑗𝑖 Ψ (𝑦𝑗 ).
𝑗=1 𝑖=1 𝑗=1
∫︁ ∫︁ ∫︁+∞
𝑀 [𝑋] = 𝑚𝑥 = 𝑥 · 𝑓 (𝑥, 𝑦) 𝑑𝑥𝑑𝑦 = 𝑥 · 𝑓1 (𝑥) 𝑑𝑥
𝐷 −∞
∫︁ ∫︁ ∫︁+∞
𝑀 [𝑌 ] = 𝑚𝑦 = 𝑦 · 𝑓 (𝑥, 𝑦) 𝑑𝑥𝑑𝑦 = 𝑦 · 𝑓2 (𝑦) 𝑑𝑦.
𝐷 −∞
59
¥ªæ¨ï 4. ®£®¬¥àë¥ á«ãç ©ë¥ ¢¥«¨ç¨ë
Если 𝑍 = 𝜙 (𝑥), то
∫︁ ∫︁
𝑀 [𝑍] = 𝑚𝑧 = 𝜙 (𝑥) · 𝑓 (𝑥, 𝑦) 𝑑𝑥𝑑𝑦
𝐷
Если 𝑍 = 𝜙 (𝑋, 𝑌 ), то
∫︁ ∫︁
𝑀 [𝑍] = 𝑚𝑧 = 𝜙 (𝑥, 𝑦) · 𝑓 (𝑥, 𝑦) 𝑑𝑥𝑑𝑦.
𝐷
∫︁+∞
𝐷[𝑋] = (𝑥 − 𝑚𝑥 )2 · 𝑓1 (𝑥) 𝑑𝑥;
−∞
∫︁+∞
𝐷[𝑌 ] = (𝑦 − 𝑚𝑦 )2 · 𝑓2 (𝑦) 𝑑𝑦;
−∞
или
∫︁+∞
𝑥2 · 𝑓1 (𝑥) 𝑑𝑥 − 𝑚2𝑥 = 𝑀 𝑋 2 − 𝑚2𝑥
[︀ ]︀
𝐷[𝑋] =
−∞
∫︁+∞
𝑦 2 · 𝑓2 (𝑦) 𝑑𝑦 − 𝑚2𝑦 = 𝑀 𝑌 2 − 𝑚2𝑦 .
[︀ ]︀
𝐷[𝑌 ] =
−∞
60
¥ªæ¨ï 4. ¨á«®¢ë¥ å à ªâ¥à¨á⨪¨ á¨á⥬ë
cov (𝑋, 𝑌 ) = 𝑀 [𝑋 · 𝑌 ] − 𝑚𝑥 𝑚𝑦
Безразмерная величина
𝐾𝑥,𝑦 𝑐𝑜𝑣 (𝑋, 𝑌 )
𝜌𝑥,𝑦 = =
𝜎𝑥 𝜎𝑦 𝜎𝑥 𝜎𝑦
называется коэффициентом корреляции .
Если 𝜌𝑥,𝑦 = 0, то С.В. 𝑋 и 𝑌 называются некоррелированными; если 𝜌𝑥,𝑦 ̸=
0, то 𝑋 и 𝑌 коррелированы.
61
¥ªæ¨ï 4. ®£®¬¥àë¥ á«ãç ©ë¥ ¢¥«¨ç¨ë
62
¥ªæ¨ï 4. ¢®©á⢠ç¨á«®¢ëå å à ªâ¥à¨á⨪
Свойства ковариации
1. Ковариация симметрична относительно своих аргументов: cov(𝑋, 𝑌 ) =
cov(𝑌, 𝑋) – это следует из определения.
2. Если С.В. 𝑋 и 𝑌 независимы, то они некоррелированы.
Действительно, для независимых С.В. 𝑋 и 𝑌 𝑌 𝑓1 (𝑥) · 𝑓2 (𝑦) = 𝑓 (𝑥, 𝑦).
Тогда
∫︁+∞ ∫︁+∞
cov (𝑋, 𝑌 ) = 𝑥𝑦 · 𝑓1 (𝑥) 𝑓2 (𝑦) 𝑑𝑥𝑑𝑦 − 𝑚𝑥 𝑚𝑦 =
−∞ −∞
∫︁+∞ ∫︁+∞
= 𝑥 · 𝑓1 (𝑥) 𝑑𝑥 · 𝑦 · 𝑓2 (𝑦) 𝑑𝑦 − 𝑚𝑥 𝑚𝑦 =𝑚𝑥 𝑚𝑦 − 𝑚𝑥 𝑚𝑦 = 0
−∞ −∞
63
¥ªæ¨ï 4. ®£®¬¥àë¥ á«ãç ©ë¥ ¢¥«¨ç¨ë
̃︀ ± 𝑌̃︀ )2 > 0
(𝑋
̃︀ ± 𝑌̃︀ )2 > 0
[︀ ]︀
𝑀 (𝑋 (4.28.)
̃︀ 2 + 𝑌̃︀ 2 ]︀
[︀ 𝑋 [︀ ]︀
𝑀 > ∓𝑀 𝑋 ̃︀ 𝑌̃︀ (4.29.)
2
Найдем математическое ожидание от левой и правой частей этого нера-
венства:
[︀ 2 ]︀ [︀ ]︀
𝑀 𝑋̃︀ +𝑀 𝑌̃︀ 2 [︀ ]︀
> ∓𝑀 𝑋 ̃︀ · 𝑌̃︀ = ∓𝜌𝑋,𝑌 (4.30.)
2
или, с учётом свойств стандартных величин
64
¥ªæ¨ï 4. ¢®©á⢠ç¨á«®¢ëå å à ªâ¥à¨á⨪
𝑚𝑌 = 𝑎 · 𝑚𝑋 + 𝑏
𝜎𝑌2 = 𝑎2 · 𝜎𝑋2
, 𝜎𝑌 =| 𝑎 | ·𝜎𝑋
[︀ ]︀
cov(𝑋, 𝑌 ) = 𝑀 (𝑋 − 𝑚𝑥 )(𝑎𝑋 + 𝑏 − 𝑎𝑚𝑥 − 𝑏) =
= 𝑀 𝑎(𝑋 − 𝑚𝑥 )2 = 𝑎 · 𝜎𝑋 2
[︀ ]︀
2
при 𝑎 > 0
{︂
𝑎 · 𝜎𝑋 𝑎 1,
𝜌𝑥,𝑦 = = = .
| 𝑎 | ·𝜎𝑋2
|𝑎| −1, при 𝑎 < 0
Пусть теперь 𝜌𝑥,𝑦 = ±1. Строгое равенство соответствует строгому равен-
ству в выражении (4.28.).
̃︀ ± 𝑌̃︀ )2 = 0.
[︀ ]︀
𝑀 (𝑋
Но равенство нулю математического ожидания неотрицательной величины воз-
можно лишь в том случае, если она тождественно равна нулю. Тогда
̃︀ ± 𝑌̃︀ )2 = 0 ⇒ (𝑋
(𝑋 ̃︀ ± 𝑌̃︀ ) = 0 ⇒ ±𝑋
̃︀ = 𝑌̃︀ . (4.31.)
Отсюда получаем
𝜎𝑦 𝜎𝑦
𝑌 =± ·𝑋 ∓ · 𝑚𝑥 = 𝑎 · 𝑋 + 𝑏, (4.32.)
𝜎𝑥 𝜎𝑥
т.е случайные величины связаны функциональной зависимостью.
65
¥ªæ¨ï 4. ®£®¬¥àë¥ á«ãç ©ë¥ ¢¥«¨ç¨ë
𝑃 (𝑋 = 𝑥𝑖 , 𝑌 = 𝑦𝑗 ) 𝑃𝑖𝑗
𝑃 (𝑋 = 𝑥𝑖 |𝑌 = 𝑦𝑗 ) = =
𝑃 (𝑌 = 𝑦𝑗 ) 𝑃𝑗
и ряд распределения 𝑌 при 𝑋 = 𝑥𝑖 − фиксированном по формуле
𝑃 (𝑌 = 𝑦𝑗 , 𝑋 = 𝑥𝑖 ) 𝑃𝑗𝑖
𝑃 (𝑌 = 𝑦𝑗 |𝑋 = 𝑥𝑖 ) = = .
𝑃 (𝑋 = 𝑥𝑖 ) 𝑃𝑖
Тогда условные математические ожидания находим по формулам:
𝑛
𝑃1𝑗 𝑃2𝑗 𝑃𝑛𝑗 ∑︁ 𝑃𝑖𝑗
𝑀 [𝑋|𝑌 = 𝑦𝑗 ] = 𝑥1 · + 𝑥2 · + . . . + 𝑥𝑛 · = 𝑥𝑖 · ,
𝑃𝑗 𝑃𝑗 𝑃𝑗 𝑖=1
𝑃 𝑗
𝑚
𝑃1𝑖 𝑃2𝑖 𝑃𝑚𝑗 ∑︁ 𝑃𝑗𝑖
𝑀 [𝑌 |𝑋 = 𝑥𝑖 ] = 𝑦1 · + 𝑦2 · + . . . + 𝑦𝑚 · = 𝑦𝑗 · .
𝑃𝑖 𝑃𝑖 𝑃𝑗 𝑗=1
𝑃𝑖
∫︁+∞
𝑀 [𝑋|𝑌 = 𝑦 ] = 𝑦 · 𝑓 (𝑥|𝑦 ) 𝑑𝑥, (4.33.)
−∞
∫︁+∞
𝑀 [𝑌 |𝑋 = 𝑥 ] = 𝑦 · 𝑓 (𝑦|𝑥 ) 𝑑𝑦 (4.34.)
−∞
66
¥ªæ¨ï 4. ¨á«®¢ë¥ å à ªâ¥à¨á⨪¨ ãá«®¢ëå § ª®®¢
∫︁+∞
𝐷[𝑋|𝑌 = 𝑦 ] = (𝑥 − 𝑀 [𝑋|𝑌 = 𝑦 ])2 · 𝑓 (𝑥|𝑦 )𝑑𝑥, (4.35.)
−∞
∫︁+∞
𝐷[𝑌 |𝑋 = 𝑥 ] = (𝑦 − 𝑀 [𝑌 |𝑋 = 𝑥])2 · 𝑓 (𝑦|𝑥)𝑑𝑦. (4.36.)
−∞
67
¥ªæ¨ï 4. ®£®¬¥àë¥ á«ãç ©ë¥ ¢¥«¨ç¨ë
∫︁ ∫︁
𝐷[𝑌 ] = (𝑦 − 𝑚𝑦 )2 · 𝑓 (𝑥, 𝑦) 𝑑𝑥𝑑𝑦 =
∫︁𝐷∫︁
= [𝑦 − 𝜓(𝑥) + 𝜓(𝑥) − 𝑚𝑦 ]2 · 𝑓 (𝑥, 𝑦) 𝑑𝑥𝑑𝑦 =
∫︁𝐷∫︁ ∫︁ ∫︁
2
= [𝑦 − 𝜓(𝑥)] · 𝑓 (𝑥, 𝑦) 𝑑𝑥𝑑𝑦 + [𝜓(𝑥) − 𝑚𝑦 ]2 · 𝑓 (𝑥, 𝑦) 𝑑𝑥𝑑𝑦+
𝐷 𝐷
∫︁ ∫︁
+2 [𝑦 − 𝜓(𝑥)][𝜓(𝑥) − 𝑚𝑦 ] · 𝑓 (𝑥, 𝑦) 𝑑𝑥𝑑𝑦 (4.38.)
𝐷
Поэтому мы получаем:
68
¥ªæ¨ï 4. ¨á«®¢ë¥ å à ªâ¥à¨á⨪¨ ãá«®¢ëå § ª®®¢
∫︁∞ ∫︁∞
𝐷𝑔 (𝑌 ) = (𝑦 − 𝑔(𝑥))2 𝑓 (𝑥, 𝑦) 𝑑𝑦 𝑑𝑥 =
−∞ −∞
∫︁∞ ∫︁∞
= (𝑦 − 𝜓(𝑥) + 𝜓(𝑥) − 𝑔(𝑥))2 𝑓 (𝑥, 𝑦) 𝑑𝑦 𝑑𝑥 =
−∞ −∞
∫︁∞ ∫︁∞
(𝑦 − 𝜓(𝑥))2 + (𝜓(𝑥) − 𝑔(𝑥))2 𝑓 (𝑥, 𝑦) 𝑑𝑦 𝑑𝑥+
{︀ }︀
=
−∞ −∞ (4.41.)
∫︁∞ ∫︁∞
+2 {(𝑦 − 𝜓(𝑥))(𝜓(𝑥) − 𝑔(𝑥))} 𝑓 (𝑥, 𝑦) 𝑑𝑦 𝑑𝑥 =
−∞ −∞
= 𝐷𝜓 (𝑌 ) + 𝑀 (𝜓(𝑥) − 𝑔(𝑥))2
[︀ ]︀
2Более общий метод нахождения оптимальных аппроксимирующих зависимостей известен как метод наи-
меньших квадратов. Предложен и обоснован К.Гауссом и А.Лежандром, строгое математическое обоснование
дано А.А. Марковым и А.Н. Колмогоровым
69
¥ªæ¨ï 4. ®£®¬¥àë¥ á«ãç ©ë¥ ¢¥«¨ç¨ë
𝐷𝐴·𝑥+𝐵 (𝑌 ) = 𝑀 (𝑦 − 𝐴 · 𝑥 − 𝐵)2 ,
[︀ ]︀
(4.44.)
а из второго
𝑚𝑦 = 𝐴 · 𝑚𝑥 + 𝐵. (4.47.)
Исключая 𝐵, получим:
𝑀 [𝑋 · 𝑌 ] − 𝑚𝑥 · 𝑚𝑦 = 𝐴 · 𝑀 [𝑋 2 ] − 𝑚2𝑥 .
(︀ )︀
70
¥ªæ¨ï 4. ¨á«®¢ë¥ å à ªâ¥à¨á⨪¨ ãá«®¢ëå § ª®®¢
Отсюда
𝑀 [𝑋 · 𝑌 ] − 𝑚𝑥 · 𝑚𝑦
𝐴= =
𝑀 [𝑋 2 ] − 𝑚2𝑥
(︀ )︀ (︀ )︀
cov 𝑋 · 𝑌 cov 𝑋 · 𝑌 𝜎𝑦
= = · = (4.48.)
𝜎𝑥 2 𝜎𝑥 · 𝜎𝑦 𝜎𝑥
𝜎𝑦
= 𝜌𝑥,𝑦 · ,
𝜎𝑥
𝜎𝑦
𝐵 = 𝑚𝑦 − 𝜌𝑥,𝑦 · · 𝑚𝑥 . (4.49.)
𝜎𝑥
Обозначив функцию регрессии 𝜓(𝑥) как 𝑦, запишем уравнение линейной
регрессии в симметричной форме:
𝑦 − 𝑚𝑦 𝑥 − 𝑚𝑥
= 𝜌𝑥,𝑦 · (4.50.)
𝜎𝑦 𝜎𝑥
Коэффициент корреляции оценивает тесноту линейной связи между 𝑋 и
𝑌 . Чем ближе абсолютная величина коэффициента корреляции к единице, тем
связь сильнее, то есть ближе к функциональной; связь слабеет, когда абсолют-
ная величина коэффициента корреляции стремится к нулю. В пределе, когда
𝜌𝑥,𝑦 = 0, линия регрессии вырождается в прямую, параллельную оси абсцисс:
𝑦 = 𝑚𝑌 , что характерно для независимых случайных величин.
Найдем выражение для остаточной дисперсии (4.44.). Для этого подста-
вим в него найденные значения параметров линейной регрессии:
[︀(︀ 𝜎𝑦 )︀2 ]︀
𝐷𝜓 (𝑌 ) =𝑀 (𝑦 − 𝑚𝑦 ) − 𝜌 (𝑥 − 𝑚𝑥 ) =
𝜎𝑥
𝜎𝑦 (︀ 𝜎𝑦 )︀2 2
(4.51.)
=𝜎𝑦2 − 2𝜌 cov(𝑋, 𝑌 ) + 𝜌 𝜎𝑥 =
𝜎𝑥 𝜎𝑥
=𝜎𝑦2 (1 − 𝜌2 )
71
¥ªæ¨ï 4. ®£®¬¥àë¥ á«ãç ©ë¥ ¢¥«¨ç¨ë
72
Лекция 5.
73
¥ªæ¨ï 5. ।¥«ìë¥ â¥®à¥¬ë ⥮ਨ ¢¥à®ïâ®á⥩
[︁ ]︁ [︁ ]︁
M 𝑋 M 𝑋
𝑃 (𝑋 ≥ 𝜀) ≤
𝜀
или 𝑃 (𝑋 < 𝜀) ≥ 1 −
𝜀
(5.1.)
[︁ ]︁
{︂⃒ [︁ ]︁⃒ }︂ D 𝑋
⃒ ⃒
𝑃 ⃒⃒𝑋 − M 𝑋 ⃒⃒ > 𝜀 6 (5.2.)
𝜀2
Доказательство. Обозначим 𝐹 (𝑥) функцию распределения случайной
величины 𝑋 , тогда
{︂⃒
⃒ [︁ ]︁⃒⃒ }︂ ∫︁
𝑃 ⃒𝑋 − M 𝑋 ⃒ > 𝜀 =
⃒ ⃒ 𝑑𝐹 (𝑥).
|𝑥−𝑀 [𝑥]|>𝜀
74
¥ªæ¨ï 5. ª®ë ¡®«ìè¨å ç¨á¥«
то ∫︁ ∫︁
1 (︁ [︁ ]︁)︁2
𝑑𝐹 (𝑥) 6 2 𝑥−M 𝑋 𝑑𝐹 (𝑥).
𝜀
|𝑥−𝑀 [𝑥]|>𝜀 |𝑥−𝑀 [𝑥]|>𝜀
[︁ ]︁ [︁ ]︁
𝑋1 + · · · + 𝑋𝑛 M 𝑋1 + · · · + M 𝑋𝑛 𝑝
− −→ 0 (5.4.)
𝑛 𝑛
75
¥ªæ¨ï 5. ।¥«ìë¥ â¥®à¥¬ë ⥮ਨ ¢¥à®ïâ®á⥩
77
¥ªæ¨ï 5. ।¥«ìë¥ â¥®à¥¬ë ⥮ਨ ¢¥à®ïâ®á⥩
78
¥ªæ¨ï 5. ¥âà «ì ï ¯à¥¤¥«ì ï ⥮६
[︁ (︂ 𝑛 )︂]︁ 𝑛 [︁ 𝑛
∑︁ ∏︁ (︀ )︀]︁ ∏︁
𝑔𝑍 (𝑥) = M exp 𝑖𝑡 · 𝑋𝑘 = M exp 𝑖𝑡 · 𝑋𝑘 = 𝑔𝑋𝑘 (𝑥). (5.14.)
𝑘=1 𝑘=1 𝑘=1
79
¥ªæ¨ï 5. ।¥«ìë¥ â¥®à¥¬ë ⥮ਨ ¢¥à®ïâ®á⥩
𝜙′′ (𝑡) · 𝑡2
𝜙(𝑡) = 𝜙(0) + 𝜙′ (0) · 𝑡 + + 𝜀(𝑡) · 𝑡2 , (5.16.)
2!
где 𝜀 бесконечно малая величина.
𝑔𝑥′ (𝑡)
𝜙′ (𝑡) = ,
𝑔𝑥 (𝑡)
[︁ ]︁ [︁ ]︁
𝜙′ (0) = 𝑖 · M 𝑋 , M 𝑋 = 𝑚 = −𝑖 · 𝜙′ (0),
(︂ [︁ ]︁ (︂ [︁ ]︁)︂2 )︂
′′ ′′ ′ 2 2 2
𝜙 (0) = 𝑔𝑥 (0) − [𝑔𝑥 (0)] = 𝑖 · M 𝑋 − · M 𝑋 =
[︁ ]︁ [︁ ]︁2
= −M 𝑋 + M 𝑋 = −𝐷𝑋 , 𝐷𝑋 = 𝜎 2 = −𝜙′′ (0).
2
Тогда
𝜎 2 · (𝑖𝑡)2
𝜙(𝑡) = 𝑚 · 𝑖𝑡 + + 𝜀(𝑡) · 𝑡2 , (5.17.)
2
Величины 𝑘𝑗 = 𝑖𝑗 ·𝜙(𝑗) называются кумулянтами (семиинвариантами) 𝑗−го
порядка случайной величины. При сложении независимых СВ их кумулянты
складываются.
СВ 𝑌 = 𝑎𝑋 + 𝑏, полученная путём линейного преобразования СВ X, имеет
ХФ
∫︁∞
𝑔𝑌 (𝑡) = 𝑒𝑖𝑡(𝑎𝑥+𝑏) 𝑓 (𝑥)𝑑𝑥 = 𝑒𝑖𝑡𝑏 𝑔𝑋 (𝑎𝑡) (5.18.)
−∞
и кумулятивную функцию
80
¥ªæ¨ï 5. ¥âà «ì ï ¯à¥¤¥«ì ï ⥮६
𝑛𝜎 2 𝑡2 𝑡2
(︂ )︂
𝑛𝑚 𝑛𝑚 𝑡
𝜙𝑌𝑛 (𝑡) = −𝑖𝑡 √ + 𝑖𝑡 √ − · 2 + 𝑛𝜀 √ · 2 (5.21.)
𝑛𝜎 𝑛𝜎 2 𝑛𝜎 𝑛𝜎 𝑛𝜎
𝑡2
(︂ )︂ 2
𝑡 𝑡
=− +𝜀 √ · 2. (5.22.)
2 𝑛𝜎 𝜎
81
¥ªæ¨ï 5. ।¥«ìë¥ â¥®à¥¬ë ⥮ਨ ¢¥à®ïâ®á⥩
2
Величина 𝜀 стремится к нулю при 𝑛 → ∞. Таким образом, lim 𝜙𝑌𝑛 (𝑡) → − 𝑡2 .
𝑛→∞
Мы получили, что предельное значение кумулятивной функции СВ 𝑌𝑛
равно кумулятивной функции стандартного распределения. Значит СВ 𝑌𝑛 име-
ет плотность распределения
1 𝑦2
𝑓 (𝑦) = √ 𝑒− 2 .
2𝜋
Теорема доказана.
82
Список литературы
1. Бочаров П.П., Печенкин А.В. Теория вероятностей. Математическая стати-
стика. – М.: Гардарика, 1998. – 328 с.
2. Бородин А.Н. Элементарный курс теории вероятностей и математической
статистики. – Спб.: Издательство «Лань», 2004. – 256 с.
3. Магазинников Л.И. Курс лекций по теории вероятностей. — Томск: Изда-
тельство ТГУ, 1989. — 212 с.
4. Гнеденко Б.В. Курс теории вероятностей. — М.: Наука, 1988. — 400 с.
5. Гмурман В.Е. Теория вероятностей и математическая статистика. М.: Выс-
шая школа, 1972.
6. Чудесенко В.Ф. Сборник заданий по спецкурсам высшей математики: Ти-
повые расчеты.– М.,1983.
7. Пестова Н.С., Самойлова М.В. Практические занятия по теории
вероятностей.– Томск,1975.
8. Агапов Г.И. Задачник по теории вероятностей. – М.,1994.
9. Гмурман В.Е. Руководство к решению задач по теории вероятностей и ма-
тематической статистике. — М.: Наука, 1984. — 245 c.
10. Сборник задач по математике для ВТУЗов. Специальные курсы./ Под ре-
дакцией А.В.Ефимова. — М.: Наука, 1984. — 250 с.
11. Сборник задач по теории вероятностей, математической статистике и тео-
рии случайных функций. / Под редакцией А.А.Свешникова. — М.: Наука,
1965. — 656 c.
12. Дж.Ламперти. Вероятность.
13. Тутубалин В.Н. Теория вероятностей.
14. Феллер В. Введение в теорию вероятностей и ее приложения// т.1,2.
15. Эмиль Борель. Вероятность и достоверность.
16. Д.Данин. Вероятностный мир.
83
Содержание
¢¥¤¥¨¥ 3
84
®à¬ã« ©¥á . . . . . . . . . . . . . . . . . . . . . . 24
2.2. ®¢â®àë¥ ¥§ ¢¨á¨¬ë¥ ¨á¯ëâ ¨ï. 奬 ¥àã««¨. . . . . . . 25
¨¡®«¥¥ ¢¥à®ï⮥ ç¨á«® ¯®ï¢«¥¨© ᮡëâ¨ï. . . . 26
2.3. ।¥«ìë¥ ¯à¨¡«¨¦¥¨ï ¢ á奬¥ ¥àã««¨ . . . . . . . . . . . . 27
ਡ«¨¦¥¨¥ ã áá® . . . . . . . . . . . . . . . . . 27
2.4. ¥®à¥¬ë ã ¢à | ¯« á . . . . . . . . . . . . . . . . . . . . . . 27
2.5. ⪫®¥¨¥ ç áâ®âë ®â ¢¥à®ïâ®á⨠. . . . . . . . . . . . . . . . . 28
®¯à®áë ¤«ï á ¬®¯à®¢¥àª¨ . . . . . . . . . . . . . . . . . . . . . . 30
®¯à®áë ¤«ï á ¬®¯à®¢¥àª¨ . . . . . . . . . . . . . . 30
85
¢®©á⢠¤¨á¯¥àᨨ . . . . . . . . . . . . . . . . . . . 62
¢®©á⢠ª®¢ ਠ樨 . . . . . . . . . . . . . . . . . . 63
¢®©á⢠ª®íää¨æ¨¥â ª®à५ï樨: . . . . . . . . 63
4.4. ¨á«®¢ë¥ å à ªâ¥à¨á⨪¨ ãá«®¢ëå § ª®®¢ . . . . . . . . . . . . 66
4.4.1. á«®¢ë¥ ¬® ¨ «¨¨¨ ॣà¥áᨨ . . . . . . . . . . . . . . . . 66
4.4.2. á«®¢ë¥ ¤¨á¯¥àᨨ . . . . . . . . . . . . . . . . . . . . . . 67
4.4.3. ¨¥© ï ॣà¥áá¨ï ¨ ª®à५ïæ¨ï . . . . . . . . . . . . . . 70
®¯à®áë ¤«ï á ¬®¯à®¢¥àª¨ . . . . . . . . . . . . . . . . . . . . . . 72
86
Учебное издание
Учебное пособие
Научный редактор
доктор физ.-мат. наук,
профессор К.П. Арефьев