Академический Документы
Профессиональный Документы
Культура Документы
ХРУЩЁВА
ТЕОРИЯ
ВЕРОЯТНОСТЕЙ
УЧЕБНОЕ ПОСОБИЕ
• САНКТПЕТЕРБУРГ •
• МОСКВА •
• КРАСНОДАР •
2009
ÁÁÊ 22.171ÿ73
Õ 95
Õðóù¸âà È. Â.
Õ 95 Òåîðèÿ âåðîÿòíîñòåé: Ó÷åáíîå ïîñîáèå. — ÑÏá.: Èç-
äàòåëüñòâî «Ëàíü», 2009. — 304 ñ.: èë. — (Ó÷åáíèêè äëÿ
âóçîâ. Ñïåöèàëüíàÿ ëèòåðàòóðà).
ISBN 978-5-8114-0915-0
Îôîðìëåíèå îáëîæêè
À. ËÀÏØÈÍ
Предисловие 7
3
4 Теория вероятностей
Приложение 293
Литература 299
ПРЕДИСЛОВИЕ
СЛУЧАЙНЫЕ СОБЫТИЯ
И АКСИОМЫ ТЕОРИИ
ВЕРОЯТНОСТЕЙ
§ 1. ИСТОРИЯ И ЦЕЛИ
§ 2. СЛУЧАЙНОСТЬ И ВЕРОЯТНОСТЬ.
СЛУЧАЙНЫЙ ЭКСПЕРИМЕНТ
ми математического анализа.
Как правило, мы называем случайным то, что не можем пред-
сказать заранее. Если бы мы могли при бросании монеты учесть
движение руки, начальную скорость, «ветерок» из замочной
скважины — мы бы точно предсказали, как она упадет. Но учесть
все или чрезвычайно трудно, или даже невозможно. Поэтому мы
и говорим, что монета падает «случайным образом». Физики
утверждают, что существует и другая случайность — «по суще-
ству». Например, время жизни радиоактивного ядра или движе-
ние электрона случайны, и можно предсказать результат только
с некоторой вероятностью. Как знать, может быть уже в ближай-
шем будущем ученые найдут методы, позволяющие делать точ-
ные расчеты в ядерной физике?
Как бы там ни было, а случайные явления встречаются в каж-
дом исследовании. Даже при измерении какой-либо характери-
стики показания прибора будут случайными, поскольку невоз-
можно учесть все причины возникновения погрешностей. Ну а
раз есть случайные явления, происходят случайные события
(то есть такие события, о которых мы не можем заранее сказать
— произойдут они или нет), то возникает необходимость в пред-
сказании. Какая завтра будет погода? Сколько часов прорабо-
тает данный прибор? Какова вероятность пропуска цели опера-
тором радиолокационной станции?
Если мы провели только один эксперимент: проверили один
раз один прибор, подбросили один раз одну монету и т. п., то
трудно говорить о вероятности наступления того или иного собы-
тия. Прибор либо заработает, либо нет; монета упадет либо гер-
бом, либо решкой вверх. Определенные закономерности прояв-
ляются только тогда, когда эксперимент проводится много раз.
Во всех учебниках по теории вероятностей приводят классиче-
ский пример — одна из первых попыток провести серию случай-
ных экспериментов и понаблюдать результат была предпринята
Бюффоном8 в XVIII веке. Бюффон 4040 раз подбрасывал моне-
ту. При этом герб выпал 2048 раз, то есть приблизительно в по-
ловине случаев. Подобные эксперименты позднее повторялись
неоднократно — результаты были аналогичны. На рис. 2.1 при-
ведена схема, заимствованная из [1]. По оси абсцисс отложено
n — количество подбрасываний монеты, по оси ординат — отно-
шение числа выпавших гербов n(Г) к числу испытаний: n(Г)/n.
§ 3. ЧАСТОТА И ВЕРОЯТНОСТЬ
Свойства частоты
n(A)
1. 0 ≤ ≤ 1 для ∀n ∈ N, ∀A.
n
2. Если событие A никогда не происходит в данной серии экс-
n(A)
периментов, то = 0.
n
3. Если событие A обязательно происходит при каждом экс-
n(A)
перименте, то = 1.
n
4. Если события A и B одновременно произойти не могут, то
Г , |{z}
|{z} |{z}, РРРГ
РГ , РРГ | {z }, РРРРГ
| {z } . . . —
ω1 ω2 ω3 ω4 ω5
Y
b
(D)
y
x a X
0
C C C
W W W
A A
A
B
B
B
W W W
A A
C A C=B
B
B
W W W W
A C A C C
A B
A
B
B B
A
A
A = W\A
AA = A, A + A = A, AA = Ø, AΩ = A, AØ = Ø, Ω + Ø = Ω,
Ω + A = Ω, A r B = AB, A + B = A + B, AB = A + B.
28 Глава 1. Случайные события и аксиомы теории вероятностей
def
F = {A : A ⊂ Ω}
13 Август де Морган (De Morgan Augustus, 1806–1871) — шотландский ма-
тематик и логик.
§ 5. АКСИОМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ 29
S
∞ P
∞
ные события из F, то P ( An ) = P (An ) (аксиома счетной
n=1 n=1
аддитивности)19 .
Обратите внимание: свойства частоты, о которых мы говори-
ли в § 3, сохранены при аксиоматическом определении вероят-
ности события.
Придирчивый читатель спросит: «А в чем же здесь аксиома-
тика? Ведь аксиома — это предложение, принимаемое без до-
казательства. В аксиоме же 1 вроде бы нет никакого предложе-
ния».
Предложение аксиомы 1 состоит в том, что мы называем со-
бытием множество элементов любой природы — сопоставляем
абстракцию и жизнь. Это позволяет нам строить математические
модели реальных явлений. Во второй аксиоме поступаем точно
так же: сопоставляем событию положительное число и называ-
ем его вероятностью. Очень скоро вы увидите, что такой подход
к определению вероятности позволит нам решать успешно мно-
гие практические задачи, не получая противоречивых выводов.
Что же мы определили? Множество Ω, множество F и веро-
ятность P — вот те три объекта, которые нам придется вводить
при построении математической модели в каждой вероятностной
задаче.
Определение 5.1. Совокупность трех объектов {Ω, F, P } на-
зывается вероятностным пространством.
W
B
A
0 ≤ P (A) ≤ 1 .
P (A) = 1 − P (A) .
P (Ø) = 0 .
P (Ø) = 1 − P (Ω) = 1 − 1 = 0.
A B
AB
P (A + B) = P (A + (B r AB)) =
= P (A) + P (B r AB) = P (A) + P (B) − P (AB).
∗
Есть формула, обобщающая и теорему сложения. Вот она:
µ[
n ¶ n
X n
X
P Ak = P (Ak ) + (−1)1 P (Aj Ak )+
k=1 k=1 j,k=1
j<k
n
X
+(−1)2 P (Ai Aj Ak ) + . . . + (−1)n−1 P (A1 · . . . · An ).
i,j,k=1
i<j<k
∗
Для того чтобы наглядно отображать вероятности событий,
можно несколько видоизменить диаграммы Венна: все множе-
ство Ω изображать в осях координат в виде множества [0; 1] ×
×[0; 1] — квадрата со стороной 1 (рис. 6.3).
Y
1
A B W
{
pC C
M
{
{
0 pA C D pB K 1 X
Неплохо!
S
M
Доказательство. Пусть A = Eik . Так как исходы {Ej }N
j=1
k=1
P
N
образуют полную группу, то P (Ej ) = 1. Так как исходы Ej
j=1
§ 7. КЛАССИЧЕСКОЕ ОПРЕДЕЛЕНИЕ ВЕРОЯТНОСТИ 41
18 1
P (A) = = .
36 2
Эту задачу можно решать еще двумя способами. Например,
считать карты, отличающимися друг от друга только мастью.
Всего в колоде 4 масти. Значит, получается 4 исхода: E1 , E2 , E3 ,
E4 . Эти исходы также будут равновероятны, поскольку в коло-
де поровну карт каждой масти. Обратите внимание: здесь наши
рассуждения о равновероятности исходов фактически основы-
ваются на том же классическом определении: вероятность выта-
щить каждую масть равна 9/36 = 1/4, если исходами считать ωk .
Однако для «удобства» решения задачи мы ввели более «круп-
ные» исходы. Событию A благоприятствуют два исхода из Ej ,
j = 1, 4. Следовательно, N = 4, M = 2 и
2 1
P (A) = = .
4 2
Вы уже, конечно, догадались, какой третий способ решения
задачи. Можно ввести только 2 исхода, если считать появивши-
еся карты отличающимися друг от друга только цветом. Тогда
благоприятствовать A будет лишь один исход.
Теперь вы поняли, как важно определить в каждой задаче,
че́м введенные вами исходы отличаются друг от друга? Пред-
ставьте себе, что в каждом из трех способов решения мы опреде-
лили бы исход просто как событие, состоящее в том, что «вынута
одна карта». Вы чувствуете, как некорректно такое определение?
Конечно, в данной простой задаче трудно было допустить ошиб-
ку. В более сложных такая ошибка очень распространена: при
подсчете N считают одни исходы, а при подсчете M — другие.
Будьте внимательны!
Пример 7.3. На первый взгляд этот пример совсем прост: из ур-
ны с 10 шарами (7 белых + 3 черных) наугад вытаскивают 1 шар.
Какова вероятность того, что он черный?..
§ 8. ЭЛЕМЕНТЫ КОМБИНАТОРИКИ 43
§ 8. ЭЛЕМЕНТЫ КОМБИНАТОРИКИ
В примере 7.2 мы выбирали из колоды карт одну. А если бы
нужно было выбрать 2 или 8? Сколько было бы исходов?
В примерах с бросанием кубика мы рассматривали всего
6 элементарных исходов. А если бросается сразу два кубика, да
на каждом может выпасть по 6 разных цифр. Сколько всего ис-
ходов?
Необходимость решать подобные задачи заставляет нас по-
вторить комбинаторику.
8.2. РАЗМЕЩЕНИЯ
Пусть имеется набор n элементов a1 , a2 , . . . , an . Будем вы-
бирать из них k элементов: делать выборки объема k из n эле-
ментов (k ≤ n).
44 Глава 1. Случайные события и аксиомы теории вероятностей
8.3. ПЕРЕСТАНОВКИ
Определение 8.2. Размещение из n элементов по n называет-
ся перестановкой из n элементов, то есть перестановка — это
любая комбинация из n элементов, расположенных в ряд.
8.4. СОЧЕТАНИЯ
Определение 8.3. Выборки объема k из n элементов,
отличающиеся друг от друга только составом элементов, на-
зываются сочетаниями из n элементов по k.
Akn n!
Cnk = = .
Pk (n − k)!k!
k−1
5. Cnk = Cn−1 k
+ Cn−1 ;
P
n
6. Cnk = 2n .
k=0
1
1 1
1 2 1
1 3 3 1
1 4 6 4 1
1 5 10 10 5 1
определению
M 43 43 · 49! 43
p= = 3 = = ≈ 5 · 10−4 .
N A52 52! 52 · 51 · 50
43 43 · 49! · 3! 43 · 2 · 3
p= 3 = = ≈ 3 · 10−3 .
C52 52! 52 · 51 · 50
k s−k
Cm Cn
p= s .
Cn+m
48 Глава 1. Случайные события и аксиомы теории вероятностей
∗
Пример 8.3. Парадокс де Мере́
В XVII веке жил на белом свете кавалер де Мере́, который во
время путешествия в г. Пуату часто наблюдал игру в кости и за-
метил, что при бросании 3 игральных костей чаще выпадает ком-
бинация, дающая в сумме 11 очков, чем комбинация, дающая в
сумме 12 очков. С точки зрения кавалера, события — выпадение
11 и 12 очков — должны были быть равновероятными. Сомне-
ния кавалера де Мере́ стали известны Паскалю и Ферма и по-
служили одной из причин возникновения знаменитой переписки,
во время которой зародились, как мы уже знаем, основы теории
вероятностей. Давайте и мы разберемся в этом парадоксе.
Комплекс условий: бросаем сразу 3 кубика. Естественно счи-
тать выпадение любых комбинаций цифр равновозможными со-
бытиями. Кавалер де Мере́ считал так: сумма 11 очков получа-
ется при следующих комбинациях: 6 − 4 − 1, 6 − 3 − 2, 5 − 5 − 1,
5 − 4 − 2, 5 − 3 − 3, 4 − 4 − 3 — всего 6 элементарных исходов.
Сумма 12 очков получается при комбинациях 6 − 5 − 1, 6 − 4 − 2,
6 − 3 − 3, 5 − 5 − 2, 5 − 4 − 3, 4 − 4 − 4 — тоже 6 элементарных
исходов. Значит, и вероятности должны быть одинаковы!
Ошибка кавалера состояла в том, что он не учел, что пере-
численные им исходы не являются равновозможными, так как не
определил, чем они отличаются. Например, комбинация 6 − 4 − 1
появляется 3! раз, когда на костях выпадают цифры 6, 4, 1 или
6, 1, 4, или 1, 6, 4, или 1, 4, 6, или 4, 1, 6, или 4, 6, 1, а комбинация
4 − 4 − 4 — только 1 раз. Кавалер де Мере́ не знал классическо-
го определения вероятности. Поблагодарим его за его ошибку —
она дала мощный толчок к исследованиям Паскаля и Ферма23 .
А теперь разберемся сами и сравним вероятность двух собы-
тий: A = {выпало 11 очков} и B = {выпало 12 очков}. Опре-
делим вероятностное пространство.
Будем считать элементарным исходом любую комбинацию
цифр на 3 кубиках (каждая от 1 до 6). По теореме умножения
N = 63 . Правда, это число нам не нужно. При сравнении вероят-
ностей A и B знаменатель N все равно одинаков. Так что главная
задача — сравнить числители. Кавалер де Мере́ считал исходы,
отличающиеся друг от друга только составом, — они оказались
не равновероятны. Мы вычислили число всех исходов, считая их
отличающимися не только составом, но и порядком — все воз-
можные, — они-то как раз равновероятны. Зато и благоприят-
23 Кавалер де Мере́ сформулировал и ряд других, более сложных задач. На-
пример, о дележе выигрыша в случае неоконченной игры.
§ 9. ГЕОМЕТРИЧЕСКАЯ ВЕРОЯТНОСТЬ 49
§ 9. ГЕОМЕТРИЧЕСКАЯ ВЕРОЯТНОСТЬ
Представим себе, что в некоторую область (D) «бросается
случайная точка». Это означает, что точка «бросается в область
(D) наугад» — не отдается предпочтение никаким точкам, ни-
каким подобластям области (D) (нечто подобное мы уже де-
лали в примере 4.5, когда стреляли в стенку тира с закры-
тыми глазами). При осуществлении такого комплекса условий
множество Ω обычно определяют как множество элементарных
исходов ωxy = {попадание в точку (x, y) ∈ (D)}, то есть
Ω = {ωxy : (x, y) ∈ D}, P (Ω) = 1. Здесь мы имеем дело с так
называемым непрерывным вероятностным пространством. Нам
не удастся приписать положительную вероятность каждому эле-
ментарному событию ωxy . Их несчетное множество, и мы не смо-
жем получить P (Ω) = 1, сложив несчетное количество одинако-
вых положительных чисел — вероятностей всех ωxy , как это де-
лалось для дискретного вероятностного пространства. Каждый
элементарный исход ωxy имеет вероятность нуль. И все-таки
какой-нибудь из них наступает. Значит, каждый из элементар-
ных исходов ωxy — событие возможное, но имеющее нулевую
вероятность.
Однако и в этой ситуации мы сможем вычислять вероятность,
а именно вероятность того, что случайная точка попала в подоб-
ласть (d) области (D) (рис. 9.1). Эта вероятность вычисляется
по формуле:
mes(d)
P {случайная точка попала в (d) ⊂ (D)} = . (9.1)
mes(D)
50 Глава 1. Случайные события и аксиомы теории вероятностей
Y
(D)
(d)
(x, y)
y
X
0 x
20 20
x–
y=
0 20 40 60 X
def P (AB)
P (A/B) = . (10.1)
P (B)
W
B
A1 A1B A2B A2
P (Ø/B) = 0;
P (A/B) = 1 − P (A/B);
P (A r C/B) = P (A/B) − P (C/B), если C ⊂ A.
P (AB)
P (B/A) = . (10.2)
P (A)
P (A1 A2 . . . An ) =
= P (A1 )P (A2 /A1 ) · P (A3 /A1 A2 ) · . . . · P (An /A1 . . . An−1 ).
54 Глава 1. Случайные события и аксиомы теории вероятностей
P (A/B) = P (A).
P (AB)
= P (A) ⇐⇒ P (AB) = P (A)P (B).
P (B)
Следовательно,
P (AB) P (A)P (B)
P (B/A) = = = P (B).
P (A) P (A)
при ∀k = 2, n и различных ij : 1 ≤ ij ≤ n.
K C
3
KC 3
Обозначим события:
К = {на нижней грани есть красный цвет},
С = {на нижней грани есть синий цвет},
З = {на нижней грани есть зеленый цвет}.
B = A1 A2 + A1 A2 + A1 A2 .
Y
1
A W
pB
AB
B
O p 1 X
A
n
X
P (A) = P (Hk )P (A/Hk ) . (12.1)
k=1
W
H1 H2 H3
aa
A
aa
Нn aaH
4
P (Hm )P (A/Hm )
P (Hm /A) = P
n , m = 1, n. (12.2)
P (Hk )P (A/Hk )
k=1
1
P (H1 )P (A/H1 ) · 32 · 10−5
P (H1 /A) = = 3 ≈ 0, 002;
P (A) 0, 04810(6)
1
P (H2 )P (A/H2 ) · 5184 · 10−5
P (H2 /A) = = 3 ≈ 0, 36;
P (A) 0, 04810(6)
1
P (H3 )P (A/H3 ) · 9216 · 10−5
P (H3 /A) = = 3 ≈ 0, 64.
P (A) 0, 04810(6)
Сравнивая полученные условные вероятности, делаем вывод:
наиболее вероятно, что был передан третий сигнал 11011.
Во время решения этой задачи вы уже, наверное, заметили,
что если речь идет только о сравнении условных вероятностей
гипотез, то нет необходимости вычислять их полностью. Доста-
точно сравнить лишь числители — знаменатель у всех дробей
один и тот же.
А теперь мне хочется обратить ваше внимание вот на что.
Иногда в формулировке задачи указывают не все гипотезы Hk .
64 Глава 1. Случайные события и аксиомы теории вероятностей
n
X n
X
Pn (m) = Cnm pm q n−m = (p + q)n = 1. (13.2)
m=0 m=0
§ 13. ИСПЫТАНИЯ БЕРНУЛЛИ 67
n!
Pn (m1 , m2 , . . . , mr ) = pm1 pm2 · . . . · pm
r .
r
m1 !m2 ! · . . . · mr ! 1 2
∗
Замечание 13.3. Формула Стирлинга29 .
При больших значениях n число n! можно приближенно вы-
числить, используя следующую формулу:
µ ¶n
√ n θ √ n
n! = 2πn( )n · e 12n ≈ 2πn ,
e e
где θ = θ(n) — некоторое число: 0 < θ < 1.
СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И
ФУНКЦИИ ОТ НИХ
def p
ξ(ωxy ) = x2 + y 2 = r.
случайный эксперимент
y
вероятностное пространство
y
случайная величина
def
F (x) = P {ξ < x}, ∀x ∈ R. (15.1)
X
0
X
x x
Доказательство.
1. Пусть x < y. Если мы покажем, что F (x) ≤ F (y) для лю-
бых таких x и y, то это и будет означать монотонное неубы-
вание функции распределения F (x).
§ 15. ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ 77
0, если F (x) непрерывна в точке x0 ;
2. P {ξ = x0 } = F (x0+ )−F (x0 ), если x0 — точка разрыва
функции F (x).
78 Глава 2. Случайные величины и функции от них
X
x y
Так как F (x0 ) = F (x0 −), разность F (x0 +) − F (x0 ) есть скачок
функции F (x) в точке x0 7 . Если функция распределения непре-
рывна в точке x0 , то F (x0 +) = F (x0 ) и скачок равен нулю. Сле-
довательно, и P {ξ = x0 } = 0 для непрерывной в точке x0 функ-
ции распределения.
Прочитаем еще раз формулировки теорем 15.1 и 15.2 и поду-
маем, какой можно сделать вывод о характере графика функции
распределения.
7 Так как ф. р. монотонна, у нее могут быть только точки разрыва I рода, при-
h2
}
h1 }
х1 0 х2 х3 х4 х5 X
ξ x1 x2 ... xn
pk p1 p2 ... pn
ξ 0 1 2 3
pk 0, 001 0, 0027 0, 243 0, 729
P {Г} = P {P } = 1/2.
ξ 0 1 2 ... k ...
1 1 1 1
pk ... ...
2 4 8 2k+1
1
прогрессии со знаменателем q = : (a + aq + aq 2 + . . . + aq n +
2
a
... = ):
1−q
∞
X ∞
X 1 1/2
pk = k
= = 1.
2 1 − 1/2
k=0 k=1
ξ −3 −2 −1 0 1 2
pk 0, 3 0, 2 0, 1 x 0, 1 0, 1
(Ответ: x = 0, 2)
η 0 1 2 ... m ...
2 m
λ −λ λ −λ
qm y λe−λ e ... e ...
2! m!
(Ответ: y = e−λ )
ξ 1 2 3
pk 1/9 1/3 5/9
ξ −1 0 1
pk 0, 2 0, 3 0, 5
(Здесь n ∈ N или n = ∞)
x
х1 х2 х3 х4 х5 X
ξ −2 −1 0 1 2 3
pk 0, 1 0, 2 0, 3 0, 1 0, 2 0, 1
ξ −2 −1 0 1 2 3
η 16 1 0 1 16 81
pk 0, 1 0, 2 0, 3 0, 1 0, 2 0, 1
η 0 1 16 81
qm 0, 3 0, 3 0, 3 0, 1
P
n
xi pi n
X
i=1
Pn = xi pi = M ξ.
pi i=1
i=1
ξ 0 1 2 3
pk 0, 001 0, 027 0, 243 0, 729
π π π π
ξ − − 0
2 4 4 2
pk 0, 1 0, 2 0, 4 0, 2 0, 1
§ 20. СВОЙСТВА МАТЕМАТИЧЕСКОГО ОЖИДАНИЯ 97
M (ξη) = M ξ · M η .
¯ ¯ ¯ ¯
4. ¯M ξ ¯ ≤ M ¯ξ ¯ .
5. Если все xi ∈ [a; b], i = 1, n, то и M ξ ∈ [a; b].
Доказательство.
1. Если ξ = C с вероятностью 1, то M ξ = C · 1 = C.
2. Пусть ξ принимает значения {xi }ni=1 с вероятностями {pi }ni=1 ,
а η — значения {yj }m m
j=1 с вероятностями {qj }j=1 . Тогда с.в.
ψ = C1 ξ+C2 η будет принимать значения {C1 xi +C2 yj } с вероят-
ностями {pij }, где i = 1, n; j = 1, m, то есть всего mn значений.
8 Мы определили математическое ожидание только для случайных величин.
В свойстве 1 предполагается, что C – это так называемая «вырожденная» с.в. ξ,
которая принимает лишь одно значение C с вероятностью 1.
98 Глава 2. Случайные величины и функции от них
Вероятности
¡ ¢
pij = P {ψ = C1 xi + C2 yj } = P {ξ = xi } ∩ {η = yj } ,
причем события Aij = {ξ = xi } ∩ {η = yj } несовместны. Вы-
числим математическое ожидание с.в. ψ по формуле (19.1):
n X
X m
M ψ = M (C1 ξ + C2 η) = (C1 xi + C2 yj )pij =
i=1 j=1
n m m n (20.1)
X X X X
= C1 xi pij + C2 yj pij .
i=1 j=1 j=1 i=1
Рассмотрим
m
X m
X ³[
m ´
pij = P (Aij ) = P Aij =
j=1 j=1 j=1
³[
m ´ ³ m
[ ´
=P {ξ = xi } ∩ {η = yj } = P {ξ = xi } ∩ {η = yj } =
j=1 j=1
³ ´
= P {ξ = xi } ∩ Ω = P {ξ = xi } = pi .
Здесь мы воспользовались несовместностью событий Aij и тем,
что события {η = yj }, j = 1, m, образуют полную группу (см.
§ 16).
Pn
Совершенно аналогично можно доказать, что pij = qj .
i=1
Тогда из (20.1) получим:
n
X m
X
Mψ = C1 xi pi + C2 yj qj =
i=1 j=1
n
X m
X
= C1 xi pi + C2 yj qj = C2 M ξ + C2 M η,
i=1 j=1
Следовательно,
n X
X m n X
X m
M ζ = M (ξη) = xi yj · pij = xi yj pi qj =
i=1 j=1 i=1 j=1
n
X Xm
= xi pi yj qj = M ξ · M η.
i=1 j=1
n
X
Dξ = (xi − M ξ)2 · pi . (21.2)
i=1
ξ −2 2 η −20 20
pi 0, 5 0, 5 qj 0, 5 0, 5
Доказательство.
1. Dξ = M (ξ − M ξ)2 = M (ξ 2 − 2ξ · M ξ + (M ξ)2 ) =
= M ξ 2 − 2M (ξ · M ξ) + M (M ξ)2 =
= M ξ 2 − 2M ξ · M ξ + (M ξ)2 = M ξ 2 − (M ξ)2 .
2. DC = M (C − M C)2 = M (C − C)2 = 0.
3. D(ξ + C) = M [(ξ + C) − M (ξ + C)]2 =
= M [ξ + C − M ξ − C]2 = M (ξ − M ξ)2 = Dξ.
4. D(aξ) = M (aξ − M (aξ))2 = M (aξ − aM ξ)2 =
= M [a(ξ − M ξ)]2 = a2 M (ξ − M ξ)2 = a2 Dξ.
5. D(ξ + η) = M [(ξ + η) − M (ξ + η)]2 = M [(ξ − M ξ)+
+(η − M η)]2 = M (ξ − M ξ)2 + 2M (ξ − M ξ) × (η − M η)
+M (η − M η)2 = Dξ + Dη,
так как M (ξ − M ξ)(η − M η) = 0 для независимых случайных
величин ξ и η. Докажите это самостоятельно, раскрывая скоб-
ки, используя линейность математического ожидания и свойство
математического ожидания произведения независимых случай-
ных величин.
Если случайные величины ξ и η не являются независимыми,
свойство 5 не имеет места!
Следствие.
1) σaξ = |a|σξ , где a ∈ R.
2) D(aξ + b) = a2 Dξ .
3) M ξ 2 = Dξ + (M ξ)2 . (22.3)
Обратите внимание на то, что дисперсия не обладает свойством
линейности!
Немножко «похоже на линейность» свойство 5 для незави-
симых случайных величин. Его можно распространить на любое
количество слагаемых.
Доказательство. ∗ Рассмотрим
Ãm ! "m à m !#2
X X X
D ξk = M ξk − M ξk =
k=1 k=1 k=1
" m
#2 " m m
#
X X X
=M (ξk − M ξk ) =M (ξk − M ξk ) · (ξj − M ξj ) =
k=1 k=1 j=1
m X
X m
=M (ξk − M ξk )(ξj − M ξj ) =
k=1 j=1
m X
X m
= M (ξk − M ξk )(ξj − M ξj ) =
k=1 j=1
m
X Xm m
X
= Dξk + M (ξk − M ξk )(ξj − M ξj ) = Dξk ,
k=1 k,j=1 k=1
k6=j
Утверждение 22.2.
Dξ = 0 ⇐⇒ ξ = C с вероятностью 1 .
o def
ξ = ξ − Mξ . (23.1)
o o
M ξ= 0, D ξ= Dξ, (23.3)
o o
M ξ н = 0, D ξн= 1 . (23.4)
o o
Вы видите, что ξ и ξ н являются линейными функциями слу-
чайной величины ξ. Используя результаты § 18, вы без труда най-
дете их распределения по распределению с.в. ξ.
def
νk (ξ) = M ξ k . (24.1)
def
µk (ξ) = M (ξ − M ξ)k . (24.2)
ν1 (ξ) = M ξ, µ2 (ξ) = Dξ ,
µ1 (ξ) = 0, а ν2 (ξ) = M ξ 2 .
Таким образом, математическое ожидание случайной вели-
чины — это начальный момент первого порядка, а дисперсия —
центральный момент второго порядка. Все остальные моменты
также называют числовыми характеристиками случайной вели-
чины.
Замечание 24.1. Можно доказать, что если существует абсо-
лютный момент порядка m, то существуют все абсолютные мо-
менты порядка k < m и
M |ξ|k ≤ M |ξ|m + 1.
∗
Пример 24.1. Попробуем вместе построить пример случайной
величины ξ, у которой не существует математического ожидания,
и пример случайной величины η, у которой математическое ожи-
дание существует, а дисперсия не существует. В этом построении
могут принимать участие только те, кому это интересно.
Очевидно, ξ и η должны быть случайными величинами с бес-
конечным числом значений, иначе у них будут существовать все
моменты.
Прежде всего, подберем распределение таким образом, что-
бы выполнялось условие нормировки (16.2). Попробуем восполь-
P∞ 1
зоваться известным рядом для ex при x = 1: e = , откуда
n=0 n!
P
∞ 1
= 1.
n=0 n!e
1
Таким образом, можно ввести вероятности pn = , где
n!e
n = 0, +∞. Осталось подобрать подходящие значения случай-
ных величин ξ и η. Выберем для с.в. ξ следующее распределение
(табл. 24.1):
ξ 0 1! 2! 3! ... n! ...
1 1 1 1 1
pn ... ...
e e 2e 6e n!e
Тогда
∞
X ∞
X
1 1
Mξ = n! · = = +∞.
n=1
n!e n=1 e
Так как ряд расходится, то математического ожидания с.в. ξ не
существует. Отсюда следует несуществование и всех моментов
более высоких порядков.
Ряд распределения для с.в. η подберем с учетом того, что мы
хотим получить: существование M η и несуществование M η 2 , от-
куда следует несуществование Dη, так как в противном случае
M η 2 = Dη + (M η)2 .
108 Глава 2. Случайные величины и функции от них
√ √ √ √
η 0 1 2 6 24 ... n! ...
1 1 1 1 1 1
qn ... ...
e e 2e 6e 24e n!e
Тогда
X∞ √ X∞
2 ( n!)2 1
Mη = = = +∞,
n=1
n!e n=1
e
то есть ряд расходится. В то же время
X∞ √ ∞
n! X 1
Mη = = √ .
n=1
n!e n=1 e n!
ξ = ξ1 + ξ2 + . . . + ξn .
Итак,
M ξ = np, Dξ = npq . (25.4)
λm −λ
P {ξ = m} = e , m = 0, +∞ . (25.5)
m!
Обозначение: ξ ⊂
= Πλ . Это определение корректно, так как
X∞ X∞
λm −λ −λ λm
e =e = e−λ · eλ = 1.
m=0
m! m=0
m!
∗
Несколько сложнее вычисляется дисперсия:
∞
X λm −λ
Dξ = M ξ 2 − (M ξ)2 = m2 e − λ2 =
m=0
m!
∞
X X∞
λm λm
= m e−λ − λ2 = ((m − 1) + 1) e−λ −
m=1
(m − 1)! m=1
(m − 1)!
∞
X X∞
λm λm
−λ2 = (m − 1) e−λ + e−λ − λ2 =
m=1
(m − 1)! m=1
(m − 1)!
X∞ X∞
λk −λ λm−1
=λ k e + λe−λ − λ2 =
k! m=1
(m − 1)!
k=0
∞
X λk
= λM ξ + λe−λ − λ2 = λ2 + λe−λ · eλ − λ2 = λ.
k!
k=0
1−p 1−p
Mξ = , Dξ = . (25.8)
p p2
F (x + ∆x) − F (x)
f (x) = F 0 (x) = lim =
∆x→0 ∆x
(26.3)
P {x ≤ ξ < x + ∆x}
= lim .
∆x→0 ∆x
Под знаком предела стоит средняя плотность вероятности на по-
луинтервале [x, x + ∆x). Отсюда и название «плотность» для
функции f (x).
Из формулы (26.3) и теоремы о связи предела и бесконечно
малой величины следует, что
P {ξ = a} = 0 для ∀a ∈ R.
Z
+∞
Zb
3) P {ξ ∈< a, b >} = f (x)dx . (26.6)
a
(S1) (S2)
(S3)
0 x m1 a b m2 c d X
Определение 26.2.
1. Точка максимума m плотности распределения f (x) называ-
ется модой: f (m) ≥ f (x) для ∀x ∈ U (m), где символом U (m)
обозначена окрестность точки m.
2. Число xq , такое, что F (xq ) = q, называется кванти́лью по-
рядка q.
1
3. Квантиль порядка называется медианой: µ = x 21 , то есть
2
1
F (µ) = .
2
Y y = f(x),
S=1
1 1
2
S 2
S
0 m m X
Y y = f(x)
1 1
2 2
0 X
m = µ = Mξ = 0 .
§ 26. НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 121
Y
y = f(x)
1 1
2 2
0 a X
P {ξ ∈ (D)} = 1 .
–1 0 1 X
1 1 1
F (µ) = + arcsin µ = ⇒ arcsin µ = 0 ⇒ µ = 0.
2 π 2
2
откуда a = .
3
2
Следовательно, f (x) = (1 + x) при x ∈ [0, 1]. Очевидно,
3
f (x) ≥ 0 при ∀x ∈ R.
б) Найдем функцию распределения F (x) по формуле (26.1):
Zx
F (x) = f (t)dt.
−∞
ответ:
0 при x ≤ 0,
F (x) = 2 x2 (26.9)
(x + 2 ) при 0 ≤ x ≤ 1,
3
1 при x ≥ 1.
в) Найдем моду и медиану. Для отыскания моды можно ис-
следовать функцию f (x) на экстремум, но в данной задаче легче
сначала построить график, так как плотность — кусочно-линей-
ная функция (рис. 26.8). По графику видно, что точкой максиму-
ма функции f (x) является x = 1. Следовательно, мода m = 1.
Y
4 y = f(x)
3
2
3
m
0 1 X
1 2 µ2
Медиану найдем аналитически: = F (µ) = (µ + ). По-
2 3 2
сле простейших преобразований получим квадратное уравнение√
2 −2 ± 28
относительно µ: 2µ + 4µ − 3 = 0, откуда µ1,2 = =
√ 4
−1 ± 7 1 √
= . Очевидно, число − (1 + 7) ∈ / [0, 1]. Следователь-
2 √ 2
но, µ = 1/2( 7 − 1) ≈ 0, 82. Построим график функции распре-
деления F (x) (рис. 26.9). На отрезке [0,1] график представляет
y = g(x)
y
h
0 w(y) X
Fη (y) = P {η < y} =
(27.1)
P {g(ξ) < y} = P {ξ < w(y)} = Fξ (w(y)).
y = g(x)
y
h x
0 w(y) X
случайной величины η:
Fη (y) = P {η < y} = P {g(ξ) < y} = P {ξ > w(y)} =
= 1 − P {ξ ≤ w(y)} = 1 − P {ξ < w(y)} = 1 − Fξ (w(y)).
(27.2)
C) Функция y = g(x) не монотонна. Например, она убывает на
промежутке (−∞, a), а потом возрастает на промежутке (a, +∞)
Y
y y = g(x)
h
x
X
w1(y) 0 a w2(y)
Fη (y) = 1 − Fξ (w(y)).
Следовательно,
Тогда
dFξ (w2 (y)) dw2 (y) Fξ (w1 (y)) dw1 (y)
fη (y) = · − · =
dw2 dy dw1 dy
= fξ (w2 (y))|w20 (y)| + fξ (w1 (y))|w10 (y)| = fη(2) (y) + fη(1) (y),
(1)
где fη (y) — найденная по формуле (27.5) плотность для x ∈
(2)
∈ (−∞, a), а fη (y) — для x ∈ (a, +∞) (см. рис. 27.3).
∗
Нарисуйте график какой-либо функции y = g(x), три или
четыре раза меняющей монотонность, найдите для нее Fη (y), а
затем fη (y) — это будет хорошей тренировкой для осознания ме-
тода.
Пример 27.1. Пусть случайная величина ξ имеет плотность рас-
пределения
1
при x ∈ [−8, 1],
fξ (x) = 9 (27.6)
0 при x ∈ / [−8, 1].
Найти плотность и функцию распределения случайной величины
η = ξ 2/3 . Построить их графики.
Эту задачу можно решать двумя путями: сначала найти функ-
цию распределения, строя график функции g(x) = x2/3 , потом
плотность (проделайте этот путь самостоятельно); или сначала
найти плотность по теореме 27.1 и замечанию 27.1, а потом функ-
цию распределения. Мы пойдем именно этим путем.
Изобразим график функции y = x2/3 на отрезке [−8, 1]
(рис. 27.4). Мы видим, что если ξ принимает значения с вероят-
ностью 1 лишь на отрезке [−8, 1], то случайная величина η с ве-
роятностью 1 принимает значения из отрезка [0,4] (зависимость
η от ξ та же, что и зависимость y от x на рис. 27.4). Следователь-
но, fη (y) = 0 при y ∈/ [0, 4]. Рассмотрим y ∈ [0, 4].
Разобьем отрезок [−8, 1] на два промежутка, на каждом из
которых функция g(x) = x2/3 монотонна: [−8, 1] = [−8, 0]∪[0, 1].
§ 27. ФУНКЦИИ НЕПРЕРЫВНЫХ СЛУЧАЙНЫХ ВЕЛИЧИН 133
Y
4
2/3
y y=x
1
y
–1 1
–8 w1(y) w1(y) 0 w (y) X
2
2/3
Возьмем x ∈ [−8, 0] и найдем
p функцию, обратную к y = x . Это
3/2
функция x = −y = − y 3 = w1 (y). Тогда
3 1 3√
w10 (y) = − y 2 = − y.
2 2
По формуле (27.5) получим:
¯ ¯
1 ¯¯ 3 √ ¯¯ 1 √
fη(1) (y) = fξ (w1 (y))|w10 (y)| = − y = y, y ∈ [0, 4].
9¯ 2 ¯ 6
(1)
Таким образом, при y ∈ [0, 1] следует сложить функции fη (y) и
(2) (1)
fη (y), а при y ∈ (1, 4] плотность fη (y) = fη (y).
Нам осталось записать ответ для плотности:
1√
3 y при y ∈ [0, 1],
√
fη (y) = 16 y при y ∈ (1, 4],
0 при y∈/ [0, 4].
134 Глава 2. Случайные величины и функции от них
Запишем ответ:
0 при y ≤ 0,
2
y 3/2 при 0 ≤ y ≤ 1,
Fη (y) = 91 1 3/2
+ y при 1 ≤ y ≤ 4,
9 9
1 при y ≥ 4.
§ 28. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ НЕПРЕРЫВНОЙ С.В. 135
Z
+∞
def
Mξ = xf (x)dx , (28.1)
−∞
M (ξη) = M ξ · M η;
4) |M ξ| ≤ M |ξ|;
5) Если P {ξ ∈ [a; b]} = 1, то и M ξ ∈ [a; b].
Свойство 1 по-прежнему, относится к вырожденной, то есть
дискретной, случайной величине и приводится как напоминание.
Свойство 4 вытекает из соответствующего свойства интегралов,
а вот свойства 2 и 3 мы пока доказать не в состоянии — они свя-
заны с математическим ожиданием функции двух непрерывных
случайных величин. Мы докажем их позднее, при изучении си-
стем случайных величин.
Докажем 5:
Z
+∞ Za Zb Z
+∞
Аналогично M ξ ≥ a.
В § 26 мы говорили о симметричных случайных величинах.
Докажем следующее утверждение.
§ 28. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ НЕПРЕРЫВНОЙ С.В. 137
= 2a f (u)du − uf (u)du = 2a − M ξ.
−∞ −∞
Mξ = xf (x)dx = 0,
−∞
если этот интеграл сходится.
Рассмотрим теперь математическое ожидание случайной ве-
личины η, являющейся функцией другой случайной величины ξ,
у которой известно распределение.
Z
+∞
Решение15 . Найдем
Z
+∞ Z
+∞ Z0
1 −|x| 1
Mη = xfη (x)dx = xe dx = xex dx+
2 2
−∞ −∞ −∞
Z
+∞ Z0 Z
+∞ ¯0
1 −x 1 x1 −x 1 x ¯¯
+ xe dx = xde − xde = xe ¯ −
2 2 2 2 −∞
0 −∞ 0
Z0 ¯+∞ Z
+∞
1 1 ¯ 1
− ex dx − xe−x ¯¯ + e−x dx =
2 2 2 0
−∞ 0
¯0 ¯+∞
1 x ¯¯ 1 −x ¯¯ 1 1
=0− e ¯ −0 − e ¯ = − + = 0.
2 −∞ 2 0 2 2
M |η| = xe−x dx = 1,
0
то есть существует.
Построим график функции y = fη (x) (рис. 28.2). Очевидно,
эта функция четная, то есть распределение симметрично. Если
˛+∞
˛
15 Здесь и далее символика «g(x)˛˛ » означает, что рассматриваются
−∞
пределы:
˛+∞
˛
g(x)˛˛ = lim g(B) − lim g(A).
B→+∞ −∞ A→−∞
§ 28. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ НЕПРЕРЫВНОЙ С.В. 141
Z1 ½
dx сходится при p < 1,
xp расходится при p ≥ 1.
0
R1 dx
Следовательно, 2
расходится. Следовательно, по предель-
0 x
R1 e−x
ному признаку сравнения расходится и 2
dx. В то же время
0 x
Z
+∞ Z
+∞
e−x 1
0≤ dx ≤ e−x dx = ,
x2 e
1 1
R e−x
+∞
то есть dx сходится. Таким образом,
1 x2
Z
+∞ Z
+∞ Z1 Z
+∞
e−|x| e−x e−x e−x
dx = dx = dx + dx
x2 x2 x2 x2
0 0 0 1
142 Глава 2. Случайные величины и функции от них
Z
+∞ Z0 Z
+∞
e−|x| ex e−x
dx = dx + dx,
x2 x2 x2
−∞ −∞ 0
µ ¶
1
то есть искомого математического ожидания M не суще-
η2
ствует.
Как видите, при решении вероятностных задач существенно
используется аппарат математического анализа. Только что мы
повторили методы, которые часто используются при выяснении
вопросов о существовании числовых характеристик случайных
величин.
Пример 28.3. Построить график плотности распределения
1
fξ (x) = , x ∈ R,
π(1 + x2 )
Z
+∞ ½
dx сходится при p > 1,
(28.5)
xp расходится при p ≤ 1.
1
x x 1
∼ 2 = , при x → ±∞.
1 + x2 x x
µ √ ¶ +∞ √
Z Z
+∞ √
3
ξ 3
x 1 3
x
Mη = M = f ξ (x)dx = dx.
1 + ξ2 1 + x2 π (1 + x2 )2
−∞ −∞
Z
+∞
def 2
Dξ = M (ξ − M ξ) = (x − M ξ)2 f (x)dx . (29.1)
−∞
Z
+∞
def k
νk (ξ) = M ξ = xk f (x)dx.
−∞
Z
+∞
def
µk (ξ) = M (ξ − M ξ)k = (x − M ξ)k f (x)dx.
−∞
Y
y = fx (x) y = fx (x)
1 2
Ax <0 Ax >0
1 2
0 Mx Mx X
1 2
всех x ∈ [a, b], то есть при «бросании случайной точки на [a, b]»
не отдается предпочтения ни одному из значений.
Найдем числовые характеристики и функцию распределения
равномерного закона:
Z
+∞ Zb
1 a+b
Mξ = xfξ (x)dx = x dx = ;
b−a 2
−∞ a
Z
+∞
2 2
Dξ = M ξ − (M ξ) = x2 fξ (x)dx − (M ξ)2 =
−∞
Zb µ ¶2
2 1 a+b (b − a)2
= x dx − = .
b−a 2 12
a
как геометрическая.
150 Глава 2. Случайные величины и функции от них
1 1
Итак, M ξ = , Dξ − 2 . Найдем функцию распределения экс-
α α
поненциальной случайной величины
Zx ½
0 при x ≤ 0,
Fξ (x) = fξ (t)dt = (30.5)
1 − e−αx при x ≥ 0.
−∞
Z0 Zx
Fξ (x) = fξ (t)dt + fξ (t)dt =
−∞ 0
Zx ¯x
e−αt ¯¯
=0+α e−αt dt = α = 1 − e−αx .
−α ¯0
0
1 1
Отсюда e−αµ = ⇒ µ = ln 2.
2 α
(x − a)2
1 −
fξ (x) = √ e 2σ 2 , x ∈ R. (30.6)
σ 2π
Обозначение: ξ ⊂
= N (a, σ).
График плотности нормального закона распределения веро-
ятностей изображен на рис. 30.5. Очевидно, кривая симметрична
Y
(x – a)2
1 1 – 2s2
y= e
s ?2p s ?2p
1
s ?2pe
a – 3s a–s a a+s a + 3s X
Рассмотрим
Z
+∞ Z
+∞
1 (x−a)2
J = xfξ (x)dx = √ e− 2σ2 dx.
σ 2π
−∞ −∞
t 2
t → ±∞), откуда следует, что te−t = → 0 при t → ±∞.
e t2
(Кто забыл этот факт, может вычислить предел по правилу Ло-
питаля18 .)
Итак, мы выяснили числовые характеристики нормального
распределения:
M ξ = µ = m = a, Dξ = σ 2 .
Очевидно, при изменении значения a = M ξ форма кривой
(см. рис. 30.5) не меняется. Кривая как бы передвигается па-
раллельно самой себе вдоль оси OX в другой «центр». В то
же время √ при изменении среднего квадратического отклоне-
ния σ = Dξ меняется форма кривой. Максимальное значе-
1
ние плотности равно √ — обратно пропорционально значе-
σ 2π
нию σ. Следовательно, при увеличении σ максимум уменьшает-
ся, но так как площадь кривой должна остаться равной единице,
кривая как бы «расползается» в стороны.
На рис. 30.6 изображены графики плотностей для двух нор-
мальных законов распределения с одинаковыми a и разными σ.
Y
1
s1?2p s1 < s2
1
s2?2p
0 а X
∗
При использовании нормального распределения вам могут
пригодиться следующие соотношения19 : если ξ ⊂
= N (a, σ), то
(2n)!
µ2n (ξ) = σ 2n · = σ 2n · (2n − 1)!!,
2n · n! (30.10)
µ2n+1 (ξ) = 0, n ∈ N.
18 Гийом Франсуа Антуан де Лопиталь (Lhopital Guillaume Francois Antoine
1 x2
φ(x) = fξo (x) = √ e− 2 , x ∈ R; (30.12)
2π
M ξo = µ = m = 0, Dξo = 1.
158 Глава 2. Случайные величины и функции от них
Y
2
1 –x
1
y= 1 e 2
?2p
?2p
–3 –2 –1 0 1 2 3 X
Zx t2
1 −
Φ(x) = √ e 2 dt . (30.13)
2π
−∞
Zx (t − a)2
1 −
Fξ (x) = √ e 2σ 2 dt =
σ 2π
−∞
x−a x−a
Zσ u2 Zσ u2 µ ¶
1 − 1 − x−a
= √ e 2 σdu = √ e 2 du = Φ .
σ 2π 2π σ
−∞ −∞
Итак,
µ ¶
x−a
Fξ (x) = Φ , (30.14)
σ
Zx
1 t2
Φ0 (x) = √ e− 2 dt. (30.15)
2π
0
Z0
1 1 t2
Φ(0) = = √ e− 2 dt.
2 2π
−∞
Следовательно, для ∀x ∈ R
Zx Z0 Zx
1 2
− t2 1 2
− t2 1 t2
Φ(x) = √ e dt = √ e dt + √ e− 2 dt =
2π 2π 2π
−∞ −∞ 0
1
= Φ(0) + Φ0 (x) = + Φ0 (x).
2
Кроме того, как нетрудно доказать, функция Φ0 (x) — нечетная
и Φ0 (−x) = −Φ0 (x). Это дает возможность составлять таблицы
для Φ0 (x) лишь при положительных x.
Итак,
1
Φ(x) = + Φ0 (x); Φ0 (−x) = −Φ0 (x) . (30.16)
2
вают Φ(x), иногда Φ0 (x), а иногда даже 2Φ0 (x). Все эти функции объединяют
общим названием — «интеграл вероятностей».
160 Глава 2. Случайные величины и функции от них
Y
1 s
ps y=
p(s2+(x–a)2)
3
4ps
X
0 a– s a a+ s
?3 ?3
Y
y = Fx(x)
1
1
2
X
0 a
1
График плотности изображен на рис. 30.10; угол ϕ = arctg 2 ,
√ σ
√ 3
точка перегиба ( 3σ; √ ). Убедитесь самостоятельно в кор-
σ e3
ректности определения.
Вычислим математическое ожидание случайной величины,
имеющей распределение Рэлея, вновь сводя интеграл к интегра-
22 Джон Уильям Рэлей (Rayleigh John William, 1842–1919) – английский фи-
лу Эйлера–Пуассона (30.7):
Z
+∞ Z
+∞ x2 Z
+∞
x2 − 2 2σ 2 t2 −t2 √
Mξ = xfξ (x)dx = e 2σ dx = e 2σdt =
σ 2 σ2
−∞ 0 0
¯+∞
√ Z 2 −t2 √ Z
+∞ +∞
−t2
√ ¯
−t2 ¯
= 2 2σ t e dt = − 2σ tde = − 2σte ¯ +
0
0 0
√ r
√ Z −t2
+∞
√ π π
+ 2σ e dt = 0 + 2σ · =σ .
2 2
0
Z
+∞ Z+∞ x2 +∞ √
Z
2 2 x3 − 2 2 2σ 3 t3 −t2 √
M ξ = x fξ (x)dx = 2
e 2σ dx = e 2σdt =
σ σ2
−∞ 0 0
Z
+∞ Z
+∞ Z
+∞
2 3 −t2 2 2 −t2 2 2
= 4σ t e dt = 2σ t e dt = 2σ ue−u du =
0 0 0
¯+∞ Z
+∞ ¯+∞
2
¯
−u ¯ 2
¯
2 −u ¯
= −2σ ue ¯ + 2σ e du = 0 − 2σ e ¯ = 2σ 2 .
−u
0 0
0
Следовательно,
π π
Dξ = M ξ 2 − (M ξ)2 = 2σ 2 − σ 2 · = (2 − )σ 2 .
2 2
Итак,
r
π π 2
Mξ = σ , Dξ = (2 − )σ . (30.22)
2 2
Найдем функцию распределения Рэлея при x > 0 (подробное
вычисление интеграла проведите самостоятельно):
Zx Zx
t − t22 x2
Fξ (x) = fξ (t)dt = 2
e 2σ dt = 1 − e− 2σ2 . (30.23)
σ
−∞ 0
164 Глава 2. Случайные величины и функции от них
30.6. БЕТА-РАСПРЕДЕЛЕНИЕ
∗
B-распределением23 называется распределение вероятно-
стей, задаваемое плотностью
(
1
xp−1 (1 − x)q−1 при 0 < x < 1,
fξ (x) = B(p,q) (30.24)
0 при x ∈
/ (0, 1),
зависящей от двух параметров: p > 0 и q > 0. Знаменатель
нормирующего множителя B(p, q) — это так называемая бета-
функция, определяемая формулой
Z1
def Γ(p)Γ(q)
B(p, q) = xp−1 (1 − x)q−1 dx = . (30.25)
Γ(p + q)
0
«бета».
§ 30. ВАЖНЕЙШИЕ ЗАКОНЫ НЕПРЕРЫВНЫХ РАСПРЕДЕЛЕНИЙ 165
Z
+∞ Z
+∞ x2
x −
P {ξ > 2} = fξ (x)dx = e 4 dx;
2
2 2
Z0,2
P {η ∈ (0; 0, 2)} = fη (y)dy = Fη (0, 2) − Fη (0) =
0
µ ¶ µ ¶
0, 2 − 0 0−0
= Φ0 − Φ0 = Φ0 (0, 2) − 0 ≈ 0, 08.
1 1
1
» 0,69 x = Fh(y)
0,5
» 0,31
0 1
– 12 2
X
СЛУЧАЙНЫЕ ВЕКТОРЫ
(СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН)
def
Fξ (x1 , ..., xn ) = P {ξ1 < x1 , ξ2 < x2 , . . . , ξn < xn } . (32.1)
Точнее, это
P {ω ∈ Ω : ξ1 (ω) < x1 , . . . , ξn (ω) < xn } =
n
¡\ ¢
=P {ω ∈ Ω : ξk (ω) < xk } = P (A).
k=1
def
Fξη (x, y) = P {ξ < x, η < y} . (32.2)
при ∀(x, y) ∈ R2 .
Посмотрим на совместную функцию распределения с гео-
метрической точки зрения (см. рис. 32.1). Одновременное осу-
ществление событий {ξ < x} и {η < y} означает, что «случайная
точка» (ξ, η) попадает в область2 (Dxy ) = (−∞, x) × (−∞, y).
Мы же вычисляем вероятность этого события:
ков, то есть «двумерный интервал» или прямоугольник, если эти промежутки ко-
нечны.
174 Глава 3. Случайные векторы
Y
y
h (Dxy)
x
0 X
x
(32.5)
4. x→+∞
lim Fξη (x, y) = 1.
y→+∞
(32.6)
5. lim Fξη (x, y) = Fη (y).
x→+∞
(32.7)
6. lim Fξη (x, y) = Fξ (x).
y→+∞
(32.8)
Y
0 "x 1
"y Fh(y)
0
0 X
0 0
0
P {a ≤ ξ < b, c ≤ η < d} =
(32.9)
= Fξη (b, d) − Fξη (b, c) + Fξη (a, c) − Fξη (a, d).
d – +
c –
+
0 a b X
(D) (E)
(A)
(B)
(C)
Y
x
3 – 3 +
1
2
0
1 – y
+ xy 2
6
X
0 1 2 3 4
0 0
pij = P {ξ = xi } · P {η = yj } = pi qj (33.2)
при всех i = 1, n; j = 1, m.
Распределение дискретного случайного вектора удобно зада-
вать в виде таблицы 33.1, которую называют таблицей или мат-
рицей распределения случайного вектора (ξ, η) (или матри-
цей совместного распределения случайных величин ξ и η).
ξ, η 1 2 3 4
pi , qj 0, 1 0, 25 0, 4 0, 25
HH η
HH 1 2 3 4
ξ H
1 0, 01 0, 025 0, 04 0, 025
2 0, 025 0, 0625 0, 1 0, 0625
3 0, 04 0, 1 0, 16 0, 1
4 0, 025 0, 0625 0, 1 0, 0625
W
{h = y1} {h = y2}
aaaaaaa
aaaaaaa
aaaaaaa
aaaaaaa
{x = xi}
{h = y3}
aaaaaaa
aaaaaaa
aaaaaaa
aaaaaaa
aaaaaaa
{h = y } m
m
X n
X
pi = pij ; qj = pij . (33.6)
j=1 i=1
184 Глава 3. Случайные векторы
ξ x1 x2 ... xn
p1j p2j pnj
pi/j ...
qj qj qj
η y1 y2 ... ym
pi1 pi2 pim
qj/i ...
pi pi pi
def P {ξ < x, η = yj }
Fξ (x/η = yj ) = P {ξ < x/η = yj } =
P {η = yj }
def P {η < y, ξ = xi }
Fη (y/ξ = xi ) = P {η < y/ξ = xi } = .
P {ξ = xi }
pi/j = P {ξ = xi /η = yj } = P {ξ = xi } = pi , i = 1, n (33.10)
n
X
def
mξ (yj ) = M (ξ/η = yj ) = xi pi/j , (33.11)
i=1
P
n
xi pi/j
M (ξ/η = yj ) = i=1
Pn .
pi/j
i=1
P {ζ = g(xi , yj )} = P {ξ = xi , η = yj } = pij ,
i = 1, n; j = 1, m.
Поскольку нам известны все значения случайной величины ζ и
их вероятности, можно составить для ζ ряд распределения, найти
функцию распределения Fζ (z) и математическое ожидание:
n X
X m
M ζ = M g(ξ, η) = g(xi , yj ) · pij . (33.16)
i=1 j=1
n X
X m
def
νk,s (ξ, η) = M (ξ k η s ) = xki yjs pij . (33.17)
i=1 j=1
Очевидно, что
νk,0 (ξ, η) = νk (ξ), ν0,s (ξ, η) = νs (η),
µk,0 (ξ, η) = µk (ξ), µ0,s (ξ, η) = µs (η).
Моменты νk (ξ), νs (η), µk (ξ) и µs (η) при этом называются чи-
стыми моментами. Смешанный момент µ11 называется корре-
ляционным и обозначается Kξη , то есть
def
Kξη = M [(ξ − M ξ)(η − M η)] . (33.19)
§ 33. ДИСКРЕТНЫЕ СЛУЧАЙНЫЕ ВЕКТОРЫ 191
HH η
H −1 0 1 2
ξ HH
−1 0, 1 0 0, 1 0, 2
0 0, 2 0, 1 0 0, 3
ξ −1 0 η −1 0 1 2
pi 0, 4 0, 6 qj 0, 3 0, 1 0, 1 0, 5
4
X
Mη = yj qj = −1 · 0, 3 + 0 · 0, 1 + 1 · 0, 1 + 2 · 0, 5 = 0, 8;
j=1
4
X
Dη = yj2 qj − (M η)2 = 1 · 0, 3 + 1 · 0, 1 + 4 · 0, 5 − 0, 82 = 1, 76.
j=1
ξ −1 0
0, 2 0, 3 ,
pi/4
0, 5 0, 5
ξ −1 0
то есть
pi/4 0, 4 0, 6
η −1 0 1 2
0, 1 0 0, 1 0, 2 ,
qj/1
0, 4 0, 4 0, 4 0, 4
η −1 1 2
то есть .
qj/1 0, 25 0, 25 0, 5
M (ξ/η = 2) = −1 · 0, 4 + 0 · 0, 6 = −0, 4;
M (η/ξ = −1) = −1 · 0, 25 + 1 · 0, 25 + 2 · 0, 5 = 1.
Мы видим, что условный ряд распределения для ξ совпадает с
безусловным. Можно ли сразу сделать вывод о независимости
ξ и η? Нет! Случайные величины ξ и η являются независимы-
ми тогда и только тогда, когда все pij = pi qj или все условные
ряды распределения совпадают с безусловными. Мы же видим,
что полученный условный ряд для η не совпадает с безусловным.
К тому же, например, p11 = 0, 1 6= 0, 4 · 0, 3 = p1 · q1 . Следова-
тельно, ξ и η зависимы.
§ 33. ДИСКРЕТНЫЕ СЛУЧАЙНЫЕ ВЕКТОРЫ 193
P {ξ = 0, 0 ≤ η < 2} = P {ξ = 0, η = 0} + P {ξ = 0, η = 1} =
= p22 + p23 = 0, 1 + 0 = 0, 1.
HH y
HH y ≤ −1 −1 < y ≤ 0 0<y≤1 1<y≤2 2<y
x H
x ≤ −1 0 0 0 0 0
−1 < x ≤ 0 0 0, 1 0, 1 0, 2 0, 4
0<x 0 0, 3 0, 4 0, 5 1
Zx Zy
Fξη (x, y) = du fξη (u, v)dv . (34.1)
−∞ −∞
Если функция fξη (x, y), которую для краткости иногда назы-
вают просто «плотность», непрерывна, то можно продифферен-
цировать по x обе части равенства (34.1), пользуясь теоремой
Барроу:
Zy
∂Fξη (x, y)
= fξη (x, v)dv.
∂x
−∞
∂Fξη (x, y)
fξη (x, y) = . (34.2)
∂x∂y
(Ds)
y –
+
X
x x+Dx
x
3) P {(ξ, η) ∈ (D) ⊂ R2 } = fξη (x, y)dσ . (34.6)
(D)
Z z = fxh(x, y)
(V)
(V)
(D) 0 Y
(D)
X
Y
1
x2 + y2 =1
(D)
0 x 1 X
Y
(D)
y
(4)
1 (Dxy)
(1)
(Dxy) (D)
0 1 x X
(2)
(Dxy)
(3)
(Dxy)
X (Dxy) (D)
U
(D)
0 u x 1 U
Тогда
x x
F (x, y) = f (u, v)dudv = 8uv dudv =
(Dxy ) (Dxy )∩(D)
√
Zx Z1−u2 Zx ¯√1−u2
v 2 ¯¯
=8 du uv dv = 8 udu · ¯ =
2 0
0 0 0
Zx
=4 u(1 − u2 )du = x2 (2 − x2 ).
0
202 Глава 3. Случайные векторы
V
u2 + v2 =1
1
(D)
(Dxy)
v
(Dxy) (D)
U
0 1 x U
√
x Zy Z1−v2
F (x, y) = 8uvdudv = 8 dv uvdu =
(Dxy )∩(D) 0 0
Zy ¯√1−v2 Zy
2
u ¯¯
=8 vdv · =4 v(1 − v 2 )dv = y 2 (2 − y 2 ).
2 ¯0
0 0
1 u2 + v2 =1
y
(D)
(Dxy)
0 x 1 U
Тогда
Zx Zy Zx Zy
F (x, y) = du 8uvdv = 8 udu · vdv = 2x2 y 2 .
0 0 0 0
§ 34. НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕКТОРЫ 203
V
1
y (Dxy)
u2 + v2 =1
(D)
0 u u x
?1–y2 1 U
Fξ (x) = lim Fξη (x, y), Fη (y) = lim Fξη (x, y) . (34.9)
y→+∞ x→+∞
Z
+∞ Z
+∞
где (D) = [0, +∞) × [0, 2π]. Найти одномерные плотности огиба-
ющей fV (x) и фазы fϕ (y). Определить типы законов распреде-
ления, найти математические ожидания и дисперсии случайных
величин V и ϕ.
Решение задачи будем проводить по формулам (34.11). При
интегрировании учтем, что при (x, y) ∈
/ (D) плотность
fV ϕ (x, y) ≡ 0.
206 Глава 3. Случайные векторы
Итак, (x x2
e− 2σ2 при x ∈ [0, +∞),
fV (x) = σ 2
0 при x ∈
/ [0, +∞).
Сравнивая это выражение с (30.21), видим, что огибающая V
распределена по закону Рэлея с параметром σ. Нам уже извест-
ны числовые характеристики рэлеевской случайной величины
(30.22): r
π π
MV = σ , DV = (2 − )σ 2 .
2 2
Найдем плотность случайной величины ϕ, рассматривая
y ∈ [0, 2π]:
Z
+∞ Z
+∞ x2
1 x − 2
fϕ (y) = fV ϕ (x, y)dx = · e 2σ dx =
2π σ 2
−∞ 0
Z
+∞ x2
1 x − 2 1 1
= e 2σ dx = ·1= .
2π σ2 2π 2π
0
a+b (b − a)2 π2
Mϕ = = π; Dϕ = = .
2 12 3
Y
r y = +?r 2 –x2
(Dr)
–r 0 x r
X
–r y = –?r 2 –x2
Получим:
√
Z
+∞ rZ2 −x2
1
fξ (x) = fξη (x, y)dy = dy =
√
πr2
−∞ − r 2 −x2
√
1 p 2 2
p
2 2
2 r2 − x2
= 2( r − x + r − x ) = .
πr πr2
Итак,
√
2 r2 − x2
fξ (x) = при x ∈ [−r, r], (34.13)
πr2
0 при x ∈
/ [−r, r].
∗
Определение 34.2. Условной функцией распределения
непрерывной случайной величины ξ при условии, что случай-
ная величина η приняла значение y, называется функция
def
Fξ (x/η = y) = lim P {ξ < x/y ≤ η < y + ∆y} . (34.15)
∆y→0
h (D)
y
0 x x U
Rx R
y+∆y
du fξη (u, v)dv
−∞ y
= lim . (34.16)
∆y→0 R
y+∆y
fη (v)dv
y
Z
y+∆y Z
y+∆y
причем γ1 → y и γ2 → y при ∆y → 0.
Тогда из (34.16) следует, что
Rx
fξη (u, γ2 )du · ∆y
−∞
Fξ (x/η = y) = lim =
∆y→0 fη (γ1 ) · ∆y
Rx (34.17)
fξη (u, y)du Zx
−∞ fξη (u, y)
= = du.
fη (y) fη (y)
−∞
Zx
Fξ (x/η = y) = fξ (u/η = y)du . (34.21)
−∞
∂
fξ (x/η = y) = Fξ (x/η = y).
∂x
Не забудем, что во всех наших выкладках число y считается фик-
сированным, а плотность — непрерывной функцией.
212 Глава 3. Случайные векторы
Z
+∞
def
mξ (y) = M (ξ/η = y) = xfξ (x/η = y)dx , (34.24)
−∞
Z
+∞
Z
+∞
Z
+∞
√
rZ2 −x2
y
= p dy = 0.
√ 2 r2 − y2
− r 2 −x2
Рассмотрим
1
fξ (x) = при x ∈ (−∞, +∞);
π(1 + x2 )
1
при y ∈ [0, 2],
fη (y) = 2
0 при y ∈
/ [0, 2].
§ 34. НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕКТОРЫ 221
Проверьте:
x x 1
fξη (x, y)dxdy = dxdy = 1,
2π(1 + x2 )
R2 (K)
1 y = +?1 –x2
(D) (K)
U
–1 0 1 X
(D)
y = –?1 –x2
–1
x
p = P {ξ 2 + η 2 ≤ 1} = P {(ξ, η) ∈ (D)} = fξη (x, y)dxdy =
(D)
x 1
= dxdy,
2π(1 + x2 )
(D)∩(K)
так как fξη (x, y) = 0 для всех (x, y), не находящихся в полосе K.
222 Глава 3. Случайные векторы
Z1 √ Zπ/2
1 1 − x2 £ ¤ 1 cos2 tdt
= dx = x = sin t = =
π 1+x 2 π 1 + sin2 t
0 0
Z
+∞ Z
+∞
£ ¤ 1 du 2 du
= tg t = u = = −
π (1 + u2 )(1 + 2u2 ) π 1 + 2u2
0 0
Z
+∞ √ ¯ ¯+∞
1 du 2 √ ¯+∞ 1 ¯
− = arctg 2u¯ − arctg u¯¯ =
¯
π 1 + u2 π 0 π 0
0
√
2−1
= ≈ 0, 21.
2
Fξ1 , ξ2 , ..., ξn (x1 , ..., xn ) = Fξ1 (x1 ) · ... · Fξn (xn ). (34.32)
”вода“
g (x, h)
0
(1) Y
(Dz ) (2) (3)
(Dz ) (Dz )
X (x, h)
(k)
по аксиоме аддитивности, так как области (Dz ) не пересекают-
(k)
ся и, следовательно, события {(ξ, η) ∈ (Dz )} несовместны.
Каждая из вероятностей (35.2) может быть найдена по фор-
муле (34.6):
X x
Fζ (z) = fξη (x, y)dxdy, (35.3)
k (D (k) )
z
h z= x + ih
|z|
arg z
0 X
π π
(рис. 35.2). Пусть z ∈ (− , ). Тогда
2 2
η
Farg ζ (z) = P {arg ζ < z} = P {arctg < z} =
ξ
η (35.5)
= P{ < tgz} = P {η < ξ · tg z}.
ξ
§ 35. ФУНКЦИИ ДВУХ НЕПРЕРЫВНЫХ С.В. 227
Y
y = x tgz
x Z
+∞ xZtg z
Y
z x 2 + y2 =z 2
–z 0 x z
X
(Qz)
–z x 2 + y2 < z 2
Проверьте:
Z
+∞ Z
+∞
−2x
2e dx = 2e−2y dy = 1.
0 0
Z
+∞ Z
+∞
−2x
=1−2 e dx · 2 e−2y dy =
z z
Z
+∞
Проверим: функция
½
0, если z ≤ 0,
Fζ (z) =
1 − e−4z , если z > 0
230 Глава 3. Случайные векторы
Z
z
z =x+y
y = –x
z Y
0
(Dz)
y = z –x
z
X
Y
z
y = z –x
h
z
x 0 X
(Dz):y < z –x
Z
+∞
Z
+∞ Z
+∞
Z
+∞ Z
+∞
Z
+∞
n x2 o n (z − x)2 o
1
fξ+η (z) = √ exp − · exp − dx =
( 2π)2 2 2
−∞
Z
+∞
n x2
1 z2 2xz x2 o
= exp − − + − dx =
2π 2 2 2 2
−∞
n z2 o Z
+∞
1
= exp − exp{−x2 + xz}dx =
2π 2
−∞
n z2 o Z
+∞
n
1 z z2 o
= exp − exp −(x − )2 + dx =
2π 2 2 4
−∞
234 Глава 3. Случайные векторы
n z2 o Z
+∞
n
1 z o z
= exp − exp −(x − )2 d(x − ) =
2π 4 2 2
−∞
1 n z2 o Z
+∞
n o
= exp − exp −t2 dt =
2π 4
−∞
1 n z2 o √ 1 n z2 o
= exp − · π = √ √ exp − √ .
2π 4 2 · 2π 2( 2)2
В выкладках было использовано значение интеграла Эйлера–
Пуассона (30.7). Сравнивая последнее выражение с плотностью
√
= N (0, 2).
нормального закона (30.6), мы видим, что ξ + η ⊂
Пример 35.3. Даны две независимые случайные величины
ξ ⊂
= R[α, β] и η ⊂
= N (a, σ). Найти распределение случайной ве-
личины ζ = ξ + η, то есть композицию равномерного и нормаль-
ного законов.
Решение, как обычно, начнем с того, что запишем то, что нам
известно: плотности fξ (x) и fη (y) и первую из формул (35.8):
(
1
при x ∈ [α, β],
fξ (x) = β−α
0 при x ∈/ [α, β];
1 n (y − a)2 o
fη (y) = √ exp − при ∀y ∈ R,
σ 2π 2σ 2
Z
+∞
Zβ n (z − x − a)2 o
1 1
= · √ exp − dx =
β − α σ 2π 2σ 2
α
Zβ n (x − (z − a))2 o
1 1
= √ · exp − dx.
β−α σ 2π 2σ 2
α
Z
+∞ Z
+∞ Z
+∞
Z
+∞ Z
+∞
Z
+∞ Z
+∞
M (c1 ξ + c2 η) = c1 M ξ + c2 M η .
Z
+∞ Z
+∞
M (ξη) = M ξ · M η.
Доказательство. Рассмотрим
Z
+∞ Z
+∞
Z
+∞ Z
+∞
Z
+∞ Z
+∞
∗
Пользуясь только что доказанным свойством, независимо-
стью функций от независимых случайных величин и свойством
дисперсии Dξ = M ξ 2 − (M ξ)2 , мы можем доказать еще одну
интересную формулу для дисперсии произведения независимых
случайных величин:
oo o o o o
(в частности, D(ξ η ) = D ξ ·D η , где ξ и η — независимые цен-
трированные случайные величины (см. § 23).
Рассмотрим
и формулы Валлиса.
§ 36. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНОГО ВЕКТОРА 239
Z
+∞ Z
+∞ (36.2)
= (x − M ξ)k (y − M η)s fξη (x, y)dxdy
−∞ −∞
= a2 Dξ + b2 Dη + 2abKξη .
2 2 2
где (Dr ) = {(x, y) : x + y ≤ r } — круг радиуса r с центром в
начале координат (см. рис. 34.9).
Для этих случайных величин мы уже нашли частные и услов-
ные плотности распределения, безусловные и условные матема-
тические ожидания, дисперсии, причем оказалось, что
M ξ = M η = 0,
2
Dξ = Dη = r4 .
и x
Dζ = [(3x − y + 4) − M ζ]2 fξη (x, y)dxdy,
R2
M ζ = M (3ξ − η + 4) = 3M ξ − M η + 4 = 4;
Dζ = D(3ξ − η + 4) = D(3ξ − η) =
= 32 Dξ + (−1)2 Dη + 2 · 3 · (−1)Kξη =
r2 r2 5
=9· +1· + 0 = r2 .
4 4 2
Если бы ζ оказалась нелинейной функцией, то без двойных
интегралов нам было бы не обойтись. Разве что второй началь-
ный момент можно было бы найти, зная математическое ожида-
ние и дисперсию: M ξ 2 = Dξ + (M ξ)2 .
Краткие выводы. При вычислении числовых характеристик
случайных величин как в дискретном, так и в непрерывном слу-
чае необходимо выбирать оптимальный метод.
Для поиска чистых моментов можно использовать:
• одномерные распределения;
• двумерные распределения;
• свойства математического ожидания и дисперсии.
Для поиска смешанных моментов:
• двумерные распределения;
• свойства смешанных моментов независимых случайных ве-
личин.
244 Глава 3. Случайные векторы
Kξη = M (ξ − M ξ)(η − M η) =
= M (ξη − ηM ξ − ξM η + M ξM η) =
= M (ξη) − M η · M ξ − M ξ · M η + M ξ · M η =
= M (ξη) − M ξ · M η.
Свойство 3 доказывается с помощью несложных преобразо-
ваний. Докажите его самостоятельно.
Свойство 4 вытекает из свойства 2 и формулы (34.27), ко-
торая была доказана для непрерывных независимых случайных
величин в п. 35.3, а для дискретных — в § 20.
Свойство 6 следует из первого свойства коэффициента кор-
реляции (см. далее теорему 36.3) и формулы (36.12).
Отметим, что в доказательстве теоремы используются толь-
ко свойства математического ожидания — общие для всех типов
случайных величин. Следовательно, и свойства корреляционно-
го момента одинаковы как для непрерывных, так и для дискрет-
ных случайных величин.
M (ξη) = M ξ · M η.
Z
+∞ Z
+∞
1 3 − x2
2 x2 1 x2
= −√ x e d(− ) = − √ x3 de− 2 =
2π 2 2π
−∞ −∞
¯+∞ Z
+∞
1 3 − x2 ¯¯ 1 x2
= −√ x e 2
¯ +√ e− 2 · 3x2 dx =
2π −∞ 2π
−∞
Z
+∞
1 x2
=0+3· √ x2 e− 2 dx = 3 · M ξ 2 = 3.
2π
−∞
rξξ = 1 , (36.13)
o o
Из последнего равенства получаем: ξн = ηн с вероятностью 1. Под-
ставим сюда (36.14):
ξ − Mξ η − Mη
= ,
σξ ση
откуда найдем, что с вероятностью 1
ση ση
η= ξ− M ξ + M η = aξ + b,
σξ σξ
ση ση
где a = > 0, b = M η − M ξ.
σξ σξ
Рассмотрите самостоятельно rξη = −1 и получите a < 0.
Достаточность доказывается намного проще. Пусть η = aξ + b.
Тогда Dη = a2 Dξ и
M (ξ − M ξ)(aξ + b − M (aξ + b))
rξη = p =
a2 (Dξ)2
aM (ξ − M ξ)2 a
= = .
|a|Dξ |a|
Следовательно, |rξη | = 1, а знак rξη совпадает со знаком a.
3) Если ξ и η — независимые случайные величины, то
Kξη = 0 по теореме 36.2. Значит, и rξη = 0. То, что обратное
утверждение неверно, также вытекает из прямо пропорциональ-
ной зависимости между rξη и Kξη : либо они оба равны нулю, либо
оба отличны от нуля. Нам остается сослаться на примеры 36.1 и
36.3 после утверждения 36.1.
Свойства 4 и 5 докажите, пожалуйста, самостоятельно, поль-
зуясь свойствами корреляционного момента и дисперсии.
Выводы:
1. Коэффициент корреляции показывает степень и характер
линейной зависимости между случайными величинами.
Чем ближе rξη к единице, тем зависимость ближе к линей-
ной.
2. Равенство нулю коэффициента корреляции не означает от-
сутствие зависимости между случайными величинами. Она
может быть даже строго функциональной при нулевом ко-
эффициенте корреляции.
250 Глава 3. Случайные векторы
def
M ξ~ = (M ξ1 , M ξ2 , ..., M ξn )T . (36.16)
· ¸ " #
Dξ Kξη Kξζ
Dξ Kξη
K= или K= Dη Kηζ .
Dη
Dζ
o o
K = M [(ξ~ − M ξ)(
~ ξ~ − M ξ)
~ T ] = M [ξ~ξ~T ] . (36.21)
· ¸ " #
1 rξη rξζ
1 rξη
R= и R= 1 rηζ .
1
1
KAξ~ = AKξ~AT .
n n
©£X ¤ £X ¤ª
=M (ξi − M ξi )ui · (ξj − M ξj )uj =
i=1 j=1
n
£X ¤2
=M (ξi − M ξi )ui ≥0
i=1
для ∀ui ∈ R, i = 1, n.
Если эти формулы P кажутся вам непонятными, распишите их
при n = 2 без знака — и все станет ясным.
Доказательства свойств 3 и 4 чисто вычислительные и предо-
ставляются для самостоятельной работы читателям.
M χ = 2M ξ + 3M η − M ζ + 2 = −5.
§ 37. ЛИНЕАРИЗАЦИЯ ФУНКЦИЙ СЛУЧАЙНЫХ АРГУМЕНТОВ 255
Z
1
D
z = fxh(x, y)
0
Y
(D) (d)
M ξ = a, M η = b, Dξ = σξ2 , Dη = ση2 .
§ 38. ВАЖНЕЙШИЕ ДВУМЕРНЫЕ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ 261
lim
x→±∞
fξη (x, y) = 0.
(y→±∞)
262 Глава 3. Случайные векторы
(x − a)2 (y − b)2
2 + = C1 . (38.6)
2σξ 2ση2
ξ~ = (ξ1 , . . . , ξn )T
имеет нормальное (гауссовское) распределение вероятностей,
если
1 n 1 o
fξ~(~x) = √ p exp − (~x − ~a)T K −1 (~x − ~a) ,
( 2π)n · |K| 2
ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ
ТЕОРИИ ВЕРОЯТНОСТЕЙ
p.
−−−−→ ξ.
Обозначение: ξn −n→+∞
∗
Разберемся, что означает этот вид сходимости. Рассмотрим
бесконечную последовательность событий
An = {ω ∈ Ω : |ξn (ω) − ξ(ω)| > ε}, n = 1, 2, . . .
Когда-то мы проводили параллель между вероятностью события
и площадью изображающего его множества в диаграммах Вен-
p.
на. Так вот ξn −n→+∞
−−−−→ ξ , когда P (An ) → 0 при n → +∞. Ес-
ли проводить параллель с площадью, то это означает, что пло-
щади соответствующих множеств стремятся к нулю (рис. 39.1).
п.н.
Обозначение: ξn −n→+∞
−−−−→ ξ.
∗
При каждом фиксированном ω ∈ Ω мы получаем числовую
последовательность {ξn (ω)}∞n=1 , которая сходится к числу ξ(ω)
на множестве элементарных исходов (на событии), имеющем ве-
роятность 1, то есть при «почти всех» ω ∈ Ω:
∗
Определение 39.4. Говорят, что последовательность {ξn }∞
n=1
сходится к случайной величине ξ в среднем квадратическом,
если
lim M |ξn − ξ|2 = 0 . (39.4)
n→+∞
∗
Из сходимости в среднем квадратическом вытекает сходи-
мость по вероятности. Из сходимости почти наверное — сходи-
мость по вероятности и по распределению. Подробнее о взаимо-
связи различных типов сходимости можно прочитать в [1].
268 Глава 4. Предельные теоремы теории вероятностей
∗
Отметим одно достаточное условие для того, чтобы имела
место сходимость почти наверное: если ряд
∞
X
P {|ξn − ξ| > ε}
n=1
п.н.
сходится при ∀ε, то ξn −n→+∞
−−−−→ ξ . Таким образом, чтобы име-
ла место сходимость с вероятностью 1, нужно, чтобы вероятно-
сти (39.1) «очень быстро» стремились к нулю.
Отметим также, что в качестве предельной случайной вели-
чины ξ может оказаться и вырожденная случайная величина.
При формулировке предельных теорем теории вероятностей
нам придется иметь дело с бесконечными последовательностями
независимых случайных величин. Это означает, что какой бы
конечный «набор» случайных величин мы ни взяли из этой по-
следовательности, они будут независимыми в совокупности.
Mξ
P {ξ ≥ δ} ≤ . (40.1)
δ
Z
+∞ Z
+∞
n
X X X
Mξ = xi pi = xi pi + xi pi ≥
i=1 i:xi <δ i:xi ≥δ
X X
≥ xi pi ≥ δ · pi = δ · P {ξ ≥ δ}.
i:xi ≥δ i:xi ≥δ
∗
Попробуйте аналогично доказать неравенство
M |ξ|
P {|ξ| ≥ δ} ≤
δ
Dξ
P {|ξ − M ξ| ≥ ε} ≤ . (40.2)
ε2
M (ξ − M ξ)2 Dξ
P {|ξ − M ξ| ≥ ε} = P {(ξ − M ξ)2 ≥ ε2 } ≤ 2
= 2.
ε ε
1
P {|ξ − M ξ| ≥ 3σξ } ≤ , (40.3)
9
√
где σξ = Dξ.
Следствие очевидно вытекает из неравенства Чебышёва, ес-
ли положить ε = 3σξ . Неравенство (40.3) гарантирует для лю-
бой случайной величины с конечной дисперсией, что вероятность
удаления ее значений от M ξ на расстояние более 3σξ достаточ-
1
но мала — не более . На самом деле для большинства случай-
9
ных величин эта вероятность существенно меньше. Например,
для нормального закона она равна 0,003. Поэтому на практике
обычно считают, что все возможные значения ξ лежат на проме-
жутке [M ξ − 3σξ ; M ξ + 3σξ ]. Это и называют «правилом трех
сигма».
2 Это неравенство было доказано Чебышёвым в 1866 году и независимо Бье-
нэме в 1853 году. Именем Чебышёва часто называют целую серию неравенств,
так как Чебышёв применил их к доказательству теорем закона больших чисел.
§ 40. НЕРАВЕНСТВО ЧЕБЫШËВА 271
ξ1 + . . . + ξn a1 + . . . + an p.
− −−−−−→ 0 , (41.1)
n n n→+∞
Обозначим
def ξ1 + . . . + ξn
ηn = .
n
a1 + . . . + an
Тогда M ηn = и соотношение (41.1) можно пере-
n
писать в равносильной форме:
p.
ηn − M ηn −−−−−→ 0 . (41.2)
n→+∞
ξ1 + . . . + ξn p.
−−−−−→ a . (41.3)
n n→+∞
274 Глава 4. Предельные теоремы теории вероятностей
то последовательность {ξn }∞
n=1 подчиняется закону больших
чисел.
Доказательство. Докажем выполнение (41.2), для чего со-
гласно (39.1), достаточно доказать, что для ∀ε > 0 имеет место
сходимость:
P {|ηn − M ηn | ≥ ε} −−−−−→ 0. (41.4)
n→+∞
Следствие.
Если {ξn }∞
n=1 — последовательность попарно независимых
одинаково распределенных случайных величин с конечной
дисперсией, то она подчиняется закону больших чисел:
ξ1 + . . . + ξn p.
−−−−−→ a, где a = M ξk , k = 1, +∞.
n n→+∞
§ 41. ЗАКОН БОЛЬШИХ ЧИСЕЛ 275
Тогда
√ 1 √ 1
Dξn = M ξn2 = (− n)2 · + 0 + ( n)2 · =
n+1 n+1
2n 2n
= < = 2, n = 1, +∞.
n+1 n
ξ1 + . . . + ξn p.
−−−−−→ 0.
n n→+∞
∗
Замечание 41.1. Если в соотношениях (41.1)–(41.3) вместо
сходимости по вероятности имеет место сходимость с вероятно-
стью 1 (почти наверное), то говорят, что выполняется усилен-
ный закон больших чисел. В противовес этому термину при
сходимости лишь по вероятности иногда говорят о выполнении
«слабого» закона больших чисел.
∗
Теорема 41.3. Теорема Колмогорова.
Если {ξn }∞
n=1 — последовательность независимых одинако-
во распределенных случайных величин, то для выполнения
усиленного закона больших чисел:
ξ1 + . . . + ξn п.н.
−−−−−→ a,
n n→+∞
∗
Таким образом, в случае независимых одинаково распре-
деленных случайных величин сходимость их среднего арифмети-
ческого к математическому ожиданию с вероятностью 1 вытека-
ет из существования абсолютных моментов первого порядка.
Если же независимые случайные величины не являются оди-
наково распределенными, то достаточным условием выполнения
усиленного закона больших чисел является, например, (см. [4])
P
∞ Dξ
n
сходимость ряда 2
. В частности, в условиях теоремы Че-
n=1 n
бышёва также имеет место усиленный закон больших чисел.
∗
Если посмотреть доказательство теоремы 41.1, то станет
очевидным, что достаточное условие для выполнения закона
больших чисел можно ослабить: не требовать равномерной огра-
P
n
ниченности дисперсий, а потребовать, чтобы Dξk = o(n2 )
k=1
при n → +∞. Для зависимых случайных величин достаточным
для выполнения слабого закона является условие
³X
n ´
D ξk = o(n2 ), n → +∞ (теорема Маркова).
k=1
1 Rx n 2
o
Fψn (x) = P {ψn < x} −−−−−→ √ exp − (t−a)
2σ 2 dt
n→+∞ σ 2π −∞
(42.1)
для ∀x ∈ R.
а a = M ξk , k = 1, +∞.
∗
Теорема 42.2. Теорема Ляпуно́ва.
Пусть для последовательности независимых случайных вели-
чин {ξn }∞
n=1 существуют все абсолютные центральные момен-
ты порядка 2 + δ:
(k)
µ2+δ = M |ξk − M ξk |2+δ , k = 1, +∞,
a = M ξk = 400 ч,
σ 2 = Dξk = 40 000 ч2 ,
M
√ ψn = na √
= 175 · 400√
= 70 000 ч,
Dψn = σ n = 200 · 175 ≈ 2645, 7513 ч.
ψn = ξ1 + . . . + ξn
µn p.
−−−−−→ p . (43.1)
n n→+∞
ξ1 + . . . + ξn p1 + . . . + pn p.
− −−−−−→ 0,
n n n→+∞
ский математик.
284 Глава 4. Предельные теоремы теории вероятностей
m − np
xm = √ , m = 0, 1, 2, ..., n . (43.2)
npq
Pn (m)
lim x2m
=1 . (43.3)
n→+∞ √ 1 · √1 exp{−
npq 2π 2 }
1 1 x2
m
Pn (m) ≈ √ · √ e− 2 = 1 . (43.4)
npq 2π
Если вы внимательно посмотрите на выражение в правой ча-
сти (43.4) с учетом (43.2), то увидите, что оно представляет
√ со-
бой значение плотности нормального закона N (np; npq) в
точках x = m. Таким образом, теорема 43.2 устанавливает, что
с ростом n биномиальное распределение приближается к нор-
мальному. Чтобы пользоваться формулой (43.4), нужны табли-
цы плотности нормального закона, но эти таблицы составлены
4 В строгой формулировке утверждается, что соотношение (43.3) имеет ме-
¯ Zb x2 ¯
¯ µn − np 1 − ¯
lim ¯P {a ≤ √ ≤ b} − √ e 2 dx¯¯ = 0 .
n→+∞¯ npq 2π
a
(43.5)
Следствие.
При достаточно больших n имеет место приближенное равен-
ство:
µn − np
P {a ≤ √ ≤ b} ≈ Φ(b) − Φ(a) = Φ0 (b) − Φ0 (a) , (43.6)
npq
Тогда по (43.4)
1 1 1,252 1 1
P100 (25) ≈ · √ e− 2 ≈ ϕ(1, 25) ≈ · 0, 1826 ≈ 0, 046.
4 2π 4 4
Найдем вероятность б) по интегральной теореме Муавра–Лапла-
o
са. Так как µn,н асимптотически нормальна, получим:
½ ¾
µn − np 30 − np
P {µn < 30} = P √ < √ ≈
npq npq
µ ¶ µ ¶
30 − np 30 − 20
≈Φ √ =Φ = Φ(2, 5) ≈ 0, 99.
npq 4
§ 43. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ДЛЯ ИСПЫТАНИЙ БЕРНУЛЛИ 287
½ ¾
−np µn − np N − np
=1−P √ ≤ √ ≤ √ ≈
npq npq npq
µ ¶ µ ¶
N − 100 N − 100
≈ 1 − Φ0 √ + Φ0 (−10, 5) ≈ 0, 5 − Φ0 √ .
3 10 3 10
Отсюда µ ¶
N − 100
Φ0 √ ≥ 0, 497.
3 10
N − 100
По таблице в Приложении найдем√ ≥ 2, 75, так как
3 10
функция Лапласа — функция возрастающая. Из последнего не-
равенства определим N :
√
N ≥ 2, 75 · 3 10 + 100 ≈ 126, 09.
Следствие.
Если рассматривается последовательность испытаний Бернул-
ли: a1 , a2 , . . . , an с вероятностью «успеха» p в каждом испыта-
нии, то при достаточно больших n и малых p имеет место при-
ближенная формула:
λm −λ
Pn (m) ≈ e , где λ = np . (43.8)
m!
Отметим сразу, что для биномиальной случайной величины
ξ = µn число np является математическим ожиданием:
M ξ = np, что часто используется при решении задач.
Распределение Пуассона затабулировано. В Приложении
приведены две таблицы для 0, 1 ≤ λ ≤ 9. Одна таблица — для
λm −λ
одиночных значений вероятностей e . На входе этой таб-
m!
лицы два параметра: λ и m. Вторая таблица — для суммарных
k λm e−λ
P
вероятностей . У нее на входе также два параметра:
m=0 m!
λ и k.
Посмотрим на конкретных примерах, как эти таблицы можно
использовать.
Пример 43.3. Вероятность необнаружения брака при проверке
электропневмоклапана в заводском ОТК равна 0,001. Испыты-
вается партия клапанов в количестве 5000 штук. Найти вероят-
ность того, что в партии останется: а) ровно 6 бракованных кла-
панов; б) не менее 4 бракованных клапанов.
Испытание Бернулли налицо: n = 5000, p = 0, 001, число
«успехов» — число бракованных клапанов. Вычислим
np = 5000 · 0, 001 = 5 < 9.
Следовательно, можно использовать теорему Пуассона с пара-
метрами λ = np = 5 и m = 6 для вопроса а):
λm −λ 56
P5000 (6) ≈ e = e−5 ≈ 0, 146223 ≈ 0, 15.
m! 6!
Приближенное значение было найдено по таблице одиночных ве-
роятностей в Приложении при λ = 5, m = 6.
Найдем ответ на вопрос б). «Не менее 4 бракованных кла-
панов» означает, что в партии осталось от 4 до 5000 таких кла-
панов, и мы должны сложить соответствующие вероятности.
§ 43. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ДЛЯ ИСПЫТАНИЙ БЕРНУЛЛИ 291
= P {m ≥ 4} = 1 − P {m < 4} = 1 − P {m = 0, 1, 2, 3} =
3
X
= 1 − (Pn (0) + Pn (1) + Pn (2) + Pn (3)) = 1 − P5000 (m) ≈
m=0
X3 X3
λm −λ 5m −5
≈1− e =1− e ≈ 1 − 0, 265026 =
m=0
m! m=0
m!
= 0, 734974 ≈ 0, 73.
Приближенное значение было найдено по таблице суммарных
вероятностей в Приложении при λ = 5, k = 3.
В этом примере в условии были сразу указаны значения p и n.
Бывают задачи, в которых не даны значения этих параметров,
так как они неизвестны или испытаний «очень много». В таких
задачах обычно указывается среднее значение рассматриваемой
биномиальной случайной величины, то есть как раз математиче-
ское ожидание, которое совпадает с np = λ.
Пример 43.4. На радиомаяк-ответчик в течение часа в среднем
поступает 16 запросов. Какова вероятность того, что в течение
30 минут: а) поступит ровно 7 запросов; б) поступит не более двух
запросов?
Мы видим по условию задачи, что испытаний достаточно мно-
го. Например, каждую секунду проводится серия испытаний Бер-
нулли и фиксируется число «успехов» — число запросов. В сред-
нем, поступает 16 запросов в час, то есть 8 запросов за 30 минут.
Раз «в среднем» — значит, таково и математическое ожидание
числа запросов — «успехов» за 30 минут. Таким образом, мож-
но считать λ = np = 8 < 9. Применяем теорему Пуассона. Для
вероятности а) имеем m = 7, λ = 8:
87 −8
Pn (7) ≈ e ≈ 0, 139587 ≈ 0, 14.
7!
Для вычисления вероятности б) в данном случае не нужно пе-
реходить к противоположному событию:
2
X X2
λm −λ
= Pn (m) ≈ e ≈ 0, 013754 ≈ 0, 014.
m=0 m=0
m!
Приближенное значение было найдено по таблице суммарных
вероятностей распределения Пуассона в Приложении при λ = 8,
k = 2.
Мы закончили изучение основных предельных теорем теории
вероятностей. Подведем некоторый итог. Мы выяснили, что:
• если проводится большое число испытаний, то объем
работы, связанный с вычислением вероятностей, можно со-
кратить, используя предельные распределения сумм слу-
чайных величин;
• среднее арифметическое n случайных величин с ростом n
«ведет себя» вполне определенным образом, и сделали из
этого некоторые выводы;
• выполнение центральной предельной теоремы и зако-
на больших чисел связано с существованием и свойствами
моментов рассматриваемых случайных величин;
• независимость случайных величин оказывает большое
влияние на «поведение» их сумм;
• нормальный (гауссовский) закон распределения вероятно-
стей играет огромную роль при исследовании случайных
величин.
Еще в древности было замечено, что в массовых случайных
явлениях наблюдается некоторая стабильность, появляются за-
кономерности. При воздействии на какой-либо процесс большо-
го количества случайных факторов, их суммарное действие под-
чиняется вполне определенным законам.
ПРИЛОЖЕНИЕ
ТАБЛИЦЫ
1 1 2
Таблица 1. Таблица значений функции φ(x) = √ e− 2 x
2π
x 0 1 2 3 4 5 6 7 8 9
0, 0 0, 3989 3989 3989 3988 3986 3984 3982 3980 3977 3973
0, 1 3970 3965 3961 3956 3951 3345 3939 3932 3925 3918
0, 2 3910 3902 3894 3885 3876 3867 3857 3847 3836 3825
0, 3 3814 3802 3790 3778 3765 3752 3739 3726 3712 3697
0, 4 3683 3668 3653 3637 3621 3605 3589 3572 3555 3538
0, 5 3521 3503 3485 3467 3448 3429 3410 3391 3372 3352
0, 6 3332 3312 3292 3271 3251 3230 3209 3187 3166 3144
0, 7 3123 3101 3079 3056 3034 3011 2989 2966 2943 2920
0, 8 2897 2874 2850 2827 2803 2780 2756 2732 2709 2685
0, 9 2661 2637 2613 2589 2565 2541 2516 2492 2468 2444
1, 0 0, 2420 2396 2371 2347 2323 2299 2275 2251 2227 2203
1, 1 2179 2155 2131 2107 2083 2059 2036 2012 1989 1965
1, 2 1942 1919 1895 1872 1849 1826 1804 1781 1758 1736
1, 3 1714 1691 1669 1647 1626 1604 1582 1561 1539 1518
1, 4 1497 1476 1456 1435 1415 1394 1374 1354 1334 1315
1, 5 1295 1276 1257 1238 1219 1200 1182 1163 1145 1127
1, 6 1109 1092 1074 1057 1040 1023 1006 0989 0973 0957
1, 7 0940 0925 0909 0893 0878 0863 0648 0833 0818 0804
1, 8 0790 0775 0761 0748 0734 0721 0707 0694 0681 0669
1, 9 0656 0644 0632 0620 0608 0596 0584 0573 0562 0551
2, 0 0, 0540 0529 0519 0508 0498 0488 0478 0468 0459 0449
2, 1 0440 0431 0422 0413 0404 0396 0387 0379 0371 0363
2, 2 0355 0347 0339 0332 0325 0317 0310 0303 0297 0290
2, 3 0283 0277 0270 0264 0258 0252 0246 0241 0235 0229
2, 4 0224 0219 0213 0208 0203 0198 0194 0189 0184 0180
2, 5 0175 0171 0167 0163 0158 0154 0151 0147 0143 0139
2, 6 0136 0132 0129 0126 0122 0119 0116 0113 0110 0107
2, 7 0104 0101 0099 0096 0093 0091 0088 0086 0084 0081
2, 8 0079 0077 0075 0073 0071 0069 0067 0065 0063 0061
2, 9 0060 0058 0056 0055 0053 0051 0050 0048 0047 0046
3, 0 0, 0044 0043 0042 0040 0039 0038 0037 0036 0035 0034
3, 1 0033 0032 0031 0030 0029 0028 0027 0026 0025 0025
3, 2 0024 0023 0022 0022 0021 0020 0020 0019 0018 0018
3, 3 0017 0017 0016 0016 0015 0015 0014 0014 0013 0013
3, 4 0012 0012 0012 0011 0011 0010 0010 0010 0009 0009
3, 5 0009 0008 0008 0008 0008 0007 0007 0007 0007 0006
3, 6 0006 0006 0006 0005 0005 0005 0005 0005 0005 0004
3, 7 0004 0004 0004 0004 0004 0004 0003 0003 0003 0003
3, 8 0003 0003 0003 0003 0003 0002 0002 0002 0002 0002
3, 9 0002 0002 0002 0002 0002 0002 0002 0002 0001 0001
4, 0 0001 0001 0001 0001 0001
294 Приложение
1 Rx − 1 x2
Таблица 2. Таблица значений функции Лапласа Φ0 (x) = √ e 2 dt
2π 0
x 0 1 2 3 4 5 6 7 8 9
0, 0 0, 0000 0040 0080 0120 0159 0199 0239 0279 0319 0359
0, 1 0398 0438 0478 0517 0557 0596 0636 0675 0714 0754
0, 2 0793 0832 0871 0909 0948 0987 1026 1064 1103 1141
0, 3 1179 1217 1255 1293 1331 1368 1406 1443 1480 1517
0, 4 1554 1591 1628 1664 1700 1736 1772 1808 1844 1879
0, 5 1915 1950 1985 2019 2054 2088 2123 2157 2190 2224
0, 6 2257 2291 2324 2356 2389 2421 2454 2486 2517 2549
0, 7 2580 2611 2642 2673 2703 2734 2764 2794 2823 2852
0, 8 2881 2910 2939 2967 2995 3023 3051 3078 3106 3133
0, 9 3159 3186 3212 3238 3264 3290 3315 3340 3365 3389
1, 0 3413 3437 3461 3485 3508 3531 3554 3577 3599 3621
1, 1 3643 3665 3686 3708 3729 3749 3770 3790 3810 3830
1, 2 3849 3869 3888 3907 3925 3943 3962 3980 3997 4015
1, 3 4032 4049 4066 4082 4099 4115 4131 4147 4162 4117
1, 4 4192 4207 4222 4236 4251 4265 4279 4292 4306 4319
1, 5 4332 4345 4357 4370 4382 4394 4406 4418 4429 4441
1, 6 4452 4463 4474 4484 4495 4505 4515 4525 4535 4545
1, 7 4554 4564 4573 4582 4591 4599 4608 4616 4625 4633
1, 8 4641 4648 4656 4664 4671 4678 4686 4693 4699 4706
1, 9 4713 4719 4726 4732 4738 4744 4750 4756 4762 4767
2, 0 4772 4778 4783 4788 4793 4798 4803 4808 4812 4817
2, 1 4821 4826 4830 4834 4838 4842 4846 4850 4854 4857
2, 2 4861 4864 4868 4871 4874 4878 4881 4884 4887 4890
2, 3 4893 4896 4898 4901 4904 4906 4909 4911 4913 4916
2, 4 4918 4920 4922 4924 4927 4929 4930 4932 4934 4936
2, 5 4938 4940 4941 4943 4947 4946 4948 4949 4951 4952
2, 6 4953 4955 4956 4957 4958 4960 4961 4962 4963 4964
2, 7 4965 4966 4967 4968 4969 4970 4971 4972 4973 4974
2, 8 4974 4975 4976 4977 4977 4978 4979 4979 4980 4981
2, 9 4981 4982 4982 4983 4984 4984 4985 4985 4986 4986
ТАБЛИЦЫ 295
λm −λ
Таблица 3. Таблица значений функции e
m!
HH λ
0, 1 0, 2 0, 3 0, 4 0, 5 0, 6
m HH
HH λ
0, 7 0, 8 0, 9 1, 0 2, 0 3, 0
m HH
Продолжение табл. 3
HH λ
4, 0 5, 0 6, 0 7, 0 8, 0 9, 0
m HH
k λm
P
Таблица 4. Таблица значений функции e−λ
m=0 m!
HH λ
0, 1 0, 2 0, 3 0, 4 0, 5 0, 6
k HH
HH λ
0, 7 0, 8 0, 9 1, 0 2, 0 3, 0
k HH
Продолжение табл. 4
HH λ
4, 0 5, 0 6, 0 7, 0 8, 0 9, 0
k HH
ËÐ ¹ 065466 îò 21.10.97
Ãèãèåíè÷åñêèé ñåðòèôèêàò 78.01.07.953.Ï.004173.04.07
îò 26.04.2007 ã., âûäàí ÖÃÑÝÍ â ÑÏá
Èçäàòåëüñòâî «ËÀÍÜ»
lan@lpbl.spb.ru; www.lanbook.com
192029, Ñàíêò-Ïåòåðáóðã, Îáùåñòâåííûé ïåð., 5.
Òåë./ôàêñ: (812)412-29-35, 412-05-97, 412-92-72.
Áåñïëàòíûé çâîíîê ïî Ðîññèè: 8-800-700-40-71
Çàêàç ¹ .
Îòïå÷àòàíî â ïîëíîì ñîîòâåòñòâèè
ñ êà÷åñòâîì ïðåäîñòàâëåííûõ äèàïîçèòèâîâ
â ÎÀÎ «Èçäàòåëüñêî-ïîëèãðàôè÷åñêîå ïðåäïðèÿòèå «Ïðàâäà Ñåâåðà».
163002, ã. Àðõàíãåëüñê, ïð. Íîâãîðîäñêèé, ä. 32.
Òåë./ôàêñ (8182) 64-14-54; www.ippps.ru