БУРЕ,
Е. М. ПАРИЛИНА
ТЕОРИЯ
ВЕРОЯТНОСТЕЙ
И МАТЕМАТИЧЕСКАЯ
СТАТИСТИКА
ÄÎÏÓÙÅÍÎ
ÓÌÎ ïî êëàññè÷åñêîìó óíèâåðñèòåòñêîìó îáðàçîâàíèþ
â êà÷åñòâå ó÷åáíèêà äëÿ ñòóäåíòîâ âóçîâ,
îáó÷àþùèõñÿ ïî íàïðàâëåíèÿì ÂÏÎ
010400 «Ïðèêëàäíàÿ ìàòåìàòèêà è èíôîðìàòèêà»
è 010300 «Ôóíäàìåíòàëüíàÿ èíôîðìàòèêà
è èíôîðìàöèîííûå òåõíîëîãèè»
САНКТПЕТЕРБУРГ•
МОСКВА•
КРАСНОДАР•
2013•
ББК 22.17я73
К 60
Буре В. М., Парилина Е. М.
К 60 Теория вероятностей и математическая стати"
стика: Учебник. — СПб.: Издательство «Лань», 2013. —
416 с.: ил. — (Учебники для вузов. Специальная ли"
тература).
ISBN 9785811415083
В книге изложены основные разделы современного курса теории
вероятностей и математической статистики, включая условные рас"
пределения, основные предельные теоремы, метод характеристи"
ческих функций, принципы статистического оценивания, методы
построения доверительных интервалов, методы проверки стати"
стических гипотез, регрессионный анализ и бинарная регрессия.
Книга предназначена для студентов, изучающих методы теории
вероятностей, математической статистики.
ББК 22.17я73
Рецензент:
А. В. ФЛЕГОНТОВ — доктор физико"математических наук, про"
фессор, зав. кафедрой информационных систем и программного
обеспечения факультета информационных технологий РГПУ
им. А. И. Герцена.
Обложка
Е. А. ВЛАСОВА
ВЕРОЯТНОСТНОЕ ПРОСТРАНСТВО
§ 1. СЛУЧАЙНЫЕ СОБЫТИЯ
Пусть проводится некоторый опыт, в результате которо-
го может произойти одно из элементарных событий. Под
элементарными событиями будем понимать события (исходы),
которые нельзя разделить на «составные части», также явля-
ющиеся событиями. Объединение элементарных событий об-
разует пространство (множество) элементарных событий, ко-
торое обычно обозначается через Ω.
Ω = {(a1 , a2 ) : ai = 1, . . . , 6},
Рис. 1.1
Диаграммы Венна
§ 2. АКСИОМАТИКА
Рассмотрим множества A1 , . . . , Am такие, что выполнены
следующие условия:
1. Пересечение любых двух различных множеств является
пустым множеством: Ai ∩ Aj = ∅ для всех i, j, i = j.
2. Объединение всех множеств A1 ∪ A2 ∪ · · · ∪ Am совпадает
с множеством Ω.
Определение 2.1. Система множеств {Ai }m i=1 , удовлетворяю-
щая условиям 1 и 2, называется разбиением множества Ω или
полной группой событий.
Определение 2.2. Совокупность A подмножеств множества
Ω называется алгеброй, если выполнены следующие условия:
1. Множество Ω принадлежит совокупности A.
2. Если множества A и B принадлежат совокупности A,
тогда их объединение A ∪ B также принадлежит A.
3. Для любого множества A из A его дополнение Ā = Ω\A
также принадлежит A.
Множества, входящие в алгебру A, будем называть события-
ми.
Пример 2.1. Приведем несколько примеров алгебр событий:
1. A0 = {∅, Ω}.
2. A1 = 2Ω = {A : A ⊂ Ω} — алгебра, содержащая все
подмножества Ω.
3. A2 = {A, Ā, ∅, Ω}, где A ⊂ Ω.
Пусть существуют множества {Aγ } ⊂ Ω, γ ∈ Γ. Справед-
ливы законы двойственности:
Aγ = Āγ . (2.1)
γ∈Γ γ∈Γ
Aγ = Āγ . (2.2)
γ∈Γ γ∈Γ
и наоборот. Рассмотрим
произвольное элемнтарное событие ω
из множества γ∈Γ Aγ . Очевидно, что событие ω не принад-
лежит объединению γ∈Γ Aγ , что означает, что событие ω не
принадлежит ни одному множеству Aγ , γ ∈ Γ. Следовательно,
событие ω принадлежит всем дополнениям Āγ для любого γ ∈
∈ Γ. Это означает,
что событие ω принадлежит и пересечению
этих событий γ∈Γ Āγ .
Докажем включение вобратную сторону. Рассмотрим со-
бытие ω из пересечения γ∈Γ Āγ . Очевидно, что ω ∈ Āγ для
всех γ ∈ Γ, из чего следует, что событие ω не принадлежит ни
одному из множеств Aγ , γ ∈ Γ. Тогда можно утверждать, что
ω не принадлежит и объединению γ∈Γ Aγ . Следовательно,
ω ∈ γ∈Γ Aγ .
Аналогично доказывается утверждение (2.2).
Используя законы двойственности, легко показать, что
всякая алгебра замкнута относительно операции конечного
пересечения своих элементов. Т.е. для любой алгебры A спра-
ведливо, что, если A ∈ A и B ∈ A, тогда A ∩ B ∈ A. Для до-
казательства рассмотрим выражение A ∩ B. Применим второе
утверждение законов двойственности: A ∩ B = Ā ∪ B̄ ∈ A. По
определению алгебры (определение 2.2) A ∩ B ∈ A ⇒ A ∩ B ∈
∈ A.
§ 3. СВОЙСТВА ВЕРОЯТНОСТЕЙ
Сформулируем и докажем свойства, которыми обладает ве-
роятностная мера.
1. Вероятность невозможного события равна нулю, P (∅) =
= 0.
Доказательство. Очевидны следующие равенства: Ω ∪
∪ ∅ = Ω, Ω∩∅ = ∅. Так как вероятностная мера P являет-
ся конечной, то из свойства аддитивности получаем сле-
дующие равенства: P (Ω) = P (Ω ∪ ∅) = P (Ω) + P (∅) = 1.
Окончательно получаем: P (∅) = 0.
2. Для любого события A ∈ A вероятность P (A) равна
1 − P (Ā).
Доказательство. Так как A ∪ Ā = Ω, тогда выполняется
следующее равенство: P (A) + P (Ā) = P (Ω) = 1, следо-
вательно, P (A) = 1 − P (Ā).
3. Для событий A, B ∈ A, A ⊂ B, справедливо неравен-
ство: P (A) P (B).
§ 3. Свойства вероятностей 11
§ 4. КЛАССИЧЕСКОЕ ОПРЕДЕЛЕНИЕ
ВЕРОЯТНОСТИ
Рассмотрим множество Ω = {ω1 , . . . , ωm }. Пусть все эле-
ментарные события равновероятны, т. е. P (ωi ) = P (ωj ) = p
для любых индексов i и j. По свойству вероятности спра-
ведливо равенство P (Ω) = 1. В силу аддитивности вероят-
ностной
m меры можно записать следующее равенство: P (Ω) =
i=1 P (ω i ) = mp. Следовательно, вероятность любого эле-
ментарного события ωi может быть вычислена по формуле:
p = 1/m = 1/| Ω |.
В качестве алгебры A рассмотрим множество всех подмно-
жеств множества Ω, которое обозначим через 2Ω . Рассмот-
рим некоторое событие A ⊂ Ω, A = {ωi1 , . . . , ωik }. Вероят-
ность наступления этого события в силу свойства аддитивно-
сти вероятностной меры может быть вычислена по формуле:
k
P (A) = j=1 P (ωij ) = k/| Ω | = | A |/| Ω |.
Определение 4.1. Формулу
|A|
P (A) = (4.1)
|Ω|
называют классическим определением вероятности.
16 Глава 1. Вероятностное пространство
Таблица 1.1
Всевозможные комбинации объектов
n−1
дробления, такие точки можно выбрать Cr+n−1 способами.
l k−l k! n−1 r
Так как Ck = Ck = l!(k−l)! , получаем Cr+n−1 = Cr+n−1 =
= | Ω |. Вероятность P (ω) = 1/Cr+n−1 .
n−1
§ 5. ГЕОМЕТРИЧЕСКИЕ ВЕРОЯТНОСТИ.
ЗАДАЧА О ВСТРЕЧЕ. ПАРАДОКС БЕРТРАНА.
ЗАДАЧА БЮФФОНА
Рассмотрим числовую прямую и отрезок [a, b] = Ω. Пусть
случайным образом выбирается точка из этого отрезка. Это
означает, что любая точка отрезка [a, b] может появиться в
результате эксперимента с равными шансами.
Зададим вероятностную меру для любого множества A ∈
∈ F[a,b] , где F[a,b] — сигма-алгебра подмножеств отрезка [a, b],
измеримых по Лебегу. Вероятностная мера, называемая гео-
метрической вероятностью, может быть определена следую-
щим образом:
μ(A) μ(A)
P (A) = = ,
μ[a, b] b−a
где через μ(A) обозначена мера Лебега множества A.
Замечание 5.1. В качестве σ-алгебры событий нельзя рас-
сматривать множество всех подмножеств множества Ω, так
как не все подмножества множества Ω измеримы по Лебегу.
В более общем случае геометрическая вероятность опре-
деляется аналогично. В качестве множества элементарных со-
бытий рассмотрим некоторую область измеримую по Лебегу
Ω ⊂ Rk . Через μ(Ω) обозначим меру Лебега в Rk множества
Ω. Используя принцип геометрической вероятности по отно-
шению к мере Лебега μ, можно определить вероятностную
меру для любого измеримого по Лебегу множества A ⊂ Ω ⊂
⊂ Rk следующим образом:
μ(A)
P (A) = . (5.1)
μ(Ω)
Рис. 1.2
Задача о встрече
602 − 402 5
p= 2
= .
60 9
Пример 5.2. Парадокс Бертрана. Рассматривается окруж-
ность радиуса R, в которую вписан равносторонний треуголь-
ник. Случайным образом в данной окружности выбирается
хорда. Какова вероятность того, что длина хорды окажется
§ 5. Геометрические вероятности 21
Рис. 1.3
Парадокс Бертрана
Рис. 1.4
Парадокс Бертрана. Решение 1
соответственно: 2
SR πR 1
2
= 42 = .
SR πR 4
Решение 2. Из соображений симметрии: пусть один ко-
нец хорды закреплен в одной из вершин равностороннего тре-
угольника.
Вершины треугольника разбивают дугу окружности на три
равные части. Длина хорды будет больше стороны равносто-
роннего треугольника, если другой конец хорды будет ле-
жать на дуге между двумя другими вершинами треугольника.
Тогда искомая вероятность определяется как отношение длин
соответствующих дуг и равна 1/3 (рис. 1.5).
Рис. 1.5
Парадокс Бертрана. Решение 2
Рис. 1.6
Парадокс Бертрана. Решение 3
Рис. 1.7
Задача Бюффона
Рис. 1.8
Задача Бюффона
образом:
A = {(x, y) : 0 y l cos x}.
Тогда искомая вероятность определяется как отношение пло-
щадей (рис. 1.8), соответствующих благоприятствующим и
всем возможным исходам, и равна
π
2
l cos xdx
μ(A) 0 2l
= = .
μ(Ω) a· π
2 aπ
§ 6. УСЛОВНЫЕ ВЕРОЯТНОСТИ
Рассмотрим вероятностное пространство (Ω, F , P ). Выбе-
рем некоторое событие B ∈ F такое, что P (B) > 0. Опреде-
лим вероятность события A ∈ F при условии, что произошло
событие B.
Проведем эксперимент N раз. Обозначим через N (B) ко-
личество экспериментов, в которых произошло событие B,
N (A ∩ B) — количество экспериментов, в которых произошли
оба события и A, и B. Относительная частота события A, ес-
ли известно, что произошло событие B, будет определяться
отношением N (A ∩ B)/N (B). Поделим числитель и знамена-
тель этого отношения на N , получаем:
N (A ∩ B)/N P (A ∩ B)
≈ .
N (B)/N P (B)
§ 6. Условные вероятности 25
P (A ∩ B) = P (B)P (A/B).
P (A1 ∩ · · · ∩ An ) =
P (A1 )P (A2 /A1 ) . . . P (An /A1 ∩ A2 ∩ · · · ∩ An−1 ).
§ 7. НЕЗАВИСИМОСТЬ СОБЫТИЙ
Выберем некоторое событие B ∈ F, вероятность которого
положительна. Если событие A ∈ F не зависит от появле-
ния события B, то P (A/B) = P (A). Используя определение
условной вероятности, получаем равенство: P (A ∩ B)/P (B) =
= P (A). Следовательно, вероятность совместного появле-
ния событий P (A ∩ B) равна произведению вероятностей
P (A)P (B). Пусть P (A) > 0, тогда P (B/A)=P (B ∩ A)/P (A)=
= P (B). Следовательно, если событие A не зависит от собы-
тия B, то и событие B не зависит от события A. Сформули-
руем определение независимости событий.
m = 2, . . . , n, выполнено:
m
P (Ai1 ∩ Ai2 ∩ . . . ∩ Aim ) = P (Aik ). (7.2)
k=1
1
P (A) = P (B) = P (C) = .
2
n
P (A1 ∩ . . . ∩ An ) = P (Ai ). (7.3)
i=1
m
m
P (A) = P (A ∩ Bi ) = P (Bi )P (A/Bi ).
i=1 i=1
Формула
m
P (A) = P (Bi )P (A/Bi ) (8.1)
i=1
Формулы
P (Bj )P (A/Bj )
P (Bj /A) =
m , j = 1, 2, . . . , m (8.2)
P (Bi )P (A/Bi )
i=1
СХЕМА БЕРНУЛЛИ
Ω = {(a1 , . . . , an ) : ai = 1, . . . , r},
F = {A : A ⊂ Ω} = 2Ω .
Вероятность события (a1 , . . . , an ) определим так, чтобы по-
следовательные испытания оказались независимыми:
1 · . . . · pr ,
P {(a1 , . . . , an )} = pm 1 mr
§ 2. Теорема Пуассона 31
1 · . . . · pr ,
Pn (m1 , . . . , mr ) = Dm1 ,...,mr pm 1 mr
где
m2 mr
Dm1 ,...,mr = Cnm1 Cn−m 1
. . . Cn−m 1 −...−mr−1
=
n! (n − m1 )! n!
= ·...·1 = .
m1 !(n − m1 )! m2 !(n − m1 − m2 )! m1 !m2 ! . . . mr !
n!
Pn (m1 , . . . , mr ) = pm1 . . . pm r
r . (1.3)
m1 !m2 ! . . . mr ! 1
§ 2. ТЕОРЕМА ПУАССОНА
Рассмотрим схему Бернулли с n независимыми испытани-
ями, в каждом из которых возможны два исхода: «1» — успех
и «0» — неудача. Вероятность успеха обозначим через p, а ве-
роятность неудачи через q = 1−p. Эти вероятности не зависят
от номера испытания. Введем случайную величину μ, равную
количеству успехов в n испытаниях.
λm −λ
P {μ = m} = Cnm pm q n−m −−−−→ e . (2.1)
n→∞ m!
32 Глава 2. Схема Бернулли
n! (1 − p)n
Cnm pm q n−m = pm =
m!(n − m)! (1 − p)m
(np) n ln (1−p) 1(1 − n1 ) . . . (1 − m−1
m
n ) λm −λ
= e −
− −−→ e ,
m! (1 − p)m n→∞ m!
ln Cnm pm q k = ln n! − ln m! − ln k! + m ln p + k ln q. (3.2)
√
ln m
ln m! = ln + m ln m − m + Θm .
2π + (3.5)
2
Вычислим разность ln n! − ln m! − ln k!, используя равенства
(3.3), (3.4) и (3.5), получаем:
ln n! − ln k! − ln m! =
1 1 mk m k 1
= ln √ − ln − m ln − k ln + O .
2π 2 n n n σ2
Подставив это выражение в (3.2), получаем:
1 1
xq
xp
ln Cnm pm q k = ln √ − ln σ 2 1 + 1− −
2π 2 σ σ
m k 1
− m ln − k ln +O 2 =
np nq σ
1 1
xq 1
xp
= ln √ − ln 1 + − ln 1 − −
2πσ 2 σ 2 σ
xq
xp 1
− (np + σx) ln 1 + + (nq − σx) ln 1 − +O .
σ σ σ2
Преобразуя выражение в квадратных скобках, получаем ра-
венство:
1 x2 1
ln Cn p q = ln √
m m k
− +O ,
2πσ 2 σ
откуда следует утверждение теоремы:
1 x2
Cnm pm q k = √ e− 2 eO(1/σ) ,
σ 2π
где eO(1/σ) = 1 + O(1/σ).
x2
Замечание 3.2. Рассмотрим функцию ϕ(x) = √12π e− 2 . Вы-
∞
числим интеграл −∞ ϕ(x)dx. Для этого вычислим
∞ 2 ∞ ∞
x2 x2 y2
e− 2 dx = e− 2 dx e− 2 dy.
−∞ −∞ −∞
§ 3. Локальная и интегральная теоремы Муавра–Лапласа 35
x2
Определение 3.1. Функция ϕ(x) = √12π e− 2 называется
плотностью стандартного нормального распределения (распре-
деления Гаусса).
b b
μ − np 1 − x2
2
P a √ b −−−−→ √ e dx = ϕ(x)dx.
npq n→∞ 2π
a a
(3.6)
Доказательство. Сначала докажем теорему для некоторого
фиксированного c > 0, для которого |a| c, |b| c. Потом
распространим результат на всю числовую ось.
Запишем двойное неравенство a μ−np
√
npq b в виде:
σa + np μ σb + np.
m2
μ − np
P a √ b = P {μ = m} =
npq m=m1
m2
m2
1 x2
m 1 1
= Cnm pm q k = √ e− 2 1+O ,
m=m1 m=m1
2π σ σ
2π
a
1 x2
√ e− 2 dx + P {|ξn | > c}+
2π
|x|>c
B
1 x2
+ √ e − 2
dx − P {A ξn B} ε,
2π
A
Получаем равенство:
⎛ √n ⎞
ε
μ ⎜ pq
1 x2 ⎟
P − p > ε = ⎜
⎝1 − √ e− 2 dx⎟
⎠+
n √n 2π
−ε pq
⎛ √n ⎞
ε pq
⎜ 1 x2 n μ − np n ⎟⎟.
+⎜ √ e− 2 dx − P −ε √ ε
⎝
√ n 2π pq npq pq ⎠
−ε pq
§ 5. МЕТОД МОНТЕ-КАРЛО.
ВЫЧИСЛЕНИЕ ИНТЕГРАЛОВ
b
Пусть требуется вычислить интеграл a g(x)dx. При этом
функция g(x) ограничена на отрезке [a, b], т. е. g(x) ∈ [c, d].
Преобразуем функцию g(x) следующим образом:
g(x) − c
ϕ(x) = ,
d−c
тогда функцию g(x) можно представить в виде:
g(x) = c + (d − c)ϕ(x).
При этом ϕ(x) ∈ [0, 1] для всех точек x ∈ [a, b].
b
Запишем интеграл a g(x)dx через интеграл от функции
ϕ(x):
b b
g(x)dx = c(b − a) + (d − c) ϕ(x)dx.
a a
Проведем замену переменных: u = (x − a)/(b − a), получим:
b 1
g(x)dx = c(b − a) + (d − c)(b − a) h(u)du,
a 0
§ 5. Метод Монте-Карло. Вычисление интегралов 39
Рис. 2.1
Вычисление интеграла с помощью
метода Монте-Карло
!
n
откуда следует, что должно выполняться неравенство: ε pq >
> u1−α/2 , где u1−α/2 — квантиль уровня 1− α/2 стандартного
нормального распределения. Квантиль u1−α/2 определяется из
условия:
u1−α/2
1 x2 α
√ e− 2 dx = 1 − .
2π 2
−∞
u21−α/2
n> pq.
ε2
Очевидно, что maxp∈[0,1] p(1 − p) = 1/4, тогда можно получить
следующее ограничение на количество испытаний:
u21−α/2
n> . (5.1)
4ε2
Замечание 5.1. Оценка (5.1) имеет место и для многомерного
случая, поскольку число испытаний не зависит от размерности
пространства.
§ 6. МОДЕЛИРОВАНИЕ СЛУЧАЙНЫХ
ВЕЛИЧИН
Случайные величины обычно моделируют с помощью пре-
образований одного или нескольких независимых значений
случайной величины ξ, равномерно распределенной на отрезке
[0, 1].
42 Глава 2. Схема Бернулли
P {η = xi } = pi , i = 1, . . . , k
pi = Cni pi (1 − p)n−i .
§ 6. Моделирование случайных величин 43
λi −λ
pi = e .
i!
Функция r(i) имеет следующий вид:
λ
r(i) = , i = 0, 1, . . .
i+1
Пример 6.3. Для геометрического распределения с парамет-
ром p вероятность того, что случайная величина η принимает
значение i, равна
pi = p(1 − p)i .
Функция r(i) имеет следующий вид:
r(i) = (1 − p), i = 0, 1, . . .
η = (b − a)ξ + a,
1
η = − ln(1 − ξ),
λ
или
1
η = − ln ξ,
λ
поскольку случайная величина 1 − ξ, также как и ξ, подчиня-
ется равномерному на [0, 1] распределению.
Глава 3
ЦЕПИ МАРКОВА
§ 1. ПОСЛЕДОВАТЕЛЬНОСТИ ЗАВИСИМЫХ
ИСПЫТАНИЙ. ЦЕПИ МАРКОВА
Рассмотрим последовательность испытаний, в каждом из
которых возможно r исходов из множества {1, . . . , r}. Пусть
испытание с номером 0 закончилось исходом a0 , испыта-
ние с номером 1 — исходом a1 , . . ., испытание с номером
T — исходом aT . Упорядоченная последовательность исходов
ω = (a0 , a1 , . . . , aT ), где ai ∈ {1, . . . , r}, образует элементарное
событие. Множество элементарных событий обозначим через
Ω. Возможно другое описание рассматриваемого вероятност-
ного пространства.
Пусть имеется система, которая может находиться в неко-
тором фазовом пространстве в состояниях 1, 2, . . . , r. Вре-
мя предполагается дискретным и может принимать значения
1, 2, . . . , t, . . . , T . Элементарное событие ω = (a0 , a1 , . . . , aT ) —
траектория движения, где ak — положение системы в момент
времени k. Пространство элементарных событий Ω = {ω =
= (a0 , a1 , . . . , at , . . . , aT ) : at = 1 . . . , r} конечно и |Ω| = rT +1 .
Рассмотрим совокупность подмножеств M = {Mα } .
события A ∈ At−1
0 и любого события B ∈ ATt+1 выполняется
условие:
P (A ∩ B/{at = k}) =
P ({at = k})P (A/{at = k})P (B/A ∩ {at = k})
= =
P {at = k}
= P (A/{at = k})P (B/{at = k}).
(i ) (i )
P (ω) = P ({i0 , . . . , iT }) = P (A0 0 ∩ . . . ∩ AT T ) =
(i ) (i ) (i ) (i ) (i ) (i ) (i
T −1 )
= P (A0 0 )P (A1 1 /A0 0 )P (A2 2 /A1 1 ) . . . P (AT T /AT −1 ).
(1) (r)
События At+1 , . . ., At+1 попарно несовместны, а их объеди-
нение дает достоверное событие, вероятность которого равна
единице.
r
pij (t + s) = pik (t)pkj (s). (1.3)
k=1
(j) (i)
r
(k) (j) (i)
pij (t + s) = P (At+s /A0 ) = P (At ∩ At+s /A0 ) =
k=1
r (i) (k) (i) (j) (k)
P (A0 )P (At /A0 )P (At+s /At )
= (i)
=
k=1 P (A0 )
r
= pik (t)pkj (s).
k=1
P (t) = P t . (1.5)
r
mj (t0 + t) = pvj (t0 + t) = pvk (t0 )pkj (t).
k=1
Найдем разность:
r
Mj (t0 + t) − mj (t0 + t) = (puk (t0 ) − pvk (t0 ))pkj (t) =
k=1
+
−
= (puk (t0 ) − pvk (t0 ))pkj (t) − |puk (t0 ) − pvk (t0 )| pkj (t),
все слагаемые в обеих суммах неотрицательны, т. е. во вторую
сумму входят только слагаемые (puk (t0 ) − pvk (t0 ))pkj (t) < 0.
Заметим, что
+
−
(puk (t0 ) − pvk (t0 )) − |(puk (t0 ) − pvk (t0 ))| =
r
= (puk (t0 ) − pvk (t0 )) = 0.
k=1
54 Глава 3. Цепи Маркова
+
Введем обозначение du,v = (puk (t0 ) − pvk (t0 )), причем 0
du,v < 1. Если рассмотреть произвольные u, v, то ничего не
изменится. Введем
max(du,v ) = d.
(u,v)
При t = t0 получаем:
ОСНОВНЫЕ ВЕРОЯТНОСТНЫЕ
ПРОСТРАНСТВА
§ 1. ПОЛУАЛГЕБРЫ. ТЕОРЕМЫ
О ПРОДОЛЖЕНИИ МЕРЫ
Определение 1.1. Систему подмножеств S множества Ω бу-
дем называть полуалгеброй, если выполнены следующие усло-
вия:
1. Ω ∈ S.
2. Если A ∈ S, B ∈ S, то A ∩ B ∈ S.
3. Если A ∈ S, то множество Ā можно представить в виде
m
Ā = k=1 Bk , где Bk ∈ S, Bi ∩ Bj = ∅ для всех i = j.
k
Объединение множеств
k i=1 Bi будем обозначать через
i=1 Bi , если Bi ∩ Bj = ∅ для всех i = j.
Если μ(Ω) = 1, то конечно-аддитивная мера μ называется
конечно-аддитивной вероятностой мерой и обозначается P .
§ 1. Полуалгебры. Теоремы о продолжении меры 57
{Cn (I1 × . . . × In )} = I4 .
∞
+∞ ∞
= P0 (Ik ∩ (n, n + 1]) = P0 (Ik ).
k=1 n=−∞ k=1
Рис. 4.1
Функция распределения, соответствующая
дискретной мере
Так как P {ai } = F (ai )−F (ai −0) > 0, то i (F (ai )−F (ai −
− 0)) = 1, тогда функция F (x) может быть только кусочно-
постоянной (рис. 4.1).
F (x) = f (x).
п.в.
(4.3)
Если для любого x ∈ R функция f (x) неотрицательна и
+∞ x
−∞
f (x)dx = 1, то −∞ f (t)dt — функция распределения на
R, которой взаимно
однозначно соответствует мера P такая,
что P (B) = B f (x)dx.
Функцию
1 x2
f (x) = √ e− 2
2π
называют плотностью стандартного нормального распределе-
ния.
Рис. 4.2
Функция F0 (x)
Рис. 4.3
Функция F1 (x)
Рис. 4.4
Функция F2 (x)
70 Глава 4. Основные вероятностные пространства
§ 5. КОНЕЧНОМЕРНОЕ ВЕРОЯТНОСТНОЕ
ПРОСТРАНСТВО (Rn , B(Rn ))
Рассмотрим вероятностное пространство (Rn , B(Rn ), P ).
Для любого B ∈ B(Rn ) задана вероятность P (B). Возьмем
в качестве B множество специального вида:
B = (−∞, x1 ] × . . . × (−∞, xn ].
§ 5. Конечномерное вероятностное пространство (Rn , B(Rn )) 71
здесь ai < bi , i = 1, . . . , n.
Доказательство. Рассмотрим случай n = 2, т. е.
(1) (2)
Δa1 ,b1 Δa2 ,b2 F (x1 , x2 ).
Имеют место равенства:
где x = (x1 , . . . , xn ).
Доказательство аналогично доказательству соответствую-
щей теоремы на прямой.
Замечание 5.1. Пусть F1 (x), . . . , Fn (x) — произвольные
функции распределения на числовой прямой R, тогда F (x1 , . . .
. . . , xn ) = F1 (x1 ) . . . Fn (xn ) является функцией распределения
в пространстве Rn .
Выделим 2 класса мер:
1. Дискретная вероятностная мера
Определение 5.2. Будем говорить, что мера P на
(Rn , B(Rn )) дискретна, если существует не более чем
§ 6. Вероятностное пространство (R∞ , B(R∞ ), P ) 73
счетное множество
{zi = (z1i , . . . , zni )} такое, что
P {zi } > 0 и i P (zi ) = 1.
2. Абсолютно непрерывная мера относительно меры Ле-
бега
Определение 5.3. Будем говорить, что вероятностная
мера P абсолютно непрерывна относительно меры Ле-
бега в Rn , если существует плотность, т. е. существует
0 такая, что для любого B ∈ B(R ): P (B) =
n
f (x)
= B f (x)dx, где x = (x1 , . . . , xn ).
Возьмем множество: B = (−∞, x1 ] × . . . × (−∞, xn ], сле-
довательно, для любого x ∈ Rn выполнено равенство:
x1 xn
... f (t1 , . . . , tn )dt1 . . . dtn = F (x1 , . . . , xn ). (5.1)
−∞ −∞
§ 6. ВЕРОЯТНОСТНОЕ ПРОСТРАНСТВО
(R∞ , B(R∞ ), P )
Пусть на пространстве (R∞ , B(R∞ )) задана мера P . Сигма-
алгебра в бесконечномерном пространстве определяется сле-
дующим образом: B(R∞ ) = σ{Cn (B)}, где Cn (B) — ци-
линдрические множества, Cn (B) = {x = (x1 , . . . , xn , . . .) :
(x1 , . . . , xn ) ∈ B}, B ∈ B(Rn ). Пусть P (Cn (B)) определена.
74 Глава 4. Основные вероятностные пространства
СЛУЧАЙНЫЕ ВЕЛИЧИНЫ
P {ξ = a} = Fξ (a) − Fξ (a − 0).
P {a ξ b} = Fξ (b) − Fξ (a − 0),
1 x2
fξ (x) = √ e− 2 , x ∈ R.
2π
Fη (x) = P {η x} = P {a + σξ x} =
x−a x−a
=P ξ = Fξ .
σ σ
§ 2. СВОЙСТВО ИЗМЕРИМОСТИ
Рассмотрим вероятностное пространство (Ω, F, P ) и слу-
чайную величину ξ : Ω −→ R. Функция ξ(ω) является F-из-
меримым отображением, т. е. для любого борелевского множе-
ства B ∈ B(R): ξ −1 (B) ∈ F .
Определение 2.1. Будем называть функцию h : Rk → Rl
борелевской, если h−1 (B) ∈ B(Rk ) для любого B ∈ B(Rl ).
Лемма 2.1. Пусть M — семейство множеств на числовой
прямой R такое, что σ(M) = B(R). Для того, чтобы функция
ξ : Ω → R была F-измеримой, необходимо и достаточно, чтобы
для любого C ∈ M выполнялось равенство ξ −1 (C) ∈ F.
Доказательство. Необходимость. Очевидно, что если
σ(M) = B(R), то M ⊂ B(R), тогда для любого C ∈ M имеет
место включение: ξ −1 (C) ∈ F.
82 Глава 5. Случайные величины
3. ξ −1 (B) = ξ −1 (B̄).
Таким образом, семейство замкнуто относительно операции
объединения и дополнения, следовательно, оно является σ-
алгеброй, которая содержится в F.
σ {B1 × B2 × . . . × Bn } = B(Rk ).
§ 4. ФУНКЦИИ РАСПРЕДЕЛЕНИЯ
В КОНЕЧНОМЕРНЫХ ПРОСТРАНСТВАХ
Рассмотрим конечномерное вероятностное пространство
(Rk , B(Rk ), Pξ ).
∂ k Fξ (x1 , . . . , xk ) п.в.
= f(ξ1 ,...,ξk ) (x1 , . . . , xk ). (4.4)
∂x1 . . . ∂xk
Свойства многомерной функции распределения изучались в
§ 5 главы 4. Там же было показано, что имеется взаимно
однозначное соответствие между вероятностными мерами и
функциями распределения в конечномерных пространствах.
Установим еще одно свойство, верное для всех многомер-
ных функций распределения. Пусть задана функция распреде-
ления F(ξ1 ,...,ξk ) (x1 , . . . , xk ). Выберем совокупность аргументов
xl+1 , . . ., xk и устремим каждый из них к бесконечности, то-
гда имеет место сходимость:
где
или
P {ξ1 ∈ B1 , ξ2 ∈ I2 , . . . , ξk ∈ Ik } =
= P {ξ1 ∈ B1 }P {ξ2 ∈ I2 } . . . P {ξk ∈ Ik },
где B1 — произвольное борелевское множество. Далее повто-
ряем рассуждение и приходим к формуле (5.1).
Предположим, что распределение случайного вектора ξ
абсолютно непрерывно относительно меры Лебега, т. е. су-
ществует совместная плотность распределения fξ (x1 , . . . , xk )
случайного вектора ξ, тогда существует плотность fξi (xi ) у
каждой случайной величины ξi , i = 1, . . . , k, причем
∞ ∞
fξi (xi ) = ... fξ (x1 , . . . , xk )dx1 . . . dxi−1 dxi+1 . . . dxk .
−∞ −∞
90 Глава 5. Случайные величины
Рис. 5.1
Область интегрирования
§ 5. Независимые случайные величины 91
Fζ (z) = P {ζ z} =
= P {ξ + η z} = P {(ξ, η) ∈ {(x, y) : x + y z}} =
⎛ ⎞
+∞ z−x
+∞ z
= fξ (x)fη (u − x)dudx =
−∞ −∞
⎛ +∞ ⎞
z z
= ⎝ ⎠
fξ (x)fη (u − x)dx du = fζ (u)du.
−∞ −∞ −∞
+∞
+∞
МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ
КАК ИНТЕГРАЛ ЛЕБЕГА
§ 1. ОПРЕДЕЛЕНИЕ И СВОЙСТВА
МАТЕМАТИЧЕСКОГО ОЖИДАНИЯ
Пусть задано вероятностное пространство (Ω, F, P ) и чис-
ловая функция ξ(ω). Могут существовать такие элементар-
ные события ω, что ξ(ω) = +∞ или ξ(ω) = −∞. Поэтому
имеет смысл рассматривать расширенную числовую прямую
R̄ = R ∪ {−∞} ∪ {+∞}.
Пусть для любого борелевского множества B ∈ B(R) вы-
полняется ξ −1 (B) ∈ F, ξ −1 (−∞) ∈ F, ξ −1 (∞) ∈ F. Такие
F-измеримые функции будем называть расширенными слу-
чайными величинами. Ниже перечислим некоторые соотно-
шения, которые будем предполагать справедливыми:
• ±∞a
= 0, a ∈ R;
• a · ∞ = ∞, a > 0;
• a · ∞ = −∞, a < 0;
• 0 · ∞ = 0.
m
Bj = i=1 (Ai ∩ Bj ). Тогда имеет место равенство:
m
m
n
ai P (Ai ) = ai P (Ai ∩ Bj ) =
i=1 i=1 j=1
n
m
n
= bj P (Ai ∩ Bj ) = bj P (Bj ).
j=1 i=1 j=1
Следовательно, получаем:
m
m
cξ(ω)dP = cai P (Ai ) = c ai P (Ai ) = c ξ(ω)dP.
Ω i=1 i=1 Ω
n
2. Введем случайную величину η(ω) = j=1 dj I{ω ∈ Dj }.
Можем записать представления:
n
m
Ai = (Ai ∩ Dj ), Dj = (Ai ∩ Dj ).
j=1 i=1
Тогда
m
n
ξ(ω) = ai I{ω ∈ Ai ∩ Dj },
i=1 j=1
m
n
η(ω) = dj I{ω ∈ Ai ∩ Dj }.
i=1 j=1
96 Глава 6. Математическое ожидание как интеграл Лебега
Рассмотрим сумму
m
n
ξ(ω) + η(ω) = (ai + dj )I{ω ∈ Ai ∩ Dj } (1.2)
i=1 j=1
m
n
(ai + dj )P (Ai ∩ Dj ) =
i=1 j=1
m
n
= ai P (Ai ) + dj P (Dj ) = ξ(ω)dP + η(ω)dP.
i=1 j=1 Ω Ω
Опираясь на доказательство
предыдущего пункта, де-
лаем вывод, что Ω (η(ω) − ξ(ω)) dP 0. Если отбро-
сить это неотрицательное слагаемое из равенства (1.3),
то правая часть равенства может только уменьшиться.
Свойство положительности выполняется для первой ча-
сти определения 1.1 математического ожидания.
Теорема 1.1. Справедливы свойства:
1. Пусть ξ(ω) — произвольная F-измеримая функция,
принимающая значения на расширенной числовой
прямой. Тогда существует последовательность про-
стых функций ξn (ω) такая, что lim ξn (ω) = ξ(ω) и
n→∞
|ξn (ω)| |ξ(ω)| для всех n.
2. Пусть ξ(ω) 0 — F -измеримая функция со значения-
ми в расширенной числовой прямой. Тогда существу-
ет последовательных простых функций, что имеет
место сходимость:
n2 n
−1
k k k+1
ξn (ω) = ·I ξ(ω) < + nI{ξ(ω) n}.
2n 2n 2n
k=0
При этом |ξn (ω)| ξn+ (ω) + ξn− (ω) −−−−→ ξ + (ω) + ξ − (ω), и
n→∞
имеют место неравенства: ξn+ (ω) < ξ + (ω), ξn− (ω) < ξ − (ω),
тогда справедливо неравенство:
Теорема доказана.
cξ(ω)dP = lim cξn (ω)dP =
n→∞
Ω Ω
= c lim ξn (ω)dP = c ξ(ω)dP.
n→∞
Ω Ω
Интегралы
+ (1.6) и (1.7) конечны тогда и только тогда, когда
Ω
ξ (ω)dP < ∞ и Ω ξ − (ω)dP < ∞.
IV. Справедливо неравенство:
ξ(ω)dP |ξ(ω)| dP. (1.8)
Ω Ω
V. Свойство мультипликативности
1. Пусть случайные величины ξ(ω) 0 и η(ω) 0 незави-
симы, тогда имеет место следующее равенство:
E(ξη) = EξEη.
2. Пусть случайные величины ξ(ω) и η(ω) независимы.
Пусть у них существуют и конечны математические
ожидания Eξ ∈ R, Eη ∈ R, тогда имеет место равен-
ство:
E(ξη) = EξEη.
Доказательство. Оба свойства докажем одновременно. Пусть
ξ(ω) 0, η(ω) 0 — взаимно независимые простые функции,
тогда их можно представить в виде:
n
ξ(ω) = ai I{ω ∈ Ai },
i=1
m
η(ω) = bj I{ω ∈ Bj },
j=1
причем
n
Ak ∩ Al = ∅, k = l, Ak = Ω;
k=1
m
Br ∩ Bs = ∅, r = s, Br = Ω.
r=1
Без ограничения общности можно считать, что ak = al для
любых k, l и br = bs для любых r, s. Очевидно, что ξ(ω)η(ω) =
n m
= bj ai I{ω ∈ Ai ∩ Bj } — простая случайная величина.
i=1 j=1
Тогда
n
m
E(ξη) = ai bj P (Ai ∩ Bj ),
i=1 j=1
104 Глава 6. Математическое ожидание как интеграл Лебега
n
m
E(ξη) = ai P (Ai )bj P (Bj ) =
i=1 j=1
n
m
= ai P (Ai ) bj P (Bj ) = EξEη.
i=1 j=1
E(ξη) = E(ξ + η + + ξ − η − − ξ − η + − ξ + η − ).
§ 1. Определение и свойства математического ожидания 105
E(ξη) = E(ξ + η + + ξ − η − − ξ − η + − ξ + η − ) =
= Eξ + Eη + + Eξ − Eη − − Eξ − Eη + − Eξ + Eη − =
= Eξ + − Eξ − Eη + − Eη − = EξEη.
VI. Пусть существует
Ω
ξ(ω)dP . Тогда для любого A ∈
∈ F существует Ω ξ(ω)I{ω ∈ A}dP .
Доказательство. Справедливы неравенства:
0 ξ + (ω)I{ω ∈ A} ξ + (ω),
0 ξ − (ω)I{ω ∈ A} ξ − (ω).
Из этих неравенств следует свойство VI.
Определение
1.2. По определению будем считать, что
ξ(ω)dP = ξ(ω)I{ω ∈ A}dP .
A Ω
п.н. п.н.
Тогда ξ + (ω) = 0, ξ − (ω) = 0. Таким образом, справедливо
равенство:
ξ(ω)dP = ξ + (ω)dP − ξ − (ω)dP = 0.
Ω Ω Ω
VIII. Пусть существует конечный интеграл Ω
ξ(ω)dP ∈
∈ R. Тогда P {ω : |ξ(ω)| = ∞} = 0.
Доказательство. Рассмотрим неравенство:
|ξ(ω)| |ξ(ω)|I {|ξ(ω)| = ∞} .
Проинтегрируя неравенство, получаем:
|ξ(ω)|dP |ξ(ω)|I {|ξ(ω)| = ∞} dP =
Ω Ω
= lim nP {|ξ(ω)| = ∞} .
n→∞
п.н.
IX. Пусть ξ(ω) 0 и Ω ξ(ω)dP = 0. Тогда ξ(ω) = 0.
Доказательство. Рассмотрим множества B = {ω : ξ(ω) >
> 0}, Bn = {ω :ξ(ω) 1/n}. Очевидно, что Bn ⊂ Bn+1 для
∞
любого n, B = n=1 Bn . Следовательно, по свойству непре-
рывности вероятностной меры P (B) = lim P (Bn ). Рассмот-
n→∞
рим неравенство:
1
ξ(ω) ξ(ω)I{ω ∈ Bn } I{ω ∈ Bn }.
n
Согласно свойству положительности:
1
0 = ξ(ω)dP P (Bn ).
n
Ω
N = {ω : ξ(ω) = η(ω)} ,
§ 2. ПРЕДЕЛЬНЫЙ ПЕРЕХОД
ПОД ЗНАКОМ ИНТЕГРАЛА ЛЕБЕГА
Теорема 2.1 (о монотонном предельном переходе под зна-
ком интеграла Лебега). Пусть ξ1 , . . ., ξn , . . . — последова-
тельность неотрицательных случайных величин, заданных
108 Глава 6. Математическое ожидание как интеграл Лебега
˜
Доказательство. Рассмотрим η̃(ω) = −η(ω), ξ(ω) =
˜
= −ξ(ω), ξn (ω) = −ξn (ω). Таким образом, мы оказываем-
ся в условиях следствия 2.2.
Так как
п.н. п.н.
lim ξn = lim ξn (ω) = ξ(ω),
n→∞ n→∞
п.н. п.н.
lim ξn = lim ξn (ω) = ξ(ω),
n→∞ n→∞
то получаем искомое равенство.
Третье утверждение доказывается аналогично.
Также можно написать: Rn g(x)dPξ = lim Rn gk (x)dPξ . Сле-
k→∞
довательно,
g(ξ(ω))dP = g(x)dPξ .
Ω Rn
Ω Rn
−
g (ξ(ω)) dP = g − (x)dPξ .
Ω Rn
+∞
+∞
+∞
+∞
+∞
m
ξ(ω) = ai I{ω ∈ Ai }.
i=1
m
Eξ = ai P (Ai ).
i=1
m
Eξ = ai P {ξ = ai }. (5.1)
i=1
m
ξ(ω) = bi I{ω ∈ Bi }.
i=1
118 Глава 6. Математическое ожидание как интеграл Лебега
где bi = b+ −
i − bi . Всегда можно добиться того, чтобы все зна-
чения bi были бы различными, тогда Bi = ξ −1 (bi ), получаем
формулу для вычисления математического ожидания простой
случайной величины:
m
Eξ = bi P {ξ = bi }. (5.2)
i=1
∞
ξ − (ω) = b−
i I{ω ∈ Bi }.
i=1
Тогда
n
+
ξn+ (ω) ξn+1 (ω), 0 ξn+ (ω) = b+ −−−→ ξ + (ω),
i I{ω ∈ Bi } −
k→∞
i=1
n
−
ξn− (ω) ξn+1 (ω), 0 ξn− (ω) = b− −−−→ ξ − (ω).
i I{ω ∈ Bi } −
k→∞
i=1
Следовательно,
n ∞
Eξ + = lim Eξn+ = lim b+
i P (Bi ) = b+
i P (Bi ),
n→∞ n→∞
i=1 i=1
n ∞
Eξ − = lim Eξn− = lim b−
i P (Bi ) = b−
i P (Bi ).
n→∞ n→∞
i=1 i=1
Тогда математическое ожидание случайной величины ξ(ω)
можно вычислить следующим образом:
∞
∞
Eξ = Eξ + − Eξ − = b+
i P (Bi ) − b−
i P (Bi ). (5.3)
i=1 i=1
Справедливы утверждения:
• Если Eξ + = ∞, Eξ − ∈ R, то Eξ = ∞.
• Если Eξ + ∈ R, Eξ − = ∞, то Eξ = −∞.
∞
• Если Eξ + ∈ R, Eξ − ∈ R, то Eξ = bi P (Bi ), причем,
i=1
ряд сходится в абсолютном смысле.
• Если Eξ + = ∞, Eξ − = ∞, то математическое ожидание
ξ не существует.
4. Рассмотрим случайную величину ξ, у которой существу-
ет плотность распределения fξ (x). Математическое ожидание
такой случайной величины можно вычислить по формуле:
∞ ∞ 0
Eξ = xfξ (x)dx = xfξ (x)dx − |x|fξ (x)dx, (5.4)
−∞ 0 −∞
120 Глава 6. Математическое ожидание как интеграл Лебега
чаем
∞ 0
1 1 1 1
Eξ = x 2
dx − |x| dx.
π 1+x π 1 + x2
0 −∞
Свойства дисперсии
Dη = a2 Dξ.
D(ξ ± η) = Dξ + Dη.
V. Справедливо неравенство:
Dξ E(ξ − a)2 ,
где a — константа, при этом Dξ = E(ξ − a)2 тогда и только
тогда, когда a = Eξ.
Доказательство. Рассмотрим E(ξ − a)2 . К выражению в
скобках прибавим и вычтем величину Eξ:
§ 7. НЕРАВЕНСТВО ЧЕБЫШЕВА.
ДРУГИЕ НЕРАВЕНСТВА
Лемма 7.1 (неравенство Чебышева). Пусть ξ 0. Тогда для
любого ε > 0 справедливо неравенство:
Eξ
P {ξ ε} .
ε
Доказательство. Справедливо неравенство:
Eξ εP {ξ(ω) ε}.
так как
2
1 1
n n
2
Dηn = E(ηn − a) = E (ξk − a) = Dξk .
n n2
k=1 k=1
n
μn = ξk ,
k=1
Eξk = 1 · p + 0 · q = p,
1
Dξk = E(ξk − p)2 = (1 − p)2 p + (0 − p)2 q = qp(q + p) = pq .
4
п.н.
Доказательство. Пусть Eξ 2 = 0. Следовательно, ξ = 0,
п.н.
ξη = 0 и E(ξη) = 0. Тогда неравенство Коши–Шварца–Буня-
ковского выполнено как равенство. Аналогично для Eη 2 = 0.
Пусть 0 < Eξ 2 < ∞, 0 < Eη 2 < ∞. Введем случайные
величины:
ξ η
ξ˜ = 2 и η̃ = 2 .
Eξ 2 Eη 2
Рассмотрим выражение:
(ξ˜ ± η̃)2 0.
Раскроем скобки и преобразуем:
ξ˜2 + η̃ 2 ±2ξ˜η̃.
Проинтегрировав последнее неравенство, получаем:
2 ±2E(ξ˜η̃),
или эквивалентное неравенство:
2 2
±E(ξη) Eξ 2 Eη 2 .
Последнее неравенство доказывает лемму.
128 Глава 6. Математическое ожидание как интеграл Лебега
E(ξ˜η̃) = 1,
2 2
где ξ˜ = ξ/ Eξ 2 , η̃ = η/ Eη 2 . Домножим обе части равен-
ства на два и проделаем преобразования из доказательства
леммы 7.3, получим:
2E(ξ˜η̃) = 2 = E ξ˜2 + E η̃ 2 .
!
п.н. п.н. Eξ 2
Следовательно, E(ξ˜ − η̃)2 = 0, ξ˜ − η̃ = 0 или η = Eη 2 ξ.
Аналогично рассматривается второй случай.
§ 8. КОВАРИАЦИЯ, КОРРЕЛЯЦИЯ
Пусть заданы случайные величины ξ и η на вероятностном
пространстве (Ω, F, P ), и существуют конечные математиче-
ские ожидания Eξ ∈ R, Eη ∈ R, а также Dξ > 0 и Dη > 0.
Кроме того, полагаем, что Eξ 2 < ∞ и Eη 2 < ∞.
Определение 8.1. Ковариация cov(ξ, η) случайных величин ξ
и η определяется формулой:
I. Справедлива формула:
cov(ξ, η) = 0 и (ξ, η) = 0.
E(ξ − Eξ) = Eξ − Eξ = 0,
E(η − Eη) = Eη − Eη = 0.
Таким образом, cov(ξ, η) = 0. Так как по определению 8.2:
cov(ξ, η)
(ξ, η) = √ √ ,
Dξ Dη
то (ξ, η) = 0.
130 Глава 6. Математическое ожидание как интеграл Лебега
2
min Q(a, b̂) = min E ((η − Eη) − a(ξ − Eξ)) .
a a
n
m
η(ω) = bj I{ω ∈ Ai ∩ Bj }.
i=1 j=1
134 Глава 7. Условные распределения
m
m
pi· = pij = P (Ai ∩ Bj ) =
j=1 j=1
⎧ ⎫
⎨m ⎬
=P (Ai ∩ Bj ) = P (Ai ) = P {ξ = ai },
⎩ ⎭
j=1
n
n
p·j = pij = P (Ai ∩ Bj ) =
i=1 i=1
& *
n
=P (Ai ∩ Bj ) = P (Bj ) = P {η = bj },
i=1
n
m
pi· = p·j = 1.
i=1 j=1
Далее будем предполагать, что pi· > 0 для любого i и p·j > 0
для любого j. Рассмотрим строку с номером i таблицы сов-
местного распределения простых случайных величин ξ(ω) и
§ 1. Матожидания простых случайных величин 135
m
E{ηϕ(ξ)/ξ = ai } = ϕ(ai )bj P {η = bj /ξ = ai } =
j=1
§ 3. МНОГОМЕРНОЕ НОРМАЛЬНОЕ
РАСПРЕДЕЛЕНИЕ
Пусть ξ1 ∼ N (0, 1), ξ2 ∼ N (0, 1), . . ., ξn ∼ N (0, 1). Пред-
положим, что все случайные величины взаимно независимы.
Составим случайный вектор ξ = (ξ1 , . . . , ξn )T . Как было уста-
новлено, необходимым и достаточным условием независимо-
сти случайных величин является равенство:
n
Fξ1 ,...,ξn (x1 , . . . , xn ) = Fξi (xi ),
i=1
η = (η1 , . . . , ηn )T = a + cξ,
1
fξ (x)dx = fξ (c−1 (y − a))dy, B ∈ B(Rn ).
|c|
D B
1
1 1 − (y−a)T ((c−1 )T c−1 )(y−a)
−1
fη (y) = fξ (c (y − a)) = n e 2 ,
|c| (2π) 2 |c|
где (c−1 )T c−1 = (ccT )−1 , Σ = ccT , |Σ| = |c|2 . Тогда можно
записать выражение для плотности распределения вектора η
в следующем виде:
1
1 − (y−a)T Σ−1 (y−a)
fη (y) = n2 e 2 .
(2π) 2 |Σ|
E(ξξ T ) = En .
1 ση2 −σξ ση ρ
Σ−1 = =
2
σξ ση (1 − ρ2 )
2 −σξ ση ρ σξ2
⎛ 2 ⎞
ση ση
1 ⎝ σξ2 − ρ
σξ ⎠ .
= 2
ση (1 − ρ2 ) − ση ρ 1
σξ
Отсюда следует
1
fξ,η (x, y) = √ ! ×
2π ση2 (1 − ρ2 )
(y − aη − σηξ ρ(x − aξ ))2
σ
× exp − ·
2ση2 (1 − ρ2 )
1 (x − aξ )2
·√ exp − = fη/ξ (y/x)fξ (x),
2πσξ 2σξ2
1 (x−a )2
где fξ (x) = √2πσ exp − 2σ2ξ — плотность нормально-
ξ ξ
Следовательно,
∞
fξ (x) = fξ,η (x, y)dy.
−∞
∞
ση
E(η/ξ = x) = yfη/ξ (y/x)dy = aη + ρ (x − aξ ).
σξ
−∞
Следовательно,
ση
E(η/ξ) = aη + ρ (ξ − aξ ).
σξ
Из полученного выражения можно сделать вывод: если сов-
местное распределение случайных величин ξ и η нормальное,
то наилучший прогноз случайной величины η по случайной
величине ξ является линейным.
Необходимое и достаточное условие независимости слу-
чайных величин ξ и η, если существует совместная плотность,
имеет вид:
fξ,η (x, y) = fξ (x)fη (y).
Для двумерного нормального распределения, как следует из
полученных формул, тождество возможно тогда и только то-
гда, когда коэффициент корреляции ρ = 0.
Глава 8
НЕКОТОРЫЕ РАСПРЕДЕЛЕНИЯ
§ 1. ДИСКРЕТНЫЕ РАСПРЕДЕЛЕНИЯ
1. Распределение Бернулли. Случайная величина ξ подчи-
няется распределению Бернулли, если
P {ξ = 1} = p, P {ξ = 0} = q = 1 − p,
Eξ = p, Dξ = Eξ 2 − (Eξ)2 = p − p2 = pq.
2. Биномиальное распределение (рис. 8.1, 8.2).
n=50, p=0,5
0.10
0.08
P{=m}
0.06
0.04
0.02
0.00
15 20 25 30 35
m
Рис. 8.1
Биномиальное распределение
150 Глава 8. Некоторые распределения
n=50, p=0.5
1.0
0.8
0.6
F(x)
0.4
0.2
0.0
15 20 25 30 35
m
Рис. 8.2
Функция биномиального распределения
=3
0.20
0.15
P{=k}
0.10
0.05
0.00
0 2 4 6 8 10
k
Рис. 8.3
Распределение Пуассона
=3
1.0
0.8
0.6
F(x)
0.4
0.2
0 2 4 6 8 10
x
Рис. 8.4
Функция распределения Пуассона
Следовательно,
Eξ 2 = λ2 + λ,
тогда дисперсия может быть вычислена следующим образом:
Dξ = Eξ 2 − (Eξ)2 = λ2 + λ − λ2 = λ.
§ 2. НЕПРЕРЫВНЫЕ РАСПРЕДЕЛЕНИЯ
1. Стандартное нормальное распределение N (0, 1) (рис.
8.5, 8.6). Рассмотрим плотность распределения
1 x2
fξ (x) = √ e− 2 .
2π
N(0,1)
0.4
0.3
f(x)
0.2
0.1
0.0
-3 -2 -1 0 1 2 3
x
Рис. 8.5
Функция плотности стандартного
нормального распределения
∞ x2
1 −
Eξ = x √ e 2 dx =
2π
−∞
∞ x2 0 x2
1 − − 1
= x √ e 2 dx − |x|e 2 √ dx =
2π 2π
0 −∞
2
∞ x ∞ x2
1 − 1 −
= x √ e 2 dx − x √ e 2 dx = 0.
2π 2π
0 0
Вычислим дисперсию:
∞ x2
2 1 − 2
Dξ = Eξ = x √ e 2 dx =
2π
−∞
x2 ∞ x2
1 − ∞ 1 −
= −x √ e 2 + e 2 dx = 1,
2π −∞ 2π
−∞
154 Глава 8. Некоторые распределения
N(0,1)
1.0
0.8
0.6
F(x)
0.4
0.2
0.0
-3 -2 -1 0 1 2 3
x
Рис. 8.6
Функция стандартного нормального
распределения
∞ x2
1 −
Ka = Eξ 3 = x3 √ e 2 dx =
2π
−∞
x2 ∞ x2
∞
1 − 1 −
= −x2 √ e 2 +2 x √ e 2 dx = 0.
2π −∞ 2π
−∞
∞ x2
1 −
Ke = Eξ 4 − 3 = x4 √ e 2 dx − 3 =
2π
−∞
2
x ∞ x2
1 − ∞
3 2 1 −
= −x √ e 2 +3 x √ e 2 dx − 3 = 3 − 3 = 0.
2π −∞ 2π
−∞
Следовательно,
(x − a)2
1 −
fη (x) = √ e 2σ 2 ,
2πσ
здесь fη (x) — плотность нормального распределения N (a, σ 2 ).
156 Глава 8. Некоторые распределения
N(10,36)
0.06
0.05
0.04
f(x)
0.03
0.02
0.01
0.00
-10 0 10 20 30
x
Рис. 8.7
Функция плотности нормального распределения N (10, 36)
Dη = E(η − Eη)2 = σ 2 Dξ = σ 2 .
Коэффициенты в функции плотности распределения имеют
следующий смысл: a — математическое ожидание, σ — сред-
неквадратическое отклонение, σ 2 — дисперсия. Если случай-
ная величина подчиняется распределению η ∼ N (a, σ 2 ), то
случайная величина ξ = (η − a)/σ подчиняется стандартно-
му нормальному распределению N (0, 1), следовательно, мож-
но переформулировать свойства, полученные ранее для стан-
дартного нормального распределения.
Например, правило трех сигм можно записать в виде:
η − a
P {|ξ| < 3} = P <3 =
σ
= P {−3σ < η − a < 3σ} > 0, 98.
§ 2. Непрерывные распределения 157
N(10,36)
3.2
2.8
2.6
F(x)
2.4
2.1
2.2
-32 2 32 12 02
x
Рис. 8.8
Функция нормального распределения N (10, 36)
0.35
p=1
=2
0.30
0.25
0.20
p=2
f(x)
=2
0.15
p=9
=0.5
0.10
0.05
0.00
0 5 10 15
x
Рис. 8.9
Функции плотности гамма-распределения
∞
−λp−1 p −λx ∞
Eξ = xfξ (x)dx = x e +
Γ(p) 0
x
∞
p λp p−1 −λx p
+ x e dx = ,
λ Γ(p) λ
0
∞ λp p−1 −λx
так как 0 Γ(p) x e dx = 1. Найдем дисперсию случай-
ной величины ξ:
Dξ = Eξ 2 − (Eξ)2 ,
§ 2. Непрерывные распределения 159
460
p=1
=2
065
p=2
06.
=2
f(x)
061
p=9
068
=0.5
060
0 2 40 42
x
Рис. 8.10
Функции гамма-распределения
∞
2 λp p−1 −λx λp 2 p−1 −λx ∞
Eξ = x2 x e dx = − x x e +
Γ(p) λΓ(p) 0
0
∞
1 λp p−1 −λx p(p + 1)
+ (p + 1) x x e dx = .
λ Γ(p) λ2
0
=4
4
3
f(x)
2
1
0
Рис. 8.11
Функция плотности экспоненциального распределения
следовательно,
1 − e−λx , x > 0;
Fξ (x) = P {ξ x} =
0, x 0.
=4
620
025
02.
F(x)
021
028
020
Рис. 8.12
Функция экспоненциального распределения
P {ξ t + τ /ξ > τ } = P {ξ t}.
p1=2
254
p2=5 p1=5
p2=1
251
f(x)
p1=2
654
p2=2
651
154
151
Рис. 8.13
Функция плотности бета-распределения
§ 2. Непрерывные распределения 163
. 20
p1=2
021
028 p2=5
p1=2
F(x)
p2=2
026
p1=5
024
p2=1
020
Рис. 8.14
Функция бета-распределения
Следовательно,
p2 + p1
β(p1 + 1, p2 ) = β(p1 , p2 ).
p1
Вычислим моменты:
1
1 β(p1 + 1, p2 ) p1
Eξ = xp1 (1 − x)p2 −1 dx = = .
β(p1 , p2 ) β(p1 , p2 ) p1 + p 2
0
164 Глава 8. Некоторые распределения
1
1 β(p1 + 2, p2 )
Eξ 2 = xp1 +1 (1 − x)p2 −1 dx = =
β(p1 , p2 ) β(p1 , p2 )
0
β(p1 + 2, p2 ) β(p1 + 1, p2 ) p1 + 1 p1
= = · .
β(p1 + 1, p2 ) β(p1 , p2 ) p1 + p2 + 1 p1 + p2
p1 p1 + 1 p1
Dξ = Eξ 2 − (Eξ)2 = − =
p1 + p2 p1 + p2 + 1 p1 + p2
p1 p2
= .
(p1 + p2 )2 (p1 + p2 + 1)
Рис. 8.15
Функция плотности равномерного распределения U [0, 1]
§ 2. Непрерывные распределения 165
1.0
0.8
0.6
F(x)
0.4
0.2
0.0
Рис. 8.16
Функция равномерного распределения U [0, 1]
β
P {ξ ∈ (α, β)} = 1dx = dx = β − α,
(α,β) α
аналогично получаем:
P {ξ ∈ (α , β )} = β − α .
1 1
fξ (x) = , x ∈ R.
π 1 + x2
166 Глава 8. Некоторые распределения
104
10.
f(x)
103
102
101
-3 -2 1 2 3
x
Рис. 8.17
Функция плотности распределения Коши
§ 1. СХОДИМОСТИ ПО ВЕРОЯТНОСТИ,
ПОЧТИ НАВЕРНОЕ, ПО РАСПРЕДЕЛЕНИЮ,
В СРЕДНЕМ, В ОСНОВНОМ
Будем считать, что в вероятностном пространстве (Ω, F , P )
сигма-алгебра F полна относительно меры P .
Определение 1.1. Пусть случайная величина ξ и последова-
тельность случайных величин ξ1 ,. . .,ξn ,. . . заданы на вероят-
ностном пространстве (Ω, F, P ). Будем говорить, что последо-
вательность {ξn } сходится почти наверное к случайной вели-
чине ξ и записывать:
п.н.
ξn −−−−→ ξ, (1.1)
n→∞
если P ω : ξn (ω) ξ(ω) = 0 или
n→∞
P ω : lim ξn (ω) = ξ(ω) = 1.
n→∞
Введем обозначение:
∞ ∞
1
Br = ω : |ξn (ω) − ξ(ω)| > .
n=1 m=n
r
Так как
∞ для любого ∞ r справедливо неравенство:∞ P (Br )
P { r=1 Br } r=1 P (Br ), то условие, что P { r=1 Br } =
= 0, эквивалентно тому, что
∞для, любого r вероятность
- P (Br )
равна нулю. Обозначим m=n ω : |ξm − ξ| > 1r через An ,
An ⊃ An+1 , тогда в силу
∞непрерывности вероятностной меры
равенство P (Br ) = P { n=1 An } = 0 эквивалентно равенству
lim P (An ) = 0. Последнее равенство эквивалентно тому, что
n→∞
для любого r имеет место сходимость:
& ∞ *
1
P ω : |ξm − ξ| > −−−−→ 0. (2.4)
m=n
r n→∞
Справедливо:
& ∞ *
1 1
ω : |ξm − ξ| > = ω : sup |ξm − ξ| > ,
m=n
r mn r
§ 2. Критерий сходимости почти наверное 171
r эквивалентна
Сходимость (2.5) для любого тому, что для
любого ε > 0 выполнено: P sup |ξm − ξ| > ε −−−−→ 0.
mn n→∞
Докажем второе утверждение. Запишем в явном виде сле-
дующее событие:
для
& любого ε > *0 эквивалентно утверждению, что
По свойству
∞ непрерывности
∞ вероятностной мерысверху, так
∞
как m=n Ām ⊂ m=n+1 Ām , то P (Ā∗ ) = lim P m=n Ām .
n→∞
§ 2. Критерий сходимости почти наверное 173
N N +1
учитывая, что m=n Ām ⊃ m=n Ām . Рассмотрим вероят-
ность:
N
N
N
P Ām = P (Ām ) = (1 − P (Am )) =
m=n m=n m=n
N
= exp ln(1 − P (Am )) . (2.6)
m=n
соотношения:
§ 3. ЭКВИВАЛЕНТНОСТЬ СХОДИМОСТИ
В ОСНОВНОМ И СХОДИМОСТИ ПО
РАСПРЕДЕЛЕНИЮ. СВОЙСТВА СХОДИМОСТИ
В ОСНОВНОМ
Теорема 3.1. Пусть заданы последовательность случайных
величин ξ1 ,. . .,ξn ,. . . и случайная величина ξ, Fξ (x) — функ-
ция распределения случайной величины ξ, Fξn (x) — функция
распределения случайной величины ξn , n = 1, . . .. Последова-
тельность ξ1 ,. . .,ξn ,. . . сходится по распределению к ξ при
n → ∞ тогда и только тогда, когда функции Fξn (x) схо-
дятся в основном при n → ∞ к функции Fξ (x).
Справедливы рассуждения:
Следовательно,
m
Пусть g̃(x) = g(xi )I{x ∈ Δi }, где xi ∈ Δi , следователь-
i=1
но |g(x) − g̃(x)| < ε/3 при x ∈ [a, b]. Рассмотрим выражение:
g(x)dPξn − g(x)dPξ =
(a,b] (a,b]
= g(x)dPξn − g(x)dPξ ± g̃(x)dPξn ∓ g̃(x)dPξ
(a,b] (a,b] (a,b] (a,b]
|g(x) − g̃(x)|dPξn + |g(x) − g̃(x)|dPξ +
(a,b] (a,b]
m
+ |g(xi )| · |Pξn (Δi ) − Pξ (Δi )|. (3.5)
i=1
P {|ξn − ξ| > ε} =
= P {ξn − ξ < −ε} + P {ξn − ξ > ε} = P {ξn < a − ε}+
+ P {ξn > a + ε} P {ξn a − ε} + P {ξn > a + ε} =
= Fξn (a − ε) + (1 − Fξn (a + ε)).
ХАРАКТЕРИСТИЧЕСКИЕ
ФУНКЦИИ
§ 1. СВОЙСТВА ХАРАКТЕРИСТИЧЕСКИХ
ФУНКЦИЙ
Eζ = Eξ + iEη.
n
m
η(ω) = bl I{ω ∈ Ak ∩ Bl }.
k=1 l=1
Нетрудно
n заметить, что справедливо равенство:
k=1 I(ω ∈ Ak ∩ Bl ) = I{Bl }. Следовательно, имеет
место равенство:
n
m
ζ(ω) = ξ(ω) + iη(ω) = (ak + ibl )I{ω ∈ Ak ∩ Bl }.
k=1 l=1
Очевидно, что
n
m
|ζ(ω)| = |ak + ibl |I{ω ∈ Ak ∩ Bl }.
k=1 l=1
Учитывая, что
n
m
Eξ(ω) = ak P (Ak ∩ Bl ),
k=1 l=1
n
m
Eη(ω) = bl P (Ak ∩ Bl ),
k=1 l=1
получаем выражение:
n m
|Eζ(ω)| = (ak + ibl )P (Ak ∩ Bl ) . (1.2)
k=1 l=1
ϕξ (t + h) − ϕξ (t)
=
h
E(eiξ(t+h) − eiξt ) iξt e
iξh
−1
= =E e =
h h
§ 1. Свойства характеристических функций 189
iξt cos(ξh) − 1 sin(ξh)
=E e +i . (1.6)
h h
Рассмотрим h > 0. Используем формулу конечных при-
ращений Лагранжа для синуса и косинуса:
n−1
(it)k k
cos(ξt) + i sin(ξt) = ξ +
k!
k=0
(it)n n
+ ξ (cos(ξtΘ1 ) + i sin(ξtΘ2 )),
n!
где Θ1 ∈ (0, 1) и Θ2 ∈ (0, 1).
190 Глава 10. Характеристические функции
+∞
+∞
π
+ Tm x dG(x) 2δn +
n
S
⎛ +∞ ⎞
m
+∞
+ Ck ⎝ ei n πx dG(x)⎠ +
k k
ei n πx dF (x) −
k=−m
−∞ −∞
π
π
+ Tm x dF (x) + Tm x dG(x)
n n
S S
2δn +2(F (−n)+1−F (n))+2(G(−n)+1−G(n)) → 0,
где S = (−∞, −n) ∪ (n, +∞). Правая часть стремится к
нулю с ростом n, в то время как левая часть от n не
зависит. Теорема доказана.
§ 2. ПРИМЕРЫ ХАРАКТЕРИСТИЧЕСКИХ
ФУНКЦИЙ
Пример 2.1. Пусть случайная величина ξ почти наверное рав-
няется константе a, тогда ее характеристическая функция бу-
дет иметь вид: ϕξ (t) = eita . Действительно, ϕξ (t) = Eeiξt =
= Eeiat = eita .
Пример 2.2. Пусть случайная величина η подчиняется рас-
пределению Бернулли, т. е. она принимает значение 1 с веро-
ятностью p и значение 0 с вероятностью q = 1 − p, тогда ее
характеристическая функция будет иметь вид: ϕξ (t) = Eeiξt =
= peit + q.
§ 3. Формулы обращения 195
§ 3. ФОРМУЛЫ ОБРАЩЕНИЯ
Рассмотрим характеристичскую функцию
+∞
+∞ z
b
Fξ+ση (b) − Fξ+ση (a) = fξ+ση (x)dx =
a
+∞
1 e−ita − e−itb σ2 2
= ϕξ (t)e− 2 t dt.
2π it
−∞
+∞
1 e−ita − e−itb σ2 2
Fξ (b) − Fξ (a) = lim ϕξ (t)e− 2 t dt. (3.7)
2π σ→0 it
−∞
198 Глава 10. Характеристические функции
§ 4. ХАРАКТЕРИСТИЧЕСКИЕ ФУНКЦИИ
ДЛЯ НОРМАЛЬНОГО РАСПРЕДЕЛЕНИЯ
Пусть случайная величина ξ подчиняется стандартному
нормальному распределению. Распределение симметрично,
следовательно, по свойству 6 характеристическая функция
принимает только вещественные значения:
∞
1 x2
ϕξ (t) = Eeiξt = √ eitx e− 2 dx.
2π
−∞
∞
1 x2
ϕξ (t) = √ ixeitx e− 2 dx =
2π
−∞
∞ ∞
i itx − x2 i2 t x2
= −√ e e 2
+√ eitx e− 2 dx = −tϕξ (t).
2π −∞ 2π
−∞
1 1 T
Σ−1 (x−a)
fη (x) = 2 e− 2 (x−a)
(2π)n/2 |Σ|
T T
t+iξ T AT t
ϕη (t1 , . . . , tn ) = Eeiη t
= Eeia =
T T
t− 12 tT Σt
= eia t ϕξ (AT t) = eia . (4.4)
T
+η T C T )t T
ϕζ (t) = Eei(b = eib t ϕη (C T t) =
T
+aT C T )t− 12 tT CΣC T t
= ei(b , (4.5)
∞
ϕn (t) = eitx dFn (x), (5.1)
−∞
∞
ϕ(t) = eitx dF (x). (5.2)
−∞
или
ϕξn (t) −−−−→ ϕξ (t).
n→∞
Преобразуем интеграл:
τ τ τ
ϕ(t)dt = ϕn (t)dt + (ϕ(t) − ϕn (t))dt,
−τ −τ −τ
тогда
τ
ε 1
1 − ϕ(t)dt
4 2τ
−τ
τ τ
1 1
ϕn (t)dt + |ϕ(t) − ϕn (t)|dt, (5.7)
2τ 2τ
−τ −τ
что
2 ε
P |ξn | 2 1− − 1 = 1 − ε.
τ 2
Теперь возьмем любое n n0 , 0 < τ τ0 , A < −2/τ , B > 2/τ ,
где точки A и B являются точками непрерывности функции
G(x). Будет выполняться неравенство:
2
Fn (B) − Fn (A) P |ξn | 1 − ε.
τ
G(B) − G(A) 1 − ε,
+∞
+∞
+∞
itx
e dF̃ (x) = ϕ(t) = eitx dF (x).
−∞ −∞
n
t
i σ√ n
(ξk −a)
n
t
i σ√ (ξk −a)
itζn
ϕζn (t) = Ee = Ee k=1 =E e n =
k=1
n
t t t
n ln ϕ(ξ1 −a) ( σ√ )
= ϕ(ξk −a) √ = ϕn(ξ1 −a) √ =e n .
σ n σ n
k=1
t2
Таким образом, получили характеристическую функцию e− 2
взаимно однозначно соответствующую стандартному нормаль-
d
ному распределению, тогда ζn −−−−→ ζ ∼ N (0, 1).
n→∞
n
Замечание 2.2. В теореме 2.1 пусть ηn = ξl , тогда Dηn =
l=1
2
= σ n.
равномерно по a < b.
Доказательство. Из теоремы 2.1 следует, что
b
μ − np 1 y2
P a< √ b −−−−→ √ e− 2 dy.
npq n→∞ 2π
a
Доказательство. Рассмотрим P {˜
ςn x} и применим тео-
рему 2.1:
x
σ
ς˜n x 1 −y2
P {˜
ςn x} = P −−−−→ √ e 2 dy.
σ σ n→∞ 2π
−∞
214 Глава 11. Предельные теоремы
1 1
n n
P
ξk − ak −−−−→ 0. (3.1)
n n n→∞
k=1 k=1
1
n
Обозначим через ςn = n (ξk − ak ), тогда сходимость в (3.1)
k=1
можно записать в виде:
P
ςn −−−−→ 0.
n→∞
n ξkn случайную
Обозначим через величину ξkn = (ξk − ak )/n,
тогда ςn = n1 k=1 (ξk − ak ) =
n
k=1 ξkn . Далее будем рас-
сматривать более общую задачу, введя произвольную схему
серий, которая будет удовлетворять сформулированным ниже
условиям.
Назовем бесконечную последовательность конечных набо-
ров случайных величин {ξ1n , ξ2n , . . . , ξnn }, n = 1, 2, . . ., схемой
серий, будем предполагать, что для любых n и k:
Eξkn = 0. (3.2)
216 Глава 11. Предельные теоремы
n
|Bn − An | |bk − ak |. (3.6)
k=1
n
M1n (τ ) = E {|ξkn |I{|ξkn | > τ }} −−−−→ 0. (3.7)
n→∞
k=1
n
E eitξkn − 1 − itξkn
k=1
n
|tξkn |2
E min 2|tξkn |,
2
k=1
|t|2
max 2|t|, D1n (2) h(t)D1n (s),
2
2
где h(t) = max 2|t|, |t|2 . Так как выполнено условие (D1 ),
то h(t)D1n (s) −−−−→ 0.
n→∞
где ak = Eξk .
Для ξkn = (ξk − ak )/n справедливы следующие представ-
ления:
1
n
|ξk − ak |s
D1n (s) = E min |ξk − ak |, , (3.12)
n ns−1
k=1
1
n
M1n (τ ) = E {|ξk − ak |I {|ξk − ak | τ n}} . (3.13)
n
k=1
220 Глава 11. Предельные теоремы
n
E{|ξk − a|I{|ξk − a| > τ n}}
M1n (τ ) = =
n
k=1
1
n
= E{|ξ1 − a|I{|ξ1 − a| > τ n}} =
n
k=1
= E{|ξ1 − a|I{|ξ1 − a| > τ n}}.
п.н.
Так как |ξ1 (ω) − a|I{|ξ1 (ω) − a| > τ n} −−−−→ 0 и |ξ1 (ω) −
n→∞
− a|I{|ξ1 (ω) − a| > τ n} |ξ1 (ω)| + |a|, то по теореме Лебега
имеет место сходимость:
E{|ξ1 − a|I{|ξ1 − a| > τ n}} −−−−→ 0,
n→∞
или
x
1 y2
P {ςn x} −−−−→ √ e− 2 dy.
n→∞ 2π
−∞
место сходимость:
n
, 2 -
M2n (τ ) = E ξkn I{|ξkn | > τ } −−−−→ 0. (4.1)
n→∞
k=1
n
2
M2n (τ1 ) = E{ξkn I{τ1 < |ξkn | τ2 }}+
k=1
n
2
+ E{ξkn I{|ξkn | > τ2 }} =
k=1
n
2
= E{ξkn I{τ1 < |ξkn | τ2 }} + M2n (τ2 ).
k=1
n 2
Так как k=1 E{ξkn I{τ1 < |ξkn | τ2 }} 0, то M2n (τ1 )
M2n (τ2 ).
n
Ln (s) = E|ξkn |s −−−−→ 0. (4.3)
n→∞
k=1
2
max σkn
k=1,n
max P {|ξkn | ε} .
k=1,n ε2
2
max σkn
k=1,n
−−−−→ 0,
ε2 n→∞
n
D2n (s) = E{|ξkn |s I{|ξkn | 1}}+
k=1
n
2
+ E{ξkn I{|ξkn | > 1}}
k=1
n
2
τ s−2 E{ξkn I{|ξkn | τ }} + M2n (τ ) τ s−2 + M2n (τ ).
k=1
n
2
M2n (τ ) = E{ξkn I{|ξkn | > 1}}+
k=1
n
n
2 2
+ E{ξkn I{τ < |ξkn | 1}} E{ξkn I{|ξkn | > 1}}+
k=1 k=1
1
n
1
+ s
E{ξkn I{τ < |ξkn | 1}} D2n (s).
τ s−2 τ s−2
k=1
Доказательство.
n n 2
1) Очевидно, что Ln (s) = k=1 E|ξkn |s k=1 E min{ξkn ,
|ξkn | } для любого s 2. Таким образом, из (L) следует (D2 ).
s
2 2
n 2
Заметив, что 1 = σ1n +. . .+σnn = k=1 σkn и применив лемму
3.2, получаем следующее неравенство:
t2
ϕςn (t) − e− 2 =
n n n
t2 2 itξkn t2 2
= ϕξkn − e− 2 σkn Ee − e− 2 σkn =
k=1 k=1 k=1
n
2 2 1 2 2 1 2 2
− t2
= |Eeitξkn −e σkn
+(1− σkn t )−(1− σkn t )| I1 +I2 ,
2 2
k=1
где
n
2
I1 = E e−itξkn − 1 − itξkn − (iξkn ) t2 ,
2
k=1
n
− σkn
2 2
σkn
I2 = t 2
−1− − t .
2
e
2
2
k=1
2
t2 и применив лемму 3.1, получим:
σkn
Положив β = − 2
n
σ4 t4 2 2
n
t4
kn 4
I2 t = σkn σkn max σ 2 −−−−→ 0.
8 8 8 k=1,n kn n→∞
k=1 k=1
n
(itξkn )2
I1 E eitξkn − 1 − itξkn − .
2
k=1
Кроме того,
itξ 2
e kn − 1 − itξkn − (itξkn ) t2 ξkn
2
.
2
§ 5. Теорема Линдеберга. Теорема Ляпунова 227
В итоге получаем:
n
|t|3 |ξkn |3 2 2
I1 min , t ξkn
6
k=1
|t|3 2
max , t D2n (3) −−−−→ 0.
6 n→∞
§ 5. ТЕОРЕМА ЛИНДЕБЕРГА.
ТЕОРЕМА ЛЯПУНОВА
Теорема 5.1 (теорема Линдеберга). Пусть {ξk } — после-
довательность взаимно независимых случайных величин.
Пусть для любого k существуют и конечны
n Eξk = ak ∈
∈ R, Dξk = σk2 < ∞. Обозначим Bn2 = k=1 σk2 . Пусть для
любого τ имеет место сходимость:
1 , -
n
M2n (τ ) = 2
E (ξk − ak )2 I {|ξk − ak | > τ Bn } −−−−→ 0,
Bn n→∞
k=1
тогда
n
(ξk − ak )
k=1 d
ςn = −−−−→ ς ∼ N (0, 1), (5.1)
Bn n→∞
тогда
n
(ξk − ak )
k=1 d
ςn = −−−−→ ς ∼ N (0, 1), (5.3)
Bn n→∞
n
A= Ak ,
k=1
∞
Доказательство. Равенство P {ω : k=1 ξk (ω) ∈ R} = 1
верно тогда и только тогда, когда почти наверное существует
предел последовательности частичных сумм:
n
п.н.
lim sn (ω) = lim ξk (ω) ∈ R.
n→∞ n→∞
k=1
(n) (n)
Заметим, что AN ⊂ AN +1 ,
следовательно, имеет место ра-
венство:
(n)
P A(n) = lim P AN .
N →∞
Из леммы 6.1 следует неравенство:
N
n+N
D(ξn+k ) D(ξl )
(n) k=1 l=n+1
P AN = .
ε2 ε2
Устремим N к бесконечности, получаем:
∞
Dξl
(n) l=n+1
P A −−−−→ 0,
ε2 n→∞
§ 6. Усиленный закон больших чисел 231
n
ak x k
k=1
−−−−→ x. (6.2)
bn n→∞
n
n0
n
ak |xk − x| ak |xk − x| ak |xk − x|
k=1 k=1 k=n0 +1
= +
bn bn bn
n0
ak |xk − x|
k=1 ε ε ε
+ + = ε,
bn 2 2 2
n
xk
k=1
−−−−→ x.
n n→∞
n
bk y k
k=1
−−−−→ 0. (6.3)
bn n→∞
n
Доказательство. Пусть sn = k=1 yk — частичные сум-
мы, y0 = 0, b0 = 0, s0 = 0. Справедливы равенства:
n
n
n
n
bk y k = bk (sk − sk−1 ) = bk s k − bk sk−1 = bn sn +
k=1 k=1 k=1 k=1
n−1
n
n
n
+ bk s k − bk sk−1 = bn sn + bk−1 sk−1 − bk sk−1 =
k=1 k=1 k=1 k=1
n n
= bn s n − (bk − bk−1 )sk−1 = bn sn − ak x k ,
k=1 k=1
n
n
bk y k ak x k
k=1 k=1
= sn − −−−−→ 0.
bn bn n→∞
§ 6. Усиленный закон больших чисел 233
∞
(k − 1)I{k − 1 < |ξ(ω)| k}
k=1
∞
|ξ(ω)| kI{k − 1 < |ξ(ω)| k}.
k=1
Следовательно,
∞
(k − 1)P {k − 1 < |ξ(ω)| k}
k=1
∞
E|ξ(ω)| kP {k − 1 < |ξ(ω)| k}.
k=1
§ 7. Усиленный закон больших чисел 235
∞
kP {k − 1 < |ξ(ω)| k} =
k=1
∞
k
= P {k − 1 < |ξ(ω)| k} =
k=1 n=1
∞
∞ ∞
= P {k − 1 < |ξ(ω)| k} = P {|ξ(ω)| > n − 1}.
n=1 k=n n=1
∞
Ряд n=1 P {|ξ(ω)| > n} сходится тогда и только тогда, когда
Eξ ∈ R.
1
n
п.н.
ξk −−−−→ a ∈ R (7.1)
n n→∞
k=1
Справедливо неравенство: |ξ1 (ω)I{|ξ1 (ω)| > k}| |ξ1 (ω)|. Так
как математическое ожидание Eξ1 (ω) конечно, то конечно и
математическое ожидание E|ξ1 (ω)| (следует из свойств инте-
грала Лебега). Таким образом, по теореме Лебега о мажориру-
емой сходимости: xk −−−−→ 0. Из следствия к лемме Теплица
k→∞
получаем сходимость:
n
(E ξ˜k (ω) − a)
k=1
−−−−→ 0.
n n→∞
§ 7. Усиленный закон больших чисел 237
n
Dξ˜n E ξ˜n2 k 2 P {k − 1 < |ξk (ω)| k}.
k=1
Так как
∞
∞
1 1 1
= +
n2 k2 n2
n=k n=k+1
∞
1 1 1 1 1+k
dx + 2 = + 2 = ,
x2 k k k k2
k
то справедливы неравенства:
∞
∞
1
k 2 P {k − 1 < |ξk (ω)| k}
n2
k=1 n=k
∞
(1 + k)P {k − 1 < |ξ1 (ω)| k}
k=1
∞
(k − 1)P {k − 1 < |ξ1 (ω)| k} + 2P {|ξ1 (ω)| > 0}
k=1
E|ξ1 (ω)| + 2P {|ξ1 (ω)| > 0}.
ν(−∞; x]
Fn∗ (x) = Pn∗ (−∞; x] = , x ∈ R.
n
Введем порядковые статистики:
(ai−1 , ai ], i = 1, . . . , m.
Пусть ni — количество элементов выборки, попавших в полу-
интервал (ai−1 , ai ]. Тогда
n1 + n2 + . . . + nm = n,
li = ai − ai−1 ,
ni
hi = .
li n
Получаем гистограмму:
⎧
⎪
⎪ 0, если x a0 ;
⎪
⎪
⎪
⎪ если a0 < x a1 ;
⎨h1 ,
∗
fn (x) = . . .
⎪
⎪
⎪hm ,
⎪ если am−1 < x am ;
⎪
⎪
⎩0, если x > am .
§ 3. ТЕОРЕМА ГЛИВЕНКО–КАНТЕЛЛИ.
ТЕОРЕМА О ПРЕДЕЛЬНОМ РАСПРЕДЕЛЕНИИ
ЭМПИРИЧЕСКИХ ВЕРОЯТНОСТЕЙ
Справедливы следующие теоремы.
Теорема 3.1. Для любого B ∈ B(R) выполняется:
1
n
Pn∗ (B) = I{Xk ∈ B},
n
k=1
P {Xk ∈ B} = P {ξ ∈ B} = Pξ (B),
тогда
EI{Xk ∈ B} = Pξ (B),
откуда, учитывая усиленный закон больших чисел Колмого-
рова, следует (3.1):
1
n
Pn∗ (B) =
п.н.
I{Xk ∈ B} −−−−→ Pξ (B).
n n−→∞
k=1
x∈R n−→∞
При этом:
0 Fξ (zk+1 ) − Fξ (zk ) < ε.
Введем событие Ak = {Fn∗ (zk ) −−−−→ Fξ (zk )}, тогда по теореме
n→∞
3.1: P (Ak ) = 1 для всех k = 1, . . . , r − 1. Рассмотрим событие
r−1 r−1
A = k=1 Ak , тогда справедливо равенство Ā = k=1 Āk . Оче-
r−1
видно, что P (Ā) k=1 P (Āk ) = 0, следовательно, P (Ā) = 0
или P (A) = 1.
Будем рассматривать только события ω ∈ A. В каждой из
точек z1 ,. . .,zr−1 выполняется сходимость, тогда существует
номер n0 такой, что для всех номеров n n0 и для любого
k = 1, . . . , r − 1 выполнено:
1
n
Pn∗ (B) − Pξ (B) = (I{Xk ∈ B} − Pξ (B)).
n
k=1
§ 4. ОПИСАТЕЛЬНАЯ СТАТИСТИКА
1
k
a∗r = ni Xir ,
n i=1
1
r
k
a0∗
r = ni Xi − X̄ ,
n i=1
n
где X̄ = a∗1 = n1 i=1 Xi — выборочное среднее, для статисти-
k
ческого ряда X̄ = a∗1 = n1 i=1 ni Xi .
Выборочная квантиль xp порядка p определяется как эле-
мент вариационного ряда X(1) X(2) . . . X(n) выборки
X[n] с номером [np] + 1, где [a] — целая часть числа a. В опи-
сательной статистике используют ряд квантилей, имеющих
специальные названия персентили (квантили порядков 0.01;
0.02;. . . ;0.99), децили (квантили порядков 0.1; 0.2;. . . ;0.9),
квартили (квантили порядков 0.25; 0.5; 0.75).
Наиболее распространенными характеристиками положе-
ния являются выборочное среднее, выборочная медиана (ме-
дианой называется число, которое делит вариационный ряд
на две части, содержащие равное количество элементов; если
n = 2k + 1, то медианой выборки является элемент вариацион-
ного ряда X(k+1) , если n = 2k, то медианой выборки является
число (X(k) +X(k+1) )/2), выборочная мода (модой называется
элемент выборки, имеющий наибольшую частоту).
Наиболее распространенными мерами рассеяния являются
размах (размах R = Xmax − Xmin ), средний межквартиль-
ный размах (три квартили Q1 , Q2 , Q3 делят вариационный ряд
на четыре части с равным числом элементов, тогда средний
межквартильный размах равен (Q3 − Q1 )/2), персентильный
размах (персентильный размах равен разности персентилей
250 Глава 12. Выборочное пространство
1
n
a∗1l = X̄l =
п.н.
Xli −−−−→ Eξl .
n i=1 n→∞
Кроме того,
1
n
a∗2k = s2k = (Xki − X̄k )2 −−−−→ Dξk ,
п.н.
n i=1 n→∞
1
n
a∗2l = s2l = (Xli − X̄l )2 −−−−→ Dξl .
п.н.
n i=1 n→∞
cov(ξk , ξl )
(ξk , ξl ) = √ √ ,
Dξk Dξl
где
п.н.
X̄k X̄l −−−−→ Eξk Eξl ,
n→∞
тогда имеет место сходимость почти наверное для выборочно-
го коэффициента корреляции:
6 k , ξl ) п.н.
cov(ξ
ˆ(ξk ξl ) = 2 2 2 −−−−→ (ξk ξl ).
sk sl n→∞
§ 2. ТЕОРЕМЫ НЕПРЕРЫВНОСТИ
Теорема 2.1. Пусть η — случайная величина, заданная
на вероятностном пространстве (Ω, F, P ), последователь-
ность случайных величин {ηn } также задана на (Ω, F, P ).
Пусть борелевская функция H : R −→ R непрерывна на
борелевском множестве B ∈ B(R), P {η ∈ B} = 1, тогда
справедливы утверждения:
§ 2. Теоремы непрерывности 255
п.н. п.н.
1. Если ηn −−−−→ η, тогда H(ηn ) −−−−→ H(η).
n→∞ n→∞
P P
2. Если ηn −−−−→ η, тогда H(ηn ) −−−−→ H(η).
n→∞ n→∞
тогда P (A ∩ η −1 (B)) = 1.
Теперь рассмотрим событие ω ∈ A ∩ η −1 (B). Тогда
но с другой стороны
P {|H(ηn(2) ) − H(η)| > ε} > δ,
k
H(a + bn ηn ) − H(a)
H̃1 (bn ηn , ηn ) = ,
bn
∂H
1. Если существует ∂t t=a = ∂H ∂H
∂t1 , . . . , ∂tm , a ∈
t=a
∈ Rm , то
H(a + bn ηn ) − H(a)
−−−−→ H (a)η T .
d
bn n→∞
2
2. Если H (a) = 0, и существует H (a) = ∂t∂i ∂t H
j
,
t=a
то
H(a + bn ηn ) − H(a) 1
−−−−→ ηH (a)η T .
d
b2n n→∞ 2
§ 3. ПРЕДЕЛЬНОЕ РАСПРЕДЕЛЕНИЕ
СТАТИСТИК ПЕРВОГО ТИПА
Пусть задана статистика первого типа:
n
∗ 1
S(X[n] ) = G(Fn ) = h g(Xi ) ,
n i=1
∞ ∞
где G(F ) = h −∞ g(x)dF (x) , −∞ g(x)dFξ (x) = a ∈ Rm ,
т. е. G(Fξ ) = h(a).
Теорема 3.1. Пусть имеется выборка X[n] из генеральной
совокупности
n ξ с функцией распределения Fξ и S(X[n] ) =
= h n1 g(Xi ) — статистика I типа, борелевские функ-
i=1
ции h : R → R, g : R → R, тогда справедливы утверждения:
1. Если существует h (a), то
√
d
n S(X[n] ) − h(a) −−−−→ h (a)ζ,
n→∞
1
n
(g(Xi ) − a) = ξn −−−−→ ξ ∼ N (0, σ 2 ),
d
√
n i=1 n→∞
Теорема
n3.2. Пусть
задана статистика I типа S(X[n] ) =
= h n1 g(Xi ) и борелевские функции h : Rm → R, g :
i=1
R → Rm , тогда справедливы утверждения:
∂h
1. Если существует h (a) = ∂t∂h
1
, . . . , ∂tm , где a =
t=a
= Eg(ξ) = (Eg1 (ξ), . . . , Egm (ξ)), то
√
d
n S(X[n] ) − h(a) −−−−→ h (a)ζ T ,
n→∞
Очевидно, что
+∞
где ξ ∼ N (0, σ 2 ).
§ 4. ПРЕДЕЛЬНОЕ РАСПРЕДЕЛЕНИЕ
СТАТИСТИКИ ПИРСОНА
Пусть задана генеральная совокупность ξ с функцией рас-
пределения Fξ и выборка X[n] = (X1 , . . . , Xn ). Разобьем чис-
ловую ось на r непересекающихся интервалов: −∞ = a0 <
< a1 < . . . < ar = ∞. Обозначим через Δ1 = (−∞, a1 ],
Δ2 = (a1 , a2 ], . . ., Δr = (ar−1 , ∞).
262 Глава 13. Статистики. Предельные распределения
r r 2
2 (ni − npi )2 1 ni √
χ = =n √ − pi =
i=1
npi i=1
pi n
⎛ ⎞2
r
1 n
1 √
=n ⎝ √ I {Xj ∈ Δi } − pi ⎠ . (4.2)
i=1
n j=1
pi
n
Рассмотрим статистику первого типа S(X[n] ) = h( n1 g(Xj )),
j=1
r
где в качестве h возьмем функцию h(t1 , . . . , tr ) = ti −
√
2
i=1
− pi , g(x) = (g1 (x), . . . , gr (x)) и gi (x) = √1pi I {x ∈ Δi },
i = 1, . . . , r. Получаем:
1
n
1 n1 1 nr
g(Xj ) = √ ,..., √ .
n j=1 p1 n pr n
§ 5. ГАММА-РАСПРЕДЕЛЕНИЕ
Гамма-функция определяется следующим образом:
∞
Γ(p) = xp−1 e−x dx, p > 0.
0
§ 5. Гамма-распределение 265
Свойства гамма-функции:
1. Справедливы равенства:
Γ(1) = 1, Γ(2) = 1,
+∞
+∞
1 − 12 −x 1
Γ = x e dx = 2 e−x d(x 2 ) =
2
0 0
⎧⎛ ⎞2 ⎫ 12
+∞
+∞ ⎪
⎨
+∞ ⎪
⎬
−y 2 −y 2 ⎝ −y 2 ⎠
=2 e dy = e dy = e dy =
⎪
⎩ ⎪
⎭
0 −∞ −∞
⎧ +∞ +∞ ⎫ 12
⎨ 2 2
⎬ √
= e−y e−x dxdy = π,
⎩ ⎭
−∞ −∞
y
1 t2
F (y) = √ e− 2 dt.
2π
−∞
1 1 1 −y 1 1 1 y
fδ2 (y) = √ √ e 2 + √ √ e− 2 =
2 y 2π 2 y 2π
12 & 1 1 −1
1 (2)2 y 2 −y
− 12 1 − y2 e 2, y > 0;
= y √ e = Γ( 12 )
2 π 0, y < 0.
+∞ 1
y−x
1
где c = ( 0 sp1 −1 (1−s)p2 −1 ds)/(Γ(p1 )Γ(p2 )). Найдем c из усло-
вия нормировки:
+∞
1
Γ(p1 )Γ(p2 )
B(p1 , p2 ) = sp1 −1 (1 − s)p2 −1 ds = .
Γ(p1 + p2 )
0
0, x 0.
Глава 14
КРИТЕРИИ СОГЛАСИЯ
ДЛЯ ПРОСТЫХ ГИПОТЕЗ
§ 1. КРИТЕРИЙ СОГЛАСИЯ
ПИРСОНА
Определение 1.1. Статистической гипотезой называется
любое предположение о законе распределения генеральной со-
вокупности.
P {η C} = α,
1
n
Fn∗ (x, X[n] ) = I{Xj x} =
n j=1
1 1
n n
= I{F0 (Xj ) F0 (x)} = I{Yj y} = Fn∗ (y, Y[n] ),
n j=1 n j=1
§ 2. Критерий согласия Колмогорова 275
K(d1−α ) = 1 − α.
Правило
√ проверки гипотез будет следующим. Если
√n [n] ∈ (d1−α , ∞), тогда гипотеза H0 отвергается; ес-
nD (X )
ли nDn (X[n] ) ∈ / (d1−α , ∞), тогда гипотеза H0 принимается.
Для практической проверки гипотез согласия по критерию
Колмогорова можно воспользоваться таблицами математиче-
ской статистики.
Статистику Dn (X[n] ) можно вычислить с помощью просто-
го вычислительного алгоритма:
7 +
i i−1
Dn (X[n] ) = max − F0 (X(i) ), F0 (X(i) ) − ,
1in n n
где X(1) < . . . < X(n) — вариационный ряд, построенный по
выборке X[n] .
Замечание 2.2. Критерий ω̄ 2 .
Пусть задана генеральная совокупность ξ с функцией рас-
пределения Fξ и выборка X[n] = (X1 , . . . , Xn ) из этой гене-
ральной совокупности. Выдвинем нулевую гипотезу H0 : Fξ =
= F0 , при конкурирующей гипотезе H1 : Fξ = F0 . Статистика
критерия имеет вид:
n
2
1 2i − 1
ω̄n2 = + F0 (X(i) ) − ,
12n i=1 2n
ТОЧЕЧНЫЕ ОЦЕНКИ
1. Несмещенность.
для любого θ ∈ Θ.
Замечание 1.1. Свойство несмещенности позволяет агреги-
ровать информацию, накопленную в различных научных цен-
трах. Рассмотрим следующий пример. Пусть θ̂1 — несмещен-
ная оценка параметра θ, полученная в некотором научном цен-
тре, θ̂2 — несмещенная оценка того же параметра, полученная
в другом научном центре. Предполагая, что техническая осна-
щенность научных центров одинаковая, будем считать, что
дисперсии оценок одинаковы:
E(θ̂i ) = θ, i = 1, 2.
Рассмотрим новую оценку:
θ̂1 + θ̂2
θ̂ = ,
2
E θ̂1 + E θ̂2
E θ̂ = = θ,
2
тогда имеют место равенства:
1 σ 2 (θ)
Dθ̂ = E(θ̂ − θ)2 = E{(θ̂1 − θ) + (θ̂2 − θ)}2 = .
4 2
Как видим, агрегированная оценка оказывается более точной,
дисперсия уменьшилась в два раза.
Пример 1.1. Выборочное среднее является несмещенной
оценкой для математического ожидания:
& n *
1 1
n
E X̄ = E Xk = EXk = Eξ = a1 .
n n
k=1 k=1
280 Глава 15. Точечные оценки
1
n
1
n
1 2 n−1 2
= E(Xk − a1 )2 − σ2 = σ2 − σ = σ ,
n n2 n n
k=1 k=1
1
n
n 2
s̃2 = s = (Xk − X)2 ,
n−1 n−1
k=1
для любого θ ∈ Θ.
§ 1. Свойства точечных оценок 281
для любого θ ∈ Θ.
1
n
a0∗
k = (Xi − X̄)k
n i=1
1
n
s2 = (Xk − X̄)2 = a0∗ −−−→ a02 = Dξ.
п.н
2 −
n n→∞
k=1
282 Глава 15. Точечные оценки
3. Эффективность.
Пусть в распределении генеральной совокупности имеет-
ся неизвестный параметр θ ∈ Θ ⊂ R. Рассмотрим некоторый
класс оценок K = {θ̂(X[n] )} параметра θ.
для любого θ ∈ Θ.
E(θ̂, y) = (θ, y)
для любого θ ∈ Θ и y ∈ Rk .
284 Глава 15. Точечные оценки
D(θ̂, y) = y T Dθ̂y,
D(θ̃, y) = y T Dθ̃y,
y T (Dθ̃ − Dθ̂)y 0.
4. Асимптотическая нормальность.
√ x 2
1 − y
P n(θ̂ − θ) x −−−−→ √ e 2σ2 (θ) dy.
n−→∞ 2πσ(θ)
−∞
§ 2. Методы построения точечных оценок 285
5. Асимптотическая эффективность.
E(θ̂ − θ)2
lim 1
n→∞ E(θ̃ − θ)2
∞
1
n
g(x)dFn∗ (x) = g(Xi ) = g. (2.1)
n i=1
−∞
Составим уравнение
1
n
m(θ) = ḡ = g(Xi ). (2.2)
n i=1
286 Глава 15. Точечные оценки
1
n
так как s2 = n Xk2 − (X̄)2 . Таким образом, получили си-
k=1
стему:
a = X̄;
σ 2 + a2 = s2 + X̄ 2 .
Следовательно, оценки по методу моментов имеют следующий
вид:
â = X̄;
σ̂ 2 = s2 .
Пример 2.2. Рассмотрим равномерно распределенную слу-
чайную величину ξ с плотностью распределения:
1
fξ (x) = θ , x ∈ [0, θ];
0, x ∈/ [0, θ].
Так как неизвестный параметр один, то g(x) = x. Вычислим
математическое ожидание:
θ
1 1 2 θ
Eg(ξ) = Eξ = x dx = x = .
θ 2θ 2
0
где θ = (θ1 , . . . , θm ) ∈ Θ.
Определение 2.1. Если генеральная совокупность имеет
плотность распределения fξ , то функцией правдоподобия вы-
борки X[n] будем называть функцию
n
L(X[n] , θ) = fξ (Xi , θ).
i=1
Тогда
n
(Xi − a)2
1 i=1
ln L = ln − ,
1
((2π) 2 σ)n 2σ 2
n
продифференцируем по a: ∂ ln L/∂a = 0, или i=1 Xi −an = 0,
откуда â = X̄.
290 Глава 15. Точечные оценки
Продифференцируем по σ:
n
(Xi − a)2
∂ ln L n i=1
=− + = 0,
∂σ σ σ3
n
2
nσ = (xi − a)2 ,
i=1
1 1
n n
σ̂ 2 = (Xi − a)2 = (Xi − X̄)2 = s2 .
n i=1 n i=1
n 1
θn , если для ∀ i : Xi ∈ [0, θ];
L(X[n] , θ) = f (Xi , θ) =
0, если ∃ i : Xi ∈ [0, θ].
i=1
§ 3. ДОСТАТОЧНЫЕ СТАТИСТИКИ
Пусть имеется выборка X[n] из генеральной совокуп-
ности ξ. Неизвестные параметры составляют вектор θ =
= (θ1 , . . . , θm ) ∈ Θ ⊂ Rm . Функция распределения генераль-
ной совокупности ξ имеет вид Fξ (·/θ).
Будем рассматривать некоторую статистику
S(X[n] ) = S1 (X[n] ), . . . , Sk (X[n] ) .
P {X[n] = x} = P {X1 = x1 , . . . , Xn = xn } =
λ xi λs
= e−λn = e−λn .
x 1 ! . . . xn ! x 1 ! . . . xn !
Рассмотрим знаменатель:
P {S(X[n] ) = S(x) = s} = P {X[n] = y} =
y:S(y)=s
λs ns −λn s! 1 λs ns −λn
= e · s = e .
s! y:y +...+y
y ! . . . yn ! n
=s 1
s!
1 n
P {X[n] = x} s! 1
= .
P {S(X[n] ) = S(x) = s} x1 ! . . . xn ! ns
s! 1
P {x1 , . . . , xn } = .
x1 ! . . . xn ! ns
§ 4. Теорема Неймана–Фишера. Теорема Колмогорова 293
§ 4. ТЕОРЕМА НЕЙМАНА–ФИШЕРА.
ТЕОРЕМА КОЛМОГОРОВА
Теорема 4.1 (теорема Неймана–Фишера). Пусть имеет-
ся выборка X[n] из генеральной совокупности ξ с функци-
ей распределения Fξ . Пусть θ ∈ Θ — вектор неизвестных
параметров распределения. Для того, чтобы статистика
S(X[n] ) была достаточной необходимо и достаточно, что-
бы функция правдоподобия L(X[n] , θ) была представима в
виде:
L(X[n] , θ) = G(S(X[n] ), θ)H(X[n] ),
где G, H — измеримые функции, причем функция G зависит
от выборки только через значения статистики S(X[n] ), а
функция H не зависит от неизвестного параметра θ.
Доказательство. Теорему Неймана–Фишера докажем толь-
ко для двух случаев. Рассмотрим дискретный случай. Дока-
жем достаточность. Найдем условную вероятность:
P {X[n] = x/S(X[n] ) = s} =
P {X[n] = x} P (x ) . . . Pξ (xn )
= = ξ 1 =
P {X[n] = y} Pξ (y1 ) . . . Pξ (yn )
y:S(y)=s y:S(y)=s
Вероятность
n
fX[n] (x) = L(x, θ) = fξ (xi , θ).
i=1
тогда
∂x
fS,T (s, t) = G(s, θ)H(x(s, t)) det .
∂(s, t)
Следовательно,
fS,T (s, t) H(x(s, t)) det ∂(s,t)
∂x
fT /S (t/s) = =
.
fS (s)
H(x(s, t)) det ∂(s,t)
∂x
dt
Rn−k
n
n
1 (Xi −a)2
L(X, θ) = fξ (Xi ) = √ exp− 2σ2 =
i=1 i=1
2πσ
n
1 − 2σ12 (Xi −a)2
= n e i=1 = G(S(X[n] ), θ),
(2π) 2 σ n
и функция H(x) = 1. В качестве достаточной статистики
S(X[n] ) можно выбрать:
⎛ n ⎞
X
⎜ i=1 i ⎟ s1 (x)
⎜ n ⎟= = S(x).
⎝ 2 ⎠ s2 (x)
Xi
i=1
296 Глава 15. Точечные оценки
Тогда
⎧
⎨
n
−λ xi
fX[n] (x) = L(x, θ) = λ e n i=1 , если для ∀ i: xi > 0;
⎩ 0, если ∃ i: xi 0.
Доказательство. Заметим, что θ̂s = Rn θ̂(x)P (dx/S = s)
не зависит от θ и измеримо по s. Таким образом, θ̂s действи-
тельно является оценкой. Очевидно, что θ̂S = E(θ̂/S(X[n] ))
зависит от выборки только через статистику S.
По свойству условных математических ожиданий получа-
ем, что E θ̂s = EE(θ̂/S) = E θ̂ = θ, что говорит о несмещенно-
сти оценки θ̂s .
Воспользуемся свойствами условных математических ожи-
даний:
Получаем
Dθ̂ = E(θ̂ − θ̂s )2 + Dθ̂s ,
откуда следует, что
Dθ̂ Dθ̂s .
Причем Dθ̂ = D θ̂s равносильно тому, что E(θ̂ − θ̂s )2 = 0 или
θ̂ почти наверное совпадает с θ̂s .
§ 5. НЕРАВЕНСТВО РАО–КРАМЕРА
Пусть имеется выборка X[n] из генеральной совокупности
ξ с функцией распределения Fξ (x, θ) и плотностью распреде-
ления fξ (x, θ), где θ ∈ Θ ⊂ R — неизвестный параметр.
n
L(X[n] , θ) = fξ (Xi , θ),
i=1
n
fX[n] (x, θ) = L(x, θ) = fξ (xi , θ).
i=1
Выполняется равенство:
L(x, θ)dx = 1. (5.1)
Rn
(h (θ))2
Dθ̂ . (5.5)
In (θ)
∂ ln L(x, θ)
θ̂(x) L(x, θ)dx =
∂θ
Rn
∂ ln L(X[n] , θ)
= E θ̂(X[n] ) = h (θ).
∂θ
Заметим, что множество N = {x : L(x, θ) = 0} — множество
меры нуль, так как
P {X[n] ∈ N } = L(x, θ)dx = 0.
N
η1 = (θ̂(X[n] ) − E θ̂),
∂ ln L(X[n] , θ)
η2 = .
∂θ
Воспользуемся неравенством Коши–Шварца–Буняковского:
Теорема доказана.
∂ ln L
2
Замечание 5.4. По определению In (θ) = E ∂θ . Заметим,
что
∂ ln L(X[n],θ )
E = 0.
∂θ
Следовательно, имеют место равенства:
2
∂ ln L ∂ ln L(X[n] , θ)
In (θ) = E =D =
∂θ ∂θ
n
∂ ln fξ (Xi , θ) n
∂ ln fξ (Xi , θ)
=D = D = nI1 (θ),
i=1
∂θ i=1
∂θ
§ 1. АСИМПТОТИЧЕСКИЕ ДОВЕРИТЕЛЬНЫЕ
ИНТЕРВАЛЫ
Пусть задана генеральная совокупность ξ с функцией рас-
пределения Fξ (x). Имеется выборка X[n] = (X1 , . . . , Xn ) из
этой генеральной совокупности и неизвестный параметр рас-
пределения θ ∈ Θ ⊂ R.
Определение 1.1. Пусть для некоторого ε ∈ (0, 1) существу-
ют статистики S − (X[n] , ε) и S + (X[n] , ε) такие, что
, -
P S − (X[n] , ε) < θ < S + (X[n] , ε) = 1 − ε,
тогда интервал S − (X[n] , ε), S + (X[n] , ε) называется довери-
тельным интервалом для параметра θ с уровнем доверия
(1 − ε).
Определение 1.2. Пусть для некоторого ε ∈ (0, 1) существу-
ют статистики S − (X[n] , ε) и S + (X[n] , ε) такие, что
, -
lim P S − (X[n] , ε) < θ < S + (X[n] , ε) = 1 − ε,
n→∞
тогда интервал S − (X[n] , ε), S + (X[n] , ε) называется асимпто-
тическим (приближенным) доверительным интервалом с уров-
нем доверия 1 − ε.
Построение асимптотических доверительных интервалов
основано на асимптотически нормальных оценках. Предполо-
жим, что оценка θ̂ = θ̂(X[n] ) является асимптотически нор-
√ d
мальной, т. е. n(θ̂ − θ) −−−−→ ζ ∼ N (0, σ 2 ), где дисперсия
n→∞
304 Глава 16. Доверительные интервалы
Действительно,
√
n(θ̂−θ)+i(t2 θ̂±θt2 )
ϕ(√n(θ̂−θ),θ̂) (t1 , t2 ) = Eeit1 =
√ t t2
i n(θ̂−θ)(t1 + √2n )
= Ee eit2 θ = eit2 θ ϕ√n(θ̂−θ) (t1 + √ ) =
n
t2 t2
= eit2 θ ϕ√n(θ̂−θ) t1 + √ − ϕ ζ t1 + √ +
n n
t2
+ ϕζ t 1 + √ .
n
√
При этом ϕζ (t1 + t2 / n) −−−−→ ϕζ (t1 ), так как любая харак-
n→∞
теристическая функция равномерно непрерывна.
Имеет место сходимость:
t2 t2
ϕ n(θ̂−θ) t1 + √
√ − ϕ ζ t1 + √ −−−−→ 0,
n n n→∞
так как при любом t: ϕ√n(θ̂−θ) (t) → ϕζ (t) и сходимость рав-
номерна на любом конечном промежутке [22]. Следовательно,
выполняется сходимость:
Лемма доказана.
§ 1. Асимптотические доверительные интервалы 305
z1− α
2
1 y2
=√ e− 2 dy,
2π
−z1− α
2
ln L = m ln p + (n − m) ln(1 − p).
∂ 2 ln L m n−m
2
=− 2 − < 0.
∂p p (1 − p)2
Следовательно, p̂ = m/n — точка максимума или оценка по
методу максимального правдоподобия. Нетрудно показать, что
оценка p̂ асимптотически нормальна:
n
ξi − np
√
m m − np
i=1
n −p = √ = √ =
n n n
n
(ξi − p)
d
= i=1 √ −−−−→ ζ ∼ N (0, pq),
n n→∞
§ 2. РАСПРЕДЕЛЕНИЯ СТАТИСТИК
ДЛЯ ВЫБОРОК ИЗ НОРМАЛЬНОЙ
ГЕНЕРАЛЬНОЙ СОВОКУПНОСТИ
1 (x−a)2
fξ (x) = √ e− 2σ2 , x ∈ R,
2πσ
1 1 T
Σ−1 (x−a)
fξ (x) = n2 e− 2 (x−a) , x ∈ Rm .
(2π) 2 |Σ|
Доказательство. Рассмотрим
T T T
ϕη (t) = Eeit η
= eit b Eei(t A)ζ
=
itT b T
(Aa+b)− 12 tT AΣAT t
=e ϕζ (t A) = eit
T
,
Лемма 2.2. Пусть ξ = (ξ1 , . . . , ξn )T ∼ N 0, σ 2 En и ξ¯ =
1 n
= n i=1 ξi — среднее
арифметическое. Тогда ξ¯ и вектор
¯ ¯
ξ1 − ξ, . . . , ξn − ξ взаимно независимы.
1
n
ξk − ξ¯ = ξk − ξi =
n i=1
1 1 n−1 1 1
= − ξ1 − . . . − ξk−1 + ξk − ξk+1 − . . . − ξn =
n n n n n
1 1 n−1 1 1
= − ,...,− , ,− ,... − ξ,
n n n n n
1 1 1 1
ξ¯ = ξ1 + . . . + ξn = ,..., ξ.
n n n n
Следовательно,
1
− n , . . . , − n1 , n−1 1 1
n , −n, . . . , −n ξk − ξ¯
1 1 1 ξ= .
n, n, . . . , n ξ¯
1 2
где σ12 = n−1 2 2
n σ , σ2 = nσ , внедиагональные элементы равны
нулю, поскольку
T
1 1 n−1 1 1 1 1
σ2 − , . . . , − , ,− ,...,− ,..., =
n n n n n n n
−(n − 1) + (n − 1)
= σ2 = 0.
n2
T
Лемма 2.3. Пусть ξ = (ξ1 , . . . , ξm ) ∼ N (0, Em ), CC T =
m
= C T C = Em и η = Cξ. Тогда τ = ξk2 − η12 − . . . − ηr2 подчи-
k=1
няется распределению хи-квадрат с m − r степенями свободы,
и случайные величины η1 , . . . , ηr взаимно независимы с τ .
Доказательство. Из леммы 2.1 следует, что η ∼
∼ N (0, Em×m ). Как легко видеть, имеет место равенство:
m
m
ξi2 = ξ T ξ = ξ T C T Cξ = η T η = ηi2 .
i=1 i=1
§ 3. РАСПРЕДЕЛЕНИЕ СТЬЮДЕНТА
Определение 3.1. Пусть заданы случайные величины ζ ∼
∼ N (0, 1) и τk ∼ χ2k . Пусть случайные величины ζ и τk вза-
имно независимы. Распределение случайной величины
ζ
ξ = 2 τk
k
тогда
& 2
1 xk−1 − x2
2 e , x > 0;
f√ τ (x) = 2xfτ (x ) = k
2 2 −1 Γ( k
2)
0, x 0.
∞
fζ (z) = xfξ (x)fη (zx)dx =
0
∞
1 x2 z 2 x2
= k √ x k e− 2 e− 2 dx =
2 2 −1 Γ( k2 ) 2π
0
∞
1 x2
(z 2 +1)
= k−1 √ x k e− 2 dx =
2 2 Γ( k2 ) π
0
∞ k−1 k−1
1 2 2 u 2 1
= k−1 √ e−u du =
2 2 πΓ( k2 ) (z 2 + 1)
k−1
2 z2 + 1
0
∞
1 1 k+1
=√ u 2 −1 e−u du,
k+1
πΓ( k2 ) (z 2 + 1) 2
0
∞ k+1
где u = x2 (z 2 + 1)/2, xdx = du/(z 2 + 1), причем u 2 −1 e−u ×
0
× du = Γ k+1 2 . Лемма доказана.
312 Глава 16. Доверительные интервалы
Очевидно, что
1
n
s̃2 = (Xi − X̄)2 =
n − 1 i=1
⎛ n 2 ⎞
1 ⎝
n
1
= (Xi − a)2 − n (Xi − a) ⎠ =
n − 1 i=1 n i=1
⎛ ⎛ ⎞2 ⎞
1 ⎜ n
1 n
⎟
⎝ (Xi − a) − ⎝ √ (Xj − a)⎠ ⎠ .
2
=
n − 1 i=1 n j=1
Введем обозначение:
⎛ X1 −a
⎞
σ
δ=⎝ ... ⎠,
Xn −a
σ
(n − 1)s̃2 n
= δ12 − η12 ∼ χ2n−1 ,
σ2 i=1
314 Глава 16. Доверительные интервалы
n X −a n
где δi = Xiσ−a , η1 = j=1 √1n jσ = j=1 √1n δi = C1 δ. Утвер-
ждение 3 теоремы доказано.
В лемме 2.2 было доказано, что (X1 − X̄, . . . , Xn − X̄) и
X̄ − a взаимно независимы. Рассмотрим дробь Стьюдента:
X̄−a √
n X̄ − a √
! σ
= n ∼ Tn−1 .
1 (n−1)s̃2 s̃
n−1 σ2
Теорема доказана.
Точные доверительные интервалы для нормальной гене-
ральной совокупности можно построить по следующим пра-
вилам:
1. Если a неизвестно, σ 2 известно, тогда
σ σ
P X̄ − √ z1− 2ε < a < X̄ + √ z1− 2ε = 1 − ε,
n n
где z1− 2ε — квантиль стандартного нормального распре-
деления.
2. Если a неизвестно, σ 2 неизвестно, то доверительный ин-
тервал для a будет иметь вид:
s̃ s̃
P X̄ − √ t1− 2 < a < X̄ +
ε √ t1− 2 = 1 − ε,
ε
n n
ПРОВЕРКА
СТАТИСТИЧЕСКИХ ГИПОТЕЗ
Тогда
(ϕ∗ (x) − ϕ̃(x))(L1 (x) − cα0 L0 (x))μn (dx) 0.
Rn
γ(ϕ∗ ) γ(ϕ̃).
322 Глава 17. Проверка статистических гипотез
ε = 0, тогда &
1, X̄ > c1 ;
ϕ∗ (x) =
0, X̄ c1 .
В этом случае всегда g(cα0 ) = g(cα0 − 0), поэтому можно вы-
брать ε = 0. Оптимальный критерий является нерандомизиро-
ванным.
Зададим вероятность ошибки первого рода α0 :
α(ϕ∗ ) = α0 (2.1)
√
будет выполнено, если выбрать c1 = a0 + z1−α0 σ/ n и, следо-
вательно, критическая область для нулевой гипотезы H0 при
использовании статистики X̄ имеет следующий вид:
σ
S = a0 + √ z1−α0 ; +∞ .
n
Если выберем
σ
c1 a0 + √ z1−α0 , (2.2)
n
β(ϕ∗ ) = P1 {X̄ c1 } =
X̄ − a1 √ c1 − a 1 √ c1 − a 1 √
= P1 n n =Φ n .
σ σ σ
n
1 − 12 (Xi −a)2
2σ1
L1 (X[n] ) = n e i=1 .
(2π) 2 σ1n
Тогда неравенство
n
n
L1 (X[n] ) σ0 1
2 − 1
2 (Xi −a)2
2σ0 2σ1
= e i=1 >c
L0 (X[n] ) σ1
равносильно неравенству:
n
(Xi − a)2 > c1 .
i=1
n
Ранее было показано, что статистика σ12 i=1 (Xi − a)2 подчи-
0
няется распределению хи-квадрат с n степенями свободы при
условии справедливости
n гипотезы H0 . Следовательно, вероят-
ность P0 ( i=1 (Xi −a)2 = c1 ) равна нулю при любом значении
константы c1 , поэтому в оптимальном критерии можно поло-
жить ε = 0. Поэтому критерий имеет вид:
⎧
⎪
n
⎪1,
⎨ (Xi − a)2 > c1 ;
∗ i=1
ϕ (x) =
n
⎪
⎪ (Xi − a)2 c1 ,
⎩0,
i=1
заметить, что
& *
n
∗ 2
α(ϕ ) = P0 (Xi − a) > c1 =
i=1
& n 2 *
Xi − a c1 c1
= P0 > 2 = 1 − Fχ2n ,
i=1
σ0 σ0 σ02
Биномиальное распределение
Pn {ξ = m} = Cnm pm (1 − p)n−m ,
1 (1 − p1 )
L1 (m) = Cnm pm n−m
,
0 (1 − p0 )
L0 (m) = Cnm pm n−m
.
Неравенство
m n−m
L1 (m) p1 1 − p1
= >c
L0 (m) p0 1 − p0
эквивалентно неравенству:
m n
p1 (1 − p0 ) 1 − p1
> c,
p0 (1 − p1 ) 1 − p0
или эквивалентно неравенству: m > c1 . Следовательно, опти-
мальную критическую функцию можно записать в виде:
⎧
⎪
⎨1, m > c1 ;
∗
ϕ (x) = ε, m = c1 ;
⎪
⎩
0, m < c1 .
Оптимальный критерий является рандомизированным. Кон-
станты c1 и ε нужно выбирать из условия: α(ϕ∗ ) = α0 . Вос-
пользуемся асимптотикой:
S = {x : |x − a0 | > c1 }.
P {X̄ ∈ S/H0 } = α0 .
Преобразуем выражение:
√ √
n|X̄ − a0 | nc1
P0 = α0 .
σ σ
√
Пусть η = n(X̄ − a0 )/σ, тогда при условии справедливости
гипотезы H0 случайная величина η подчиняется стандартному
330 Глава 17. Проверка статистических гипотез
X̄ − a0 √
t= n,
s̃
1
n
где s̃2 = n−1 2
i=1 (Xi − X̄) .
При справедливости нулевой гипотезы статистика t долж-
на подчиняться распределению Стьюдента с n − 1 степенью
свободы. Если верна альтернативная гипотеза H1 , то можно
заметить, что статистика будет смещена вправо по отношению
к распределению Стьюдента с n − 1 степенью свободы.
Критическая область в данном случае для нулевой гипоте-
зы будет иметь вид S = {t > c1 } = (c1 ; +∞), где константу c1
следует выбирать из условия P0 {t > c1 } = α0 . Таким образом,
c1 = t1−α0 ,n−1 — квантиль распределения Стьюдента с n − 1
степенью свободы уровня 1 − α0 . Критерий с вероятностью
ошибки первого рода α0 имеет вид:
• Если статистика t ∈ (t1−α0 ,n−1 ; +∞), то отклоняем ги-
потезу H0 в пользу H1 .
• Если статистика t ∈ (−∞; t1−α0 ,n−1 ], то отклоняем гипо-
тезу H1 в пользу H0 .
§ 4. Распределение Фишера 331
§ 4. РАСПРЕДЕЛЕНИЕ ФИШЕРА
η/m
ζ= ∼ Fm,n
ξ/n
что z > 0:
∞
fζ̃ (z) = xfξ (x)fη (zx)dx =
0
m ∞
z 2 −1 m+n x
=
n
x 2 −1 e− 2 (z+1) dx.
n+m
2 2 Γ m
2 Γ 2 0
§ 5. КРИТЕРИИ ОДНОРОДНОСТИ
ДЛЯ ДВУХ НЕЗАВИСИМЫХ ВЫБОРОК
ИЗ НОРМАЛЬНО РАСПРЕДЕЛЕННОЙ
ГЕНЕРАЛЬНОЙ СОВОКУПНОСТИ
Критерий Фишера
1
n
s̃2Y = (Yi − Ȳ )2 .
n − 1 i=1
В соответствии с определением распределения Фишера:
s̃2X σ22
Fm−1,n−1 = ∼ Fm−1,n−1 .
s̃2Y σ12
Тогда при справедливости нулевой гипотезы:
s̃2X
∼ Fm−1,n−1 .
s̃2Y
Пусть u α2 , u1− α2 — квантили распределения Фишера Fm−1,n−1 .
Можно сформулировать критерий проверки гипотезы H0 при
альтернативе H1 с вероятностью ошибки первого рода α
(уровнем значимости критерия):
s̃2
• Если s̃X 2 ∈ [u , u1− ], то принимается гипотеза H0 .
α
2
α
2
Y
s̃2X
• Если s̃2Y
∈
/ [u α2 , u1− α2 ], то принимается гипотеза H1 .
Если альтернативная гипотеза H1 односторонняя, т. е. σ12 >
> σ22 , то в качестве критической области для нулевой гипо-
тезы рассматривается S = (u1−α , +∞), где α — вероятность
ошибки первого рода. Случай σ22 > σ12 сводится к предыдущей
переменой мест выборок.
Критерий Стьюдента
• H 0 : a1 = a 2 .
• H1 : a1 = a2 .
Рассмотрим два случая:
1. Дисперсии σ12 , σ22 известны, тогда используем статисти-
ку
X̄ − Ȳ
! ∼ N (0, 1),
σ12 σ22
m + n
которая при условии, что верна гипотеза H0 , подчиняется
стандартному нормальному распределению. Получаем крите-
рий с вероятностью ошибки первого рода α:
• Если справедливо неравенство:
X̄ − Ȳ
! u1− α2 ,
σ12 σ22
m + n
то принимается гипотеза H1 .
Для правосторонней альтернативной гипотезы H1 : a1 > a2
критическая область для H0 будет выглядеть следующим об-
разом:
S = (u1−α , +∞).
Для левосторонней альтернативной гипотезы H1 : a1 < a2
критическая область для H0 будет следующей:
S = (−∞, uα ).
2. Дисперсии неизвестны, но есть основания считать, что
σ12 = σ22 = σ 2 . Статистики (m−1)s̃2X /σ 2 , (n−1)s̃2Y /σ 2 , которые
были введены ранее, взаимно независимы и имеют распреде-
ления χ2m−1 и χ2n−1 соответственно, тогда статистика
s̃2X (m − 1) + s̃2Y (n − 1)
σ2
§ 6. Критерий однородности Вилкоксона и Манна–Уитни 335
(0) X̄ − Ȳ
tn+m−2 = ! !
m+n s̃2X (m−1)+s̃2Y (n−1)
mn m+n−2
X̄ − Ȳ + (a2 − a1 )
tn+m−2 = ! ! 2 2
m+n s̃X (m−1)+s̃Y (n−1)
mn m+n−2
где
&
1, Xi < Yj ;
I{Xi < Yj } =
0, Xi > Y j .
Находим в таблице [34] критические значения распределения
статистики Манна–Уитни: Ulef t = Uα,n,m , Uright = Vα,n,m —
и сравниваем с ними статистику критерия. Здесь Uα,n,m
и Vα,n,m — критические значения уровня α статистики U
при условии справедливости гипотезы однородности H0 , т. е.
P0 {U Uα,n,m } = α, P0 {U Vα,n,m } = α, α — вероятность
ошибки первого рода.
Если U Uright , то нулевая гипотеза отвергается в пользу
правосторонней альтернативной гипотезы H1 . Если U Ulef t ,
то нулевая гипотеза отвергается в пользу левосторонней аль-
тернативной гипотезы H1 . Для случая двусторонней альтерна-
тивы H1 находятся точки Uright = Vα/2,n,m и Ulef t = Uα/2,n,m ,
§ 7. Непараметрические критерии анализа 339
m(m + 1)
W =U+ .
2
• H1 : F (x) G(x) для всех x ∈ R — левосторонняя
альтернативная гипотеза.
• H1 : F (x) = G(x) для всех x ∈ R — двусторонняя
альтернативная гипотеза.
Критерий знаков
n
L= I{zi < 0}.
i=1
n
U= Ψi si ,
i=1
где
&
1, zi > 0;
Ψi =
0, zi < 0.
§ 8. ОДНОФАКТОРНЫЙ ДИСПЕРСИОННЫЙ
АНАЛИЗ
Однофакторный дисперсионный анализ является обобще-
нием T -критерия для двух выборок из генеральной совокуп-
ности.
Пусть число выборок k 2:
X11 X12 ... X1k
X21 X22 ... X2k
.. .. ..
. . .
Xn1 1 Xn2 2 ... Xnk k
N (a1 , σ 2 ) N (a2 , σ 2 ) ... N (ak , σ 2 ) .
Пусть все выборки взаимно независимы между собой, при
этом выборка (X1i , . . . , Xni i ) взята из генеральной совокуп-
ности с распределением N (ai , σ 2 ). Элементы каждой выборки
тоже, конечно, взаимно независимы.
Выдвигается гипотеза H0 : a1 = a2 = . . . = ak = a при аль-
тернативной гипотезе H1 , которая заключается в отрицании
гипотезы H0 . Рассмотрим следующие величины:
1 1
nj nj k k
X̄·j = Xij , X̄·· = Xij , N = nj ,
nj i=1 N i=1 j=1 j=1
Следовательно,
(Xij − X̄·j )2
nj k
S1 = 2
∼ χ2N −k .
i=1 j=1
σ
Рассмотрим величину
(X̄·j − aj ) √
nj ∼ N (0, 1).
σ
§ 8. Однофакторный дисперсионный анализ 343
1
k
nj (X̄·j − X̄·· )2 =
σ 2 j=1
⎡ ⎤2
1 ⎣ 1
k k
= 2 nj (X̄·j − a) − nj (X̄·j − a)⎦ ,
σ j=1 N j=1
1
nj
k
1
k
так как X̄·· − a = N (Xij − a) = N nj (X̄·j − a).
i=1 j=1 j=1
1
k
S2 = nj (X̄·j − X̄·· )2 =
σ 2 j=1
⎡ ⎤2
1
k
1 k
= 2 nj ⎣(X̄·j − a) − nj (X̄·j − a)⎦ =
σ j=1 N j=1
8 92
k !
nj √
√ nj (X̄·j − a)
k
( nj (X̄·j − a))2 j=1
N
= − =
j=1
σ2 σ2
8√ 92 ⎡ k √ ⎤2
k
nj (X̄·j − a) nj nj (X̄·j − a)
= −⎣ ⎦ ∼ χ2k−1 ,
j=1
σ j=1
N σ
§ 9. КРИТЕРИЙ ОДНОРОДНОСТИ
КОЛМОГОРОВА–СМИРНОВА
Тогда
mn
P0 Dm,n z −→ K(z) =
m+n
∞
2 2
= (−1)j e−2j z
, (9.2)
j=−∞
7 +
− r−1
Dm,n = max Fn∗ (y(r) ) − =
1rm m
s
= max − G∗m (x(s) ) , (9.4)
1sn n
+ −
Dm,n = max(Dm,n , Dm,n ). (9.5)
При справедливости нулевой гипотезы и неограниченном
увеличении объемов выборок исправленная статистика
mn
Dm,n (9.6)
m+n
Сформулируем гипотезы:
• H0 : признаки A и B взаимно независимы.
• H1 : имеется монотонная положительная связь призна-
ков.
• H1 : имеется монотонная отрицательная связь признаков.
• H1 : имеется монотонная связь признаков.
Гипотеза H0 соответствует отсутствию взаимосвязи между
признаками или, иначе говоря, независимости признаков. Ес-
ли гипотеза H0 справедлива, то распределение статистики
симметрично и концентрируется около нуля. При наличии за-
висимости распределение окажется другим. Для монотонной
положительной зависимости распределение сдвинуто впра-
во, для монотонной отрицательной — влево.
Для проверки гипотезы H0 необходимо обратиться к таб-
лицам распределения коэффициента Спирмена [3], вычислен-
ным в предположении истинности гипотезы H0 . По заданной
вероятности ошибки первого рода α необходимо найти соот-
ветствующие пороговые значения, после чего при попадании
вычисленного по наблюдениям коэффициента в критическую
область следует отклонить гипотезу H0 в пользу альтернатив-
ной гипотезы. При выборе в качестве альтернативы гипотезы
H1 (положительная монотонная связь) критическую область
следует выбрать в виде: (c1 , 1]. При выборе альтернативы ги-
потезы H1 (отрицательная монотонная связь) критическую об-
ласть следует выбрать в виде: [−1, c2 ). При выборе альтерна-
тивной гипотезы H1 критическая область для гипотезы H0
имеет вид: [−1, c3 ) ∪ (c4 , 1]. Пороговые значения c1 , c2 , c3 ,
c4 определяются из статистических таблиц так, чтобы веро-
ятность попадания в критическую область при выполнении
гипотезы H0 была равна α.
cov(ξ, η)
ρ(ξ, η) = √ √ .
Dξ Dη
n n
где s2X = n1 i=1 (Xi − X̄)2 , s2Y = n1 i=1 (Yi − Ȳ )2 . Здесь
предполагается, что задана двумерная выборка: (X1 , Y1 ), . . .
. . . , (Xn , Yn ). Совместное распределение случайных величин ξ
и η является нормальным.
Сформулируем гипотезы:
• H0 : ρ = 0 — гипотеза о независимости.
• H1 : ρ > 0.
• H1 : ρ < 0.
• H1 : ρ = 0 — двусторонняя альтернатива.
Справедливо утверждение. При сделанных предположениях о
распределении случайного вектора (ξ, η)T , статистика
√ 2
t = rX,Y n − 2/ 1 − r2 (11.1)
она принадлежит:
, -
F (·/θ) : θ ∈ Θ ⊂ Rl .