Учреждение образования
«Белорусский государственный университет
информатики и радиоэлектроники»
А. В. Аксенчик
Р
УИ
БГ
ТЕОРИЯ ВЕРОЯТНОСТЕЙ
И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА
а
ек
Р е ц е н з е н т ы:
кафедра высшей математики учреждения образования
«Белорусский государственный
аграрный технический университет», заведующий кафедрой,
кандидат физико-математических наук, доцент И. М. Морозова
Р
учреждения образования «Белорусский национальный
технический университ», кандидат
УИ
физико-математических наук С. В. Чернявская
А42
Аксенчик, А. В.
БГ
Теория вероятностей и математическая статистика : учеб.-метод.
пособие / А. В. Аксенчик. – Минск : БГУИР, 2011. – 184 с. : ил.
а
ISBN 978-985-488-632-9.
ек
лине.
Пособие состоит из трех частей. Часть 1 «Теория вероятностей» включает семь
ио
УДК 519.2(075.8)
ББК 22.17я73
2
ПРЕДИСЛОВИЕ
Р
атмосфере и ионосфере потребовали применения вероятностных методов в тео-
ретической радиотехнике – так появилась статистическая радиотехника. И если
УИ
в середине прошлого века теорию вероятностей и математическую статистику
изучали студенты лишь некоторых специальностей, то в настоящее время сту-
денты большинства специальностей не могут обойтись без знания этой дис-
циплины.
БГ
Основу данного учебно-методического пособия составляет курс лекций
по теории вероятностей, математической статистике и случайным процессам,
который читался студентам второго курса радиотехнических специальностей
Белорусского государственного университета информатики и радиоэлектрони-
а
ки автором данного издания.
Содержание учебно-методического пособия предполагает знание студен-
ек
Р
читались, но в новой типовой программе они отсутствуют. Чтобы восполнить
этот пробел, в пособие включена часть 3 «Случайные процессы» (глава 13) по-
УИ
священная элементам теории случайных процессов. Даны основные понятия
теории случайных процессов, доказаны теоремы Винера-Хинчина, Котельнико-
ва, рассмотрены марковские случайные процессы.
Содержание 1-й и 2-й частей данного учебно-методического пособия
БГ
полностью соответствует требованиям типовой учебной программы «Теория
вероятностей и математическая статистика», утвержденной Министерством об-
разования Республики Беларусь 03. 06. 2008, № ТД-1.030/тип., и предназначено
для подготовки студентов широкого ряда специальностей: 1-39 01 01 «Радио-
а
техника», 1-39 01 02 «Радиоэлектронные системы», 1-39 01 03 «Радиоинформа-
ек
4
ЧАСТЬ 1. ТЕОРИЯ ВЕРОЯТНОСТЕЙ
Р
ГЛАВА 1. СЛУЧАЙНЫЕ СОБЫТИЯ
УИ
1.1. Основные понятия теории вероятностей
БГ
номерности случайных явлений.
До возникновения теории вероятностей объектом исследования науки
были явления или эксперименты, в которых условия постановки эксперимента
однозначно определяли его исход. В этом случае результат эксперимента может
а
быть рассчитан заранее с использованием соответствующих законов физики.
ек
5
жается – 215–230 В, т. к. люди приходят с работы включают различные потре-
бители электрической энергии, нагрузка (ток) в сети возрастает и на подводя-
щих электричество к дому кабелях увеличивается падение напряжения, что
приводит к уменьшению напряжения на розетках в квартирах). Здесь, как ви-
дим, проявляется зависимость напряжения сети и от времени суток. Отметим,
что, несмотря на то что для питания электронных схем используют стабилиза-
торы напряжения, не все они могут поддерживать стабильное напряжение, если
напряжение сети меняется в широких пределах. Поэтому часто в документации
на электронные устройства указывают условия измерения режима работы схе-
мы устройства: напряжение сети, температура, влажность, входное сопротив-
ление вольтметра.
Р
Однако условия, при которых проводится эксперимент, трудно сделать
фиксированными, и даже незначительное их изменение приводит к другому ре-
УИ
зультату. Поэтому в отличие от детерминированных можно выделить другой
класс экспериментов – вероятностные.
Вероятностные эксперименты (стохастические или случайные) – это
эксперименты, которые при соблюдении одних и тех же (насколько это воз-
БГ
можно) фиксированных условий можно повторять произвольное количество
раз, каждый раз, но исход вероятностного эксперимента будет неоднозначен,
случаен.
Но при многократном повторении вероятностного эксперимента, соблю-
а
дая одни и те же (насколько это возможно) фиксированные условия, можно за-
ек
ры вероятностных экспериментов.
1. Самолету для полета на определенной высоте отводится коридор –
минимальная и максимальная высоты, выходить за пределы которых он не
ио
Р
ское результатов измерений приближается к некоторой постоянной величине.
Можно найти приближенное значение данной константы и, построив ма-
УИ
тематическую модель эксперимента, с определенной степенью уверенности
принять эту оценку за реальное значение измеряемой величины.
Следует также отметить, что теория вероятностей занимается изучением
не любых случайных событий, а только тех, которые обладают определенными
БГ
свойствами. Во-первых, таких, которые при фиксированных условиях могут
осуществляться произвольное число раз, например – бросок монеты, бросок иг-
ральной кости. Во-вторых, таких, которые обладают статистической устойчи-
востью. Например, сделаем n бросков монеты (испытания) и будем следить за
а
появлением герба (событие А). Пусть эти испытания проводятся в одинаковых
ек
опыта (когда становится известным число m), а вероятность Р(А) может быть
рассчитана и до опыта. Из приведенных примеров логически следует определе-
ние вероятности – как меры возможности наступления какого-либо события
Би
7
Эти закономерности изучаются методом моделирования. Для этого стро-
ится математическая модель вероятностного эксперимента, в котором иссле-
дуемые закономерности описываются различными математическими уравне-
ниями, функциями. Насколько точна математическая модель и хорошо ли она
согласуется с практикой, можно вычислить с помощью методов математиче-
ской статистики. Таким образом, предметом теории вероятностей является
количественный и качественный анализ математических моделей вероятност-
ных экспериментов. Эксперименты проводят с целью получения научных вы-
водов, рекомендаций, на основе которых можно принимать решения.
Первые работы, в которых зарождались основные понятия теории веро-
ятностей, представляли собой попытки создания теории азартных игр. Именно
Р
они стимулировали построение математических моделей игровых ситуаций в
работах Дж. Кардано (1501–1575), Х. Гюйгенса (1629–1695), Б. Паскаля (1623–
УИ
1662), П. Ферма (1601–1665) и др. в ХVI – ХVII вв. Следующий этап развития
теории вероятностей связан с именем Якова Бернулли (1654–1705). Доказанная
им теорема, получившая впоследствии название «Закон больших чисел», была
первым теоретическим обоснованием накопленных ранее фактов. Дальнейши-
БГ
ми успехами теория вероятностей обязана П. Д. Бернулли (1700–1782), П. Лап-
ласу (1749–1827), К. Гауссу (1777–1855), С. Пуассону (1781–1840) и др. Новый
наиболее плодотворный период связан с именами П. Л. Чебышева (1821–1894)
и его учеников А. А. Маркова (1856–1922) и А. М. Ляпунова(1857–1918). Со-
а
временная теория вероятностей получила развитие в работах С. Н. Бернштейна,
ек
8
2. Трехкратное подбрасывание монеты. При каждом подбрасывании
будем записывать результат опыта, обозначая выпадение герба – «1»,
а цифры – «0» (010 – при втором подбрасывании выпал герб). Множество эле-
ментарных событий состоит из 8 элементарных событий:
{000, 001, 010, 011, 100, 101, 111} или {1 , 2 ,..., 8 } . А = {при первом подбра-
сывании выпал герб} является составным: A {1 0 0, 1 0 1, 1 1 0, 1 1 1} . Любое
подмножество множества можно интерпретировать как некоторое событие
реального опыта. Например, событие В = {110, 101, 011} состоит в том, что вы-
пало ровно 2 герба.
3. Семья с тремя детьми. Для того чтобы изучить распределение мальчи-
Р
ков и девочек во всех семьях, имеющих трех детей, составлен список этих се-
мей. Какое пространство событий отвечает эксперименту, заключающемуся в
УИ
выборе одной семьи? Множество элементарных событий состоит из 8 эле-
ментарных событий = {МММ, ММД, МДН, МДД, ДММ, ДМД, ДДМ, ДДД}.
Тройка ДММ представляет следующий исход: старший ребенок – девочка,
средний и младший – мальчики. Задача легко решается, если построить «дере-
БГ
во» эксперимента (рис. 1.1).
М
а
Первый ребенок Д
ек
М
М
М
т
Д Д
ио
Д
М М
бл
Д
Д
М
Би
Второй Д
ребенок
Третий ребенок
Рис. 1.1
9
1. Элементарным событием называется любой мысленно возмож-
ный результат эксперимента. Совокупность всех элементарных событий об-
разует некоторое множество .
2. Пространством элементарных событий будем называть множество
{ } всех мыслимых, взаимоисключающих друг друга исходов опыта или
эксперимента.
По числу элементов пространство элементарных событий может
быть конечным, счетным. Пространство с конечным множеством элементов
будем обозначать { i | i 1, } , а число его элементов | | n .
Пространство со счетным множеством элементов обозначим
Р
{ i | i 1, } . Если состоит из конечного или счетного множества
УИ
, то называют дискретным пространством элементарных событий, а ес-
ли из несчетного множества, то называют непрерывным пространством
элементарных событий.
БГ
1.3. Операции над событиями
множества ).
Приведем более простое определение события. Из приведенных выше
примеров следует, что случайным событием называется всякий факт, который в
т
перимента (опыта).
3. Невозможным событием называется событие, совпадающее с пус-
тым множеством. Если записать А = , тогда А является невозможным собы-
Би
10
событие A – нечетное число очков. A {1 , 3 , 5} является противоположным
событию A {2 , 4 , 6 } .
Очевидно, что , A A . Для иллюстрации операций над событиями
удобно использовать диаграмму Венна (рис. 1.2).
1 принадлежит событию А, 1 A ;
2 не принадлежит событию А, 2 A .
2
Справедливы соотношения:
А
A A, , .
1
Р
A
УИ
Рис. 1.2
БГ
содержащее те элементарные события , которые принадлежат или собы-
тию А, или событию В, или А и В. Объединение или сумму двух событий будем
обозначать A B (рис. 1.3):
A B { | A, или В, или А и В} .
а
Для любого события А справедливы
ек
следующие соотношения:
В
А A A A , A = A , A .
т
А В
ио
Рис. 1.3
A B { | A, B} .
Справедливы следующие соотношения:
A A A, A = , A A.
В
А
А В
Рис. 1.4
11
Отметим, что выделенные слова или в определении для суммы, а также и
в определении для произведения позволяют легко сориентироваться, какую
операцию следует применить между событиями.
7. События A и B называются несовместными, если их пересечение яв-
ляется невозможным событием, т. е. если A B = . Для несовместных собы-
тий одновременное наступление в одном опыте невозможно.
А В
Р
А В=О
УИ
Рис. 1.5
БГ
Отметим, что элементарные события являются несовместными, т. к. при
i j , i j .
8. Разностью двух событий А и В называется событие, состоящее из тех
элементарных событий , которые входят в событие А, но не входят в со-
а
бытие В (рис. 1.6).
ек
А\В
бл
Рис. 1.6
12
Но это буквально и означает, что не происходит ни событие А, ни В, т. е., со-
гласно пунктам 4 и 7, происходит A B , значит, A B A B . Наоборот, ес-
ли происходит A B , то не происходит ни А ни В, следовательно не происхо-
дит событие A B , т. е. происходит A B , следовательно, A B A B , а
значит, A B A B . Кратко можно описать так:
( A B A B A, B A, B A B ),
здесь означает эквивалентно.
б) коммутативности:
A B B A
A B B A
Р
в) ассоциативности:
( A B) C A ( B C )
УИ
( A B) C A ( B C )
г) дистрибутивности:
A ( B C ) ( A B) ( A C )
БГ
A ( B C ) ( A B) ( A C )
Если последнее соотношение очевидно, то первое можно доказать так
(начнем с правой части):
( A B) ( A C ) A A A C B A B C учтем : A A A
а
A A C B A B C представим A A
ек
Р
Ниже перечислены аксиомы теории вероятностей (или аксиомы
УИ
А. Н. Колмогорова).
БГ
1
черкнуть, что речь идет лишь о счетных объединениях и пересечениях. Если
A , S – произвольная система событий, то, например, их объединение
т
14
метим, что, согласно аксиоме 1, A F ). Эта аксиома определяет счетную ад-
дитивность вероятности, иногда ее называют аксиомой непрерывности ве-
роятности.
Здесь следует сделать некоторые пояснения. Напомним, что аддитивные
величины – это величины, связанные с геометрическими или физическими объ-
ектами таким образом, что величина, соответствующая целому объекту, равна
сумме соответствующих его частей, каким бы образом мы не разбивали объект
на части. Поэтому площади, объемы, массы тел удовлетворяют условиям адди-
тивности (аксиомам) и их можно принимать за меры тел. Диаметры, например,
не удовлетворяют условиям аддитивности и за меру приняты быть не могут.
5. P ( ) 1 – аксиома нормировки.
Р
Числовую функцию Р(А), как мы отмечали, называют вероятностью или
вероятностной мерой появления события А, и из аксиом следует, что вероят-
УИ
ность любого события А: 0 P ( A) 1 .
Пространство элементарных событий , выделенная -алгебра собы-
тий F и определенная на измеримом пространстве (, F ) вероятностная мера
БГ
Р появления события A F образуют вероятностное пространство, которое
принято обозначать (, F , P) .
Вероятностное пространство (, F , P) совместно с аксиомами представ-
ляет собой математическую модель вероятностного эксперимента.
а
Рассмотрим следующий эксперимент: в коробке находятся три шара раз-
ек
что вытащили или белый, или красный шар; {2 , 3} состоит в том, что выта-
щили или черный, или красный шар;
Определим для этих событий вероятностную меру P:
Би
15
а следовательно, она является вероятностной мерой наступления событий
A F . Для тех же событий A F можно записать другую функцию, которую
обозначим P1:
P1 () 0; P1 (1 ) 1/ 4; P1 (2 ) 1/ 2; P1 (3 ) 1/ 4; P1 (1 , 2 ) 3/ 4;
P1 (1 , 3 ) 1/ 2; P1 (2 , 3 ) 3/ 4; P1 () 1.
Эта функция также удовлетворяет аксиомам Колмогорова, а следователь-
но, она также является вероятностной мерой наступления событий A F . От-
сюда видно, что система аксиом не полна, не устанавливает взаимно однознач-
ного соответствия между событиями A F и вероятностями Р(А). Только опыт
и наблюдения могут показать правильность наших модельных предположений.
Р
Согласуется ли выбранная математическая модель с данными эксперимента,
можно выяснить с помощью методов математической статистики.
УИ
Рассмотрим методы определения вероятностей для событий, удовлетво-
ряющих аксиомам Колмогорова.
1.5. Классический метод определения вероятностей
БГ
Пусть – конечное или бесконечное пространство элементарных собы-
тий некоторого случайного эксперимента. Предположим, что структура экспе-
римента такова, что на можно указать n событий А1, А2, …, Аn, обладающих
а
следующими свойствами:
1) события А1, А2,…, Аn попарно несовместны в том смысле, что ника-
ек
2) А1, А2, …, Аn образуют полную группу событий в том смысле, что при
любом исходе эксперимента происходит хотя бы одно из них. Это означает, что
ио
A1 A2 ... An , P ( A1 ... An ) P ( ) 1 .
3) события А1, А2, …, Аn равновероятны (равновозможны), т. е. ни одно
из них нельзя считать более предпочтительным, чем любое из остальных.
бл
лишь для тех исходов эксперимента, которые могут быть представлены в виде
объединения некоторых из событий Ai , i = 1, …, n. Пусть произвольное собы-
тие А можно представить в виде суммы или объединения событий:
A Ai1 Ai 2 ... Aim . (1.1)
Если все слагаемые в формуле (1.1) различны, то вероятность события А
определяется следующим равенством:
| A| m
P ( A) , (1.2)
|| n
где m – число слагаемых в формуле (1.1).
16
Чтобы определение (1.2) было корректным, необходимо доказать единст-
венность разложения (1.1). Для любого события А, согласно условию 2) и свой-
ству дистрибутивности,
A A A ( A1 ... An ) A A1 ... A An ,
поэтому разложение (1.1) A A j либо пусто, если j iS , s = 1, …, m, либо
A Aj Ais , если j = is.
Для классического определения вероятности характерна своя терминоло-
гия. Эксперимент называется испытанием, опытом; полную группу попарно не-
совместных, равновероятных событий называют полной группой возможных
исходов испытания; а те исходы, из которых складывается событие А – назы-
Р
вают исходами благоприятствующими появлению А.
Тогда вероятностью события А называется отношение числа m ис-
УИ
ходов, благоприятствующих появлению события А, к числу n всех возмож-
ных, равновероятных исходов опыта или эксперимента (1.2).
Отыскание вероятностей, основанное на классическом определении, час-
то сводится к комбинаторным вычислениям. Напомним простейшие комбина-
торные формулы.
Размещения:
БГ
Anm n ( n 1)...( n ( m 1)) .
а
Формула для размещений позволяет подсчитать количество комбинаций
из n элементов по m, где комбинации будут отличаться как самими элемента-
ек
Cnm .
1 2 3 ... m ( n m)!m!
Формула для сочетаний позволяет подсчитать количество комбинаций из
ио
Перестановки:
Pn 1 2 ... n n! , P0 0! 1.
Формула для перестановок позволяет подсчитать количество комбинаций
Би
Пример 1.
Проводится три броска симметричной монеты. Какова вероятность того,
что герб появится два раза?
Задачу начинаем решать с определения события А. Здесь событие А со-
стоит в том, что при трех бросках герб появится два раза. Определяем про-
странство элементарных событий Ω этого эксперимента. В разделе 1.2 в пункте
17
2 мы рассмотрели этот вопрос и получили (обозначили выпадение герба – 1,
цифры – 0)
{ 000 , 001 , 010 , 011 ,100 ,101 ,110 ,111 } .
Здесь общее число исходов n = = 8. Выпишем благоприятствующие ис-
ходы, из которых состоит событие А: А = {011, 101, 110, 111}, тогда m = A = 4.
m 4
P ( A) 0,5 .
n 8
Пример 2.
Какова вероятность того, что наудачу взятый телефонный номер из семи
Р
цифр имеет: 1) все цифры различные; 2) только нечетные цифры.
1) определим вначале событие А. Событие А состоит в том, что в семи-
УИ
значном номере все цифры различны. Так как номер семизначный, а цифр всего
10, то общее число исходов n (всего может быть 107 номеров) равно 107. Для
подсчета благоприятствующих исходов подходит формула для размещений –
m A107 10 9 8 7 6 5 4
БГ
7
m = A10 . Тогда P ( A) 7 0,06 .
n 10 107
2) определим событие В. Событие В состоит в том, что в семизначном
номере все цифры нечетные. Имеем 5 нечетных цифр. Из них можно получить
лишь 57 различных семизначных номеров, т. е. m = 57. Общее число исходов
а
n = 107.
ек
m 57 1
P ( B ) 7 ( ) 7 0,008 .
n 10 2
т
18
( A) ( мера области А)
P ( A) . (1.3)
() ( мера области )
В одномерном пространстве R1 – это отноше-
ние длин, в двумерном R 2 – отношение площадей
(рис. 1.7), в трехмерном R 3 – отношение объемов,
соответствующих множествам А и . Как видно из
рис 1.7 и формулы (1.3), вероятность события А не
зависит ни от формы области А, ни от места ее
расположения.
Р
Рис. 1.7
УИ
Такой метод задания вероятностей (1.3) называется геометрическим –
это отношение меры области А к мере области . Его особенность в том, что
области А и должны иметь конечную меру в пространстве R n .
Пример 1.
БГ
Наудачу взяты два положительных числа x и y, причем x 5, y 2 . Най-
ти вероятность того, что y ax b 0 и y cx 0 , если a = 2, b = 10, c = 2.
Подставляя значения коэффициентов в неравенства, получаем
y 2 x 10,
а
(а)
y 2 x.
ек
Y
ио
10 y = 10 - 2x y = 2x
8
6
бл
2
Би
0
0 2 4 6 X
Рис. 1.8
19
53
можных значений) и является трапецией, площадь которой SА= 2 8 [ус-
2
ловных единиц]. Тогда вероятность события А
SA 8
P ( A) 0,8 .
S 10
Пример 2.
Найти вероятность того, что на экране радиолокатора отметка от цели
появится в кружке радиусом r = 1 см, на азимуте ноль градусов, на расстоя-
нии L = 3 см от центра экрана, если радиус экрана равен 30 см.
Р
00
УИ
Ω r
270 0
L БГ R
90 0
а
ек
т
ио
180 0
бл
Рис. 1.9
20
Зная геометрическое определение вероятности, можно сразу сказать, что
вероятность появления отметки от цели в кружке радиусом r зависит только от
отношения площадей и не зависит ни от формы области благоприятствующих
исходов, ни от места ее расположения. Поэтому в этой задаче есть избыточная
информация – расстояние L и азимут =00 .
Определяем область благоприятствующих исходов, которой является
кружок радиусом r и площадью – SA = r 2 . Пространство элементарных собы-
тий Ω – это область экрана, его площадь S = R 2 . Тогда
S r 2 r 2 12
Р(А) = A 2 2 2 0,0011 .
S R R 30
Р
1.7. Свойства вероятности (основные теоремы)
УИ
Пусть – пространство элементарных событий некоторого экспе-
римента и состоит из конечного или счетного множества элементарных собы-
тий . Пусть событие А принадлежит -алгебре F. Тогда вероятность по-
БГ
явления события A F находится на основании следующей теоремы.
Теорема 1. Если в дискретном пространстве , содержащем конечное
или счетное множество возможных исходов 1 , 2 , ..., i , {1 , 2 ,..., i } ,
а
заданы вероятности элементарных событий P (1 ) P1 , P (2 ) P2 ,..., P (i ) Pi ,
ек
так Pi 0 , P 1,
i 1
i то вероятность произвольного события A {1 , 2 ,..., m } ,
i A
P ( A) P ( B); P( B \ A) P( B ) P( A) .
Би
Доказательство:
Представим событие B A ( B \ A) . События А и В\А несовместны
(рис. 1.10), поэтому на основании 3-й аксиомы имеем
P ( B ) P( A) P( B \ A) P( B \ A) P( B ) P ( A) .
Из второй аксиомы следует, что P ( B \ A) 0 , следовательно,
P ( B ) P ( A) 0 или P ( A) P( B ) .
Следствие 1. Вероятность появления невозможного события равна нулю.
21
Представим невозможное событие как
\ , тогда на основании теоремы 2 и ак-
В\А сиомы 5 имеем P () P() P() 1 1 0 .
Следствие 2. Вероятность появления про-
В тивоположного события A равна разности меж-
ду единицей и вероятностью появления события
А
А: P ( A) 1 P( A) .
Представим противоположное событие
как A \ A . Тогда на основании теоремы 2 и
Рис. 1.10
аксиомы 5 имеем P ( A) P () P( A) 1 P( A) .
Р
Теорема 3. Теорема сложения вероятностей произвольных событий. Ве-
роятность появления суммы двух произвольных событий равна сумме вероят-
УИ
ностей этих событий без вероятности их совместного появления:
P ( A B ) P ( A) P ( B) P ( A B ) . (1.4)
БГ
Эта теорема является обобщением 3-й аксиомы на случай, когда события
A F и B F произвольные, т. е. могут быть совместными.
Доказательство:
а
Исходя из рис. 1.11 для произвольных событий А и В можно
записать следующие соотношения:
ек
A B A ( B \ A) , B ( A B ) ( B \ A) .
В\А
Здесь события, входящие в правые части, –
А∩В несовместны: А и В\А, а также события
т
следующие равенства:
А
P ( A B ) P ( A) P ( B \ A) ,
P ( B ) P( A B) P ( B \ A) .
бл
Рис. 1.11
формулу (1.4).
Для несовместных событий А и В: A B и P ( A B ) 0 , тогда фор-
мула (1.4) совпадает с аксиомой 3: P ( A B ) P ( A) P( B) .
Теорема 4. Вероятность появления суммы трех произвольных событий
А, В, С определяется по формуле
P ( A B C ) P( A) P( B) P(C ) P( A B) P( A C )
(1.5)
P( B C ) P( A B C ).
22
Доказательство:
P ( A B C ) обозначим E B C P( A E ) P ( A) P ( E ) P( A E )
P( E ) P( B C ) P( B) P(C ) P( B C ),
применяем закон
Р( A E ) P( A ( B C ))
дистрибутивности
P(( A B) ( A C )) P( A B) P ( A C ) P(( A B ) ( A C ))
т. к. A A A P( A B) P( A C ) P( A B C );
P( A) P( B ) P(C ) P( A B) P( A C ) P ( B C ) P( A B C ) .
Р
Теорема 5. Вероятность суммы конечного множества произвольных собы-
тий равна разности между единицей и вероятностью произведения противопо-
УИ
ложных событий.
P ( A1 A2 ... An ) 1 P( A1 A2 ... An ) . (1.6)
Доказательство:
БГ
Используем принцип двойственности и применим метод математической
индукции.
A B A B,
Для двух событий имеем
а
P ( A1 A2 ) 1 P( A1 A2 ) 1 P ( A1 A2 ) .
Для трех событий
ек
P ( A1 A2 A3 ) P (( A1 A2 ) A3 ) 1 P (( A1 A2 ) A3 )
1 P(( A1 A2 ) A3 ) 1 P( A1 A2 A3 ).
т
23
1.8. Условная вероятность. Независимость событий
Р
Пример 1.
Допустим, что студент из 30 билетов успел выучить билеты с 1-го по 3-й
УИ
и с 28-го по 30-й. На экзамен он пришел десятым, и оказалось, что к его прихо-
ду остались только билеты с 1-го по 21-й (событие A). Вероятность события B –
студент получит выученный билет без дополнительной информации о том, что
БГ
событие A произошло, может быть вычислена по классическому определению с
{1, 2, …, 30}, B = {1, 2, 3, 28, 29, 30},
B
P(B) = = 1/5. При дополнительной информации (событие A произошло) мно-
а
жество возможных событий уже состоит из A = 21 элементарного события. А
ек
символом B|A и читать: «событие B при условии появления события A». Веро-
ятность появления события B|A обозначают P(B|A) и называют условной веро-
ио
B A
* : P( B | A ) = = 3/21 = 1/7.
A
Множества B A = B|A совпадают. Эту же вероятность можно выразить
Би
24
Рис. 1.12
Р
Пусть ( F, P) – вероятностное пространство, и пусть A и B – произ-
вольные события, причем P(A) 0. Условной вероятностью наступления со-
УИ
бытия B в предположении, что событие A произошло, называют число P(B|A),
определяемое по формуле (1.7).
Аналогично определяется условная вероятность события A в предполо-
жении, что событие В произошло (Р(В) 0):
БГ
P( A B)
P(A|B) = . (1.8)
P( B)
Следует отметить, что числа P(В) и P(В|А) определяют вероятности собы-
тия В в двух различных пространствах и * А. Новая -алгебра событий
а
F* пространства строится пересечением событий F и А, а вероятности появ-
ек
ления событий В|А находится по формуле (1.8). Все аксиомы, обязательные для
вероятностей, справедливы для величин P(В|А). Из определения условия веро-
P( A A) P( A)
т
25
P A B = P ( A) P( B | A) = P ( B) P( A | B) . (1.9)
Доказательство:
Из формул (1.7), (1.8) следует (1.9).
Теорема умножения для трех событий – A, B, C:
P A B C = P ( A B) C = P ( A B ) P (C | A B) =
= P ( A) P( B | A) P (C | A B ) . (1.10)
Р
С условной вероятностью тесно связано понятие независимости событий.
УИ
Например, при броске двух игральных костей число очков, выпавших на одной
кости, не зависит от числа очков, выпавших на другой кости; два блока в при-
боре работают независимо друг от друга (например в телевизоре – блок строч-
ной развертки и блок УНЧ) – это физическая независимость, при которой объ-
БГ
екты не оказывают влияния друг на друга. Физическую независимость можно
сформулировать на математическом языке и дать следующее определение.
Пусть проводится эксперимент ( F, P) – вероятностное пространст-
во этого эксперимента A и B – два произвольных события (A F и B F). В
а
этом случае событие A не зависит от события B, если появление события B
не изменяет вероятности появления события A, т. е. если условная вероят-
ек
P A B = P ( A) P( B ) . (1.13)
бл
Пример 1.
В ящике 2 диода и 8 транзисторов. Какова вероятность того, что вынимая
Би
не глядя два раза подряд по одной детали, мы оба раза достанем транзисторы?
Решение.
Введем: событие А – из ящика первый раз достали транзистор, событие
В – из ящика второй раз достали транзистор. Тогда вероятность события А оп-
A
ределяется так: Р(А) = 8/10 = 0,8. Условная вероятность события В при ус-
ловии, что произошли событии А (здесь благоприятствующих событий будет
B | A = 7 и приведенное пространство элементарных событий * будет состо-
26
ять из * = 9 событий. Тогда условную вероятность события В при условии,
что событие А произошло найдем так: Р(В|А)= B | A / * = 7/9.
P A B = P ( A) P( B | A) = 8
7 = 56/90.
10 9
Теорема. Пусть ( F, P) – вероятностное пространство. События A, B, C
(A F…) называются независимыми в целом, если они попарно независимы и
если каждое из этих событий независимо от двух других:
P ( AB ) = P ( A) P( B ) ,
P AC = P ( A) P (C ) ,
P BC = P ( B ) P (C ) .
Р
Данные события являются попарно независимыми. Тогда все три события
УИ
являются независимыми, т. е. любое из этих событий независимо от двух других:
P ( ABC ) = P ( A) P ( B ) P (C ) .
Пример 2.
БГ
Составлена схема электрической цепи (рис. 1.13).
a2
а
a1
ек
1 3 2
т
a3
ио
Рис. 1.13
р1 = 0,2, р2 = 0,3, р3 = 0,4. Найти вероятность того, что ток пройдет с клеммы 1
на клемму 2.
Решение.
Введем события: А1 – работает элемент а1, А2 – работает элемент а2, А3 –
Би
работает элемент а3. Тогда Р(А1) = р1, Р(А2) = р2, Р(А3)=р3. Введем в схему точ-
ку 3, которая разбивает схему на два последовательно соединенных участка,
через которые проходит ток – от точки 1 до точки 3 и от точки 3 до точки 2.
Рассмотрим событие В – ток пройдет из точки 1 в точку 3 схемы. Поскольку
между точками 1 и 3 включен только один элемент а1, то событие В выполнится
тогда, когда будет работать элемент а1, значит В = А1. Введем событие С, со-
стоящее в том, что ток пройдет из точки 3 в точку 2. Оно выполнится тогда, ко-
гда будет работать или элемент а2, или а3, или а2 и а3. Мы видим, что для описа-
27
ния события С надо использовать теоремы о сумме или объединении двух про-
извольных событий А2 и А3. Запишем С = А2 А3.
Теперь рассмотрим событие Е – ток пройдет из точки 1 в точку 2. Оно
выполнится тогда, когда выполнится и событие В, и событие С. Здесь надо ис-
пользовать теоремы об умножении или пересечении двух событий, запишем
Е = В С. Тогда вероятность события Е определяется по формуле (1.9), а с уче-
том того, что события В и С независимы применяем формулу (1.13):
Р(Е) = Р(В)∙Р(С).
Найдем Р(В) = Р(А1) = р1. Определим Р(С), применяя теорему о вероят-
ности суммы двух произвольных событий (т. к. события А2 и А3 могут происхо-
Р
дить совместно) и используя формулы (1.4) или (1.6):
УИ
Р(С) = Р(А2 А3)= 1 – Р( A2 A3 ) = события А2 и А3 независимы =
= 1 – Р( A2 ) Р( А3 ) )= P( A2 ) 1 P( A2 ) 1 p2 , P ( A3 ) 1 P (A3 ) 1 p3 =
= 1 – (1 p2 )(1 p3 ) .
БГ
Тогда вероятность того, что ток пройдет из точки 1 в точку 2
Р(Е)=Р(В)∙Р(С) = р1∙(1 – (1 p2 )(1 p3 ) )=0,2∙(1 – 0,7 ∙ 0,6) = 0,116.
i 1
28
Доказательство:
Для доказательства приведем рис. 1.14. Для упрощения рисунка отобразим
три гипотезы H1 , H 2 , H 3 , но доказательство будем проводить для n гипотез.
Р
Рис. 1.14
УИ
Из рисунка видно, что A = { ( AH1 ) ( AH 2 ) ... ( AH n ) }, причем
AH i AH j при i j, т. е. события AH i A H i , i 1, n – несовместные. На
основании аксиомы 3 и теоремы умножения вероятности (1.9) имеем
БГ
n n
P(A) = P( A H i ) =
i 1
P( H ) P ( A | H ) .
i 1
i i (1.15)
Пример.
В двух одинаковых коробках имеется по 100 резисторов. В 1-й – 60 рези-
а
сторов по 100 КОм, во 2-й 30 – резисторов по 100 КОм. Определить вероят-
ек
ность того, что взятый наугад из какой-либо коробки резистор будет 100 КОм.
Решение.
Пусть событие A – достали резистор 100 КОм, гипотезы: H1 – выбрали
т
1-ю коробку, H 2 – выбрали 2-ю коробку. Так как коробки выбирали произ-
вольно, то P( H1 ) = 0,5, P( H 2 ) = 0,5. Условная вероятность того, что взяли ре-
ио
зистор 100 КОм, при условии, что выбрана 1-я коробка – P A | H1 = 0,6, соот-
ветственно P A | H 2 = 0,3. Тогда, применяя формулу (1.14) для n = 2, получаем
2
бл
P(A)= P( H i ) P ( A | H i ) = 0,45.
i 1
29
n
известны вероятности каждой из гипотез P( H i ), i 1, n , P( H ) 1. Известны
i 1
i
Р
ность события А:
УИ
P( H i ) P ( A | H i )
P ( H i | A) = n
. (1.16)
P( H ) P( A | H )
i 1
i i
БГ
Доказательство:
P( H i A)
По определению условной вероятности (1.8) P A | H i = , но по
P( A)
теореме умножения (1.10) P H i A = P H i P( A | H i ) , а P(A) определим из (1.14).
а
Формулы Байеса позволяют пересматривать, пересчитать вероятности
ек
на 0,4, а в сухой – 0,7. Известно, что команда выиграла матч. Определить, что в
этот день шел дождь.
Решение.
Событие A состоит в том, что команда выиграла матч. Гипотезы: H1 – шел
бл
30
1.11. Последовательность независимых испытаний.
Формула Бернулли
Р
Определение. Пусть ( F, P) – дискретное вероятностное пространст-
УИ
во эксперимента E, {12 ...} , Pn ({ j }) Pj , j=1, 2,…, P
j 1
j 1 . Пусть экс-
БГ
таний называется вероятностное пространство ( n , Fn , Pn ), элементарными
событиями в котором являются последовательности (i1 i2 ...ik ) и вероят-
ность для каждого элементарного события определена равенством (1.17).
Последовательность независимых испытаний называется схемой Бернул-
а
ли, если {12 } , т. е. если эксперимент имеет лишь два исхода. Обычно в
ек
событий.
Пусть проводится n независимых испытаний, в результате каждого испы-
ио
31
ступает подряд m раз начиная с 1-го испытания, а оставшиеся n–m раз наступа-
ет противоположнее событие A :
Bi = A1 A2 ... Am Am 1 ... An ,
Cnm Bi 1 A1 A2 ... Am 1 Am Am 1 Am 2 ... An , (1.18)
………………………………………………………………. .
Р
комбинаций можно выписать как число сочетаний Cnm . Так как по условию ис-
пытания независимы, а значит, независимы и события, входящие в комбинации
УИ
(1.18), используя теорему умножения, находим
БГ
Cnm
P ( Bi 1 ) P ( A1 ) ... P ( Am 1 ) P( Am ) P ( Am 1 ) P ( Am 2 ) ... P ( An ) p m q nm ,
…………………………………………………………………………… .
а
Видим, что вероятности комбинаций Bi одинаковы. Поскольку все ком-
ек
Cnm
P ( B1 B2 ...) P( Bi ) = Cnm p m q nm . (1.20)
ио
i 1
Это и есть формула Бернулли, ее обычно записывают в следующем виде:
n!
Pn (m) = Cnm p m q nm = p m q nm .
бл
(1.21)
m!(n m)!
Совокупность вероятностей Pm,n , m = 0, 1,…n называется биномиальным
Би
j 0
Это равенство в данном случае является отражением того факта, что в се-
рии из n независимых испытаний по схеме Бернулли исходы, содержащие
0,1,…n успехов, образуют полную группу попарно несовместных событий.
32
Пример.
Проводятся испытания 10-ти телевизоров на надежность в течение вре-
мени Т. Вероятность выхода телевизора из строя в течении времени Т равна 0,2.
Считая, что телевизоры выходят из строя независимо друг от друга, найти:
а) вероятность выхода из строя 3-х телевизоров из 10;
б) вероятность выхода из строя не менее 3-х телевизоров и не более 6;
в) вероятность выхода из строя хотя бы одного телевизора.
Решение.
а) применим формулу Бернулли (1.21): n = 10; m = 3; p = 0,2; q = 0,8;
P10 (3) = C103 0,23 0,87 ≈ 0,201.
б) используем теорему сложения независимых событий:
Р
P10 (3…6) = P10 (3) + P10 (4) + P10 (5) + P10 (6) =… .
УИ
в) здесь вероятность того, что выйдет из строя или 1, или 2, …, или 10 те-
левизоров, удобно определить через противоположное событие – P10 (1,…,10) =
= 1 – P10 (0) = 1 – C100 0,20 0,810 =… .
БГ
1.11.1. Наивероятнейшее число наступлений события
при повторении испытаний
а
Определение. Наивероятнейшим числом m 0 появления события A в n не-
ек
m0!(n m0 )!
Согласно определению наивероятнейшего числа, вероятность наступления
события A m 0 +1 и m 0 – 1 раз не должна превышать вероятность Pn (m 0 ) , т. е.
бл
Pn (m 0 ) Pn (m 0 1) , (1.22)
Би
Pn (m 0 ) Pn (m 0 1) . (1.23)
Решим неравенство (1.22) относительно m 0 :
n! n!
p m0 q n m0 p m0 1 q n m0 1 ,
m0!(n m0 )! (m0 1)!(n m0 1)!
q p
, m0 np q .
n m0 m0 1
33
Аналогично решая неравенство (1.23), получаем: m0 np p .
Объединяя два последних неравенства, имеем
np q m0 np p . (1.24)
Пример.
Вероятность поражения самолета одним осколком при подрыве вблизи
него зенитной ракеты равна 0,01. Боеголовка ракеты при подрыве разлетается
на тысячу осколков. Найти наивероятнейшее число попавших в самолет оскол-
ков и вероятность поражения самолета.
Р
Решение.
Обозначим p = 0,01, q = 1 – p = 0,99, n = 1000. Подставляя данные значе-
УИ
ния в (1.24), имеем
1000 0,01 0,99 m0 1000 0,01 0,01 ; 9,01 m0 10,01; m0 10 .
Вероятность поражения самолета
10
P1000 (10) = C1000
БГ
(0,01)10 (0,99) 990 0,126.
а
ек
т
ио
бл
Би
34
ГЛАВА 2. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ
Р
давать различные результаты в зависимости от того комплекса условий, в кото-
рых они происходят. Результаты эксперимента (для краткости опыта) можно
УИ
охарактеризовать качественно и количественно. Качественная характеристи-
ка случайного результата опыта есть событие. Например, попадание в цель
при выстреле является событием; выход прибора из строя за время t – тоже со-
бытие; интервал времени – тоже событие; выпадение какого-либо числа при
БГ
бросании кости – событие. Но случайный результат опыта можно охарактери-
зовать и количественно. Например, число попаданий в цель при трех выстрелах;
число телевизоров, выходящих из строя за время t, и др. Количественной ха-
рактеристикой случайного результата опыта является случайная величина.
а
Случайной величиной называется величина, которая в результате экс-
ек
перимента может принять то или иное (но только одно) значение, причем за-
ранее неизвестно, какое именно.
Случайные величины будем обозначать заглавными буквами латинского
т
35
2. Пусть случайная величина Y – число телефонных звонков, поступаю-
щих в вашу квартиру в течение суток. Тогда случайная величина Y может при-
нимать следующие значения: y1 0 , y2 1 , y3 2 , ... .
3. Если случайная величина Z – число дефектных транзисторов в партии
из n штук, тогда возможные значения этой случайной величины могут прини-
мать значения: z0 0 , z1 1 , …, zn n .
Непрерывной случайной величиной (НСВ) называется величина, воз-
можные значения которой непрерывно заполняют некоторый интервал число-
вой оси (конечный или бесконечный).
Число возможных значений непрерывной случайной величины бесконеч-
Р
но. Примеры непрерывной случайной величины:
1. Случайное отклонение по дальности точки падения снаряда от цели
УИ
(рис. 2.1).
БГ
Рис. 2.1
рывные.
Например, специальные радиотехнические сигналы, изображенные на рис. 2.2.
бл
А
Би
t
ДСВ НСВ ДСВ НСВ
Рис. 2.2
36
Здесь на одних участках числовой оси появляются пачки импульсов – ко-
личество импульсов описывает дискретная случайная величина. На других уча-
стках числовой оси появляются импульсы, длительность которых меняется
случайным образом – длительность импульсов описывает непрерывная случай-
ная величина.
2.2. Законы распределения случайных величин
Пусть нам известны значения x1 , x2 , …, xn дискретной случайной вели-
чины. Однако знание возможных значений случайной величины не позволяет
полностью описать случайную величину, т. к. мы не знаем, как часто следует
ожидать появления тех или иных возможных значений случайной величины в
Р
результате повторения опыта при одном и том же комплексе условий. В резуль-
УИ
тате опыта, случайная величина X может принять только одно из возможных
значений {X = x1 }, {X = x2 }, …, {X = xn }. Эти события являются несовместными
и образуют полную группу событий, т. к. никаких других событий в результате
опыта произойти не может. Обозначим вероятности этих событий: P(X= x1 )= p1 ,
БГ
P(X= x2 )= p2 , …, P(X= xn )= pn . Так как события {X= x1 }, {X= x2 }, …, {X= xn } об-
n n
разуют полную группу несовместных событий, то P( X xi ) pi 1 . Эта
i 1 i 1
суммарная вероятность каким-то образом распределена между отдельными
а
значениями случайной величины. Дискретная случайная будет полностью опи-
ек
ветствующие им вероятности.
Би
X X= x1 X= x2 … X= x n
P p1 p2 … pn
n
Для любой таблицы всегда должно выполняться p
i 1
i 1.
37
Р
Рис. 2.3
УИ
Вершины ординат соединяются ломаной линией только для наглядности,
т. к. в промежутках x1 и x 2 , x2 и x3 , … дискретная случайная величина никаких
значений принять не может и вероятность ее появления в этих промежутках
равна нулю.
БГ
Многоугольники распределения (см. рис. 2.3) могут иметь различную
форму, но имеют общее свойство – сумма ординат многоугольника распреде-
ления равна единице. Это следует из того, как отмечалось ранее, что все воз-
можные значения дискретной случайной величины X образуют полную группу
а
несовместных событий.
ек
Отсюда следует, что она существует для любых случайных величин: как
дискретных, так и непрерывных.
38
Определение функции распределения имеет простую геометрическую ин-
терпретацию. Если рассматривать случайную величину как случайную точку X
на оси Ox, которая в результате опыта может занять то или иное положение
(рис. 2.4), то функция распределения F(x) есть вероятность того, что случайная
точка X в результате опыта попадает левее точки x.
P ( X x)
Р
0 Х х Х
Рис. 2.4
УИ
Для дискретной случайной величины X функция распределения опреде-
ляется так:
БГ
F(x) = P( X x i ) . (2.2)
xi x
39
2. Вероятность попадания случайной величины в интервал [ полу-
замкнутый слева, равна разности значений функции распределения на концах
интервала:
P( X<) = F()–F(). (2.3)
Доказательство:
На рис. 2.7. изображены события: событие А состоит в том, что случайная
величина Х принимает значение меньше : А={X<событие В состоит в том,
что Х принимает значение лежащее между и : В={ X<}; событие С со-
стоит в том, что случайная величина Х принимает значение меньше β:
Р
С={X<.
УИ
А В
БГ
Х
Рис. 2.7
а
Можно записать: С=А В, события А и В несовместны, т. е. А В= O
.
ек
40
При неограниченном перемещении точки x влево, когда х , попада-
ние случайной точки X левее x в пределе становится невозможным событием.
То есть никакая случайная величина принять значение меньшее не может.
Невозможное событие обозначается пустым множеством Ø, а значит и вероят-
ность этого события равна нулю: F( ) = P(X< ) = P( O
) = 0. При неогра-
ниченном перемещении точки x вправо, когда х , попадание точки X левее
x в пределе становится достоверным событием, т. е. любая случайная величина
в результате опыта принимает значение меньшее . Достоверное событие
обозначается Ω, и вероятность этого события равна единице:
F( ) = P(X< ) = P( ) = 1.
Все свойства функции распределения можно сформулировать так: каждая
Р
функция распределения является неотрицательной, неубывающей функцией,
удовлетворяющей условиям F( ) = 0, F( ) = 1.
УИ
Отметим, что свойства функции распределения 1, 3, 4 называются ха-
рактеристическими, т. е. функцией распределения может быть только та функ-
ция, которая удовлетворяет этим свойствам.
Пример.
БГ
Для дискретной случайной величины заданной рядом распределения по-
строить функцию распределения.
Ряд распределения имеет следующий вид.
а
X x1 = 1 x2 = 2 x3 = 4
ек
xi x
1. х1 =1, F(1) = P( X xi ) = 0.
x i 1
xi 2
41
Р
Рис. 2.8.
УИ
Опишем построение функции распределения F(x). Рассмотрим первый
промежуток по оси Х (от до 1): согласно пункту 1, значение F(x) = 0 и ли-
ния идет по оси Х от до 1 включительно. На втором промежутке по оси Х
(от 1 до 2), согласно пункту 2, значение F(x) = 0,2 – проводим ступеньку высо-
БГ
той 0,2. На третьем промежутке (от 2 до 4), согласно пункту 3, значение
F(x) = 0,7 – проводим ступеньку высотой 0,7. На четвертом промежутке (от 4
до ), согласно пункту 4 значение F(x)=1 – проводим ступеньку высотой 1. В
точках Х = 1, 2, 4 функция распределения F(x) имеет разрыв.
а
2.4. Плотность распределения непрерывной случайной величины
ек
x x
Пусть функция распределения F(x) непрерывная и дифференцируемая,
вычислим предел от обеих частей (2.5), когда x 0:
P ( x X x x ) F ( x x) F ( x ) dF ( x)
lim lim F ( x) .
x 0 x x 0 x dx
42
стка x, когда x 0, называется плотностью распределения (или плотно-
стью вероятности) случайной величины в точке x, обозначается f(x) и вычис-
ляется как производная от функции распределения F(x):
dF ( x )
f(x) = = F (x ) . (2.6)
dx
Смысл плотности распределения f(x) состоит в том, что она показывает,
как часто появляется случайная величина X в окрестности той или иной точки
числовой оси при повторении опытов. Возможный вид f(x) показан на рис. 2.9.
На рис. 2.9 видно, что значение f(x1) – мало, значит в окрестности точки х1
случайная величина появляется редко, а значение f(x2) – значительно больше f(x1),
Р
значит, в окрестности точки х2 случайная величина появляется гораздо чаще.
УИ
f(x)
f(x2)
БГ
а
f(x1)
x
ек
x1 x2
Рис. 2.9
т
Доказательство:
Из формулы (2.6) можно записать dF ( x) f ( x)dx . Интегрируя обе части,
получаем
x x
Р
вал ( равна определенному интегралу от плотности распределения, взя-
тому по этому интервалу:
УИ
P( < X < ) = f ( x)dx .
Доказательство:
БГ
На основании свойства 2 функции распределения и замечания к нему
имеем
P ( X ) P ( X ) F() – F() = f ( x )dx f ( x)dx =
а
ек
Рис. 2.11
Би
f ( x)dx 1 . (2.8)
44
Доказательство:
Из свойства 2 и 4 функции распределения имеем
F( )= f ( x)dx 1 .
Пример.
Задана плотность распределения
0 x a
f(x)= k a x b .
0 x b
Определить коэффициент k и функцию распределения F(x).
Р
Решение.
b
УИ
1
f ( x ) dx kdx k ( b a ) 1 ; Отсюда k = .
a ba
Построим график f(x) (рис. 2.12).
БГ
а
ек
Рис. 2.12
т
x xa
F(x) = f ( x )dx a x b.
b a
1 x b
бл
a X
b
Рис. 2.13
45
ГЛАВА 3. МНОГОМЕРНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ
Р
тию можно поставить в соответствие не одну случайную величину, а не-
сколько : x1 () , x2 () … .
УИ
Пример 1.
Пусть вероятностный эксперимент состоит в рождении ребенка. Тогда
каждому элементарному событию (каждому новорожденному) можно поста-
БГ
вить в соответствие следующие числа: X 1 () – рост, X 2 () – вес, X 3 () – пол
(0 или 1). Таким образом , эксперимент Е описывается трехмерной случайной
величиной, или системой трех случайных величин, или трехмерным вектором
( X 1 () , X 2 () , X 3 () ).
а
Пример 2.
Пусть эксперимент состоит в измерении коэффициента усиления транзи-
ек
46
Y
(x, y)
Y
X X
Рис. 3.1
Р
Систему трех случайных величин ( X ,Y , Z ) можно рассматривать как слу-
чайный вектор в трехмерном пространстве, а при n-составляющих – как
УИ
n -мерный случайный вектор.
При изучении многомерных случайных величин ограничимся рассмотре-
нием двумерной случайной величины, т. к. все положения, касающиеся дву-
мерных случайных величин, легко распространить на n -мерные случайные ве-
личины.
БГ
3.2. Закон распределения многомерной случайной величины
а
ек
X x1 x2 … xn
Y
y1 P11 P21 … Pn1
Би
y2 P12 P22 … Pn 2
… … ... … ...
ym P1m P2 m … Pnm
47
временно с этим случайная величина Y примет начение yj :
Pij P({ X x i } {Y y j }) . Вероятности Pij сведены в таблицу.
Все возможные события, X xi ,Y y j , i 1, n, j 1, m , составляют
полную группу несовместных событий:
n m
P X x Y y 1 .
i 1 j 1
i j
Р
Как отмечали ранее, для непрерывной одномерной случайной величины
задать закон распределения в виде таблицы невозможно, поэтому и для непре-
УИ
рывных двумерных случайных величин закон распределения задается в виде
функции распределения.
Функцией распределения двумерной случайной величины называется
функция двух аргументов F(x,y), равная вероятности совместного появления
БГ
двух событий, при которых X x и Y y :
F ( x, y ) P ( X x Y y ) . (3.1)
а
Геометрически функция распределения двумерной случайной величины
представляет собой вероятность попадания случайной точки (X,Y) в левый
ек
x ,y
ио
x
бл
Рис. 3.2
1. 0 F x, y 1 .
Это следует из определения функции распределения (3.1), т. к. F(x,y) –
это вероятность, а вероятность любого события лежит в пределах от нуля до
единицы.
2. Если один из аргументов стремится к плюс бесконечности, то дву-
мерная функция распределения стремится к функции распределения одной СВ,
соответствующей другому аргументу.
a) пусть х = , тогда
48
F , y P X Y y P Y y P Y y F2 y .
Геометрически F2 ( y ) – это вероятность попадания случайной точки (Y) в
заштрихованную область (рис. 3.3).
y
Р
Рис. 3.3
б) пусть у = + , тогда
УИ
F x, P X x Y P X x P X x F1 x .
Геометрически F1 ( x) – это вероятность попадания случайной точки (Х) в
заштрихованную область (рис. 3.4).
БГ
а y
x x
ек
Рис. 3.4
т
край, граница).
3. Если оба аргумента стремятся к , то функция распределения
стремится к 1:
бл
F , P X Y P 1 .
Квадрант с вершиной (x,y) (см. рис. 3.2) обращается во всю координатную
плоскость xOy, попадание случайной точки в которую есть достоверное
Би
событие.
4. При стремлении одного или обоих аргументов к функция распреде-
ления стремится к 0:
F , y F x, F , 0.
Пусть х = – , тогда
F , y P X Y y P o Y y P o 0 .
5. Функция распределения является неубывающей функцией по каждому
аргументу:
49
F x2 , y F x1 , y , x2 x1
.
F x, y2 F x, y1 y2 x1
6. Вероятность попадания случайной точки (X,Y) в произвольный прямо-
угольник со сторонами, параллельными координатным осям, вычисляется по
формуле (рис. 3.5):
P x Y F , F (, ) F , F , .
Y
(, ) (, )
Р
УИ
( , ) (, )
X
Рис. 3.5
БГ
Свойства 1–5 называются характеристическими, т. е. любая функция,
удовлетворяющая этим свойствам является функцией распределения двумер-
а
ной случайной величины.
ек
когда длины обеих сторон его стремятся к нулю, и вычисляется как вторая
смешенная частная производная от функции распределения :
P x X x x y Y y y 2 F x, y
lim f x, y . (3.2)
x 0 xy xy
y 0
50
y
y y
x x x x
Рис. 3.6
Р
УИ
f(x,y)
БГ
а
Y
ек
D
X
т
Рис. 3.7
ио
F x, y f x, y dxdy . (3.3)
3. Вероятность попадания в произвольную область D получается путем
разбиения D на n элементарных областей xy и суммирования f(x,y) xy по
D при xy 0 и выражается, как двойной интеграл, по заданной области D:
P X , Y D f x, y dxdy . (3.4)
D
51
Геометрически эта вероятность представляет собой объем цилиндриче-
ского тела, ограниченного сверху поверхностью распределения и опирающего-
ся на эту область (рис. 3.7).
4. На основании свойства 2 двумерной функции распределения имеем
маргинальные плотности распределений каждой составляющей:
f1 x f x, y dy, f2 y f x, y dx . (3.5)
Доказательство:
Из свойства 2 двумерной функции распределения имеем
x
Р
F1 ( x ) F ( x, ) f ( x, y )dxdy ,
УИ
учитывая, что плотность распределения одномерной случайной величины равна
F ( x ) , получим после дифференцирования по х:
f1 ( x ) F ( x) f ( x, y )dy .
БГ
Аналогично получаем f 2 ( y ) для другой составляющей.
Замечание. Плотность распределения одной составляющей двумерной
случайной величины определяется путем интегрирования f(x,y) в бесконечных
а
пределах по аргументу, соответствующему другой составляющей случайной
ек
величины.
5. Условие нормировки
f x, y dxdy 1 . (3.6)
т
Доказательство:
ио
52
гая составляющая двумерной случайной величины приняла определенное
значение.
Условный закон распределения может выражаться как условной функци-
ей распределения F x y , так и условной плотностью распределения f x y
(для случайной величины X при условии, что другая случайная величина Y при-
няла определенное значение). Рассмотрим условные плотности распределения.
По определению условной плотности распределения для случайной величины
X при условии, что случайной величины Y приняла определенное значение,
получим
P x X x x y Y y y
f x y lim . (3.7)
Р
x 0 x
y 0
УИ
P( A B)
Ранее мы вводили определение условной вероятности: P ( A B ) .
P( B)
Применим это определение к числителю формулы (3.7):
P x X x x y Y y y
БГ
P x X x x y Y y y .
P y Y y y
Подставляя это выражения в числитель формулы (3.7) и разделив числи-
тель и знаменатель (3.7) на y , получим
а
P x X x x y Y y y
ек
P y Y y y xy f x, y
f x y lim . (3.8)
x 0 y f2 y
y 0
т
f y x . (3.9)
f1 x
С учетом свойства 4 плотности двумерной случайной величины формулы
бл
f x, y dx
f x, y dy
53
Доказательство:
Из формул (3.8) и (3.9) имеем
f x, y f1 x f y x f 2 y f x y . (3.11)
Р
3. Условие нормировки:
УИ
F y f x y dx 1 .
БГ
3.6. Зависимые и независимые случайные величины
f x y f1 x . (3.12)
бл
f x y f1 x .
54
Тогда из (3.11) имеем f1 x f y x f 2 y f x y , подставляя в левую
часть этого равенства f1 x f x y , получим f y x f 2 y . Это и есть
условие независимости случайной величины Y от X.
Сформулируем и докажем следующую теорему.
Для того чтобы непрерывные случайные величины X и Y были независимы,
необходимо и достаточно, чтобы плотность распределения двумерной слу-
чайной величины (X,Y) была равна произведению плотностей распределения
отдельных составляющих двумерной случайной величины.
f x, y f1 x f 2 y . (3.13)
Р
Доказательство:
УИ
1. Условие необходимости. (Покажем что необходимость того, чтобы X и
Y были независимы; тогда выполнится (3.13)). Пусть X и Y – независимые слу-
чайные величины, т. е.
f x y f1 x , f y x f 2 y .
3.11), получаем
БГ
Подставив эти выражения в правую часть теоремы умножения (формула
f x, y f1 x f 2 y .
а
2. Условие достаточности. (Покажем, что достаточно, чтобы выполня-
лось условие (3.13), тогда X и Y будут независимы). Пусть f x, y f1 x f 2 y .
ек
f2 y
Это и есть условие независимости X от Y. Аналогично доказательство для не-
ио
Пример 1.
Пусть двумерная случайная величина (X,Y) задана плотностью распреде-
ления.
ax 2 y если 0 x 1 0 y 1,
f x, y
0 вне этой области.
Найти коэффициент a и показать, что случайные величины X и Y незави-
симы.
55
Решение.
Для определения коэффициента a используем условие нормировки
2
ax
ydxdy 1 .
Р
Найдем плотности распределений отдельных составляющих f1 ( x) и
f 2 ( y ) , применяя (3.4):
УИ
1 2 1
2 2 y
f1 x f x, y dy 6 x ydy 6 x 3x 2 ,
0
2 0
1
БГ
1
2 x3
f 2 y f x, y dx 6 x ydy 6 y 2 y.
0
3 0
Подставим эти выражения в условие (3.13):
f x, y f1 x f 2 y 6 x 2 y .
а
Значит случайные величины X и Y независимы.
ек
f2 y 2y
Видим, что выполняется условие (3.12), значит случайные величины X и
ио
Y независимы.
3-й способ проверки независимости X и Y.
Все предыдущие вычисления можно не делать, а сослаться на следствие к
бл
56
Y
y=x y=2x-6
1 D
0 1 2 4 X
3
Р
Рис. 3.8
УИ
Найти константу с.
Решение.
Запишем уравнения прямых (см. рис. 3.7): y x, y 2 x 6 .
БГ
Используем условие нормировки f ( x, y )dxdy 1 .
Этот интеграл вычислим в виде суммы трех интегралов, разбивая область
D на три части (пунктирные прямые на рис. 3.8):
а
2 x 3 2 4 2
2 3 4
ек
c dx dy dx dy dx dy c xdx 2dx [2 (2 x 6)]dx =
0 0 2 0 3 2 x 6 0 2 3
т
x2 2x 2
= c 2
0
3
2 x
2
4
3 8 x 4
3 = с5 = 1; с = 1/5.
2 2
ио
бл
Би
57
ГЛАВА 4. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ
СЛУЧАЙНЫХ ВЕЛИЧИН
Р
лее характерные его черты. Поэтому для общей характеристики случайных ве-
личин используют некоторые величины, которые называются числовыми ха-
УИ
рактеристиками. Они позволяют в сжатой форме выразить наиболее суще-
ственные особенности того или иного распределения. Важнейшими из них яв-
ляются: математическое ожидание, дисперсия, среднее квадратическое откло-
нение.
БГ
4.1.1. Математическое ожидание
N
Тогда среднее значение случайной величины можно определить так:
N N
1 1 1 1
Би
58
Математическим ожиданием дискретной случайной величины Х на-
зывается сумма произведений всех возможных значений случайной величины
на их вероятности:
N
M X xk pk . (4.1)
k 1
Рассмотрим непрерывную случайную величину X, все возможные значе-
ния которой принадлежат интервалу [a, b]. Пусть f(x) – плотность распределе-
ния. Разобьем интервал [a, b] на n отрезков x1 , x 2 ...x n . Вероятность попада-
ния случайной величины X на элементарный участок xk равна
pk f xk xk , (k 1, n) . Тогда по аналогии с определением математического
Р
ожидания для дискретной случайной величины запишем
n
УИ
x k pk xk f xk xk .
k 1
Перейдем к пределу при xk 0 , получим определенный интеграл:
n b
БГ
lim
xk 0
x f x x xf x dx .
k 1
k k k
a
Математическим ожиданием непрерывной случайной величины Х,
возможные значения которой принадлежат отрезку [a,b] называется опреде-
а
ленный интеграл:
b
ек
M X xf x dx . (4.2)
a
Если плотность распределения f(x) определена на всей числовой оси,
т
тогда:
M X xf x dx . (4.3)
ио
Физический смысл математического ожидания. Математическое ожида-
ние – это абсцисса центра тяжести стержня, имеющего массу, равную единице,
бл
f (x)
f(x)
X x
mx mx
59
4.1.2. Общее определение математического ожидания
Р
Y
УИ
(b ) y ( x)
yi
yi1
БГ
а
(a )
ек
a xi1 xi b X
т
Рис. 4.3
60
Р
lim
xk 0
x P x
k
k 1 k 1 X xk xk 1 f ( xk )xk x f ( x )dx.
k 1 a
УИ
Таким образом, общее определение математического ожидания для не-
прерывной случайной величины запишется так:
b
M ( X ) ( x) f ( x)dx . (4.5)
БГ
a
M x xk pk . (4.7)
k 1
ио
M ( X , Y ) ( x, y ) f ( x, y)dxdy .
Для дискретной случайной величины
m n
M X , Y ( xi , y j ) pij .
j 1 i 1
61
4.1.3. Свойства математического ожидания
Р
2. Свойство аддитивности. Математическое ожидание суммы случайных
величин равно сумме математических ожиданий:
УИ
M X Y M X M Y .
Доказательство:
Из определения математического ожидания имеем
БГ
M X Y x y f x, y dxdy xf ( x, y)dxdy yf ( x, y )dxdy
x
f x , y dy dx y f x , y dx dy
а
ек
yf 2 y dy M X M Y .
ио
Аналогично доказывается
M X Y M X M Y .
3. Если С – постоянный множитель, то его можно выносить за знак мате-
бл
матического ожидания:
M CX CM X .
Би
Доказательство:
Воспользуемся общим определением математического ожидания для
Y x (4.6).
Пусть Y CX , тогда M CX Cxf x dx C xf x dx CM X .
4. Мультипликативное свойство. Для независимых случайных величин X
и Y математическое ожидание произведения этих величин равно произведению
их математических ожиданий:
62
M XY M X M Y .
Доказательство:
M X Y xyf x, y dxdy
с учетом независимости случайных величин
формула (3.13): f x, y f1 x f 2 y , получим
xf x dx
1
yf 2 y dy M X M Y .
Р
5. Величина X M X называется центрированной случайной величиной,
УИ
0
обозначим ее X . Тогда справедливо следующее соотношение
M X M X 0 .
Доказательство:
БГ
M X M X M X M M X M X M X 0 .
Pi f(x)
бл
Би
x x
xmod xmod
63
f (x) f (x)
x x
xm1 xm 2 a b
Р
Распределения случайных величин бывают одномодальные (рис. 4.5),
двумодальные (рис. 4.6), полимодальные и антимодальные – моды не имеют
УИ
(рис. 4.7).
Для определения моды необходимо продифференцировать плотность
распределения – f ' x , приравнять к нулю производную: f ' x 0 , и решить
это уравнение относительно x.
БГ
Медианой xmed произвольной случайной величины X называют такое ее
значение, относительно которого равновероятно получение большего или
меньшего значения случайной величины:
P ( X xmed ) P( X xmed ) 0,5 .
а
С геометрической точки зрения медиана непрерывной случайной вели-
ек
P1
бл
P2
xmed x
Би
Рис. 4.8
64
Очевидно, что квантиль порядка 0,5 – это медиана, которая определяется
из уравнения F xmed 0,5.
Р
показывают, насколько тесно сгруппированы возможные значения случайной
УИ
величины около ее среднего значения – математического ожидания.
Основными из них являются дисперсия и среднее квадратическое откло-
нение.
Для определения этих характеристик используется разность между слу-
БГ
чайной величиной X и ее математическим ожиданием. Ранее в свойстве 5 мате-
матического ожидания мы дали определение, в котором центрированная слу-
0
чайная величина обозначается X и определяется как X M X . В свойстве 5
0
а
мы показали, что M [ X ] 0 , т. е. математическое ожидание центрированной
случайной величины никак не характеризует ее рассеивание, а указывает лишь
ек
на то, что значения отклонения – числа разного знака. Поэтому в качестве меры
рассеивания случайной величины берут математическое ожидание квадрата
центрированной случайной величины.
т
ния и обозначается
2
D X M X M [ X ] . (4.9)
бл
2
D X x mx f x dx . (4.10)
Аналогично, применив формулу (4.7), дисперсия для дискретной случай-
ной величины
n
2
D X xi mx pi . (4.11)
i 1
65
Подчеркнем еще раз смысл дисперсии: дисперсия – мера рассеивания (или
отклонения) случайной величины относительно ее математического ожидания.
f(x) D1
D2
Р
x
mx
УИ
Рис. 4.9
На рис. 4.9 показаны два варианта распределения для двух разных слу-
чайных величин. Видим, что у более плоской кривой отклонение от среднего
БГ
значения mx (можно взять по среднему уровню кривой) больше, чем у остроко-
нечной кривой. Значит, дисперсия D2 будет больше дисперсии D1.
Использование дисперсии хотя и удобно для характеристики рассеивания
случайной величины X, но лишено наглядности, т. к. имеет размерность квад-
а
рата случайной величины. Поэтому на практике для рассеивания (или отклоне-
ния) чаще используют характеристику, совпадающую по размерности со слу-
ек
как x :
ио
x D[ X ] . (4.12)
Свойства дисперсии
1. Дисперсия постоянной величины ( C const ) равна нулю:
бл
D C 0 .
Доказательство:
Би
66
Доказательство:
2 2
D CX M CX M CX M CX CM X
2 2
M C 2 X M X C 2 M X M X C 2 D X .
3. Дисперсия случайной величины равна математическому ожиданию
квадрата случайной величины минус квадрат ее математического ожидания:
2
D X M X 2 M X .
Доказательство:
Р
2 2
D X M X M X M X 2 2 XM X M X
УИ
2 2
M X 2 2 M X M X M X M X 2 M X .
4. Для независимых случайных величин дисперсия суммы или разности
случайной величины равна сумме дисперсии:
Доказательство:
2
БГ
D[ X Y ] D[ X ] D[Y ] .
2
D X Y M X Y M X Y M X M X Y M Y
а
ек
2 2
M X M X 2M X M X Y M Y M Y M Y
D X D Y 2M X M X Y M Y .
бл
Окончательно получаем:
D X Y D X D Y .
67
Доказательство:
Обозначим X Y Z .
По определению дисперсии
0
D[ X Y ] D[ Z ] M [Z 2 ] M [( Z mz ) 2 ] . (4.14)
Поскольку X и Y независимые – mz mx my ,
D[ X Y ] M [( X Y mx m y ) 2 ]
(4.15)
M [ X 2 Y 2 ] 2mx m y M [ X Y ] mx2 m 2y .
Р
Если X и Y независимые, то X 2 , Y 2 тоже независимы, тогда
УИ
M [ X 2 Y 2 ] M [ X 2 ] M [Y 2 ] , (4.16)
M [ X Y ] mx m y .
Подставим (4.16) в выражение (4.15) и получим
D[ X Y ] M [ X 2 ] M [Y 2 ] mx2 m 2y .
Отсюда получим
M [ X 2 ] D[ X ] mx2 . (4.18)
т
D[ X ] D[Y ] mx 2 D[Y ] m y2 D[ X ].
Би
68
В теории вероятностей моменты бывают двух видов: начальные и цен-
тральные.
Начальным моментом k-го порядка случайной величины X называется
математическое ожидание случайных величин X k .
Обозначать начальный момент k-го порядка будем k и определим так:
k M X k . (4.20)
Используя общее определение математического ожидания (4.6), легко за-
писать начальный момент k-го порядка для непрерывной случайной величины,
если обозначить ( x) X k :
Р
k
k x f x dx . (4.21)
УИ
БГ
n
k xik Pi . (4.22)
i 1
Особо важное значение имеет начальный момент первого порядка. Видим,
что при k = 1 1 M X и представляет математическое ожидание. Начальные
а
моменты высших порядков используются для вычисления центральных моментов.
ек
следующим образом:
k M ( X mx )k . (4.23)
ио
Применяя формулу (4.7), центральный момент k-го порядка для дискрет-
ной случайной величины рассчитывается так:
n
k
k xi mx Pi . (4.25)
i 1
С учетом свойства 5 математического ожидания отметим, что централь-
ный момент первого порядка всегда равен нулю. Центральный момент второго
порядка является дисперсией случайной величины X и через 1-й и 2-й началь-
ные моменты (используем свойство 3 дисперсии) определяется так:
69
2
2 D X M X 2 M X 2 12 .
Третий центральный момент 3 служит характеристикой асимметрии
(«скошенности») распределения. Если случайная величина X распределена
симметрично относительно своего математического ожидания, то
3
3 M X mx 0 . Третий центральный момент имеет размерность куба
случайной величины, поэтому при решении практических задач для характери-
стики асимметрии чаще пользуются безразмерной величиной – коэффициен-
том асимметрии: A 3 / 3 . На рис. 4.10 и 4.11 показана положительная и от-
рицательная асимметрия соответственно.
Р
f (x)
УИ
f (x)
БГ
A0 A 0
x x
а
Рис. 4.10 Рис. 4.11
ек
f(x)
бл
Э>0
Э=0
Би
Э<0
mx x
Рис. 4.12
70
4.1.6. Числовые характеристики двумерной случайной величины.
Ковариация. Коэффициент корреляции
Р
M XY 2M X M Y M X M Y
M XY M X M Y , (4.26)
УИ
где математическое ожидание составляющей Х для непрерывной двумерной
случайной величины (X, Y) вычисляется так:
БГ
mx xf x, y dxdy xf x dx .
1 (4.27)
K xy xi mx y j m y Pij xi y j Pij mx m y .
бл
(4.29)
i j i j
71
тогда (4.24) принимает следующий вид:
K X ,Y x m y m f x, y dxdy x m f x d y m f y dy
x y
x 1
y 2
x m f x dx xf x dx m f x dx m
x
x
x mx 0.
Р
ны, но на практике для характеристики связи чаще используют безраз-
мерные величины. Поэтому составляющие нормируют. Если положить
УИ
X ( X mx ) / x , Y (Y m y ) / y , то корреляционный момент нормированных
случайных величин X и Y называется коэффициентом корреляции и обознача-
ется
БГ
X m Y m y mxy mx m y K
xy M [ XY ] M x
xy . (4.31)
x y
x y
x y
0 D X Y D X D Y 2cov X Y
X mx 1 2
но: D X D 2 M X mx 1
бл
x x
2 1 xy 1 xy 1.
Би
72
Y
Y
xy = –1
xy = +1
X X
а b
Р
УИ
Y
xy 0 Y
xy =0,5
БГ
а
X X
ек
c d
Рис. 4.13
т
73
ГЛАВА 5. ФУНКЦИИ СЛУЧАЙНЫХ ВЕЛИЧИН
Р
жет быть сформулирована следующим образом.
УИ
Дана многомерная случайная величина ( X 1 , X 2 ,..., X n ), закон распределе-
ния которой известен. Рассматривается некоторая случайная величина Y как
функция от случайных величин X 1 , X 2 ,..., X n :
Y ( X 1 , X 2 ,..., X n ) .
БГ
Требуется найти закон распределения случайных величин Y, зная вид
функции и закон распределения случайных величин ( X 1 , X 2 ,..., X n ).
X x1 x2 ... xn
ио
P p1 p2 ... pn
74
X y1 ( x1 ) y2 ( x2 ) ... yn ( xn )
P p1 p2 … pn
Р
т. е. одному значению у соответствует несколько значений xi i1 ( y ) , i 1, n .
УИ
БГ
а
Рис. 5.1
ек
n
P ({ y Y y y}) P({xi X xi x}) . (5.2)
i 1
Учитывая, что вероятность попадания случайной точки в малый интервал
приближенно равна произведению плотности распределения в какой-либо точ-
ке этого интервала на его длину, найдем
n
f y ( y )y f ( xi )xi . (5.3)
i 1
75
Разделив (5.3) на y , переходя к пределу при y 0 и подставив i1 ( y )
вместо xi , получим
d i1 ( y )
n
f y ( y ) f [i1 ( y )]
. (5.4)
i 1 dy
Здесь производную берем по модулю потому, что плотность распределе-
ния не может быть отрицательной.
Пример.
Пусть X – нормированная нормальная случайная величина с плотностью
2
Р
1 x2
распределения f ( x ) e и задана функциональная зависимость Y 3 X .
2
УИ
Найти f y ( y ) .
Строим график функции Y 3 X (рис. 5.2).
БГ
У
y3 Х y3 Х
а
ек
Х
Х1 Х2
т
Рис. 5.2
x1 11 ( y ) y 3 , x2 21 ( y ) y 3 .
Подставляем эти значения в (5.4):
dy 3 dy 3 1 1
бл
6 6
f y ( y) f ( y3 ) f ( y 3 ) e y / 2 3 y 2 e y / 2 3 y 2
dy dy 2 2
6 y 2 y6 / 2
e .
Би
2
Y1 1 ( X 1 , X 2 ) , Y2 2 ( X 1 , X 2 ) . (5.5)
76
Требуется найти плотность распределения f y ( y1 , y2 ) двумерной случай-
ной величины ( Y1 ,Y2 ).
Найдем обратные функции:
X 1 11 (Y1 , Y2 ) , X 2 21 (Y1 , Y2 ) . (5.6)
Пусть эти функции – многозначные или n-значные. То есть попадание
случайной точки ( Y1 ,Y2 ) в элементарную область G на плоскости ( Y1 ,Y2 ) рав-
носильно попаданию случайной точки ( X 1 , X 2 ) или в область G1 , или в об-
ласть G2 …, или в область Gn , где ( Gi , i 1, n ) – непересекающаяся область
на плоскости X 1 X 2 (рис. 5.3).
Р
X2
УИ
Y2
G G1
Y1
БГ Gn
G2
X1
а
Рис. 5.3
ек
i 1
Так как события, записанные в (5.7), равносильны, то и вероятности этих
событий одинаковы. Применяя к правой части (5.7) третью аксиому, получаем
Би
n
P ({(Y1 , Y2 ) G}) P ({(X 1 , X 2 ) Gi }) . (5.8)
i 1
Если площадки Gi – достаточно малы, то вероятность попадания дву-
мерной случайной величины ( X 1 , X 2 ) на площадку Gi можно приближенно
вычислить, используя определение двумерной плотности (см. раздел 3.4, фор-
мула (3.2)). Тогда формула (5.8) запишется в следующем виде:
n
f y ( y1 y2 )G f ( x1i , x2 i )Gi , (5.9)
i 1
77
где x1i 1i1 ( y1 , y2 ) ,
x2i 2i1 ( y1 , y2 ) ,
i 1, n (5.10)
представляют собой соответствующие n ветвей преобразования (5.6).
Gi
Но, как известно, отношение элементарных площадей в пределе при
G
преобразовании переменных равно соответствующему Якобиану (определите-
лю 2-го порядка из частных производных). Следовательно, разделив (5.9) на
G и перейдя к пределу при G 0 , получим
Р
n
( x1i , x2i )
f y ( y1 y2 ) f ( x1i , x2i ) , (5.11)
( y y )
УИ
i 1 1 2
гаемое.
При решении практических задач часто используется следующая функ-
циональная зависимость: Y ( X 1 X 2 ) . Тогда перейти к формулам (5.6) – (5.12)
т
Y ( X 1 X 2 ) . (5.13)
1
Положим для простоты, что обратная функция – однозначна (n = 1),
бл
78
Подставляем эти выражения в (5.11):
1 1 ( y1 , y )
f y ( y1 y ) f ( y1 , ( y1 , y )) .
y
Интегрируя это выражение по y1 (и заменяя y1 на x1 ), получаем
1 1 ( x1 , y )
f y ( y) f y ( y1 , y )dy1 f y ( x1 , ( x, y )) dx1 . (5.15)
y
5.3. Распределение суммы независимых случайных величин
Р
Пусть для независимых случайных величин X 1 и X 2 известны плотности
распределений f1 ( x1 ) и f 2 ( x2 ) . Задана функциональная зависимость Y X 1 X 2 .
УИ
Требуется найти плотность распределения случайной величины Y. Эта задача
рассматривается в качестве примера на использование формулы (5.15).
Запишем случайные величины вида (5.13):
БГ
Y1 X 1 , Y X1 X 2 .
Определим обратные функции:
X 1 Y1 , X 2 1 ( x1 , y ) y x1 .
а
1 ( y x1 )
ек
Найдем 1.
y y
Подставляя в формулу (5.15), получим
т
f y ( y) f y ( x1 , y x1 )dx1 =│т. к. X 1 и X 2 независимы, то
ио
f y ( x1 , x2 ) f1 ( x1 ) f 2 ( x2 ) │= f1 ( x1 ), f 2 ( y x1 )dx1 . (5.16)
бл
79
Используя общее определение математического ожидания, запишем ха-
рактеристическую функцию для непрерывной случайной величины, если задана
плотность распределения f ( x) :
jtx
g (t ) e f ( x)dx . (5.18)
Р
g (t ) eitxK pk . (5.19)
k 1
УИ
Характеристическая функция существует для любой случайной величины,
поскольку ввиду равенства eitx 1 ряд (5.19) и интеграл (5.18) сходятся абсо-
лютно.
Свойства характеристической функции
f ( x )dx =1.
а
2. g (t ) 1 .
ек
1
f ( x) e itx g (t )dt . (5.20)
2
ио
k 1
jtxI
Из независимости X i следует независимость e . Применяя свойство
мультипликативности математического ожидания, получим
n n n
g y (t ) M [e i ] M [ e jtxi ] M [e jtxi ] g i (t ) .
jt x
i 1 i 1 i 1
6. Пусть у случайной величины Х существует начальный момент k-го по-
рядка k . Тогда, зная характеристическую функцию, можно найти начальный
момент k-го порядка:
80
g ( k ) (0)
k , (5.21)
ik
где g ( k ) (0) – k-я производная при t = 0.
Доказательство:
Дифференцируя (5.18) по t к раз, получим:
первую производную
g (t ) (ix) eitx f ( x)dx ,
dt
вторую производную
Р
2 itx
g (t ) (ix) e f ( x)dx ,
УИ
……..
k-ю производную
(k ) k itx
БГ
g (t ) (ix) e f ( x)dx .
Полагая t 0 ,
(k ) k k
g (0) i x f ( x )dx i k k ,
а
(k )
ек
g (0)
откуда получаем k .
ik
т
ио
бл
Би
81
ГЛАВА 6. ОСНОВНЫЕ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ
СЛУЧАЙНЫХ ВЕЛИЧИН В ТЕОРИИ ВЕРОЯТНОСТЕЙ
Р
Пусть производится n опытов, в каждом из которых наступает событие А
УИ
с одной и той же вероятностью Р. Обозначим Х как число наступлений события
А в этих n опытах. Тогда Х – дискретная случайная величина и вероятности
возможных ее значений записываются с использованием формулы Бернулли:
Pn ( X xk k ) Cnk p k q nk .
БГ
Ряд распределения, в котором вероятности определяются с использова-
нием формулы Бернулли, называется биномиальным распределением.
Закон описывает вероятность во многих задачах, таких, как число эле-
ментов радиоаппаратуры, выходящих из строя за время t; число приборов, вы-
а
ходящих из строя за время t при испытаниях на надежность и др.
ек
X 0 1 ... k ... n
т
1 ( p q) n Cnk p k q n k .
k 0
В правой части стоит бином Ньютона, откуда и произошло название би-
Би
номиального распределения.
Пространство элементарных событий здесь дискретно и состоит из
n 1 элементарного события: 0 , 1 , 2 ,..., n , где k – элементарное событие,
состоящее в том, что при n опытах событие А наступит к раз.
На рис. 6.1 изображено распределение вероятностей биномиального рас-
пределения. На рис. 6.2 приведено изображение функции распределения F ( x ) .
Это ступенчатая функция со скачками в точках разрыва X k , F ( x) P .
xK x
k
82
P
F (x)
x
0 1 2 . . . . N x
Рис. 6.1 Рис. 6.2
Р
Определим числовые характеристики случайной величины X, распреде-
ленной по биномиальному закону. Для этого используем аппарат характеристи-
УИ
ческих функций. Приведем алгоритм определения числовых характеристик,
который используется для любых законов распределения.
1. Определяем характеристическую функцию g(t), применяя формулы
(5.18), (5.19).
БГ
2. Находим первую g (t ) и вторую g (t ) производные от характеристиче-
ской функции.
3. Определяем значения производных при t = 0:
g (0) , g (0) .
а
4. Используем свойство 6 характеристической функции и, применяя (5.21),
ек
k 0 k 0 k 0
Продифференцируем ее 2 раза по t:
g (t ) n( peit q ) n1 peit i ,
Би
83
g (0)
1 np ,
i
g (0)
2 2
g (0) n 2 p 2 np 2 np n 2 p 2 np (1 p ) n 2 p 2 npq .
i
Найдем числовые характеристики:
M [ X ] 1 np ,
D[ X ] 2 12 n 2 p 2 npq n 2 p 2 npq .
Р
Распределение Пуассона описывает вероятности во многих задачах, таких,
УИ
как число отказов радиоэлектронной аппаратуры за время t, число радиоактивных
атомов, распавшихся к моменту t, число вызовов на телефонной станции и др.
Дискретная случайная величина Х имеет распределение Пуассона, если ее
закон распределения задан формулой
БГ
k
Pk P( X k ) e , (6.1)
k!
где k 0, ,
а
– параметр закона Пуассона,
= np.
ек
n
k nk
n! n!
lim Pn ( k ) lim p k q n k lim 1
n n ( n k )! k ! n ( n k )!k ! n n
Би
n k n
k n ( n 1)...( n k 1) k
lim 1 1 lim 1
n k !
n nk n k ! n n
k
1 2 k 1
lim 1 1 1 ... 1 1
n
n n n n
n k
k k
lim 1 lim 1 e .
k ! n n n n k!
84
Ряд распределения дискретной случайной величины Х записан с приме-
нением формулы (6.1):
X 0 1 ... k ...
P e e ... k e ...
k!
k
k
Найдем Pk e e e e 1 . Видим, что события X xk
k 0 k 0 k ! k 0 k !
Р
составляют полную группу.
Пространство элементарных событий здесь дискретно и состоит из счет-
УИ
k e
ного множества элементарных событий k : P (k ) P( X k ) . На
k!
рис. 6.3 приведено распределение вероятностей, а на рис. 6.4 график функции
распределения.
БГ
P
F (x)
а
ек
x x
т
0 1 2 k
itk
g (t ) e Pk e e
k 0 k 0 k! k 0 k!
xx x2 xn
= e 1 ... ... e eexp( it ) e(exp( it )1) .
Би
1! 2! n!
Продифференцируем 2 раза g (t ) :
85
g (0) i ,
g (0) 2 i 2 i 2 .
Определяем 1-й и 2-й начальные моменты:
i i 2 ( 2 )
1 ; 2 2
2 .
i i
Теперь найдем числовые характеристики:
M [ X ] ; D[ X ] 2 2 .
Видим, что для Пуассоновского закона M[X] и D[ X ] совпадают. Это по-
Р
зволяет сделать замечание: если для некоторой случайной величины M[X] и
D[ X ] совпадают, то такая случайная величина имеет, скорее всего, закон рас-
УИ
пределения Пуассона.
Закон распределения Пуассона служит приближением для биномиального
закона, если n 100; 0 np 10 .
f ( x)
0. x [a, b].
c
ио
b
1
f ( x )dx f ( x)dx c dx c (b a ) 1 = > c .
a
ba
Найдем функцию распределения:
x b x
dx x xa
F ( x) f ( x )dx .
a
ba ba a ba
86
0, x a,
x a F(x)
F ( x) , x [a, b],
b a 1
1, x b.
a b X
На рис. 6.6 приведен график F(x).
Рис. 6.6
Определим числовые характеристики:
b
Р
b
dx 1 x2 1 b2 a2 a b
M [ x] xf ( x )dx x ,
ba ba 2 a 2 ba 2
УИ
a
b b
2 2 2 dx 1 x3 1 b3 a 3 a 2 ab b 2
M [ x ] x f ( x)dx x ,
a
b a b a 3 a
3 b a 3
2
a 2 ab b 2 a b (b a ) 2
БГ
2 2
D[ x] M [ x ] ( M [ x]) .
3 2 12
e x 0.
На рис. 6.7 приведен график функции f(x), на рис. 6.8 приведен график
бл
функции распределения.
f (x )
F (x)
Би
x x
Р
1 2
1 , 2 2 .
УИ
Определим M[X] и D[X]:
2
1 2 1 1 1
M [ X ] 1 , D[ x] 2 2 , x .
БГ
Отметим, что M[X] и x совпадают; это позволяет сделать замечание: ес-
ли для случайной величины M[X] и x совпадают, то такая случайная величина
имеет скорее всего экспоненциальный закон распределения.
а
6.5. Нормальный (гауссовский) закон распределения
ек
( x m)2
1
2 2
f ( x) e . (6.2)
2
ио
Здесь x ,
и m – параметры.
На рис. 6.9 приведен график нормального закона.
бл
f(x)
Би
X
mx
Рис. 6.9
Вычислим интеграл:
( x m)2
1
2 2
xm
f ( x)dx e используем подстановку: u =
2
Р
2
u
1
e 2 du 1 .
УИ
2
БГ
ляет собой всю числовую ось (; ) .
Функция распределения для нормального закона записывается так:
x x ( x m )2
1
2 2
F ( x) f ( x)dx e dx .
а
2
ек
z
( x m )2 z2
it x 1 itx
2 1 it ( z )
g (t ) e f ( x)dx e e 2 dx dz dx e 2
dz
ио
2 2
x z
бл
z2 z2
it ( z m) itz itm
2 2
2 2
t 22
1 2 (it)2 1 itm t 2 1
( z it ) 2 itm
Би
2
itm ( z 2itz (it) ) e e 2 dz e 2
.
2 2 2
(it)2 1
itm ( z it)2
2 2
Р
уравнение
( x m )2
УИ
1 x m 2 2
f ( x ) 2
e 0.
2
При x m f ( x) достигает максимума, m является модой. Для определе-
БГ
ния точек перегиба функции необходимо решить уравнение
( x m)2
1 2 2
( x m) 2
f ( x ) 3 e 1 2 0 .
2
а
( x m) 2
1 0, ( x m) 2 2 .
ек
2
Видим, что функция имеет две точки перегиба: x m . На рис. 6.10
приведены кривые Гаусса для разных значений . На рис. 6.11 приведены кри-
т
f(x)
ио
f(x)
0,5
1
бл
1
2
2
Би
x mx x X m2 X
m1 m3
Р
6.5.1. Функция Лапласа
УИ
Определим вероятность того, что случайная величина, распределенная по
нормальному закону, попадет в интервал [, ] .
БГ
xm
t
m m
( x m ) 2 dx dt t2 t2
1 2 1 1
P ( x ) e 2 dx m e 2 dt e 2 dt
а
2 t 2 0 2 0
ек
m
t
т
1 m m
Ф Ф . (6.3)
2
ио
2
x t
2
Ф( x) e 2 dt . (6.4)
2 0
Би
Рис. 6.12
91
4. Значения Ф( x ) , применяющиеся наиболее часто:
Ф(0) 0 , Ф(1) 0,6827 , Ф(2) 0,9545 , Ф(3) 0,9373 , Ф(4) 0,99994 ,
x 4 , Ф( x) 1 .
Пример.
Цех на заводе выпускает транзисторы с емкостью коллекторного перехо-
да Ck =1,5 пФ. Сколько транзисторов попадет в группу «Б», если в нее попада-
ют транзисторы с емкостью коллекторного перехода от 1,80 до 2,00 пФ. Цех
выпустил партию в 1000 штук.
Р
Решение.
Статистическими исследованиями в цеху установлено, что Ck можно
УИ
трактовать как случайную величину, подчиняющуюся нормальному закону.
Чтобы вычислить количество транзисторов, попадающих в группу «Б»,
необходимо учитывать, что вся партия транзисторов имеет разброс параметров,
накрывающий всю (условно говоря) числовую ось. То есть кривая Гаусса охва-
БГ
тывает всю числовую ось, центр ее совпадает с X = m = 1,5 пФ (т. к. все уста-
новки в цеху настроены на выпуск транзисторов именно с этой емкостью). Ве-
роятность попадания отклонений параметров всех транзисторов на всю число-
вую ось равна 1. Поэтому нам необходимо фактически определить вероятность
а
попадания случайной величины Х в интервал [1,8; 2,0], а затем пересчитать ко-
ек
дает m xср 1,5 пФ, оценка среднего квадратического отклонения = 0,15 пФ.
Обозначая =1,8 пФ, = 2,0 пФ, подставим приведенные значения в (6.3):
бл
2 2 2
Тогда количество транзисторов n, попавших в интервал [1,8; 2,0] пФ,
можно найти так: n = 10000,022 = 22 шт. Таким образом можно планировать и
рассчитывать количество транзисторов, попадающих в ту или иную группу.
92
ГЛАВА 7. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ. ЗАКОН БОЛЬШИХ ЧИСЕЛ
Р
также касающихся предельных законов распределения, под общим названием
предельных теорем.
УИ
Закон больших чисел занимает важнейшее место в теории вероятностей.
Он устанавливает связь между математическими моделями эксперимента и
практикой. Этот закон выражается рядом теорем (Чебышева, Бернулли, Ляпу-
нова и др.). В этих теоремах указывают условия, при выполнении которых со-
БГ
вокупное действие многих случайных причин приводят к устойчивым резуль-
татам, практически независящим от случая.
а
7.1. Неравенство Чебышева
ек
M [ x2 ]
P ( x ) . (7.1)
2
ио
т. к. подынтегральная функция
бл
2 положительная, то уменьшение
M [x ] x 2 f ( x)dx x 2 f ( x)dx
x
пределов интегрирования ведет
Би
увеличивает интеграл
M [ x2 ]
P ( x ) .
2
93
Для дискретной случайной величины доказательство аналогично.
Полагая в (7.1) вместо X X M X (т. к. X – была произвольна) и пе-
реходя к противоположному событию, получим
D[ X ]
P ( X M [ X ] ) 1 . (7.2)
2
Это и есть неравенство Чебышева. Оно имеет большое теоретическое
значение, т. к. позволяет оценить вероятность отклонения случайной величи-
ны от ее среднего значения, когда неизвестен закон распределения, но извест-
ны только первые два начальных момента.
Пример.
Р
Полагая в (2) 3 , получим
2
УИ
1
P ( X M X 3) 1 2 1 0 ,899 ,
9 9
2
где D[ X ] .
Если Х – нормальная случайная величина, то P ( X M X 3) 0 ,997 ,
lim P{ X n X } 1 . (7.3)
n
94
Тогда среднее арифметическое этих величин сходится по вероятности к
среднему арифметическому их математических ожиданий:
1 n 1 n
lim P X i M [ X i ] 1 . (7.4)
n
n i1 n i1
где – любое, сколь угодно малое положительное число.
Доказательство:
1 n
Используем неравенство Чебышева (7.2). Положим вместо X Xi .
n i 1
1 n
Р
Определим M [ X ] M [ X i ] (применили свойство аддитивности).
n i 1
УИ
1 n
Вычислим дисперсию для X i :
n i 1
БГ
D X i 2 D X i 2 D X i 2 .
n i1 n i 1 n i1 D X i c n n
Подставляем полученные выражения в (7.2):
1 n 1 n c
а
P Xi M Xi 1 2 . (7.5)
n i1 n i1 n
ек
1
Переходя к пределу и учитывая, что lim 1 2 1 , а также то, что ве-
n
n
т
1 n 1 n
ио
lim P X i M X i 1 .
n
n i1 n i 1
На практике нередко используется следующий частный случай теоремы
бл
Чебышева.
Если x1 , x2 ,..., xn ,... – независимые случайные величины с одинаковым ма-
тематическим ожиданием, равным a, и равномерно ограниченной дисперсией
Би
1 n
lim P X i a 1 . (7.6)
n
n i1
95
Доказательство:
1 na
Это следует из (7.5), где
n
M[Xi]
n
a . Тогда правая часть в преде-
c
ле равна lim(1 ) 1.
n n 2
Таким образом, согласно теореме Чебышева, среднее арифметическое
большого числа слабозависимых или независимых (условие *) случайных вели-
чин является практически неслучайной величиной, т. е. постоянной, обладаю-
щей сколь угодно малой дисперсией. Причина этого явления – взаимное пога-
шение ошибок. Если прогноз каждого отдельного значения случайной величи-
Р
ны ненадежен, то прогноз среднего рифметического является достаточно на-
дежным.
УИ
Пример.
Пусть xk – результат k-го измерения длины, например комнаты.
1. Случайные величины x1 , x2 ,...xn – независимы.
2. M [ xi ] a – т. к. длина комнаты – существует.
n
вероятности p:
m
бл
lim P p 1. (7.7)
n
n
Доказательство:
Би
Xk x1 = 0 x2 = 1
Р 1– p p
96
2
M [ X k ] xi pi 0 (1 p ) 1 p p,
i 1
M [ X k2 ] xi2 pi 0 2 (1 p ) 12 p p,
i
2
D[ X k ] M [ X k2 ] M [ X ] p p 2 p (1 p ).
Р
1 n m
M [ X k ] p a, D[ X k ] p (1 p ) c , X k , т. к. в n опытах событие А на-
n k 1 n
УИ
ступает m раз, тогда из (7.6) получим
m
lim P p 1.
n
n
БГ
Формула (7.7) объясняется свойство устойчивости относительной часто-
ты, состоящей в том, что в разных опытах, проведенных в одинаковых условиях,
она колеблется около некоторого числа, которое есть не что иное, как вероят-
а
ность; (7.7) позволяет вместо неизвестной вероятности использовать известную
относительную частоту.
ек
Пример.
Пусть проводится эксперимент с броском монеты. Обозначим через со-
бытие А появление герба. Путь при n бросках герб появится m раз. Найдем от-
т
m
носительную частоту появления герба: . Повторяя такой опыт много раз,
n
ио
m
бл
n
0,5
Би
Рис. 7.1
Р
Распределение суммы независимых случайных величин X 1 , X 2 ,..., X n ,... ,
имеющих произвольный, но одинаковый закон распределения при n , стре-
УИ
мится к нормальному распределению. (Эти ограничения существенно упроща-
ют доказательство).
Доказательство:
Основная идея – найдем характеристическую функцию, a она окажется
БГ
характеристической функцией нормальной случайной величины.
n
Рассмотрим случайную величину Y X 1 X 2 ... X n X k .
i 1
а
Пусть случайные величины Xk имеют следующие числовые характери-
стики:
ек
M [ X k ], 2 D[ X k ] .
Нормируем случайную величину Y:
n n
т
n
D[Y ] k 1 n
M [Y ] M X k n
i 1
бл
k 1
k 1
т. к. случайныевеличины X k
независимы, тоиспользуем n it xk n
M e
свойствомультипликативности k 1
математического ожидания
98
разложим e x в ряд : 2
2 2 xk
n
x
x x2 x3 M 1 it k
i t ...
2
e 1 x ... k 1
2! 3!
n 2! n
n
n
M (M )
k 1
ограничимся 3 - мя n
t 2 2 c
членами разложения 1 2 3 ... .
и учтём, что 2 n n 2
Р
M [ X mx ] 0,
M [( X mx )2 ] 2 ,
УИ
Здесь с – некоторая постоянная, которая не зависит от n и содержит факториалы.
Переходя к логарифмам и используя формулу ln(1 ) , получаем
ln g (t ) n ln 1
t2
2n n 2 БГ
c t2 c
3 ... 1 ... .
2 n 2
Найдем предел этого выражения при n и увидим, что lim c 0,
а
n n
тогда
ек
t2
ln g (t ) .
2
т
t2
2
Потенцируя это выражение, получаем g (t ) e . Отсюда следует, что ха-
рактеристическая функция нормированной последовательности Y0 сходится к
ио
ные разные законы распределения. При этом требуется, чтобы никакое X k не до-
n
минировало над остальными слагаемыми в X
k 1
k . Этим и объясняется широкое
99
Решение.
Используем обратное преобразование Фурье:
t2 t2
для краткости
1 1 1 ity
f ( y0 ) e ity0 g (t )dt e ity0 e 2 dt e 2 dt записываем y
2 2 2
вместо y0
t2
ity
2
1 y2
(t 2 2ity (iy )2 1 1
U t iy e 2 U2
2 1 2
( iy ) ( t iy ) 2
e 2
e 2
dt e 2
dU
Р
2 1 2 2 dU dt 2
(iy ) ) (t iy )
2
УИ
1
(iy ) 2
2
2
1 y20
БГ
= e .
2
n
гаемые в Y X k являются дискретными случайными величинами. Пусть
k 1
т
Xk 0 1
Pk q p
1 b np a np
Р
P (a Y b) .
2 npq npq
УИ
2
z z
2
Это интегральная теорема Муавра – Лапласа, где ( z ) e 2 dz –
2 0
функция Лапласа.
БГ
Вероятность того, что при n независимых испытаниях события А насту-
пают ровно k раз (при больших n), удобно считать на основании локальной
теоремы Лапласа:
а
2
k np 1
1 1 npq 2 1
P (Y k ) e ( x) ,
ек
npq 2 npq
k np
где x .
т
npq
ио
Пример:
Вероятность успешной работы телевизора после сборки равна 0,75. Найти
вероятность того, что из 10 телевизоров 8 заработают. Используем локальную
бл
101
ЧАСТЬ 2. МАТЕМАТИЧЕСКАЯ СТАТИСТИКА
Р
ГЛАВА 8. ОСНОВНЫЕ ПОНЯТИЯ МАТЕМАТИЧЕСКОЙ
УИ
СТАТИСТИКИ
БГ
8.1. Выборка, вариационный ряд, гистограмма
102
Далее мы будем считать выборки априорными. При этом будем полагать,
что элементы выборки – независимые случайные величины с одинаковым зако-
ном распределения, т. е. мы можем широко использовать теоремы независимых
случайных величинах.
Упорядоченная в порядке возрастания последовательность выборочных
значений образует вариационный ряд:
x (1) x (2) .... x ( n ) ,
члены вариационного ряда x(i) называются порядковыми статистиками. Если
объем выборки n – велик, то выборка позволяет приблизительно оценить закон
распределения случайной величиной X. Для этого необходимо построить гисто-
грамму. Есть два способа построения гистограммы – равноинтервальный и рав-
Р
новероятностный.
УИ
Рассмотрим равноинтервальный способ.
1. Разобьем весь диапазон выборочных значений от xmax до xmin на k рав-
ных частей. Величину k выбирают достаточно произвольно, можно так: k n ,
где n – объем выборки.
БГ
x xmin
2. Определяем длину каждого интервала: h max .
k
3. Находим границы каждого интервала:
для первого: a1 xmin , b1 a1 h ;
а
для второго: a2 b1 , b2 a2 h ;
ек
… ….. ;
для k-го: ak bk 1 , bk ak h .
a b
т
m1 m2 … mi … mK
m1 m2 … mi … mK
n n n n
mi
i
Р
n
УИ
2
БГ
1
x 10 x 02 x 0i x 0k
a1 b1 ai bi ak bk X
а
x min x max
ек
Рис. 8.1
т
i1 n n
Би
104
8.2.1. Метод моментов
k
K x
f ( x )dx , (8.1)
k
K (x ) 1 f ( x)dx . (8.2)
Р
По выборке x1 , x2 ,..., xn определяем выборочные начальные и центральные
УИ
моменты:
1 n K
K xi ,
n i1
(8.3)
БГ
1 n
K ( xi 1 ) K . (8.4)
n i1
Метод моментов состоит в том, что генеральные моменты (8.1, 8.2), в ко-
а
торые входят оцениваемые параметры, приблизительно приравниваются к со-
ответствующим выборочным моментам (8.3), (8.4). Составляется система урав-
ек
нений:
k k , (8.5)
т
k k . (8.6)
1 n
x xi .
n i 1
(8.7)
Би
M[X ] x , (8.9)
105
D[ X ] S 2 . (8.10)
Сформулируем метод моментов в общем виде.
Пусть f ( x, 1 , 2 ,..., r ) плотность распределения случайной величины
Х, где i – неизвестные параметры. Чтобы найти оценки 1 , 2 ,..., r , выра-
жаем первые r начальных или центральных моментов случайной величины Х
через параметры 1 , 2 ,..., r , затем генеральные моменты аппроксимируем
соответствующими выборочными. В результате имеем систему из r уравне-
ний с r неизвестными, откуда и получаем 1 , 2 ,..., r .
Пример.
Р
Пусть генеральная случайная величина Х имеет показательный закон рас-
пределения с плотностью f ( x ) ex , x 0 , 0 . По выборке x1 , x2 ,..., xn ме-
УИ
тодом моментов найти оценку параметра .
1. Определяем 1 , используя (8.1):
u x, dv e x dx,
БГ
1 = M X = xe x dx xe x dx 1 x
0 0 du dx , v e
1 1
= e x x 2 e x .
а
0
0
ек
1
x.
1
ио
1 1
n .
x 1
x
n i1 i
Би
Р
Априорные выборочные значения x1 , x2 ,..., xn – являются независимыми
УИ
случайными величинами, закон распределения которых совпадает с законом
распределения генеральной случайной величины Х. Тогда правую часть (8.11)
на основании теоремы умножения законов распределений (см. раздел 3.5) мож-
но рассматривать как плотность распределения вероятности n-мерного вектора
БГ
(X1, X2, …, Xn). Согласно методу, для наилучших оценок ˆ 1 , ˆ 2 ,..., ˆ r случайный
вектор (X1, X2, …, Xn) будет иметь наибольшую плотность распределения. То
есть надо найти такие оценки ˆ 1 , ˆ 2 ,..., ˆ r , для которых функция правдоподобия
L – максимальна. Для этого составляют и решают такую систему уравнений:
а
L
ек
0, (i 1, r ) . (8.13)
i
i
Пример.
Пусть генеральная случайная величина Х имеет показательный закон рас-
Би
107
2. Составим логарифмическую функцию правдоподобия:
n
Ln L nLn xi .
i 1
3. Для определения максимума логарифмической функции правдоподо-
бия составляем и решаем следующее уравнение:
d Ln( L) n n
xi 0 .
d i1
Откуда оценка ̂ параметра определяется так:
n
Р
ˆ n
xi
УИ
i 1
БГ
верности.
ся функцией от x1 , x2 ,..., xn .
( x1 , x2 ,..., xn ) .
ио
M [ ] .
В противном случае оценка называется смещенной:
M [ ] .
Полную погрешность , возникшую от замены на , можно пред-
ставить так:
( M [ ]) ( M [ ] ) .
полная
систематическая случайная
погрешность
погрешность погрешность
108
Таким образом, если оценка несмещенная, то систематическая погреш-
ность равна нулю, т. е. M [ ] .
Наиболее опасна систематическая ошибка, если она заранее неизвестна
или среднее квадратичное отклонение не очень большое. Среднее значение
случайной ошибки M [ M [ ] ] 0 .
Мы уже отмечали, что x1 , x2 ,..., xn – независимые случайные величины,
имеющие тот же закон распределения, что и Х, генеральная случайная величина,
в частности, выборочное математическое ожидание и дисперсия имеет те же
числовые характеристики, т. е. справедливы тождества:
Р
M [ xi ] M [ X ],
(*)
УИ
D[ xi ] D[ X ].
Проверим смещенность оценки математического ожидания выборочной
средней x . Используя обычные свойства математического ожидания, найдем
M x :
1
1 n
n i1
1 n
M [ x] M [ xi ] M [ xi ]
n i1
БГ
на основании тождества (*)
имеем M xi M X
а
nM [ X ] M [ X ] .
n
ек
109
1 n 1 n
M [S 2 ] M [ ( xi x ) 2
] M [ {( xi M [ X ]) ( x M [ X ])}2 ]
n i 1 n i 1
1 n n
M [ { ( xi M [ X ]) 2( x M [ X ]) ( xi M [ X ]) n( x M [ X ]) 2 }]
2
n i 1 i 1
n n n
( x M [ X ]) x M [ X ] nx nM [ X ]
i 1
i
i 1
i
i 1
1 n
M [ { ( xi M [ X ])2 2 n( x M [ X ])2 n( x M [ X ]) 2 }]
n i 1
1 n
Р
M [ { ( xi M [ X ])2 n ( x M [ X ])2 }]
n i 1
УИ
1 n
M [( xi M [ X ])2 ] M [( x M [ X ]) 2 ]
n i1
1 n 1
D xi D x применим тождества (*) nD[ X ] D[ x],
БГ
n i1 n
n n n
1 1 1 1
но D[ x] D[ xi ] 2 D[ xi ] 2 D[ xi ] используем (*) D[ X ] .
n i1 n i 1 n i1 n
а
То есть дисперсия выборочной средней в n раз меньше дисперсии гене-
ральной случайной величины. Тогда
ек
1 1
M [ S 2 ] D[ X ] D[ X ] (1 ) D[ X ] .
n n
т
S ( xi x) 2 .
n 1 i 1
110
Обозначим D X , S 2 ; как видим, M [ ] , значит, оценка S 2 уже
несмещенная. При малых n этой формулой пользоваться лучше (при n > 30
оценки совпадают). На практике используют еще одну несмещенную оценку
дисперсии – когда известно математическое ожидание:
n
1
S 2 ( xi mx ) 2 .
n i 1
Найдем M S 2 :
2 1 n 2 1 n 2 1 n
M [ S ] M [ ( xi mx ) ] M [( xi mx ) ] D[ xi ]
Р
n i 1 n i1 n i1
используем тождества
УИ
1
nD X D[ X ].
со звездочкой (*) : D xi D X n
Обозначим D X , S 2 . M [ ] , значит, оценка S 2 несмещенная.
БГ
2. Оценка параметра называется состоятельной, если она сходит-
ся по вероятности к параметру , т. е. если 0 выполняется:
а
lim P(| | ) 1 . ( )
n
ек
а) lim( M [ ] ) 0,
n
б) lim( D[ ]) 0.
ио
n
Пример.
Проверим состоятельность оценки математического ожидания выбороч-
ной средней x . Ранее мы показали, что x является несмещенной оценкой ма-
тематического ожидания, т. е. условие а) выполняется и без вычисления преде-
Би
111
D X
Видим, что при n предел будет стремиться к нулю, значит
n
условие б) выполняется. Следовательно, x является состоятельной оценкой
математического ожидания.
3. Несмещенная оценка параметра называется эффективной, если
она имеет наименьшую дисперсию среди всех оценок при одном и том же объ-
еме выборки n.
Для определения наименьшей дисперсии эффективной оценки * пара-
метра применяется формула Рао-Крамера:
1
Р
D * , (8.15)
ln f ( x, ) 2
nM
УИ
БГ
ворит о ее эффективности. Например, если в качестве оценки взять любую
постоянную величину c, то ее дисперсия будет равна нулю, а ошибка может
быть какой угодно большой.
Пример.
а
Задана нормальная случайная величина Х с плотностью распределения
ек
( x m )2
1 2
f ( x , m, ) e 2 .
2
Проверим эффективность оценки математического ожидания выборочной
т
средней x .
Найдем дисперсию эффективной оценки параметра m. Обозначим эффек-
ио
ln f ( x, m, ) ln 2 .
2 2
Найдем производную:
ln f ( x, m, ) x m
Би
.
m 2
Подставим полученное выражение в (8.15):
1 4 2 D X
*
D m . (8.16)
x m 2 nM x m 2 n n
nM 2
Ранее мы показали, что такую же дисперсию имеет x (см. формулу ( )).
Видим, что правые части формул (8.16) и ( ) совпадают, следовательно, выбо-
рочное среднее x является эффективной оценкой параметра m.
112
Отметим, что оценки, полученные методом наибольшего правдоподобия,
являются состоятельными. Если существуют эффективная оценка, то метод
наибольшего правдоподобия позволяет найти ее, но не всегда оценки, получен-
ные этим методом, являются несмещенными.
Р
УИ
БГ
а
ек
т
ио
бл
Би
113
ГЛАВА 9. ОСНОВНЫЕ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ
СЛУЧАЙНЫХ ВЕЛИЧИН В МАТЕМАТИЧЕСКОЙ СТАТИСТИКЕ
Р
деления:
1. Нормальное (Гауссовское) распределение.
УИ
2. Распределение Пирсона, распределение 2 (хи-квадрат).
3. Распределение Стьюдента ( t – распределение).
4. Распределение Фишера ( F – распределение).
БГ
Нормальный закон распределения мы подробно рассмотрели при изуче-
нии раздела 6.5 теории вероятностей и здесь рассматриваться не будет.
Отметим, что в законы распределений математической статистики входит
гамма-функция, поэтому необходимо познакомиться с этой функцией и рас-
смотреть ее свойства.
а
ек
x 1e x dx , (9.1)
0
бл
Доказательство:
Подставим =1 в (9.1): 1 x11e x dx e x |0 1 .
0
2. 1 при >0.
Доказательство:
Вычислим интеграл в (9.1), используя интегрирование по частям:
1 x e dx x e | x 1e x dx ( ) .
x x
0
0 0
114
1
3. .
2
Доказательство:
сделаем замену
1 переменных : u2 u2
1
x 2 e x dx u2 2 u 1e 2
udu 2 e 2
du .
2 0 x 0 0
2
dx udu
1
, то легко вычисляется с исполь-
Р
Значит, если значение кратно
2
зованием свойства 2:
УИ
Г()
Г ()
3 1 1 1 1
1 , 6
2 2 2 2 2 5
БГ
4
5 3 3 3 31
1 . 3
2 2 2 2 2 2
2
а
Для целых – гамма-функция это факториал:
1
( 1)! .
ек
Например,
1 2 3 4 5
(3) 2! 2 , (4) 3! 6 , (5) 4! 24 .
т
Рис. 9.1
Отметим, что смысл гамма-функции – распространение понятия фактори-
ал на нецелые значения. На рис. 9.1 приведен график гамма-функции.
ио
k 1
где X 1 ,, X n – независимые нормированные нормальные случайные величины,
2
xk mx 1 x2
т. е. X k с плотностью распределения f x e .
x 2
Распределение случайной величины, определенной по формуле (9.2), на-
зывается распределением Пирсона.
Покажем, что плотность распределения случайной величины 2 , формула
(9.2), определяется следующим равенством:
115
n x
1 2
1
2
f ( x) n x e . (9.3)
n
22 Г
2
Здесь для краткости записи X 2 ;
0 X ;
Г U 1e U dU – гамма-функция.
0
Для доказательства используем аппарат характеристических функций.
Найдем характеристическую функцию случайной величины X k2 , которая вхо-
Р
дит в формулу (9.2), учитывая, что X k2 имеет нормированное нормальное рас-
УИ
пределение:
x2 x2
2 2 1 1 12 it
g0 t M e e
itX k itx 2
e dx e 2 dx .
2 2
БГ
Используем подстановку z x 1 2it , тогда
2
z z2 это интеграл 1
1 dz 1
g0 t e 2 e 2
dz 1 2it 2 .
2 1 2it 2 1 2it Пуассона 2
а
2
it X k2 n
2
n n n
g1 t M e it
M e k 1 M e g 0 k t g 0 t 1 2it 2 .
itX k
k 1 k 1
ио
Найдем характеристическую функцию g 2 t случайной величины 2 ,
плотность распределения которой определяется по формуле (9.3):
бл
n x n x
itx 1 itx 2
1 1 1 1 2it
g 2 t e f x dx n e x e dx n 2
2
x e 2
dx
n n
22 Г 0 22 Г 0
2 2
Би
x
U 1 2it
2 n n
1
1 1 2u 2
U 2dU 22
dU dx 1 2it n e
n 0 1 2it
n
2 2
2 Г
1 2it 2
n
2 Г 1 2it 2
n
2u 2 2
x
1 2it
n n n
1 1 n
U 2
e dU т. к. U 2 e U dU Г( ) 1 2it 2 .
U
0 0
2
116
При сравнении правых частей характеристических функций g1 t и
g 2 t мы увидим, что они совпадают. Значит случайная величина, определяемая
по формуле (9.2), действительно имеет плотность распределения вероятностей,
определяемую формулой (9.3).
Найдем математическое ожидание и дисперсию случайной величины 2 .
Продифференцируем 2 раза g 2 t :
n
n 1
g 2 t 1 2it 2 2i ,
2
n
n n 1
g 2 t 2i 1 1 2it 2 2i .
Р
2 2
Значения производных при t 0 :
УИ
g 2 0 in,
n n
g 2 0 4i 2 1 i 2 n 2 2n ,
2 2
1 n, 2 n n 2 ,
M 2 n, БГ
а
D 2 1 12 n 2 2n n 2 2n.
ек
Рис. 9.2
117
При n 25 закон распределения 2 практически совпадает с нормальным
законом.
Квантилем 2 , (где – заданный уровень вероятности, – число степе-
ней свободы) называется такое значение 2 2 , , при котором
P
2 2
, f d 2 2
, (9.4)
2 ,
Р
хи-квадрат распределения. Чтобы воспользоваться ими, необходимо задать
уровень вероятности и число степеней свободы .
УИ
9.3. Распределение Стьюдента (t – распределение)
n 1
БГ
Случайная величина t имеет распределение Стьюдента, если она опреде-
ляется так:
X
а
tX X , (9.5)
Y 1 n 2 1 2
Xi n
ек
n i 1 n
n 1 n 1
t 2 2
n
f t 1 , (9.6)
Би
n n
n
2
где t .
Числовые характеристики случайной величины t :
n
M t 0; Dt .
n2
118
На рис. 9.3 приведены кривые распределения
Стьюдента. Кривые на рис. 9.3 качественно напо- f(t)
минают кривые нормального закона распределения n
с математическим ожиданием, равным нулю, и при
n они стремятся к нормальному закону. 0,1 n5
Квантили распределения Стьюдента t , в за- n2
2
висимости от числа степеней свободы и заданно-
го уровня вероятности находятся из уравнения: 0 t
P ( t t / 2, ) 2 f (t )dt .
Р
Рис. 9.3
t 2,
УИ
Рис. 9.4 иллюстрирует процесс опреде-
f (t )
ления квантилей, т. е. необходимо так выбрать
t , , чтобы суммарная площадь заштрихован-
БГ
2
ных фигур была равна . /2 /2
p
t
а
0
t /2, t /2,
ек
Рис. 9.4
ется так:
U n
F 1 1 , (9.7)
U 2 n2
бл
U
n1 i 1 1i
F . (9.8)
1 n2 2
U 2 i
n2 i 1
Безразмерная случайная величина F (9.8) имеет плотность распределения,
определяемую следующей формулой:
119
n1 n1 n n
2
2
1 2 n1
n n2
1 2 2
1
f (F ) n1 n2
F . (9.9)
n n
1 2 n2 n1F 2
2 2
Распределение случайной величины F зависит от двух параметров
1 n1 , 2 n2 – степеней свободы. График плотности распределения случай-
ной величины F для разного числа степеней свободы приведен на рис. 9.5.
Р
УИ
БГ
Рис. 9.5
F
На рис. 9.6 показано, что надо так выбрать F , чтобы площадь заштрихо-
ванной фигуры была равна заданной вероятности .
т
f (F )
ио
0,5
бл
F
0 1 F
Би
Рис. 9.6
120
ГЛАВА 10. ИНТЕРВАЛЬНЫЕ ОЦЕНКИ ПАРАМЕТРОВ
РАСПРЕДЕЛЕНИЙ
Р
Точечная оценка неизвестного параметра , найденная по выборке объе-
ма n из генеральной совокупности, не позволяет непосредственно узнать ошиб-
УИ
ку, которая получается, когда вместо точного значения неизвестного параметра
принимается некоторое его приближение (оценка) ( x1,..., xn ) . Поэтому ча-
ще пользуются интервальной оценкой, основанной на определении некоторого
БГ
интервала, накрывающего неизвестное значение параметра с определенной
вероятностью. На рис. 10.1 изображен интервал длиной 2 , внутри которого в
любом месте может находиться неизвестное значение параметра .
а
ек
X
т
Рис. 10.1
p( < )=p=1-
или
p( < < + ) 1 . (10.1)
121
10.2. Доверительный интервал для математического ожидания
случайной величины Х при известной дисперсии (или )
Р
n i 1
случайных величин, имеющих одно и тоже нормальное распределение, опреде-
УИ
лим числовые характеристики x :
1 n 1 n
1 n 1 n
M [ x ] M[ xi ] M [ xi ] M xi m m,
n i1 n i 1 n i1 n i
БГ
n n n 2
1 1 1
D[ x ] = D[ xi ] = 2 D[ xi ] = 2 2 = 2x ,
n i 1 n i1 n i 1 n
откуда получим
x . (10.2)
а
n
ек
x m x m x m
U = . (10.3)
ио
D[ x ] x / n
Покажем, что случайная величина U имеет нормированный нормальный
закон распределения. Найдем ее числовые характеристики:
бл
x m mm
M [U ] M / n 0 ,
/ n
Би
2
x m 1 2 2 /n
D[U ] M 2 M [( x m) ] 2 /n 1 .
/ n /n
Таким образом M U = 0, D U =1 – это значит, что U имеет нормиро-
ванное нормальное распределение, график которого изображен на рис. 10.2.
122
f (U )
/2 /2
U
0
U p
U p
Рис. 10.2
Р
ятность попадания случайной величины U в интервал [U p ;U p ] (см. рис. 10.2):
УИ
Up u 2 Up u2
1
2
2
2
du Ф(U p ) . (10.4)
2 U p e
P (U p U U p ) e du
2 0
P( U p
x m
/ n
Тогда из (10.4) и (10.5) следует уравнение
БГ
U p ) p 1 . (10.5)
а
ек
Ф(U p ) p . (10.6)
Решая уравнение (10.6), по таблицам функции Лапласа для заданной до-
верительной вероятности p 1 можно найти границы доверительного ин-
т
P (U p x m Up ) 1 ,
n n
бл
P( x U p m x Up ) 1 . (10.7)
n n
Считая, что 2 – известна, из (10.7) следует, что доверительный интер-
Би
вал ]x U p ; x +U p [ накрывает неизвестное математическое ожида-
n n
ние m c заданной доверительной вероятностью p =1 . Точность оценки ма-
тематического ожидания или длина доверительного интервала
Up . (10.8)
n
Замечания по формуле (10.8):
123
1) при увеличении объема выборки n из (10.8) видим, что е уменьшается,
значит, уменьшается длина доверительного интервала, а точность оценки уве-
личивается;
2) увеличение доверительной вероятности p=1 приводит к увеличе-
нию длины доверительного интервала (см. рис. 10.2, где квантили U p увеличи-
ваются), т. е. е увеличивается, а точность оценки падает;
3) если задать точность е и доверительную вероятность p=1 , то мож-
но найти объем выборки, который обеспечит заданную точность:
U p22
n 2 . (10.9)
Р
Пример.
УИ
Сколько конденсаторов одного номинала надо измерить, чтобы с вероят-
ностью 0,95 можно было утверждать, что мы с точностью 1 % определили их
среднее значение – математическое ожидание.
Обозначим = 0,01, р = 0,95; по таблицам функции Лапласа найдем
БГ
квантиль для заданной доверительной вероятности 0,95: U p = 1,96. Для прове-
дения расчетов положим = 0,05. Подставляя эти значения в (10.9), получим
1,962 0,052
n 96 .
0,012
а
ек
1 n
m x , S ( xi x )2 .
n 1 i 1
Би
124
x m
. t (10.10)
S/ n
Умножим числитель и знаменатель в (10.10) на :
x m x m 1 X
t (10.11) .
1 1 n n 2
1 2
(xi x)2 1 xi x
n n 1 i1 n
n 1 i1
ч
n 1 n1
Здесь Х – нормированная нормальная случайная величина, знаменатель –
распределение 2 с n–1 степенями свободы. Поэтому, согласно определению
(см. раздел 9.3, формула (9.5)), можно утверждать, что случайные величины t,
Р
определяемые по формулам (10.10) и (10.11), имеют закон распределения
Стьюдента с n–1 степенями свободы.
УИ
Зная закон распределения случайной величины t и задавая доверительную
вероятность p 1 , можно найти вероятность попадания ее в интервал ] t p ,
t p [ (рис. 10.3).
БГ
f (t )
а
/2 /2
p
ек
t
0
t p t p
т
Рис. 10.3
ио
tp
P (t p t t p ) p 1 . (10.13)
Подставляя в (10.13) вместо t равенство (10.10), получаем
x m
tp ) p 1 .
P (t p (10.14)
S/ n
Разрешим неравенство в левой части формулы (10.14) относительно m:
125
S S
P( x t p m x tp ) p 1 . (10.15)
n n
Отсюда непосредственно следует, что доверительный интервал
S S
x t p , x t p накрывает неизвестный параметр m – (математи-
n n
ческое ожидание) с доверительной вероятностью р.
Интервал (10.15) несколько шире интервала (10.7), определенного для той
же выборки и той же доверительной вероятности. Зато в (10.15) используется
меньшая априорная информация – знать не надо.
Р
Можно обозначить ширину доверительного интервала или точность через
0 , и из (10.15) следует
УИ
S
0 t p . (10.16)
n
Все замечания, сделанные по формуле (10.8), справедливы и для форму-
лы (10.16).
Пример.
БГ
Даны результаты четырех измерений напряжения сети (значения приве-
дены в [В], n 4 ):
а
x1 220 , x2 226 , x3 224 , x4 222 .
ек
n
Из таблиц распределения Стьюдента для p 0,95;
1 p 0,05; n 1 3 – число степеней свободы; находим квантиль
бл
126
Таким образом, истинное напряжение сети с вероятностью 0,95 накрыва-
ется доверительным интервалом ]218,8, 227,2[ [В].
Найдем минимальное число измерений, чтобы c вероятностью 0,95 точ-
ность определения истинного напряжения сети не превышала 0,5 В, т. е.
0 0,5 . Из (10.16) имеем
t p2 S 2 2,6 2 3,182
n 2 273 измерения.
0,52
Видим, что число измерений n велико. Следует отметить, что значение кванти-
ля t0,95 t0,025, 3 = 3,18 зависит от n и при увеличении n будет убывать. При
больших n (n >100) значение квантиля стремится к постоянной величине и рав-
Р
но t p t0,95 1,96 . Тогда после коррекции значения квантиля вычисляем по
УИ
формуле (10.16) скорректированное значение n :
t p2 S 2 2,6 2 1,962
n 2 104 измерения.
0,52
БГ
10.4. Доверительный интервал для дисперсии или нормальной
случайной величины Х
а
Рассмотрим вероятностный эксперимент с нормальной моделью, где па-
раметры m и неизвестны. Предположим, что по выборке x1 ,...,xn найдены
ек
n 1 i 1
Составим вспомогательную случайную величину
ио
(n 1 )S 2
V . (10.17)
2
бл
2
n 1 1 n 2
n
( xi x )2 n
xi x 2
V 2
n 1 i 1
( xi x )
i 1 2
i 1
.
127
f (V )
/2
/2
p
V
0 V1 V2
Рис. 10.4
Р
Зная закон распределения случайной величины V, определим вероят-
УИ
ность того, что случайная величина V попадет в интервал ] V1 ,V2 [:
V2
БГ
V1
2 2 2 2
Это означает, что площади заштрихованных фигур равны. Задавая дове-
ио
P (V1 V V2 ) p. (10.20)
Подставим в (10.20) значение V , определяемое формулой (10.17):
( n 1) s 2
Би
P (V1 V2 ) p . (10.21)
2
Решаем неравенство в левой части (10.21) относительно 2 :
(n 1) S 2 2 (n 1) S 2
P( ) p. (10.22)
V2 V1
Из (10.22) записываем доверительный интервал для 2 :
128
(n 1) S 2 (n 1) S 2
V , .
2 V1
Для среднего квадратического отклонения доверительный интервал
имеет следующий вид:
n 1 n 1
S , S .
V2 V1
Можно ввести коэффициенты г1 и г 2 :
n 1 n 1 n 1 n 1
Р
1 , 2 . (10.23)
V2 2 / 2 , n 1 V1 2
1-/2, n1
УИ
Тогда доверительный интервал для определится следующим обра-
зом:
S 1 , S 2 .
БГ
Коэффициенты 1 и 2 , соответствующие доверительной вероятности
p =1–α и числу степеней свободы n 1, находятся по таблицам распределе-
ния 2 .
а
Пример.
ек
129
ГЛАВА 11. ТЕОРИЯ СТАТИСТИЧЕСКОЙ ПРОВЕРКИ ГИПОТЕЗ
Р
гистограмму, то можно по виду гистограммы сделать предположение (выдвинуть
гипотезу) о виде закона распределения генеральной случайной величины X.
УИ
Тогда нулевой гипотезой H 0 называют основную (проверяемую) гипоте-
зу, которая утверждает, что различие между сравниваемыми величинами от-
сутствует.
БГ
Альтернативной (конкурирующей, противоположной) гипотезой Н на-
зывается гипотеза, которая принимается тогда, когда отвергается нулевая.
Целью статистической проверки гипотез является выбор критерия по вы-
борке x1 ,..., xn , на основании которого принимается гипотеза H 0 или отклоняет-
а
ся в пользу альтернативной. При этом возможны ошибки двух видов:
1. Отклонение H 0 , когда она на самом деле верна – ошибка первого рода.
ек
вероятность ошибки – .
Чем серьезнее будут последствия ошибки первого рода, тем меньше надо
выбирать уровень значимости . Обычно выбирают 0,01 0,05 .
ио
кон распределения.
Областью отклонения (критической областью) G0 называется область,
при попадании в которую статистической характеристики Z гипотеза H 0
Би
отклоняется.
Дополнение области отклонения до всех возможных значений стати-
стической характеристики Z называется областью принятия G .
При попадании статистической характеристики Z в область принятия ги-
потеза H0 принимается. На рис. 11.1 изображены область отклонения G0 и об-
ласть принятия G . Разделяет их точка на числовой оси z .
130
f (z)
Z
0 z
GG0 – ообласть
бл аст ьпринятия
пр ин ят и я G –область
G област ь
отклоненияя
Рис. 11.1
Р
При попадании Z в область принятия гипотеза H 0 принимается. По суще-
УИ
ству область принятия есть доверительный интервал для статистической харак-
теристики Z с доверительной вероятностью p =1 – .
Область отклонения G0 выбирается таким образом, чтобы вероятность
попадания в нее статистической характеристики Z при условии, что H 0 верна,
БГ
равнялась уровню значимости . То есть область отклонения удовлетворяет ус-
ловию:
P ( Z G0 : H 0 ) . (11.1)
а
С другой стороны, для того чтобы уменьшить вероятность ошибки второ-
го рода при выбранном , область отклонения G0 , удовлетворяющую усло-
ек
вию 1, нужно выбрать таким образом, чтобы вероятность попадания в нее ста-
тистической характеристики Z при условии, что верна альтернативная гипотеза
т
Н, была максимальной, т. е.
P ( Z G0 : H ) max .
ио
P ( Z G0 : H ) P( Z G0 : H ) 1 .
Таким образом, имеем
1, (11.2)
Би
131
На рис. 11.2 приведены две кривые плотности распределения: одна кри-
вая y = f(Z|H0) – когда верна гипотеза H0 , другая кривая y = f(Z|H) – когда верна
альтернативная гипотеза H.
y f (z H0 )
y f (z H )
Р
z z z z z область
УИ
отклонения
Рис. 11.2
БГ
нения сужается и, следовательно, уменьшается вероятность отклонения гипоте-
зы H 0 , если она верна. Вместе с тем при сужении области отклонения G0 рас-
ширяется область принятия G и увеличивается вероятность принятия гипотезы
а
H 0 , если она на самом деле не верна. Поэтому нельзя брать слишком малой.
Гипотезы бывают двух видов – параметрические и непараметрические.
ек
D[ X ] 2x . D[Y ] 2y .
Пусть дисперсии этих случайных величин равны и неизвестны:
2x 2y 2 ,
где 2 – не предполагается известным.
Пусть даны выборки
( x1 ,..., xn1 ) X ,
( y1 ,..., yn2 ) Y .
132
По выборкам найдем критерий проверки гипотезы H 0 , состоящей в том, что
математические ожидания этих случайных величин одинаковы:
H0 : x y .
2 n1S12 2 n2 S 22
2 ,
1 2 2
2
имеют распределение c n1 1 и n2 1 степенями свободы, где
Р
2 1 n1 2 1 n1
S1 ( xi x ) , x xi ,
УИ
n1 i 1 n1 i1
2 1 n2 2 1 n2
S ( yi y ) ,
2 y yi .
n2 i1 n2 i1
БГ
Сумма независимых случайных величин с распределением 2 имеет то
же распределение 2 с суммарным числом степеней свободы:
2 n1S12 n2 S 22
2
W . (11.3)
а
1 2
2
ек
2
2x
xy xy но : D[ x ] , D[ y ] y ,
Би
U n1 n2
D[ x y ] D[ x ] D[ y ]
учтем, что 2x 2y 2
(11.4)
xy
.
1 1
n1 n2
133
Очевидно, что случайная величина U имеет нормальное распределение,
т. к. X и Y нормально распределены. Если проверяемая гипотеза Н0 о равенстве
математических ожиданий выполняется ( x y ), то имеем:
xy M[x ] M[ y] x y
M [U ] M [ ] 0.
1 1 1 1 1 1
n1 n2 n1 n2 n1 n2
xy 1 1
D[U ] D[ ] D[ x ] D[ y ]
Р
1 1 1 1 1 1
2 2
n1 n2 n1 n2 n1 n2
УИ
1 n1 1 n2 1 1 n1
1 n2
D[ xi ] D[ yi ] 2 D[ xi ] 2 D[ yi ]
n1 i 1 n2 i 1 1 1 n
2 1
i 1 n2 i 1
БГ
n1 n2
2
1 2x y 2 2 2
т. к. x y 1.
1 1 n n2
2 1
а
n1 n2
Таким образом, если гипотеза Н0 верна, то случайная величина U имеет
ек
xy
t , (11.5)
1 1
S0
ио
n1 n2
2 n1S12 n2 S 22
где S – объединенная выборочная дисперсия.
бл
0
n1 n2 2
Случайную величину t можно представить в следующем виде через ранее
введенные U и W:
Би
n1 n2 2
t U . (11.6)
W
Действительно:
n n 2
t U 1 2
xy n1 n2 2 2 x y , (11.7)
W 1 1 n1S12 n2 S 22 1 1
S0
n1 n2 n1 n2
т. е. правые части (11.5) и (11.6 или 11.7) совпадают.
134
Но величина t (11.6) имеет распределение Стьюдента с n1 n2 2 степенями
свободы. Это следует из того, что U имеет нормированное нормальное распре-
деление при условии, что H 0 – верна. W – имеет распределение 2 с
( n1 n2 2 ) степенями свободы, кроме того величины U и W независимы. Та-
ким образом, величина t определяется по (11.5) и имеет распределение Стью-
дента с ( n1 n2 2 ) степенями свободы, если верна проверяемая гипотеза H 0 .
Эту величину t (11.5) примем за статистическую характеристику Z. Про-
верка гипотезы о равенстве математических ожиданий состоит в следующем.
По таблицам распределения Стьюдента для заданного уровня значимости
или доверительной вероятности p = 1– и числу степеней свободы
Р
= n1 n2 2 находим квантиль z t , удовлетворяющий условию (на
, n1 n2 2
2
УИ
рис. 11.3 изображена кривая распределения Стьюдента и заштрихована область
отклонения G0 ):
P ( t z : H 0 ) .
БГ
аtG0
ек
2 2
z z
т
Рис. 11.3
ио
135
По выборкам x1 ,..., xn1 X , y1 ,..., yn2 Y найдем критерий проверки ги-
потезы H 0 состоящей в том, что дисперсии этих случайных величин равны
H 0 : 2x 2y 2 .
Р
В качестве статистической характеристики возьмем случайную величину
УИ
S12
F. (11.8)
S 22
Если гипотеза H 0 о равенстве дисперсии верна, то случайная величина F
имеет распределение Фишера с n1 1, n2 1 степенями свободы. Покажем это,
2
(n1 1) S12
2
БГ
представляя числитель и знаменатель (11.8) в следующем виде:
а
S n1 1
F 12 2
.
S 2 (n2 1) S 2
ек
2
n2 1
(n1 1)S12
т
136
[n1 1, n2 1]
F
Рис. 11.4
Р
рактеристики F. Если фактически вычисленное по формуле (11.8) значение F
окажется больше табличного F (как видно из рис. 11.4, мы попадаем в об-
УИ
ласть отклонения), то гипотезу о равенстве дисперсий отклоняем как не со-
гласующуюся с выборкой. При этом вероятность ошибки равна . В против-
ном случае, когда F F , принимается гипотеза H 0 , т. е. дисперсии случайных
БГ
величин X и Y равны.
Пример.
Пусть Х – чувствительность телевизоров марки «Горизонт», Y – чувстви-
тельность телевизоров марки «Витязь». Проведены выборочные измерения
а
чувствительности телевизоров для n1 = 7 телевизоров марки «Горизонт» и n2 = 6
телевизоров марки «Витязь». Результаты измерений чувствительности в [ В]
ек
представлены в таблицах.
т
x1 x2 x3 x4 x5 x6 x7
66 72 62 68 76 61 71
ио
y1 y2 y3 y4 y5 y6
62 75 64 70 72 71
бл
вычисляя x и y :
1 7 1 6
x xi 68 [В], y yi 69 [В].
7 i 1 6 i 1
Можно ли сказать, что чувствительность телевизоров марки «Горизонт»
лучше? Нет, т. к. выборки, выборочные средние x , y и разность между ними –
элементы случайные.
Сначала убедимся в равенстве дисперсий по критерию Фишера – гипотеза
H 0 : 2x 2y .
137
Вычислим несмещенные оценки дисперсий X и Y:
1 7 1 6
S12 ( xi 68) 2 29,67 [В]2 , S22 ( yi 69) 2 24,8 [В]2 .
6 i1 5 i 1
Используя (11.8), найдем значение статистической характеристики F:
29,67
F 1,196 .
24,8
По таблицам распределения Фишера для [6;5] степеней свободы, задавая
уровень значимости = 0,05, найдем квантиль – F = 4,95. Сравнивая F с F,
видим, что 1,196 < 4,95. Значит, гипотеза H 0 принимается, т. е. дисперсии слу-
чайных величин X и Y равны.
Р
Теперь проверим гипотезу о равенстве математических ожиданий слу-
чайных величин X и Y , применяя критерий Стьюдента.
УИ
Гипотеза H 0 : M [ X ] M [Y ] , т. е. чувствительность телевизоров марки
«Горизонт» и «Витязь» одинакова.
Найдем объединенную выборочную дисперсию:
БГ
7 6
( xi 68)2 ( yi 69)2
S02 i 1 i 1
27,46 [В]2 .
762
а
По формуле (11.5) вычислим статистическую характеристику t :
68 69
ек
t 0,343 .
1 1
27,46
7 6
т
H 0 : f ( x) f 0 ( x ) .
138
Обычно для построения гистограммы равноинтервальным способом раз-
бивают весь диапазон выборочных значений случайной величины Х на k одина-
ковых интервалов. Если mi – число выборочных значений, попавших в i-й ин-
n
m
тервал, то mi n – объем выборки. Введем случайную величину Z i i –
i 1 n
относительную частоту попадания случайной величины Х в i-й интервал. Тео-
ретическая вероятность pi попадания значений случайной величины Х в i-й ин-
тервал может быть определена как pi f 0 ( x )dx , где xi ai bi – длина i-го
X xi
Р
Рассмотрим событие, состоящее в том, что случайная величина Х попадет
в интервал xi mi раз. Тогда введем случайную величину Y, равную числу по-
УИ
паданий случайной величины в i-й интервал (Y = mi). Вероятности возможных
ее значений определяются по формуле Бернулли, случайная величина Y имеет
биномиальный закон распределения, и ее числовые характеристики имеют вид
БГ
M [Y ] np , D[Y ] npi qi , qi 1 pi .
m
Для введенной ранее случайной величины Z i i определим числовые
n
характеристики:
а
m 1 1 1
M [ Zi ] M i M [mi ] M [Y ] npi pi ,
ек
n n n n
m 1 1 1 pq
D[ Z i ] D i 2 D mi 2 D Y 2 npi qi i i .
n n n n n
т
mi
pi
Zi M [ Zi ] n
бл
Wi . (11.9)
D[ Zi ] pi qi / n
139
k
(mi npi )2
.
i 1 npi
2
k
(mi npi )2
. (11.10)
i 1 npi
Р
k r 1, (11.11)
УИ
где r – число параметров закона распределения, оцениваемых по выборочным
данным.
Анализируя правые части формул (11.9) и (11.10), можно отметить, что в
критерии согласия 2 фактически сравниваются эмпирические и теоретические
частоты распределения.
БГ
Проверка гипотезы состоит в следующем. Задаем уровень значимости .
По таблицам 2 – распределения для заданных и числу степеней свободы
а
k r 1 находим квантиль 2 , , удовлетворяющий условию
P ( 2 2 ,0 : H 0 ) . По формуле (11.10) вычисляем значение 2 . Сравнивая
ек
Рассмотрим неравенство
2
3, (11.12)
2
140
Проверка гипотезы состоит в следующем: если это неравенство выполня-
ется ( 3 ), то расхождение теоретических и экспериментальных данных неслу-
чайно, т. е. закон распределения не подтверждается, гипотеза H 0 отклоняется.
В противном случае гипотеза H 0 подтверждается, действительно случайная вели-
чина Х имеет плотность распределения f 0 ( x ) . Этот критерий хорош тем, что для
проверки гипотезы не требуются таблицы 2 – распределения.
Р
В критерии согласия А. Н. Колмогорова проводится сравнение эмпириче-
ской и теоретической функций распределения. Укажем этапы проверки гипотез
УИ
этим критерием.
1. По выборке x1 , x2 ,..., xn строится вариационный ряд и график эмпириче-
ской функции распределения.
2. По виду графика функции распределения выдвигается гипотеза о виде
БГ
закона распределения генеральной случайной величины Х. Тогда в качестве ну-
левой гипотезы H 0 будет предположение, что генеральная случайная величина
Х имеет функцию распределения F0 ( x) :
а
H 0 : F ( x) F0 ( x) .
ек
F n max F * ( x) F ( x ) n . (11.13)
x
7. Задавая уровень значимости , определяем квантиль из условия
k 2 k 2 2
P ( ) 1 (1) e
k
.
141
Отметим, что самостоятельно решать это уравнение не надо, поскольку
составлены таблицы квантилей распределения Колмогорова, из которых по за-
данному уровню значимости определяем квантиль .
Сравнивая значение , рассчитанное по формуле (11.13) с квантилем ,
делаем следующие выводы:
а) если , то гипотеза H 0 отклоняется;
б) если , то гипотеза H 0 принимается, закон распределения под-
тверждается, т. е. действительно генеральная случайная величина Х имеет
функцию распределения F0 ( x) .
Следует отметить, что критерий Колмогорова применяется тогда, когда
Р
полностью известен закон распределения функции распределения F ( x ) и зна-
чения ее параметров. При решении практических задач это не всегда удается
УИ
выполнить. Для этого прибегают к некоторым дополнительным исследованиям:
применяют вероятностные бумаги, строят гистограммы и т. д. Это помогает
правильно подобрать теоретический закон распределения для функции распре-
деления F ( x ) . Но в этом случае неизвестны ее параметры. И если их оценивать
БГ
по этой же выборке, то это может привести к ошибочным выводам в отноше-
нии принятой гипотезы. В этом случае следует использовать другие критерии
согласия, например 2 .
а
Пример.
Проведено 100 измерений расстояния радиодальномером до цели. Ре-
ек
[ xi , xi 1[
ио
[км] mi
450 0
450 – 500 12
бл
500 – 550 15
550 – 600 14
600 – 650 15
Би
650 – 700 13
700 – 750 16
750 – 800 15
mi
Занесем в таблицу значения относительных частот i .
n
Анализ значений относительных частот позволяет выдвинуть гипотезу о
равномерном законе распределения. Теоретическая функция распределения для
этого закона имеет вид
142
xa
F0 ( x) .
ba
Принимаем a = 450, b = 800. Полагая x = xi+1 для каждого интервала, рас-
считываем F0(x) в этих точках и заносим результат в таблицу. Зная mi , рас-
считаем эмпирическую функцию распределения F * ( x ) в точках xi 1 для каждо-
n
го интервала: F * ( x) x , где nx – число значений xi меньших заданного x,
n
n – объем выборки. Рассчитаем разность: F * ( x ) F0 ( x ) . Данные заносим в
таблицу.
Р
[ xi , xi 1[ i F0 ( x) F * ( x)
УИ
[км] mi
450 0 0 0 0
450 – 500 12 0,12 0,14 0,12 0,02
3 3
БГ
500 – 550 15 0,15 0,28 0,27 0,01
6 6
550 – 600 14 0,14 0,42 0,41 0,01
9 9
а
600 – 650 15 0,15 0,57 0,56 0,01
ек
1 1
650 – 700 13 0,13 0,71 0,69 0,02
4 4
т
x
вень значимости = 0,05, по таблице квантилей Колмогорова находим кван-
тиль = 1,358. Поскольку 0,24 1,358, то гипотеза H 0 принимается, т. е. дей-
Би
143
ГЛАВА 12. ЛИНЕЙНЫЙ РЕГРЕССИОННЫЙ АНАЛИЗ
Р
случайной величины.
Уравнением регрессии Y на Х называется условное математическое
УИ
ожидание составляющей Y двумерной случайной величины (Х,Y), вычисленное
при условии, что составляющая Х приняла определенное значение X x :
M Y / X x yf ( y / x)dy ( x) , (12.1)
БГ
f ( x, y )
где f ( y / x ) – условная плотность распределения.
f1 ( x)
Функцию ( x) называют модельной функцией регрессии Y на Х, а ее гра-
а
фик – модельной линией регрессии Y на Х. Уравнение (12.1) называется уравне-
ек
Пример.
Пусть изучаем зависимость веса человека от его роста для определенной
группы людей. Для этого, например, в группе студентов проводим измерения
Би
веса, пусть это будет случайная величина Y, и роста – случайная величина Х для
каждого студента. Результаты занесли в таблицу в виде выборочных пар их
значений: ( x1; y1 ),( x2 ; y2 ),...( xn ; yn ) и нанесли на плоскость в системе коорди-
нат X,Y. В результате получим корреляционное поле (рис. 12.1). Изобразим на
рисунке предполагаемую теоретическую зависимость между Y и X в виде жир-
ной линии – это и есть модельная линия регрессии Y на Х. Она, допустим, опи-
сывается определенной аналитической зависимостью Y ( X ) , т. е. модельной
функцией регрессии Y на Х.
144
Y
модельная линия y ( x )
регрессии
эмпирическая
функция регрессии
X
Рис. 12.1
Р
Аппроксимируем корреляционное поле (см. на рис. 12.1) пунктирной ли-
нией – это будет эмпирическая линия регрессии, которая может описываться
УИ
несколько другой аналитической зависимостью. Понятно, что вид эмпириче-
ской линии регрессии (зависимость веса человека от его роста) зависит от мно-
гих факторов: возраста, национальности, пола и т. д. Сравнение модельной и
эмпирической линий регрессии позволяет выявить справедливость наших тео-
ретических предположений.
БГ
Рассмотрим линейную регрессию. Предположим, что между Х и Y суще-
ствует линейная зависимость: y x . Допустим, что при любом значении Х
мы можем измерить значение Y с некоторой ошибкой . Тогда выборочное
а
значение yi можно представить в следующем виде:
ек
yi ( xi x ) i , (12.2)
где ( xi x ) – точная линейная зависимость,
т
i – ошибка.
Будем предполагать, что i , величина ошибки, – это случайная величина
с нормальным законом распределения с M i 0 и D i 2 ; обозначим
ио
x xi x .
Исходя из выборочных значений можно каким-либо методом найти то-
бл
Р
метры ˆ , ˆ , ˆ ... эмпирической функции регрессии, что она будет наилучшей
УИ
оценкой модельной функции регрессии в том смысле, что сумма квадратов от-
клонений наблюдаемых значений переменной Y от соответствующих ординат
эмпирической функции регрессии будет наименьшей.
Параметры ˆ , ˆ , ˆ ... эмпирической функции регрессии у ˆ ˆ x ˆx 2 ...
БГ
находятся методом наименьших квадратов из условия
n n
S ( yi ˆ ˆ xˆ ˆx 2 ...) 2 min .
2
i (12.3)
i 1 i 1
а
МНК обеспечивает наилучшее согласование теоретической зависимости
ек
(12.4)
i 1 i 1
Для определения минимума функции S необходимо найти производные
по интересующим нас параметрам, приравнять их к нулю и решить полученные
Би
146
n n
yi n xi 0,
i 1 i 1
n n n
(12.6)
y x x x 2 0.
i 1
i i
i 1
i i 1
i
n n n n
1 n
Учтем, что xi ( xi x ) xi nx xi n xi 0 .
i 1 i 1 i 1 i 1 n i 1
Тогда из (12.6) получаем точечную оценку коэффициента :
1 n
ˆ yi yi . (12.7)
n i 1
Р
Из второго уравнения (12.6) имеем
УИ
n
n n n y x i i
yi xc ˆ xi ˆ x 0, ˆ
2
i
i 1
n
(12.8)
i 1 i 1 i 1
x 2
i
БГ
i 1
После определения точечных оценок обычно проверяют предположение о
виде эмпирической функции регрессии: линейная она или нелинейная. На прак-
тике условное математическое ожидание M [Y / X ] ( X ) (или уравнение рег-
рессии 1-го рода) часто считают линейной функцией, т. е. ( x) x . Это
а
предположение является гипотезой, которая проверяется путем оценки коэф-
ек
фициента корреляции.
Корреляционный анализ – это анализ оценок коэффициента корреляции
M ( X mx )(Y m y ) / x y , который позволяет ответить на вопрос, сущест-
т
K xy M ( x mx )( y m y ) (12.9)
и коэффициент корреляции
K xy M ( X mx )(Y m y )
xy . (12.10)
x y x y
147
Для оценки связи между случайными величинами X и Y применяют то-
чечные оценки Kˆ xy , ˆ xy , которые называются эмпирическим корреляционным
моментом и эмпирическим коэффициентом корреляции:
n
1
Kˆ xy ( xi x )( yi y ) , (12.11)
n i1
1
n
( xi x )( yi y )
Kˆ xy
. xy (12.12)
x y 1 2 1 2
( xi x ) n ( yi y )
Р
n
Найдем связь между точечной оценкой коэффициента линейного урав-
УИ
нения регрессии (12.2) и оценкой коэффициента корреляции ˆ xy .
Преобразуем Kˆ xy (12.11):
1 1
K€xy ( xi yi xi y xyi x y ) ( xi yi y xi x yi x y )
БГ
n n (12.13)
1 1
( xi yi ny x n x y nx y ) xi yi x y xy x y .
n n
а
Рассмотрим оценку ̂ (12.8). Преобразуем выражение:
ек
y x y ( x x ) y x x y y x nx y ( y x x y )
i i i i i i i i i i i i
1
т
x y n
xi yi nxy nxy nx y n( xy xy ) .
i i n
n
1 n
xi2 n
n i1
( xi x )2 nS x2 .
бл
i 1
xy
nS x2 S x2 S y S x S y S x Sx
1 1
где S x2 ( xi x ) 2 , S y2 ( yi y )2 – выборочные дисперсии.
n n
148
Влияние значений коэффициента корреляции xy на функциональную за-
висимость между X и Y иллюстрирует рис. 12.2.
Y Y
xy =+1
а б
xy =-1
Р
X X
УИ
между X и Y существует между X и Y существует линейная
линейная положительная отрицательная зависимость
зависимость
БГ
Y Y
xy =0,5 xy =0
г
в
а
ек
X X
т
зависимость
Рис. 12.2
бл
к нулю, тем слабее эта зависимость. Говорят, что при ˆ xy 0 (см. рис. 12.2, а, в)
между X и Y существует положительная корреляция. При ˆ xy < 0 (см. рис. 12.2, б)
между X и Y существует отрицательная корреляция. При ˆ xy = 0 (см. рис. 12.2, г)
X и Y некоррелированны.
Поскольку коэффициент корреляции ˆ xy характеризует степень линейной
зависимости, то при ˆ xy = 0 может оказаться, что между Х и Y существует нели-
нейная связь.
149
12.4. Построение доверительных интервалов для коэффициентов
уравнения регрессии
Р
n
y x
УИ
i i
1 n
yi , i 1
n
. (12.16)
n i1
x
i 1
2
i
БГ
Вычислим дисперсии точечных оценок и , т. е. определим рассеива-
ние случайной величины Y относительно линии регрессии x . Ранее мы по-
ложили (см. раздел 12.1), что i – величина ошибки, которая распределена по
а
нормальному закону M [i ] 0 и D[i ] 2 ; (i yi xi , xi xi x ) . По-
ек
1 n 1 n 1 n
D[ ] D[ yi ] D[ ( xi i )] 2 D[( xi i )]
n i1 n i 1 n i1
(12.17)
ио
1 n 2
2 D i .
n i 1 n
n n n n
y x D[ y x ] x D[ y ] x D[ y ] 2 2
бл
i i i i i i i i
D[] D[ i 1n ] i 1
n
i 1
n
i 1
n
x 2
i ( x ) 2 2
i ( x ) 2 2
i ( x ) 2 2
i
Би
i 1 i 1 i 1 i 1
n n n
x D[ ] x
i 1
2
i i
i 1
2 2
i 2 x i2
i 1 2
n
n
n
n
. (12.18)
( x ) 2 2
i ( x ) i
2 2
( x ) 2 2
i x 2
i
i 1 i 1 i 1 i 1
150
Заменяя дисперсию 2 на оценку S 2 , определяемую как
1 n 1 n 2 nS 2
S ( yi xi ) i , можно показать, что величина 2 имеет за-
2 2
n i 1 n i1
2
кон распределения с (n – 2) степенями свободы.
Для получения доверительного интервала для коэффициента возьмем
разность между точечной оценкой ̂ и коэффициентом : ̂ . Нормируем
ее, разделим на D[ˆ ] и обозначим как V:
ˆ
V (12.19)
D[ˆ ]
Р
Аналогично для коэффициента :
УИ
ˆ
W (12.20)
D[ˆ ]
Подставляя в (12.19), (12.20) выражения (12.17), (12.18) и разделив (12.19),
БГ
nS 2
(12.20) на /(n 2) , получим
2
а
/ n / xi2
V , W . (12.21)
ек
nS 2 nS 2
/(n 2) /(n 2)
2 2
Эти случайные величины имеют закон распределения Стьюдента с
т
= n – 2 степенями свободы.
Зная закон распределения случайной величины V (плотность распределе-
ио
Vp
151
Решая неравенство относительно , находим доверительный интервал
для коэффициента :
S S
V p V p . (12.23)
n2 n2
Аналогично поступим для случайной величины W , записывая условие
Wp
Р
неравенство в правой части (12.24):
УИ
n2
Wp Wp . (12.25)
S 1 xi2 n
БГ
Из (12.25) получаем доверительный интервал для коэффициента :
S n2
S n2
W p W p . (12.26)
xi2 n xi2 n
а
ек
т
ио
бл
Би
152
ЧАСТЬ 3. СЛУЧАЙНЫЕ ПРОЦЕССЫ
Р
ГЛАВА 13. ЭЛЕМЕНТЫ ТЕОРИИ СЛУЧАЙНЫХ ПРОЦЕССОВ
УИ
БГ
13.1. Основные понятия
ется как время, то если t = (0,1,2,…), то говорят что (t , ) – процесс с дис-
кретным временем; если t [0;T ] , то (t , ) – процесс с непрерывным временем.
ио
153
(t , )
x(t)
x(t1)
t1 t
Р
Рис. 13.1
УИ
Если нас интересует только х1, то это будет одномерная случайная вели-
чина, свойства которой полностью описываются одномерной плотностью рас-
пределений f1(x1;t1). Отметим, что в отличие от теории вероятностей f1(x1;t1) за-
БГ
висит не только от х1, но и от t1. Одномерная плотность распределения f1(x1;t1)
дает некоторое представление о свойствах случайного процесса, но не полное.
Более подробное представление о случайном процессе получается, если рас-
сматривать два отсчета х1 и х2, берущихся в моменты времени t1 и t2: x1 = x(t1),
а
x2 = x(t2). И характеризовать их двумерной плотностью распределения:
f2(x1,x2;t1,t2). Тогда n-мерная плотность распределения запишется так:
ек
Чем больше берется отсчетов и чем ближе они расположены друг к другу,
тем подробнее описывается случайный процесс.
В пределе, когда n , max(ti1 ti ) 0 , мы получаем совершенно точ-
ио
154
m(t ) M [ x(t )] xf ( x; t )dx .
1 (13.2)
В отличие от теории вероятностей m(t) не число, а функция от времени.
Оно дает некоторую кривую, около которой группируются все реализации слу-
чайного процесса (рис. 13.2).
x(t)
m(t)
Р
УИ
t
Рис. 13.2
БГ
Дисперсия случайного процесса (средняя по ансамблю):
2
D (t ) D[ x(t )] ( x m(t )) f1 ( x; t )dx . (13.3)
а
Дисперсия определяет, насколько сильно отдельные реализации могут
отклоняться от математического ожидания. В отличие от теории вероятностей
ек
R (t1 , t2 ) M [ x(t1 ), x (t2 )] xx f ( x1 , x2 ; t1 , t 2 )dx1dx2 .
1 2 2 (13.4)
ио
Р
венства стоят отсчеты, берущиеся в моменты времени t1 , t2 ,..., tn , и со-
ответствующая плотность распределений f n ( x1 ,..., xn ; t1 ,..., tn ) описывает
УИ
свойства случайного процесса в эти сдвинутые моменты времени. Равенство
этих плотностей распределений означает, что свойства случайного процесса
одинаковы как в моменты времени t1 , t2 ,..., tn , так и в моменты времени
БГ
t1 , t2 ,..., tn . Таким образом, стационарность в узком смысле означает,
что все свойства, характеристики и т. п. случайного процесса не зависят от
начала отсчета времени. Грубо говоря, какими свойствами обладает случай-
ный процесс сегодня, такие же свойства он имел год тому назад и такие же
а
свойства он будет иметь через 1000 лет. Но реально это несколько не так. Все
меняется, но нас интересуют отрезки времени, малые по сравнению со време-
ек
f1 ( x1; t1 ) f1 ( x1; t1 ) .
Поскольку произвольно, то полагая t1 , получим:
ио
f1 ( x1; t1 ) f1 ( x1;0) f1 ( x1 ) .
Поэтому
бл
1 1
Отметим, что у стационарных случайных процессов математическое
ожидание, дисперсия и плотность распределения от времени не зависят (m и
D – числа, плотность распределения f1(x1) – функция только от х1).
2. Полагая в (13.7) n = 2 и t1 получим
f 2 ( x1 , x2 ; t1 , t2 ) f n ( x1 , x2 ;0, t 2 t1 ) .
Тогда функция корреляции принимает вид
156
R (t1 , t2 ) x1 x2 f 2 ( x1 , x2 ; t1 , t2 )dx1dx2
Р
На рис. 13.3 показан вид стационарного случайного процесса.
УИ
x(t)
БГ
а
t
ек
Рис. 13.3
т
усредненная
среднее по ансамблю f n ( x1 ,..., xn ; t1 ,..., tn )dx1...dxn . (13.8)
величина
Би
157
x(t)
t1 t2 t
Р
Рис. 13.4
УИ
Для стационарных случайных процессов кроме средних по ансамблю
можно ввести еще так называемые средние по времени. В общем виде среднее
по времени представляет собой:
БГ
усредненная
T
величина dt . (13.9)
а
Характерным для средних по времени является то, что фиксируются
реализации, а «перебираются» все моменты времени. В средних по времени
ек
T
1
D lim ( x (t ) m ) 2 dt . (13.11)
T 2T
T
3. Функция корреляции, средняя по времени (в ней фигурирует произве-
Би
158
13.5. Свойства функций корреляции случайного процесса
Р
M [U 2 ]M [V 2 ] M 2 [UV ] . (13.13)
УИ
Обозначим отсчеты x (t1 ), x(t2 ) , как U x(t1 ), V x(t2 ) , и подставим в
(13.13):
M [ x 2 (t1 )]M [ x 2 (t2 )] M 2 [ x (t1 ) x (t2 )] .
С учетом определения (13.4), получаем
Тогда
БГ
R (t1 , t1 ) R (t2 , t2 ) R 2 (t1 , t2 ) .
а
| R(t1 , t2 ) | R(t1 , t1 ) R(t2 , t2 ) .
ек
159
Если рассматривать функцию корреляции флуктуаций (13.5), то
D R0 (0) , т. к. R0 () M x(t ) m M x(t ) m 0 .
4. Функция корреляции является положительно определенной функцией.
Рассмотрим моменты времени t1,…,tn и произвольные величины 1 ,..., n , по-
скольку:
n n n
2
M [{ i x(ti )} ] 0, M [ x(ti )i j ] 0 ,
i 1 i 1 j 1
R(t , t )
i j 1 2 0.
Р
i , j 1
УИ
можно построить такой случайный процесс, для которого R(t1,t2) будет функци-
ей корреляции.
5. Время корреляции для стационарного случайного процесса определя-
БГ
ется как
1
K | R0 () | d . (13.14)
R0 (0) 0
а
Время корреляции определяет, насколько далеко по времени наблюдается
ек
Рис. 13.5
Би
б) 0
R0 () D e cos . R0 ()
Зависимость R0 () приведена D
на рис. 13.6.
Рис. 13.6
160
2 2
02 02
в) R0 () D e . г) R0 () D e cos .
Р
m m ,
УИ
Эргодическим может быть только стационарный случайный процесс, но
не всякий стационарный случайный процесс может быть эргодичен. Эргодич-
ность имеет большое значение: она позволяет заменить изучение ансамбля реа-
лизаций изучением одной длинной реализации, т. к. каждая реализация (у эрго-
БГ
дического случайного процесса) с вероятностью 1 имеет те же характеристики,
что и весь ансамбль.
а
13.7. Спектр мощности случайного процесса
ек
ставлена в виде интеграла Фурье (прямое и обратное преобразование Фурье):
ио
it
x (t ) X ()e d , (13.15)
бл
1
X () x(t )e it dt , (13.16)
2
161
x (t ) | t | T ,
xT (t ) =
0 | t | T .
T
2 2
Тогда x (t )dt x (t )dt
T
T
, и для процесса xT (t ) можно написать
Р
1
X T () xT (t )e it dt . (13.18)
2
УИ
T
1
Рассмотрим величину lim x 2 (t )dt W . В большинстве физических
T T
T
T
БГ
2
формул x (t )dt
T
– величина пропорциональна энергии случайного процесса на
комплексная величина T T
ио
1
= учтем, что eit ( 1 2 )t dt (1 2 ) – -функция Дирака,
2
бл
ее свойство: f (1 )(1 2 )d 1d 2 f (2 ) =
Би
2
= lim X T (1 ) X T* (2 )(1 2 )d 1d 2
T 2T
2
2 * X T () 2
= lim X ( ) X ( ) d T 2T d .
lim (13.19)
T 2T
T T
| X T () |2 2
Обозначим S () lim – эта функция называется спектром
T 2T
мощности случайного процесса.
162
Тогда запишем среднюю мощность так:
W S ()d , (13.20)
Р
УИ
13.8. Теорема Винера-Хинчина
БГ
процесс:
1
R () lim xT (t ) xT* (t )dt в общем случае случайный процесс x(t) –
T T
а
комплексная величина, поэтому запишем R () в виде комплексно сопряженных
ек
величин, используя (13.17): xT (t ) = X T (1 )ei1t d 1 , и учтем сопряженную вели-
т
* *
чину x (t )
T X T (2 )e i2t d 2 =
ио
1
= lim ei1t i2 ( t ) X T (1 ) X T* (2 )d 1d 2 dt
бл
T T
=| используем свойство -функции |=
i 1
e lim X T (1 ) X T* (2 )2(1 2 )d 1d 2
Би
2T
T
i 1 | X T () |2 2 i
=e lim d S ()e d . (13.21)
2T T 2T
163
Тогда спектр мощности определится через обратное преобразование Фурье:
1
S () R ()e i d . (13.23)
2
Запишем спектр мощности через тригонометрические функции, исполь-
зуя формулу Эйлера: e i cos i sin .
1 i
S () R ()cos d R()sin d . (13.24)
2 2
Последний интеграл в (13.24) равен нулю, т. к. R () четная функция. Тогда
Р
1
S () R()cos d . (13.25)
УИ
2
Отсюда следует, что спектр мощности S () также четная функция. С
учетом выше сказанного перепишем функцию корреляции (13.22):
БГ
R () S ()cos d . (13.26)
В формулы (13.25), (13.26) входит круговая частота 2f , где f – ли-
а
нейная частота. Перепишем эти формулы через линейную частоту, вводя обо-
значения S ()d S ( f )df , S ( f ) 2S (2f ) . Тогда
ек
R () S ( f )cos(2f )df , (13.27)
т
S(f ) R()cos(2f )d . (13.28)
ио
В этих формулах фигурируют отрицательные частоты от –∞ до 0, т. к. они
ничем не отличаются от положительных, то часто рассматривают только час-
тотный интервал [0;+∞]и определяют S () ( для ) так:
бл
Р
случайных процессов
УИ
Шириной спектра случайного процесса называется величина
из (13.33) при 0
1 R0 (0)
БГ
| S0 () | d R0 (0) 4 S 0 ()d , отсюда . (13.34)
S0 (0) 0 0
4 S0 (0)
R0 (0)
S ()d
0
4
а
0
ек
Время корреляции
из (13.32) при 0
т
1 1 2S0 (0)
0 | R0 () | d R0 ()d 1 . (13.35)
S0 (0) R ( ) d
2 0
R0 (0) 0 R0 (0) 0 0 R0 (0)
ио
2
Подставляя в круговую частоту, получим 2 f k и окончательно
2
Би
1
f k . (13.36)
4
165
функцию двух аргументов R (, t ) . Тогда на основании теоремы Винера-
Хинчина можно записать
1
S (, t ) R(, t )e i d
2
R(, t ) S (, t )ei d (13.37)
Теорема: Если S (, t ) 0 для всех при | |> , то имеет место разло-
жение
Р
n
k sin(t k )
x (t ) lim x ( ) , (13.38)
УИ
n
k n t k
k k
где x( ) – отсчет случайного процесса в момент времени .
На рис. 13.7 показана заштрихованная область частот, для которой спектр
БГ
мощности S (, t ) = 0.
-
а
Рис. 13.7
ек
Доказательство:
Предположим, что спектр мощности является периодической функцией с
т
k
Коэффициенты С k определяются как
бл
из (13.37) получим
1 i 2 k
Ck S (, t )e 2 d k
2 R(, t ) S (, t )ei d , обозначим
Би
1 k
R( , t ) .
2
Подставим Ck в (13.39):
1 k i 2 k 2
S (, t ) R
2 k
( , t ) e .
166
i1 k i 2 k i
R (, t ) S (, t )e d R( , t )e 2
d
k 2 2
k
1 k i( )
R( , t ) e d
2 k 2
k k
i(
) 1 i(
) учтем, что
e d e
k ei cos i sin
i( )
Р
УИ
2 k sin( k )
sin( k ) R ( , t ) .
k k
k
Поскольку функция корреляции симметрична, то можно записать
R (, t )
k l
R( , ) k БГ
k l sin( k ) sin(t l )
t l
. (13.40)
а
Докажем основное положение теоремы. Используем следующее опреде-
ек
n n
k n t k
n
k sin(t k )
lim M x(t ) 2 2 M x(t ) x( )
Би
n
k n t k
k l sin( k ) sin(t l )
M x( ) x( )
k l k t l
Р
процессов, в частности спектр мощности случайного процесса (раздел 13.7).
Иногда стационарные случайные процессы классифицируют по спектральным
УИ
характеристикам: различают стационарные случайные процессы в широком
смысле – узкополосные, когда спектр мощности сосредоточен в узкой полосе
частот возле определенной фиксированной частоты 0 . В разделе 13.9 мы вве-
БГ
ли понятие ширины спектра : если 0 , то стационарный случайный
процесс будет называться узкополосным. На рис. 13.8 изображен узкополосный
спектр мощности S () случайного процесса. На рис. 13.9 функция корреляции
R () узкополосного случайного процесса.
а
S () R ()
ек
0
т
ио
0
2 / 0
бл
S () = W0 , . (13.41)
168
Тогда стационарный в широком смысле случайный процесс с равномер-
ным спектром мощности на всех частотах называется белым шумом. Функ-
ция корреляции белого шума представляет собой -функцию, расположенную
в начале координат, (рис. 13.11):
R () ()W0 . (13.42)
R ()
S ()
()
Р
W0
УИ
0 0
Рис. 13.10 Рис. 13.11
БГ
Для белого шума характерно то, что два его отсчета, взятые в сколь угод-
но близкие моменты времени, некоррелированы. Однако на практике белый
шум реализовать невозможно, т. к. полная мощность белого шума бесконечна, а
а
реальные случайные процессы имеют конечную мощность. И для реального
случайного процесса рядом стоящие отсчеты коррелированы. Поэтому белый
ек
169
13.12. Марковские случайные процессы
Р
Таблица
УИ
Значения Значения процессов
аргумента t
Дискретный Непрерывный
Дискретные
БГ
а
Марковская последо-
ек
вательность
Цепь Маркова
т
ио
Непрерывные
Дискретный марковский процесс Непрерывнозначный
бл
марковский процесс
Би
P ( AJ (tl ) | Ai (tl 1 ), Ai1 (tl 2 ), Ai 2 (tl 3 ),..., Aik (t1)) P( A j (tl ) | Ai (tl 1)) . (13.43)
Р
Можно отметить, что в цепях Маркова зависимость между состояниями
простирается лишь на один шаг назад.
УИ
Введем понятие переходной вероятности – это вероятность перехода
системы из одного состояния в другое:
Pij (tl , tl 1 ) P ( AJ (tl ) | Ai (tl 1 )) . (13.44)
БГ
Если Pij со временем не меняется, т. е. от tl 1 не зависит, то цепь Маркова
называют однородной. Рассмотрим свойства таких цепей. Переходные вероят-
ности однородной цепи Маркова образуют матрицу переходных вероятностей.
а
P11 P12 ... P1 j ... P1n
ек
N
2. Сумма по строке – Pij 1 , (i=1, N ), N – количество состояний.
j 1
Би
171
(и не зависит от s). Обозначим ее Pij n . Тогда Pik m – вероятность перехода за m
шагов из состояния A j в состояние Ak и Pkj n m – вероятность перехода за n-m
шагов из состояния Ak в A j (рис. 13.12). Используя формулу полной
вероятности и учитывая, что промежуточные состояния A1, A2 ,... An в (s+m)-м
испытании образуют полную группу попарно несовместимых событий, получим
N
Pijn Pikm Pkjn m . (13.46)
k 1
Р
Ak
УИ
Aj
Ai
m шагов БГ
n-m шагов
а
Рис. 13.12
ек
n m n m , m =1, n 1 . (13.47)
Применяя последовательно формулу (13.47), получим
n = 1 n 1 12 n 2 ... 1n .
Би
172
Пусть существует предел
Р
Pj 0, Pj 1 .
j 1
УИ
Пример.
Дана цепь Маркова, которая описывается матрицей переходных вероят-
ностей.
j 1 1
i
P11 P12 2 2
P P = 1 3
21 22
4 4
БГ
(сумма вероятностей по строке равна 1).
а
Необходимо определить вероятность P1 системы в 1-м состоянии.
ек
Решение.
P1 = lim Pi1n .
n
т
переменных:
zn + zn 1 ,
z1 z0 ,
z2 z1 ( z0 ) = (1 ) 2 z0 ,
……………………………………………………
zn (1 2 ... n 1 ) n z0 .
173
Учтем, что 1 2 ... n1 – сумма геометрической прогрессии, тогда
(1 n 1 )
zn n z0 .
1
Найдем предел при n :
(1 n 1 )
lim zn | т. к. 1 , |= lim (zn = Pi1n n z0 ) .
n n 1 1
Тогда искомая вероятность вычисляется так:
1
P21 4 1
P1 = lim zn lim Pi1n
Р
= .
n n 1 1 P11 P21 1 1 1 3
2 4
УИ
13.12.1. Марковские процессы с непрерывным временем
БГ
Случайный процесс X(t) называется марковским, если для любого момен-
та времени t1 при известном значении X( t1 ) случайные величины X(t) c t> t1 не за-
висят от случайных величин X(S) c S< t1 , т. е. марковские процессы характеризу-
а
ются тем, что вероятностные свойства процесса в момент t > t1 определяются со-
стоянием в момент t1 и не зависят от состояний процесса до момента t1 .
ек
174
Поскольку вероятностные свойства процесса в момент tn определяются
состоянием в момент tn 1 и не зависят от протекания процессов в предшест-
вующие моменты времени, тогда условная плотность распределения
g n (tn , xn | t1, x1;...; tn 1, xn 1 ) g n (tn , xn | tn 1, xn 1 ) . (13.51)
Р
f n (t1, x1;...; t n , xn ) f n 1 (t1, x1;...; tn 1, xn 1 ) g n (tn , xn | t1, x1;...; tn 1, xn 1 ) . (13.52)
УИ
Учитываем свойство марковских цепей:
g n (tn , xn | t1, x1;...; tn 1, xn 1 ) g (tn , xn | tn 1, xn 1 ) . (13.53)
БГ
меняя эту формулу в правой части для f n 1 , а затем для f n 2 ... f 2 , получим
f n (t1, x1;...; t n , xn ) f1 (t1, x1 ) g (t2 , x2 | t1, x1 ) g (t3 , x3 | t2 , x2 )...g (tn , xn | tn 1, xn 1 ) . (13.54)
а
Отсюда видно, что для задания n-мерной плотности распределения мар-
ковского процесса достаточно знать лишь две функции: одномерную плотность
ек
имеем
f 3 (t0 , x0 ; , y; t , x) f1 (t0 , x0 ) g ( , y | t0 , x0 ) g (t , x | , y ) , (13.55)
ио
f 2 (t0 , x0 ; t , x) f3 (t0 , x0 ; , y; t , x)dy . (13.57)
Би
175
Это уравнение Смолуковского (или Колмогорова-Чепмена) является ос-
новным в теории непрерывных марковских процессов.
Р
Запишем переходные вероятности через уравнение Смолуковского в мо-
УИ
менты t t и t:
g (T , z | t t , x ) g (t , y | t t , x) g (T , z | t , y )dy, (13.59)
БГ
g (T , z | t , x ) g (T , z | t , x) g (t , y | t t , x)dy. (13.60)
= g (T , z | t , x) g (T , z | t , y ) g (t , y | t t , x)dy . (13.61)
т
g ( y x )2 2 g
g (T , z | t , y ) g (T , z | t , x) ( y x) 2 ... .
x 2 x
Подставляя это разложение в интеграл (13.61), разделим левую и правую
бл
t 0 t
1 g ( y x)2 2 g
lim (
t 0
[( y x) x 2 x 2 ] g (t , y | t t , x)dy,
t
(13.62)
g (T , z t , x) g (T , z t , x) 1 2 g (T , z t , x)
a (t , x) b (t , x ) 0. (13.63)
t x 2 x 2
176
1
a(t, x) = lim ( y x ) g (t , y | t t , x )dy , (13.64)
t 0 t
1
b(t, x) = lim ( y x)2 g (t , y | t t , x )dy . (13.65)
t 0 t
g (T , z t , x) 1 2
[a(T , z ) g (T , z t , x)] [b(T , z ) g (T , z t , x)] 0 . (13.66)
T z 2 z 2
Р
Здесь a (T , z ) и b(T , z ) – те же функции, что и a (t , x) (13.64) и b(t , x)
(13.65), но взятые для T и z.
УИ
Непрерывный марковский процесс, который описывается уравнениями
(13.63) и (13.66) называется диффузионным. Коэффициент a (T , z ) называется
коэффициентом сноса, а коэффициент b(T , z ) – коэффициентом диффузии.
БГ
Уравнение (13.66) называется прямым уравнением Колмогорова, а уравнение
(13.63) называется обратным уравнением Колмогорова. Уравнения Колмогоро-
ва относятся к классу параболических дифференциальных уравнений в частных
производных.
а
ек
т
ио
бл
Би
177
ПРИЛОЖЕНИЕ
Р
0,00 0,0000 0,66 0,4907 1,32 0,8132 1,98 0,9523
0,02 0,0160 0,68 0,5035 1,34 0,8198 2,00 0,9545
УИ
0,04 0,0319 0,70 0,5161 1,36 0,8262 2,05 0,9596
0,06 0,0478 0,72 0,5285 1,38 0,8324 2,10 0,9643
0,08 0,0638 0,74 0,5407 1,40 0,8385 2,15 0,9684
0,10 0,0797 0,76 0,5527 1,42 0,8444 2,20 0,9722
0,12 0,0955 0,78 0,5646 1,44 0,8501 2,25 0,9756
БГ
0,14 0,1113 0,80 0,5763 1,46 0,8557 2,30 0,9786
0,16 0,1271 0,82 0,5878 1,48 0,8611 2,35 0,9812
0,18 0,1428 0,84 0,5991 1,50 0,8664 2,40 0,9836
0,20 0,1585 0,86 0,6102 1,52 0,8715 2,45 0,9857
0,22 0,1741 0,88 0,6211 1,54 0,8764 2,50 0,9876
а
0,24 0,1897 0,90 0,6319 1,56 0,8812 2,55 0,9892
ек
178
2. Таблица квантилей распределения Стьюдента
t ,k
f t ( x)dx .
t ,k ft (x)
Р
x
УИ
-t ,k t ,k
k 0,90 0,95 0,98 0,99
1 6,31 12,71 31,8 63,7
БГ
2 2,92 4,30 6,96 9,92
3 2,35 3,18 4,54 5,84
4 2,13 2,77 3,75 4,60
5 2,02 2,57 3,36 4,03
6 1,943 2,45 3,14 4,71
а
7 1,895 2,36 3,00 3,50
8 1,860 2,31 2,90 3,36
ек
179
3. Таблица квантилей 2 ,k распределения f (x)
«Хи-квадрат»
P ( 2 2 , k ) .
k
k 0,01 0,02 0,05 0,95 0,98 0,99
1 6,64 5,41 3,84 0,004 0,001 0,000
2 9,21 7,82 5,99 0,103 0,040 0,020
Р
3 11,34 9,84 7,82 0,352 0,185 0,115
4 13,28 11,67 9,49 0,711 0,429 0,297
5 15,09 13,39 11,07 1,145 0,752 0,554
УИ
6 16,81 15,03 12,59 1,635 1,134 0,872
7 18,48 16,62 14,07 2,17 1,564 1,239
8 20,10 18,17 15,51 2,73 2,03 1,646
9 21,07 19,68 16,92 3,32 2,53 2,09
10 23,20 21,2 18,31 3,94 3,06 2,56
БГ
12 26,2 24,1 21,0 5,23 4,18 3,57
14 29,1 26,9 23,7 6,57 5,37 4,66
16 32,0 29,6 26,3 7,96 6,61 5,81
18 34,8 32,3 28,9 9,39 7,91 7,02
20 37,6 35,0 31,4 10,85 9,24 8,26
а
22 40,3 37,7 33,9 12,34 10,60 9,54
24 43,0 40,3 36,4 13,85 11,99 10,86
ек
f (x)
4. Таблица значений функции Колмогорова
ио
P ( ) 1 .
бл
0,50 0,0361 1,02 0,7500 1,54 0,9826
0,54 0,0675 1,06 0,7889 1,58 0,9864
Би
180
ЛИТЕРАТУРА
1. Вентцель, Е. С. Теория вероятностей и математическая статистика :
учеб. пособие / Е. С. Вентцель; 5-е изд., стереотип. – М. : Высш. школа,
1998. – 576 с.
2. Вентцель, Е. С. Теория вероятностей и ее инженерные приложения /
Е. С. Вентцель, Л. А. Овчаров. – М. : Наука, 1988. – 416 с.
3. Гнеденко, Б. В. Курс теории вероятностей : учебник / Б. В. Гнеденко;
6-е изд., перераб. и доп. – М. : Наука, 1988. – 448 с.
4. Пытьев, Ю. А. Курс теории вероятностей и математической статисти-
ки для физиков : учеб. пособие / Ю. А. Пытьев, И. А. Шишмарев. – М. : Изд-во
Р
Моск. ун-та, 1983. – 256 с.
5. Герасимович, А. И. Математическая статистика / А. И. Герасимович. –
УИ
Минск : Выш. школа, 1983. – 279 с.
6. Левин, Б. Р. Теоретические основы статистической радиотехники /
Б. Р. Левин. – М. : Радио и связь, 1989. – 656 с.
7. Феллер, В. Введение в теорию вероятностей и ее приложения.
БГ
В 2 т. / В. Феллер; пер. с англ. – М. : Мир, 1984. – Т.1 – 528 с. ; Т.2 – 738 с.
8. Жевняк, Р. М. Теория вероятностей и математическая статистика :
учеб. пособие / Р. М. Жевняк, А. А. Карпук, В. Т. Унукович. – Минск : Харвест,
2000. – 384 с.
а
9. Гмурман, В. Е. Теория вероятностей и математическая статистика :
ек
181
ОГЛАВЛЕНИЕ
ПРЕДИСЛОВИЕ ........................................................................................................................... 3
ЧАСТЬ 1. ТЕОРИЯ ВЕРОЯТНОСТЕЙ....................................................................................... 5
ГЛАВА 1. СЛУЧАЙНЫЕ СОБЫТИЯ...................................................................................... 5
1.1. Основные понятия теории вероятностей .......................................................................... 5
1.2. Пространство элементарных событий............................................................................... 8
1.3. Операции над событиями ................................................................................................ 10
1.4. Аксиомы теории вероятностей (Аксиомы Колмогорова А. Н.). .................................... 13
1.5. Классический метод определения вероятностей ............................................................ 16
1.6. Геометрическое определение вероятностей ................................................................... 18
Р
1.7. Свойства вероятности (основные теоремы) .................................................................... 21
1.8. Условная вероятность. Независимость событий. ........................................................... 24
УИ
1.9. Формула полной вероятности.......................................................................................... 28
1.10. Формула Байеса. ............................................................................................................. 29
1.11. Последовательность независимых испытаний. Формула Бернулли. ........................... 31
1.11.1. Наивероятнейшее число наступлений события при повторении испытаний ........... 33
ГЛАВА 2. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ ............................................................................... 35
БГ
2.1. Определение случайной величины.................................................................................. 35
2.2. Законы распределения случайных величин. ................................................................... 37
2.3. Функция распределения ................................................................................................... 38
2.4. Плотность распределения непрерывной случайной величины ...................................... 42
ГЛАВА 3. МНОГОМЕРНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ ................................................. 46
а
3.1. Понятие о многомерных (векторных) случайных величинах ........................................ 46
3.2. Закон распределения многомерной случайной величины.............................................. 47
ек
182
6.5. Нормальный (гауссовский) закон распределения. .......................................................... 88
6.5.1. Функция Лапласа ........................................................................................................... 91
ГЛАВА 7. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ. ЗАКОН БОЛЬШИХ ЧИСЕЛ. ................................ 93
7.1. Неравенство Чебышева .................................................................................................... 93
7.2. Теорема Чебышева ........................................................................................................... 94
7.3. Теорема Бернулли............................................................................................................. 96
7.4. Центральная предельная теорема (Теорема Ляпунова) .................................................. 98
7.5. Формулы Муавра – Лапласа........................................................................................... 100
ЧАСТЬ 2. МАТЕМАТИЧЕСКАЯ СТАТИСТИКА ............................................................... 102
ГЛАВА 8. ОСНОВНЫЕ ПОНЯТИЯ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ .................. 102
8.1. Выборка, вариационный ряд, гистограмма ................................................................... 102
8.2. Оценки и методы их получения ..................................................................................... 104
8.2.1. Метод моментов .......................................................................................................... 105
Р
8.2.2. Метод наибольшего правдоподобия ........................................................................... 106
8.3. Свойства оценок ............................................................................................................. 108
УИ
ГЛАВА 9. ОСНОВНЫЕ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН
В МАТЕМАТИЧЕСКОЙ СТАТИСТИКЕ ............................................................................ 114
9.1. Гамма-функция и ее свойства ........................................................................................ 114
2
9.2. Распределение (хи-квадрат ) .................................................................................... 115
БГ
9.3. Распределение Стьюдента ( t -распределение) .............................................................. 118
9.4. Распределение Фишера (F-распределение) ................................................................... 119
ГЛАВА 10. ИНТЕРВАЛЬНЫЕ ОЦЕНКИ ПАРАМЕТРОВ РАСПРЕДЕЛЕНИЙ .............. 121
10.1. Доверительный интервал, доверительная вероятность............................................... 121
10.2. Доверительный интервал для математического ожидания случайной величины Х
а
при известной дисперсии (или )........................................................................................ 122
10.3. Доверительный интервал для математического ожидания нормальной случайной
ек
2
Критерий Пирсона. (Критерий согласия ) ....................................................................... 138
11.5. Критерий Романовского ............................................................................................... 140
11.6. Критерий согласия Колмогорова ................................................................................. 141
ГЛАВА 12. ЛИНЕЙНЫЙ РЕГРЕССИОННЫЙ АНАЛИЗ. ................................................. 144
Би
183
13.5. Свойства функций корреляции случайного процесса ................................................ 159
13.6. Эргодические случайные процессы............................................................................. 161
13.7. Спектр мощности случайного процесса...................................................................... 161
13.8. Теорема Винера-Хинчина ............................................................................................ 163
13.9. Соотношение неопределенности для стационарных случайных процессов ............. 165
13.10. Разложение случайного процесса в ряд Котельникова............................................. 165
13.11. Классификация случайных процессов....................................................................... 168
13.12. Марковские случайные процессы.............................................................................. 170
13.12.1. Марковские процессы с непрерывным временем .................................................. 174
13.12.2. Уравнения Колмогорова ......................................................................................... 176
ПРИЛОЖЕНИЕ..................................................................................................................... 178
ЛИТЕРАТУРА ...................................................................................................................... 181
ОГЛАВЛЕНИЕ...................................................................................................................... 182
Р
УИ
БГ
а
ек
т
ио
бл
Би
184
Учебное издание
Р
ТЕОРИЯ ВЕРОЯТНОСТЕЙ
И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА
УИ
УЧЕБНО-МЕТОДИЧЕСКОЕ ПОСОБИЕ
БГ
а
ек
т
ио
бл
Редактор И. П. Острикова
Корректор А. В. Тюхай
Би
Подписано в печать 01.07.2011. Формат 60х84 1/16. Бумага офсетная. Гарнитура «Таймс».
Отпечатано на ризографе. Усл. печ. л. 10,81. Уч.-изд. л. 10,0. Тираж 100 экз. Заказ 439.
185