Вы находитесь на странице: 1из 185

Министерство образования Республики Беларусь

Учреждение образования
«Белорусский государственный университет
информатики и радиоэлектроники»

А. В. Аксенчик

Р
УИ
БГ
ТЕОРИЯ ВЕРОЯТНОСТЕЙ
И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА
а
ек

Рекомендовано УМО Республики Беларусь по образованию


в области информатики и радиоэлектроники
т

в качестве учебно-методического пособия для студентов учреждений,


обеспечивающих получение высшего образования
ио
бл
Би

Минск БГУИР 2011


УДК 519.2(075.8)
ББК 22.17я73
А42

Р е ц е н з е н т ы:
кафедра высшей математики учреждения образования
«Белорусский государственный
аграрный технический университет», заведующий кафедрой,
кандидат физико-математических наук, доцент И. М. Морозова

доцент кафедры естественно-научных дисциплин

Р
учреждения образования «Белорусский национальный
технический университ», кандидат

УИ
физико-математических наук С. В. Чернявская

А42
Аксенчик, А. В.
БГ
Теория вероятностей и математическая статистика : учеб.-метод.
пособие / А. В. Аксенчик. – Минск : БГУИР, 2011. – 184 с. : ил.
а
ISBN 978-985-488-632-9.
ек

Дается систематическое изложение основ теории вероятностей и математиче-


ской статистики в соответствии с типовой учебной программой по данной дисцип-
т

лине.
Пособие состоит из трех частей. Часть 1 «Теория вероятностей» включает семь
ио

глав, в которых рассмотрены случайные события, случайные величины, предельные


теоремы. Часть 2 «Математическая статистика» содержит пять глав, где приведены
основные определения математической статистики, точечные и интервальные оцен-
ки, теория статистической проверки гипотез, линейный регрессионный анализ, а
бл

также примеры решения задач. Часть 3 «Случайные процессы» выходит за рамки


учебной программы, однако этот раздел будет полезен студентам радиотехнических
специальностей при изучении специальных дисциплин, использующих основы тео-
рии случайных процессов.
Би

УДК 519.2(075.8)
ББК 22.17я73

ISBN 978-985-488-632-9  Аксенчик А. В., 2011


 УО «Белорусский государственный
университет информатики
и радиоэлектроники», 2011

2
ПРЕДИСЛОВИЕ

Изучение основных положений теории вероятностей и математической


статистики является важным элементом технического образования. Это обу-
словлено тем, что реальные физические процессы, при более глубоком их изу-
чении, не описываются классическими методами математической физики, а
требуют вероятностного подхода, т. е. неоднозначного описания физических
явлений. Так возникли статистическая физика, квантовая механика. Непредска-
зуемый, случайный характер шумов, помех, статистическая структура источни-
ков сообщений, искажение радиосигналов при прохождении турбулентностей в

Р
атмосфере и ионосфере потребовали применения вероятностных методов в тео-
ретической радиотехнике – так появилась статистическая радиотехника. И если

УИ
в середине прошлого века теорию вероятностей и математическую статистику
изучали студенты лишь некоторых специальностей, то в настоящее время сту-
денты большинства специальностей не могут обойтись без знания этой дис-
циплины.

БГ
Основу данного учебно-методического пособия составляет курс лекций
по теории вероятностей, математической статистике и случайным процессам,
который читался студентам второго курса радиотехнических специальностей
Белорусского государственного университета информатики и радиоэлектрони-
а
ки автором данного издания.
Содержание учебно-методического пособия предполагает знание студен-
ек

тами таких разделов курса высшей математики, как «Ряды», «Множества и


операции над ними», «Дифференциальное и интегральное исчисления». Особое
внимание в учебном пособии уделяется разъяснению основных определений и
т

теорем теории вероятностей.


В части 1 «Теория вероятностей» (главы 1–7) данного пособия рассмот-
ио

рены все основные определения, теоремы теории вероятностей, которые бази-


руются на основных понятиях теории множеств, на аксиоматическом подходе к
определению вероятности; все теоремы, свойства приводятся с доказательства-
бл

ми. В главе 1 даются понятия о событиях, в главе 2 рассматривается определе-


ние случайной величины, формы законов описания распределений случайных
величин. В главе 3 содержатся сведения о многомерных случайных величинах.
Би

Это несколько не традиционно, так как обычно после знакомства с одномерной


случайной величиной рассматривают числовые характеристики случайных ве-
личин и их свойства. Однако не имея понятия о многомерных случайных вели-
чинах, привести доказательства свойств математического ожидания, дисперсии
для суммы и произведения случайных величин не представляется возможным.
Ввиду этого в третьей главе, для упрощения и лучшего понимания материала
студентами, на примере двумерной случайной величины рассмотрены опреде-
ления функции распределения и плотности распределения, а также приведены
доказательства их свойств. Дано понятие общего определения математического
ожидания, когда аргументом является функция случайной величины. Это об-
3
легчает запись выражения для определения дисперсии, начальных и централь-
ных моментов случайных величин.
В части 2 «Математическая статистика» приведены основные понятия
математической статистики, описаны методы получения точечных оценок па-
раметров распределений. Рассмотрены основные законы распределений слу-
чайных величин, наиболее часто применяемых в математической статистике.
Даны определения доверительной вероятности, доверительных интервалов для
числовых характеристик. Изложена теория статистической проверки гипотез и
линейный регрессионный анализ.
Включение третьей части в данное пособие вызвано тем, что ранее сту-
дентам радиотехнических специальностей разделы по случайным процессам

Р
читались, но в новой типовой программе они отсутствуют. Чтобы восполнить
этот пробел, в пособие включена часть 3 «Случайные процессы» (глава 13) по-

УИ
священная элементам теории случайных процессов. Даны основные понятия
теории случайных процессов, доказаны теоремы Винера-Хинчина, Котельнико-
ва, рассмотрены марковские случайные процессы.
Содержание 1-й и 2-й частей данного учебно-методического пособия

БГ
полностью соответствует требованиям типовой учебной программы «Теория
вероятностей и математическая статистика», утвержденной Министерством об-
разования Республики Беларусь 03. 06. 2008, № ТД-1.030/тип., и предназначено
для подготовки студентов широкого ряда специальностей: 1-39 01 01 «Радио-
а
техника», 1-39 01 02 «Радиоэлектронные системы», 1-39 01 03 «Радиоинформа-
ек

тика», 1-39 01 04 «Радиоэлектронная защита информации», 1-41 01 02 «Микро-


и наноэлектронные технологии и системы», 1-41 01 03 «Квантовые информа-
ционные системы», 1-39 02 01 «Моделирование и компьютерное проектирова-
т

ние радиоэлектронных средств», 1-39 02 02 «Проектирование и производство


радиоэлектронных средств», 1-36 04 01 «Электронно-оптические системы и
технологии», 1-40 02 02 «Электронные вычислительные средства» и др.
ио

Часть 3 «Случайные процессы» данного учебно-методического пособия


может использоваться для подготовки студентов следующих специальностей:
1-39 01 01 «Радиотехника», 1-39 01 02 «Радиоэлектронные системы», 1-39 01 03
бл

«Радиоинформатика», 1-39 01 04 «Радиоэлектронная защита информации»,


1-40 02 02 «Электронные вычислительные средства».
Данное учебно-методическое пособие может быть использовано для под-
Би

готовки студентов высших и средних специальных учебных заведений по эко-


номическим и другим специальностям.

4
ЧАСТЬ 1. ТЕОРИЯ ВЕРОЯТНОСТЕЙ

Р
ГЛАВА 1. СЛУЧАЙНЫЕ СОБЫТИЯ

УИ
1.1. Основные понятия теории вероятностей

Теория вероятностей – это математическая наука, которая изучает зако-

БГ
номерности случайных явлений.
До возникновения теории вероятностей объектом исследования науки
были явления или эксперименты, в которых условия постановки эксперимента
однозначно определяли его исход. В этом случае результат эксперимента может
а
быть рассчитан заранее с использованием соответствующих законов физики.
ек

Эксперименты, результаты которых можно предвидеть заранее, ис-


пользуя естественно-научные законы и выполняя соответствующие условия
его проведения, называются детерминированными.
т

Примером детерминированного эксперимента является определение силы


постоянного тока I через проводник по известному сопротивлению R провод-
U
ио

ника и падению напряжения U на нем: I  (используется закон Ома). Здесь


R
искомая величина I однозначно определяется условиями проведения экспери-
бл

мента (сопротивлением R и напряжением U).


Однако условия, при которых проводится эксперимент, часто бывает
трудно сделать фиксированными. И это может приводить к разным результатам.
Например, если проводить измерение режима электрической схемы какого-
Би

либо устройства, собранного на печатной плате, то результаты измерений могут


зависеть от разных факторов: входного сопротивления вольтметра (если цепи
высокоомные, то происходит шунтирование их входным сопротивлением
вольтметра, изменяется режим работы схемы, и это влияет на результаты изме-
рений); температуры, влажности в помещении, где находится устройство (при
повышенной влажности возникают токи утечки между печатными проводника-
ми, особенно заметно их влияние в высокоомных цепях, и результаты измере-
ний изменяются); напряжения сети (известно, что в жилых многоэтажных до-
мах утром и днем напряжение сети повышенное – 240–250 В, а вечером пони-

5
жается – 215–230 В, т. к. люди приходят с работы включают различные потре-
бители электрической энергии, нагрузка (ток) в сети возрастает и на подводя-
щих электричество к дому кабелях увеличивается падение напряжения, что
приводит к уменьшению напряжения на розетках в квартирах). Здесь, как ви-
дим, проявляется зависимость напряжения сети и от времени суток. Отметим,
что, несмотря на то что для питания электронных схем используют стабилиза-
торы напряжения, не все они могут поддерживать стабильное напряжение, если
напряжение сети меняется в широких пределах. Поэтому часто в документации
на электронные устройства указывают условия измерения режима работы схе-
мы устройства: напряжение сети, температура, влажность, входное сопротив-
ление вольтметра.

Р
Однако условия, при которых проводится эксперимент, трудно сделать
фиксированными, и даже незначительное их изменение приводит к другому ре-

УИ
зультату. Поэтому в отличие от детерминированных можно выделить другой
класс экспериментов – вероятностные.
Вероятностные эксперименты (стохастические или случайные) – это
эксперименты, которые при соблюдении одних и тех же (насколько это воз-

БГ
можно) фиксированных условий можно повторять произвольное количество
раз, каждый раз, но исход вероятностного эксперимента будет неоднозначен,
случаен.
Но при многократном повторении вероятностного эксперимента, соблю-
а
дая одни и те же (насколько это возможно) фиксированные условия, можно за-
ек

метить, что совокупность исходов таких экспериментов все же подчиняется оп-


ределенным закономерностям. Изучением этих закономерностей, а точнее их
математических моделей, и занимается теория вероятностей. Приведем приме-
т

ры вероятностных экспериментов.
1. Самолету для полета на определенной высоте отводится коридор –
минимальная и максимальная высоты, выходить за пределы которых он не
ио

должен. Теоретически он должен лететь горизонтально, прямолинейно, равно-


мерно на заданной высоте (середина коридора). Однако при полете на заданной
высоте на самолет воздействуют вертикальные и горизонтальные потоки воз-
бл

духа, т. е. влияет турбулентность атмосферы. Это вызывает отклонение центра


масс самолета от полета по горизонтальной прямой и приводит к колебаниям
самолета около центра масс. Поэтому здесь высота, направление и скорость по-
Би

лета не определяются однозначно, а являются случайными и изменяются от по-


лета к полету.
2. Пусть проводится эксперимент с броском симметричной монеты. В
результате возможны два взаимоисключающих друг друга исхода: выпадает
герб или цифра. Если бы мы точно знали начальные условия данного экспери-
мента (скорость вращения, скорость поступательного движения, начальное по-
ложение монеты в момент броска), то мы смогли бы предвидеть исход этого
эксперимента (т. е. точно рассчитать). Однако начальные условия трудно сде-
лать фиксированными, и незначительное изменение их приводит к другому ре-
зультату. Тем не менее если мы будем проводить такой опыт многократно, то
6
совокупное число его исходов будет подчиняться определенным закономерно-
стям: число выпадений герба  числу выпадений цифры (в том случае, если
монета симметричная).
3. В городе возникла эпидемия гриппа. Человек, заболевший гриппом в
этот период, может выздороветь; получить осложнения различной степени тяже-
сти; а может и умереть. Видим, что исход заболевания гриппом непредсказуем.
4. Предположим, что проводим измерения некоторой величины (измере-
ние напряженности электромагнитного поля телевизионного сигнала в ка-
кой-либо точке города, дальности радиолокатором и т. д.). Заранее предвидеть
результат трудно. Однако при аккуратном проведении измерений и после мно-
гократного их повторения наблюдается закономерность: среднее арифметиче-

Р
ское результатов измерений приближается к некоторой постоянной величине.
Можно найти приближенное значение данной константы и, построив ма-

УИ
тематическую модель эксперимента, с определенной степенью уверенности
принять эту оценку за реальное значение измеряемой величины.
Следует также отметить, что теория вероятностей занимается изучением
не любых случайных событий, а только тех, которые обладают определенными

БГ
свойствами. Во-первых, таких, которые при фиксированных условиях могут
осуществляться произвольное число раз, например – бросок монеты, бросок иг-
ральной кости. Во-вторых, таких, которые обладают статистической устойчи-
востью. Например, сделаем n бросков монеты (испытания) и будем следить за
а
появлением герба (событие А). Пусть эти испытания проводятся в одинаковых
ек

условиях и каждое испытание не оказывает влияния на остальные, т. е. они яв-


ляются независимыми. Пусть событие А появится при n испытаниях m раз. То-
гда относительная частота появления события А, обозначим ее Р*(А), будет
определяться как Р*(А) = m/n. Проводя такой опыт, мы можем заметить, что при
т

большом n относительная частота Р*(А) близка к какой-то постоянной и лишь


незначительно меняется в различных сериях из n испытаний. В дальнейшем мы
ио

покажем, что число, около которого колеблется относительная частота, и есть


не что иное, как вероятность события А – Р(А). Заметим, что относительная
частота появления события А может быть определена только после проведения
бл

опыта (когда становится известным число m), а вероятность Р(А) может быть
рассчитана и до опыта. Из приведенных примеров логически следует определе-
ние вероятности – как меры возможности наступления какого-либо события
Би

при проведении вероятностного эксперимента. Это не точное определение ве-


роятности (его мы рассмотрим позже при изучении аксиом), но смысл переда-
ется верно.
Таким образом, мы видим, что понятие вероятностного эксперимента
достаточно широко, однако можно выделить следующие общие черты:
1) множество возможных исходов;
2) непредвиденность результата;
3) наличие определенных количественных закономерностей при много-
кратном повторении эксперимента.

7
Эти закономерности изучаются методом моделирования. Для этого стро-
ится математическая модель вероятностного эксперимента, в котором иссле-
дуемые закономерности описываются различными математическими уравне-
ниями, функциями. Насколько точна математическая модель и хорошо ли она
согласуется с практикой, можно вычислить с помощью методов математиче-
ской статистики. Таким образом, предметом теории вероятностей является
количественный и качественный анализ математических моделей вероятност-
ных экспериментов. Эксперименты проводят с целью получения научных вы-
водов, рекомендаций, на основе которых можно принимать решения.
Первые работы, в которых зарождались основные понятия теории веро-
ятностей, представляли собой попытки создания теории азартных игр. Именно

Р
они стимулировали построение математических моделей игровых ситуаций в
работах Дж. Кардано (1501–1575), Х. Гюйгенса (1629–1695), Б. Паскаля (1623–

УИ
1662), П. Ферма (1601–1665) и др. в ХVI – ХVII вв. Следующий этап развития
теории вероятностей связан с именем Якова Бернулли (1654–1705). Доказанная
им теорема, получившая впоследствии название «Закон больших чисел», была
первым теоретическим обоснованием накопленных ранее фактов. Дальнейши-

БГ
ми успехами теория вероятностей обязана П. Д. Бернулли (1700–1782), П. Лап-
ласу (1749–1827), К. Гауссу (1777–1855), С. Пуассону (1781–1840) и др. Новый
наиболее плодотворный период связан с именами П. Л. Чебышева (1821–1894)
и его учеников А. А. Маркова (1856–1922) и А. М. Ляпунова(1857–1918). Со-
а
временная теория вероятностей получила развитие в работах С. Н. Бернштейна,
ек

А. Н. Колмогорова (1903–1987), Б. В. Гнеденко и др. Однако строгой математи-


ческой наукой теорию вероятностей сделала работа русского ученого
А. Н. Колмогорова «Основные понятия теории вероятностей», опубликованная
т

в 1933 г. В этой работе А. Н. Колмогоров сформулировал аксиомы теории веро-


ятностей и для доказательства основных положений применил теорию мно-
жеств.
ио

1.2. Пространство элементарных событий


бл

Рассмотрим простые примеры.


1. Подбрасывание игральной кости один раз. В результате этого опыта
могут наступить различные события: выпали 2, 6, 5… очков, число выпавших
Би

очков четно и т. д. Мы будем различать элементарные (неразложимые) собы-


тия, составные события или просто события. Обозначим k – событие со-
стоит в том, что выпадает k очков. Элементарными событиями в данном опыте
являются: 1 , 2 , 3 ,..., 6 . Составные события или просто события могут быть
описаны как подмножества множества элементарных событий
  1 , 2 , 3 ,..., 6  . Так событие А = {выпало четное число очков} через
элементарные события выражается следующим образом : A  {2 , 4 , 6 } .

8
2. Трехкратное подбрасывание монеты. При каждом подбрасывании
будем записывать результат опыта, обозначая выпадение герба – «1»,
а цифры – «0» (010 – при втором подбрасывании выпал герб). Множество эле-
ментарных событий  состоит из 8 элементарных событий:
  {000, 001, 010, 011, 100, 101, 111} или   {1 , 2 ,..., 8 } . А = {при первом подбра-
сывании выпал герб} является составным: A  {1 0 0, 1 0 1, 1 1 0, 1 1 1} . Любое
подмножество множества  можно интерпретировать как некоторое событие
реального опыта. Например, событие В = {110, 101, 011} состоит в том, что вы-
пало ровно 2 герба.
3. Семья с тремя детьми. Для того чтобы изучить распределение мальчи-

Р
ков и девочек во всех семьях, имеющих трех детей, составлен список этих се-
мей. Какое пространство событий отвечает эксперименту, заключающемуся в

УИ
выборе одной семьи? Множество элементарных событий  состоит из 8 эле-
ментарных событий  = {МММ, ММД, МДН, МДД, ДММ, ДМД, ДДМ, ДДД}.
Тройка ДММ представляет следующий исход: старший ребенок – девочка,
средний и младший – мальчики. Задача легко решается, если построить «дере-

БГ
во» эксперимента (рис. 1.1).

М
а
Первый ребенок Д
ек

М
М
М
т

Д Д
ио

Д
М М
бл

Д
Д

М
Би

Второй Д
ребенок
Третий ребенок

Рис. 1.1

Таким образом, можно дать следующие определения:

9
1. Элементарным событием  называется любой мысленно возмож-
ный результат эксперимента. Совокупность всех элементарных событий  об-
разует некоторое множество  .
2. Пространством элементарных событий будем называть множество
  {  } всех мыслимых, взаимоисключающих друг друга исходов опыта или
эксперимента.
По числу элементов    пространство элементарных событий может
быть конечным, счетным. Пространство  с конечным множеством элементов
 будем обозначать   {  i | i  1,  } , а число его элементов |  |  n .
Пространство со счетным множеством элементов  обозначим

Р
  {  i | i  1,  } . Если  состоит из конечного или счетного множества

УИ
 , то  называют дискретным пространством элементарных событий, а ес-
ли из несчетного множества, то  называют непрерывным пространством
элементарных событий.

БГ
1.3. Операции над событиями

1. Случайным событием или просто событием назовем любое под-


множество множества  . События будем обозначать заглавными буквами ла-
а
тинского алфавита: A, B, C… – и записывать A   (А есть подмножество
ек

множества  ).
Приведем более простое определение события. Из приведенных выше
примеров следует, что случайным событием называется всякий факт, который в
т

результате опыта может произойти или не произойти. Если А влечет В, а В вле-


чет А ( A  B , а B  A ), то А и В происходят лишь одновременно (А = В),
множества А и В совпадают, и говорят, что А равносильно или тождественно В.
ио

2. Достоверным событием называется событие, совпадающее с про-


странством элементарных событий  . Если записать A   , то А – досто-
верное событие. Достоверное событие происходит при каждом повторении экс-
бл

перимента (опыта).
3. Невозможным событием называется событие, совпадающее с пус-
тым множеством. Если записать А =  , тогда А является невозможным собы-
Би

тием. Невозможное событие не появится ни в одном из исходов вероятностного


эксперимента.
4. Противоположным событием A называется дополнение множества
А до  , т. е. событие A состоит из таких элементарных событий, которые не
входят в событие А: A  { |  A} . Противоположное событие A происходит
тогда, когда событие А не происходит. Например, при броске игральной кости

10
событие A – нечетное число очков. A  {1 , 3 , 5} является противоположным
событию A  {2 , 4 , 6 } .
Очевидно, что    , A  A . Для иллюстрации операций над событиями
удобно использовать диаграмму Венна (рис. 1.2).
1 принадлежит событию А, 1  A ;
 2 не принадлежит событию А, 2  A .
 2
Справедливы соотношения:
А
A  A,   ,    .
 1

Р
A

УИ
Рис. 1.2

5. Объединением или суммой двух событий А и В называют событие,

БГ
содержащее те элементарные события   , которые принадлежат или собы-
тию А, или событию В, или А и В. Объединение или сумму двух событий будем
обозначать A  B (рис. 1.3):
 A  B  { |  A, или В, или А и В} .
а
Для любого события А справедливы
ек

следующие соотношения:
В
А A  A  A , A   = A , A  .
т

А В
ио

Рис. 1.3

6. Пересечением или произведением двух событий А и В называется со-


бытие, состоящее из тех элементарных событий   , которые принадлежат
бл

и событию А, и событию В одновременно или совместно. Пересечение или


произведение двух событий будем обо-
значать AB  A  B . Согласно определению
Би

 A  B  { |  A,  B} .
Справедливы следующие соотношения:
A  A  A, A   = , A    A.
В
А
А В

Рис. 1.4

11
Отметим, что выделенные слова или в определении для суммы, а также и
в определении для произведения позволяют легко сориентироваться, какую
операцию следует применить между событиями.
7. События A и B называются несовместными, если их пересечение яв-
ляется невозможным событием, т. е. если A B =  . Для несовместных собы-
тий одновременное наступление в одном опыте невозможно.

А В

Р
А  В=О

УИ
Рис. 1.5

БГ
Отметим, что элементарные события являются несовместными, т. к. при
i  j , i   j   .
8. Разностью двух событий А и В называется событие, состоящее из тех
элементарных событий   , которые входят в событие А, но не входят в со-
а
бытие В (рис. 1.6).
ек

Разность будем обозначать:


A \ B : A \ B    A, но  В .
 Разность событий можно выразить
т

через ранее введенные операции:


А В
A\ B  A B.
ио

А\В
бл

Рис. 1.6

Основные законы алгебры событий.


Би

Для алгебры событий справедливы следующие законы:


а) дополнения:
A  A  ; A  A  ;    ;  =  ;
принцип двойственности:
A  B  A  B; A  B  A  B .
Докажем, что A  B  A  B .
Событие A  B состоит в том, что не происходит событие A  B , со-
стоящее в наступлении хотя бы одного из событий А или В (согласно пункту 5).

12
Но это буквально и означает, что не происходит ни событие А, ни В, т. е., со-
гласно пунктам 4 и 7, происходит A  B , значит, A  B  A  B . Наоборот, ес-
ли происходит A  B , то не происходит ни А ни В, следовательно не происхо-
дит событие A  B , т. е. происходит A  B , следовательно, A  B  A  B , а
значит, A  B  A  B . Кратко можно описать так:
(  A  B   A  B   A,  B   A,  B   A  B ),
здесь  означает эквивалентно.
б) коммутативности:
A B  B  A
A B  B  A

Р
в) ассоциативности:
( A  B)  C  A  ( B  C )

УИ
( A  B)  C  A  ( B  C )
г) дистрибутивности:
A  ( B  C )  ( A  B)  ( A  C )

БГ
A  ( B  C )  ( A  B)  ( A  C )
Если последнее соотношение очевидно, то первое можно доказать так
(начнем с правой части):
( A  B)  ( A  C )  A  A  A  C  B  A  B  C  учтем : A  A  A 
а
 A  A  C  B  A  B  C  представим A  A   
ек

 ( A    A  C  A  B )  B  C  применим закон ассоциативности 


 A  (  C  B)  B  C  учтем :   C  B    A  ( B  C ).
т

Для удобства записей в теории вероятностей можно опускать символ пе-


ресечения  , т. е. пишется ABC вместо A  B  C или A  B вместо A  B .
ио

1.4. Аксиомы теории вероятностей (Аксиомы Колмогорова А. Н.)


бл

Рассмотренные ранее свойства операций над событиями носят алгебраи-


ческий характер. В теории вероятностей для некоторого класса подмножеств F
вводится понятие алгебры событий. Класс подмножеств F всех возможных со-
Би

бытий вероятностного эксперимента должен удовлетворять следующим усло-


виям.
1. Для каждой пары событий А и В из таких событий, как A  F и B  F ,
следует, что A  B  F . Иными словами, класс F вместе с каждой парой собы-
тий содержит их объединение.
2. Вместе с каждым событием А класс F содержит противоположное
событие A . Если класс F не пуст, то   F , т. к.   A  A . Следовательно,
  F , поскольку  =  . Наконец, согласно принципу двойственности,
A  B  A  B , класс F содержит их пересечение A B и разность A \ B  A  B .
13
Класс подмножеств F, удовлетворяющий условиям 1 и 2, называется
алгеброй событий.
Конструкция алгебры событий позволяет охарактеризовать множество
всех возможных результатов любого эксперимента со случайным исходом, если
множество  его элементарных исходов конечно. Например, в эксперименте с
игральной костью  состоит из шести элементарных событий, а F состоит из
всех подмножеств  . F содержит пустое множество  , 6 = С61 – одноточечных
подмножеств, 15 = С62 – двухточечных подмножеств и т. д. Значит F содержит
26 = 1+ С61 + С62+…+ С66 = 64 события.
Если  состоит из n элементарных событий, то F состоит из
2  Cn0  Cn1  ...  Cnn событий. Если |  | n , то | F | 2n .
n

Р
Ниже перечислены аксиомы теории вероятностей (или аксиомы

УИ
А. Н. Колмогорова).

1. F является  -алгеброй событий. Алгебра событий F называется


 -алгеброй, если для каждой счетной последовательности событий Aj  F ,

БГ

j = 1, 2,…, их объединение B  A1  A2  ...   A j также принадлежит F, т. е.


1
является событием. Согласно принципу двойственности, отсюда следует, что и
а

C   A j  F . Действительно, C  A1  A2  ...  A1  A2  ... . Следует под-
ек

1
черкнуть, что речь идет лишь о счетных объединениях и пересечениях. Если
A ,   S – произвольная система событий, то, например, их объединение
т

 A может и не быть событием.


S
ио

Первая аксиома вводит понятие  -алгебры событий. Можно отметить,


что  -алгебра событий – это расширение понятия алгебры событий на беско-
нечную последовательность событий.
бл

2. На  -алгебре F определяется функция Р(  ), принимающая числовые


значения P ( A)  0 для A  F , называемая вероятностью и обладающая свойст-
вами, которые описывают нижеследующие аксиомы.
Би

Отметим, что вторая аксиома вводит понятие вероятности.


3. Для всяких двух событий А и В, при которых A  B   , т. е. несовме-
стных, P ( A  B )  P( A)  P( B) – аксиома сложения вероятностей для несо-
вместных событий (аксиома конечной аддитивности). Для произвольного ко-
нечного числа несовместных событий
P ( A1  A2  ...  An )  P( A1 )  P ( A2 )  ...  P( An ) .
4. Пусть Aj , j  1, 2,... – попарно несовместны: Ai  A j   , если

i  j ; i, j  1,2,... и A  A1  A2  ... , тогда P ( A)  P ( A1 )  P( A2 )  ...   P( Ai ) (за-
i 1

14
метим, что, согласно аксиоме 1, A  F ). Эта аксиома определяет счетную ад-
дитивность вероятности, иногда ее называют аксиомой непрерывности ве-
роятности.
Здесь следует сделать некоторые пояснения. Напомним, что аддитивные
величины – это величины, связанные с геометрическими или физическими объ-
ектами таким образом, что величина, соответствующая целому объекту, равна
сумме соответствующих его частей, каким бы образом мы не разбивали объект
на части. Поэтому площади, объемы, массы тел удовлетворяют условиям адди-
тивности (аксиомам) и их можно принимать за меры тел. Диаметры, например,
не удовлетворяют условиям аддитивности и за меру приняты быть не могут.
5. P (  )  1 – аксиома нормировки.

Р
Числовую функцию Р(А), как мы отмечали, называют вероятностью или
вероятностной мерой появления события А, и из аксиом следует, что вероят-

УИ
ность любого события А: 0  P ( A)  1 .
Пространство элементарных событий  , выделенная  -алгебра собы-
тий F и определенная на измеримом пространстве (, F ) вероятностная мера

БГ
Р появления события A  F образуют вероятностное пространство, которое
принято обозначать (, F , P) .
Вероятностное пространство (, F , P) совместно с аксиомами представ-
ляет собой математическую модель вероятностного эксперимента.
а
Рассмотрим следующий эксперимент: в коробке находятся три шара раз-
ек

ных цветов – белый, черный, красный. Не глядя, вытаскиваем один шар.


Пространство элементарных событий этого эксперимента   {1 , 2 , 3}
и состоит из трех исходов, где 1 – {достали шар белого цвета}, 2 – {достали
т

шар черного цвета), 3 – {достали шар красного цвета). Выделим в качестве


 -алгебры событий F этого эксперимента систему всех подмножеств  (ранее
ио

мы отметили, что количество подмножеств в F должно быть равно F  23  8 ):


F  {,{1},{2 },{3},{1 , 2 },{1 , 3},{2 , 3}, }. Здесь событие {1 , 2 } со-
стоит в том, что вытащили или белый, или черный шар; {1 , 3} – состоит в том,
бл

что вытащили или белый, или красный шар; {2 , 3} состоит в том, что выта-
щили или черный, или красный шар;
Определим для этих событий вероятностную меру P:
Би

P ()  0; P(1 )  1/ 3; P (2 )  1/ 3; P (3 )  1/ 3; P(1, 2 )  2 / 3;


P (1 , 3 )  2 / 3; P (2 , 3 )  2 / 3; P()  1.

Определенная таким образом функция Р(А) удовлетворяет аксиомам


Колмогорова
(   1  2  3 ; P()  P (1 )  P (2 )  P (3 )  1; 1  2  3   ),

15
а следовательно, она является вероятностной мерой наступления событий
A  F . Для тех же событий A  F можно записать другую функцию, которую
обозначим P1:
P1 ()  0; P1 (1 )  1/ 4; P1 (2 )  1/ 2; P1 (3 )  1/ 4; P1 (1 , 2 )  3/ 4;
P1 (1 , 3 )  1/ 2; P1 (2 , 3 )  3/ 4; P1 ()  1.
Эта функция также удовлетворяет аксиомам Колмогорова, а следователь-
но, она также является вероятностной мерой наступления событий A  F . От-
сюда видно, что система аксиом не полна, не устанавливает взаимно однознач-
ного соответствия между событиями A  F и вероятностями Р(А). Только опыт
и наблюдения могут показать правильность наших модельных предположений.

Р
Согласуется ли выбранная математическая модель с данными эксперимента,
можно выяснить с помощью методов математической статистики.

УИ
Рассмотрим методы определения вероятностей для событий, удовлетво-
ряющих аксиомам Колмогорова.
1.5. Классический метод определения вероятностей

БГ
Пусть  – конечное или бесконечное пространство элементарных собы-
тий некоторого случайного эксперимента. Предположим, что структура экспе-
римента такова, что на  можно указать n событий А1, А2, …, Аn, обладающих
а
следующими свойствами:
1) события А1, А2,…, Аn попарно несовместны в том смысле, что ника-
ек

кие два из них не могут произойти одновременно. Иначе говоря, Ai  A j   ,


i  j, i, j  1, ..., n .
т

2) А1, А2, …, Аn образуют полную группу событий в том смысле, что при
любом исходе эксперимента происходит хотя бы одно из них. Это означает, что
ио

A1  A2  ...  An   , P ( A1  ...  An )  P (  )  1 .
3) события А1, А2, …, Аn равновероятны (равновозможны), т. е. ни одно
из них нельзя считать более предпочтительным, чем любое из остальных.
бл

В классической схеме вероятности событий А1, А2, …, Аn, удовлетво-


ряющих условиям 1–3, называются полной группой попарно несовместных,
равновероятных событий. Вероятность в классической схеме определяется
Би

лишь для тех исходов эксперимента, которые могут быть представлены в виде
объединения некоторых из событий Ai , i = 1, …, n. Пусть произвольное собы-
тие А можно представить в виде суммы или объединения событий:
A  Ai1  Ai 2  ...  Aim . (1.1)
Если все слагаемые в формуле (1.1) различны, то вероятность события А
определяется следующим равенством:
| A| m
P ( A)   , (1.2)
|| n
где m – число слагаемых в формуле (1.1).
16
Чтобы определение (1.2) было корректным, необходимо доказать единст-
венность разложения (1.1). Для любого события А, согласно условию 2) и свой-
ству дистрибутивности,
A  A    A  ( A1  ...  An )  A  A1  ...  A  An ,
поэтому разложение (1.1) A  A j либо пусто, если j  iS , s = 1, …, m, либо
A  Aj  Ais , если j = is.
Для классического определения вероятности характерна своя терминоло-
гия. Эксперимент называется испытанием, опытом; полную группу попарно не-
совместных, равновероятных событий называют полной группой возможных
исходов испытания; а те исходы, из которых складывается событие А – назы-

Р
вают исходами благоприятствующими появлению А.
Тогда вероятностью события А называется отношение числа m ис-

УИ
ходов, благоприятствующих появлению события А, к числу n всех возмож-
ных, равновероятных исходов опыта или эксперимента (1.2).
Отыскание вероятностей, основанное на классическом определении, час-
то сводится к комбинаторным вычислениям. Напомним простейшие комбина-
торные формулы.
Размещения:
БГ
Anm  n ( n  1)...( n  ( m  1)) .
а
Формула для размещений позволяет подсчитать количество комбинаций
из n элементов по m, где комбинации будут отличаться как самими элемента-
ек

ми, так и расположением элементов относительно друг друга.


Сочетания:
n(n  1)  ...  (n  (m  1)) n!
т

Cnm   .
1  2  3  ...  m ( n  m)!m!
Формула для сочетаний позволяет подсчитать количество комбинаций из
ио

n элементов по m, где комбинации будут отличаться только самими элемента-


ми, т. е. каждая комбинация хотя бы одним элементом должна отличаться от
другой.
бл

Перестановки:
Pn  1  2  ...  n  n! , P0  0!  1.
Формула для перестановок позволяет подсчитать количество комбинаций
Би

из n элементов, где комбинации будут отличаться только расположением эле-


ментов относительно друг друга.

Пример 1.
Проводится три броска симметричной монеты. Какова вероятность того,
что герб появится два раза?
Задачу начинаем решать с определения события А. Здесь событие А со-
стоит в том, что при трех бросках герб появится два раза. Определяем про-
странство элементарных событий Ω этого эксперимента. В разделе 1.2 в пункте

17
2 мы рассмотрели этот вопрос и получили (обозначили выпадение герба – 1,
цифры – 0)
  { 000 , 001 , 010 , 011 ,100 ,101 ,110 ,111 } .
Здесь общее число исходов n =  = 8. Выпишем благоприятствующие ис-
ходы, из которых состоит событие А: А = {011, 101, 110, 111}, тогда m = A = 4.
m 4
P ( A)    0,5 .
n 8
Пример 2.
Какова вероятность того, что наудачу взятый телефонный номер из семи

Р
цифр имеет: 1) все цифры различные; 2) только нечетные цифры.
1) определим вначале событие А. Событие А состоит в том, что в семи-

УИ
значном номере все цифры различны. Так как номер семизначный, а цифр всего
10, то общее число исходов n (всего может быть 107 номеров) равно 107. Для
подсчета благоприятствующих исходов подходит формула для размещений –
m A107 10  9  8  7  6  5  4

БГ
7
m = A10 . Тогда P ( A)   7   0,06 .
n 10 107
2) определим событие В. Событие В состоит в том, что в семизначном
номере все цифры нечетные. Имеем 5 нечетных цифр. Из них можно получить
лишь 57 различных семизначных номеров, т. е. m = 57. Общее число исходов
а
n = 107.
ек

m 57 1
P ( B )   7  ( ) 7  0,008 .
n 10 2
т

1.6. Геометрическое определение вероятностей


Пусть эксперимент описывается пространством элементарных событий
ио

 со счетным множеством элементарных событий : |  |  . Элементар-


ные события  будем рассматривать как координаты точки в n-мерном про-
странстве R n (n  1, 2, 3, ...) , а события A  F как некоторые области этого про-
бл

странства. Если задавать вероятности по аналогии с классическим методом, то


получим P ( )  1/ |  |  0. Ранее мы указывали, что классическое определе-
Би

ние вероятности справедливо не для любых событий, а для удовлетворяющих


определенным требованиям. Поэтому в нашем случае можно приписать веро-
ятности не каждому , а некоторому множеству элементарных событий A  F ,
т. е. некоторой области пространства. При изучении аксиом мы указали, что
геометрические меры множеств A  F удовлетворяют условию аддитивности,
могут быть приняты за вероятностную меру этих множеств. Для этого геомет-
рические меры нормируют, т. е. принимают меру  за 1, а вероятность произ-
вольного события A  F назначают пропорционально области А:

18
( A) ( мера области А)
P ( A)   . (1.3)
() ( мера области )
В одномерном пространстве R1 – это отноше-
ние длин, в двумерном R 2 – отношение площадей
(рис. 1.7), в трехмерном R 3 – отношение объемов,
соответствующих множествам А и  . Как видно из
рис 1.7 и формулы (1.3), вероятность события А не
зависит ни от формы области А, ни от места ее
расположения.

Р
Рис. 1.7

УИ
Такой метод задания вероятностей (1.3) называется геометрическим –
это отношение меры области А к мере области  . Его особенность в том, что
области А и  должны иметь конечную меру в пространстве R n .
Пример 1.

БГ
Наудачу взяты два положительных числа x и y, причем x  5, y  2 . Най-
ти вероятность того, что y  ax  b  0 и y  cx  0 , если a = 2, b = 10, c = 2.
Подставляя значения коэффициентов в неравенства, получаем
 y  2 x  10,
а
(а)

 y  2 x.
ек

Строим на рис. 1.8 оси координат и область, которая определяет про-


странство элементарных событий Ω, она задается неравенствами x  5, y  2 и
т

отображается на рисунке 1.8 прямоугольником.

Y
ио

10 y = 10 - 2x y = 2x
8

6
бл

2
Би

0
0 2 4 6 X

Рис. 1.8

Площадь прямоугольника SΩ = 2·5 = 10 [условных единиц]. Область бла-


гоприятствующих исходов определяется неравенствами (а), поэтому строим на
рисунке прямые, которые задаются из неравенств (а). Заштрихованная на ри-
сунке 1.8 область описывает благоприятствующие исходы (с учетом всех воз-

19
53
можных значений) и является трапецией, площадь которой SА=  2  8 [ус-
2
ловных единиц]. Тогда вероятность события А
SA 8
P ( A)    0,8 .
S 10

Пример 2.
Найти вероятность того, что на экране радиолокатора отметка от цели
появится в кружке радиусом r = 1 см, на азимуте  ноль градусов, на расстоя-
нии L = 3 см от центра экрана, если радиус экрана равен 30 см.

Р
00

УИ
Ω r

270 0
L БГ R
90 0
а
ек
т
ио

180 0
бл

Рис. 1.9

Экран радиолокатора, рис. 1.9, представляет собой электронно-лучевую


Би

трубку с радиальной разверткой, в которой от центра до края экрана движется


электронный луч и после достижения края движение луча опять начинается от
центра к краю, но с некоторым смещением по азимуту. Это перемещение луча
от центра экрана соответствует началу излучения радиоимпульса антенного ра-
диолокатора, который укреплен на боковой стенке кабины с передающим уст-
ройством, а кабина, в свою очередь, вращается вокруг вертикальной оси, что
соответствует смещению луча на экране по азимуту. И когда радиоимпульс от-
ражается от цели, на экране радиолокатора вспыхивает яркая точка. По поло-
жению этой точки на экране легко определить расстояние до цели и ее азимут.

20
Зная геометрическое определение вероятности, можно сразу сказать, что
вероятность появления отметки от цели в кружке радиусом r зависит только от
отношения площадей и не зависит ни от формы области благоприятствующих
исходов, ни от места ее расположения. Поэтому в этой задаче есть избыточная
информация – расстояние L и азимут  =00 .
Определяем область благоприятствующих исходов, которой является
кружок радиусом r и площадью – SA = r 2 . Пространство элементарных собы-
тий Ω – это область экрана, его площадь S = R 2 . Тогда
S r 2 r 2 12
Р(А) = A  2  2  2  0,0011 .
S R R 30

Р
1.7. Свойства вероятности (основные теоремы)

УИ
Пусть  – пространство элементарных событий некоторого экспе-
римента и состоит из конечного или счетного множества элементарных собы-
тий   . Пусть событие А принадлежит  -алгебре F. Тогда вероятность по-

БГ
явления события A  F находится на основании следующей теоремы.
Теорема 1. Если в дискретном пространстве  , содержащем конечное
или счетное множество возможных исходов 1 , 2 , ..., i ,   {1 ,  2 ,...,  i } ,
а
заданы вероятности элементарных событий P (1 )  P1 , P (2 )  P2 ,..., P (i )  Pi ,

ек

так Pi  0 ,  P  1,
i 1
i то вероятность произвольного события A  {1 , 2 ,..., m } ,

составленного из некоторых из событий i  , равна сумме элементарных со-


т

бытий, входящих в событие А:


P ( A)   P(i ) .
ио

i A

Доказательство следует непосредственно из 3-й аксиомы (т. к. i – несо-


вместные события).
бл

Теорема 2. Если событие А содержится в событии В, то справедливы сле-


дующие соотношения:

P ( A)  P ( B); P( B \ A)  P( B )  P( A) .
Би

Доказательство:
Представим событие B  A  ( B \ A) . События А и В\А несовместны
(рис. 1.10), поэтому на основании 3-й аксиомы имеем
P ( B )  P( A)  P( B \ A)  P( B \ A)  P( B )  P ( A) .
Из второй аксиомы следует, что P ( B \ A)  0 , следовательно,
P ( B )  P ( A)  0 или P ( A)  P( B ) .
Следствие 1. Вероятность появления невозможного события равна нулю.

21
Представим невозможное событие как
   \  , тогда на основании теоремы 2 и ак-
 В\А сиомы 5 имеем P ()  P()  P()  1  1  0 .
Следствие 2. Вероятность появления про-
В тивоположного события A равна разности меж-
ду единицей и вероятностью появления события
А
А: P ( A)  1  P( A) .
Представим противоположное событие
как A   \ A . Тогда на основании теоремы 2 и
Рис. 1.10
аксиомы 5 имеем P ( A)  P ()  P( A)  1  P( A) .

Р
Теорема 3. Теорема сложения вероятностей произвольных событий. Ве-
роятность появления суммы двух произвольных событий равна сумме вероят-

УИ
ностей этих событий без вероятности их совместного появления:

P ( A  B )  P ( A)  P ( B)  P ( A  B ) . (1.4)

БГ
Эта теорема является обобщением 3-й аксиомы на случай, когда события
A  F и B  F произвольные, т. е. могут быть совместными.
Доказательство:
а
Исходя из рис. 1.11 для произвольных событий А и В можно
записать следующие соотношения:
ек

A  B  A  ( B \ A) , B  ( A  B )  ( B \ A) .
 В\А
Здесь события, входящие в правые части, –
А∩В несовместны: А и В\А, а также события
т

В A  B и B \ A . Используя третью аксиому,


для несовместных событий можно записать
ио

следующие равенства:
А
P ( A  B )  P ( A)  P ( B \ A) ,
P ( B )  P( A  B)  P ( B \ A) .
бл

Рис. 1.11

Вычитая из первого уравнения второе и перенося Р(В) вправо, получаем


Би

формулу (1.4).
Для несовместных событий А и В: A  B   и P ( A  B )  0 , тогда фор-
мула (1.4) совпадает с аксиомой 3: P ( A  B )  P ( A)  P( B) .
Теорема 4. Вероятность появления суммы трех произвольных событий
А, В, С определяется по формуле
P ( A  B  C )  P( A)  P( B)  P(C )  P( A  B)  P( A  C ) 
(1.5)
 P( B  C )  P( A  B  C ).

22
Доказательство:
P ( A  B  C )  обозначим E  B  C  P( A  E )  P ( A)  P ( E )  P( A  E ) 
P( E )  P( B  C )  P( B)  P(C )  P( B  C ),
применяем закон
Р( A  E )  P( A  ( B  C ))  
 дистрибутивности 
 P(( A  B)  ( A  C ))  P( A  B)  P ( A  C )  P(( A  B )  ( A  C )) 
 т. к. A  A  A  P( A  B)  P( A  C )  P( A  B  C );
 P( A)  P( B )  P(C )  P( A  B)  P( A  C )  P ( B  C )  P( A  B  C ) .

Р
Теорема 5. Вероятность суммы конечного множества произвольных собы-
тий равна разности между единицей и вероятностью произведения противопо-

УИ
ложных событий.
P ( A1  A2  ...  An )  1  P( A1  A2  ...  An ) . (1.6)
Доказательство:

БГ
Используем принцип двойственности и применим метод математической
индукции.
A B  A B,
Для двух событий имеем
а
P ( A1  A2 )  1  P( A1  A2 )  1  P ( A1  A2 ) .
Для трех событий
ек

P ( A1  A2  A3 )  P (( A1  A2 )  A3 )  1  P (( A1  A2 )  A3 ) 
 1  P(( A1  A2 )  A3 )  1  P( A1  A2  A3 ).
т

Продолжая далее, получим для n событий


P ( A1  A2  ...  An )  1  P( A1  A2  ...  An ) .
ио

Докажем формулу (1.6) для n + 1 события. Обозначим


C  A1  A2  A3  ...  An , C  A1  A2  A3  ...  An .
Тогда для n + 1 события получим
бл

P ( A1  A2  ...  An  An 1 )  применяем закон ассоциативности 


 P(( A1  A2  ...  An )  An 1 )  P (С  An1 ).
Би

Используем следствие 2 теоремы 2:


P (C  An 1 )  1  P(C  An 1 )  1  P (C  An 1 ) 
 1  P( A1  A2  ...  An  An 1 ).
Раз формула (1.6) справедлива для n + 1 события, значит, она справедлива
для любого n.
Отметим, что иногда эта теорема называется теоремой о появлении хотя
бы одного из событий A1  ...  An .

23
1.8. Условная вероятность. Независимость событий

Пусть ( F, P) – математическая модель вероятностного эксперимента. В


этой математической модели каждому событию  F соответствует вполне оп-
ределенная вероятность 0  P(A)  1, которая в данной модели (, F, P) остает-
ся неизменной. Предположим, что в ходе эксперимента произошло событие
B  F. Полученная дополнительная информация может изменить вероятности
других событий, связанных с событием B. Для того чтобы пересчитать эти ве-
роятности, необходимо построить новую математическую модель эксперимен-
та с учетом дополнительной информации (событие В произошло) и пересчитать
вероятности для интересующих нас событий.

Р
Пример 1.
Допустим, что студент из 30 билетов успел выучить билеты с 1-го по 3-й

УИ
и с 28-го по 30-й. На экзамен он пришел десятым, и оказалось, что к его прихо-
ду остались только билеты с 1-го по 21-й (событие A). Вероятность события B –
студент получит выученный билет без дополнительной информации о том, что

БГ
событие A произошло, может быть вычислена по классическому определению с
  {1, 2, …, 30}, B = {1, 2, 3, 28, 29, 30},
B
P(B) = = 1/5. При дополнительной информации (событие A произошло) мно-

а
жество возможных событий уже состоит из A = 21 элементарного события. А
ек

событие B вместе с A A  B наступает в 3-х случаях. Поэтому после выполне-


ния события A примем новое пространство *  и назовем его приведенным.
Все возможные подмножества (события) этого пространства будем обозначать
т

символом B|A и читать: «событие B при условии появления события A». Веро-
ятность появления события B|A обозначают P(B|A) и называют условной веро-
ио

ятностью события B при условии появления события A. Тогда искомая веро-


ятность равна отношению числа элементарных событий, входящих в событие
B  A , к числу элементарных событий, входящих в приведенное пространство
бл

B A
*  : P( B | A ) = = 3/21 = 1/7.
A
Множества B  A = B|A совпадают. Эту же вероятность можно выразить
Би

через вероятности событий B  A и A в исходном пространстве  (рис. 1.12);


B A A
так как по классическому определению P( B  A ) = и P(A)= , полу-
 
чаем:
P( B  A)
P(B|A) = . (1.7)
P( A)

24
Рис. 1.12

Можно сформулировать следующее определение.

Р
Пусть ( F, P) – вероятностное пространство, и пусть A и B – произ-
вольные события, причем P(A)  0. Условной вероятностью наступления со-

УИ
бытия B в предположении, что событие A произошло, называют число P(B|A),
определяемое по формуле (1.7).
Аналогично определяется условная вероятность события A в предполо-
жении, что событие В произошло (Р(В)  0):

БГ
P( A  B)
P(A|B) = . (1.8)
P( B)
Следует отметить, что числа P(В) и P(В|А) определяют вероятности собы-
тия В в двух различных пространствах  и *  А. Новая  -алгебра событий
а
F* пространства  строится пересечением событий F и А, а вероятности появ-
ек

ления событий В|А находится по формуле (1.8). Все аксиомы, обязательные для
вероятностей, справедливы для величин P(В|А). Из определения условия веро-
P( A  A) P( A)
т

ятности следует, что 0  P(В|А)  1; P(А|А) = == = 1.


P( A) P( A)
С учетом изложенного и дополнительной информации о протекании экс-
ио

перимента уточненной моделью этого эксперимента является новое простран-


P( A  B)
ство ( *  , F*, P* = ). Вероятность отдельных событий B F* изме-
P( A)
бл

няется тем сильнее, чем больше информации получено о вероятностном экспе-


рименте. Если бы мы имели в примере полную информацию о том, что, когда
студент пришел, осталось 3 билета с номерами 1, 2, 3, то в этом случае вероят-
Би

ностный эксперимент превратился бы в детерминированный, т. е. мы могли бы


утверждать, что он вытащит нужный билет.
Формулы (1.7), (1.8) позволяют сформулировать теорему умножения
вероятностей событий.
Теорема. Вероятность произведения двух произвольных событий равна
произведению вероятности одного из этих событий на условную вероятность
второго события, вычисленную в предположении, что первое событие про-
изошло:

25
P  A  B  = P ( A)  P( B | A) = P ( B)  P( A | B) . (1.9)
Доказательство:
Из формул (1.7), (1.8) следует (1.9).
Теорема умножения для трех событий – A, B, C:
P  A  B  C  = P ( A  B)  C  = P ( A  B )  P (C | A  B) =
= P ( A)  P( B | A)  P (C | A  B ) . (1.10)

Теорема умножения для n произвольных событий:


P( A1  A2  …  An )= P ( A1 )  P( A2 | A1 ) …P( An | A1  A2  …  An 1 ). (1.11)

Р
С условной вероятностью тесно связано понятие независимости событий.

УИ
Например, при броске двух игральных костей число очков, выпавших на одной
кости, не зависит от числа очков, выпавших на другой кости; два блока в при-
боре работают независимо друг от друга (например в телевизоре – блок строч-
ной развертки и блок УНЧ) – это физическая независимость, при которой объ-

БГ
екты не оказывают влияния друг на друга. Физическую независимость можно
сформулировать на математическом языке и дать следующее определение.
Пусть проводится эксперимент ( F, P) – вероятностное пространст-
во этого эксперимента A и B – два произвольных события (A  F и B  F). В
а
этом случае событие A не зависит от события B, если появление события B
не изменяет вероятности появления события A, т. е. если условная вероят-
ек

ность события A равна его безусловной вероятности, то

P(A|B) = P(A). (1.12)


т

Если же P(A|B)  P(A), то событие A является зависимым от события B.


ио

Для независимых событий теорема умножения принимает вид

P  A  B  = P ( A)  P( B ) . (1.13)
бл

Пример 1.
В ящике 2 диода и 8 транзисторов. Какова вероятность того, что вынимая
Би

не глядя два раза подряд по одной детали, мы оба раза достанем транзисторы?
Решение.
Введем: событие А – из ящика первый раз достали транзистор, событие
В – из ящика второй раз достали транзистор. Тогда вероятность события А оп-
A
ределяется так: Р(А) =  8/10 = 0,8. Условная вероятность события В при ус-

ловии, что произошли событии А (здесь благоприятствующих событий будет
B | A = 7 и приведенное пространство элементарных событий * будет состо-

26
ять из * = 9 событий. Тогда условную вероятность события В при условии,
что событие А произошло найдем так: Р(В|А)= B | A / * = 7/9.
P  A  B  = P ( A)  P( B | A) = 8
 7 = 56/90.
10 9
Теорема. Пусть ( F, P) – вероятностное пространство. События A, B, C
(A F…) называются независимыми в целом, если они попарно независимы и
если каждое из этих событий независимо от двух других:
P ( AB ) = P ( A)  P( B ) ,
P  AC  = P ( A)  P (C ) ,
P  BC  = P ( B )  P (C ) .

Р
Данные события являются попарно независимыми. Тогда все три события

УИ
являются независимыми, т. е. любое из этих событий независимо от двух других:
P ( ABC ) = P ( A)  P ( B )  P (C ) .
Пример 2.

БГ
Составлена схема электрической цепи (рис. 1.13).

a2
а
a1
ек

1 3 2
т

a3
ио

Рис. 1.13

Заданы вероятности работы элементов схемы а1, а2, а3, соответственно


бл

р1 = 0,2, р2 = 0,3, р3 = 0,4. Найти вероятность того, что ток пройдет с клеммы 1
на клемму 2.
Решение.
Введем события: А1 – работает элемент а1, А2 – работает элемент а2, А3 –
Би

работает элемент а3. Тогда Р(А1) = р1, Р(А2) = р2, Р(А3)=р3. Введем в схему точ-
ку 3, которая разбивает схему на два последовательно соединенных участка,
через которые проходит ток – от точки 1 до точки 3 и от точки 3 до точки 2.
Рассмотрим событие В – ток пройдет из точки 1 в точку 3 схемы. Поскольку
между точками 1 и 3 включен только один элемент а1, то событие В выполнится
тогда, когда будет работать элемент а1, значит В = А1. Введем событие С, со-
стоящее в том, что ток пройдет из точки 3 в точку 2. Оно выполнится тогда, ко-
гда будет работать или элемент а2, или а3, или а2 и а3. Мы видим, что для описа-

27
ния события С надо использовать теоремы о сумме или объединении двух про-
извольных событий А2 и А3. Запишем С = А2  А3.
Теперь рассмотрим событие Е – ток пройдет из точки 1 в точку 2. Оно
выполнится тогда, когда выполнится и событие В, и событие С. Здесь надо ис-
пользовать теоремы об умножении или пересечении двух событий, запишем
Е = В  С. Тогда вероятность события Е определяется по формуле (1.9), а с уче-
том того, что события В и С независимы применяем формулу (1.13):
Р(Е) = Р(В)∙Р(С).
Найдем Р(В) = Р(А1) = р1. Определим Р(С), применяя теорему о вероят-
ности суммы двух произвольных событий (т. к. события А2 и А3 могут происхо-

Р
дить совместно) и используя формулы (1.4) или (1.6):

УИ
Р(С) = Р(А2  А3)= 1 – Р( A2  A3 ) = события А2 и А3  независимы =
= 1 – Р( A2 )  Р( А3 ) )= P( A2 )  1  P( A2 )  1  p2 , P ( A3 )  1  P (A3 )  1  p3 =
= 1 – (1  p2 )(1  p3 ) .

БГ
Тогда вероятность того, что ток пройдет из точки 1 в точку 2
Р(Е)=Р(В)∙Р(С) = р1∙(1 – (1  p2 )(1  p3 ) )=0,2∙(1 – 0,7 ∙ 0,6) = 0,116.

1.9. Формула полной вероятности


а
ек

Проводится эксперимент, в результате которого происходит событие А.


Пусть событие A может наступить вместе с одним из несовместных событий
H i , i  1, n , объединение которых совпадает с пространством элементарных
т

событий , т. е.  = { H1  H 2  ...  H n }, H i  H j   при i  j. События H i


обычно называют гипотезами. Их вероятности P( H i ), i 1, n предполагаются
ио

известными ( H i составляют полную группу событий и обязательным условием


n
должно быть  P( H )  1),
i и заданы условные вероятности P  A | H i  , i 1, n
бл

i 1

наступления события A при выполнении каждой из гипотез. Тогда справедлива


следующая теорема:
Би

Теорема. Вероятность события A, которое может произойти вместе с


одной из несовместных гипотез H1 , H 2 …Hn равна сумме попарных произве-
дений вероятностей каждой из этих гипотез на соответствующие им услов-
ные вероятности наступления события A при H i -й гипотезе:
n
P(A)=  P( H )  P ( A | H ) .
i 1
i i (1.14)

Эта формула и называется формулой полной вероятности.

28
Доказательство:
Для доказательства приведем рис. 1.14. Для упрощения рисунка отобразим
три гипотезы H1 , H 2 , H 3 , но доказательство будем проводить для n гипотез.

Р
Рис. 1.14

УИ
Из рисунка видно, что A = { ( AH1 )  ( AH 2 )  ...  ( AH n ) }, причем
AH i  AH j   при i  j, т. е. события AH i  A  H i , i  1, n – несовместные. На
основании аксиомы 3 и теоремы умножения вероятности (1.9) имеем

БГ
n n
P(A) =  P( A  H i ) =
i 1
 P( H )  P ( A | H ) .
i 1
i i (1.15)

Пример.
В двух одинаковых коробках имеется по 100 резисторов. В 1-й – 60 рези-
а
сторов по 100 КОм, во 2-й 30 – резисторов по 100 КОм. Определить вероят-
ек

ность того, что взятый наугад из какой-либо коробки резистор будет 100 КОм.
Решение.
Пусть событие A – достали резистор 100 КОм, гипотезы: H1 – выбрали
т

1-ю коробку, H 2 – выбрали 2-ю коробку. Так как коробки выбирали произ-
вольно, то P( H1 ) = 0,5, P( H 2 ) = 0,5. Условная вероятность того, что взяли ре-
ио

зистор 100 КОм, при условии, что выбрана 1-я коробка – P  A | H1  = 0,6, соот-
ветственно P  A | H 2  = 0,3. Тогда, применяя формулу (1.14) для n = 2, получаем
2
бл

P(A)=  P( H i )  P ( A | H i ) = 0,45.
i 1

1.10. Формула Байеса


Би

В формуле полной вероятности используются вероятности гипотез H i до


проведения эксперимента. Но если в ходе эксперимента происходит событие A,
то получаем дополнительную информацию о протекании эксперимента, которая
может изменить вероятности гипотез H i . Сформулируем следующую задачу.
Пусть имеется полная группа несовместных гипотез H i , i 1, n , объеди-
нение которых совпадает с пространством элементарных событий
 = { H1  H 2  ...  H n }, H i  H j   при i  j. До проведения эксперимента

29
n
известны вероятности каждой из гипотез P( H i ), i 1, n ,  P( H )  1. Известны
i 1
i

также до проведения эксперимента условные вероятности события A при каж-


дой гипотезе: P( A | H i ) , i 1, n . Проводится эксперимент, в результате которого
появляется событие A. Требуется найти новые вероятности гипотез с учетом то-
го, что произошло событие A.
Теорема Байеса. Условная вероятность гипотезы H i , i 1, n после про-
ведения эксперимента равна произведению вероятности этой гипотезы до
проведения эксперимента на соответствующую ей условную вероятность со-
бытия A, которое произошло при испытании, деленному на полную вероят-

Р
ность события А:

УИ
P( H i )  P ( A | H i )
P ( H i | A) = n
. (1.16)
 P( H )  P( A | H )
i 1
i i

БГ
Доказательство:
P( H i  A)
По определению условной вероятности (1.8) P  A | H i  = , но по
P( A)
теореме умножения (1.10) P  H i  A  = P  H i   P( A | H i ) , а P(A) определим из (1.14).
а
Формулы Байеса позволяют пересматривать, пересчитать вероятности
ек

гипотез после получения добавочной информации о ходе вероятностного экс-


перимента (событие А появилось).
Пример.
т

Вероятность дождливого дня в городе равна 0,2. Известно, что вероят-


ность выиграть футбольный матч команде этого города в дождливый день рав-
ио

на 0,4, а в сухой – 0,7. Известно, что команда выиграла матч. Определить, что в
этот день шел дождь.
Решение.
Событие A состоит в том, что команда выиграла матч. Гипотезы: H1 – шел
бл

дождь, H 2 – дождя не было.


P( H1 ) = 0,2 P( H 2 ) = 0,8, P  A | H1  = 0,4 P  A | H 2  = 0,7. Чтобы ответить
Би

на вопрос, пересмотрим вероятность 1-й гипотезы с учетом результата опыта –


появилось событие А. Определим апостериорную вероятность гипотезы H1 с
учетом результата опыта (появилось событие А):
P ( H1 )  P ( A | H1 ) 0,2  0,4
P  H1 | A  = = = 0,125.
P( A) 0, 4  0,2  0,8  0,7
Из полученного результата видим, что с учетом события А вероятность
дождя в городе уменьшилась (0,125 < 0,2), значит скорее всего дождя не было.

30
1.11. Последовательность независимых испытаний.
Формула Бернулли

При решении научных и практических задач часто приходится проводить


многократно повторяющиеся испытания в примерно одинаковых условиях. При
этом результаты предыдущих испытаний никак не сказываются на последующих.
Очевидно, что n раз независимо повторенным испытаниям отвечает веро-
ятностное пространство ( n , Fn , Pn ) = [(, F , P)]n , в котором n = []n ,
Fn = [F ]n , а вероятность Pn задана равенствами
Pn ({i  j ...k }) = PP
i j Pk , i, j, k = 1, 2. (1.17)

Р
Определение. Пусть ( F, P) – дискретное вероятностное пространст-

УИ

во эксперимента E,   {12 ...} , Pn ({ j })  Pj , j=1, 2,…, P
j 1
j  1 . Пусть экс-

перимент проводился n раз, тогда последовательностью независимых испы-

БГ
таний называется вероятностное пространство ( n , Fn , Pn ), элементарными
событиями в котором являются последовательности (i1 i2 ...ik ) и вероят-
ность для каждого элементарного события определена равенством (1.17).
Последовательность независимых испытаний называется схемой Бернул-
а
ли, если   {12 } , т. е. если эксперимент имеет лишь два исхода. Обычно в
ек

схеме Бернулли исход 1 называют успехом и обозначают соответствующую


вероятность P (1 )  P ; 2 – называют неудачей, P (2 )  1  P  q . В серии из
n независимых испытаний в схеме Бернулли  n состоит из 2 n элементарных
т

событий.
Пусть проводится n независимых испытаний, в результате каждого испы-
ио

тания может появиться событие A с определенной вероятностью P.


Если вероятность события A в каждом испытании не зависит от исхо-
дов других испытаний, то такие испытания называются независимыми ис-
бл

пытаниями относительно события A.


Определим вероятность того, что в результате проведения n независимых
испытаний событие A наступит ровно m раз, если в каждом из этих испытаний
Би

данное событие наступает с постоянной вероятностью P(A) = p. Вероятность


противоположного события A : P( A )=1 – p = q. Обозначим через Ai ( i 1, n ) на-
ступление события A в i-ом испытании, тогда Р(Аi) = р, P ( Ai )  1  p  q , i 1, n .
Найдем вероятность того, что событие A при n испытаниях наступает
ровно m раз, а в оставшихся n–m испытаниях наступает противоположное ему
событие A . Учтем, что событие A в n испытаниях наступит ровно m раз в раз-
ных последовательностях или комбинациях, число которых равно числу соче-
таний из n по m т. е. Cnm . Рассмотрим комбинацию Bi , в которой событие A на-

31
ступает подряд m раз начиная с 1-го испытания, а оставшиеся n–m раз наступа-
ет противоположнее событие A :

Bi = A1  A2  ...  Am  Am 1  ...  An ,
Cnm Bi 1  A1  A2  ...  Am 1  Am  Am 1  Am  2  ...  An , (1.18)
………………………………………………………………. .

В комбинации Bi 1 (1.18) событие А наступает также m раз, а оставшиеся


n–m раз наступает событие A , только в другой последовательности. И таких

Р
комбинаций можно выписать как число сочетаний Cnm . Так как по условию ис-
пытания независимы, а значит, независимы и события, входящие в комбинации

УИ
(1.18), используя теорему умножения, находим

P ( Bi ) = P ( A1 )  P ( A2 )  ...  P( Am )  P( Am1 )  ...  P ( An )  p m q nm , (1.19)

БГ
Cnm
P ( Bi 1 )  P ( A1 )  ...  P ( Am 1 )  P( Am )  P ( Am 1 )  P ( Am  2 )  ...  P ( An )  p m q nm ,
…………………………………………………………………………… .
а
Видим, что вероятности комбинаций Bi одинаковы. Поскольку все ком-
ек

бинации Bi (1.18) являются несовместными, и нам все равно, в какой последо-


вательности появляются события A и A , то, применяя теорему сложения веро-
ятностей для несовместных событий Bi , получим
т

Cnm
P ( B1  B2  ...)   P( Bi ) = Cnm  p m  q nm . (1.20)
ио

i 1
Это и есть формула Бернулли, ее обычно записывают в следующем виде:
n!
Pn (m) = Cnm  p m  q nm =  p m  q nm .
бл

(1.21)
m!(n  m)!
Совокупность вероятностей Pm,n , m = 0, 1,…n называется биномиальным
Би

распределением, т. к. вероятность (1.21) является общим членом разложения


бинома
n
1 = ( p  q ) =  Cnj p j q n j .
n

j 0

Это равенство в данном случае является отражением того факта, что в се-
рии из n независимых испытаний по схеме Бернулли исходы, содержащие
0,1,…n успехов, образуют полную группу попарно несовместных событий.

32
Пример.
Проводятся испытания 10-ти телевизоров на надежность в течение вре-
мени Т. Вероятность выхода телевизора из строя в течении времени Т равна 0,2.
Считая, что телевизоры выходят из строя независимо друг от друга, найти:
а) вероятность выхода из строя 3-х телевизоров из 10;
б) вероятность выхода из строя не менее 3-х телевизоров и не более 6;
в) вероятность выхода из строя хотя бы одного телевизора.
Решение.
а) применим формулу Бернулли (1.21): n = 10; m = 3; p = 0,2; q = 0,8;
P10 (3) = C103  0,23  0,87 ≈ 0,201.
б) используем теорему сложения независимых событий:

Р
P10 (3…6) = P10 (3) + P10 (4) + P10 (5) + P10 (6) =… .

УИ
в) здесь вероятность того, что выйдет из строя или 1, или 2, …, или 10 те-
левизоров, удобно определить через противоположное событие – P10 (1,…,10) =
= 1 – P10 (0) = 1 – C100  0,20  0,810 =… .

БГ
1.11.1. Наивероятнейшее число наступлений события
при повторении испытаний
а
Определение. Наивероятнейшим числом m 0 появления события A в n не-
ек

зависимых испытаниях называется число, для которого вероятность Pn (m 0 )


больше или, по крайней мере, не меньше вероятности каждого из остальных
возможных исходов испытаний.
т

Пусть наивероятнейшему числу m 0 соответствует вероятность


n!
Pn (m 0 ) = Cnm0  p m0  q n  m0 =  p m0  q n  m0 .
ио

m0!(n  m0 )!
Согласно определению наивероятнейшего числа, вероятность наступления
события A m 0 +1 и m 0 – 1 раз не должна превышать вероятность Pn (m 0 ) , т. е.
бл

Pn (m 0 )  Pn (m 0  1) , (1.22)
Би

Pn (m 0 )  Pn (m 0  1) . (1.23)
Решим неравенство (1.22) относительно m 0 :
n! n!
 p m0  q n  m0   p m0 1  q n  m0 1 ,
m0!(n  m0 )! (m0  1)!(n  m0  1)!
q p
 , m0  np  q .
n  m0 m0  1

33
Аналогично решая неравенство (1.23), получаем: m0  np  p .
Объединяя два последних неравенства, имеем

np  q  m0  np  p . (1.24)

Пример.
Вероятность поражения самолета одним осколком при подрыве вблизи
него зенитной ракеты равна 0,01. Боеголовка ракеты при подрыве разлетается
на тысячу осколков. Найти наивероятнейшее число попавших в самолет оскол-
ков и вероятность поражения самолета.

Р
Решение.
Обозначим p = 0,01, q = 1 – p = 0,99, n = 1000. Подставляя данные значе-

УИ
ния в (1.24), имеем
1000  0,01  0,99  m0  1000  0,01  0,01 ; 9,01  m0  10,01; m0  10 .
Вероятность поражения самолета

10
P1000 (10) = C1000
БГ
 (0,01)10  (0,99) 990  0,126.
а
ек
т
ио
бл
Би

34
ГЛАВА 2. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ

2.1. Определение случайной величины

Вы уже знакомы с тем, что основой научного исследования в теории ве-


роятности является эксперимент (опыт) и наблюдение. Эксперименты могут

Р
давать различные результаты в зависимости от того комплекса условий, в кото-
рых они происходят. Результаты эксперимента (для краткости опыта) можно

УИ
охарактеризовать качественно и количественно. Качественная характеристи-
ка случайного результата опыта есть событие. Например, попадание в цель
при выстреле является событием; выход прибора из строя за время t – тоже со-
бытие; интервал времени – тоже событие; выпадение какого-либо числа при

БГ
бросании кости – событие. Но случайный результат опыта можно охарактери-
зовать и количественно. Например, число попаданий в цель при трех выстрелах;
число телевизоров, выходящих из строя за время t, и др. Количественной ха-
рактеристикой случайного результата опыта является случайная величина.
а
Случайной величиной называется величина, которая в результате экс-
ек

перимента может принять то или иное (но только одно) значение, причем за-
ранее неизвестно, какое именно.
Случайные величины будем обозначать заглавными буквами латинского
т

алфавита – X, Y, Z…, а их возможные значения – малыми x, y, z, … .


Так как случайные величины количественно характеризуют событие ,
т. е. ее значение зависит от события, то говорят, что случайная величина есть
ио

функция от события, и обозначают X(). В качестве аргумента здесь выступа-


ет  элементарное событие, которому соответствует значение функции
X() = x.
бл

Случайные величины можно разделить на три типа: дискретные, непре-


рывные, смешанные.
Дискретной случайной величиной (ДСВ) называется величина, которая
Би

принимает отделенные друг от друга значения, число возможных значений


которой конечно или счетно, и которые могут быть перечислены, перенумеро-
ваны одно за другим.
Примеры дискретных случайных величин:
1. Пусть случайная величина X – число выстрелов до первого попадания в
цель.
Здесь случайная величина X может принимать счетное множество значе-
ний: x1  1 , x2  2 , x3  3 ,… .

35
2. Пусть случайная величина Y – число телефонных звонков, поступаю-
щих в вашу квартиру в течение суток. Тогда случайная величина Y может при-
нимать следующие значения: y1  0 , y2  1 , y3  2 , ... .
3. Если случайная величина Z – число дефектных транзисторов в партии
из n штук, тогда возможные значения этой случайной величины могут прини-
мать значения: z0  0 , z1  1 , …, zn  n .
Непрерывной случайной величиной (НСВ) называется величина, воз-
можные значения которой непрерывно заполняют некоторый интервал число-
вой оси (конечный или бесконечный).
Число возможных значений непрерывной случайной величины бесконеч-

Р
но. Примеры непрерывной случайной величины:
1. Случайное отклонение по дальности точки падения снаряда от цели

УИ
(рис. 2.1).

БГ
Рис. 2.1

Данный интервал, рис. 2.1, x представляет собой интервал рассеивания,


а
все числа этого интервала будут возможными значениями случайной величины
ек

X – отклонения точки падения от цели. Отделить и перечислить возможные


значения случайной величины X здесь невозможно.
2. Ошибка при измерении высоты радиолокационным высотомером.
т

3. Время безотказной работы телевизора.


Смешанной случайной величиной называется величина, которая на од-
них участках числовой оси принимает дискретные значения, а на других непре-
ио

рывные.
Например, специальные радиотехнические сигналы, изображенные на рис. 2.2.
бл

А
Би

t
ДСВ НСВ ДСВ НСВ

Рис. 2.2
36
Здесь на одних участках числовой оси появляются пачки импульсов – ко-
личество импульсов описывает дискретная случайная величина. На других уча-
стках числовой оси появляются импульсы, длительность которых меняется
случайным образом – длительность импульсов описывает непрерывная случай-
ная величина.
2.2. Законы распределения случайных величин
Пусть нам известны значения x1 , x2 , …, xn дискретной случайной вели-
чины. Однако знание возможных значений случайной величины не позволяет
полностью описать случайную величину, т. к. мы не знаем, как часто следует
ожидать появления тех или иных возможных значений случайной величины в

Р
результате повторения опыта при одном и том же комплексе условий. В резуль-

УИ
тате опыта, случайная величина X может принять только одно из возможных
значений {X = x1 }, {X = x2 }, …, {X = xn }. Эти события являются несовместными
и образуют полную группу событий, т. к. никаких других событий в результате
опыта произойти не может. Обозначим вероятности этих событий: P(X= x1 )= p1 ,

БГ
P(X= x2 )= p2 , …, P(X= xn )= pn . Так как события {X= x1 }, {X= x2 }, …, {X= xn } об-
n n
разуют полную группу несовместных событий, то  P( X  xi )   pi  1 . Эта
i 1 i 1
суммарная вероятность каким-то образом распределена между отдельными
а
значениями случайной величины. Дискретная случайная будет полностью опи-
ек

сана с вероятностной точки зрения, если будет указанно, какую вероятность


имеет каждое из событий.
Законом распределения случайной величины называется всякое соот-
т

ношение, устанавливающее связь между возможными значениями случайной


величины и соответствующими им вероятностями.
ио

Способы или формы представления закона распределения случайной ве-


личины могут быть различны. Простейшей формой задания закона распределе-
ния дискретной случайной величины X является ряд распределения. Это таб-
лица, в которой перечислены возможные значения случайной величины и соот-
бл

ветствующие им вероятности.
Би

X X= x1 X= x2 … X= x n

P p1 p2 … pn

n
Для любой таблицы всегда должно выполняться p
i 1
i  1.

Графическое изображение ряда распределения называется многоуголь-


ником распределения (рис. 2.3).

37
Р
Рис. 2.3

УИ
Вершины ординат соединяются ломаной линией только для наглядности,
т. к. в промежутках x1 и x 2 , x2 и x3 , … дискретная случайная величина никаких
значений принять не может и вероятность ее появления в этих промежутках
равна нулю.

БГ
Многоугольники распределения (см. рис. 2.3) могут иметь различную
форму, но имеют общее свойство – сумма ординат многоугольника распреде-
ления равна единице. Это следует из того, как отмечалось ранее, что все воз-
можные значения дискретной случайной величины X образуют полную группу
а
несовместных событий.
ек

2.3. Функция распределения


т

Для дискретной случайной величины закон распределения чаще задается


в виде ряда распределения. Но для непрерывной случайной величины ряд рас-
ио

пределения построить нельзя. Поскольку непрерывная случайная величина


имеет бесчисленное множество возможных значений, которые сплошь запол-
няют некоторый интервал числовой оси, отделить и перечислить их в какой-
бл

либо таблице невозможно. Кроме того, каждое отдельное значение непрерыв-


ной случайной величины не обладает никакой, отличной от нуля, вероятностью.
Поэтому желательно иметь наиболее общую форму закона распределения слу-
Би

чайной величины X, каковой является функция распределения.


Функцией распределения F(x), или интегральным законом распределе-
ния случайной величины X, называется вероятность того, что случайная вели-
чина X примет значение меньше чем x – аргумент функции F(x):

F(x) = P(X<x). (2.1)

Отсюда следует, что она существует для любых случайных величин: как
дискретных, так и непрерывных.

38
Определение функции распределения имеет простую геометрическую ин-
терпретацию. Если рассматривать случайную величину как случайную точку X
на оси Ox, которая в результате опыта может занять то или иное положение
(рис. 2.4), то функция распределения F(x) есть вероятность того, что случайная
точка X в результате опыта попадает левее точки x.

P ( X  x)

Р
0 Х х Х

Рис. 2.4

УИ
Для дискретной случайной величины X функция распределения опреде-
ляется так:

БГ
F(x) =  P( X  x i ) . (2.2)
xi  x

Из выражения (2.2) видно, что суммируются вероятности для тех значений


случайной величины x i , которые по своей величине меньше аргумента x. Форму-
а
ла (2.2) показывает, что функция распределения дискретной случайной величины
X разрывна и возрастает скачками при переходе через точки возможных ее значе-
ек

ний x i ,…, x n , причем величина скачка равна вероятности соответствующего зна-


чения. Характерный вид F(x) для дискретной случайной величины приведен на
рис. 2.5, F(x) для непрерывной случайной величины – на рис. 2.6.
т
ио
бл
Би

Рис. 2.5 Рис. 2.6

Свойства функции распределения одномерной случайной величины.


1. Функция распределения F(x) есть неотрицательная функция и прини-
мает значения 0  F(x)  1.
Доказательство.
Так как по определению (2.1) F(x) – это вероятность случайного события
{X<x}, а вероятность любого события 0  P(·)  1, значит и 0  F(x)  1.

39
2. Вероятность попадания случайной величины в интервал [ полу-
замкнутый слева, равна разности значений функции распределения на концах
интервала:
P(  X<) = F()–F(). (2.3)
Доказательство:
На рис. 2.7. изображены события: событие А состоит в том, что случайная
величина Х принимает значение меньше : А={X<событие В состоит в том,
что Х принимает значение лежащее между  и : В={  X<}; событие С со-
стоит в том, что случайная величина Х принимает значение меньше β:

Р
С={X<.

УИ
А В

БГ
  Х

Рис. 2.7
а
Можно записать: С=А  В, события А и В несовместны, т. е. А  В= O
 .
ек

Применяя третью аксиому для несовместных событий получаем


P(С)=P(А)+P(В). (2.4)
т

Учитываем определение функции распределения (2.1) и получаем:


P(С) = P(X<) = F(); P(А) = P(X<) = F(); P(В) = P(  X<). Подставляя эти
ио

выражения в (2.4), получим: F() = F()+P(  X<)  P(  X<) = F()–F().


Замечание. Вероятность того, что непрерывная случайная величина при-
мет в результате опыта определенное значение, равна нулю. Покажем это.
бл

Определим вероятность того, что непрерывная случайная величина при-


нимает отдельно взятое значение , для этого найдем предел формулы (2.3), ко-
гда    : P(X=)= lim P(  X  ) = lim[ F ()  F ()] . При    , если F(x)
 
Би

непрерывна в точке , предел равен нулю. Вероятность, равная нулю, свиде-


тельствует о том, что частота этого события неограниченно убывает при увели-
чении числа опытов и не означает, что данное событие невозможно.
3. Функция распределения случайной величины – неубывающая функция:
если  > , то F()  F(). Из свойства 2 имеем F()=F()+P(  X<), но т. к.
для любого события P( )  0 всегда, значит F()  F(), если  > .
4. Значение функции распределения на  равно нулю, а на  равно
единице: F(  ) = 0, F(  ) = 1.

40
При неограниченном перемещении точки x влево, когда х   , попада-
ние случайной точки X левее x в пределе становится невозможным событием.
То есть никакая случайная величина принять значение меньшее   не может.
Невозможное событие обозначается пустым множеством Ø, а значит и вероят-
ность этого события равна нулю: F(   ) = P(X<   ) = P( O
 ) = 0. При неогра-
ниченном перемещении точки x вправо, когда х    , попадание точки X левее
x в пределе становится достоверным событием, т. е. любая случайная величина
в результате опыта принимает значение меньшее   . Достоверное событие
обозначается Ω, и вероятность этого события равна единице:
F(   ) = P(X<   ) = P(  ) = 1.
Все свойства функции распределения можно сформулировать так: каждая

Р
функция распределения является неотрицательной, неубывающей функцией,
удовлетворяющей условиям F(   ) = 0, F(   ) = 1.

УИ
Отметим, что свойства функции распределения 1, 3, 4 называются ха-
рактеристическими, т. е. функцией распределения может быть только та функ-
ция, которая удовлетворяет этим свойствам.
Пример.

БГ
Для дискретной случайной величины заданной рядом распределения по-
строить функцию распределения.
Ряд распределения имеет следующий вид.
а
X x1 = 1 x2 = 2 x3 = 4
ек

P 0,2 0,5 0,3


т

Для построения функции распределения используем формулу (2.2):


F(x) =  P( X  x i ) .
ио

xi  x

Рассчитаем значения функции распределения для фиксированных значе-


ний хi , взятых из таблицы.
бл

1. х1 =1, F(1) =  P( X  xi ) = 0.
x i 1

2. x2 = 2, F(2) =  P( X  x i ) = P(X =1) = 0,2.


Би

xi  2

3. x3 = 4, F(4) =  P( X  x i ) = P(X = 1) + P(X = 2) = 0,2 + 0,5 = 0,7.


xi  4

4. Обязательно делаем четвертый шаг, полагаем x4 =   , и суммируем


вероятности для xi <   :
x4 =   , F(   ) =  P( X  x i ) = P(X =1) + P(X = 2) + P(X = 4) = 0,2 + 0,5 + 0,3 = 1.
x i  

Строим оси координат и делаем разметку осей (рис. 2.8).

41
Р
Рис. 2.8.

УИ
Опишем построение функции распределения F(x). Рассмотрим первый
промежуток по оси Х (от   до 1): согласно пункту 1, значение F(x) = 0 и ли-
ния идет по оси Х от  до 1 включительно. На втором промежутке по оси Х
(от 1 до 2), согласно пункту 2, значение F(x) = 0,2 – проводим ступеньку высо-

БГ
той 0,2. На третьем промежутке (от 2 до 4), согласно пункту 3, значение
F(x) = 0,7 – проводим ступеньку высотой 0,7. На четвертом промежутке (от 4
до   ), согласно пункту 4 значение F(x)=1 – проводим ступеньку высотой 1. В
точках Х = 1, 2, 4 функция распределения F(x) имеет разрыв.
а
2.4. Плотность распределения непрерывной случайной величины
ек

Недостатком функции распределения непрерывной случайной величины


является то, что по ней трудно судить о характере распределения случайной ве-
личины в окрестности той или иной точки числовой оси. Более наглядно опи-
т

сывает распределение непрерывной случайной величины функция, которая на-


зывается плотностью распределения вероятностей или дифференциальным
ио

законом распределения случайной величины.


Пусть непрерывная случайная величина X задана функцией распределе-
ния F(x). Найдем вероятность попадания этой случайной величины на элемен-
бл

тарный участок (x, x+x), используя свойство 2 функции распределения:


P(x < X < x + x) = F(x + x) – F(x). Разделим обе части этого соотношения на x:
P ( x  X  x  x ) F ( x  x)  F ( x)
 . (2.5)
Би

x x
Пусть функция распределения F(x) непрерывная и дифференцируемая,
вычислим предел от обеих частей (2.5), когда x  0:

P ( x  X  x  x ) F ( x  x)  F ( x ) dF ( x)
lim  lim   F ( x) .
x  0 x x  0 x dx

Определение. Предел отношения вероятности попадания непрерывной


случайной величины на элементарный участок от x до x+x к длине этого уча-

42
стка x, когда x  0, называется плотностью распределения (или плотно-
стью вероятности) случайной величины в точке x, обозначается f(x) и вычис-
ляется как производная от функции распределения F(x):
dF ( x )
f(x) = = F (x ) . (2.6)
dx
Смысл плотности распределения f(x) состоит в том, что она показывает,
как часто появляется случайная величина X в окрестности той или иной точки
числовой оси при повторении опытов. Возможный вид f(x) показан на рис. 2.9.
На рис. 2.9 видно, что значение f(x1) – мало, значит в окрестности точки х1
случайная величина появляется редко, а значение f(x2) – значительно больше f(x1),

Р
значит, в окрестности точки х2 случайная величина появляется гораздо чаще.

УИ
f(x)

f(x2)

БГ
а
f(x1)
x
ек

x1 x2

Рис. 2.9
т

Свойства плотности распределения:


ио

1. Плотность распределения – положительная функция: f(x)  0.


Это следует из того, что f(x) есть производная от неубывающей функции
распределения F(x).
2. Функция распределения непрерывной случайной величины равна инте-
бл

гралу от плотности в интервале от   до x:


x
F(x)=  f ( x)dx . (2.7)
Би



Доказательство:
Из формулы (2.6) можно записать dF ( x)  f ( x)dx . Интегрируя обе части,
получаем
x x

 f ( x)dx =  dF ( x) =F(x) – F(   ) = F(x),


 
согласно свойству 4 функции распределения F(   ) = 0.
Геометрически функция распределения представляется площадью за-
штрихованной фигуры на графике плотности распределения (рис. 2.10).
43
Рис. 2.10

3. Вероятность попадания непрерывной случайной величины X в интер-

Р
вал ( равна определенному интегралу от плотности распределения, взя-
тому по этому интервалу:

УИ

P( < X < ) =  f ( x)dx .

Доказательство:

БГ
На основании свойства 2 функции распределения и замечания к нему
имеем
 
P (  X  )  P (  X  )  F() – F() =  f ( x )dx   f ( x)dx =
а
 
      
ек

=  ...   ...   ... =  f ( x )dx   f ( x)dx   f ( x)dx =  f ( x)dx .


      
т
ио
бл

Рис. 2.11
Би

Геометрически (рис. 2.11) это означает: вероятность того, что непрерыв-


ная случайная величина примет значение, принадлежащее интервалу (,
равна площади заштрихованной фигуры.
4. Условие нормировки. Интеграл в бесконечных пределах от плотности
распределения равен единице:

 f ( x)dx  1 . (2.8)


44
Доказательство:
Из свойства 2 и 4 функции распределения имеем

F(   )=  f ( x)dx  1 .


Пример.
Задана плотность распределения
0 x  a

f(x)=  k a  x  b .
0 x  b

Определить коэффициент k и функцию распределения F(x).

Р
Решение.
 b

УИ
1
 f ( x ) dx   kdx  k  ( b  a )  1 ; Отсюда k = .
 a ba
Построим график f(x) (рис. 2.12).

БГ
а
ек

Рис. 2.12
т

Найдем функцию распределения, используя (2.7):


0 x  0
ио

x xa

F(x) =  f ( x )dx   a  x  b.
  b  a
1 x  b
бл

Построим график F(x) (рис. 2.13).


F(x)
Би

a X
b

Рис. 2.13

45
ГЛАВА 3. МНОГОМЕРНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ

3.1. Понятие о многомерных (векторных) случайных величинах

При решении многих практических задач каждому элементарному собы-

Р
тию   можно поставить в соответствие не одну случайную величину, а не-
сколько : x1 () , x2 () … .

УИ
Пример 1.
Пусть вероятностный эксперимент состоит в рождении ребенка. Тогда
каждому элементарному событию  (каждому новорожденному) можно поста-

БГ
вить в соответствие следующие числа: X 1 () – рост, X 2 () – вес, X 3 () – пол
(0 или 1). Таким образом , эксперимент Е описывается трехмерной случайной
величиной, или системой трех случайных величин, или трехмерным вектором
( X 1 () , X 2 () , X 3 () ).
а
Пример 2.
Пусть эксперимент состоит в измерении коэффициента усиления транзи-
ек

стора K u на высокой частоте. Тогда элементарное событие  – это K u одного


транзистора и ему можно поставить в соответствие следующие случайные ве-
личины: X 1 ()   – коэффициент передачи тока на высокой частоте,
т

X 2 ()  I ко – обратный ток коллекторного перехода, X 3 ()  y11 – входная


проводимость, X 4 ()  CE – емкость эмиттерного перехода, X 5 ()  Ск – ем-
ио

кость коллекторного перехода, X 6 ()  y22 – выходная проводимость. Все пе-


речисленные параметры для каждого транзистора при массовом производстве
бл

полупроводниковых приборов имеют отклонения от некоторого среднего зна-


чения (ввиду сложности поддержания технологического процесса стабильным
для каждого кристалла при напылении, диффузии, травлении и т. д.). Поэтому
их можно считать случайными величинами, и от значения каждого из них зави-
Би

сит коэффициент усиления транзистора K u на высокой частоте. Тогда в данном


случае эксперимент описывается шестимерной случайной величиной, или шес-
тимерным вектором, или системой шести случайных величин.
При изучении многомерных случайных величин удобно пользоваться
следующей геометрической интерпретацией. Например (рис. 3.1), систему двух
случайных величин ( X , Y ) можно рассматривать как случайную точку на плос-
кости с координатами X ,Y или как случайный вектор на плоскости со случай-
ными составляющими X ,Y .

46
Y

(x, y)
Y

X X

Рис. 3.1

Р
Систему трех случайных величин ( X ,Y , Z ) можно рассматривать как слу-
чайный вектор в трехмерном пространстве, а при n-составляющих – как

УИ
n -мерный случайный вектор.
При изучении многомерных случайных величин ограничимся рассмотре-
нием двумерной случайной величины, т. к. все положения, касающиеся дву-
мерных случайных величин, легко распространить на n -мерные случайные ве-
личины.

БГ
3.2. Закон распределения многомерной случайной величины
а
ек

Законом распределения многомерной случайной величины называется


всякое соотношение, устанавливающее связь между областями возможных
значений случайной величины и вероятностями появления многомерной случай-
т

ной величины в этих областях.


Формы законов различны. Например, для дискретной двумерной случай-
ной величины (X,Y) закон распределения часто задают в виде таблицы распре-
ио

деления двумерной случайной величины.


бл

X x1 x2 … xn

Y
y1 P11 P21 … Pn1
Би

y2 P12 P22 … Pn 2
… … ... … ...
ym P1m P2 m … Pnm

В таблице Pij – это вероятность совместного появления случайных вели-


чин X и Y, где Pij  P( X  xi  Y  y j ) соответствует вероятности пересечения
двух событий, при которых случайная величина X примет значение xi и одно-

47
временно с этим случайная величина Y примет начение yj :
Pij  P({ X  x i }  {Y  y j }) . Вероятности Pij сведены в таблицу.
Все возможные события,  X  xi  ,Y  y j  , i  1, n, j  1, m , составляют
полную группу несовместных событий:
n m

 P  X  x   Y  y   1 .
i 1 j 1
i j

3.3. Функция распределения двумерной случайной величины

Р
Как отмечали ранее, для непрерывной одномерной случайной величины
задать закон распределения в виде таблицы невозможно, поэтому и для непре-

УИ
рывных двумерных случайных величин закон распределения задается в виде
функции распределения.
Функцией распределения двумерной случайной величины называется
функция двух аргументов F(x,y), равная вероятности совместного появления

БГ
двух событий, при которых  X  x и Y  y :

F ( x, y )  P ( X  x  Y  y ) . (3.1)
а
Геометрически функция распределения двумерной случайной величины
представляет собой вероятность попадания случайной точки (X,Y) в левый
ек

нижний бесконечный квадрант плоскости с вершиной в точке (x,y) (рис. 3.2).


y
т

x ,y
ио

x
бл

Рис. 3.2

Свойства двумерной функции распределения.


Би

1. 0  F  x, y   1 .
Это следует из определения функции распределения (3.1), т. к. F(x,y) –
это вероятность, а вероятность любого события лежит в пределах от нуля до
единицы.
2. Если один из аргументов стремится к плюс бесконечности, то дву-
мерная функция распределения стремится к функции распределения одной СВ,
соответствующей другому аргументу.
a) пусть х =  , тогда

48
F  , y   P  X    Y  y   P    Y  y   P Y  y   F2  y  .
Геометрически F2 ( y ) – это вероятность попадания случайной точки (Y) в
заштрихованную область (рис. 3.3).
y

Р
Рис. 3.3

б) пусть у = +  , тогда

УИ
F  x,    P  X  x  Y     P  X  x     P  X  x   F1  x  .
Геометрически F1 ( x) – это вероятность попадания случайной точки (Х) в
заштрихованную область (рис. 3.4).

БГ
а y

x x
ек

Рис. 3.4
т

Функции F1(x) и F2(y) называются маргинальными функциями распреде-


ления составляющих X и Y (название произошло от латинского слова margo –
ио

край, граница).
3. Если оба аргумента стремятся к  , то функция распределения
стремится к 1:
бл

F  ,    P  X    Y     P     1 .
Квадрант с вершиной (x,y) (см. рис. 3.2) обращается во всю координатную
плоскость xOy, попадание случайной точки в которую есть достоверное
Би

событие.
4. При стремлении одного или обоих аргументов к  функция распреде-
ления стремится к 0:
F  , y   F  x,   F  ,   0.
Пусть х = –  , тогда
F  , y   P  X    Y  y   P  o  Y  y   P  o   0 .
5. Функция распределения является неубывающей функцией по каждому
аргументу:

49
F  x2 , y   F  x1 , y  , x2  x1
.
F  x, y2   F  x, y1  y2  x1
6. Вероятность попадания случайной точки (X,Y) в произвольный прямо-
угольник со сторонами, параллельными координатным осям, вычисляется по
формуле (рис. 3.5):
P    x      Y     F  ,    F (, )  F  ,    F ,   .

Y
(, ) (, )

Р
УИ

( ,  ) (,  )

  X

Рис. 3.5

БГ
Свойства 1–5 называются характеристическими, т. е. любая функция,
удовлетворяющая этим свойствам является функцией распределения двумер-
а
ной случайной величины.
ек

3.4. Плотность распределения непрерывной двумерной


случайной величины
т

Введение плотности распределения для непрерывных многомерных слу-


ио

чайных величин позволяет упростить расчет вероятности попадания в различ-


ные области и делает более наглядным описание распределения многомерных
случайных величин.
бл

Плотностью распределения непрерывной двумерной случайной величины


называется предел отношения вероятности попадания случайной величины
(X,Y) в прямоугольник со сторонами x и y к площади этого прямоугольника,
Би

когда длины обеих сторон его стремятся к нулю, и вычисляется как вторая
смешенная частная производная от функции распределения :

P  x  X  x  x  y  Y  y  y   2 F  x, y 
lim  f  x, y   . (3.2)
x 0 xy xy
y 0

На рис. 3.6 изображен элементарный прямоугольник.

50
y

y  y

x x  x x

Рис. 3.6

Геометрически двумерная плотность распределения f(x,y) изображается


поверхностью (рис. 3.7), которую называют поверхностью распределения.

Р
УИ
f(x,y)

БГ
а
Y
ек

D
X
т

Рис. 3.7
ио

Свойства плотности распределения двумерной случайной величины.


1. Плотность распределения – положительная функция f  x, y   0 ,
бл

т. к. это предел отношения вероятности к площади – обе величины >0.


2. Функция распределения двумерной случайной величины через плотность
распределения записывается следующим образом:
x y
Би

F  x, y     f  x, y  dxdy . (3.3)
 
3. Вероятность попадания в произвольную область D получается путем
разбиения D на n элементарных областей xy и суммирования f(x,y) xy по
D при xy  0 и выражается, как двойной интеграл, по заданной области D:

P   X , Y   D    f  x, y  dxdy . (3.4)
D

51
Геометрически эта вероятность представляет собой объем цилиндриче-
ского тела, ограниченного сверху поверхностью распределения и опирающего-
ся на эту область (рис. 3.7).
4. На основании свойства 2 двумерной функции распределения имеем
маргинальные плотности распределений каждой составляющей:
 
f1  x    f  x, y  dy, f2  y    f  x, y  dx . (3.5)
 

Доказательство:
Из свойства 2 двумерной функции распределения имеем
x 

Р
F1 ( x )  F ( x, )   f ( x, y )dxdy ,
 

УИ
учитывая, что плотность распределения одномерной случайной величины равна
F ( x ) , получим после дифференцирования по х:

f1 ( x )  F ( x)   f ( x, y )dy .

БГ

Аналогично получаем f 2 ( y ) для другой составляющей.
Замечание. Плотность распределения одной составляющей двумерной
случайной величины определяется путем интегрирования f(x,y) в бесконечных
а
пределах по аргументу, соответствующему другой составляющей случайной
ек

величины.
5. Условие нормировки
 

  f  x, y  dxdy  1 . (3.6)
т

 
Доказательство:
ио

Из свойства 2 двумерной плотности при x   и y   имеем


 
F  ,      f  x, y  dxdy  но F  ,    1, значит  1 .
бл

 

3.5. Условные законы распределения


Би

Если известны законы распределения отдельных составляющих двумер-


ной случайной величины (см. свойство 2 формулы (3.5)), то для зависимых слу-
чайных величин X и Y закон распределения двумерной случайной величины
(X, Y) не может быть выражен через законы распределения отдельных состав-
ляющих, т. к. не известно, как они связаны между собой.
Поэтому в теории вероятностей вводят понятие условных законов рас-
пределения.
Условным законом распределения называется распределение одной со-
ставляющей двумерной случайной величины, найденное при условии, что дру-

52
гая составляющая двумерной случайной величины приняла определенное
значение.
Условный закон распределения может выражаться как условной функци-
ей распределения F  x y  , так и условной плотностью распределения f  x y 
(для случайной величины X при условии, что другая случайная величина Y при-
няла определенное значение). Рассмотрим условные плотности распределения.
По определению условной плотности распределения для случайной величины
X при условии, что случайной величины Y приняла определенное значение,
получим
P  x  X  x  x y  Y  y  y 
f  x y   lim . (3.7)

Р
x 0 x
y 0

УИ
P( A  B)
Ранее мы вводили определение условной вероятности: P ( A B )  .
P( B)
Применим это определение к числителю формулы (3.7):
P  x  X  x  x  y  Y  y  y 

БГ
P  x  X  x  x y  Y  y  y   .
P  y  Y  y  y 
Подставляя это выражения в числитель формулы (3.7) и разделив числи-
тель и знаменатель (3.7) на y , получим
а
P  x  X  x  x  y  Y  y  y 
ек

P  y  Y  y  y  xy f  x, y 
f  x y   lim  . (3.8)
x 0 y f2  y 
y 0
т

Аналогично для составляющей Y условной плотности распределения


имеем
f  x, y 
ио

f  y x  . (3.9)
f1  x 
С учетом свойства 4 плотности двумерной случайной величины формулы
бл

(3.8) и (3.9) можно переписать в следующем виде :


f  x, y  f  x, y 
f  x y   , f  y x   . (3.10)
Би

 f  x, y  dx

 f  x, y  dy


Используя формулы (3.8) и (3.9), сформулируем следующую теорему.

Теорема умножения законов распределений. Плотность распределения


двумерной случайной величины равна произведению плотности распределения
одной составляющей двумерной случайной величины и условной плотности
распределения другой составляющей двумерной случайной величины.

53
Доказательство:
Из формул (3.8) и (3.9) имеем

f  x, y   f1  x  f  y x   f 2  y  f  x y  . (3.11)

Условная плотность распределения обладает всеми свойствами безуслов-


ной плотности распределения.
1. f  x y   0 .
x
dF  x y 
2. F  x y    f  x y  dx и f x y  .
dx

Р

3. Условие нормировки:

УИ

F   y    f  x y  dx  1 .


БГ
3.6. Зависимые и независимые случайные величины

Предположим, что измеряемые в эксперименте случайные величины X и


Y – координаты точки падения снаряда при стрельбе из орудия по цели в виде
прямоугольника, обозначенного на земле. Тогда координаты точки падения од-
а
ного снаряда не зависят от координат точки падения другого снаряда. Понятие
ек

независимости случайных величин является одним из важнейших в теории ве-


роятностей.
Случайная величина X называется независимой от случайной величины Y,
т

если закон распределения случайной величины X не зависит от того, какое зна-


чение приняла случайная величина Y.
ио

f  x y   f1  x  . (3.12)
бл

Видим, что для независимых случайных величин условная плотность


распределения равна безусловной плотности.
Если же одна случайная величина зависит от другой случайной величины, то
Би

f  x y   f1  x  .

Покажем, что если случайная величина X не зависит от Y, то и случайная


величина Y не зависит от X, т. е. зависимость и независимость случайных вели-
чин взаимны. Для доказательства используем теорему умножения законов рас-
пределений выраженную формулой (3.11).
Пусть X не зависит от Y: f  x y   f1  x  .

54
Тогда из (3.11) имеем f1  x  f  y x   f 2  y  f  x y  , подставляя в левую
часть этого равенства f1  x   f  x y  , получим  f  y x   f 2  y  . Это и есть
условие независимости случайной величины Y от X.
Сформулируем и докажем следующую теорему.
Для того чтобы непрерывные случайные величины X и Y были независимы,
необходимо и достаточно, чтобы плотность распределения двумерной слу-
чайной величины (X,Y) была равна произведению плотностей распределения
отдельных составляющих двумерной случайной величины.

f  x, y   f1  x  f 2  y  . (3.13)

Р
Доказательство:

УИ
1. Условие необходимости. (Покажем что необходимость того, чтобы X и
Y были независимы; тогда выполнится (3.13)). Пусть X и Y – независимые слу-
чайные величины, т. е.
f x y  f1  x  , f  y x   f 2  y  .

3.11), получаем
БГ
Подставив эти выражения в правую часть теоремы умножения (формула

f  x, y   f1  x  f 2  y  .
а
2. Условие достаточности. (Покажем, что достаточно, чтобы выполня-
лось условие (3.13), тогда X и Y будут независимы). Пусть f  x, y   f1  x  f 2  y  .
ек

Тогда, используя (3.8), получим


f  x, y 
f x y   подставляя в числитель формулу(3.13), получим  f1  x  .
т

f2  y 
Это и есть условие независимости X от Y. Аналогично доказательство для не-
ио

зависимости Y от X. Эта теорема имеет следствие.


Следствие. Если двумерная плотность распределения f(x,y) представима
в виде произведения двух сомножителей, один из которых содержит только
бл

Х, а другой только Y составляющие, то случайные величины X и Y будут неза-


висимы.
Би

Пример 1.
Пусть двумерная случайная величина (X,Y) задана плотностью распреде-
ления.

ax 2 y если 0  x  1  0  y  1,
f  x, y   
0 вне этой области.
Найти коэффициент a и показать, что случайные величины X и Y незави-
симы.

55
Решение.
Для определения коэффициента a используем условие нормировки
 
2
  ax
 
ydxdy  1 .

Учтем область определения f ( x, y ) :


1 1 1 1 1 1
2 2 x3 y2 a
0 0 ax ydxdy  a x dx
0 0 ydy  a (  )   1,
3 0 2 0 6
откуда а = 6.
1-й способ проверки независимости X и Y.

Р
Найдем плотности распределений отдельных составляющих f1 ( x) и
f 2 ( y ) , применяя (3.4):

УИ
 1 2 1
2 2 y
f1  x    f  x, y  dy   6 x ydy  6 x  3x 2 ,
 0
2 0
1

БГ
 1
2 x3
f 2  y    f  x, y  dx   6 x ydy  6 y  2 y.
 0
3 0
Подставим эти выражения в условие (3.13):
f  x, y   f1  x  f 2  y   6 x 2 y .
а
Значит случайные величины X и Y независимы.
ек

2-й способ проверки независимости X и Y.


Найдем условную плотность распределения:
f  x, y  6 x 2 y
f x y   3x 2  f1  x  .
т


f2  y  2y
Видим, что выполняется условие (3.12), значит случайные величины X и
ио

Y независимы.
3-й способ проверки независимости X и Y.
Все предыдущие вычисления можно не делать, а сослаться на следствие к
бл

доказанной выше теореме. Видим, что двумерная плотность 6x 2 y представима


в виде произведения двух сомножителей, один из которых содержит только Х,
а другой только Y составляющие. Тогда на основании следствия из доказанной
Би

выше теоремы случайные величины X и Y независимы.


Пример 2.
Двумерная случайная величина равномерно распределена внутри области
D, выделенной на рис. 3.8 жирными прямыми:
c, ( x, y )  D; 
f ( x, y )   .
 0, ( x , y )  D.

56
Y
y=x y=2x-6

1 D

0 1 2 4 X
3

Р
Рис. 3.8

УИ
Найти константу с.
Решение.
Запишем уравнения прямых (см. рис. 3.7): y  x, y  2 x  6 .

БГ
 
Используем условие нормировки   f ( x, y )dxdy  1 .
 
Этот интеграл вычислим в виде суммы трех интегралов, разбивая область
D на три части (пунктирные прямые на рис. 3.8):
а
2 x 3 2 4 2
2 3 4
ек

 
c  dx  dy   dx  dy   dx  dy   c  xdx   2dx   [2  (2 x  6)]dx  =
0 0 2 0 3 2 x 6  0 2 3 
т

x2 2x 2
= c 2
0
3
2 x 
2
4
3 8 x 4
3  = с5 = 1;  с = 1/5.
2 2
ио
бл
Би

57
ГЛАВА 4. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ
СЛУЧАЙНЫХ ВЕЛИЧИН

4.1. Числовые характеристики одномерной случайной величины

При решении многих практических задач нет необходимости указывать


полностью закон распределения случайной величины, а можно указать наибо-

Р
лее характерные его черты. Поэтому для общей характеристики случайных ве-
личин используют некоторые величины, которые называются числовыми ха-

УИ
рактеристиками. Они позволяют в сжатой форме выразить наиболее суще-
ственные особенности того или иного распределения. Важнейшими из них яв-
ляются: математическое ожидание, дисперсия, среднее квадратическое откло-
нение.

БГ
4.1.1. Математическое ожидание

Одной из важнейших характеристик случайной величины является мате-


а
матическое ожидание. Математическое ожидание – это среднее значение слу-
ек

чайной величины – это не точное определение, а смысл математического ожи-


дания. Математическое ожидание легко вычисляется и обладает полезным
свойством: среднее арифметическое одинаково распределенной случайной ве-
т

личины близко к математическому ожиданию.


Пусть   1 , 2 ,..., N  – дискретное пространственное элементарных
ио

событие. Рассмотрим событие k состоящее в том, что случайная величина Х


принимает значение xk , т. е. k  { X  xk } . Пусть события k – равновероятны,
1
тогда вероятности этих событий: P  k   , k  1, N .
бл

N
Тогда среднее значение случайной величины можно определить так:
N N
1 1 1 1
Би

 x1  ...  xN  / N  x1  ... xN   xk  учтем, что  P(k )   xk P (k ) .


N N k 1 N N k 1

В общем случае вероятности P  k   pk могут и не быть одинаковы.


Тогда среднее значение вычисляется по формуле
N
p1 x1  p2 x2  ...  p N xN   pk xk .
k 1
Будем обозначать математическое ожидание случайной величины X как
M [ X ] или mx .

58
Математическим ожиданием дискретной случайной величины Х на-
зывается сумма произведений всех возможных значений случайной величины
на их вероятности:
N
M  X    xk pk . (4.1)
k 1
Рассмотрим непрерывную случайную величину X, все возможные значе-
ния которой принадлежат интервалу [a, b]. Пусть f(x) – плотность распределе-
ния. Разобьем интервал [a, b] на n отрезков x1 , x 2 ...x n . Вероятность попада-
ния случайной величины X на элементарный участок xk равна
pk  f  xk  xk , (k  1, n) . Тогда по аналогии с определением математического

Р
ожидания для дискретной случайной величины запишем
n

УИ
x k pk   xk f  xk  xk .
k 1
Перейдем к пределу при xk  0 , получим определенный интеграл:
n b

БГ
lim
xk 0
 x f  x  x   xf  x  dx .
k 1
k k k
a
Математическим ожиданием непрерывной случайной величины Х,
возможные значения которой принадлежат отрезку [a,b] называется опреде-
а
ленный интеграл:
b
ек

M  X    xf  x  dx . (4.2)
a
Если плотность распределения f(x) определена на всей числовой оси,
т

тогда:

M X    xf  x  dx . (4.3)
ио


Физический смысл математического ожидания. Математическое ожида-
ние – это абсцисса центра тяжести стержня, имеющего массу, равную единице,
бл

с плотностью f(x). Равномерное распределение плотность f(x) по длине стержня


показано на рис. 4.1. Неравномерное распределение плотности f(x) показано на
рис. 4.2.
Би

f (x)
f(x)

X x
mx mx

Рис. 4.1 Рис. 4.2

59
4.1.2. Общее определение математического ожидания

При решении практических задач часто используются функции случай-


ных величин, например: Y  X 2 , Y  sin( X ) и т. д. Очевидно, что если X слу-
чайная величина, то и Y тоже случайная величина, но с определенной функцио-
нальной зависимостью от Х. Пусть задана функциональная зависимость
Y    X  . Требуется найти математическое ожидание случайной величины Y,
зная плотность распределения случайной величины X. Для простоты предполо-
жим, что   X  – монотонная непрерывная и обратная функция X  1  Y  –
однозначна (рис. 4.3).

Р
Y

УИ
(b ) y  ( x)

yi

yi1
БГ
а
(a )
ек

a xi1 xi b X
т

Рис. 4.3

Рассмотрим событие состоящее в том, что случайная величина Х попадет


ио

в промежуток [ xi1 , xi ):  xi1  X  xi  , в этом случае выполнится событие, со-


стоящее в том, что случайная величина Y попадет в промежуток [ yi 1 , yi ):
 yi 1  Y  yi  . Эти события равносильны, т. е. событие  xi1  X  xi  влечет
бл

событие  yi 1  Y  yi  и наоборот. Это означает, что между точками промежут-


ка [ xi1 , xi ) и [ yi1 , yi ) существует взаимно однозначное соответствие.
Би

Раз события равносильны, то вероятности этих событий одинаковы:


P  xi1  X  xi   P  yi1  Y  yi  . (4.4)
Обозначим плотность распределения случайной величины Y как f ( y ) и
положим   a    и   b    , тогда, используя (4.2) математическое ожидание
случайной величины Y, определим так:

60

M Y    yf  y  dy = ранее мы показали, что этот интеграл является пре-



n
делом следующей суммы = lim
yk 0
 y f  y  y
k 1
k k k =

= учтем, что P( yi1  Y  yi )  f ( y )y =

 lim y k 1 P  yk 1  Y  yk   с учетом (4.4) перейдем к переменным Х 


yk 0
k
n b

Р
 lim
xk 0
   x P  x
k
k 1 k 1  X  xk      xk 1  f ( xk )xk     x  f ( x )dx.
k 1 a

УИ
Таким образом, общее определение математического ожидания для не-
прерывной случайной величины запишется так:
b
M  ( X )   ( x) f ( x)dx . (4.5)

БГ
a

Если случайная величина Х определена на всей числовой оси: a   ,


b   и, соответственно, несобственный интеграл существует, то

M   x       x  f ( x)dx .
а
(4.6)

ек

Для дискретной случайной величины Х общее определение математиче-


ского ожидания запишется так:
n
т

M   x       xk  pk . (4.7)
k 1
ио

Аналогично можно получить формулы общего определения математиче-


ского ожидания для двумерной случайной величины (X, Y), если задана функ-
циональная зависимость Z  ( X , Y ) и известен закон распределения двумер-
бл

ной случайной величины (X, Y).


Для непрерывной случайной величины
 
Би

M  ( X , Y )    ( x, y ) f ( x, y)dxdy .
 
Для дискретной случайной величины
m n
M   X , Y      ( xi , y j ) pij .
j 1 i 1

61
4.1.3. Свойства математического ожидания

1. Если С не случайная величина (т. е. постоянная), то математическое


ожидание от С равно самой величине С:
M C   C .
Доказательство:
Неслучайную величину С можно рассматривать как дискретную случай-
ную величину с единственным значением С, которому соответствует вероят-
ность Р = 1. Тогда по определению математического ожидания (4.1)
M C   1* C  C .

Р
2. Свойство аддитивности. Математическое ожидание суммы случайных
величин равно сумме математических ожиданий:

УИ
M  X  Y   M  X   M Y  .
Доказательство:
Из определения математического ожидания имеем

БГ
     
M X Y     x  y  f  x, y  dxdy    xf ( x, y)dxdy    yf ( x, y )dxdy 
     
   
   
 x
  
 f  x , y  dy  dx   y   f  x , y  dx dy 
а
    
ек

с учетом свойства 4 двумерной плотности , 


   xf1  x  dx 
формулы (3.5), получим 

т

  yf 2  y dy  M  X   M Y .

ио

Аналогично доказывается
M  X  Y   M  X   M Y  .
3. Если С – постоянный множитель, то его можно выносить за знак мате-
бл

матического ожидания:
M CX   CM  X  .
Би

Доказательство:
Воспользуемся общим определением математического ожидания для
Y    x  (4.6).
 
Пусть Y  CX , тогда M CX    Cxf  x  dx  C  xf  x  dx  CM  X  .
 
4. Мультипликативное свойство. Для независимых случайных величин X
и Y математическое ожидание произведения этих величин равно произведению
их математических ожиданий:

62
M  XY   M  X   M Y  .
Доказательство:
 
M  X Y     xyf  x, y  dxdy 
 

с учетом независимости случайных величин

формула (3.13): f  x, y   f1  x  f 2  y  , получим
  xf  x  dx 

1


  yf 2  y dy  M  X   M Y .


Р
5. Величина X  M  X  называется центрированной случайной величиной,

УИ
0
обозначим ее X . Тогда справедливо следующее соотношение
M  X  M  X   0 .
Доказательство:

БГ
M  X  M  X   M  X   M  M  X   M  X   M  X   0 .

Кроме математического ожидания, которое является основной характери-


а
стикой положения случайных величин на числовой оси, на практике применяют
и другие числовые характеристики, описывающие центр распределения слу-
ек

чайной величины, в частности моду, медиану.


Модой дискретной случайной величины X называют ее наиболее вероят-
ное значение (рис. 4.4). Модой непрерывной случайной величины называется
т

такое ее значение xmod , при котором плотность распределения имеет максимум


(рис. 4.5).
ио

Pi f(x)
бл
Би

x x
xmod xmod

Рис. 4.4 Рис. 4.5

63
f (x) f (x)

x x
xm1 xm 2 a b

Рис. 4.6 Рис. 4.7

Р
Распределения случайных величин бывают одномодальные (рис. 4.5),
двумодальные (рис. 4.6), полимодальные и антимодальные – моды не имеют

УИ
(рис. 4.7).
Для определения моды необходимо продифференцировать плотность
распределения – f '  x  , приравнять к нулю производную: f '  x   0 , и решить
это уравнение относительно x.

БГ
Медианой xmed произвольной случайной величины X называют такое ее
значение, относительно которого равновероятно получение большего или
меньшего значения случайной величины:
P ( X  xmed )  P( X  xmed )  0,5 .
а
С геометрической точки зрения медиана непрерывной случайной вели-
ек

чины – это абсцисса точки, в которой площадь фигуры, ограниченной сверху


кривой распределения, делится пополам p1  p2  0,5 (рис. 4.8).
f(x)
т
ио

P1
бл

P2

xmed x
Би

Рис. 4.8

Если распределение одномодальное и симметрическое, то все три харак-


теристики положения случайной величины: математическое ожидание, мода и
медиана – совпадают.
Квантилем порядка р называется значение случайной величины x p , оп-
ределяемое из уравнения
F  xp   P . (4.8)

64
Очевидно, что квантиль порядка 0,5 – это медиана, которая определяется
из уравнения F  xmed   0,5.

4.1.4. Дисперсия, среднее квадратическое отклонение

При проведении вероятностных экспериментов можно заметить, что зна-


чения случайных величин всегда колеблются около среднего значения. Это яв-
ление называется рассеиванием случайной величины около ее среднего значения.
Числовые характеристики, описывающие рассеивание случайной величины,

Р
показывают, насколько тесно сгруппированы возможные значения случайной

УИ
величины около ее среднего значения – математического ожидания.
Основными из них являются дисперсия и среднее квадратическое откло-
нение.
Для определения этих характеристик используется разность между слу-

БГ
чайной величиной X и ее математическим ожиданием. Ранее в свойстве 5 мате-
матического ожидания мы дали определение, в котором центрированная слу-
0
чайная величина обозначается X и определяется как X  M  X  . В свойстве 5
0
а
мы показали, что M [ X ]  0 , т. е. математическое ожидание центрированной
случайной величины никак не характеризует ее рассеивание, а указывает лишь
ек

на то, что значения отклонения – числа разного знака. Поэтому в качестве меры
рассеивания случайной величины берут математическое ожидание квадрата
центрированной случайной величины.
т

Дисперсией случайной величины X называется математическое ожида-


ние квадрата отклонения случайной величины от ее математического ожида-
ио

ния и обозначается
2
D  X   M  X  M [ X ]   . (4.9)
 
бл

Используя общее определение математического ожидания (4.6), легко


записать дисперсию для непрерывной случайной величины, если обозначить
( x)  ( X  mx ) 2 :
Би


2
D X     x  mx  f  x  dx . (4.10)

Аналогично, применив формулу (4.7), дисперсия для дискретной случай-
ной величины

n
2
D  X     xi  mx  pi . (4.11)
i 1

65
Подчеркнем еще раз смысл дисперсии: дисперсия – мера рассеивания (или
отклонения) случайной величины относительно ее математического ожидания.

f(x) D1

D2

Р
x
mx

УИ
Рис. 4.9

На рис. 4.9 показаны два варианта распределения для двух разных слу-
чайных величин. Видим, что у более плоской кривой отклонение от среднего

БГ
значения mx (можно взять по среднему уровню кривой) больше, чем у остроко-
нечной кривой. Значит, дисперсия D2 будет больше дисперсии D1.
Использование дисперсии хотя и удобно для характеристики рассеивания
случайной величины X, но лишено наглядности, т. к. имеет размерность квад-
а
рата случайной величины. Поэтому на практике для рассеивания (или отклоне-
ния) чаще используют характеристику, совпадающую по размерности со слу-
ек

чайной величиной, – это среднее квадратическое отклонение.


Средним квадратическим отклонением называется положительное значе-
ние квадратного корня из дисперсии случайной величины X, которое обозначается
т

как  x :
ио

 x  D[ X ] . (4.12)

Свойства дисперсии
1. Дисперсия постоянной величины ( C  const ) равна нулю:
бл

D C   0 .

Доказательство:
Би

Так как M C   C (свойство 1 математического ожидания) из определе-


ния дисперсии (4.9), подставляя X = C, получаем
2 2
D  C   M  C  M  C     M  C  C    0 .
   
2. Постоянный множитель выносится за знак дисперсии и возводится в
квадрат:
D  CX   C 2 D  X  .

66
Доказательство:
2 2
D  CX   M  CX  M CX    M  CX  CM  X   
   
2 2
 M C 2  X  M  X     C 2 M  X  M  X     C 2 D  X  .
   
3. Дисперсия случайной величины равна математическому ожиданию
квадрата случайной величины минус квадрат ее математического ожидания:
2
D  X   M  X 2    M  X  .

Доказательство:

Р
2 2
D  X   M  X  M  X     M  X 2  2 XM  X    M  X   
   

УИ
2 2
 M  X 2   2 M  X  M  X   M  X   M  X 2    M  X  .
4. Для независимых случайных величин дисперсия суммы или разности
случайной величины равна сумме дисперсии:

Доказательство:
2
БГ
D[ X  Y ]  D[ X ]  D[Y ] .

2
D  X  Y   M   X  Y   M  X  Y    M   X  M  X    Y  M Y   
 
а
   
ек

= раскроем квадрат двух величин, стоящих в круглых скобках 


2 2
 M  X  M  X   2  X  M  X   Y  M Y   Y  M Y    
 
т

используя свойства математического ожидания,


 
найдем математическое ожидание откаждого слагаемого
ио

2 2
 M  X  M  X    2M  X  M  X   Y  M Y    M Y  M Y   
   
 D  X   D Y   2M  X  M  X   Y  M Y   .
бл

Если случайной величины независимы, то


M  X  M  X  Y  M Y    M  X  M  X  M Y  M Y   0.
Би

Окончательно получаем:
D  X  Y   D  X   D Y .

5. Дисперсия произведения независимых случайных величин


D[ X  Y ]  D[ X ]  D[Y ]  mx 2 D[Y ]  m y2 D[ X ] . (4.13)

67
Доказательство:
Обозначим X  Y  Z .
По определению дисперсии
0
D[ X  Y ]  D[ Z ]  M [Z 2 ]  M [( Z  mz ) 2 ] . (4.14)

Поскольку X и Y независимые – mz  mx  my ,

D[ X  Y ]  M [( X  Y  mx m y ) 2 ] 
(4.15)
 M [ X 2  Y 2 ]  2mx m y M [ X  Y ]  mx2 m 2y .

Р
Если X и Y независимые, то X 2 , Y 2 тоже независимы, тогда

УИ
M [ X 2  Y 2 ]  M [ X 2 ]  M [Y 2 ] , (4.16)

M [ X  Y ]  mx  m y .
Подставим (4.16) в выражение (4.15) и получим
D[ X  Y ]  M [ X 2 ]  M [Y 2 ]  mx2  m 2y .

Найдем M [ X 2 ] , используя свойство 3 дисперсии:


БГ (4.17)
а
D[ X ]  M [ X 2 ]  mx2 .
ек

Отсюда получим
M [ X 2 ]  D[ X ]  mx2 . (4.18)
т

Аналогично для случайной величины Y


M [Y 2 ]  D[Y ]  m y2 . (4.19)
ио

Подставляя (4.18, 4.19) в (4.17), получим (4.13):


D[ X  Y ]  ( D[ X ]  mx2 )( D[Y ]  m y2 )  mx2  m y2 
бл

 D[ X ]  D[Y ]  mx 2 D[Y ]  m y2 D[ X ].
Би

4.1.5. Моменты распределения случайных величин

Рассмотренные ранее числовые характеристики случайных величин яв-


ляются частным случаем более общего понятия числовых характеристик – мо-
ментов распределений случайных величин. Здесь название «момент» взято из
механики, где оно употребляется для описания распределений масс тел, а в
теории вероятностей употребляется для описания распределений случайных
величин.

68
В теории вероятностей моменты бывают двух видов: начальные и цен-
тральные.
Начальным моментом k-го порядка случайной величины X называется
математическое ожидание случайных величин X k .
Обозначать начальный момент k-го порядка будем  k и определим так:
 k  M  X k  . (4.20)
Используя общее определение математического ожидания (4.6), легко за-
писать начальный момент k-го порядка для непрерывной случайной величины,
если обозначить ( x)  X k :

Р

k
k   x f  x  dx . (4.21)

УИ


Аналогично, применяя формулу (4.7), начальный момент k-го порядка для


дискретной случайной величины запишется так:

БГ
n
 k   xik Pi . (4.22)
i 1
Особо важное значение имеет начальный момент первого порядка. Видим,
что при k = 1 1  M  X  и представляет математическое ожидание. Начальные
а
моменты высших порядков используются для вычисления центральных моментов.
ек

Центральным моментом k-го порядка случайной величины X называет-


k
ся математическое ожидание величины  X  mx  .
Обозначать центральный момент k-го порядка будем  k и определять
т

следующим образом:
 k  M ( X  mx )k  . (4.23)
ио

При использовании общего определения математического ожидания (4.6),


если обозначить ( x)  ( X  mx ) k , центральный момент k-го порядка для непре-
бл

рывной случайной величины запишется так:



k
k    x  m  f  x  dx .
i x (4.24)
Би


Применяя формулу (4.7), центральный момент k-го порядка для дискрет-
ной случайной величины рассчитывается так:
n
k
 k    xi  mx  Pi . (4.25)
i 1
С учетом свойства 5 математического ожидания отметим, что централь-
ный момент первого порядка всегда равен нулю. Центральный момент второго
порядка является дисперсией случайной величины X и через 1-й и 2-й началь-
ные моменты (используем свойство 3 дисперсии) определяется так:

69
2
 2  D  X   M  X 2    M  X    2  12 .
Третий центральный момент 3 служит характеристикой асимметрии
(«скошенности») распределения. Если случайная величина X распределена
симметрично относительно своего математического ожидания, то
3
3  M  X  mx    0 . Третий центральный момент имеет размерность куба
 
случайной величины, поэтому при решении практических задач для характери-
стики асимметрии чаще пользуются безразмерной величиной – коэффициен-
том асимметрии: A  3 / 3 . На рис. 4.10 и 4.11 показана положительная и от-
рицательная асимметрия соответственно.

Р
f (x)

УИ
f (x)

БГ
A0 A 0

x x
а
Рис. 4.10 Рис. 4.11
ек

Четвертый центральный момент  4 используется для характеристики


плосковершинности. Введя безразмерный коэффициент плосковершинности
т

B  4 / 4 , можно показать, что для нормального закона распределения


B   4 / 4  3 . Тогда в качестве характеристики плосковершинности применя-
ио

ют безразмерный коэффициент, называемый эксцессом: Э   4 / 4  3 .

f(x)
бл

Э>0

Э=0
Би

Э<0

mx x

Рис. 4.12

70
4.1.6. Числовые характеристики двумерной случайной величины.
Ковариация. Коэффициент корреляции

Основной характеристикой, описывающей связь между составляющими X


и Y двумерной случайной величины (X, Y), является ковариация, называемая
также корреляционным моментом K xy или моментом связи K xy , и определяет-
ся по формуле
K xy  cov  X , Y   M  X  mx  Y  m y   
 M  XY   M  Xm y   M Ymx   M  mx m y  

Р
 M  XY   2M  X  M Y   M  X  M Y  
 M  XY   M  X  M Y  , (4.26)

УИ
где математическое ожидание составляющей Х для непрерывной двумерной
случайной величины (X, Y) вычисляется так:
  

БГ
mx    xf  x, y  dxdy   xf  x  dx .
  
1 (4.27)

Для составляющей Х дискретной двумерной случайной величины (X, Y)


а
mx   xi Pi   xi Pij . (4.28)
ек
i j

Аналогично записываются математические ожидания для составляющей Y.


Отметим, что из определения корреляционного момента (4.26) следует,
что корреляционный момент показывает рассеивание (отклонение) случайных
т

величин X, Y относительно среднего значения и одновременно характеризует


влияние одной случайной величины на другую.
ио

Для дискретной двумерной случайной величины (X,Y) корреляционный


момент запишется так:

K xy    xi  mx   y j  m y  Pij   xi y j Pij  mx m y .
бл

(4.29)
i j i j

Корреляционный момент для непрерывной двумерной случайной величи-


Би

ны (X,Y) имеет следующий вид:


   
K xy     x  m   y  m  f  x, y  dxdy    xyf  x, y  dxdy  m m
 
x y
 
x y . (4.30)

Покажем, что если составляющие X и Y двумерной случайной величины


(X,Y) независимы, то K xy  0 . Необходимое и достаточное условие независимо-
сти случайных величин X и Y определено ранее (3.13):
f  x, y   f1  x  f 2  y  ,

71
тогда (4.24) принимает следующий вид:

   
K X ,Y     x  m   y  m  f  x, y  dxdy    x  m  f  x  d   y  m  f  y  dy 
 
x y

x 1

y 2

  
   x  m  f  x  dx   xf  x  dx  m  f  x  dx  m

x

x

x  mx  0.

Обратное утверждение, если K X ,Y  0 , то случайные величины X и Y неза-


висимы, не всегда выполняется.
Корреляционный момент имеет размерность квадрата случайной величи-

Р
ны, но на практике для характеристики связи чаще используют безраз-
мерные величины. Поэтому составляющие нормируют. Если положить

УИ
X  ( X  mx ) /  x , Y  (Y  m y ) /  y , то корреляционный момент нормированных
случайных величин X и Y называется коэффициентом корреляции и обознача-
ется

БГ
 X  m   Y  m y   mxy  mx m y K
 xy  M [ XY ]  M  x
      xy . (4.31)
  x   y    
x y  
x y

Коэффициент корреляции является безразмерной величиной и характери-


а
зует степень линейной связи между составляющими X и Y двумерной случай-
ной величины (X,Y).
ек

Свойства коэффициента корреляции


1. Абсолютная величина коэффициента корреляции не превосходит еди-
т

ницу  xy  1 ; при доказательстве свойства 4 дисперсии мы получили


ио

0  D  X  Y   D  X   D Y   2cov  X Y  

 X  mx  1 2
 но: D  X   D    2 M  X  mx    1 
бл

 x  x
 2 1   xy   1   xy  1.
Би

2. В зависимости от значения коэффициента корреляции  xy между со-


ставляющими X и Y двумерной случайной величины (X,Y) могут существовать
следующие зависимости (рис. 4.13, a – d):

72
Y
Y
 xy = –1
 xy = +1

X X

а b

Р
УИ
Y
 xy  0 Y
 xy =0,5

БГ
а
X X
ек

c d

Рис. 4.13
т

а – при  xy  1 между X и Y существует линейная положительная зависи-


ио

мость (рис. 4.13, а);


b – при  xy  1 между X и Y существует линейная отрицательная зависи-
мость (рис. 4.13, b);
бл

c – при  xy = 0 между X и Y отсутствует зависимость, и говорят, что X и Y


некоррелированны (рис. 4.13, с);
d – когда 0<  xy <1, то между X и Y существует положительная вероятно-
Би

стная линейная зависимость, или между X и Y существует положительная кор-


реляция (рис. 4.13, d).
.

73
ГЛАВА 5. ФУНКЦИИ СЛУЧАЙНЫХ ВЕЛИЧИН

При решении многих практических задач приходится рассмат-


ривать функции одной или нескольких случайных величин:
2 3 3 3
( Y  X , Y  X  cos X , Z  X  Y …). Такие функции тоже являются случай-
ными величинами, но с известной функциональной зависимостью. Задача мо-

Р
жет быть сформулирована следующим образом.

УИ
Дана многомерная случайная величина ( X 1 , X 2 ,..., X n ), закон распределе-
ния которой известен. Рассматривается некоторая случайная величина Y как
функция от случайных величин X 1 , X 2 ,..., X n :
Y  ( X 1 , X 2 ,..., X n ) .

БГ
Требуется найти закон распределения случайных величин Y, зная вид
функции  и закон распределения случайных величин ( X 1 , X 2 ,..., X n ).

5.1. Одномерное приближение


а
ек

Сформулируем задачу для дискретных случайных величин. Пусть задана


функциональная зависимость Y  ( X ) . Закон распределения дискретной слу-
чайной величины Х задается в виде ряда распределения:
т

X x1 x2 ... xn
ио

P p1 p2 ... pn

Требуется найти закон распределения случайной величины Y.


бл

Тогда Y  ( X ) также дискретная случайная величина с возможными


значениями yi  ( xi ) . Если значения y1 ,..., yn различны, то для каждого i  1, n
Би

события { X  xi } и {Y  yi  ( xi )} равносильны. То есть в результате опыта


случайная величина Y примет значение yi  ( xi ) тогда и только тогда, когда
случайная величина X примет значение xi , а вероятность последнего события
{ X  xi } равна pi . Следовательно, вероятности этих событий одинаковы:
P ({Y  yi  ( xi )})  P({ X  xi })  pi .
Тогда искомый ряд распределения запишется в следующем виде

74
X y1  ( x1 ) y2  ( x2 ) ... yn  ( xn )
P p1 p2 … pn

Для непрерывной случайной величины задача ставится так: зная плотность


распределения f ( x) случайной величины X и функциональную зависимость
Y  ( X ) , найти плотность распределения f y ( y ) случайной величины Y .
Пусть X – непрерывная случайная величина с плотностью распределения
f ( x) , а Y  ( X ) – непрерывная и дифференцируемая случайная величина.
Рассмотрим общий случай, когда обратная функция X  1 (Y ) – неоднозначна,

Р
т. е. одному значению у соответствует несколько значений xi  i1 ( y ) , i  1, n .

УИ
БГ
а
Рис. 5.1
ек

Рассмотрим малое приращение функции y . Событие { Y  ( y , y  y ) }


произойдет тогда, когда случайная величина Х попадет в интервал или x1 ,
или x2 , …, т. е. событие равносильно сумме несовместных событий
т

{ X  ( xi , xi  xi ) }, i  1, n , где знак    или    берется в зависимости от


ио

того, возрастает или убывает i1 в интервале ( y, y  y ) (рис. 5.1):


n
{ y  Y  y  y}  {xi  X  xi  xi } . (5.1)
i 1
бл

Раз события, записанные в (5.1), тождественны, то и вероятности их рав-


ны. Применяя 3 аксиому к событиям в правой части (5.1) (несовместные собы-
тия), получаем
Би

n
P ({ y  Y  y  y})   P({xi  X  xi  x}) . (5.2)
i 1
Учитывая, что вероятность попадания случайной точки в малый интервал
приближенно равна произведению плотности распределения в какой-либо точ-
ке этого интервала на его длину, найдем
n
f y ( y )y   f ( xi )xi . (5.3)
i 1

75
Разделив (5.3) на y , переходя к пределу при y  0 и подставив i1 ( y )
вместо xi , получим

d i1 ( y )
n
f y ( y )   f [i1 ( y )]
. (5.4)
i 1 dy
Здесь производную берем по модулю потому, что плотность распределе-
ния не может быть отрицательной.
Пример.
Пусть X – нормированная нормальная случайная величина с плотностью
2

Р
1  x2
распределения f ( x )  e и задана функциональная зависимость Y  3 X .
2

УИ
Найти f y ( y ) .
Строим график функции Y  3 X (рис. 5.2).

БГ
У

y3 Х y3 Х
а
ек

Х
Х1 Х2
т

Рис. 5.2

Видим, что обратная функция x  1 ( y )   y 3 – двузначная, n = 2:


ио

x1  11 ( y )  y 3 , x2  21 ( y )   y 3 .
Подставляем эти значения в (5.4):
dy 3  dy 3 1 1
бл

6 6
f y ( y)  f ( y3 )   f ( y 3 )    e y / 2  3 y 2   e y / 2  3 y 2 
dy dy 2 2
6 y 2  y6 / 2
 e .
Би

2

5.2. Двумерное приближение

Рассмотрим двумерную случайную величину ( X 1 , X 2 ) с плотностью рас-


пределения f ( x1 , x2 ) . Пусть задана для двумерной случайной величины ( Y1 ,Y2 )
функциональная зависимость в следующем виде:

Y1  1 ( X 1 , X 2 ) , Y2  2 ( X 1 , X 2 ) . (5.5)

76
Требуется найти плотность распределения f y ( y1 , y2 ) двумерной случай-
ной величины ( Y1 ,Y2 ).
Найдем обратные функции:
X 1  11 (Y1 , Y2 ) , X 2  21 (Y1 , Y2 ) . (5.6)
Пусть эти функции – многозначные или n-значные. То есть попадание
случайной точки ( Y1 ,Y2 ) в элементарную область G на плоскости ( Y1 ,Y2 ) рав-
носильно попаданию случайной точки ( X 1 , X 2 ) или в область G1 , или в об-
ласть G2 …, или в область Gn , где ( Gi , i  1, n ) – непересекающаяся область
на плоскости X 1 X 2 (рис. 5.3).

Р
X2

УИ
Y2

G  G1

Y1
БГ Gn
G2

X1
а
Рис. 5.3
ек

Обозначим {(Y1 , Y2 )  G} – событие состоящее в том, что двумерная слу-


чайная величина ( Y1 ,Y2 ) попадет в область G . Это событие будет равносильно
т

сумме несовместных событий, состоящих в том, что двумерная случайная ве-


личина ( X 1 , X 2 ) попадет или в область G1 , или в область G2 …, или в область
ио

Gn , т. е. можно записать, что


n
{(Y1 , Y2 )  G}  {(X 1 , X 2 )  Gi } . (5.7)
бл

i 1
Так как события, записанные в (5.7), равносильны, то и вероятности этих
событий одинаковы. Применяя к правой части (5.7) третью аксиому, получаем
Би

n
P ({(Y1 , Y2 )  G})   P ({(X 1 , X 2 )  Gi }) . (5.8)
i 1
Если площадки Gi – достаточно малы, то вероятность попадания дву-
мерной случайной величины ( X 1 , X 2 ) на площадку Gi можно приближенно
вычислить, используя определение двумерной плотности (см. раздел 3.4, фор-
мула (3.2)). Тогда формула (5.8) запишется в следующем виде:
n
f y ( y1 y2 )G   f ( x1i , x2 i )Gi , (5.9)
i 1

77
где x1i  1i1 ( y1 , y2 ) ,
x2i  2i1 ( y1 , y2 ) ,
i  1, n (5.10)
представляют собой соответствующие n ветвей преобразования (5.6).
Gi
Но, как известно, отношение элементарных площадей в пределе при
G
преобразовании переменных равно соответствующему Якобиану (определите-
лю 2-го порядка из частных производных). Следовательно, разделив (5.9) на
G и перейдя к пределу при G  0 , получим

Р
n
 ( x1i , x2i )
f y ( y1 y2 )   f ( x1i , x2i ) , (5.11)
 ( y y )

УИ
i 1 1 2

где величины x1i и x2i определяются из (5.10), а Якобиан есть определитель


2-го порядка:
x1i x1i
 ( x1i , x2i )
 ( y1 y2 )

y1
x2i
y1
БГ
y2
x2i
y2
. (5.12)
а
Если обратные функции (5.6) – однозначны, то в (5.11) – только одно сла-
ек

гаемое.
При решении практических задач часто используется следующая функ-
циональная зависимость: Y  ( X 1 X 2 ) . Тогда перейти к формулам (5.6) – (5.12)
т

можно следующим образом, введя фиктивную переменную Y1:


Y1  X 1 ,
ио

Y  ( X 1 X 2 ) . (5.13)
1
Положим для простоты, что обратная функция  – однозначна (n = 1),
бл

тогда обратные функции запишутся так:


X 1  Y1 ,
X 2  1 (Y1 , Y ) . (5.14)
Би

Якобиан принимает следующий вид:


x1 x1
1 0
 ( x1 , x2 ) y1 y 1 1
1 ( y1 , y )
   ( y1 , y )  ( y1 , y )  .
 ( y1 y ) x2 x2 y
y1 y
y1 y

78
Подставляем эти выражения в (5.11):

1 1 ( y1 , y )
f y ( y1 y )  f ( y1 ,  ( y1 , y )) .
y
Интегрируя это выражение по y1 (и заменяя y1 на x1 ), получаем
 
1 1 ( x1 , y )
f y ( y)   f y ( y1 , y )dy1   f y ( x1 ,  ( x, y )) dx1 . (5.15)
 
y
5.3. Распределение суммы независимых случайных величин

Р
Пусть для независимых случайных величин X 1 и X 2 известны плотности
распределений f1 ( x1 ) и f 2 ( x2 ) . Задана функциональная зависимость Y  X 1  X 2 .

УИ
Требуется найти плотность распределения случайной величины Y. Эта задача
рассматривается в качестве примера на использование формулы (5.15).
Запишем случайные величины вида (5.13):

БГ
Y1  X 1 , Y  X1  X 2 .
Определим обратные функции:
X 1  Y1 , X 2  1 ( x1 , y )  y  x1 .
а
1  ( y  x1 )
ек

Найдем   1.
y y
Подставляя в формулу (5.15), получим
т


f y ( y)   f y ( x1 , y  x1 )dx1 =│т. к. X 1 и X 2 независимы, то

ио


f y ( x1 , x2 )  f1 ( x1 )  f 2 ( x2 ) │=  f1 ( x1 ), f 2 ( y  x1 )dx1 . (5.16)

бл

Распределение суммы независимых случайных величин X 1 и X 2 называ-


ется композицией распределений этих величин.
Би

5.4. Характеристические функции

Характеристической функцией случайной величины X называется мате-


матическое ожидание случайной величины e jtx :
g (t )  M [e jtx ] , (5.17)

где j  1 , t – вещественная переменная, x – случайная величина.

79
Используя общее определение математического ожидания, запишем ха-
рактеристическую функцию для непрерывной случайной величины, если задана
плотность распределения f ( x) :

jtx
g (t )  e f ( x)dx . (5.18)


Если для дискретной случайной величины Х заданы вероятности возмож-


ных ее значений: P ( X  xk )  pk , k  1, n , то характеристическая функция при-
нимает вид:
n

Р
g (t )   eitxK pk . (5.19)
k 1

УИ
Характеристическая функция существует для любой случайной величины,
поскольку ввиду равенства eitx  1 ряд (5.19) и интеграл (5.18) сходятся абсо-
лютно.
Свойства характеристической функции

1. g (0)  1 , например из (5.17) при t = 0; g (0)  БГ 



f ( x )dx =1.
а
2. g (t )  1 .
ек

3. Если известна характеристическая функция g (t ) , то плотность распре-


деления случайной величины Х находится с помощью обратного преобразова-
ния Фурье:
т


1
f ( x)   e itx g (t )dt . (5.20)
2 
ио

4. Если Y  ax  b , где a и b – const, то g y (t )  eitb g (at ) .


Покажем это, исходя из определения, формула (5.17), получим
бл

g y (t )  M [eit ( ax b ) ]  eitb M [eitax ]  eitb g (at ) .


n
5. Если Y  X 1  X 2  ...  X n – независимы, то g y (t )   g k (t ) .
Би

k 1
jtxI
Из независимости X i следует независимость e . Применяя свойство
мультипликативности математического ожидания, получим
n n n
g y (t )  M [e  i ]  M [ e jtxi ]   M [e jtxi ]   g i (t ) .
jt x

i 1 i 1 i 1
6. Пусть у случайной величины Х существует начальный момент k-го по-
рядка  k . Тогда, зная характеристическую функцию, можно найти начальный
момент k-го порядка:

80
g ( k ) (0)
k  , (5.21)
ik
где g ( k ) (0) – k-я производная при t = 0.
Доказательство:
Дифференцируя (5.18) по t к раз, получим:
первую производную


g (t )   (ix) eitx f ( x)dx ,
dt 
вторую производную

Р

2 itx
g (t )   (ix) e f ( x)dx ,

УИ

……..
k-ю производную

(k ) k itx

БГ
g (t )   (ix) e f ( x)dx .

Полагая t  0 ,

(k ) k k
g (0)  i x f ( x )dx  i k  k ,
а

(k )
ек

g (0)
откуда получаем  k  .
ik
т
ио
бл
Би

81
ГЛАВА 6. ОСНОВНЫЕ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ
СЛУЧАЙНЫХ ВЕЛИЧИН В ТЕОРИИ ВЕРОЯТНОСТЕЙ

6.1. Биномиальный закон распределения

Р
Пусть производится n опытов, в каждом из которых наступает событие А

УИ
с одной и той же вероятностью Р. Обозначим Х как число наступлений события
А в этих n опытах. Тогда Х – дискретная случайная величина и вероятности
возможных ее значений записываются с использованием формулы Бернулли:
Pn ( X  xk  k )  Cnk p k q nk .

БГ
Ряд распределения, в котором вероятности определяются с использова-
нием формулы Бернулли, называется биномиальным распределением.
Закон описывает вероятность во многих задачах, таких, как число эле-
ментов радиоаппаратуры, выходящих из строя за время t; число приборов, вы-
а
ходящих из строя за время t при испытаниях на надежность и др.
ек

Ряд распределения имеет вид:

X 0 1 ... k ... n
т

P qn npq n1 ... Cnk p k q nk ... pn


ио

Для вероятностей p и q, входящих в формулу Бернулли, можно записать


следующее разложение в ряд:
n
бл

1  ( p  q) n   Cnk p k q n k .
k 0
В правой части стоит бином Ньютона, откуда и произошло название би-
Би

номиального распределения.
Пространство элементарных событий  здесь дискретно и состоит из
n  1 элементарного события: 0 , 1 , 2 ,..., n , где k – элементарное событие,
состоящее в том, что при n опытах событие А наступит к раз.
На рис. 6.1 изображено распределение вероятностей биномиального рас-
пределения. На рис. 6.2 приведено изображение функции распределения F ( x ) .
Это ступенчатая функция со скачками в точках разрыва X  k , F ( x)  P .
xK  x
k

82
P
F (x)

x
0 1 2 . . . . N x
Рис. 6.1 Рис. 6.2

Р
Определим числовые характеристики случайной величины X, распреде-
ленной по биномиальному закону. Для этого используем аппарат характеристи-

УИ
ческих функций. Приведем алгоритм определения числовых характеристик,
который используется для любых законов распределения.
1. Определяем характеристическую функцию g(t), применяя формулы
(5.18), (5.19).

БГ
2. Находим первую g (t ) и вторую g (t ) производные от характеристиче-
ской функции.
3. Определяем значения производных при t = 0:
g (0) , g (0) .
а
4. Используем свойство 6 характеристической функции и, применяя (5.21),
ек

определим 1-й и 2-й начальные моменты:


g (0) g (0)
1  , 2  2 .
i i
т

5. Определяем математическое ожидание M[X]= 1 и дисперсию


D[X]=  2  12 .
ио

Найдем характеристическую функцию для биномиального распределе-


ния:
n n n
g (t )   e jtxk Pk | xk  k |  eitk  Cnk p k q nk   Cnk ( peit )k q n k  ( peit  q )n .
бл

k 0 k 0 k 0
Продифференцируем ее 2 раза по t:
g (t )  n( peit  q ) n1  peit  i ,
Би

g (t )  (n  1)n( peit  q ) n 2  peit  i  peit  i  n( peit  q ) n1  p  i  eit  i .


Найдем значения производных при t = 0:
g (0)  n( p  q ) n 1  p  i  n  p  i ,
g (0)  ( n  1) n  p 2  i 2  n  p  i 2  n  p  i 2 [(n  1) p  1] .
Определяем 1-й и 2-й начальные моменты:

83
g (0)
1   np ,
i
g (0)
2  2
  g (0)  n 2 p 2  np 2  np  n 2 p 2  np (1  p )  n 2 p 2  npq .
i
Найдем числовые характеристики:
M [ X ]  1  np ,
D[ X ]   2  12  n 2 p 2  npq  n 2 p 2  npq .

6.2. Закон распределения Пуассона

Р
Распределение Пуассона описывает вероятности во многих задачах, таких,

УИ
как число отказов радиоэлектронной аппаратуры за время t, число радиоактивных
атомов, распавшихся к моменту t, число вызовов на телефонной станции и др.
Дискретная случайная величина Х имеет распределение Пуассона, если ее
закон распределения задан формулой

БГ
 k 
Pk  P( X  k )  e , (6.1)
k!
где k  0,  ,
а
 – параметр закона Пуассона,
 = np.
ек

Формула Пуассона получается как предельная для биномиального рас-


пределения, когда число испытаний n стремится к бесконечности, а вероят-
ность успеха p стремится к 0. Вычисления по формулам биномиального рас-
т

пределения приводят при больших n к очень громоздким вычислениям. Поэто-


му важно иметь приближенные, но достаточно простые формулы для вычисле-
ио

ния соответствующих вероятностей.


Пусть вероятность p наступления события А при каждом испытании рав-

на , т. е.  = np. Найдем предел формулы Бернулли при n   :
бл

n
k nk
n! n!   
lim Pn ( k )  lim p k q n  k  lim   1   
n  n  ( n  k )! k ! n  ( n  k )!k ! n n
  
Би

n k n
k    n ( n  1)...( n  k  1)      k  
 lim  1    1     lim  1   
n  k !
 n  nk  n   k ! n   n
k
  1  2  k 1   
 lim 1 1   1    ...   1   1    
n 
  n  n  n  n  
n k
k      k 
 lim  1    lim  1    e .
k ! n   n  n   n k!

84
Ряд распределения дискретной случайной величины Х записан с приме-
нением формулы (6.1):

X 0 1 ... k ...
P e  e  ...  k e  ...
k!


 k   
k
Найдем  Pk   e  e   e  e  1 . Видим, что события X  xk


k 0 k 0 k ! k 0 k !

Р
составляют полную группу.
Пространство элементарных событий здесь дискретно и состоит из счет-

УИ
 k e 
ного множества элементарных событий k : P (k )  P( X  k )  . На
k!
рис. 6.3 приведено распределение вероятностей, а на рис. 6.4 график функции
распределения.

БГ
P

F (x)
а
ек

x x
т

0 1 2 k

Рис. 6.3 Рис. 6.4


ио

Для определения числовых характеристик составим характеристическую


функцию:
k 
 
itk  e

(eit   )k
бл

itk 
g (t )   e Pk   e  e  
k 0 k 0 k! k 0 k!
xx x2 xn
= e  1    ...   ...  e  eexp( it )  e(exp( it )1) .
Би

1! 2! n!

Продифференцируем 2 раза g (t ) :

g (t )  e (exp( it )1)  eit  i ,


g (t )  e (exp( it )1)  eit  i  eit  i  e (exp( it )1)  i  eit  i .

Найдем значения производных при t = 0:

85
g (0)    i ,
g (0)   2  i 2    i 2 .
Определяем 1-й и 2-й начальные моменты:
i i 2 ( 2   )
1    ;  2  2
 2   .
i i
Теперь найдем числовые характеристики:
M [ X ]   ; D[ X ]   2     2   .
Видим, что для Пуассоновского закона M[X] и D[ X ] совпадают. Это по-

Р
зволяет сделать замечание: если для некоторой случайной величины M[X] и
D[ X ] совпадают, то такая случайная величина имеет, скорее всего, закон рас-

УИ
пределения Пуассона.
Закон распределения Пуассона служит приближением для биномиального
закона, если n  100; 0  np  10 .

6.3. Равномерный закон распределения


БГ
Непрерывная случайная величина Х имеет равномерный закон распреде-
а
ления на отрезке [a, b], если на этом отрезке плотность распределения вероят-
ек

ностей f(x) сохраняет постоянное значение:

c, x  [a, b], f(x)


т

f ( x)  
0. x  [a, b].
c
ио

На рис. 6.5 приведен график


плотности распределении для равно-
мерного закона. b X
a mx
бл

Определим с из условия нормировки: Рис. 6.5


Би

 b 
1
 f ( x )dx   f ( x)dx  c  dx  c (b  a )  1 = > c  .
 a 
ba
Найдем функцию распределения:
x b x
dx x xa
F ( x)   f ( x )dx     .
 a
ba ba a ba

86
 0, x  a,
 x  a F(x)
F ( x)   , x  [a, b],
 b  a 1
1, x  b.

a b X
На рис. 6.6 приведен график F(x).
Рис. 6.6
Определим числовые характеристики:
b

Р
 b
dx 1 x2 1 b2  a2 a  b
M [ x]   xf ( x )dx   x    ,
ba ba 2 a 2 ba 2

УИ
 a
 b b
2 2 2 dx 1 x3 1 b3  a 3 a 2  ab  b 2
M [ x ]   x f ( x)dx   x    ,
 a
b  a b  a 3 a
3 b  a 3
2
a 2  ab  b 2  a  b  (b  a ) 2

БГ
2 2
D[ x]  M [ x ]  ( M [ x])     .
3  2  12

6.4. Показательный (экспоненциальный) закон распределения


а
ек

Показательный (экспоненциальный) закон распределение имеет важное


значение и широко используется в теории надежности.
Случайная величина имеет показательный (экспоненциальный) закон
т

распределения, если плотность распределения определяется так:


 0 x  0,
f ( x )   x
ио

e x  0.
На рис. 6.7 приведен график функции f(x), на рис. 6.8 приведен график
бл

функции распределения.
f (x )
F (x)
Би

x x

Рис. 6.7 Рис. 6.8

Определим числовые характеристики, используя характеристические


функции. Найдем характеристическую функцию:
87
   
 x it  x e  x ( it )
 x (  it  ) e  x (it ) 
g (t )   e e dx   e dx      (  it )1 .
0 0
it   0
it   0
it  
Вычислим производные g (t ) и g (t ) :
i i 2
g (t )  , g (t )  2 .
(  it )2 (  it )3
Найдем значения производных при t = 0:
i 2i 2
g (0)  , g (0)  2 .
 
Вычислим 1-й и 2-й начальные моменты:

Р
1 2
1  ,  2  2 .
 

УИ
Определим M[X] и D[X]:
2
1 2 1 1 1
M [ X ]  1  , D[ x]  2     2 ,  x  .
    

БГ
Отметим, что M[X] и  x совпадают; это позволяет сделать замечание: ес-
ли для случайной величины M[X] и  x совпадают, то такая случайная величина
имеет скорее всего экспоненциальный закон распределения.
а
6.5. Нормальный (гауссовский) закон распределения
ек

Случайная величина имеет нормальный закон распределения, если плот-


ность распределения вероятностей имеет следующий вид:
т

( x m)2
1 
2 2
f ( x)  e . (6.2)
 2
ио

Здесь   x   ,
 и m – параметры.
На рис. 6.9 приведен график нормального закона.
бл

f(x)
Би

X
mx

Рис. 6.9

Проверим характеристические свойства f ( x) :


88
1. f ( x)  0 .
2. Проверим условие нормировки.
При вычислениях по нормальному закону широко применяется интеграл
Пуассона:
  x2
2
e

dx  2 .

Вычислим интеграл:
  ( x m)2
1 
2 2
xm
 f ( x)dx   e  используем подстановку: u =
  2   

Р
2

u
1
  e 2   du  1 .

УИ
 2 

Видим, что условие нормировки выполняется.


Пространство элементарных событий является непрерывным и представ-

БГ
ляет собой всю числовую ось (; ) .
Функция распределения для нормального закона записывается так:
x x ( x  m )2
1 
2 2
F ( x)   f ( x)dx   e dx .
а
  2 
ек

Уточним вероятностный смысл параметров  и m. Найдем характеристи-


ческую функцию для нормального распределения:
xm
т

z
  ( x  m )2   z2
it  x 1 itx
 2 1   it ( z ) 
g (t )   e f ( x)dx   e e 2  dx    dz  dx   e 2
dz 
ио

  2    2  
x  z 
бл

z2 z2
it ( z  m)   itz  itm  
2 2
2 2
 t 22
1 2 (it)2 1 itm t 2 1
 ( z it ) 2 itm
Би

2
  itm  ( z  2itz  (it) )   e  e 2 dz  e 2
.
2 2 2 
(it)2 1
 itm   ( z  it)2
2 2

Продифференцируем характеристическую функцию 2 раза:


t 22
itm 
g (t )  e 2
(im  t  2 ) ,
t 2 2 t 22
 itm  itm
2 2 2
g (t )   e 2
 (im  t  ) e 2
.
89
Определим 1-й, 2-й начальные моменты:
g ( 0 )
1   m,
i
g ( 0 )   2  i 2 m 2
2    i 2 2  m 2 .
i2 i2
Тогда
M [ x]  1  m , D[ x]   2  12   2  m 2  m 2   2 .
Таким образом, мы установили вероятностный смысл параметров m и  .
Построим график плотности нормального распределения (кривой Гаусса).
Найдем моду случайной величины с нормальным законом, для чего решим

Р
уравнение
( x m )2

УИ
1 x  m  2 2
f ( x )  2
e  0.
 2 
При x  m f ( x) достигает максимума, m является модой. Для определе-

БГ
ния точек перегиба функции необходимо решить уравнение
( x m)2
1  2 2
 ( x  m) 2 
f ( x )  3 e 1   2   0 .
 2  
а
( x  m) 2
1  0, ( x  m) 2   2 .
ек
2

Видим, что функция имеет две точки перегиба: x  m   . На рис. 6.10
приведены кривые Гаусса для разных значений  . На рис. 6.11 приведены кри-
т

вые Гаусса для разных значений параметра m.

f(x)
ио

f(x)
  0,5
1
бл

 1
 2
2
Би

x  mx x   X m2 X
m1 m3

Рис. 6.10 Рис. 6.11

Площадь криволинейной трапеции, ограниченной осью абсцисс, кривой


Гаусса и прямыми x  m   , приблизительно равна ( S   0,68 ); если прямые
раздвинуть на 2  – x  m  2 , то S   0,95 ; при x  m  3 , S   0,997 . Эти
соотношения позволяют сформулировать правило трех сигм ( 3 ):
90
Практически все возможные значения случайной величины, распределен-
ной по нормальному закону, лежат в пределах от 3 до 3 относительно m.
 
Коэффициент асимметрии A  33  0 ; эксцесс Э  4  3  0 .
 4
Нормальное распределение имеет исключительно важное значение в тео-
рии вероятностей и часто встречается на практике в самых различных областях.
Например: отклонения в величине параметров полупроводниковых приборов
при массовом производстве, вес и размер деталей, вес и рост людей имеют
нормальное распределение.

Р
6.5.1. Функция Лапласа

УИ
Определим вероятность того, что случайная величина, распределенная по
нормальному закону, попадет в интервал [, ] .

БГ
xm
t

m  m
 ( x m ) 2 dx    dt  t2  t2
1  2 1  1 
P (   x  )   e 2  dx  m   e 2 dt   e 2 dt 
а
 2  t  2 0 2 0

ек

m
t 

т

1 m    m 
 Ф    Ф  . (6.3)
2      
ио

Функция Ф( x ) называется интегралом вероятностей или функцией Лап-


ласа (рис. 6.12).
бл

2
x t
2 
Ф( x)   e 2 dt . (6.4)
2 0
Би

Свойства функции Лапласа


(x )
1. Функция нечетная
Ф( x )  Ф( x ) . 1
2. x2  x1 => Ф( x2 )  Ф( x1 ) – свой-
ство монотонности. 4 X
3. limФ( x )  1 , lim Ф( x)  1 . -1
x  x 

Рис. 6.12

91
4. Значения Ф( x ) , применяющиеся наиболее часто:
Ф(0)  0 , Ф(1)  0,6827 , Ф(2)  0,9545 , Ф(3)  0,9373 , Ф(4)  0,99994 ,
x  4 , Ф( x)  1 .

Пример.
Цех на заводе выпускает транзисторы с емкостью коллекторного перехо-
да Ck =1,5 пФ. Сколько транзисторов попадет в группу «Б», если в нее попада-
ют транзисторы с емкостью коллекторного перехода от 1,80 до 2,00 пФ. Цех
выпустил партию в 1000 штук.

Р
Решение.
Статистическими исследованиями в цеху установлено, что Ck можно

УИ
трактовать как случайную величину, подчиняющуюся нормальному закону.
Чтобы вычислить количество транзисторов, попадающих в группу «Б»,
необходимо учитывать, что вся партия транзисторов имеет разброс параметров,
накрывающий всю (условно говоря) числовую ось. То есть кривая Гаусса охва-

БГ
тывает всю числовую ось, центр ее совпадает с X = m = 1,5 пФ (т. к. все уста-
новки в цеху настроены на выпуск транзисторов именно с этой емкостью). Ве-
роятность попадания отклонений параметров всех транзисторов на всю число-
вую ось равна 1. Поэтому нам необходимо фактически определить вероятность
а
попадания случайной величины Х в интервал [1,8; 2,0], а затем пересчитать ко-
ек

личество пропорциональной вероятности.


Для расчета этой вероятности надо построить математическую модель.
Экспериментальные данные говорят о том, что нормальное распределение
т

можно принять в качестве математической модели. Эмпирическая оценка


(установлена статистическими исследованиями в цеху) среднего значения Ck
ио

дает m  xср  1,5 пФ, оценка среднего квадратического отклонения  = 0,15 пФ.
Обозначая  =1,8 пФ,  = 2,0 пФ, подставим приведенные значения в (6.3):
бл

1   2,0  1,5   1,8  1,5  


P (1,8  X  2,0)  Ф   Ф  0,15   
2   0,15   
1 1 1
 Ф  3,3  Ф  2    0,998  0,9545  0,044  0,022.
Би

2 2 2
Тогда количество транзисторов n, попавших в интервал [1,8; 2,0] пФ,
можно найти так: n = 10000,022 = 22 шт. Таким образом можно планировать и
рассчитывать количество транзисторов, попадающих в ту или иную группу.

92
ГЛАВА 7. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ. ЗАКОН БОЛЬШИХ ЧИСЕЛ

Группа теорем, устанавливающих соответствие между теоретическими и


экспериментальными характеристиками случайных величин и случайных собы-
тий при большом числе повторения эксперимента в одинаковых условиях, а

Р
также касающихся предельных законов распределения, под общим названием
предельных теорем.

УИ
Закон больших чисел занимает важнейшее место в теории вероятностей.
Он устанавливает связь между математическими моделями эксперимента и
практикой. Этот закон выражается рядом теорем (Чебышева, Бернулли, Ляпу-
нова и др.). В этих теоремах указывают условия, при выполнении которых со-

БГ
вокупное действие многих случайных причин приводят к устойчивым резуль-
татам, практически независящим от случая.
а
7.1. Неравенство Чебышева
ек

Пусть Х произвольная случайная величина и  – любое число  0, тогда


справедливо следующее неравенство:
т

M [ x2 ]
P ( x  )  . (7.1)
2
ио

Докажем это для непрерывной случайной величины Х с f(x).

т. к. подынтегральная функция
бл


2 положительная, то уменьшение
M [x ]   x 2 f ( x)dx   x 2 f ( x)dx  
 x 
пределов интегрирования ведет
Би

к уменьшению значения интеграла


т. к. x  е, тоположим
х = min значению, т. е. 2
   f ( x)dx  2  f ( x)dx   2 P ( x  ) 
х = е  это также не x  x 

увеличивает интеграл
M [ x2 ]
 P ( x  )  .
2

93
Для дискретной случайной величины доказательство аналогично.
Полагая в (7.1) вместо X  X  M  X  (т. к. X – была произвольна) и пе-
реходя к противоположному событию, получим
D[ X ]
P ( X  M [ X ]  )  1  . (7.2)
2
Это и есть неравенство Чебышева. Оно имеет большое теоретическое
значение, т. к. позволяет оценить вероятность отклонения случайной величи-
ны от ее среднего значения, когда неизвестен закон распределения, но извест-
ны только первые два начальных момента.
Пример.

Р
Полагая в (2)   3 , получим
2

УИ
1
P ( X  M  X   3)  1  2  1   0 ,899 ,
9 9
2
где   D[ X ] .
Если Х – нормальная случайная величина, то P ( X  M  X   3)  0 ,997 ,

Чебышева дает грубую оценку.


БГ
т. к. 0,899 << 0,997 (с вероятностной точки зрения), видно, что неравенство

Все же неравенство Чебышева имеет большое значение в практике, т. к.


позволяет действовать с неизвестными законами распределения.
а
Пусть дана последовательность случайных величин X 1 ,X 2 ,...,X n ,... , опре-
ек

деленных на одном и том же вероятностном пространстве (,F ,P ) . Тогда по-


следовательность случайных величин X n , n  1, сходится к случайной или не
т

случайной величине X по вероятности, если для   0 выполняется соотно-


шение
ио

lim P{ X n  X  }  1 . (7.3)
n 

В обычном анализе неравенство X n  X   всегда выполняется, начиная


бл

с какого-то значения n0 . Если же X n  X при n   по вероятности, то это не-


равенство для отдельных n может и не выполняться.
Би

7.2. Теорема Чебышева

Пусть X 1 , X 2 ,..., X n ,... последовательность независимых случайных вели-


чин с ограниченной D  X  , т. е.
1 n
( lim 2  cov( X i , X j )  0 , D  X i   c, т. е. ограничена ) * .
n  n
i , j 1

94
Тогда среднее арифметическое этих величин сходится по вероятности к
среднему арифметическому их математических ожиданий:

1 n 1 n 
lim P   X i   M [ X i ]     1 . (7.4)
n 
 n i1 n i1 
где  – любое, сколь угодно малое положительное число.
Доказательство:
1 n
Используем неравенство Чебышева (7.2). Положим вместо X   Xi .
n i 1
1 n

Р
Определим M [ X ]   M [ X i ] (применили свойство аддитивности).
n i 1

УИ
1 n
Вычислим дисперсию для  X i :
n i 1

1 n  1  n  1 n с учетом условия (*) cn c

БГ
D   X i   2 D  X i   2  D  X i    2 .
 n i1  n  i 1  n i1 D X i   c n n
Подставляем полученные выражения в (7.2):
1 n 1 n  c
а
P   Xi   M  Xi      1 2 . (7.5)
 n i1 n i1  n
ек

 1 
Переходя к пределу и учитывая, что lim 1  2   1 , а также то, что ве-
n 
 n 
т

роятность не может быть больше 1, получаем:

1 n 1 n 
ио

lim P   X i   M  X i      1 .
n 
 n i1 n i 1 
На практике нередко используется следующий частный случай теоремы
бл

Чебышева.
Если x1 , x2 ,..., xn ,... – независимые случайные величины с одинаковым ма-
тематическим ожиданием, равным a, и равномерно ограниченной дисперсией
Би

(т. е. M [ xi ]  a , D[ X i ]  c  const, i  1, n ), то среднее арифметическое этих


случайных величин сходится по вероятности к a.

1 n 
lim P   X i  a     1 . (7.6)
n 
 n i1 

95
Доказательство:
1 na
Это следует из (7.5), где
n
 M[Xi] 
n
 a . Тогда правая часть в преде-

c
ле равна lim(1  )  1.
n  n 2
Таким образом, согласно теореме Чебышева, среднее арифметическое
большого числа слабозависимых или независимых (условие *) случайных вели-
чин является практически неслучайной величиной, т. е. постоянной, обладаю-
щей сколь угодно малой дисперсией. Причина этого явления – взаимное пога-
шение ошибок. Если прогноз каждого отдельного значения случайной величи-

Р
ны ненадежен, то прогноз среднего рифметического является достаточно на-
дежным.

УИ
Пример.
Пусть xk – результат k-го измерения длины, например комнаты.
1. Случайные величины x1 , x2 ,...xn – независимы.
2. M [ xi ]  a – т. к. длина комнаты – существует.

Тогда вероятность при n  , P  1 для БГ


3. D  xi   c – т. к. ошибка не накапливается.
x1  ...  xn
n
a .
а
ек

7.3. Теорема Бернулли

Пусть производится n независимых опытов, в каждом из которых на-


т

ступает событие А или A и Р(А) = p. Событие А происходит в n опытах m


m
раз. Тогда относительная частота события А сходится по вероятности к
ио

n
вероятности p:
m 
бл

lim P   p     1. (7.7)
n 
 n 
Доказательство:
Би

Рассмотрим двоичную случайную величин X k , равную числу наступле-


ний события А в каждом опыте. Закон распределения ее задан в виде таблицы.

Xk x1 = 0 x2 = 1
Р 1– p p

Покажем, что для случайной величины X k выполняются условия частно-


го случая теоремы Чебышева:

96
2
M [ X k ]   xi pi  0  (1  p )  1  p  p,
i 1

M [ X k2 ]   xi2 pi  0 2  (1  p )  12  p  p,
i
2
D[ X k ]  M [ X k2 ]   M [ X ]  p  p 2  p (1  p ).

Таким образом, случайные величины X 1 , X 2 ,..., X n независимы, имеют


одинаковое математическое ожидание, равное p, и ограниченную дисперсию.
Можно применить частный случай теоремы Чебышева. Учитывая, что

Р
1 n m
M [ X k ]  p  a, D[ X k ]  p (1  p )  c ,  X k  , т. к. в n опытах событие А на-
n k 1 n

УИ
ступает m раз, тогда из (7.6) получим
m 
lim P   p     1.
n 
 n 

БГ
Формула (7.7) объясняется свойство устойчивости относительной часто-
ты, состоящей в том, что в разных опытах, проведенных в одинаковых условиях,
она колеблется около некоторого числа, которое есть не что иное, как вероят-
а
ность; (7.7) позволяет вместо неизвестной вероятности использовать известную
относительную частоту.
ек

Пример.
Пусть проводится эксперимент с броском монеты. Обозначим через со-
бытие А появление герба. Путь при n бросках герб появится m раз. Найдем от-
т

m
носительную частоту появления герба:   . Повторяя такой опыт много раз,
n
ио

будем откладывать результаты на графике. (рис. 7.1).

m
бл

n
0,5
Би

Рис. 7.1

Мы увидим, что относительная частота будет колебаться около некоторо-


го постоянного числа (в случае с симметричной монетой это 0,5). И это значе-
ние можно принимать за неизвестную вероятность события А. Но надо огово-
97
m
рить, что  p при n   по вероятности, т. к. возможность отклонения
n
всегда остается.

7.4. Центральная предельная теорема (Теорема Ляпунова)

Эта теорема указывает условия, при которых закон распределения суммы


большого числа независимых случайных величин близок к нормальному закону.
Впервые она была сформулирована и доказана великим русским математиком
академиком А. М. Ляпуновым (1857 – 1918).

Р
Распределение суммы независимых случайных величин X 1 , X 2 ,..., X n ,... ,
имеющих произвольный, но одинаковый закон распределения при n   , стре-

УИ
мится к нормальному распределению. (Эти ограничения существенно упроща-
ют доказательство).
Доказательство:
Основная идея – найдем характеристическую функцию, a она окажется

БГ
характеристической функцией нормальной случайной величины.
n
Рассмотрим случайную величину Y  X 1  X 2  ...  X n   X k .
i 1
а
Пусть случайные величины Xk имеют следующие числовые характери-
стики:
ек

  M [ X k ],  2  D[ X k ] .
Нормируем случайную величину Y:
n n
т

D[Y ]  D[ X k ]   D  X k   nD[ X k ]  n 2 , n


Y  M [Y ] i 1 i 1 Xk  
Y0   = .
ио

n
D[Y ] k 1 n
M [Y ]   M  X k   n
i 1
бл

Найдем характеристическую функцию g(t) вспомогательной величины Y0 .


n
 it  xk    n it xk n 
n
g (t )  M e   M e
itY0
  M  e
Би

k 1

   k 1 
 
т. к. случайныевеличины X k 
независимы, тоиспользуем n  it xk n 
   M e 
свойствомультипликативности k 1  
математического ожидания

98
разложим e x в ряд :  2 
2 2  xk   
n
 x  
 x x2 x3   M 1  it k
i t  ... 
 2 
e  1  x    ... k 1
2! 3! 
n 2! n    
n
n
 M  (M )
k 1

ограничимся 3 - мя n
 t 2 2 c 
 членами разложения  1  2  3  ...  .
и учтём, что  2 n n 2 

Р
M [ X  mx ]  0,
M [( X  mx )2 ]   2 ,

УИ
Здесь с – некоторая постоянная, которая не зависит от n и содержит факториалы.
Переходя к логарифмам и используя формулу ln(1  )   , получаем


ln g (t )  n ln 1 
t2
 2n n 2 БГ
c  t2 c
 3  ...     1  ... .
 2 n 2
Найдем предел этого выражения при n   и увидим, что lim c  0,
а
n  n
тогда
ек

t2
ln g (t )   .
2
т

t2

2
Потенцируя это выражение, получаем g (t )  e . Отсюда следует, что ха-
рактеристическая функция нормированной последовательности Y0 сходится к
ио

характеристической функции нормированной нормальной случайной величины.


Таким образом, при достаточно большом n распределение суммы случай-
ных величин приближенно совпадает с нормальным распределением с матема-
бл

тическим ожиданием n и дисперсией n 2 .


Доказанная теорема, как установил Ляпунов, справедлива также и для слу-
чая, когда случайные величины X 1 , X 2 ,..., X k слабо зависимы и имеют произволь-
Би

ные разные законы распределения. При этом требуется, чтобы никакое X k не до-
n
минировало над остальными слагаемыми в X
k 1
k . Этим и объясняется широкое

распространение в природе и технике нормального закона распределения.


Пример.
t2

2
Показать, что характеристическая функция g (t )  e имеет плотность
распределения нормированной нормальной случайной величины.

99
Решение.
Используем обратное преобразование Фурье:
  t2  t2
для краткости
1 1  1  ity
f ( y0 )   e ity0 g (t )dt   e ity0 e 2 dt   e 2 dt  записываем y 
2  2  2 
вместо y0
t2
 ity 
2
1 y2
  (t 2  2ity  (iy )2   1 1 
U  t  iy e 2  U2
2 1 2
 ( iy )  ( t iy ) 2

   e 2
e 2
dt   e 2
dU 

Р
2 1 2 2  dU  dt 2 
(iy ) )   (t  iy ) 
2

УИ
1
 (iy ) 2
2
2
1  y20

БГ
= e .
2

7.5. Формулы Муавра – Лапласа


а
Рассмотрим частный случай центральной предельной теоремы, когда сла-
ек

n
гаемые в Y   X k являются дискретными случайными величинами. Пусть
k 1
т

производится n независимых испытаний по схеме Бернулли, в каждом из кото-


рых событие А появляется с вероятностью p: P ( A)  p , P ( A)  1  p  q . Тогда
ио

Pn (k )  Cnk p k q nk . (*)

Введем случайную величину X k , равную числу наступлений событий А в


бл

k-м опыте. Рассмотрим случайную величину Y  X 1  X 2  ...  X n , т. е. равную


общему числу наступлений события А в n опытах. Случайные величины X k не-
зависимы и имеют одинаковый закон распределения.
Би

Xk 0 1
Pk q p

Ранее мы показали (см. раздел 7.3), что M [ X k ]  p , D[ X k ]  p  q .


Y  np
Сформируем центрированную случайную величину Z n  .
npq
Тогда при n   распределение суммы случайных величин стремится к
нормальному распределению с параметрами M[Z] = 0 и D[Z] = 1. Обозначим
100
функцию распределения Fn ( z )  P ( Z n  z ) . Тогда последовательность функции
распределения Fn ( z ) сходится по распределению к функции распределения
нормированного нормального закона N(0,1):
2
Z Z2 Y  Y  np  1

1 1 
2

 n pq  2
lim Fn ( z ) 
 e dz  e dY .
n  2  2 npq 
Вероятность попадания случайной величины Y в интервал [a,b] (на осно-
вании свойства 2 функции распределения):

1   b  np   a  np  

Р
P (a  Y  b)          .
2   npq   npq  

УИ
2
z z
2 
Это интегральная теорема Муавра – Лапласа, где ( z )   e 2 dz –
2 0
функция Лапласа.

БГ
Вероятность того, что при n независимых испытаниях события А насту-
пают ровно k раз (при больших n), удобно считать на основании локальной
теоремы Лапласа:
а
2
 k  np  1

1 1  npq  2 1
 
P (Y  k )  e  ( x) ,
ек

npq 2 npq

k  np
где x  .
т

npq
ио

Пример:
Вероятность успешной работы телевизора после сборки равна 0,75. Найти
вероятность того, что из 10 телевизоров 8 заработают. Используем локальную
бл

теорему Лапласа и получаем P10 (Y  8)  0, 27 – по таблицам, а по формуле Бер-


нулли – P10 (8)  0,28 .
Би

101
ЧАСТЬ 2. МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

Р
ГЛАВА 8. ОСНОВНЫЕ ПОНЯТИЯ МАТЕМАТИЧЕСКОЙ

УИ
СТАТИСТИКИ

БГ
8.1. Выборка, вариационный ряд, гистограмма

Если теория вероятностей оперирует с известными законами распределе-


а
ния и их параметрами (числовыми характеристиками), то математическая ста-
тистика по результатам экспериментов проверяет, правильно ли подобрано
ек

распределение (нормальное, биномиальное, экспоненциальное и т. д.), оценива-


ет параметры этого распределения, проверяет гипотезы о параметрах принятого
распределения. Это позволяет заменить большое число экспериментальных
т

данных небольшим числом параметров распределения, которые в сжатом виде


характеризуют случайную величину и позволяют прогнозировать результаты
ио

эксперимента при известном комплексе условий.


Пусть проводится n измерений. В результате измерений получено n чисел
x1,x2,…,xn. Если повторить еще раз n измерений, то получатся другие n чисел,
бл

отличные от первого набора. Процесс из n измерений можно описать как n не-


зависимых случайных величин.
Результат n наблюдений х1,х2,…,хn случайной величины X называется вы-
боркой, n – объем выборки, а сама случайная величина X – называется гене-
Би

ральной случайной величиной.


Результат эксперимента хi может быть интерпретирован либо апостери-
орной величиной, либо априорной. В первом случае это результат опыта. Во
втором случае хi является случайной величиной (т. к. до опыта неизвестна), ко-
торая получит свое конкретное значение в результате какого-то i-го опыта. В
этом случае можно предполагать, что закон распределения xi совпадает с зако-
ном распределения генеральной случайной величиной X и xi можно рассматри-
вать как экземпляр генеральной случайной величины X.

102
Далее мы будем считать выборки априорными. При этом будем полагать,
что элементы выборки – независимые случайные величины с одинаковым зако-
ном распределения, т. е. мы можем широко использовать теоремы независимых
случайных величинах.
Упорядоченная в порядке возрастания последовательность выборочных
значений образует вариационный ряд:
x (1)  x (2)  ....  x ( n ) ,
члены вариационного ряда x(i) называются порядковыми статистиками. Если
объем выборки n – велик, то выборка позволяет приблизительно оценить закон
распределения случайной величиной X. Для этого необходимо построить гисто-
грамму. Есть два способа построения гистограммы – равноинтервальный и рав-

Р
новероятностный.

УИ
Рассмотрим равноинтервальный способ.
1. Разобьем весь диапазон выборочных значений от xmax до xmin на k рав-
ных частей. Величину k выбирают достаточно произвольно, можно так: k  n ,
где n – объем выборки.

БГ
x  xmin
2. Определяем длину каждого интервала: h  max .
k
3. Находим границы каждого интервала:
для первого: a1  xmin , b1  a1  h ;
а
для второго: a2  b1 , b2  a2  h ;
ек

… ….. ;
для k-го: ak  bk 1 , bk  ak  h .
a b
т

Определим середины каждого интервала: x0i  i i , i  1, k .


2
4. Подсчитываем (используя вариационный ряд) количество выборочных
ио

значений, попадающих в i-й интервал – mi.


m
5. Находим относительную частоту i  i попадания случайной величи-
n
бл

ной X в i-й интервал.


Полученные данные заносим в таблицу.
Би

x10 x02 … x0i … x0k


[a1 , b1 ] [a2 , b2 ] [ai , bi ] [ak , bk ]

m1 m2 … mi … mK

m1 m2 … mi … mK
n n n n

Эта таблица называется статистическим рядом.


103
Графическое изображение статистического ряда – это гистограмма.
Рисуем оси координат, делаем разметку осей, наносим на ось Х границы
интервалов и их середины. После этого строим на каждом отрезке прямоуголь-
ники высотой i . Аппроксимируем фигуру из прямоугольников пунктирной
линией (рис. 8.1). По виду этой кривой можно выдвинуть предположение (ги-
потезу) о виде закона распределения генеральной случайной величиной X
(на рис. 8.1. видно, что пунктирная линия похожа на кривую Гаусса, которая
относится к нормальному закону).

mi
i 

Р
n

УИ
2

БГ
1
x 10 x 02 x 0i x 0k

a1 b1 ai bi ak bk X
а
x min x max
ек

Рис. 8.1
т

Имея статистический ряд можно оценить числовые характеристики гене-


ральной случайной величиной X :
k
mi i 1
ио

M[x]   x0  mi x0i  a,


i1 n n
k
m 1
D[x]   i (x0i  a)2  mi (x0i  a)2 .
бл

i1 n n
Би

8.2. Оценки и методы их получения

Приближенные значения параметров, входящих в законы распределения,


определяемые каким-либо способом по выборкам, называются оценками или
статистиками. Оценки бывают точечными и интервальными. Точечные оцен-
ки представляются одним числом, интервальные – двумя числами (1 и 2 ) :
началом и концом интервала, накрывающего оцениваемый параметр. Самыми
распространенными методами получения точечных оценок являются метод
моментов и метод наибольшего правдоподобия.

104
8.2.1. Метод моментов

Пусть генеральная случайная величина Х имеет плотность распределения


f(х). Начальный и центральный моменты можно найти так (см. раздел 4.1.6):


k
K  x

f ( x )dx , (8.1)

k
K   (x   ) 1 f ( x)dx . (8.2)

Р

По выборке x1 , x2 ,..., xn определяем выборочные начальные и центральные

УИ
моменты:
1 n K
K   xi ,
n i1
(8.3)

БГ
1 n
 K   ( xi  1 ) K . (8.4)
n i1
Метод моментов состоит в том, что генеральные моменты (8.1, 8.2), в ко-
а
торые входят оцениваемые параметры, приблизительно приравниваются к со-
ответствующим выборочным моментам (8.3), (8.4). Составляется система урав-
ек

нений:
k   k , (8.5)
т

k   k . (8.6)

Решая систему (8.5), (8.6), находим оцениваемые параметры.


ио

Особо важную роль играет 1 – выборочный начальный момент 1-го по-


рядка, он называется выборочным средним и обозначается x :
бл

1 n
x xi .
n i 1
(8.7)
Би

Следующим по важности выборочным моментом является выборочный


центральный момент 2-го порядка  2 , который называется выборочной дис-
персией и обозначается S 2 :
1 n
S2 
 ( xi  x )2 . (8.8)
n i1
Наиболее часто используются две формулы метода моментов.

M[X ]  x , (8.9)

105
D[ X ]  S 2 . (8.10)
Сформулируем метод моментов в общем виде.
Пусть f ( x, 1 , 2 ,..., r ) плотность распределения случайной величины
Х, где i – неизвестные параметры. Чтобы найти оценки 1 , 2 ,..., r , выра-
жаем первые r начальных или центральных моментов случайной величины Х
через параметры 1 , 2 ,..., r , затем генеральные моменты аппроксимируем
соответствующими выборочными. В результате имеем систему из r уравне-
ний с r неизвестными, откуда и получаем 1 , 2 ,..., r .
Пример.

Р
Пусть генеральная случайная величина Х имеет показательный закон рас-
пределения с плотностью f ( x )  ex , x  0 ,   0 . По выборке x1 , x2 ,..., xn ме-

УИ
тодом моментов найти оценку параметра  .
1. Определяем 1 , используя (8.1):
u  x, dv  e x dx,

БГ
 
1 = M  X  =  xe x dx  xe x dx  1 x 
0 0 du  dx , v   e

 
1  1
=  e x x  2 e x  .
а
 0
 0

ек

2. По (8.3) или (8.7) находим выборочный начальный момент 1-го поряд-


ка или x и составляем выражение вида (8.5) или (8.9):
т

1
 x.

1
ио

3. Заменяя в п. 2  на оценку  , составим уравнение:   x .



4. Откуда определим оценку параметра  :
бл

1 1
   n .
x 1
x
n i1 i
Би

8.2.2. Метод наибольшего правдоподобия

Этот метод предложен математиком Фишером в 1912 г.


Пусть f ( x, 1 , 2 ,..., r ) – плотность распределения генеральной случай-
ной величины Х, где 1 , 2 ,..., r – неизвестные параметры. Согласно методу,
наилучшими оценками ˆ , ˆ ,..., ˆ параметров  ,  ,...,  являются такие, для
1 2 r 1 2 r
которых функция правдоподобия L принимает наибольшее значение.
106
Для непрерывной случайной величины
n
L(1 ,..., r , x1 ,..., xn )   f ( xi , 1 ,..., r ) . (8.11)
i 1

Для дискретной случайной величины


n
L(1 ,..., r , x1 ,..., xn )   P ( xi , 1 ,..., r ) . (8.12)
i 1
Здесь x1 , x2 ,..., xn – выборка из генеральной случайной величины Х.

Р
Априорные выборочные значения x1 , x2 ,..., xn – являются независимыми

УИ
случайными величинами, закон распределения которых совпадает с законом
распределения генеральной случайной величины Х. Тогда правую часть (8.11)
на основании теоремы умножения законов распределений (см. раздел 3.5) мож-
но рассматривать как плотность распределения вероятности n-мерного вектора

БГ
(X1, X2, …, Xn). Согласно методу, для наилучших оценок ˆ 1 , ˆ 2 ,..., ˆ r случайный
вектор (X1, X2, …, Xn) будет иметь наибольшую плотность распределения. То
есть надо найти такие оценки ˆ 1 , ˆ 2 ,..., ˆ r , для которых функция правдоподобия
L – максимальна. Для этого составляют и решают такую систему уравнений:
а
L
ек

 0, (i  1, r ) . (8.13)
i

Так как функция и ее логарифм достигают экстремума в одной точке, то


т

часто для упрощения решения задачи используют логарифмическую функцию


правдоподобия. В случае логарифмической функции правдоподобия составля-
ио

ется система следующих уравнений:


 ln L
 0, (i  1, r ) . (8.14)
бл

i
Пример.
Пусть генеральная случайная величина Х имеет показательный закон рас-
Би

пределения с плотностью f ( x, )  e x , x  0 ,   0 . По выборке x1 , x2 ,..., xn


методом наибольшего правдоподобия найти оценку параметра  .
1. Так как нам необходимо оценить один параметр  , то надо составить и
решить одно уравнение. Найдем функцию правдоподобия, используя (8.11):
n
n n n   xi
L(, x1 ,..., xn )   f ( xi , ) =  e xi  n  e xi  n e i 1
.
i 1 i 1 i 1

107
2. Составим логарифмическую функцию правдоподобия:
n
Ln L  nLn   xi .
i 1
3. Для определения максимума логарифмической функции правдоподо-
бия составляем и решаем следующее уравнение:
d Ln( L) n n
   xi  0 .
d  i1
Откуда оценка ̂ параметра  определяется так:
n

Р
ˆ  n
 xi

УИ
i 1

При сравнение это выражение с оценкой  , полученной по методу мо-


ментов (см. раздел 8.1), мы понимаем, что они одинаковы. Методы, рассмот-
ренные нами, как видим, абсолютно разные. Это свидетельствует о их досто-

БГ
верности.

8.3. Свойства оценок


а
Пусть x1 , x2 ,..., xn – выборка из генеральной совокупности. Обозначим
ек

оценку параметра  через  . Ранее мы показали, что эта оценка определяется с


помощью различных методов по полученной выборке x1 , x2 ,..., xn , т. е. являляет-
т

ся функцией от x1 , x2 ,..., xn .

  ( x1 , x2 ,..., xn ) .
ио

Так как любая выборка типа x1 , x2 ,..., xn – случайна, то и выборочные


функции   ( x1 , x2 ,..., xn ) – тоже являются случайными. Следовательно, она
бл

тоже имеет свои характеристики.


1. Оценка  называется несмещенной, если ее математическое ожида-
ние совпадает с самим оцениваемым параметром:
Би

M [ ]   .
В противном случае оценка называется смещенной:
M [ ]   .
Полную погрешность    , возникшую от замены  на  , можно пред-
ставить так:
    (  M [ ])  ( M [ ]   ) .
полная
 
систематическая случайная
погрешность
погрешность погрешность

108
Таким образом, если оценка несмещенная, то систематическая погреш-
ность равна нулю, т. е. M [ ]   .
Наиболее опасна систематическая ошибка, если она заранее неизвестна
или среднее квадратичное отклонение не очень большое. Среднее значение
случайной ошибки M [ M [ ]   ]  0 .
Мы уже отмечали, что x1 , x2 ,..., xn – независимые случайные величины,
имеющие тот же закон распределения, что и Х, генеральная случайная величина,
в частности, выборочное математическое ожидание и дисперсия имеет те же
числовые характеристики, т. е. справедливы тождества:

Р
M [ xi ]  M [ X ],
(*)

УИ
D[ xi ]  D[ X ].
Проверим смещенность оценки математического ожидания выборочной
средней x . Используя обычные свойства математического ожидания, найдем
M  x :

1
1 n
n i1
1 n
M [ x]  M [  xi ]   M [ xi ] 
n i1
БГ
на основании тождества (*)
имеем M  xi   M  X 

а
 nM [ X ]  M [ X ] .
n
ек

Обозначим   M  X  ,   x ; видим, что M [ ]   , значит, выборочное


среднее x является несмещенной оценкой математического ожидания.
Проверим смещенность оценки дисперсии выборочной дисперсией S 2 .
т

Найдем математическое ожидание от выборочной дисперсии:


ио
бл
Би

109
1 n 1 n
M [S 2 ]  M [  ( xi  x ) 2
]  M [  {( xi  M [ X ])  ( x  M [ X ])}2 ] 
n i 1 n i 1
1 n n
 M [ { ( xi  M [ X ])  2( x  M [ X ]) ( xi  M [ X ])  n( x  M [ X ]) 2 }] 
2

n i 1 i 1
n n n
  ( x  M [ X ])   x   M [ X ]  nx  nM [ X ] 
i 1
i
i 1
i
i 1

1 n
 M [ { ( xi  M [ X ])2  2 n( x  M [ X ])2  n( x  M [ X ]) 2 }] 
n i 1
1 n

Р
 M [ { ( xi  M [ X ])2  n ( x  M [ X ])2 }] 
n i 1

УИ
1 n
  M [( xi  M [ X ])2 ]  M [( x  M [ X ]) 2 ] 
n i1
1 n 1
  D  xi   D  x   применим тождества (*)  nD[ X ]  D[ x],

БГ
n i1 n
n n n
1 1 1 1
но D[ x]  D[  xi ]  2 D[ xi ]  2  D[ xi ]  используем (*)  D[ X ] .
n i1 n i 1 n i1 n
а
То есть дисперсия выборочной средней в n раз меньше дисперсии гене-
ральной случайной величины. Тогда
ек

1 1
M [ S 2 ]  D[ X ]  D[ X ]  (1  ) D[ X ] .
n n
т

Обозначим   D  X  ,   S 2 . M [ ]   , значит, выборочная дисперсия S 2


ио

является смещенной оценкой дисперсии. Можно отметить, что выборочная


дисперсия S 2 является асимптотически несмещенной оценкой, т. к. при n,
стремящемся к бесконечности, смещение стремится к нулю.
бл

При решении практических задач часто используется несмещенная оцен-


ка дисперсии – это модифицированная выборочная дисперсия:
2 1 n
Би

S   ( xi  x) 2 .
n  1 i 1

Найдем математическое ожидание от S 2 :


2 1 n 2 n 1 n n 2
M [S ]  M [  ( xi  x ) ]  M [  ( xi  x ) 2 ]  M [ S ]
n  1 i 1 n  1 n i1 n 1
n n  1
 M [S 2 ]  1   D  X   D[ X ].
n 1 n 1 n 

110
Обозначим   D  X  ,   S 2 ; как видим, M [ ]   , значит, оценка S 2 уже
несмещенная. При малых n этой формулой пользоваться лучше (при n > 30
оценки совпадают). На практике используют еще одну несмещенную оценку
дисперсии – когда известно математическое ожидание:
n
1
S 2   ( xi  mx ) 2 .
n i 1

Найдем M  S 2  :
 2 1 n 2 1 n 2 1 n
M [ S ]  M [  ( xi  mx ) ]   M [( xi  mx ) ]   D[ xi ] 

Р
n i 1 n i1 n i1
используем тождества

УИ
1
  nD  X   D[ X ].
со звездочкой (*) : D  xi   D  X  n
Обозначим   D  X  ,   S 2 . M [ ]   , значит, оценка S 2 несмещенная.

БГ
2. Оценка  параметра  называется состоятельной, если она сходит-
ся по вероятности к параметру  , т. е. если   0 выполняется:
а
lim P(|    | )  1 . ( )
n 
ек

Условие (  ) на практике проверить трудно. Поэтому для проверки со-


стоятельности оценок применяют более простые условия:
т

а) lim( M [ ]  )  0,
n 

б) lim( D[ ])  0.
ио

n

Как видим, оценка  будет состоятельной, если при n   смещение


устраняется и дисперсия оценки стремится к нулю.
бл

Пример.
Проверим состоятельность оценки математического ожидания выбороч-
ной средней x . Ранее мы показали, что x является несмещенной оценкой ма-
тематического ожидания, т. е. условие а) выполняется и без вычисления преде-
Би

ла. Проверим условие б), найдем D  x  :


1 n  1  n  1 n применяя
D  x   D   xi   2 D   xi   2  D  xi   
 n i 1  n  i 1  n i 1 тождества (*)
1 n D X 
 2  D X   . ()
n i 1 n

111
D X 
Видим, что при n   предел будет стремиться к нулю, значит
n
условие б) выполняется. Следовательно, x является состоятельной оценкой
математического ожидания.
3. Несмещенная оценка  параметра  называется эффективной, если
она имеет наименьшую дисперсию среди всех оценок при одном и том же объ-
еме выборки n.
Для определения наименьшей дисперсии эффективной оценки  * пара-
метра  применяется формула Рао-Крамера:
1

Р
D  *   , (8.15)
  ln f ( x, ) 2 
nM 

УИ
 
   

где f ( x, ) – плотность распределения генеральной случайной величины Х.


Отметим, если оценка  смещенная, то малость ее дисперсии еще не го-

БГ
ворит о ее эффективности. Например, если в качестве оценки  взять любую
постоянную величину c, то ее дисперсия будет равна нулю, а ошибка может
быть какой угодно большой.
Пример.
а
Задана нормальная случайная величина Х с плотностью распределения
ек

( x  m )2
1  2
f ( x , m,  )  e 2 .
2
Проверим эффективность оценки математического ожидания выборочной
т

средней x .
Найдем дисперсию эффективной оценки параметра m. Обозначим эффек-
ио

тивную оценку m * . Чтобы воспользоваться формулой Рао-Крамера (8.15), вы-


числим
( x  m) 2
бл

ln f ( x, m, )   ln 2  .
2 2
Найдем производную:
 ln f ( x, m, ) x  m
Би

 .
m 2
Подставим полученное выражение в (8.15):
1 4 2 D  X 
  *
D m       . (8.16)
 x  m 2  nM  x  m 2  n n
nM  2    
    
Ранее мы показали, что такую же дисперсию имеет x (см. формулу (  )).
Видим, что правые части формул (8.16) и (  ) совпадают, следовательно, выбо-
рочное среднее x является эффективной оценкой параметра m.
112
Отметим, что оценки, полученные методом наибольшего правдоподобия,
являются состоятельными. Если существуют эффективная оценка, то метод
наибольшего правдоподобия позволяет найти ее, но не всегда оценки, получен-
ные этим методом, являются несмещенными.

Р
УИ
БГ
а
ек
т
ио
бл
Би

113
ГЛАВА 9. ОСНОВНЫЕ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ
СЛУЧАЙНЫХ ВЕЛИЧИН В МАТЕМАТИЧЕСКОЙ СТАТИСТИКЕ

В математической статистике наиболее часто применяются такие распре-

Р
деления:
1. Нормальное (Гауссовское) распределение.

УИ
2. Распределение Пирсона, распределение 2 (хи-квадрат).
3. Распределение Стьюдента ( t – распределение).
4. Распределение Фишера ( F – распределение).

БГ
Нормальный закон распределения мы подробно рассмотрели при изуче-
нии раздела 6.5 теории вероятностей и здесь рассматриваться не будет.
Отметим, что в законы распределений математической статистики входит
гамма-функция, поэтому необходимо познакомиться с этой функцией и рас-
смотреть ее свойства.
а
ек

9.1. Гамма-функция и ее свойства


т

Гамма-функцией или интегралом Эйлера второго рода называется функ-


ция следующего вида:
ио


      x 1e  x dx , (9.1)
0
бл

где  – параметр, от которого зависит значение интеграла.


Свойства гамма-функции:
1.  1    2   1 .
Би

Доказательство:

Подставим  =1 в (9.1):  1   x11e  x dx  e  x |0  1 .
0

2.     1      при  >0.
Доказательство:
Вычислим интеграл в (9.1), используя интегрирование по частям:
 
    1   x e dx   x e |   x 1e x dx  ( ) .
 x  x 
0
0 0

114
1
3.      .
2
Доказательство:
сделаем замену
 1 переменных :  u2  u2
1   
     x 2 e  x dx  u2  2  u 1e 2
udu  2  e 2
du  .
2 0 x 0 0
2
dx  udu
1
, то     легко вычисляется с исполь-

Р
Значит, если значение  кратно
2
зованием свойства 2:

УИ
Г()
Г ()
3 1  1 1 1
       1      , 6
2 2  2 2 2 5

БГ
4
5 3  3 3 31
       1      . 3
2 2  2 2 2 2
2
а
Для целых  – гамма-функция это факториал:
1
     (  1)! .
ек


Например,
1 2 3 4 5
(3)  2!  2 , (4)  3!  6 , (5)  4!  24 .
т

Рис. 9.1
Отметим, что смысл гамма-функции – распространение понятия фактори-
ал на нецелые значения. На рис. 9.1 приведен график гамма-функции.
ио

9.2. Распределение 2 (хи-квадрат )


бл

Случайная величина имеет закон распределения 2 , если она определяет-


ся так:
n
   X k2 ,
2
(9.2)
Би

k 1
где X 1 ,, X n – независимые нормированные нормальные случайные величины,
2
xk  mx 1  x2
т. е. X k  с плотностью распределения f  x   e .
x 2
Распределение случайной величины, определенной по формуле (9.2), на-
зывается распределением Пирсона.
Покажем, что плотность распределения случайной величины 2 , формула
(9.2), определяется следующим равенством:
115
n x
1 2
1 
2
f ( x)  n x e . (9.3)
 n 
22 Г 
2
Здесь для краткости записи X   2 ;
0  X  ;

Г      U 1e U dU – гамма-функция.
0
Для доказательства используем аппарат характеристических функций.
Найдем характеристическую функцию случайной величины X k2 , которая вхо-

Р
дит в формулу (9.2), учитывая, что X k2 имеет нормированное нормальное рас-

УИ
пределение:
 x2  x2
2 2 1  1  12 it 
g0  t   M e    e
itX k itx 2
e dx   e 2 dx .
  2 2 


БГ
Используем подстановку z  x 1  2it , тогда
2
z  z2 это интеграл 1
1  dz 1  
g0  t    e 2  e 2
dz   1  2it  2 .
2  1  2it 2 1  2it Пуассона  2
а


Согласно 5-му свойству характеристической функции (для суммы неза-


ек

висимых случайных величин) найдем характеристическую функцию g1  t  слу-


чайной величины 2 :
т

2
 it  X k2  n
2
n n n

g1  t   M e  it   
M e k 1   M  e   g 0 k  t    g 0  t    1  2it  2 .
itX k
    k 1 k 1
ио

 
Найдем характеристическую функцию g 2  t  случайной величины 2 ,
плотность распределения которой определяется по формуле (9.3):
бл

  n x  n x
itx 1 itx 2
1  1 1  1 2it 
g 2  t    e f  x  dx  n  e x e dx  n 2
 2
x e 2
dx 
  n   n 
22 Г   0 22 Г  0
  2 2
Би

x
U  1  2it 
2 n n
 1
1 1  2u  2
U 2dU 22
 dU  dx 1  2it   n e  
n  0  1  2it 
  n
2 2 
2 Г 
 1  2it  2 
n
2 Г   1  2it  2
n

2u  2  2
x
1  2it
 n n  n
1 1 n 
 U 2
e dU  т. к.  U 2 e U dU  Г( )  1  2it  2 .
U

0 0
2
116
При сравнении правых частей характеристических функций g1  t  и
g 2  t  мы увидим, что они совпадают. Значит случайная величина, определяемая
по формуле (9.2), действительно имеет плотность распределения вероятностей,
определяемую формулой (9.3).
Найдем математическое ожидание и дисперсию случайной величины 2 .
Продифференцируем 2 раза g 2  t  :
n
n  1
g 2  t    1  2it  2  2i  ,
2
n
n  n   1
g 2  t     2i     1 1  2it  2  2i .

Р
2  2 
Значения производных при t  0 :

УИ
g 2  0   in,
n n 
g 2  0   4i 2   1  i 2  n 2  2n  ,
2 2 
1  n,  2  n  n  2  ,
M  2   n, БГ
а
D  2   1  12  n 2  2n  n 2  2n.
ек

Таким образом, математическое ожидание 2 равно числу степеней сво-


боды   n , а дисперсия – удвоенному числу степеней свободы. Числом степе-
ней свободы называется параметр  , равный числу независимых случайных ве-
т

личин в (9.2) и который записывают   n .


С ростом n распределение становится симметричным относительно
ио

  n  2 , т. к. с увеличением n по центральной теореме закон распределения


должен стремиться к нормальному закону (рис. 9.2).
бл
Би

Рис. 9.2

117
При n  25 закон распределения 2 практически совпадает с нормальным
законом.
Квантилем 2 , (где  – заданный уровень вероятности,  – число степе-
ней свободы) называется такое значение  2  2 , , при котором

P   
2 2
 ,    f   d 2 2
 , (9.4)
2 ,

т. е. это то значение 2 , при котором площадь заштрихованной фигуры на


рис. 9.2 равна  . Для определения квантилей 2 , составлены таблицы

Р
хи-квадрат распределения. Чтобы воспользоваться ими, необходимо задать
уровень вероятности  и число степеней свободы  .

УИ
9.3. Распределение Стьюдента (t – распределение)

n 1
БГ
Случайная величина t имеет распределение Стьюдента, если она опреде-
ляется так:

X
а
tX X  , (9.5)
Y 1 n 2 1 2
 Xi n
ек

n i 1 n

где X – нормированная нормальная случайная величина,


т

Y – величина  2 с   n степенями свободы,


X и Y – независимые случайные величины.
ио

Случайная величина t является функцией нормально распределенных


нормированных случайных величин и называется безразмерной дробью
Стьюдента. Плотность распределения случайной величины t определяется ра-
венством
бл

 n 1 n 1
   t 2  2
n 
f t    1   , (9.6)
Би

 n n
n   
2
где   t   .
Числовые характеристики случайной величины t :
n
M t   0; Dt   .
n2

118
На рис. 9.3 приведены кривые распределения
Стьюдента. Кривые на рис. 9.3 качественно напо- f(t)
минают кривые нормального закона распределения n
с математическим ожиданием, равным нулю, и при
n   они стремятся к нормальному закону. 0,1 n5
Квантили распределения Стьюдента t , в за- n2
2
висимости от числа степеней  свободы и заданно-
го уровня вероятности  находятся из уравнения: 0 t


P ( t  t / 2, )  2  f (t )dt   .

Р
Рис. 9.3
t 2, 

УИ
Рис. 9.4 иллюстрирует процесс опреде-
f (t )
ления квантилей, т. е. необходимо так выбрать
t , , чтобы суммарная площадь заштрихован-

БГ
2
ных фигур была равна  . /2 /2
p

t
а
0
t /2,  t /2, 
ек

Рис. 9.4

9.4. Распределение Фишера (F-распределение)


т

Случайная величина F имеет распределение Фишера, если она определя-


ио

ется так:
U n
F 1 1 , (9.7)
U 2 n2
бл

где U1 и U 2 – независимые случайные величины, имеющие распределение  2 с


n1 и n2 степенями свободы, т. е. F можно записать в следующем виде:
1 n1 2
Би

U
n1 i 1 1i
F . (9.8)
1 n2 2
U 2 i
n2 i 1
Безразмерная случайная величина F (9.8) имеет плотность распределения,
определяемую следующей формулой:

119
n1 n1 n n 
2

2
 1 2  n1
n n2
1  2  2
1
f (F )  n1  n2
F . (9.9)
n  n 
 1   2   n2  n1F  2
2  2
Распределение случайной величины F зависит от двух параметров
1  n1 ,  2  n2 – степеней свободы. График плотности распределения случай-
ной величины F для разного числа степеней свободы приведен на рис. 9.5.

Р
УИ
БГ
Рис. 9.5

Квантили распределения Фишера F для заданного уровня вероятности 


и числа степеней свободы 1 и  2 определяются из условия
а

P ( F  F )   f (F )dF   .
ек

F

На рис. 9.6 показано, что надо так выбрать F , чтобы площадь заштрихо-
ванной фигуры была равна заданной вероятности  .
т

f (F )
ио

0,5
бл


F
0 1 F
Би

Рис. 9.6

Как правило, квантили F находят по таблицам распределения Фишера и


для их определения необходимо задать три параметра: уровень вероятности 
и число степеней свободы 1 и  2 .

120
ГЛАВА 10. ИНТЕРВАЛЬНЫЕ ОЦЕНКИ ПАРАМЕТРОВ
РАСПРЕДЕЛЕНИЙ

10.1. Доверительный интервал, доверительная вероятность

Р
Точечная оценка неизвестного параметра  , найденная по выборке объе-
ма n из генеральной совокупности, не позволяет непосредственно узнать ошиб-

УИ
ку, которая получается, когда вместо точного значения неизвестного параметра
 принимается некоторое его приближение (оценка)   ( x1,..., xn ) . Поэтому ча-
ще пользуются интервальной оценкой, основанной на определении некоторого

БГ
интервала, накрывающего неизвестное значение параметра  с определенной
вероятностью. На рис. 10.1 изображен интервал длиной 2 , внутри которого в
любом месте может находиться неизвестное значение параметра  .
а
  
ек

      
X
т

Рис. 10.1

Чем меньше разность |    | , тем лучше качество оценки. И если записать


ио

|   |<  , то ε будет характеризовать точность оценки.


Доверительной вероятностью оценки называется вероятность
p  1   выполнения неравенства |   |<  . Доверительную вероятность р
бл

обычно задают заранее: 0,9; 0,95; 0,9973. И доверительная вероятность показы-


вает, что с вероятностью р параметр  будет накрываться данным интервалом
Би

p(    < )=p=1-
или
p(   <  <  + )  1  . (10.1)

Из (10.1) видно, что неизвестный параметр  находится внутри интервала


]  ;  + [ .

Доверительным интервалом называется интервал ]  ;   [ , накры-
вающий неизвестный параметр  с заданной доверительной вероятностью
p  1   . Длина его (см. рис. 10.1) 2 . Параметр α –уровень значимости.

121
10.2. Доверительный интервал для математического ожидания
случайной величины Х при известной дисперсии (или  )

Пусть эксперимент Е описывается нормальной случайной величиной Х.


( x  m )2
1  2
Плотность распределения f ( x )  e 2  . Предположим, что известна
2 
дисперсия D  X =  , а М[X] = m – неизвестна. Тогда точечную оценку матема-
2

тического ожидания можно получить из выборки объемом n: x1 ,x2, ...,xn – и она


1 n
определится так: x   xi . Рассматривая выборку x1 ,...,xn как n независимых

Р
n i 1
случайных величин, имеющих одно и тоже нормальное распределение, опреде-

УИ
лим числовые характеристики x :
1 n 1 n
1 n 1 n
M [ x ]  M[  xi ]  M [ xi ]   M  xi    m  m,
n i1 n i 1 n i1 n i

БГ
n n n 2
1 1 1 
D[ x ] = D[  xi ] = 2  D[ xi ] = 2   2 =   2x ,
n i 1 n i1 n i 1 n
откуда получим

x  . (10.2)
а
n
ек

Для определения доверительного интервала рассмотрим разность между


оценкой и параметром: x  m . Нормируем ее (сделаем безразмерной), т. е. раз-
делим на D  x  и обозначим как случайную величину U:
т

x m x m x m
U =  . (10.3)
ио

D[ x ] x / n
Покажем, что случайная величина U имеет нормированный нормальный
закон распределения. Найдем ее числовые характеристики:
бл

 x m mm
M [U ]  M    / n  0 ,
 / n 
Би

2
 x  m   1 2 2 /n
D[U ]  M     2 M [( x  m) ]  2 /n  1 .
  / n    /n
Таким образом M U  = 0, D U  =1 – это значит, что U имеет нормиро-
ванное нормальное распределение, график которого изображен на рис. 10.2.

122
f (U )

 /2  /2

U
0
U p
U p

Рис. 10.2

Зная плотность распределения случайной величины U, легко найти веро-

Р
ятность попадания случайной величины U в интервал [U p ;U p ] (см. рис. 10.2):

УИ
Up u 2 Up u2
1 
2
2 
2
du  Ф(U p ) . (10.4)
2  U p e
P (U p  U  U p )  e du 
2 0

Левая часть этого уравнения представляет собой доверительную вероятность p:

P(  U p 
x m
/ n
Тогда из (10.4) и (10.5) следует уравнение
БГ
U p )  p 1  . (10.5)
а
ек

Ф(U p )  p . (10.6)
Решая уравнение (10.6), по таблицам функции Лапласа для заданной до-
верительной вероятности p  1   можно найти границы доверительного ин-
т

тервала для U, т. е. квантили U p . Считая, что квантили U p известны, преобра-


зуем правую часть уравнения (10.5), подставляя в нее (10.3):
ио

 
P (U p  x  m Up ) 1  ,
n n
бл

 
P( x  U p  m  x Up ) 1  . (10.7)
n n
Считая, что 2 – известна, из (10.7) следует, что доверительный интер-
Би

 
вал ]x  U p ; x +U p [ накрывает неизвестное математическое ожида-
n n
ние m c заданной доверительной вероятностью p =1  . Точность оценки ма-
тематического ожидания или длина доверительного интервала

 Up . (10.8)
n
Замечания по формуле (10.8):

123
1) при увеличении объема выборки n из (10.8) видим, что е уменьшается,
значит, уменьшается длина доверительного интервала, а точность оценки уве-
личивается;
2) увеличение доверительной вероятности p=1   приводит к увеличе-
нию длины доверительного интервала (см. рис. 10.2, где квантили U p увеличи-
ваются), т. е. е увеличивается, а точность оценки падает;
3) если задать точность е и доверительную вероятность p=1   , то мож-
но найти объем выборки, который обеспечит заданную точность:
U p22
n 2 . (10.9)

Р
Пример.

УИ
Сколько конденсаторов одного номинала надо измерить, чтобы с вероят-
ностью 0,95 можно было утверждать, что мы с точностью 1 % определили их
среднее значение – математическое ожидание.
Обозначим  = 0,01, р = 0,95; по таблицам функции Лапласа найдем

БГ
квантиль для заданной доверительной вероятности 0,95: U p = 1,96. Для прове-
дения расчетов положим  = 0,05. Подставляя эти значения в (10.9), получим
1,962  0,052
n  96 .
0,012
а
ек

10.3. Доверительный интервал для математического ожидания


нормальной случайной величины Х при неизвестной дисперсии или 
т

Пусть эксперимент описывается случайной величиной Х с нормальным


ио

распределением с неизвестными параметрами m и  . Для определения точеч-


ных оценок этих параметров из генеральной совокупности извлечена выборка
x1 ,...,xn объемом n . Тогда точечные оценки этих параметров определяются так:
бл

1 n
m  x ,   S   ( xi  x )2 .
n  1 i 1
Би

Здесь использовали для оценки дисперсии S 2 – модифицированную вы-


борочную дисперсию, несмещенную оценку. Для построения доверительного
интервала рассмотрим разность между оценкой и параметром: x  m . Нормиру-
ем ее, т. е. разделим на D  x  и обозначим результат как случайную величи-
ну t. Ранее мы показали, что D  x   2 / n , но т. к. здесь  неизвестна, возьмем
ее оценку  , и тогда D  x    2 / n . Тогда случайная величина t принимает вид

124
x m
. t (10.10)
S/ n
Умножим числитель и знаменатель в (10.10) на  :
x m x m 1 X
t  (10.11)  .
1  1 n  n 2
1 2
(xi  x)2 1  xi  x 

n  n  1 i1 n  
n  1 i1   

ч
n  1 n1
Здесь Х – нормированная нормальная случайная величина, знаменатель –
распределение  2 с n–1 степенями свободы. Поэтому, согласно определению
(см. раздел 9.3, формула (9.5)), можно утверждать, что случайные величины t,

Р
определяемые по формулам (10.10) и (10.11), имеют закон распределения
Стьюдента с n–1 степенями свободы.

УИ
Зная закон распределения случайной величины t и задавая доверительную
вероятность p  1   , можно найти вероятность попадания ее в интервал ] t p ,
t p [ (рис. 10.3).

БГ
f (t )
а
/2 /2
p
ек

t
0
t p t p
т

Рис. 10.3
ио

tp

P (t p  t  t p )   f (t )dt  p  1   . (10.12)


t p
бл

Из таблиц распределений Стьюдента по заданной доверительной вероят-


ности p  1   и числу степеней свободы n–1 находим квантили t p  t / 2, n 1 ,
удовлетворяющие условию
Би

P (t p  t  t p )  p  1  . (10.13)
Подставляя в (10.13) вместо t равенство (10.10), получаем

x m
 tp )  p 1  .
P (t p  (10.14)
S/ n
Разрешим неравенство в левой части формулы (10.14) относительно m:

125
S S
P( x  t p  m  x  tp )  p 1  . (10.15)
n n
Отсюда непосредственно следует, что доверительный интервал
 S S 
 x  t p , x  t p  накрывает неизвестный параметр m – (математи-
 n n
ческое ожидание) с доверительной вероятностью р.
Интервал (10.15) несколько шире интервала (10.7), определенного для той
же выборки и той же доверительной вероятности. Зато в (10.15) используется
меньшая априорная информация –  знать не надо.

Р
Можно обозначить ширину доверительного интервала или точность через
0 , и из (10.15) следует

УИ
S
0  t p . (10.16)
n
Все замечания, сделанные по формуле (10.8), справедливы и для форму-
лы (10.16).
Пример.
БГ
Даны результаты четырех измерений напряжения сети (значения приве-
дены в [В], n  4 ):
а
x1  220 , x2  226 , x3  224 , x4  222 .
ек

Считаем, что X – напряжение сети – является нормальной случайной ве-


личиной. Построить доверительный интервал с вероятностью 0,95 для истинно-
го напряжения сети – m.
т

Найдем точечную оценку m:


1
m  x  (220  226  224  222)  223 [В].
ио

n
Из таблиц распределения Стьюдента для p  0,95;
  1  p  0,05;   n  1  3 – число степеней свободы; находим квантиль
бл

t0,95  t0,025, 3 = 3,18 . Вычислим модифицированную выборочную дисперсию S 2 :


1 4 1 20
S2   (xi  x )2  (9  9  1  1)  [В2 ].
n 1 1 3 3
Би

Тогда S 2  2,6 [ В].


Полученные значения подставим в формулу (10.16):
S 2,6
0  t p  3,18  4,2 [В].
n 2
Найдем левую и правую границы доверительного интервала для m:
x  0  223  4, 2  218,8 [В],
x  0  223  4,2  227,2 [В].

126
Таким образом, истинное напряжение сети с вероятностью 0,95 накрыва-
ется доверительным интервалом ]218,8, 227,2[ [В].
Найдем минимальное число измерений, чтобы c вероятностью 0,95 точ-
ность определения истинного напряжения сети не превышала 0,5 В, т. е.
0  0,5 . Из (10.16) имеем
t p2 S 2 2,6 2  3,182
n 2   273 измерения.
 0,52
Видим, что число измерений n велико. Следует отметить, что значение кванти-
ля t0,95  t0,025, 3 = 3,18 зависит от n и при увеличении n будет убывать. При
больших n (n >100) значение квантиля стремится к постоянной величине и рав-

Р
но t p  t0,95  1,96 . Тогда после коррекции значения квантиля вычисляем по

УИ
формуле (10.16) скорректированное значение n :
t p2 S 2 2,6 2  1,962
n 2   104 измерения.
 0,52

БГ
10.4. Доверительный интервал для дисперсии или  нормальной
случайной величины Х
а
Рассмотрим вероятностный эксперимент с нормальной моделью, где па-
раметры m и  неизвестны. Предположим, что по выборке x1 ,...,xn найдены
ек

точечные оценки этих параметров:


1 n
m  x ,   S   ( xi  x )2 .
т

n  1 i 1
Составим вспомогательную случайную величину
ио

(n  1 )S 2
V . (10.17)
2
бл

Эта случайная величина имеет распределение ч 2 с  = n–1 степенями


свободы. Покажем это, подставив в (10.17) выражение для S 2 :
Би

2
n 1 1 n 2
n
( xi  x )2 n
 xi  x  2
V 2 
 n  1 i 1
( xi  x )  
i 1  2
  
i 1   
  .

Это и есть распределение хи-квадрат с n–1 степенью свободы. На


рис. 10.4 приведен график этого распределения.

127
f (V )

/2
/2
p

V
0 V1 V2

Рис. 10.4

Р
Зная закон распределения случайной величины V, определим вероят-

УИ
ность того, что случайная величина V попадет в интервал ] V1 ,V2 [:
V2

P (V1  V  V2 )   f (V )dV  p = 1   . (10.18)

БГ
V1

Здесь f(V) плотность распределения  2 с n–1 степенями свободы. Из


рис. 10.4 видно, что кривая для плотности распределения  2 несимметрична
относительно центра распределения, поэтому границы доверительного интер-
а
вала или квантили V1 и V2 для данной вероятности р не определяются одно-
ек

значно. Чтобы избежать неопределенности будем их находить из условия


1 p  1 p 
P (V  V1 )   , P (V  V2 )   . (10.19)
т

2 2 2 2
Это означает, что площади заштрихованных фигур равны. Задавая дове-
ио

рительную вероятность p =1–  , по таблицам распределения  2 для числа сте-


пеней свободы n–1, используя условия (10.19), находим квантили V1 и V2 .
Считая V1 , V2 и p известными, перепишем (10.18) в следующем виде:
бл

P (V1  V  V2 )  p. (10.20)
Подставим в (10.20) значение V , определяемое формулой (10.17):
( n  1) s 2
Би

P (V1   V2 )  p . (10.21)
2
Решаем неравенство в левой части (10.21) относительно  2 :

(n  1) S 2 2 (n  1) S 2
P(   )  p. (10.22)
V2 V1
Из (10.22) записываем доверительный интервал для  2 :

128
 (n  1) S 2 (n  1) S 2 
 V , .
 2 V1 
Для среднего квадратического отклонения  доверительный интервал
имеет следующий вид:
 n 1 n 1 
S , S .
 V2 V1 
Можно ввести коэффициенты г1 и г 2 :

n 1 n 1 n 1 n 1

Р
1   , 2   . (10.23)
V2  2 / 2 , n 1 V1 2
1-/2, n1

УИ
Тогда доверительный интервал для  определится следующим обра-
зом:

 S 1 , S  2  .

БГ
Коэффициенты 1 и  2 , соответствующие доверительной вероятности
p =1–α и числу степеней свободы   n  1, находятся по таблицам распределе-
ния  2 .
а
Пример.
ек

В предыдущем разделе (10.3) приведен пример для измеренных значений


напряжения сети. Продолжим и найдем доверительный интервал для среднего
квадратического отклонения  .
т

Найдена точечная оценка для  :   S  2,6. Задавая доверительную ве-


роятность p =1 – α = 0,95 , зная число степеней свободы   n  1 = 4–1= 3, по
ио

таблицам распределения  2 , используя (10.23), находим коэффициенты


1  0,566 ,  2  3,73 .
Тогда нижняя граница для  : 1  S  0,566  2,6  1,47 [B] .
бл

Верхняя граница для  :  2  S  3,73  2,6  9,7 [B] .


И окончательно: 1,47    9,7 .
Би

129
ГЛАВА 11. ТЕОРИЯ СТАТИСТИЧЕСКОЙ ПРОВЕРКИ ГИПОТЕЗ

11.1. Основные понятия

Пусть имеется выборка x1 , x2 ,..., xn объемом n. Если по выборке построить

Р
гистограмму, то можно по виду гистограммы сделать предположение (выдвинуть
гипотезу) о виде закона распределения генеральной случайной величины X.

УИ
Тогда нулевой гипотезой H 0 называют основную (проверяемую) гипоте-
зу, которая утверждает, что различие между сравниваемыми величинами от-
сутствует.

БГ
Альтернативной (конкурирующей, противоположной) гипотезой Н на-
зывается гипотеза, которая принимается тогда, когда отвергается нулевая.
Целью статистической проверки гипотез является выбор критерия по вы-
борке x1 ,..., xn , на основании которого принимается гипотеза H 0 или отклоняет-
а
ся в пользу альтернативной. При этом возможны ошибки двух видов:
1. Отклонение H 0 , когда она на самом деле верна – ошибка первого рода.
ек

Вероятность этой ошибки обозначается  и называется уровнем значимости.


2. Принятие H 0 , когда она на самом деле не верна – ошибка второго рода,
т

вероятность ошибки –  .
Чем серьезнее будут последствия ошибки первого рода, тем меньше надо
выбирать уровень значимости . Обычно выбирают   0,01  0,05 .
ио

Статистической характеристикой Z гипотезы H 0 называется неко-


торая случайная величина, определяемая по выборке, для которой известен за-
бл

кон распределения.
Областью отклонения (критической областью) G0 называется область,
при попадании в которую статистической характеристики Z гипотеза H 0
Би

отклоняется.
Дополнение области отклонения до всех возможных значений стати-
стической характеристики Z называется областью принятия G .
При попадании статистической характеристики Z в область принятия ги-
потеза H0 принимается. На рис. 11.1 изображены область отклонения G0 и об-
ласть принятия G . Разделяет их точка на числовой оси z .

130
f (z)


Z
0 z
GG0 – ообласть
бл аст ьпринятия
пр ин ят и я G –область
G област ь
отклоненияя

Рис. 11.1

Р
При попадании Z в область принятия гипотеза H 0 принимается. По суще-

УИ
ству область принятия есть доверительный интервал для статистической харак-
теристики Z с доверительной вероятностью p =1 – .
Область отклонения G0 выбирается таким образом, чтобы вероятность
попадания в нее статистической характеристики Z при условии, что H 0 верна,

БГ
равнялась уровню значимости . То есть область отклонения удовлетворяет ус-
ловию:
P ( Z  G0 : H 0 )   . (11.1)
а
С другой стороны, для того чтобы уменьшить вероятность ошибки второ-
го рода при выбранном , область отклонения G0 , удовлетворяющую усло-
ек

вию 1, нужно выбрать таким образом, чтобы вероятность попадания в нее ста-
тистической характеристики Z при условии, что верна альтернативная гипотеза
т

Н, была максимальной, т. е.
P ( Z  G0 : H )    max .
ио

Вероятность  – называется мощностью критерия проверки гипотез.


Так как события Z  G0 и Z  G0 – противоположны, то можно написать
бл

P ( Z  G0 : H )  P( Z  G0 : H )  1 .
Таким образом, имеем
    1, (11.2)
Би

где   P (Z  G0 : H ) ( – вероятность совершения ошибки второго рода).


Отметим, что ошибка первого рода существенней, поэтому  мы выбира-
ем, а  – нет (принимаем полученное значение).
Из (11.2) следует, что между  и  существует простая зависимость и что-
бы уменьшить , надо увеличить мощность критерия . Если   max, то  
min.
Между  и  простой функциональной связи не существует, можно толь-
ко сказать, что с увеличением одной, другая уменьшается и наоборот.

131
На рис. 11.2 приведены две кривые плотности распределения: одна кри-
вая y = f(Z|H0) – когда верна гипотеза H0 , другая кривая y = f(Z|H) – когда верна
альтернативная гипотеза H.

y  f (z H0 )
y  f (z H )
 

Р
z  z z z  z  область

УИ
отклонения
Рис. 11.2

Из рис. 11.2 видно, что при уменьшении  z возрастает, область откло-

БГ
нения сужается и, следовательно, уменьшается вероятность отклонения гипоте-
зы H 0 , если она верна. Вместе с тем при сужении области отклонения G0 рас-
ширяется область принятия G и увеличивается вероятность принятия гипотезы
а
H 0 , если она на самом деле не верна. Поэтому нельзя брать  слишком малой.
Гипотезы бывают двух видов – параметрические и непараметрические.
ек

Параметрические гипотезы – это гипотезы о проверке параметров за-


конов распределения.
Непараметрические – это гипотезы о виде закона распределения.
т
ио

11.2. Проверка гипотезы равенства математических ожиданий


при неизвестной дисперсии (критерий Стьюдента)
бл

Пусть X и Y – независимые нормальные случайные величины.


Введем обозначения:
M [ X ]  x , M [Y ]   y ,
Би

D[ X ]   2x . D[Y ]   2y .
Пусть дисперсии этих случайных величин равны и неизвестны:
2x   2y   2 ,
где 2 – не предполагается известным.
Пусть даны выборки
( x1 ,..., xn1 )  X ,
( y1 ,..., yn2 )  Y .

132
По выборкам найдем критерий проверки гипотезы H 0 , состоящей в том, что
математические ожидания этих случайных величин одинаковы:
H0 : x   y .

При альтернативной гипотезе H :  x   y .


Известно, что случайные величины

2 n1S12 2 n2 S 22
  2 ,
1 2  2
 
2
имеют распределение  c n1  1 и n2  1 степенями свободы, где

Р
2 1 n1 2 1 n1
S1   ( xi  x ) , x   xi ,

УИ
n1 i 1 n1 i1
2 1 n2 2 1 n2
S   ( yi  y ) ,
2 y   yi .
n2 i1 n2 i1

БГ
Сумма независимых случайных величин с распределением 2 имеет то
же распределение 2 с суммарным числом степеней свободы:

2 n1S12  n2 S 22
2
W    . (11.3)
а
1 2
2
ек

Случайная величина W имеет распределение 2 с n1  n2 –2 степенями


свободы, (этот факт не очевиден, но несложно показать с помощью характери-
стических функций).
т

Ранее мы показывали, что несмещенной оценкой математического ожи-


дания является выборочное среднее. Поэтому для проверки гипотезы H 0 возь-
ио

мем разность между оценками математических ожиданий: x  y . Нормируем


эту разность, т. е. сделаем безразмерной. Для этого разделим ее на D[ x  y ] и
обозначим как U:
бл

2
2x 
xy xy но : D[ x ]  , D[ y ]  y ,
Би

U   n1 n2 
D[ x  y ] D[ x ]  D[ y ]
учтем, что  2x   2y   2
(11.4)
xy
 .
1 1
 
n1 n2

133
Очевидно, что случайная величина U имеет нормальное распределение,
т. к. X и Y нормально распределены. Если проверяемая гипотеза Н0 о равенстве
математических ожиданий выполняется (  x   y ), то имеем:

xy M[x ]  M[ y] x  y
M [U ]  M [ ]   0.
1 1 1 1 1 1
     
n1 n2 n1 n2 n1 n2

xy 1 1
D[U ]  D[ ]  D[ x ]  D[ y ]  

Р
1 1  1 1   1 1 
  2    2   
n1 n2  n1 n2   n1 n2 

УИ
 1 n1 1 n2  1 1 n1
1 n2

  D[  xi ]  D[  yi ]   2 D[ xi ]  2 D[ yi ] 
 n1 i 1 n2 i 1  1 1 n
2     1
i 1 n2 i 1 

БГ
 n1 n2 
2
1   2x  y  2 2 2
     т. к.  x   y    1.
1 1 n n2 
 2     1
а
 n1 n2 
Таким образом, если гипотеза Н0 верна, то случайная величина U имеет
ек

нормированный нормальный закон распределения.


Рассмотрим случайную величину t:
т

xy
t , (11.5)
1 1
S0 
ио

n1 n2

2 n1S12  n2 S 22
где S  – объединенная выборочная дисперсия.
бл

0
n1  n2  2
Случайную величину t можно представить в следующем виде через ранее
введенные U и W:
Би

n1  n2  2
t U . (11.6)
W
Действительно:

n n 2
t U 1 2 
xy  n1  n2  2  2  x  y , (11.7)
W 1 1 n1S12  n2 S 22 1 1
  S0 
n1 n2 n1 n2
т. е. правые части (11.5) и (11.6 или 11.7) совпадают.
134
Но величина t (11.6) имеет распределение Стьюдента с n1  n2  2 степенями
свободы. Это следует из того, что U имеет нормированное нормальное распре-
деление при условии, что H 0 – верна. W – имеет распределение 2 с
( n1  n2  2 ) степенями свободы, кроме того величины U и W независимы. Та-
ким образом, величина t определяется по (11.5) и имеет распределение Стью-
дента с ( n1  n2  2 ) степенями свободы, если верна проверяемая гипотеза H 0 .
Эту величину t (11.5) примем за статистическую характеристику Z. Про-
верка гипотезы о равенстве математических ожиданий состоит в следующем.
По таблицам распределения Стьюдента для заданного уровня значимости
 или доверительной вероятности p = 1–  и числу степеней свободы

Р
 = n1  n2  2 находим квантиль z  t  , удовлетворяющий условию (на
, n1  n2  2
2

УИ
рис. 11.3 изображена кривая распределения Стьюдента и заштрихована область
отклонения G0 ):
P ( t  z : H 0 )   .


БГ
аtG0

 
ек

2 2

z   z
т

Рис. 11.3
ио

Тогда если фактически найденное по выборкам значение статистиче-


ской характеристики t (11.5) удовлетворяет условию  t  z   G0 , то прове-
бл

ряемую гипотезу H 0 о равенстве математических ожиданий отклоняем как


несогласующуюся с результатами выборочных данных; при этом вероятность
ошибки равна . Если t  z , то гипотеза H 0 принимается, математические
Би

ожидания случайных величин X и Y одинаковы.

11.3. Проверка гипотезы о равенстве дисперсий (критерий Фишера)

Пусть X и Y – нормальные независимые случайные величины. Обозначим


их дисперсии:
D[ X ]   2x , D[Y ]   2y .

135
По выборкам x1 ,..., xn1  X , y1 ,..., yn2  Y найдем критерий проверки ги-
потезы H 0 состоящей в том, что дисперсии этих случайных величин равны
H 0 :  2x   2y   2 .

При альтернативной гипотезе H :  2x  2y .


Такая гипотеза выбирается, например, при S12  S22 , где
2 1 n1 2 2 1 n2 2
S 
1   xi  x  , S2    yi  y  – модифицированные выбороч-
n1  1 i1 n2  1 i 1
ные дисперсии.

Р
В качестве статистической характеристики возьмем случайную величину

УИ
S12
F. (11.8)
S 22
Если гипотеза H 0 о равенстве дисперсии верна, то случайная величина F
имеет распределение Фишера с  n1  1, n2  1 степенями свободы. Покажем это,

2
(n1  1) S12
2
БГ
представляя числитель и знаменатель (11.8) в следующем виде:
а
S n1  1
F  12  2
.
S 2 (n2  1) S 2
ек

2
n2  1
(n1  1)S12
т

Видим, что величина 2


имеет распределение  2 с (n1  1) степе-

2
(n  1) S
ио

нью свободы, а 2 2 2 –  2 с ( n2  1 ) степенями свободы. Следовательно,



согласно определению (см. раздел 9.5, формула (9.7)), случайная величина F
имеет распределение Фишера с  n1  1, n2  1 степенями свободы.
бл

Проверка гипотезы H 0 состоит в следующем:


Из таблиц распределения Фишера по выбранному уровню значимости  и числу
Би

степеней свободы  n1  1, n2  1 находим квантиль F , который удовлетворяет



условию P ( F  F : H 0 )   f ( F )dF  . На рис. 11.4 изображена кривая распре-
F

деления Фишера с числом степеней свободы  n1  1, n2  1 и заштрихована об-


ласть отклонения G0, площадь которой области равна  , отмечен квантиль F .

136
[n1  1, n2  1]

F

Рис. 11.4

По выборкам, используя (11.8), определяем значение статистической ха-

Р
рактеристики F. Если фактически вычисленное по формуле (11.8) значение F
окажется больше табличного F (как видно из рис. 11.4, мы попадаем в об-

УИ
ласть отклонения), то гипотезу о равенстве дисперсий отклоняем как не со-
гласующуюся с выборкой. При этом вероятность ошибки равна . В против-
ном случае, когда F  F , принимается гипотеза H 0 , т. е. дисперсии случайных

БГ
величин X и Y равны.
Пример.
Пусть Х – чувствительность телевизоров марки «Горизонт», Y – чувстви-
тельность телевизоров марки «Витязь». Проведены выборочные измерения
а
чувствительности телевизоров для n1 = 7 телевизоров марки «Горизонт» и n2 = 6
телевизоров марки «Витязь». Результаты измерений чувствительности в [  В]
ек

представлены в таблицах.
т

x1 x2 x3 x4 x5 x6 x7
66 72 62 68 76 61 71
ио

y1 y2 y3 y4 y5 y6
62 75 64 70 72 71
бл

Определить лучшую марку телевизора, если лучшим будет тот, у которо-


го чувствительность в [  В] будет меньше.
Найдем по результатам измерений средние значения чувствительности,
Би

вычисляя x и y :
1 7 1 6
x   xi  68 [В], y   yi  69 [В].
7 i 1 6 i 1
Можно ли сказать, что чувствительность телевизоров марки «Горизонт»
лучше? Нет, т. к. выборки, выборочные средние x , y и разность между ними –
элементы случайные.
Сначала убедимся в равенстве дисперсий по критерию Фишера – гипотеза
H 0 : 2x   2y .

137
Вычислим несмещенные оценки дисперсий X и Y:
1 7 1 6
S12   ( xi  68) 2  29,67 [В]2 , S22   ( yi  69) 2  24,8 [В]2 .
6 i1 5 i 1
Используя (11.8), найдем значение статистической характеристики F:
29,67
F  1,196 .
24,8
По таблицам распределения Фишера для [6;5] степеней свободы, задавая
уровень значимости  = 0,05, найдем квантиль – F = 4,95. Сравнивая F с F,
видим, что 1,196 < 4,95. Значит, гипотеза H 0 принимается, т. е. дисперсии слу-
чайных величин X и Y равны.

Р
Теперь проверим гипотезу о равенстве математических ожиданий слу-
чайных величин X и Y , применяя критерий Стьюдента.

УИ
Гипотеза H 0 : M [ X ]  M [Y ] , т. е. чувствительность телевизоров марки
«Горизонт» и «Витязь» одинакова.
Найдем объединенную выборочную дисперсию:

БГ
7 6

 ( xi  68)2   ( yi  69)2
S02  i 1 i 1
 27,46 [В]2 .
762
а
По формуле (11.5) вычислим статистическую характеристику t :
68  69
ек

t  0,343 .
1 1
27,46 
7 6
т

Задавая уровень значимости  = 0,05 для числа степеней свободы


 = 7 + 6 – 2 = 11, по таблицам распределения Стьюдента находим квантиль
t0,025, 11 = 2,201. Сравнивая t с t0,025, 11 , видим, что 0,343  2,201 , значит, гипотезу
ио

о равенстве чувствительности телевизоров марки «Горизонт» и «Витязь» при-


нимаем.
бл

11.4. Проверка гипотезы о законе распределения генеральной случайной


величины. Критерий Пирсона. (Критерий согласия  2 )
Би

Пусть задана генеральная случайная величина Х и выборка x1 , x2 ,..., xn .


Если по выборке построить гистограмму, то по виду гистограммы можно вы-
двинуть гипотезу о виде закона распределения генеральной случайной величи-
ны Х. Тогда в качестве нулевой гипотезы H 0 будет предположение, что случай-
ная величина Х имеет плотность распределения f 0 ( x ) :

H 0 : f ( x)  f 0 ( x ) .

При альтернативной гипотезе H : f ( x )  f 0 ( x ) .

138
Обычно для построения гистограммы равноинтервальным способом раз-
бивают весь диапазон выборочных значений случайной величины Х на k одина-
ковых интервалов. Если mi – число выборочных значений, попавших в i-й ин-
n
m
тервал, то  mi  n – объем выборки. Введем случайную величину Z i  i –
i 1 n
относительную частоту попадания случайной величины Х в i-й интервал. Тео-
ретическая вероятность pi попадания значений случайной величины Х в i-й ин-
тервал может быть определена как pi   f 0 ( x )dx , где xi  ai  bi – длина i-го
X xi

интервала, ai ; bi – границы i-го интервала.

Р
Рассмотрим событие, состоящее в том, что случайная величина Х попадет
в интервал xi mi раз. Тогда введем случайную величину Y, равную числу по-

УИ
паданий случайной величины в i-й интервал (Y = mi). Вероятности возможных
ее значений определяются по формуле Бернулли, случайная величина Y имеет
биномиальный закон распределения, и ее числовые характеристики имеют вид

БГ
M [Y ]  np , D[Y ]  npi qi , qi  1  pi .
m
Для введенной ранее случайной величины Z i  i определим числовые
n
характеристики:
а
m  1 1 1
M [ Zi ]  M  i   M [mi ]  M [Y ]  npi  pi ,
ек

n n n n
m  1 1 1 pq
D[ Z i ]  D  i   2 D  mi   2 D Y   2 npi qi  i i .
n n n n n
т

Проведем нормировку случайной величины Z i , для этого мы ее центри-


руем, сделаем безразмерной, разделив на D[ Z i ] , и обозначим Wi :
ио

mi
 pi
Zi  M [ Zi ] n
бл

Wi   . (11.9)
D[ Zi ] pi qi / n

Эта величина распределена по биномиальному закону, т. к. в нее входит


Би

случайная величина Y. Образуем сумму квадратов случайных величин Wi :


при n  , k   биномиальный
2
 mi  закон распределения по централь 
k k   pi  k 2
(mi  npi )
 Wi 2   n    ной предельной теореме 
i 1 i 1  pi qi / n  i1 npi qi
переходит в нормальный закон,
 
( учтем : если pi  0, то qi  1)

139
k
(mi  npi )2
 .
i 1 npi

Сумма квадратов нормированных нормальных случайных величин (как


было показано ранее) имеет распределение 2 , обозначим

2
k
(mi  npi )2
  . (11.10)
i 1 npi

Эта случайная величина имеет закон распределения 2 с числом степеней


свободы

Р
  k  r 1, (11.11)

УИ
где r – число параметров закона распределения, оцениваемых по выборочным
данным.
Анализируя правые части формул (11.9) и (11.10), можно отметить, что в
критерии согласия 2 фактически сравниваются эмпирические и теоретические
частоты распределения.

БГ
Проверка гипотезы состоит в следующем. Задаем уровень значимости .
По таблицам 2 – распределения для заданных  и числу степеней свободы
а
  k  r  1 находим квантиль 2 , , удовлетворяющий условию
P ( 2  2 ,0 : H 0 )   . По формуле (11.10) вычисляем значение 2 . Сравнивая
ек

рассчитанное значение 2 с квантилем 2 , , найденным по таблицам, принима-


ем одно из двух решений:
т

1. Если  2  2 , , то нулевая гипотеза H 0 отвергается в пользу альтерна-


тивной Н, т. е. f(x) не согласуется с результатами эксперимента.
ио

2. Если  2  2 , , то H 0 принимается, т. е. f(x) согласуется с эксперимен-


тальными данными, закон распределения f 0 ( x ) подтверждается. При этом ве-
бл

роятность ошибки равна  .

11.5. Критерий Романовского


Би

Рассмотрим неравенство

2  
 3, (11.12)
2

где 2 вычисляется по формуле (11.10);


  k  r  1 по (11.11).

140
Проверка гипотезы состоит в следующем: если это неравенство выполня-
ется (  3 ), то расхождение теоретических и экспериментальных данных неслу-
чайно, т. е. закон распределения не подтверждается, гипотеза H 0 отклоняется.
В противном случае гипотеза H 0 подтверждается, действительно случайная вели-
чина Х имеет плотность распределения f 0 ( x ) . Этот критерий хорош тем, что для
проверки гипотезы не требуются таблицы 2 – распределения.

11.6. Критерий согласия Колмогорова

Р
В критерии согласия А. Н. Колмогорова проводится сравнение эмпириче-
ской и теоретической функций распределения. Укажем этапы проверки гипотез

УИ
этим критерием.
1. По выборке x1 , x2 ,..., xn строится вариационный ряд и график эмпириче-
ской функции распределения.
2. По виду графика функции распределения выдвигается гипотеза о виде

БГ
закона распределения генеральной случайной величины Х. Тогда в качестве ну-
левой гипотезы H 0 будет предположение, что генеральная случайная величина
Х имеет функцию распределения F0 ( x) :
а
H 0 : F ( x)  F0 ( x) .
ек

При альтернативной гипотезе H : F ( x)  F0 ( x) .


3. По выборке x1 , x2 ,..., xn находят точечные оценки параметров теорети-
т

ческой функции распределения F0 ( x) , используя метод моментов или метод


наибольшего правдоподобия.
ио

4. На графике эмпирической функции распределения строится график


теоретической функции распределения F0 ( x) .
5. Путем сравнения графиков вычисляется максимальное значение моду-
бл

ля отклонения значений эмпирической функции распределения от теоретиче-


ской функции распределения F0 ( x) :
F  max F * ( x)  F ( x ) .
x
Би

6. Рассчитывают значение  -критерия Колмогорова:

  F n  max F * ( x)  F ( x ) n . (11.13)
x
7. Задавая уровень значимости  , определяем квантиль   из условия

k 2 k 2 2
P (    )  1   (1) e
k 
 .

141
Отметим, что самостоятельно решать это уравнение не надо, поскольку
составлены таблицы квантилей распределения Колмогорова, из которых по за-
данному уровню значимости  определяем квантиль   .
Сравнивая значение  , рассчитанное по формуле (11.13) с квантилем   ,
делаем следующие выводы:
а) если     , то гипотеза H 0 отклоняется;
б) если     , то гипотеза H 0 принимается, закон распределения под-
тверждается, т. е. действительно генеральная случайная величина Х имеет
функцию распределения F0 ( x) .
Следует отметить, что критерий Колмогорова применяется тогда, когда

Р
полностью известен закон распределения функции распределения F ( x ) и зна-
чения ее параметров. При решении практических задач это не всегда удается

УИ
выполнить. Для этого прибегают к некоторым дополнительным исследованиям:
применяют вероятностные бумаги, строят гистограммы и т. д. Это помогает
правильно подобрать теоретический закон распределения для функции распре-
деления F ( x ) . Но в этом случае неизвестны ее параметры. И если их оценивать

БГ
по этой же выборке, то это может привести к ошибочным выводам в отноше-
нии принятой гипотезы. В этом случае следует использовать другие критерии
согласия, например 2 .
а
Пример.
Проведено 100 измерений расстояния радиодальномером до цели. Ре-
ек

зультаты представлены в виде статистического ряда ([ xi , xi 1[ – границы интер-


валов в [км], mi – число выборочных значений, попавших в i-й интервал).
т

Оценить закон распределения ошибки измерения дальности радиодальномером.

[ xi , xi 1[
ио

[км] mi
  450 0
450 – 500 12
бл

500 – 550 15
550 – 600 14
600 – 650 15
Би

650 – 700 13
700 – 750 16
750 – 800 15
mi
Занесем в таблицу значения относительных частот i  .
n
Анализ значений относительных частот позволяет выдвинуть гипотезу о
равномерном законе распределения. Теоретическая функция распределения для
этого закона имеет вид

142
xa
F0 ( x)  .
ba
Принимаем a = 450, b = 800. Полагая x = xi+1 для каждого интервала, рас-
считываем F0(x) в этих точках и заносим результат в таблицу. Зная mi , рас-
считаем эмпирическую функцию распределения F * ( x ) в точках xi 1 для каждо-
n
го интервала: F * ( x)  x , где nx – число значений xi меньших заданного x,
n
n – объем выборки. Рассчитаем разность:   F * ( x )  F0 ( x ) . Данные заносим в
таблицу.

Р
[ xi , xi 1[ i F0 ( x) F * ( x) 

УИ
[км] mi
  450 0 0 0 0
450 – 500 12 0,12 0,14 0,12 0,02
3 3

БГ
500 – 550 15 0,15 0,28 0,27 0,01
6 6
550 – 600 14 0,14 0,42 0,41 0,01
9 9
а
600 – 650 15 0,15 0,57 0,56 0,01
ек

1 1
650 – 700 13 0,13 0,71 0,69 0,02
4 4
т

700 – 750 16 0,16 0,85 0,85 0,00


7 7
750 – 800 15 0,15 1 1 0
ио

Вычисляем критерий Колмогорова по формуле (11.13), учитывая, что из


таблицы F  max F * ( x)  F ( x ) = 0,024, тогда  = 0,024  n = 0,24. Задавая уро-
бл

x
вень значимости  = 0,05, по таблице квантилей Колмогорова находим кван-
тиль   = 1,358. Поскольку 0,24  1,358, то гипотеза H 0 принимается, т. е. дей-
Би

ствительно генеральная случайная величина Х имеет функцию распределения


F0 ( x) с равномерным законом распределения.

143
ГЛАВА 12. ЛИНЕЙНЫЙ РЕГРЕССИОННЫЙ АНАЛИЗ

12.1. Уравнение линейной регрессии

Регрессия – это оценка зависимости одной случайной величины от другой

Р
случайной величины.
Уравнением регрессии Y на Х называется условное математическое

УИ
ожидание составляющей Y двумерной случайной величины (Х,Y), вычисленное
при условии, что составляющая Х приняла определенное значение X  x :

M Y / X  x    yf ( y / x)dy  ( x) , (12.1)

БГ

f ( x, y )
где f ( y / x )  – условная плотность распределения.
f1 ( x)
Функцию ( x) называют модельной функцией регрессии Y на Х, а ее гра-
а
фик – модельной линией регрессии Y на Х. Уравнение (12.1) называется уравне-
ек

нием регрессии 1-го рода. Функцией ( x) может представляться полином k-ой


степени ( x)    x  x 2  x 3  ... , где , ,  , , ... – коэффициенты уравнения
регрессии.
т

Пусть заданы две генеральные случайные величины Х и Y и выборочные


пары их значений: ( x1; y1 ),( x2 ; y2 ),...( xn ; yn )  . Если эти выборочные значения
ио

нанести на плоскость в декартовой системе координат X,Y, то получим диа-


грамму в виде точек (диаграмму рассеивания), которая называется корреляци-
онным полем.
бл

Пример.
Пусть изучаем зависимость веса человека от его роста для определенной
группы людей. Для этого, например, в группе студентов проводим измерения
Би

веса, пусть это будет случайная величина Y, и роста – случайная величина Х для
каждого студента. Результаты занесли в таблицу в виде выборочных пар их
значений: ( x1; y1 ),( x2 ; y2 ),...( xn ; yn )  и нанесли на плоскость в системе коорди-
нат X,Y. В результате получим корреляционное поле (рис. 12.1). Изобразим на
рисунке предполагаемую теоретическую зависимость между Y и X в виде жир-
ной линии – это и есть модельная линия регрессии Y на Х. Она, допустим, опи-
сывается определенной аналитической зависимостью Y  ( X ) , т. е. модельной
функцией регрессии Y на Х.

144
Y

модельная линия y  ( x )
регрессии

эмпирическая
функция регрессии

X
Рис. 12.1

Р
Аппроксимируем корреляционное поле (см. на рис. 12.1) пунктирной ли-
нией – это будет эмпирическая линия регрессии, которая может описываться

УИ
несколько другой аналитической зависимостью. Понятно, что вид эмпириче-
ской линии регрессии (зависимость веса человека от его роста) зависит от мно-
гих факторов: возраста, национальности, пола и т. д. Сравнение модельной и
эмпирической линий регрессии позволяет выявить справедливость наших тео-
ретических предположений.

БГ
Рассмотрим линейную регрессию. Предположим, что между Х и Y суще-
ствует линейная зависимость: y     x . Допустим, что при любом значении Х
мы можем измерить значение Y с некоторой ошибкой . Тогда выборочное
а
значение yi можно представить в следующем виде:
ек

yi    ( xi  x )  i , (12.2)
где   ( xi  x ) – точная линейная зависимость,
т

i – ошибка.
Будем предполагать, что i , величина ошибки, – это случайная величина
с нормальным законом распределения с M  i   0 и D  i   2 ; обозначим
ио

x  xi  x .
Исходя из выборочных значений можно каким-либо методом найти то-
бл

чечные оценки коэффициентов  и  уравнения регрессии (12.2).


Уравнение, в которое входят оценки ˆ , ˆ , ˆ , ˆ ,... коэффициентов уравне-
ния регрессии , ,  , , ... и которое является приближенным выражением мо-
Би

дельной функции регрессии Y на Х, называется эмпирической функцией рег-


рессии или уравнением регрессии 2-го рода: Y  ˆ  ˆ ( xˆ )  ˆx 2  ˆ x 3 ... .
Сформулируем суть регрессионного анализа.
Регрессионный анализ – это анализ функций регрессий первого и второ-
го рода, состоящий в следующем:
1. Нахождение точечных и интервальных оценок параметров функции регрес-
сии 1-го рода.
2. Осуществление точечного и интервального оценивания условных матема-
тических ожиданий, необходимого для предсказания средних значений од-
145
ной случайной величины, соответствующих определенным фиксированным
значениям другой случайной величины.
3. Проверка согласованности найденной эмпирической функции регрессии с
экспериментальными данными.
Для определения точечных оценок параметров функции регрессии чаще
используется метод наименьших квадратов.

12.2. Метод наименьших квадратов

Метод наименьших квадратов (МНК) позволяет так выбрать пара-

Р
метры ˆ , ˆ , ˆ ... эмпирической функции регрессии, что она будет наилучшей

УИ
оценкой модельной функции регрессии в том смысле, что сумма квадратов от-
клонений наблюдаемых значений переменной Y от соответствующих ординат
эмпирической функции регрессии будет наименьшей.
Параметры ˆ , ˆ , ˆ ... эмпирической функции регрессии у  ˆ  ˆ x  ˆx 2  ...

БГ
находятся методом наименьших квадратов из условия
n n
S      ( yi  ˆ  ˆ xˆ  ˆx 2  ...) 2  min .
2
i (12.3)
i 1 i 1
а
МНК обеспечивает наилучшее согласование теоретической зависимости
ек

( x)    x  x 2  x 3  ... и экспериментальных данных.


Подробнее рассмотрим применение МНК для определения точечных оце-
нок параметров функции регрессии. В результате проведения n опытов получа-
т

ем двумерную выборку ( x1; y1 ),( x2 ; y2 ),...( xn ; yn ) . Пусть эмпирическая функция


регрессии линейна, т. е. y     x, (значок  над коэффициентами ,  опус-
ио

каем для упрощения записи), тогда (12.3) принимает вид


n n
S   i2   ( yi     xi )2  min .
бл

(12.4)
i 1 i 1
Для определения минимума функции S необходимо найти производные
по интересующим нас параметрам, приравнять их к нулю и решить полученные
Би

уравнения. Вычисляем частные производные и приравниваем их к нулю:


n
 S
   2  ( yi     xi )  0,
 i 1
 n
(12.5)
 S
  2 ( y    x ) x  0.
  i 1
i i i

Раскрываем знак суммы:

146
 n n

 yi  n   xi  0,
 i 1 i 1
 n n n
(12.6)
 y x   x   x 2  0.

i 1
i i 
i 1
i i 1
i

n n n n
1 n
Учтем, что  xi   ( xi  x )   xi  nx   xi n  xi  0 .
i 1 i 1 i 1 i 1 n i 1
Тогда из (12.6) получаем точечную оценку коэффициента  :
1 n
ˆ   yi  yi . (12.7)
n i 1

Р
Из второго уравнения (12.6) имеем

УИ
n

n n n  y x i i

 yi xc  ˆ  xi  ˆ  x  0,  ˆ 
2
i
i 1
n
(12.8)
i 1 i 1 i 1
 x 2
i

БГ
i 1
После определения точечных оценок обычно проверяют предположение о
виде эмпирической функции регрессии: линейная она или нелинейная. На прак-
тике условное математическое ожидание M [Y / X ]  ( X ) (или уравнение рег-
рессии 1-го рода) часто считают линейной функцией, т. е. ( x)     x . Это
а
предположение является гипотезой, которая проверяется путем оценки коэф-
ек

фициента корреляции.
Корреляционный анализ – это анализ оценок коэффициента корреляции
  M ( X  mx )(Y  m y )  /  x  y , который позволяет ответить на вопрос, сущест-
т

вует ли линейная функциональная зависимость между математическим ожида-


нием случайной величины X и случайной величины Y. Если ответ положитель-
ио

ный, то метод корреляционного анализа позволяет измерить степень близости


статистической зависимости (т. е. экспериментальных данных) к функциональ-
ной.
бл

12.3. Коэффициент корреляции (оценки)


Би

При изучении курса теории вероятностей в разделе 4.2 мы определили


ковариацию или корреляционный момент

K xy  M ( x  mx )( y  m y )  (12.9)

и коэффициент корреляции
K xy M ( X  mx )(Y  m y ) 
 xy   . (12.10)
 x y  x y

147
Для оценки связи между случайными величинами X и Y применяют то-
чечные оценки Kˆ xy , ˆ xy , которые называются эмпирическим корреляционным
моментом и эмпирическим коэффициентом корреляции:
n
1
Kˆ xy   ( xi  x )( yi  y ) , (12.11)
n i1
1
n
 ( xi  x )( yi  y )
Kˆ xy
.  xy   (12.12)
 x y 1 2 1 2
 ( xi  x ) n  ( yi  y )

Р
n
Найдем связь между точечной оценкой коэффициента  линейного урав-

УИ
нения регрессии (12.2) и оценкой коэффициента корреляции ˆ xy .
Преобразуем Kˆ xy (12.11):
1 1
K€xy   ( xi yi  xi y  xyi  x y )  ( xi yi  y  xi  x  yi   x y ) 

БГ
n n (12.13)
1 1
 ( xi yi  ny x  n x y  nx y )   xi yi  x y  xy  x y .
n n
а
Рассмотрим оценку ̂ (12.8). Преобразуем выражение:
ек

 y x  y ( x  x )   y x  x  y  y x  nx y  ( y x  x y ) 
i i i i i i i i i i i i

1
т

 x y n
 xi yi  nxy  nxy  nx y  n( xy  xy ) .
i i n

Данное выражение определяется через выборочную дисперсию S x2 :


ио

n
1 n
 xi2  n 
n i1
( xi  x )2  nS x2 .
бл

i 1

Тогда оценка ̂ (12.8) определится через K xy ,  xy так:


ˆ ˆ
ˆ  n( xy  x y )  K xy S y  K xy S y  ˆ S y , (12.14)
Би

xy
nS x2 S x2 S y S x S y S x Sx
1 1
где S x2   ( xi  x ) 2 , S y2   ( yi  y )2 – выборочные дисперсии.
n n

Уравнение линейной регрессии (12.2) будет иметь вид


S
yi  ˆ  ˆ xy y xi . (12.15)
Sx

148
Влияние значений коэффициента корреляции  xy на функциональную за-
висимость между X и Y иллюстрирует рис. 12.2.
Y Y
xy =+1
а б
 xy =-1

Р
X X

УИ
между X и Y существует между X и Y существует линейная
линейная положительная отрицательная зависимость
зависимость

БГ
Y Y
xy =0,5  xy =0
г
в
а
ек

X X
т

между X и Y существует X и Y независимы, некоррелированны


положительная вероятностная
ио

зависимость
Рис. 12.2
бл

Чем ближе по модулю коэффициент корреляции к единице, тем точнее


линейная зависимость между случайными величинами Х и Y, (тем ближе к ли-
нии регрессии располагаются точки на диаграмме рассеивания). Чем ближе ˆ xy
Би

к нулю, тем слабее эта зависимость. Говорят, что при ˆ xy  0 (см. рис. 12.2, а, в)
между X и Y существует положительная корреляция. При ˆ xy < 0 (см. рис. 12.2, б)
между X и Y существует отрицательная корреляция. При ˆ xy = 0 (см. рис. 12.2, г)
X и Y некоррелированны.
Поскольку коэффициент корреляции ˆ xy характеризует степень линейной
зависимости, то при ˆ xy = 0 может оказаться, что между Х и Y существует нели-
нейная связь.

149
12.4. Построение доверительных интервалов для коэффициентов
уравнения регрессии

Доверительные интервалы для коэффициентов уравнения регрессии по-


зволяют для заданной доверительной вероятности p  1   выяснить, насколь-
ко сильно могут отклоняться коэффициенты эмпирической функции регрессии
от соответствующих коэффициентов модельной функции регрессии. Это позво-
лит оценить точность определения коэффициентов уравнения регрессии, кор-
ректировать объемы выборки для проведения теоретических исследований.
В разделе 12.2 были определены точечные оценки коэффициентов урав-
нения регрессии по выборочным данным:

Р
n

 y x

УИ
i i

1 n 
   yi ,  i 1
n
. (12.16)
n i1
 x
i 1
2
i

БГ
 
Вычислим дисперсии точечных оценок  и  , т. е. определим рассеива-
 
ние случайной величины Y относительно линии регрессии   x . Ранее мы по-
ложили (см. раздел 12.1), что i – величина ошибки, которая распределена по
а
нормальному закону M [i ]  0 и D[i ]  2 ; (i  yi     xi , xi  xi  x ) . По-
ек

лагая, что дисперсия Y постоянная и не зависит от Х, можно xi рассматривать в


последующих преобразованиях как постоянную величину. Тогда
т

 1 n 1 n 1 n
D[ ]  D[  yi ]  D[  (   xi  i )]  2  D[(  xi  i )] 

n i1 n i 1 n i1
(12.17)
ио

1 n 2
 2  D  i   .
n i 1 n
n n n n

 y x  D[ y x ]  x D[ y ]  x D[ y ] 2 2
бл

 i i i i i i i i
D[]  D[ i 1n ] i 1
n
 i 1
n
 i 1
n

 x 2
i ( x ) 2 2
i ( x ) 2 2
i ( x ) 2 2
i
Би

i 1 i 1 i 1 i 1
n n n

 x D[ ]  x 
i 1
2
i i
i 1
2 2
i  2  x i2
i 1 2
 n
 n
 n
 n
. (12.18)
( x ) 2 2
i ( x ) i
2 2
( x ) 2 2
i  x 2
i
i 1 i 1 i 1 i 1

150
Заменяя дисперсию 2 на оценку S 2 , определяемую как
1 n 1 n 2 nS 2
S   ( yi     xi )   i , можно показать, что величина 2 имеет за-
2 2

n i 1 n i1 
2
кон распределения  с (n – 2) степенями свободы.
Для получения доверительного интервала для коэффициента  возьмем
разность между точечной оценкой ̂ и коэффициентом  : ̂   . Нормируем
ее, разделим на D[ˆ ] и обозначим как V:
ˆ  
V (12.19)
D[ˆ ]

Р
Аналогично для коэффициента  :

УИ
ˆ  
W (12.20)
D[ˆ ]
Подставляя в (12.19), (12.20) выражения (12.17), (12.18) и разделив (12.19),

БГ
nS 2
(12.20) на /(n  2) , получим
2
 
   
а
/ n  /  xi2
V , W . (12.21)
ек

nS 2 nS 2
/(n  2) /(n  2)
2 2
Эти случайные величины имеют закон распределения Стьюдента с
т

 = n – 2 степенями свободы.
Зная закон распределения случайной величины V (плотность распределе-
ио

ния f(v) закона распределения Стьюдента), можно найти вероятность ее попа-


дания в интервал ]  V p ,  Vp [ :
бл

Vp

P (V p  V  V p )   f (V )dV  p  1   . (12.22)


V p
Би

Из условия (12.22) для заданной доверительной вероятности p  1   и


числа степеней свободы  = n – 2 по таблицам распределения Стьюдента нахо-
дим квантили V p  t / 2, n2 . Считая V p известными и подставляя вместо V выра-
жение (12.21) в правую часть выражения (12.22), получим неравенство

 
V p   Vp .
S 1 (n  2)

151
Решая неравенство относительно  , находим доверительный интервал
для коэффициента  :
 S  S
 V p     V p . (12.23)
n2 n2
Аналогично поступим для случайной величины W , записывая условие
Wp

P (Wp  W  W p )   f (W )dW  p  1   . (12.24)


W p

Определяя квантили W p по таблицам распределения Стьюдента, решаем

Р
неравенство в правой части (12.24):

УИ

  n2
Wp   Wp . (12.25)
S 1  xi2 n

БГ
Из (12.25) получаем доверительный интервал для коэффициента  :

S n2 
S n2
 W p     W p . (12.26)
 xi2 n  xi2 n
а
ек
т
ио
бл
Би

152
ЧАСТЬ 3. СЛУЧАЙНЫЕ ПРОЦЕССЫ

Р
ГЛАВА 13. ЭЛЕМЕНТЫ ТЕОРИИ СЛУЧАЙНЫХ ПРОЦЕССОВ

УИ
БГ
13.1. Основные понятия

Пусть задано вероятностное пространство (, F , P) , где  – пространст-


во элементарных событий, F –  -алгебра событий, Р – вероятностная мера.
а
Рассмотрим функцию (t , ) двух аргументов, где  элемент  и t – свобод-
ный аргумент, обычно время.
ек

Случайным процессом называется случайная величина (t , ) , заданная


на вероятностном пространстве (, F , P) . Так как параметр t интерпретиру-
т

ется как время, то если t = (0,1,2,…), то говорят что (t , ) – процесс с дис-
кретным временем; если t  [0;T ] , то (t , ) – процесс с непрерывным временем.
ио

Пусть  приняло какое-то конкретное значение 1 . Тогда x (t )  (t , 1 )


будет функцией только аргумента t и называется реализацией случайного
процесса. Другими словами, реализация – это тот вид, который принимает слу-
бл

чайный процесс в результате какого-то конкретного опыта (рис. 13.1). В каж-


дом опыте наблюдается своя реализация x(t) случайного процесса (СП). Сово-
купность реализаций {x(t)} носит название ансамбля. Значение случайного про-
цесса в некоторый момент времени t называется отсчетом.
Би

Рассмотрим отсчет x1 случайного процесса х(t) в момент времени t1:


x1 = x(t1), (см. рис. 13.1).

153
 (t ,  )

x(t)

x(t1)

t1 t

Р
Рис. 13.1

УИ
Если нас интересует только х1, то это будет одномерная случайная вели-
чина, свойства которой полностью описываются одномерной плотностью рас-
пределений f1(x1;t1). Отметим, что в отличие от теории вероятностей f1(x1;t1) за-

БГ
висит не только от х1, но и от t1. Одномерная плотность распределения f1(x1;t1)
дает некоторое представление о свойствах случайного процесса, но не полное.
Более подробное представление о случайном процессе получается, если рас-
сматривать два отсчета х1 и х2, берущихся в моменты времени t1 и t2: x1 = x(t1),
а
x2 = x(t2). И характеризовать их двумерной плотностью распределения:
f2(x1,x2;t1,t2). Тогда n-мерная плотность распределения запишется так:
ек

fn(x1,x2,…,xn; t1,t2,…,tn). (13.1)


т

Чем больше берется отсчетов и чем ближе они расположены друг к другу,
тем подробнее описывается случайный процесс.
В пределе, когда n   , max(ti1  ti )  0 , мы получаем совершенно точ-
ио

ное представление о свойствах случайного процесса, т. е. случайный процесс


описывается полностью, если задать все fn для всех n и всех t1,t2,…,tn.
бл

13.2. Числовые характеристики случайного процесса


Би

При экспериментальном получении случайного процесса можно сравни-


тельно легко указать f1(x1;t1), трудно узнать f2(x1,x2;t1,t2), а измерить плотность
распределения более высокого порядка практически невозможно. Поэтому на
практике ограничиваются изучением некоторых характеристик случайного
процесса, менее полных, но все же дающих представление об его основных
свойствах.
Математическое ожидание случайного процесса (среднее по ансамблю)
вводится следующим образом:

154

m(t )  M [ x(t )]   xf ( x; t )dx .
1 (13.2)

В отличие от теории вероятностей m(t) не число, а функция от времени.
Оно дает некоторую кривую, около которой группируются все реализации слу-
чайного процесса (рис. 13.2).
x(t)
m(t)

Р
УИ
t

Рис. 13.2

БГ
Дисперсия случайного процесса (средняя по ансамблю):

2
D (t )  D[ x(t )]   ( x  m(t )) f1 ( x; t )dx . (13.3)

а
Дисперсия определяет, насколько сильно отдельные реализации могут
отклоняться от математического ожидания. В отличие от теории вероятностей
ек

это также не число, а функция времени.


Функция корреляции случайного процесса (средняя по ансамблю):
т

 
R (t1 , t2 )  M [ x(t1 ), x (t2 )]   xx f ( x1 , x2 ; t1 , t 2 )dx1dx2 .
1 2 2 (13.4)
 
ио

Эта функция является важнейшей характеристикой случайного процесса.


Функция корреляции характеризует степень зависимости между отсчетами слу-
чайного процесса, взятыми в разные моменты времени.
бл

Наряду с R(t1,t2) употребляется еще одна функция корреляции – это функ-


ция корреляции флуктуаций:
Би

R0 (t1 , t 2 )   ( x1  m(t1 ))( x2  m(t2 )) f 2 ( x1 , x2 ; t1 , t2 )dx1dx2 . (13.5)

И нормированная функция корреляции:


R0 (t1 , t2 )
(t1 , t2 )  . (13.6)
D (t1 ) D(t 2 )
Последняя ничем по смыслу не отличается от коэффициента корреляции
и определяет степень линейной зависимости отсчетов случайного процесса в
моменты времени t1 и t2.
155
13.3. Стационарные случайные процессы

Случайный процесс называется стационарным в узком смысле, если для


любых  и любых целых n имеет место равенство
f n ( x1 ,..., xn ; t1 ,..., tn )  f n ( x1 ,..., xn ; t1  ,..., tn  ) . (13.7)

Смысл определения в следующем.


В левой части равенства стоят отсчеты, берущиеся в моменты времени
t1 , t2 ,..., tn , и плотность распределений fn(x1,…,xn;t1,…tn) полностью описывает
свойства случайного процесса в моменты времени t1 , t2 ,..., tn . В правой части ра-

Р
венства стоят отсчеты, берущиеся в моменты времени t1  , t2  ,..., tn   , и со-
ответствующая плотность распределений f n ( x1 ,..., xn ; t1  ,..., tn  ) описывает

УИ
свойства случайного процесса в эти сдвинутые моменты времени. Равенство
этих плотностей распределений означает, что свойства случайного процесса
одинаковы как в моменты времени t1 , t2 ,..., tn , так и в моменты времени

БГ
t1  , t2  ,..., tn   . Таким образом, стационарность в узком смысле означает,
что все свойства, характеристики и т. п. случайного процесса не зависят от
начала отсчета времени. Грубо говоря, какими свойствами обладает случай-
ный процесс сегодня, такие же свойства он имел год тому назад и такие же
а
свойства он будет иметь через 1000 лет. Но реально это несколько не так. Все
меняется, но нас интересуют отрезки времени, малые по сравнению со време-
ек

нем существования самого процесса.


Следствия стационарности.
1. Предположим в (13.7) n = 1, получим
т

f1 ( x1; t1 )  f1 ( x1; t1  ) .
Поскольку  произвольно, то полагая   t1 , получим:
ио

f1 ( x1; t1 )  f1 ( x1;0)  f1 ( x1 ) .
Поэтому
 
бл

m(t1 )   x f ( x ; t )dx   x f ( x ;0)dx


1 1 1 1 1 1 1 1 1  m(0)  m ,
 
 
2
D (t1 )   ( x  m) f1 ( x1; t1 )dx1   (x  m) 2 f1 ( x1;0)dx1  D (0)  D .
Би

1 1
 
Отметим, что у стационарных случайных процессов математическое
ожидание, дисперсия и плотность распределения от времени не зависят (m и
D – числа, плотность распределения f1(x1) – функция только от х1).
2. Полагая в (13.7) n = 2 и   t1 получим
f 2 ( x1 , x2 ; t1 , t2 )  f n ( x1 , x2 ;0, t 2  t1 ) .
Тогда функция корреляции принимает вид

156
R (t1 , t2 )   x1 x2 f 2 ( x1 , x2 ; t1 , t2 )dx1dx2 

  x1 x2 f 2 ( x1 , x2 ;0, t2  t1 )dx1dx2  R (t1  t1 )  R().

Видим, что у стационарных случайных процессов функция корреляции


зависит лишь от разности t1 – t2 моментов времени, т. е. является функцией од-
ного аргумента.
Случайный процесс называется стационарным в широком смысле, если
его математическое ожидание и дисперсия от времени не зависят, а функция
корреляции зависит лишь от разности моментов времени t1 – t2.

Р
На рис. 13.3 показан вид стационарного случайного процесса.

УИ
x(t)

БГ
а
t
ек

Рис. 13.3
т

13.4. Числовые характеристики случайного процесса – средние по времени


ио

Ранее мы рассмотрели числовые характеристики случайного процесса,


средние по ансамблю, общий вид которых
бл

усредненная
 среднее по ансамблю   f n ( x1 ,..., xn ; t1 ,..., tn )dx1...dxn . (13.8)
величина
Би

Они называются средними по ансамблю потому, что фиксируются мо-


менты времени t1,t2,…,tn и перебираются все возможные значения {xi(t)}, т. е.
весь ансамбль реализаций случайного процесса, на рис. 13.4 жирной линией
изображены кривые плотностей распределений f(xi(t1);t1) и f(xi(t2);t2) в моменты
времени t1,t2).

157
x(t)

t1 t2 t

Р
Рис. 13.4

УИ
Для стационарных случайных процессов кроме средних по ансамблю
можно ввести еще так называемые средние по времени. В общем виде среднее
по времени представляет собой:

 среднее по времени   lim


1
T  2T
T

БГ
  усредненная
T
величина  dt . (13.9)
а
Характерным для средних по времени является то, что фиксируются
реализации, а «перебираются» все моменты времени. В средних по времени
ек

характерно также отсутствие плотности распределения f n ( x1 ,..., xn ; t1 ,..., tn ) , т. к.


для стационарных процессов все моменты времени равноправны.
Тогда числовые характеристики средние по времени определяются так:
т

1. Математическое ожидание случайного процесса среднее по времени:


T
1
ио

m  lim x(t )dt . (13.10)


T  2T 
T
2. Дисперсия случайного процесса средняя по времени:
бл

T
 1
D  lim  ( x (t )  m ) 2 dt . (13.11)
T  2T
T
3. Функция корреляции, средняя по времени (в ней фигурирует произве-
Би

дение значений случайного процесса в два различных момента времени t1 и


t2 = t1   ). Учитывая, что усредненная величина имеет вид x (t ) x (t  ) , получим
T
1
R ()  lim  x(t ) x(t  )dt . (13.12)
T  2T
T

158
13.5. Свойства функций корреляции случайного процесса

1. Функция корреляции является симметричной функцией:


R (t1 , t2 )  R (t2 , t1 ),
R (t1 , t2 )  M [ x(t1 ) x(t2 )]  M [ x(t2 ) x(t1 )]  R(t 2 , t1 ).
Для стационарного случайного процесса – четная функция:
R ()  R(t 2  t1 )  R (t1  t 2 )  R() .
2. Функция корреляции – ограниченная функция. Воспользуемся неравен-
ством Шварца (неравенство Коши-Буняковского):

Р
M [U 2 ]M [V 2 ]  M 2 [UV ] . (13.13)

УИ
Обозначим отсчеты x (t1 ), x(t2 ) , как U  x(t1 ), V  x(t2 ) , и подставим в
(13.13):
M [ x 2 (t1 )]M [ x 2 (t2 )]  M 2 [ x (t1 ) x (t2 )] .
С учетом определения (13.4), получаем

Тогда
БГ
R (t1 , t1 ) R (t2 , t2 )  R 2 (t1 , t2 ) .
а
| R(t1 , t2 ) | R(t1 , t1 ) R(t2 , t2 ) .
ек

Когда R (t1 , t1 )  R(t 2  t1 ) , получаем:


| R () | R(0) .
т

3. Для стационарного случайного процесса дисперсия и математическое


ожидание могут быть получены через функцию корреляции:
ио

при ф , т. е. когда интервал времени


t 2  t1 между отсчетами неограниченно
lim R()  M [ x (t ) x(t  )]  
бл

 увеличивается, то отсчеты становятся


независимыми, учтем : M  x(t )  = m(0) = m
Би

 M [ x(t )]M [ x(t  )]  m 2 .


Откуда следует, что
m 2  R ( ) .
Найдем дисперсию:
M [ x(t ) x(t  )  R ()]
D  M [ x 2 (t )]  M 2 [ x(t )]  R (0)  M [ x 2 (t )]  R(0)  R ().
M 2 [ x(t )]  m 2  R ()

159
Если рассматривать функцию корреляции флуктуаций (13.5), то
D  R0 (0) , т. к. R0 ()  M  x(t )  m  M  x(t )  m   0 .
4. Функция корреляции является положительно определенной функцией.
Рассмотрим моменты времени t1,…,tn и произвольные величины 1 ,..., n , по-
скольку:
n n n
2
M [{ i x(ti )} ]  0,  M [ x(ti )i  j ]  0 ,
i 1 i 1 j 1

вычисляя математическое ожидание, получим


n

 R(t , t ) 
i j 1 2  0.

Р
i , j 1

Следствие: для любой положительно определенной функции R(t1,t2)

УИ
можно построить такой случайный процесс, для которого R(t1,t2) будет функци-
ей корреляции.
5. Время корреляции для стационарного случайного процесса определя-

БГ
ется как

1
K  | R0 () | d  . (13.14)
R0 (0) 0
а
Время корреляции определяет, насколько далеко по времени наблюдается
ек

корреляционная связь между отсчетами в случайном процессе.


6. При изучении реальных случайных процессов для R0 () используют
следующие аппроксимации:
т



а) R0 ()  D  e .0 R0 ()


ио

Зависимость R0 () приведена D


на рис. 13.5.
бл


Рис. 13.5
Би



б) 0
R0 ()  D  e cos  . R0 ()
Зависимость R0 () приведена D
на рис. 13.6.


Рис. 13.6

160
 2 2
02 02
в) R0 ()  D  e . г) R0 ()  D  e cos  .

13.6. Эргодические случайные процессы

Случайный процесс называется эргодическим, если для него временные


средние с вероятностью, равной 1, совпадают с соответствующими средними
по ансамблю:
R()  R (), D  D .

Р
m  m ,

УИ
Эргодическим может быть только стационарный случайный процесс, но
не всякий стационарный случайный процесс может быть эргодичен. Эргодич-
ность имеет большое значение: она позволяет заменить изучение ансамбля реа-
лизаций изучением одной длинной реализации, т. к. каждая реализация (у эрго-

БГ
дического случайного процесса) с вероятностью 1 имеет те же характеристики,
что и весь ансамбль.
а
13.7. Спектр мощности случайного процесса
ек

Из курса математического анализа известно, что любая достаточно гладкая



2
функция, квадрат которой интегрируем  x (t )dt , меньшая +∞, может быть пред-
т


ставлена в виде интеграла Фурье (прямое и обратное преобразование Фурье):
ио


it
x (t )   X ()e d , (13.15)


бл

1
X ()   x(t )e it dt , (13.16)
2 

где X () – спектр функции x(t ) , причем


Би

X () – амплитудный спектр и


arg X () – фазовый спектр функции x(t ) .

2
Для стационарного случайного процесса  x (t )dt = ∞, поэтому преобра-

зование Фурье можно ввести так: определим урезанный случайный процесс
xT (t ) :

161
 x (t ) | t | T ,
xT (t ) = 
0 | t | T .
 T
2 2
Тогда  x (t )dt   x (t )dt

T
T
  , и для процесса xT (t ) можно написать

разложение в интеграл Фурье:



xT (t )  X T ()eit d  , (13.17)


Р
1
X T ()   xT (t )e it dt . (13.18)
2 

УИ
T
1
Рассмотрим величину lim  x 2 (t )dt  W . В большинстве физических
T  T
T
T

БГ
2
формул  x (t )dt
T
– величина пропорциональна энергии случайного процесса на

интервале [–T;T], а величина W имеет смысл средней мощности случайного


процесса.
а
T 
1 в общем случае случайный процесс 1
ек

W  lim  x 2 (t )dt   lim  xT (t ) xT* (t )dt 


T  T
T
x (t )  комплексная величина T  T


x* (t )  сопряженная 1
 lim    X T (1 ) X T* (2 )ei ( 1 2 ) t d 1d 2 dt 
т


комплексная величина T  T 
ио


1
= учтем, что  eit ( 1 2 )t dt  (1  2 ) –  -функция Дирака,
2 
бл


ее свойство:  f (1 )(1  2 )d 1d 2  f (2 ) =

Би

 
2
= lim   X T (1 ) X T* (2 )(1  2 )d 1d 2 
T  2T
 
  2
2 * X T () 2
= lim X ( ) X ( ) d    T  2T d .
lim (13.19)
T  2T 
T T
 

| X T () |2 2 
Обозначим S ()  lim – эта функция называется спектром
T  2T
мощности случайного процесса.
162
Тогда запишем среднюю мощность так:

W  S ()d  , (13.20)


где S ()d  – мощность, выделяемая случайным процессом в полосе частот


[ ,   d  ].
Спектр мощности не является независимой характеристикой случайного
процесса. Спектр мощности S () можно связать с функцией корреляции R () ,
эту связь определяет следующая теорема, изложенная в разделе 13.8.

Р
УИ
13.8. Теорема Винера-Хинчина

Эта теорема устанавливает связь между спектром мощности и функцией


корреляции. Запишем функцию корреляции (13.12) через урезанный случайный

БГ
процесс:

1
R ()  lim  xT (t ) xT* (t  )dt  в общем случае случайный процесс x(t) –
T  T

а
комплексная величина, поэтому запишем R () в виде комплексно сопряженных
ек


величин, используя (13.17): xT (t ) =  X T (1 )ei1t d 1 , и учтем сопряженную вели-

т


* *
чину x (t ) 
T X T (2 )e i2t d 2 =
ио




1
= lim    ei1t i2 ( t ) X T (1 ) X T* (2 )d 1d 2 dt 
бл

T  T

=| используем свойство  -функции |=
 
i 1
 e lim  X T (1 ) X T* (2 )2(1  2 )d 1d 2 
Би


2T  
T

 
i 1 | X T () |2 2 i
=e lim d   S ()e d . (13.21)

2T T  2T 

Таким образом, видим, что функция корреляции является прямым преоб-


разованием Фурье от спектра мощности S () :

i
R ()   S ()e d . (13.22)


163
Тогда спектр мощности определится через обратное преобразование Фурье:

1
S ()   R ()e i d  . (13.23)
2 
Запишем спектр мощности через тригонометрические функции, исполь-
зуя формулу Эйлера: e i  cos   i sin  .
 
1 i
S ()   R ()cos d    R()sin d  . (13.24)
2  2 
Последний интеграл в (13.24) равен нулю, т. к. R () четная функция. Тогда

Р

1
S ()   R()cos d  . (13.25)

УИ
2 
Отсюда следует, что спектр мощности S () также четная функция. С
учетом выше сказанного перепишем функцию корреляции (13.22):

БГ

R ()   S ()cos d  . (13.26)

В формулы (13.25), (13.26) входит круговая частота   2f , где f – ли-
а
нейная частота. Перепишем эти формулы через линейную частоту, вводя обо-
значения S ()d   S ( f )df , S ( f )  2S (2f ) . Тогда
ек


R ()   S ( f )cos(2f )df , (13.27)
т



S(f )  R()cos(2f )d  . (13.28)
ио


В этих формулах фигурируют отрицательные частоты от –∞ до 0, т. к. они
ничем не отличаются от положительных, то часто рассматривают только час-
тотный интервал [0;+∞]и определяют S () ( для  ) так:
бл

[| X T () |2  | X T () |2 ]2 [| X T () |2 ]2


S ()  lim  2 lim  2 S () . (13.29)
T  2T T  2T
Би

где S () – только для +ω.


В (13.29) мощность отрицательных частот прибавили к мощности поло-
жительных, тогда
  
R ()   S ()cos()d   2 S ()cos()d  4 S ()cos()d  .
 0 0
(13.30)

1
S ()  R()cos()d  . (13.31)
2 0
164
Если вместо R(τ) взять функцию корреляции флуктуаций, то получится
спектр мощности флуктуаций:

1
S 0 ()  R0 ()cos()d  , (13.32)
2 0

R0 ()  4  S0 ()cos()d  . (13.33)
0

13.9. Соотношение неопределенности для стационарных

Р
случайных процессов

УИ
Шириной спектра случайного процесса называется величина

из (13.33) при   0
 
1 R0 (0)

БГ
  | S0 () | d   R0 (0)  4  S 0 ()d , отсюда  . (13.34)
S0 (0) 0 0
4 S0 (0)

R0 (0)
 S ()d  
0
4
а
0
ек

Время корреляции

 
из (13.32) при   0
т

1 1  2S0 (0)
0   | R0 () | d    R0 ()d   1  . (13.35)
S0 (0)  R (  ) d 
2 0
R0 (0) 0 R0 (0) 0 0 R0 (0)
ио

Умножая (13.34) на (13.35) получаем



  k  .
бл

2

Подставляя в  круговую частоту, получим 2   f  k  и окончательно
2
Би

1
f   k  . (13.36)
4

13.10. Разложение случайного процесса в ряд Котельникова

Пусть R (t1 , t 2 ) – функция корреляции случайного процесса x(t). Учитывая,


что   t2  t1 и t2  t1   , можно записать R (t1 , t1  ) . Здесь функция корреляции
зависит от момента времени t1 и  , поэтому запишем функцию корреляции как

165
функцию двух аргументов R (, t ) . Тогда на основании теоремы Винера-
Хинчина можно записать

 1
 S (, t )   R(, t )e i d 
 2 
 
 R(, t )  S (, t )ei d  (13.37)





Теорема: Если S (, t )  0 для всех  при |  |>  , то имеет место разло-
жение

Р
n
k sin(t  k )
x (t )  lim  x ( ) , (13.38)

УИ
n 
k  n  t  k
k k
где x( ) – отсчет случайного процесса в момент времени .
 
На рис. 13.7 показана заштрихованная область частот, для которой спектр

БГ
мощности S (, t ) = 0.

-  
а
Рис. 13.7
ек

Доказательство:
Предположим, что спектр мощности является периодической функцией с
т

периодом 2 . Тогда спектр мощности можно представить в виде ряда Фурье:



 i 2 k 2
S (, )   Ck e . (13.39)
ио

k 
Коэффициенты С k определяются как
бл

 
из (13.37) получим
1 i 2 k

Ck   S (, t )e 2  d   k 
2  R(, t )   S (, t )ei d , обозначим  

Би



1 k
 R( , t ) .
2 
Подставим Ck в (13.39):
1  k  i 2 k 2
S (, t )   R
2 k  
( , t ) e .

Определим функцию корреляции, используя (13.37):

166
   
i1 k  i 2 k  i
R (, t )   S (, t )e d     R( , t )e 2
d 
  k  2  2

k 
1  k i(  )
  R( , t )  e  d  
2 k  2 

 k k
i( 

) 1 i( 

) учтем, что
  e d  e  
k ei  cos   i sin 
 i(  )

Р
 

УИ

2 k sin(  k )
  sin(  k )   R ( , t )  .
k    k
 k 

Поскольку функция корреляции симметрична, то можно записать

R (, t ) 

k  l 

  R(  ,  )   k БГ
k l sin(  k ) sin(t  l )
t  l
. (13.40)
а
Докажем основное положение теоремы. Используем следующее опреде-
ек

ление сходимости: Последовательность случайных величин X n , n  1,  схо-


дится к случайной величине Х в среднем квадратическом, если
т

lim M [( X n  X )2 ]  0 . Это определение заложено в основу метода наименьших


n 
квадратов.
ио

Используя (13.38), можно записать


2
 n
k sin(t  k )  
lim  n  lim M   x (t )   x( )  
бл

n  n 
  k  n  t  k  

n
  k sin(t  k ) 
 lim  M  x(t ) 2   2 M  x(t )   x( ) 
Би

n
  k  n  t  k 
   k l sin(  k ) sin(t  l )  
 M    x( ) x( ) 
 k  l      k t  l  

= учитывая, что M  x(t ) x (t )   R(t , t ) , а также (13.38), (13.40) получим =

= lim R(t , t )  2 R(t , t )  R (t , t )  0 ,


n 

что и является доказательством нашей теоремы.


167
13.11. Классификация случайных процессов

Ранее, в разделе 13.1 мы отмечали, что все случайные процессы делятся


на два основных класса: процессы с дискретным временем и процессы с непре-
рывным временем. После описания вероятностных характеристик случайного
процесса, в частности n-мерной плотности распределения (раздел 13.1), мы да-
лее ввели следующее разделение случайных процессов с учетом ограничений
их вероятностных характеристик: стационарные в узком смысле и стационар-
ные в широком смысле (раздел 13.3). Затем для стационарных случайных про-
цессов в узком смысле мы ввели понятие эргодических случайных процессов
(раздел 13.6). Далее мы рассмотрели энергетические характеристики случайных

Р
процессов, в частности спектр мощности случайного процесса (раздел 13.7).
Иногда стационарные случайные процессы классифицируют по спектральным

УИ
характеристикам: различают стационарные случайные процессы в широком
смысле – узкополосные, когда спектр мощности сосредоточен в узкой полосе
частот возле определенной фиксированной частоты 0 . В разделе 13.9 мы вве-

БГ
ли понятие ширины спектра  : если   0 , то стационарный случайный
процесс будет называться узкополосным. На рис. 13.8 изображен узкополосный
спектр мощности S () случайного процесса. На рис. 13.9 функция корреляции
R () узкополосного случайного процесса.
а
S () R ()
ек

  0
т

 
ио

0
2  / 0
бл

Рис. 13.8 Рис. 13.9

Из рис. 13.9 видим, что функция корреляции узкополосного случайного


процесса – это быстро осциллирующая функция с частотой 0 , но с медленно
Би

меняющейся огибающей. Ширина спектра  и время корреляции определя-


ются правыми частями формул (13.34) и (13.35).
Следующим классом будут стационарные в широком смысле случайные
процессы – широкополосные. Здесь спектр мощности сохраняет постоянное
значение W0 на всех частотах (рис. 13.10):

S () = W0 ,      . (13.41)

168
Тогда стационарный в широком смысле случайный процесс с равномер-
ным спектром мощности на всех частотах называется белым шумом. Функ-
ция корреляции белого шума представляет собой  -функцию, расположенную
в начале координат, (рис. 13.11):
R ()  ()W0 . (13.42)

R ()
S ()
()

Р
W0

УИ

0 0 
Рис. 13.10 Рис. 13.11

БГ
Для белого шума характерно то, что два его отсчета, взятые в сколь угод-
но близкие моменты времени, некоррелированы. Однако на практике белый
шум реализовать невозможно, т. к. полная мощность белого шума бесконечна, а
а
реальные случайные процессы имеют конечную мощность. И для реального
случайного процесса рядом стоящие отсчеты коррелированы. Поэтому белый
ек

шум используют в качестве математической модели случайного процесса, что


позволяет упростить анализ прохождения через линейные радиотехнические
устройства с конечной полосой пропускания. Отметим, что любой случайный
т

процесс, у которого спектр мощности сохраняет постоянное значение в некото-


рой полосе частот, может рассматриваться как белый шум. Но таких случайных
ио

процессов в природе не существует. Тем не менее такая модель случайного


процесса оказывается удобной для анализа различных радиотехнических
систем.
бл

Еще одной моделью случайных процессов, которая находит широкое


применение в приложениях теории случайных процессов, являются марковские
случайные процессы.
Би

169
13.12. Марковские случайные процессы

Марковские случайные процессы делятся на четыре основных типа в


зависимости от того, какое множество значений (дискретное или непрерывное)
принимает случайный процесс X(t) и его параметр t в области задания процесса
[0,T]: марковские цепи (дискретный процесс с дискретным временем),
марковские последовательности (непрерывный процесс с дискретным
временем), дискретный марковский процесс (дискретный процесс с
непрерывным временем), непрерывнозначный марковский процесс
(непрерывный процесс с непрерывным временем). Ниже в таблице приведены
временные реализации для этих процессов.

Р
Таблица

УИ
Значения Значения процессов
аргумента t
Дискретный Непрерывный

Дискретные
БГ
а
Марковская последо-
ек

вательность
Цепь Маркова
т
ио

Непрерывные
Дискретный марковский процесс Непрерывнозначный
бл

марковский процесс
Би

Марковскими процессами называются такие, в которых будущее не


зависит от прошлого, а определяется только настоящим.
Цепи Маркова
Пусть некоторая физическая система может находиться в состояниях
A1, A2 ,..., Ai ,... и переходить случайным образом из состояния в состояние в
фиксированные моменты времени t1, t2 ,...t s ,... . Эволюция системы образует
дискретную цепь Маркова с дискретным временем, если выполняется следующее
170
условие (13.43) (условная вероятность в состоянии A j в момент времени tl опре-
деляется при условии, что в момент tl 1 система была в состоянии Ai ):

P ( AJ (tl ) | Ai (tl 1 ), Ai1 (tl  2 ), Ai 2 (tl 3 ),..., Aik (t1))  P( A j (tl ) | Ai (tl 1)) . (13.43)

Дискретной цепью Маркова называется такой случайный процесс, в


котором вероятность того, что система окажется в некотором состоянии
A j в момент времени tl , зависит лишь от того, в каком состоянии находилась
система в предыдущий момент времени tl 1 , и не зависит от эволюции систе-
мы до момента времени tl 1 .

Р
Можно отметить, что в цепях Маркова зависимость между состояниями
простирается лишь на один шаг назад.

УИ
Введем понятие переходной вероятности – это вероятность перехода
системы из одного состояния в другое:
Pij (tl , tl 1 )  P ( AJ (tl ) | Ai (tl 1 )) . (13.44)

БГ
Если Pij со временем не меняется, т. е. от tl 1 не зависит, то цепь Маркова
называют однородной. Рассмотрим свойства таких цепей. Переходные вероят-
ности однородной цепи Маркова образуют матрицу переходных вероятностей.
а
P11 P12 ... P1 j ... P1n
ек

P21 P22 ... P2 j ... P2 n


P ... ... ... ...
. (13.45)
Pi1 Pi 2 ... Pij ... Pin
т

Pn1 Pn 2 ... Pnj ... Pnn


ио

Свойства матрицы переходных вероятностей:


1. Pij  0 ,
бл

N
2. Сумма по строке –  Pij  1 , (i=1, N ), N – количество состояний.
j 1
Би

Матрицы, удовлетворяющие этим свойствам, называются


стохастическими. Величины Pij дают вероятности перехода из состояния Ai в
состояние A j за один шаг. Заметим, что здесь Pii – вероятность того, что сис-
тема, перешедшая к данному шагу в состоянии Ai , в нем же и задерживается на
очередном шаге.
Вероятность перехода за n шагов. Рассмотрим вероятность перехода из
состояния Ai , которое реализовано в s-м испытании, в состояние A j за n шагов,
т. е. в состояние A j в (s+n)-м испытании. Эта вероятность зависит только от n

171
(и не зависит от s). Обозначим ее Pij n . Тогда Pik m – вероятность перехода за m
шагов из состояния A j в состояние Ak и Pkj n  m – вероятность перехода за n-m
шагов из состояния Ak в A j (рис. 13.12). Используя формулу полной
вероятности и учитывая, что промежуточные состояния A1, A2 ,... An в (s+m)-м
испытании образуют полную группу попарно несовместимых событий, получим
N
Pijn   Pikm Pkjn  m . (13.46)
k 1

Р
Ak

УИ
Aj
Ai

m шагов БГ
n-m шагов
а
Рис. 13.12
ек

Формула Маркова для цепей


т

Обозначим через  n матрицу, составленную из вероятностей Pij n ; i,


ио

j =1, n ; таким образом,  n – матрица перехода через n испытаний. Используя


формулу для перемножения квадратных матриц (13.46),  n можно записать в
матричном виде:
бл

 n   m n  m , m =1, n  1 . (13.47)
Применяя последовательно формулу (13.47), получим
 n = 1 n 1  12 n  2  ...  1n .
Би

Можно ожидать, что при переходах в n шагов влияние начального рас-


пределения с ростом n должно ослабевать в том смысле, что Pij n  Pj при
n   независимо от i. То есть если существует предел lim Pij n = Pj , то это
n
свойство цепей Маркова называется эргодичностью.
Пусть Pj k – вероятность того, что в k-м испытании осуществится событие
A j , назовем Pj k – абсолютной вероятностью.

172
Пусть существует предел

lim Pj n = Pj , j=1, N . (13.48)


n

Тогда говорят, что существует предельное, финальное, распределение веро-


ятностей P1 ,… Pj состояний A1 ,…, An , не зависящее от начального распределения
P1 . Финальные вероятности удовлетворяют следующей системе уравнений:
N
Pj =  Pl Plj , j  1, N ,
l 1
N

Р
Pj  0,  Pj  1 .
j 1

УИ
Пример.
Дана цепь Маркова, которая описывается матрицей переходных вероят-
ностей.
j 1 1

i

 P11 P12   2 2 
P P  = 1 3 
 21 22  

4 4
 БГ
(сумма вероятностей по строке равна 1).
а
Необходимо определить вероятность P1 системы в 1-м состоянии.
ек

Решение.

P1 = lim Pi1n .
n 
т

Запишем вероятность перехода за n шагов, применяя формулу (13.46),


получим для m = 1
ио

Pi1n = Pi1n 1 P11


1
 Pi n21P21
1
 Pij1  Pij , Pi n21  1  Pi1n 1
= Pi1n 1 P11 +(1 – Pi1n 1 ) P21 = P21 + ( P11 - P21 ) Pi1n 1 =
бл

= введем переменные   P21 ,   P11  P21 =  +   zn 1 .

Обозначая zn  Pi1n , запишем вероятность перехода за n шагов в новых


Би

переменных:
zn   +   zn 1 ,
z1      z0 ,
z2      z1    (    z0 ) = (1  )  2  z0 ,
……………………………………………………
zn   (1     2  ...  n 1 )  n  z0 .

173
Учтем, что 1    2  ...  n1 – сумма геометрической прогрессии, тогда
(1   n 1 )
zn    n  z0 .
1 
Найдем предел при n   :

(1  n 1 ) 
lim zn  | т. к.   1 , |= lim (zn = Pi1n   n  z0 )  .
n n  1  1 
Тогда искомая вероятность вычисляется так:
1
 P21 4 1
P1 = lim zn  lim Pi1n 

Р
=   .
n  n  1   1  P11  P21 1  1  1 3
2 4

УИ
13.12.1. Марковские процессы с непрерывным временем

БГ
Случайный процесс X(t) называется марковским, если для любого момен-
та времени t1 при известном значении X( t1 ) случайные величины X(t) c t> t1 не за-
висят от случайных величин X(S) c S< t1 , т. е. марковские процессы характеризу-
а
ются тем, что вероятностные свойства процесса в момент t > t1 определяются со-
стоянием в момент t1 и не зависят от состояний процесса до момента t1 .
ек

Среди марковских процессов с непрерывным множеством состояний наи-


более важными являются процессы, которые имеют n-мерную плотность рас-
т

пределения. Если X(t) – случайный процесс, t  T , то пусть для каждого набора


моментов времени t1 , t2 ,..., tn  T n-мерная случайная величина (X( t1 ), X( t2 ),…,
X( tn )) имеет n-мерную плотность распределения f (t1, x1;...; tn , xn ). Эта плотность
ио

обладает следующими свойствами:


1. f (t1, x1;...; tn , xn ) симметрична относительно любых перестановок пар
бл

аргументов ( ti , xi ), т. к. f (t1, x1;...; tn , xn )dx1...dxn выражает вероятность совмест-


ного осуществления событий { xi  X (ti )  xi  dxi } i= 1,n и, значит, не зависит
от порядка их перечисления.
Би

2. Плотность любого k-мерного распределения при k < n определятся с


помощью n-мерного распределения:

f (t1, x1;...; tk , xk )   .. . f n (t1 , x1;...; tk , xk ; tk 1, xk 1;...; t n , xn ) d k 1...dxn . (13.49)
n k

Условная вероятность для марковского процесса

P ( X (ti )  xi | X (t1 )  x1, X (t 2 )  x2 ,..., X (ti 1 )  xi 1 ) 


 P( X (ti )  xi | X (ti 1 )  xi 1 ) . (13.50)

174
Поскольку вероятностные свойства процесса в момент tn определяются
состоянием в момент tn 1 и не зависят от протекания процессов в предшест-
вующие моменты времени, тогда условная плотность распределения
g n (tn , xn | t1, x1;...; tn 1, xn 1 )  g n (tn , xn | tn 1, xn 1 ) . (13.51)

Условную плотность распределения g n (t , x | , y ) называют переходной


плотностью распределения в состояние tn , xn при условии, что процесс нахо-
дится в состоянии tn 1, xn 1 (, y ) .
Зная, что P(AB) = P(A)P(B/A), для условной плотности распределения

Р
f n (t1, x1;...; t n , xn )  f n 1 (t1, x1;...; tn 1, xn 1 ) g n (tn , xn | t1, x1;...; tn 1, xn 1 ) . (13.52)

УИ
Учитываем свойство марковских цепей:
g n (tn , xn | t1, x1;...; tn 1, xn 1 )  g (tn , xn | tn 1, xn 1 ) . (13.53)

Тогда f n (t1, x1;...; t n , xn )  f n 1 (t1, x1;...; tn 1, xn 1 ) g (tn , xn | tn 1 , xn 1 ) , и при-

БГ
меняя эту формулу в правой части для f n 1 , а затем для f n  2 ... f 2 , получим

f n (t1, x1;...; t n , xn )  f1 (t1, x1 )  g (t2 , x2 | t1, x1 ) g (t3 , x3 | t2 , x2 )...g (tn , xn | tn 1, xn 1 ) . (13.54)
а
Отсюда видно, что для задания n-мерной плотности распределения мар-
ковского процесса достаточно знать лишь две функции: одномерную плотность
ек

f1 (t , x) и переходную плотность распределения g(t, x| , y ).


Рассмотрим 3 момента времени: t0    t; t0 ; ;  t  T  . Согласно (13.54),
т

имеем
f 3 (t0 , x0 ; , y; t , x)  f1 (t0 , x0 ) g ( , y | t0 , x0 ) g (t , x | , y ) , (13.55)
ио

f 2 (t0 , x0 ; t , x )  f1 (t0 , x0 ) g (t , x | t0 , x0 ) . (13.56)

Используя (13.49) для f 2 , получим


бл


f 2 (t0 , x0 ; t , x)   f3 (t0 , x0 ; , y; t , x)dy . (13.57)

Би

Подставляя в (13.57) уравнения (13.55) и (13.56), получим



f1 (t0 , x0 )  g (t , x | t0 , x0 )   f1 (t0 , x0 )  g (, y | t0 , x0 )  g (t , x | , y )dy ,


g (t , x | t0 , x0 )  (13.58)
 g (, y | t0 , x0 )  g (t , x | , y)dy.


175
Это уравнение Смолуковского (или Колмогорова-Чепмена) является ос-
новным в теории непрерывных марковских процессов.

13.12.2. Уравнения Колмогорова


Введем следующие обозначения:
x  x0 , t  t  t0 ,
y  y, t  ,
z  x, T  t.

Р
Запишем переходные вероятности через уравнение Смолуковского в мо-

УИ
менты t  t и t:

g (T , z | t  t , x )   g (t , y | t  t , x)  g (T , z | t , y )dy, (13.59)


БГ

g (T , z | t , x )   g (T , z | t , x)  g (t , y | t  t , x)dy. (13.60)


Вычтем из формулы (13.60) формулу (13.59):


а
g (T , z | t , x) – g (T , z | t  t , x ) =
ек


=   g (T , z | t , x)  g (T , z | t , y )  g (t , y | t  t , x)dy . (13.61)
т



Разложим в ряд Тейлора функцию


ио

g ( y  x )2  2 g
g (T , z | t , y )  g (T , z | t , x)  ( y  x)   2  ... .
x 2 x
Подставляя это разложение в интеграл (13.61), разделим левую и правую
бл

часть на t и перейдем к пределу при t  0 :


g (T , z | t , y )  g (T , z | t  t , x )
lim 
Би

t 0 t

1 g ( y  x)2  2 g
 lim (
t  0
 [( y  x) x  2 x 2 ]  g (t , y | t  t , x)dy,
t 
(13.62)

g (T , z t , x) g (T , z t , x) 1  2 g (T , z t , x)
 a (t , x)  b (t , x )  0. (13.63)
t x 2 x 2

Это первое уравнение Колмогорова, где

176

1
a(t, x) = lim ( y  x ) g (t , y | t  t , x )dy , (13.64)
t 0 t 


1
b(t, x) = lim  ( y  x)2  g (t , y | t  t , x )dy . (13.65)
t 0 t


Аналогично выводится втрое уравнение Колмогорова:

g (T , z t , x)  1 2
 [a(T , z ) g (T , z t , x)]  [b(T , z ) g (T , z t , x)]  0 . (13.66)
T z 2 z 2

Р
Здесь a (T , z ) и b(T , z ) – те же функции, что и a (t , x) (13.64) и b(t , x)
(13.65), но взятые для T и z.

УИ
Непрерывный марковский процесс, который описывается уравнениями
(13.63) и (13.66) называется диффузионным. Коэффициент a (T , z ) называется
коэффициентом сноса, а коэффициент b(T , z ) – коэффициентом диффузии.

БГ
Уравнение (13.66) называется прямым уравнением Колмогорова, а уравнение
(13.63) называется обратным уравнением Колмогорова. Уравнения Колмогоро-
ва относятся к классу параболических дифференциальных уравнений в частных
производных.
а
ек
т
ио
бл
Би

177
ПРИЛОЖЕНИЕ

1. Таблица значений функции Лапласа (z )


t2
1
z
2 
2 dt .
( z )   e

2 0 4 Z
-1

z (z) z (z) z (z) z (z)

Р
0,00 0,0000 0,66 0,4907 1,32 0,8132 1,98 0,9523
0,02 0,0160 0,68 0,5035 1,34 0,8198 2,00 0,9545

УИ
0,04 0,0319 0,70 0,5161 1,36 0,8262 2,05 0,9596
0,06 0,0478 0,72 0,5285 1,38 0,8324 2,10 0,9643
0,08 0,0638 0,74 0,5407 1,40 0,8385 2,15 0,9684
0,10 0,0797 0,76 0,5527 1,42 0,8444 2,20 0,9722
0,12 0,0955 0,78 0,5646 1,44 0,8501 2,25 0,9756

БГ
0,14 0,1113 0,80 0,5763 1,46 0,8557 2,30 0,9786
0,16 0,1271 0,82 0,5878 1,48 0,8611 2,35 0,9812
0,18 0,1428 0,84 0,5991 1,50 0,8664 2,40 0,9836
0,20 0,1585 0,86 0,6102 1,52 0,8715 2,45 0,9857
0,22 0,1741 0,88 0,6211 1,54 0,8764 2,50 0,9876
а
0,24 0,1897 0,90 0,6319 1,56 0,8812 2,55 0,9892
ек

0,26 0,2051 0,92 0,6424 1,58 0,8859 2,60 0,9907


0,28 0,2205 0,94 0,6528 1,60 0,8904 2,66 0,9920
0,30 0,2358 0,96 0,6629 1,62 0,8948 2,70 0,9931
0,32 0,2510 0,98 0,6729 1,64 0,8990 2,75 0,9940
т

0,34 0,2661 1,00 0,6827 1,66 0,9031 2,80 0,9949


0,36 0,2812 1,02 0,6923 1,68 0,9070 2,85 0,9956
0,38 0,2961 1,04 0,7017 1,70 0,9109 2,90 0,9963
ио

0,40 0,3108 1,06 0,7109 1,72 0,9146 2,95 0,9968


0,42 0,3255 1,08 0,7199 1,74 0,9181 3,00 0,9973
0,44 0,3401 1,10 0,7287 1,76 0,9216 3,10 0,9981
бл

0,46 0,3545 1,12 0,7373 1,78 0,9249 3,20 0,9986


0,48 0,3688 1,14 0,7457 1,80 0,9281 3,30 0,9990
0,50 0,3859 1,16 0,7540 1,82 0,9312 3,40 0,9993
0,52 0,3969 1,18 0,7620 1,84 0,9342 3,50 0,9995
Би

0,54 0,4108 1,20 0,7699 1,86 0,9371 3,60 0,9997


0,56 0,4245 1,22 0,7775 1,88 0,9399 3,70 0,9998
0,58 0,4381 1,24 0,7850 1,90 0,9426 3,80 0,9999
0,60 0,4515 1,26 0,7923 1,92 0,9451 3,90 0,9999
0,62 0,4647 1,28 0,7995 1,94 0,9476 4,00 0,9999
0,64 0,4778 1,30 0,8064 1,96 0,9500

178
2. Таблица квантилей распределения Стьюдента
t  ,k
  f t ( x)dx .
 t  ,k ft (x)

Р
x

УИ
-t ,k t ,k

k 0,90 0,95 0,98 0,99
1 6,31 12,71 31,8 63,7

БГ
2 2,92 4,30 6,96 9,92
3 2,35 3,18 4,54 5,84
4 2,13 2,77 3,75 4,60
5 2,02 2,57 3,36 4,03
6 1,943 2,45 3,14 4,71
а
7 1,895 2,36 3,00 3,50
8 1,860 2,31 2,90 3,36
ек

9 1,833 2,26 2,82 3,25


10 1,812 2,23 2,76 3,17
12 1,782 2,18 2,68 3,06
т

14 1,761 2,14 2,62 2,98


16 1,746 2,12 2,58 2,92
18 1,734 2,10 2,55 2,88
ио

20 1,725 2,09 2,53 2,84


22 1,717 2,07 2,51 2,82
24 1,711 2,06 2,49 2,80
30 1,697 2,04 2,46 2,75
бл

40 1,684 2,02 2,42 2,70


Би

179
3. Таблица квантилей 2 ,k распределения f (x)

«Хи-квадрат»

P ( 2  2 , k )   . 

 k


k 0,01 0,02 0,05 0,95 0,98 0,99
1 6,64 5,41 3,84 0,004 0,001 0,000
2 9,21 7,82 5,99 0,103 0,040 0,020

Р
3 11,34 9,84 7,82 0,352 0,185 0,115
4 13,28 11,67 9,49 0,711 0,429 0,297
5 15,09 13,39 11,07 1,145 0,752 0,554

УИ
6 16,81 15,03 12,59 1,635 1,134 0,872
7 18,48 16,62 14,07 2,17 1,564 1,239
8 20,10 18,17 15,51 2,73 2,03 1,646
9 21,07 19,68 16,92 3,32 2,53 2,09
10 23,20 21,2 18,31 3,94 3,06 2,56

БГ
12 26,2 24,1 21,0 5,23 4,18 3,57
14 29,1 26,9 23,7 6,57 5,37 4,66
16 32,0 29,6 26,3 7,96 6,61 5,81
18 34,8 32,3 28,9 9,39 7,91 7,02
20 37,6 35,0 31,4 10,85 9,24 8,26
а
22 40,3 37,7 33,9 12,34 10,60 9,54
24 43,0 40,3 36,4 13,85 11,99 10,86
ек

26 45,6 42,9 38,9 15,38 13,41 12,20


28 48,3 45,4 41,3 16,93 14,85 13,56
30 50,9 48,0 43,8 18,49 16,31 14,95
т

f (x)
4. Таблица значений функции Колмогорова 

ио

P (  )    1   .


бл


     
0,50 0,0361 1,02 0,7500 1,54 0,9826
0,54 0,0675 1,06 0,7889 1,58 0,9864
Би

0,58 0,1104 1,10 0,8223 1,62 0,9895


0,62 0,1632 1,14 0,8514 1,66 0,9918
0,66 0,2236 1,18 0,8765 1,70 0,9938
0,70 0,2888 1,22 0,8981 1,74 0,9953
0,74 0,3560 1,26 0,9164 1,78 0,9965
0,78 0,4230 1,30 0,9319 1,82 0,9973
0,82 0,4880 1,34 0,9449 1,86 0,9980
0,86 0,5497 1,38 0,9557 1,90 0,9985
0,90 0,6073 1,42 0,9646 1,94 0,9989
0,94 0,6601 1,46 0,9718 1,98 0,9992
0,98 0,7079 1,50 0,9778

180
ЛИТЕРАТУРА
1. Вентцель, Е. С. Теория вероятностей и математическая статистика :
учеб. пособие / Е. С. Вентцель; 5-е изд., стереотип. – М. : Высш. школа,
1998. – 576 с.
2. Вентцель, Е. С. Теория вероятностей и ее инженерные приложения /
Е. С. Вентцель, Л. А. Овчаров. – М. : Наука, 1988. – 416 с.
3. Гнеденко, Б. В. Курс теории вероятностей : учебник / Б. В. Гнеденко;
6-е изд., перераб. и доп. – М. : Наука, 1988. – 448 с.
4. Пытьев, Ю. А. Курс теории вероятностей и математической статисти-
ки для физиков : учеб. пособие / Ю. А. Пытьев, И. А. Шишмарев. – М. : Изд-во

Р
Моск. ун-та, 1983. – 256 с.
5. Герасимович, А. И. Математическая статистика / А. И. Герасимович. –

УИ
Минск : Выш. школа, 1983. – 279 с.
6. Левин, Б. Р. Теоретические основы статистической радиотехники /
Б. Р. Левин. – М. : Радио и связь, 1989. – 656 с.
7. Феллер, В. Введение в теорию вероятностей и ее приложения.

БГ
В 2 т. / В. Феллер; пер. с англ. – М. : Мир, 1984. – Т.1 – 528 с. ; Т.2 – 738 с.
8. Жевняк, Р. М. Теория вероятностей и математическая статистика :
учеб. пособие / Р. М. Жевняк, А. А. Карпук, В. Т. Унукович. – Минск : Харвест,
2000. – 384 с.
а
9. Гмурман, В. Е. Теория вероятностей и математическая статистика :
ек

учеб. пособие для вузов / В. Е. Гмурман; 9-е изд., стереотипное. – М. : Высшая


школа, 2003. – 479 с.
т
ио
бл
Би

181
ОГЛАВЛЕНИЕ
ПРЕДИСЛОВИЕ ........................................................................................................................... 3
ЧАСТЬ 1. ТЕОРИЯ ВЕРОЯТНОСТЕЙ....................................................................................... 5
ГЛАВА 1. СЛУЧАЙНЫЕ СОБЫТИЯ...................................................................................... 5
1.1. Основные понятия теории вероятностей .......................................................................... 5
1.2. Пространство элементарных событий............................................................................... 8
1.3. Операции над событиями ................................................................................................ 10
1.4. Аксиомы теории вероятностей (Аксиомы Колмогорова А. Н.). .................................... 13
1.5. Классический метод определения вероятностей ............................................................ 16
1.6. Геометрическое определение вероятностей ................................................................... 18

Р
1.7. Свойства вероятности (основные теоремы) .................................................................... 21
1.8. Условная вероятность. Независимость событий. ........................................................... 24

УИ
1.9. Формула полной вероятности.......................................................................................... 28
1.10. Формула Байеса. ............................................................................................................. 29
1.11. Последовательность независимых испытаний. Формула Бернулли. ........................... 31
1.11.1. Наивероятнейшее число наступлений события при повторении испытаний ........... 33
ГЛАВА 2. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ ............................................................................... 35

БГ
2.1. Определение случайной величины.................................................................................. 35
2.2. Законы распределения случайных величин. ................................................................... 37
2.3. Функция распределения ................................................................................................... 38
2.4. Плотность распределения непрерывной случайной величины ...................................... 42
ГЛАВА 3. МНОГОМЕРНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ ................................................. 46
а
3.1. Понятие о многомерных (векторных) случайных величинах ........................................ 46
3.2. Закон распределения многомерной случайной величины.............................................. 47
ек

3.3. Функция распределения двумерной случайной величины........................................... 48


3.4. Плотность распределения непрерывной двумерной случайной величины ................... 50
3.5. Условные законы распределения. ................................................................................... 52
т

3.6. Зависимые и независимые случайные величины............................................................ 54


ГЛАВА 4. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНЫХ ВЕЛИЧИН ....................... 58
4.1. Числовые характеристики одномерной случайной величины ....................................... 58
ио

4.1.1. Математическое ожидание. .......................................................................................... 58


4.1.2. Общее определение математического ожидания ......................................................... 60
4.1.3. Свойства математического ожидания .......................................................................... 62
4.1.4. Дисперсия, среднее квадратическое отклонение. ....................................................... 65
бл

4.1.5. Моменты распределения случайных величин ............................................................. 68


4.1.6. Числовые характеристики двумерной случайной величины. Ковариация.
Коэффициент корреляции. ..................................................................................................... 71
Би

ГЛАВА 5. ФУНКЦИИ СЛУЧАЙНЫХ ВЕЛИЧИН .............................................................. 74


5.1. Одномерное приближение ............................................................................................... 74
5.2. Двумерное приближение ................................................................................................. 76
5.3. Распределение суммы независимых случайных величин .............................................. 79
5.4. Характеристические функции ......................................................................................... 79
ГЛАВА 6. ОСНОВНЫЕ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН
В ТЕОРИИ ВЕРОЯТНОСТЕЙ ............................................................................................... 82
6.1. Биномиальный закон распределения.............................................................................. 82
6.2. Закон распределения Пуассона ....................................................................................... 84
6.3. Равномерный закон распределения ................................................................................. 86
6.4. Показательный (экспоненциальный) закон распределения ........................................... 87

182
6.5. Нормальный (гауссовский) закон распределения. .......................................................... 88
6.5.1. Функция Лапласа ........................................................................................................... 91
ГЛАВА 7. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ. ЗАКОН БОЛЬШИХ ЧИСЕЛ. ................................ 93
7.1. Неравенство Чебышева .................................................................................................... 93
7.2. Теорема Чебышева ........................................................................................................... 94
7.3. Теорема Бернулли............................................................................................................. 96
7.4. Центральная предельная теорема (Теорема Ляпунова) .................................................. 98
7.5. Формулы Муавра – Лапласа........................................................................................... 100
ЧАСТЬ 2. МАТЕМАТИЧЕСКАЯ СТАТИСТИКА ............................................................... 102
ГЛАВА 8. ОСНОВНЫЕ ПОНЯТИЯ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ .................. 102
8.1. Выборка, вариационный ряд, гистограмма ................................................................... 102
8.2. Оценки и методы их получения ..................................................................................... 104
8.2.1. Метод моментов .......................................................................................................... 105

Р
8.2.2. Метод наибольшего правдоподобия ........................................................................... 106
8.3. Свойства оценок ............................................................................................................. 108

УИ
ГЛАВА 9. ОСНОВНЫЕ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН
В МАТЕМАТИЧЕСКОЙ СТАТИСТИКЕ ............................................................................ 114
9.1. Гамма-функция и ее свойства ........................................................................................ 114
2
9.2. Распределение  (хи-квадрат ) .................................................................................... 115

БГ
9.3. Распределение Стьюдента ( t -распределение) .............................................................. 118
9.4. Распределение Фишера (F-распределение) ................................................................... 119
ГЛАВА 10. ИНТЕРВАЛЬНЫЕ ОЦЕНКИ ПАРАМЕТРОВ РАСПРЕДЕЛЕНИЙ .............. 121
10.1. Доверительный интервал, доверительная вероятность............................................... 121
10.2. Доверительный интервал для математического ожидания случайной величины Х
а
при известной дисперсии (или  )........................................................................................ 122
10.3. Доверительный интервал для математического ожидания нормальной случайной
ек

величины Х при неизвестной дисперсии или  .................................................................. 124


10.4. Доверительный интервал для дисперсии или  нормальной
случайной величины Х.......................................................................................................... 127
т

ГЛАВА 11. ТЕОРИЯ СТАТИСТИЧЕСКОЙ ПРОВЕРКИ ГИПОТЕЗ ................................ 130


11.1. Основные понятия ........................................................................................................ 130
11.2. Проверка гипотезы равенства математических ожиданий при неизвестной
ио

дисперсии (критерий Стьюдента) ......................................................................................... 132


11.3. Проверка гипотезы о равенстве дисперсий (критерий Фишера) ................................ 135
11.4. Проверка гипотезы о законе распределения генеральной случайной величины.
бл

2
Критерий Пирсона. (Критерий согласия  ) ....................................................................... 138
11.5. Критерий Романовского ............................................................................................... 140
11.6. Критерий согласия Колмогорова ................................................................................. 141
ГЛАВА 12. ЛИНЕЙНЫЙ РЕГРЕССИОННЫЙ АНАЛИЗ. ................................................. 144
Би

12.1 Уравнение линейной регрессии .................................................................................... 144


12.2. Метод наименьших квадратов ..................................................................................... 146
12.3. Коэффициент корреляции (оценки) ............................................................................. 147
12.4. Построение доверительных интервалов для коэффициентов
уравнения регрессии ............................................................................................................. 150
ЧАСТЬ 3. СЛУЧАЙНЫЕ ПРОЦЕССЫ................................................................................... 153
ГЛАВА 13. ЭЛЕМЕНТЫ ТЕОРИИ СЛУЧАЙНЫХ ПРОЦЕССОВ .................................... 153
13.1. Основные понятия ........................................................................................................ 153
13.2. Числовые характеристики случайного процесса......................................................... 154
13.3. Стационарные случайные процессы ............................................................................ 156
13.4. Числовые характеристики случайного процесса – средние по времени .................... 157

183
13.5. Свойства функций корреляции случайного процесса ................................................ 159
13.6. Эргодические случайные процессы............................................................................. 161
13.7. Спектр мощности случайного процесса...................................................................... 161
13.8. Теорема Винера-Хинчина ............................................................................................ 163
13.9. Соотношение неопределенности для стационарных случайных процессов ............. 165
13.10. Разложение случайного процесса в ряд Котельникова............................................. 165
13.11. Классификация случайных процессов....................................................................... 168
13.12. Марковские случайные процессы.............................................................................. 170
13.12.1. Марковские процессы с непрерывным временем .................................................. 174
13.12.2. Уравнения Колмогорова ......................................................................................... 176
ПРИЛОЖЕНИЕ..................................................................................................................... 178
ЛИТЕРАТУРА ...................................................................................................................... 181
ОГЛАВЛЕНИЕ...................................................................................................................... 182

Р
УИ
БГ
а
ек
т
ио
бл
Би

184
Учебное издание

Аксенчик Анатолий Владимирович

Р
ТЕОРИЯ ВЕРОЯТНОСТЕЙ
И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА

УИ
УЧЕБНО-МЕТОДИЧЕСКОЕ ПОСОБИЕ

БГ
а
ек
т
ио
бл

Редактор И. П. Острикова
Корректор А. В. Тюхай
Би

Компьютерная верстка В. М. Задоля

Подписано в печать 01.07.2011. Формат 60х84 1/16. Бумага офсетная. Гарнитура «Таймс».
Отпечатано на ризографе. Усл. печ. л. 10,81. Уч.-изд. л. 10,0. Тираж 100 экз. Заказ 439.

Издатель и полиграфическое исполнение: учреждение образования


«Белорусский государственный университет информатики и радиоэлектроники»
ЛИ №02330/0494371 от 16.03.2009. ЛП №02330/0494175 от 03.04.2009.
220013, Минск, П. Бровки, 6

185

Вам также может понравиться