Вы находитесь на странице: 1из 100

1

Министерство образования и науки РФ

Федеральное государственное бюджетное образовательное учреждение


высшего профессионального образования
«Тульский государственный университет»

Политехнический институт

Кафедра «Автоматизированные станочные системы»

Пасько Н.И.
профессор, доктор технических наук

КОНСПЕКТ ЛЕКЦИЙ
по дисциплине

Теория вероятностей и математическая статистика

Направления подготовки: 230100-« Информатика и вычислительная


техника»

Тула 2012 г.
2
Содержание

1.Введение
1.1.Предмет теории вероятностей и математической статистики

1.2.Краткие исторические сведения

2.Основные понятия теории вероятностей


2.1.Событие. Вероятность события

2.2.Непосредственный подсчет вероятностей

2.3.Основные формулы комбинаторики

2.3.Частота и статистическая вероятность события

2.4.Случайная величина

3.Основные теоремы теории вероятностей


3.1. События как множества и операции над ними

3.2.Теорема сложения вероятностей

3.3.Теорема умножения вероятностей

3.4.Формула полной вероятности.

3.5.Формула Бейеса или теорема гипотез.

4.Случайные величины и их законы распределения


4.1.Ряд распределения

4.2.Функция распределения

4.3.Плотность распределения

5.Числовые характеристики случайных величин


5.1.Характеристики положения

5.2.Моменты, дисперсия, квадратичное отклонение

5.3.Закон равномерной плотности

5.4.Распределение Симпсона

5.5.Биномиальное распределение
3
5.6.Распределение Пуассона

5.7.Геометрическое распределение

5.5.Биномиальное распределение

5.6.Распределение Пуассона

5.7.Геометрическое распределение

5.8.Распределение Паскаля

5.9.Гипергеометрическое распределение

5.10.Формула Стирлинга

6.Непрерывные распределения
6.1.Нормальное распределение

6.2.Показательное распределение

6.3.Логарифмически нормальное распределение

7.Статистическая оценка параметров распределения


7.1.Статистическая функция распределения

7.2.Статистический ряд. Гистограмма

7.3.Числовые характеристики распределения

7.4.Оценка параметров распределения

8.Метод наибольшего правдоподобия


8.1.Случай дискретных распределений

8.2. Случай непрерывных распределений

8.3.Другие методы оценки параметров

9.Проверка статистических гипотез


9.1.Вводные замечания

9.2.Проверка гипотезы о законе распределения

10.Системы случайных величин


4
10.1.Понятие о системе случайных величин

10.2.Двумерные случайные величины и их законы


распределения

10.3.Плотность распределения двумерной случайной


величины

10.4. Условные законы распределения

10.5.Зависимость и независимость случайных величин

10.6.Числовые характеристики двумерных случайных


величин

11.Двумерный нормальный закон распределения


12.Числовые характеристики функций случайных
величин
12.1.Математическое ожидание и дисперсия функции

12.2.Теоремы о числовых характеристиках

13.Распределение функции случайных аргументов


13.1.Распределение функции одного аргумента

13.2.Распределение суммы случайных величин

13.3.Распределение суммы нормально распределенных


случайных величин

14.Предельные теоремы
14.1.Понятие о законе больших чисел

14.2.Неравенство Чебышева

14.3.Закон больших чисел Чебышева

14.4.Центральная предельная теорема


5

1.Введение
1.1.Предмет теории вероятностей и математической
статистики

Теория вероятностей – это наука, изучающая закономерности случайных событий.


Она позволяет определять вероятности и другие характеристики одних событий через
аналогичные показатели других событий.
Математическая статистика позволяет оценивать вероятности и другие
характеристики случайных событий из опыта.
Случайное событие, это такое событие, которое при одних и тех же условиях
может произойти или не произойти.
Приведем примеры случайных событий. Выпадение герба при
подбрасывании монеты есть случайное событие. Выпадение шестерки при
подбрасывании игральной кости тоже случайное событие. Оба эти события
точно предсказать невозможно.
При обработке детали на станке автомате произошел брак
обрабатываемой детали из-за поломки режущего инструмента. В данном
случае случайное событие – поломка инструмента – привело к браку детали.
При подходе к трамвайной остановке пришлось ожидать трамвай менее
одной минуты. Здесь случайное событие – это то, что пришлось ожидать
трамвая менее одной минуты.
Случайные события происходят в повседневной жизни постоянно. Случайность в
большей или меньшей степени характерна для всех физических процессов. Более того,
согласно современным физическим представлениям на атомном и субатомном уровне
действуют случайные закономерности еще в большей степени. Причем эта случайность
объясняется не отсутствием знаний о закономерностях микромира, а изначально
свойственна этим закономерностям.
Относительно природы случайности бытуют две точки зрения. Согласно первой –
случайность объясняется отсутствием знаний о соответствующем явлении, которая
исчезнет, если мы изучим до конца закономерности этого явления. Вторая точка зрения
предполагает, что существует изначальная случайность, которую путем изучения явления
можно уменьшить, но не исключить. Вторая (современная) точка зрения основывается на
отмеченных выше физических закономерностях микромира.

1.2.Краткие исторические сведения

Возникновение теории вероятностей относится к середине ХVII в. и связано с


именами Гюйгенса, Паскаля, Ферма, Якова Бернулли. Первые результаты были связаны с
анализом азартных игр. Были определены понятия вероятности и математического
ожидания.
Серьезные требования со стороны естествознания (теория ошибок наблюдения,
задачи теории стрельбы, проблемы статистики демографии и страхования) привели к
6
необходимости дальнейшего развития теории вероятностей и ее математического
аппарата. Здесь следует отметить таких ученых как Муавр, Лаплас, Гаусс, Пуассон.
С половины XIX века большой в клад в развитие теории вероятностей внесли
русские ученые: Чебышев П.Л., Марков А.А., Ляпунов А.М., Буняковский В.Я.
Современное развитие теории вероятностей знаменуется широким ее применением
на практике. В основе таких наук, как теория массового обслуживания, теория
надежности, теория производительности, теория статистического контроля и качества,
теория статистического моделирования, теория информации, теория игр, математическая
генетика и др.
На современном этапе наряду с зарубежными учеными большой вклад в развитие
теории вероятностей сделали советские ученые: Бернштейн С.Н., Колмогоров А.Н.,
Хинчин А.Я., Гнеденко Б.В. и др.
Параллельно с теорией вероятностей развивалась и математическая
статистика. Ее развитие связано с такими именами: Кетле А.(1796-1874),
Гальтона Ф.(1822-1911) и в особенности Пирсона К.(1857-1936). В
современном развитии математической статистики большую роль сыграли:
Фишер Р., Нейман Ю., Вальд.А., Крамер Г. Среди советских ученых
значительный вклад в развитие математической статистики сделали:
Слуцкий Е.Е., Колмогоров А.Н., Романовский В.И., Смирнов Н.В. и др.

2.Основные понятия теории вероятностей


2.1.Событие. Вероятность события
Под событием в теории вероятностей понимается всякий факт, который в
результате опыта может произойти или не произойти.
Например, как уже упоминалось, событием является: выпадение герба при
бросании монеты; выпадение шестерки при бросании игральной кости; брак детали из-за
поломки инструмента. Каждое из этих событий обладает какой-то степенью возможности
реализации. Очевидно, что выпадение герба имеет большую возможность по сравнению с
возможностью выпадения шестерки при бросании игральной кости, так как в первом
случае только два возможных исхода подбрасывания, а во втором – шесть.
Чтобы количественно сравнивать степени возможности различных событий
вводится определенной число, называемое вероятностью события. Если событие
наверняка происходит, то оно имеет вероятность 1.0. Такое событие называется
достоверным. Если же оно никогда не может произойти, то оно имеет вероятность 0 и
называется невозможным событием. В промежуточных случаях вероятность может
принимать значения от 0 до 1.0.

2.2.Непосредственный подсчет вероятностей

Существует целый класс опытов, когда вероятности событий легко


подсчитываются. Например, в случае подбрасывания симметричной (не вогнутой) монеты
возможны два исхода подбрасывания, каждый из которых равновозможен, поэтому
вероятность выпадения герба равна 1/2 . При подбрасывании правильной игральной
кости имеется 6 равновозможных исходов и поэтому вероятность выпадения шестерки
равна 1/6. Вообще, если опыт имеет m равновозможных исходов, то вероятность
реализации конкретного исхода равна 1/m .
Симметричность возможных исходов обычно наблюдается только в
искусственно организованных опытах, поэтому этот случай большого
практического значения не имеет. Реально монета может быть слегка
7
деформирована, а кость не совсем симметрична или имеет смещенный центр
тяжести. Но не смотря на это рассмотрение таких идеальных схем позволяет
проще познакомиться с основными свойствами вероятности, поэтому
займемся ими подробнее.
Введем некоторые вспомогательные понятия.
Полной группой событий будем называть все возможные события опыта, то есть в
результате опыта непременно должно реализоваться одно из них.
Например:
 при подбрасывании монеты полная группа включает два события: выпадение герба
и выпадение цифры;
 при подбрасывании игральной кости полная группа имеет 6 событий: выпадение 1,
2, 3, 4, 5, 6;
 очередная обработанная деталь на станке годная или бракованная;
 попадание или промах при выстреле;
 при подбрасывании сразу двух монет полная группа включает три события: выпали
оба герба, выпали обе цифры, выпали герб и цифра.
Несовместимыми называются события в данном опыте, которые не могут произойти
вместе.
Например:
 не могут при подбрасывании одной монеты выпасть и герб и цифра;
 не могут при подбрасывании одной игральной кости выпасть и 6 и 1;
 в результате обработки детали она может оказаться либо годной либо бракованной:
 за восемь часов работы станка может произойти либо 1, либо 2, либо 3 и т.д.
отказов;
Очевидно, что события, входящие в полную группу, должны быть несовместимыми.
Такую группу событий называют так же пространством элементарных
событий [5, 9]. Если множество элементарных событий обозначить , то
любое другое сложное событие A будет состоять в реализации одного из
элементарных событий, принадлежащих подмножеству A множества , то
есть A есть подмножество множества . В сокращении это пишется так А
  . Здесь и в дальнейшем само событие и соответствующее ему
подмножество элементарных событий будем обозначать одной заглавной
буквой, в данном случае А. Пустое подмножество  соответствует
невозможному событию, а  - достоверному событию. Соответственно
вероятность невозможного события P ()  0 , а вероятность достоверного
события P ()  1 . Соответственно любое другое событие A имеет
вероятность 0  P( A)  1 .
Если элементарные события из множества  равновозможны и
мощность множества (число событий) равно m, а событие A состоит в
реализации одного из n событий, то вероятность события A
n
P ( A)  . (2.1)
m
Пример 1. Вычислим вероятность того, что при подбрасывании
игральной кости произойдет событие A, состоящее в выпадении четного
числа.
8
Множество  содержит следующие элементарные события: выпадение
1, 2, 3, 4, 5, 6. Подмножество A содержит события, состоящие в
выпадении 2, 4, 6. То есть m=6, а n=3. Значит
3
P ( A)   0.5
6
Пример 2. В урне находится два белых и три черных шара. Какова вероятность
события B, состоящего в том, что наугад вынутый шар будет черным?.
В этом случае множество =[Б, Б, Ч, Ч, Ч], а подмножество B=[Ч, Ч, Ч]. Здесь Б
обозначено событие, состоящее в вытаскивании белого шара, а Ч – черного шара. В
данном случае m=5, а n=3, то есть
3
P( B)   0.6.
5
Пример 3. В урне a белых и b черных шара. Из урны вытаскивается два шара. Какова
вероятность события D, состоящего в том, что они оба будут черными.
Общее количество вариантов вытаскивания двух шаров
m  (a  b)(a  b  1).
Первый множитель – это количество вариантов вытаскивания первого шара,
если все шары различны, а второй множитель количество вариантов
вытаскивания второго шара.
Количество вариантов вытаскивания двух черных шаров
n  b  (b  1).
Здесь первый множитель – число вариантов, когда первый шар оказался
черным, а второй множитель – когда второй шар оказался тоже черным. Итак
b(b  1)
P( D)  .
( a  b)( a  b  1)
Пример 4. В партии из М деталей N бракованных. Из партии берется выборка a
деталей. Какова вероятность события E , состоящего в том что ровно b деталей в выборке
окажутся бракованными.
Число равновозможных вариантов выборки а деталей из М
a M!
m  CM  .
a!( M  a )!
Число тех выборок, в которых все детали будут бракованными
b a b
n  CN  CM N .
Здесь мы воспользовались известными формулами из комбинаторики о числе
сочетаний.
b a b
CN  CM N 
P( E )  (2.2)
a
CM
Приведем здесь полезные для дальнейшего некоторые формулы из
комбинаторики.

2.3.Основные формулы комбинаторики


Комбинаторика изучает количества комбинаций, которые можно составить из
заданных элементов произвольной природы при различных условиях. При
непосредственном вычислении вероятностей часто используют формулы комбинаторики,
аналогичные тем, что в предыдущих примерах. Приведем здесь наиболее
употребительные из них.
9
Перестановками называются комбинации, составленные из одних и тех же m
различных элементов и отличающиеся только порядком их расположения. Число всех
возможных перестановок из m элементов
Pm  m  (m  1)  (m  2)  ...  2  1  m! . (2.3)
Для подсчета m! при большом m полезна приближенная формула Стирлинга:
m m
m! ( ) 2m .
e
Размещениями называются комбинации, составленные из m различных элементов
по n, которые отличаются либо порядком, либо составом элементов. Число всех
возможных размещений
n m!
Am  m  (m  1)  (m  2)  ...  (m  n  1)  . (2.4)
(m  n)!
Пример 1. Определим, сколько вариантов будет иметь выборка двух деталей из
партии 10 деталей с учетом порядка их обработки на станке. В данном случае мы имеем
размещения по 2 детали из 10 и
2
A10  10 * 9  90 .
Сочетаниями называются комбинации, составленные из m элементов по n, которые
отличаются хотя бы одним элементом. Порядок элементов здесь не учитывается. Число
сочетаний
n m!
Cm  . (2.5)
n!(m  n)!
Пример 2. Определим, сколько вариантов будет иметь выборка двух деталей из
партии 10 деталей без учета порядка их обработки на станке. В данном случае мы имеем
сочетания по 2 детали из 10 и
2 10!
C10   45.
2!8!
Числа размещений, перестановок и сочетаний связаны соотношением:
n n.
Am  Pn  C m
Если множество из m элементов содержит m1 элементов первого типа, m2 элементов
второго типа и так далее ( m  m1  m2  ...) , то число перестановок
m!
Pm ( m1 , m2 ,...)  . (2.6)
m1!m2 !...
При решении задач комбинаторики пользуются следующими
правилами.
Правило суммы. Если некоторый объект a может быть выбран из совокупности m
способами, а другой объект может быть выбран из этой совокупности n способами, то
выбрать либо а либо b можно m+n способами.
Правило произведения. Если некоторый объект a может быть выбран из
совокупности m способами, а другой объект b может быть выбран из другой
совокупности n способами, то выбрать пару объектов (а , b) можно mn способами.

2.3.Частота и статистическая вероятность события


Предыдущие формулы для вероятностей событий оказались возможными,
так как вероятности элементарных событий удается рассчитать благодаря их
равновозможности, вытекающей из симметричности исходов опыта. Однако
требование равновозможности исходов опыта обычно не выполняется и
соответственно формулой (2.1) воспользоваться нельзя. Монета может быть
10
не совсем симметричной, а игральная кость - со смещенным центром тяжести
и т.д. Вероятность соответствующего события в этом случае оценивают по
частоте его реализации при многократном повторении опыта.
Если производится M испытаний и событие A реализовалось N раз,
то очевидно, что вероятность события A
N
P ( A)  P  ( A)  . (2.3)
M
Величину P  ( A) принято называть статистической вероятностью. Эта
величина при малом количестве опытов может существенно отклоняться от
вероятности, но с ростом числа опытов она все точнее характеризует
вероятность. То есть с ростом M P  ( A)  P( A) , однако эта сходимость не
обычная, её принято называть сходимостью по вероятности.
Величина XM сходится по вероятности к a, если при сколь угодно
малом  вероятность неравенства X M  a   с увеличением M неограниченно
приближается к единице.
Так определенная вероятность имеет смысл применять только для
массовых явлений, так как здесь она может быть оценена из опыта.
Существует другая трактовка вероятности как степени уверенности в том,
что конкретное событие должно произойти. Такая вероятность называется
субъективной, если понятие частоты проявления для её определения не
применимо. В данном курсе такая трактовка вероятности не рассматривается.

2.4.Случайная величина
Случайная величина – это важнейшее понятие теории вероятностей. Случайной
величиной называется величина, которая в результате опыта может принимать то или
иное заранее не известное значение. Если возможные значения можно пронумеровать, то
случайная величина называется дискретной, если значением случайной величины может
быть любое действительное число в заданном диапазоне, то случайную величину
называют непрерывной.
Например:
 число бракованных деталей в партии из M деталей – дискретная (целочисленная)
случайная величина, она может принимать значения 0, 1, 2,…, M;
 диаметр обработанной детали на станке автомате является непрерывной случайной
величиной, так как может принимать любые значения в пределах поля допуска и за
пределами поля допуска, в случае бракованной детали;
 случайное событие тоже можно рассматривать как дискретную случайную
величину, которая может принимать только два значения: 0 – если в результате
опыта событие не произошло, и 1 – если событие произошло.

3.Основные теоремы теории вероятностей


3.1. События как множества и операции над ними
Ранее было отмечено, что элементарные события образуют множество,
а все прочие события это подмножества основного множества. В связи с этим
к событиям применимы известные операции из теории множеств.
11
Рассмотрим некоторые из них, так как с их помощью рассчитываются, как
будет показано в дальнейшем, вероятности сложных событий.
Если элементарное событие а принадлежит некоторому подмножеству А, то это
символически изображается так:
a A ,
если а не принадлежит этому множеству, то пишут
a A .
Событие A состоит в том, что в результате опыта, произошло одно из элементарных
событий, принадлежащих множеству A.
Пишут B  A , если все элементарные события, принадлежащие B, принадлежат и
A. Это значит, что если в результате опыта произошло событие B, то произошло и событие
A, так как реализация любого элементарного события из множества B, означает, что
произошло событие B, но так как это элементарное событие принадлежит и A, то
произошло и A.
Суммой или объединением двух событий A и B является третье событие C, которое
состоит в выполнении события A, или события B, или события A и B одновременно.
Обозначается эта операция символом + или  , то есть,
A  B  C или A  B  C .
Графически эта операция иллюстрируется на рис.3.1 а.

A
A+B
B

a)

A
AB

б)

A
A-B

в)
12
Рис.3.1.Иллюстрация операций над множествами событий. а – сложение событий –
объединение множеств; б – произведение событий – пересечение множеств; в – разность
событий – разность множеств.

Суммой нескольких событий называется событие, состоящее в появлении хотя бы


одного из них.
Например, при обработке партии из пяти деталей возможны такие события:
A0- брак деталей отсутствует;
A1- брак только одной детали;
A2 – брак двух деталей;
A3 – брак трех деталей;
A4 – брак четырех деталей;
A5 – брак всех пяти деталей.
То есть множество элементарных событий, образующих полную группу событий опыта
  [ A0 , A1 ,..., A5 ] .
Событие
B  A0  A1  A2 -
означает, что в партии не более двух бракованных деталей.
Событие
C  A1  A2  A3  A4  A5 -
означает, что в партии имеются бракованные детали.
Произведением двух событий А и В является третье событие D, состоящее в том,
что в результате опыта появляются одновременно и событие А и событие В. Это значит,
что множество С образуется как пересечение множеств А и В (см. рис.3.1 б). В виде
формул произведение записывается так:
D  AB или D  A  B .
Произведением нескольких событий называется событие, состоящее в совместным
появление всех этих событий.
В том же примере с партией из пяти деталей, событие
D  AB
означает, что одновременно появляются события и В и С, а это возможно, если в партии
одна или две бракованные детали, так как пересечением множеств В и С включает
события А1 и А2. То есть D  A1  A2 .
Разностью двух событий А и С называется событие Е, состоящее в том, что в
результате опыта произошло событие А и не произошло событие В. Это значит, что
произошло одно из элементарных событий, входящих в А, но не входящих в В (см. рис.3.1
в). В виде формулы эта операция записывается так:
Е  A B.
В том же примере с партией из пяти деталей
Е  ( A0  A1  A2 )  ( A1  A2  A3  A4  A5 )  A0 .
Обратным по отношению к событию А называют событие A , состоящее в том,
что в результате опыта событие А не произошло. В виде формулы это утверждение
можно записать так (см. рис.3.2):
A    A.
13

 -A

Рис.3.2.Иллюстрация обратного события.

Например, в том же примере с партией деталей событие


B    B    ( A0  A1  A2 )  A3  A4  A5 ,
так как   A0  ...  A5 , а событие
C    C    ( A1  ...  A5 )  A0 .
С помощью рассмотренных операций можно определять любые
сложные события и в дальнейшем определять их вероятности.
Рассмотрим более сложный случай. На станке обрабатываются три детали. Пусть
D1,D2,D3 – события, состоящие в том, что бракованной является первая деталь, вторая
деталь, третья деталь соответственно. Определим событие F, состоящее в том, что одна из
трех деталей окажется бракованной.
Полная группа элементарных событий образует следующее множество
  [ D1D2 D3 , D1D2 D3 , D1D2 D3 , D1D2 D3 , D1D2 D3 , D1D2 D3 , D1D2 D3 ,
D1D2 D3 ].
Здесь D1, D2 , D3 - события, обратные D1 , D2 , D3 соответственно.
Искомое событие
F  D1D2 D3  D1D2 D3  D1D2 D3 .

3.2.Теорема сложения вероятностей


Вероятность суммы двух несовместимых событий A и В равна сумме
вероятностей этих событий:
P ( A  B )  P ( A)  P ( B ) . (3.1)
Эта теорема обобщается и на случай нескольких несовместимых событий. Пусть
A1 , A2 ,..., An несовместимые события, тогда
P ( A1  A2  ...  An )  P( A1 )  P( A2 )  ...  P ( An ) . (3.2)
Рассмотрим теперь некоторые следствия, вытекающие из этой
теоремы.
Следствие 1.Если события А1,…,Аn образуют полную группу, то вероятность их
суммы равна 1:
n
P ( A1  ...  An )   P ( Ai )  1 .
i 1
Действительно, A1 ,..., An   , то есть составляют достоверное событие, а P ()  1 .
Следствие 2. Вероятность суммы противоположных событий A и A равна 1:
P ( A)  P ( A )  1 . (3.3)
Это вытекает из того факта, что A  A   - достоверное событие.
Формула (3.3) часто используется на практике, так как позволяет определить
вероятность прямого события, если известна вероятность противоположного события. Так
как они несовместимы, то P ( A)  1  P ( A ) .
14
Теорема сложения вероятностей требует, чтобы исходные события были
несовместимы. Если это не так, то для расчета вероятности суммы двух событий А и В
применяется следующая формула:
P ( A  B )  P ( A)  P ( B )  P ( AB) . (3.4)
Здесь, чтобы вероятность элементарных событий, входящий в пересечение множеств АВ,
не учитывалась дважды, производится вычитание P ( AB ) (см.рис.3.3).

A
AB

Рис. 3.3.Иллюстрация к определению вероятности суммы двух


совместимых событий

Если суммируются три совместимых события А,В,С, то вероятность суммы


P( A  B  C )  P( A)  P( B)  P(C )  P( AB)  P( AC )  P( BC )  P( ABC ) .
На рис.3.4. дана графическая иллюстрация этой формулы.

A
AB

AC ABC
B
BC
C

Рис. 3.4. Иллюстрация к определению суммы трех совместимых


событий.
Здесь чтобы вероятность элементарных событий, входящих в множества АВ, АС и
ВС не учитывались дважды, вероятности этих событий вычитаются. В сумме
вероятностей P ( A)  P( B)  P (C ) вероятности элементарных событий, входящих в
пересечение АВС , учитываются трижды, как и в сумме P( AB)  P ( AC )  P ( BC ) , по
этому, чтобы не потерялись вероятности элементарных событий, вхоящих в АВС,
следует прибавить их вероятность P ( ABC ) .
Методом индукции можно доказать общую формулу для вероятности
суммы любого числа совместных событий:
 n 
P  Ai    P Ai    P  Ai A j    P  Ai A j Ak       1 P A1 A2  An .
n 1

 i 1  i i, j i, j, k

Пример 1. В лотерее 1000 билетов. Из них на один билет выпадает


выигрыш 500 руб., на 10 билетов – 100 руб., на 50 билетов – 20 руб.,
15
остальные билеты невыигрышные. Вы покупаете один билет. Найти
вероятность выиграть не менее 20 руб.
Решение. Рассмотрим события:
А – выигрыш не менее 20 руб.,
А1 – выигрыш 20 руб.,
А2 – выигрыш 100 руб.,
А3 – выигрыш 500 руб.
Очевидно,
A  A1  A2  A3 .
По теореме сложения вероятностей
50 10 1
P A  P A1   P A2   P A3      0,061.
1000 1000 1000
Пример 2. Круговая мишень состоит из трёх зон: 1, 2, 3. При одном
выстреле вероятность попадания в 1 зону 0,15, во 2 зону 0,23, в 3 зону –
0,17. Найти вероятность промаха.
Решение. Обозначим А – промах, A – попадание. Тогда
A  A1  A2  A3 ,
где A1 , A2 , A3 - попадания соответственно в 1, 2 и 3 зоны.
P A   P A1   P A2   P A3   0,15  0,23  0,17  0,55.
Отсюда
P A  1  P  A   0,45.
Из приведённых формул для вероятности суммы совместимых
событий можно получить и выражения для вероятностей произведения
событий :
P AB   P A  P B   P A  B . (3.5)
P ABC   P A  P B   P C   P A  B   P B  C   P A  C 
(3.6)
 P  A  B  C .
Пример 3. Агрегатный станок состоит из 3-х агрегатов: двух агрегатов
первого типа – А1 и А2 – и одного агрегата второго типа – В. Агрегаты А1
и А2 дублируют друг друга, т.е. при отказе одного из них происходит
автоматическое переключение на второй. Агрегат В не дублирован. Для
того, чтобы станок прекратил работу (отказал) нужно, чтобы одновременно
отказали оба агрегата А1 и А2 или агрегат В. Требуется выразить
вероятности отказа станка через суммы вероятностей элементарных
событий. Обозначим события, связанные с отказами соответствующих
блоков, теми же буквами, но курсивом.
Решение. Отказ станка – событие С.
C  A1 A2  B .
Из формулы (3.4) имеем, что вероятность события С равна
P C   P A1 A2   P B   P A1 A2 B  .
Из формул (3.5,3.6) получаем, что
P A1 A2   P A1   P A2   P A1  A2 ;
P ( A1 A2 B )  P( A1 )  P( A2 )  P( B )  P( A1  A2 )  P ( A1  B)  P( A2  B) 
 P( A1  A2  B );
Отсюда получаем, что
16
P C   P A1  B   P A2  B   P A1  A2  B .

3.3.Теорема умножения вероятностей


Для формулировки названной теоремы введем важное для теории вероятностей
понятие независимости событий.
Событие А называется независимым от события В, если вероятность
события А не зависит от того, произошло ли событие В или нет.
Событие А называется зависимым от события В, если вероятность
события А изменяется в зависимости от того, произошло ли событие В или
нет.
Пример 1. Опыт состоит из бросания двух монет. Рассмотрим
события:
А – появление герба на первой монете;
B – появление герба на второй монете.
В данном случае эти события независимы, так как вероятность появления
герба на первой монете никак не зависит от того, что появится на второй
монете и наоборот вероятность появления герба на второй монете никак не
зависит от того, что выпало на при бросании первой монеты.
Пример 2. В урне 2 белых и 3 черных шара. Событие А состоит в том,
что при вытаскивании первого шара он окажется белым. Событие В состоит
в том что при вытаскивании второго шара он тоже окажется белым.
Очевидно, что событие В зависит от события А. Если произошло событие
А, то событие В имеет вероятность 1/4, так как в этом случае из четырех
оставшихся шаров только один белый. Если произошло событие A
(вытянут белый шар), то событие В имеет вероятность 1/2.

Условной вероятностью события В называется его вероятность,


вычисленная при условии, что произошло событие А. Обозначение P  B A .
Условие независимости событий А и В:
P  B A  P  B  .
Теорема умножения вероятностей. Вероятность произведения двух
событий равна произведению вероятности одного из них на условную
вероятность другого, вычисленную при условии, что первое имело место:
P  AB   P A P  B A. (3.7)
Доказательство для схемы с равновозможными элементарными
событиями. Пусть всего m событий. Событию А благоприятны n случаев, а
событию В благоприятны k случаев. Число случаев, благоприятных А и В
одновременно пусть l. Тогда
l n
P  AB   ; P A   .
m m
Поскольку событие А произошло только в n случаях, то вероятность В:
l
P  B A  .
n
Таким образом имеем:
17
n l l
P A | B     .
m n m
Теорема доказана.
Следствие 1. Если событие А не зависит от события В, то событие В
не зависит от события А.
Доказательство. Дано P A  P A B  . Надо доказать, что P B   P  B A .
P AB   P A P  B A ,
P AB   P B  P  A B  ,
P A P  B A  P  B  P  A B  ,
P A P  B A  P  B  P  A  ,
P  B A  P  B  ,
что и требовалось доказать.
Следствие 2. Вероятность произведения двух независимых событий
равна произведению вероятностей этих событий.
Если события зависимые, то вероятность каждого следующего
события вычисляется из предположения, что все предыдущие имели место.
P A1 A2  An   P A1  P A2 A1  P A3 A1 A2   P An A1 A2  An1 
Для независимых событий имеем:
P A1 A2  An   P A1  P A2   P An  ;
 n  n
P  Ai    P  Ai  . (3.8)
 i 1  i 1
Пример 3.Продолжим рассмотрение примера 2. В урне 2 белых и 3
чёрных шара. Из урны вынимают подряд 2 шара. Найти вероятность того,
что оба шара белые.
Решение. Событие С – появление двух белых шаров; А – появление
белого шара при первом вынимании; В - появление белого шара при втором
вынимании.
2 1
P C   P A P  B A    0,1.
5 4
Пример 4. Те же условия, но шары возвращают в урну.
2 2
P  C   P  A P B     0,16.
5 5
Пример 5. Станок состоит из трех узлов, каждый из которых может
отказать независимо от других узлов и приводит к отказу всего станка.
Вероятность безотказной работы узлов за смену (8 ч работы) равна
P1  0.90; P2  0.95; P3  0.97 соответственно для каждого узла. Определим
вероятность безотказной работы станка за смену.
Решение. Обозначим события
А – безотказная работа станка в течение смены;
A1- безотказная работа первого узла в течение смены;
A2- безотказная работа второго узла в течение смены;
A3- безотказная работа третьего узла в течение смены.
В этом случае имеем
A  A1 A2 A3 ,
а так как отказы узлов независимы друг от друга, то
18
P( A)  P ( A1 )  P( A2 )  P( A3 )  P1  P2  P3  0.9  0.95  0.97  0.83.
Пример 6. Для обработки детали требуется выполнить
последовательно три технологические операции. Вероятность брака при
выполнении этих операций равна соответственно p1,p2,p3. Определим
вероятность того, что после этих трех операций получим годную деталь.
Решение. Пусть A1 , A2 , A3 - события, состоящие в том, что произошел
брак на соответствующей операции, а С – событие, состоящее в том, что
деталь годная. Событие С произойдет, если на всех трех операциях не будет
брака, то есть
C  A1 A2 A3 .
Так как события эти события А1,А2,А3 независимы, то
P (C )  P ( A1 ) P ( A2 ) P ( A3 ) ,

но P( Ai )  1  P( Ai )  1  pi (i=1,2,3), поэтому
P (C )  (1  p1 )(1  p2 )(1  p3 ) .

Пример 7. Система числового управления (ЧПУ) станком состоит из


четырех блоков, из которых второй блок дублирует первый, а четвертый –
дублирует третий. Если происходит отказ основного блока, то автоматически
происходит переключение на резервный блок. Все блоки и переключатели
могут независимо друг от друга отказать. Вероятности безотказной работы
блоков за заданное время равны соответственно p1, p2, p3, p4, а вероятность
безотказной работы переключателя равна p. Следует определить вероятность
безотказной работы системы ЧПУ.
Решение. Пусть события, соответствующие безотказной работе блоков,
есть 1, C2 , C3 , C4 , а переключателей - C5 ,C6 соответственно. Первый и
C
второй блок вместе с переключателем целесообразно рассматривать как
обобщенный блок, безотказная работа которого соответствует событию А.
Аналогично третий и четвертый блоки со своим переключателем
целесообразно рассматривать как второй обобщенный блок, безотказная
работа которого соответствует событию В. Эти события независимы друг от
друга, поэтому событие С, соответствующее безотказной работе системы
ЧПУ, определяется так: C  AB , а P(C )  P( A) P( B) .
Определим теперь Р(А) и Р(В). Событие A  C1  C1C2C5 . Аналогично
событие B  C3  C3C4C6 . Поэтому
P( A)  p1  (1  p1 ) p2 p, P ( B )  p3  (1  p3 ) p4 p ,
а
P (C )  [ p1  (1  p1 ) p2 p ]  [ p3  (1  p3 ) p4 p] .

3.4.Формула полной вероятности.


Следствием теорем сложения и умножения вероятностей является формула полной
вероятности.
Пусть требуется определить вероятность некоторого события А, которое может
произойти вместе с одним из событий H1 , H 2 ,..., H n , образующих полную группу
19
несовместимых событий. Будем называть эти события гипотезами. Тогда имеет место
следующая формула:
n
P  A    P H i  P  A H i . (3.9)
i 1
Доказательство. Событие А может появиться только в комбинации с
какой-либо гипотезой Нi:
n
A   H i A.
i 1
Так как гипотезы H1 , H 2 ,..., H n несовместимы по условию, то и события
H1 A, H 2 A,..., H n A тоже несовместимы и к ним применима теорема
сложения вероятностей, то есть
n
P  A    P  H i A .
i 1

Но по теореме умножения P H i A   P H i  P  A H i  , поэтому получим


n
P A   P H i  P A H i . , что и требовалось доказать.
i 1
Пример 1. Имеются три одинаковые на вид урны; в первой урне два
белых и один чёрный шар; во второй – три белых и один чёрный; в третьей
– два белых и два чёрных шара. Выбираем наугад одну из урн и вынимает
из неё шар. Найти вероятность того, что этот шар белый.
Решение. Рассмотрим три гипотезы: Н1 – выбор первой урны; Н2 –
выбор второй урны; Н3 – выбор третьей урны и событие А – появление
белого шара.
1
P H1   P H 2   P H 3   .
3
2 3 1
P  A H1 
 ; P  A H 2   ; P A H 3   .
3 4 2
1 2 1 3 1 1 23
P A        .
3 3 3 4 3 2 36
Пример 2. При обработке детали выполняется три различные
технологические операции. Вероятности брака на каждой из трех операций
равны: p1=0.01, p2=0.012, p3=0.009 соответственно. Брак можно исправить: c
вероятностью q1=0.5, если он возник только на одной операции; с
вероятностью q2=0.2, если он возник только на двух операциях. Брак
неисправим, если он возник на всех трех операциях. Требуется рассчитать
вероятность неисправимого брака детали после выполнения всех трех
операций.
Решение. Рассмотрим четыре события (гипотезы):
H0- брак на всех операциях не произошел (деталь годная);
H1- брак только на одной операции;
H2- брак только на двух операциях;
H3- брак на всех трех операциях.
Пользуясь теоремами сложения и умножения вероятностей, определим
вероятности отмеченных гипотез.
20
P ( H 0 )  (1  p1 )(1  p2 )(1  p3 )  0.969;
P ( H1 )  p1 (1  p2 )(1  p3 )  (1  p1 ) p2 (1  p3 )  (1  p1 )(1  p2 ) p3  0.0303;
P ( H 2 )  p1 p2 (1  p3 )  p1 (1  p2 ) p3  (1  p1 ) p2 p3  0.000315;
P ( H 3 )  p1 p2 p3  0.000001.
Условные вероятности события А:
P( A | H 0 )  0; P( A | H1 )  1  q1; P( A | H 2 )  1  q2 ; P( A | H 3 )  1 .
Пользуясь формулой полной вероятности (3.9), получаем, что
P( A)  P( H 0 )  0  P( H1 )  (1  q1 )  P( H 2 )  (1  q2 )  P( H 3 ) 1  0.0154 .

3.5.Формула Бейеса или теорема гипотез.


Пусть имеется полная группа несовместных гипотез H1 , H 2 ,  , H n .
Вероятности этих гипотез до опыта известны и равны соответственно
P H1  , P  H1  ,  , P  H n  . Произведён опыт, в результате которого появилось
событие А. Как изменятся вероятности гипотез в связи с появлением этого
события? Т.е. надо найти P H i A .
P AH i   P A P H i A  P H i  P A H i 
P H i  P  A H i 
P  H i A 
P A 
n
P A   P H i  P  A H i .
i 1
Окончательно получаем
P H i  P A H i 
P  H i A 
n . (3.10)
 P( H i ) P A | H i 
i 1

Пример 1. Прибор может собираться из высококачественных деталей и


деталей обычного качества; вообще около 40% приборов собирается из
высококачественных деталей. Если прибор собран из высококачественных
деталей, его надёжность (вероятность безотказной работы) равна 0.95. Если
из деталей обычного качества, то 0.7. Прибор испытывался в течение t
часов и работал безотказно. Найти вероятность того, что он собран из
высококачественных деталей.
Решение. Возможны две гипотезы: Н1- прибор собран из
высококачественных деталей, Н2 – прибор собран из обычных деталей.
Вероятности этих гипотез до опыта:
P H1   0.4; P H 2   0.6.
В результате опыта наблюдено событие А – прибор безотказно работал
время t. Условные вероятности при гипотезах Н1 и Н2 равны:
P A H1   0.95; P  A H 2   0.7 .
По формуле Бейеса находим:
0.4  0.95
P  H1    0.475 .
0.4  0.95  0.6  0.7
Пример 2. Партия деталей обрабатывалась на двух станках, 40% на
первом станке и 60% на втором станке. Вероятность брака при обработке на
21
первом станке p1=0.01, а при обработке на втором станке р2=0.02. При
проверке детали она оказалась бракованной (событие А). Определить
вероятность того, что деталь была обработана на первом станке, если не
известно на каком станке она обрабатывалась.
Решение. Имеются две гипотезы:
H1 – деталь была обработана на первом станке;
H2 – деталь была обработана на втором станке.
Априорные (начальные) вероятности этих гипотез
P ( H1 )  0.4, P ( H 2 )  0.6 .
Вероятности
P ( A | H1 )  p1 , P ( A | H 2 )  p 2 .

Пользуясь формулой Бейеса (3.10) получаем:


P ( H1 ) P ( A | H1 )
P( H1 | A)   0.25 .
P ( H1 ) P ( A | H1 )  P ( H 2 ) P ( A | H 2 )
Таким образом, вероятность того, что деталь была обработана на первом
станке, равна 0.25.
22

Случайные величины и их законы распределения


4.1.Ряд распределения
Случайной величиной, как уже отмечалось, называется величина, которая в
результате опыта может принимать то или иное заранее не известное значение. Если
возможные значения можно пронумеровать, то случайная величина называется
дискретной, если значением случайной величины может быть любое действительное
число в заданном диапазоне, то случайную величину называют непрерывной.
К дискретным величинам можно отнести число попаданий в цель, число очков при
бросании кости, число сгоревших радиоэлементов в приборе и т. д. К непрерывным
величинам можно отнести координаты точки попадания, ошибку прибора, время работы
устройства и т. п.
Условимся в дальнейшем случайные величины обозначать большими буквами, а
их конкретные значения – соответствующими малыми буквами. Рассмотрим , например,
дискретную случайную величину Х, которая может принимать значения
x1 , x 2 ,..., x n
с вероятностью
p1 , p 2 ,..., p n .
Так как события X  x i , (i  1,..., n) несовместимы, то они образуют полную группу и
сумма вероятностей всех возможных событий равна, то есть
n
 pi  1.
i 1
Эта суммарная вероятность каким-то образом распределена между отдельными
значениями. Для полного описания данной случайной величины нужно задать её закон
распределения.
Законом распределения случайной величины называется всякое соотношение,
устанавливающее связь между возможными значениями случайной величины и
соответствующими им вероятностями.
Закон распределения может быть задан в виде таблицы (ряда распределения):
x1 x2 … xn
X
p1 p2 … pn
P

или в виде графика (многоугольника распределения):


pi

p3
p2
p4
p1
p5

x1 x2 x3 x4 xi
Рис.4.1.1.Многоугольник (полигон) дискретного распределения.
23

Для изображения распределения дискретной случайной величины применяют также


столбчатые диаграммы (см. рис.4.1.2).
P

p2 pi

p1

pn
X
x1 x2 xi xn
Рис.4.1.2. Столбчатая (решетчатая ) диаграмма распределения дискретной
случайной величины.

Пример. Стрелок производит 3 выстрела по мишени. Вероятность


попадания при каждом выстреле 0,4. За каждое попадание стрелку
засчитывается 5 очков. Построить ряд распределения числа выбитых очков.
Решение. Обозначим Х – число выбитых очков. Значения:
x1  0, x2  5, x3  10, x4  15. Их вероятности находим по теореме о повторении
опытов:
p1  0,63  0,216;
p2  C31  0,4  0,6 2  0,432;
p3  C32  0,4 2  0,6  0,288;
p4  0,43  0,064.

0,50
0,40
0,30
0,20
0,10
0,00
0 5 10 15

4.2.Функция распределения

Для непрерывных величин удобнее пользоваться не рядом распределения, а


функцией распределения случайной величины, т. е. вероятностью события Х>х, где х –
некоторая текущая переменная.
F  x   P  X  x . (4.2.1)
Функцию распределения иногда называют интегральным законом распределения.
Она существует для любых случайных величин – как непрерывных, так и дискретных.
Общие свойства:
24
1. Функция распределения F(x) есть неубывающая функция своего аргумента, т. е. при
x 2  x1 F  x2   F  x1 .
2. F      0.
3. F      1.
F(x)

1.0

0 x
Рис.4.2.1.Пример графика функции распределения.

Пример. Производится три независимых опыта. Случайная величина Х – число


появлений события А в опыте. Дан ряд распределения. Найти функцию распределения.
xi 0 1 2 3
pi 0,25 0,4 0,15 0,2

x  0 F  x   0;
0  x  1 F  x   0,25;
1  x  2 F  x   0,65;
2  x  3 F  x   0,8;
3  x F  x   1.
F(x)
1.0
1ю0
0.80

0.65

0.25

0 1 2 3 x
Рис.4.2.2.Пример интегральной функции распределения дискретной случайной
величины.

Обычно функция распределения непрерывной случайной величины представляет


собой непрерывную функцию.
25
F(x)

F(b)

F(a)

0 a b x
Рис.4.2.3.Пример графика распределения непрерывной случайной величины.

Пусть дана функция распределения случайной величины X. Нужно определить


вероятность попадания на заданный участок.
a  X  b.
Эта вероятность
P (a  X  b)  F (b)  F (a) .

Рассмотрим три события:


A  X  b,
B  X  a,
C  a  X  b.
Учитывая, что А=В+С по теореме сложения вероятностей имеем.
P A  P B   P C  ,
P X  b   P  X  a   P a  X  b  ,
F  a   F  b   P a  X  b  ,
P  a  X  b   F  b   F  a .
т.е. вероятность попадания случайной величины на заданный участок равна приращению
функции распределения на этом участке.
Пусть a  b , тогда F  a   F  b  и P a  X  a   0 . Вероятность любого отдельного
значения непрерывной случайной величины рана 0.

4.3.Плотность распределения

Пусть имеется непрерывная случайная величина Х с функцией распределения F(x),


которую мы предположим непрерывной и дифференцируемой. Вычислим вероятность её
попадания на участок от х до х+х:
P x  X  x  x   F  x  x   F  x  ,
Уменьшая х, в пределе получим производную.
lim F  x  x   F  x 
 F  x .
x  0 x
Введём обозначение f  x   F  x . f  x  - производная функции распределения
характеризует плотность, с которой распределены значения случайной величины в данной
точке. Она называется плотностью распределения (плотностью вероятности)
непрерывной случайной величины. Кривая, изображающая плотность, называется кривой
распределения.
26
Рассмотрим непрерывную случайную величину Х с плотностью распределения f(x)
и элементарный участок dx, примыкающий к точке х. Вероятность попадания случайной
величины в участок от х до x+dx равна f(x)dx.
f(x)

0 x dx x

f(x)

0   x
Рис.4.3.1.Графики плотности распределения непрерывной случайной
величины случайной.

Выразим вероятность попадания величины Х на отрезок от  до .



P  X      f  x  dx. (4.3.1)

Геометрически это есть площадь под кривой распределения.
Выразим функцию распределения через плотность.
F  x   P X  x   P    X  x  ,
x
F  x   f  x  dx. (4.3.2)


Геометрически F(x) есть площадь кривой распределения левее точки х.


Основные свойства плотности распределения.
1. Плотность распределения есть положительная функция. f  x   0.
2. Интеграл в бесконечных пределах от плотности распределения =1:


 f  x  dx  1. (4.3.3)

27
f(x)
F(x)

0 x x
Рис.4.3.2.Иллюстрация к формуле (4.3.2)

Пример. Случайная величина Х подчинена закону распределения с плотностью:


 
f  x   a cos x при   x  ; (4.3.4)
2 2
 
f  x   0 при x   или  x.
2 2
Найти коэффициент а, построить график плотности распределения f(x). Найти функцию
распределения F(x) и построить её график. Найти вероятность попадания величины Х на

участок от 0 до .
4
Решение. График плотности f(x):
f
(x)

-
 0  
2 4 2
Рис.4.3.3.График плотности распределения (4.3.4).
По свойству плотности распределения

 2

 f  x  dx   a cos xdx  2a  1.
 
2
1
a .
2
Функция распределения:
28
 
 0 при x   ;
2
 1  
F  x     sin x  1 при   x  ; (4.3.5)
2 2 2
 
1 при x  .
 2
F
(
x)


  x
2 2
Рис.4.3.4.График функции распределения (4.3.5)


Вероятность попадания в интервал от 0 до :
4
   1   1 2
P 0  X     sin  1   sin 0  1  .
 4  2 4  2 4
29

5.Числовые характеристики случайных величин


5.1.Характеристики положения
Закон распределения случайной величины является ее исчерпывающей характеристикой.
Однако на практике часто не требуется такого полного описания и достаточно знать
только некоторые числовые характеристики случайной величины, такие, например, как
показатели положения и разброса случайной величины.
Среди числовых характеристик положения случайной величины
наиболее важной является математическое ожидание, которое
характеризует центр рассеивания случайной величины.
Математическим ожиданием называется сумма произведений всех
возможных значений случайной величины на вероятности этих значений. С
точки зрения механики её можно интерпретировать, как координату центра
тяжести вероятностных масс. Если дискретная случайная величина Х
может принимать значения x1 ,..., x n с вероятностями p1 ,..., p n , то
математическое ожидание X
n
 xi p i
x p  x p    x n p n i 1
MX  1 1 1 1  .
p1  p1   p n n
 pi
i 1
n
Учитывая, что  pi  1, получим, что
i 1
n
M  X    xi pi . (5.1.1)
i 1
Если случайная величина непрерывна, то отмеченная сумма
превращается в интеграл

M (X )   xf ( x) dx , (5.1.2)

где f (x) плотность распределения случайной величины X.

Рассмотрим среднее арифметическое наблюдённых значений величины Х:


x m  x m    x1m1 n mi
M * x  1 1 1 1   xi .
N i 1 N
mi
Но есть не что иное, как частота (или статистическая вероятность) события Х. При
N
m
увеличении числа опытов i  pi . Т.е. среднее арифметическое стремится к
N
математическому ожиданию.
Для непрерывных величин:

M  x   xf  x  dx .


Модой случайной величины называется её наиболее вероятное значение.


30
f(x)

 x
Рис.5.1.1.Иллюстрация к определению моды случайной величины.

Для симметричного распределения мода и математическое ожидание совпадают.


Медианой случайной величины Х называется такое её значение e, для которого
P X  e   P X  e  ,
т.е. одинаково вероятно, окажется ли случайная величина меньше или больше e.
Геометрически это абсцисса точки, в которой площадь под кривой распределения делится
пополам.
f(x)

e x
Рис.5.1.2.Иллюстрация к определению медианы.

Так же как в механике для описания распределения масс используются статические


моменты и моменты инерции, в теории вероятности используются начальные и
центральные моменты.

5.2.Моменты, дисперсия, квадратичное отклонение


Кроме рассмотренных выше характеристик положения используются и другие числовые
характеристики случайной величины, характеризующие степень разброса, форму
распределения и др. Для этого используют моменты распределения.
Начальным моментом s-го порядка называется сумма вида:

n
 s  X    xis pi .
i 1
для дискретной случайной величины и интеграл:

s  X   x
s
f  x  dx. (5.2.1)


для непрерывной случайной величины.


31
Нетрудно убедиться, что математическое ожидание – это первый
начальный момент, а математическое ожидание s-той степени Х – это
начальный момент порядка s случайной величины Х. То есть
s  X   M  X s  . (5.2.2)
Центрированной случайной величиной, соответствующей величине Х, называется
отклонение случайной величины Х от её математического ожидания:
X   X  mx . (5.2.3)
Математическое ожидание центрированной случайной величины равно
нулю.
  n n
M X   M  X  m x     x i  m x  p i   x i p i  m x  pi  m x  m x  0.
n

i 1 i 1 i 1
Моменты центрированной случайной величины называются
центральными моментами. Они аналогичны моментам относительно центра
тяжести в механике.
Центральным моментом порядка s случайной величины Х называется
математическое ожидание s-й степени соответствующей центрированной
случайной величины:
  
 s  X   M X  s  M  X  mx  s . . 
Для дискретной случайной величины s-й центральный момент:
n
 s    xi  mx  s pi ,
i 1
для непрерывной:


  x  mx  f  x  dx.
s
s  (5.2.4)


Рассмотрим второй центральный момент.


 o  n
 2  M  X 2     xi  mx  2 pi 
  i 1
n n n
  xi2 pi  2m x  xi pi  m x2  pi 
i 1 i 1 i 1

 2  2m x2  m x2  2  m x2 .
Аналогично третий центральный момент.
 o  n
 3  M  X 3     xi  mx  3 pi 
  i 1
n n n n
  xi3 pi  3m x  xi2 pi  3mx2  xi pi  m x3  pi 
i 1 i 1 i 1 i 1

  3  3 2 m x  2m 3x .
Вообще говоря, моменты могут рассматриваться относительно произвольной точки
а:
 s  M  X  a s .  
Но центральные моменты имеют преимущество: первый центральный момент равен нулю,
а второй центральный момент минимален. Докажем это.
32
n n
 2    xi  a  2 pi    xi  mx  mx  a  2 pi 
i 1 i 1
n n
   xi  mx  pi  2 mx  a    xi  mx  pi   mx  a  
2 2

i 1 i 1

  2   mx  a  .
2

Минимум будет при a  mx .


Второй центральный момент называется дисперсией случайной величины.
Обозначение:
D X    2  M X  2  
Т.е. дисперсией случайной величины Х называется математическое ожидание
квадрата соответствующей центрированной величины.
Другие формы записи:

D X   M  X  m x  ;
2

n
D X     xi  mx  2 pi ;
i 1 (5.2.5)

D X     x  mx 
2
f  x  dx.


Дисперсия есть характеристика рассеивания случайной величины около её


математического ожидания. В механике ей аналогичен момент инерции
относительно центра тяжести. Формула для расчёта дисперсии:
Dx   2  m x2 .
Дисперсия имеет размерность квадрата случайной величины. Чтобы иметь дело с
величиной такой же размерности, что и случайная величина, введено среднее
квадратичное отклонение (стандарт).
Обозначение:
X   D X  .
Для положительных случайных величин в качестве меры разброса используют
коэффициент вариации  как отношение квадратичного отклонения к математическому
ожиданию, то есть

 . (5.2.6)
mx

Третий центральный момент служит для характеристики асимметрии


распределения. Он имеет размерность куба случайной величины. Чтобы получить
безразмерную характеристику, его делят на куб среднего квадратичного отклонения.
Получают коэффициент асимметрии или просто асимметрию:

Sk  3 . (5.2.7)
3
33
f(x)

1 2

x
Рис.5.2.1.Иллюстрация к определению ассиметрии. Распределение 1 имеет положиельную
ассиметрию, а распределение 2 – отрицательную.

Четвёртый центральный момент служит для характеристики “крутости”, то есть


островершинности или плосковершинности распределения. Величина называется
эксцессом. Запись:

Ex  4  3. (5.2.8)
4
F(x)
Ex>0

Ex=0

Ex<0

x
Рис.5.2.2. Иллюстрация к определению эксцесса.

Кроме начальных и центральных моментов иногда применяются абсолютные


моменты (начальные и центральные), определяемые формулами
 ;  
o S
s  M X .
S
s  M X
 
 
Первый абсолютный центральный момент называется ещё средним арифметическим
отклонением.

 o 
 s  M  X   M  X  m x .
 

5.3.Закон равномерной плотности


В некоторых задачах встречаются непрерывные случайные величины, все возможные
значения которых лежат в пределах определённого интервала и равновероятны. Говорят,
что они распределяются по закону равномерной плотности. Примеры: рулетка, угол
поворота сбалансированного колеса и т. д.
Рассмотрим случайную величину, подчинённую закону равномерной плотности на
участке от  до .
34
f(x)

0   x
Рис.5.3.1.График равномерной плотности
Плотность распределения f(x) постоянна и равна С на участке от  до . Вне этого отрезка
она равна 0.
 c при   x   ,
f  x  
0 при x   или x   .
Так как площадь под кривой распределения равна 1:
c      1,
1
c .
 
Функция распределения:
 0 при x  
 x  
F  x   при   x  
   
 1 при   x
F(x)

0   x
Рис.5.3.2. График равномерного распределения.

Определим основные числовые характеристики случайной величины с равномерным


распределением на участке от  до .
Математическое ожидание:

x 
mx   dx  .

  2

В силу симметричности распределения медиана также равна . Моды у закона
2
равномерной плотности нет.
Дисперсия:
1

     2 .
    
Dx   2   x  dx 
2  12
35
Среднее квадратичное отклонение:
 
 x  Dx 
.
2 3
Асимметрия у симметричного распределения равна нулю.
Sk  0.
Для определения эксцесса находим четвёртый центральный момент:
 4
4 
1     4
 x  dx 
   2  80
4
Ex   3  1,2.
4
Среднее арифметическое отклонение:
 
1  2    
1  
  
x 
2
dx   x
   
dx 
2  4
.
2
Найдём вероятность попадания случайной величины Х в участок [a,b].
ba
P a  X  b   .
 
f(x)

0  a b  x
Рис.5.3.3. К определению вероятности P(a  X  b) .

5.4.Распределение Симпсона

Плотность этого распределения имеет вид равнобедренного треугольника


(см.рис.5.4.1).
f(x)

a x
b
Рис.5.4.1. График плотности Симсона.

Аналитическое выражение для плотности имеет вид:


36
 4( x  a ) ba
 при a  x  ;
 (b  a ) 2 2
f ( x)  
4(b  x) ba
 при  x  b.
 (b  a ) 2 2
При x  a и x  b плотность f ( x)  0 , c  2 /(b  a ) .
Математическое ожидание
ab
X  M (X )  .
2
Так как распределение симметрично относительно среднего значения,
то мода и медиана совпадают с математическим ожиданием.
Дисперсия
(b  a ) 2
D( X )  .
24
Квадратичное отклонение
(b  a) .
 X  D( X )  .
2 6

Ассиметрия S k  0 из-за симметричности распределения.


Четвертый центральный момент
(b  a ) 4
4  .
240
4
Эксцесс Ex   3  0.6 .
 4X

Рис.2.2. График плотности экспоненциального распределения при

различных значениях параметра a.

5.5.Биномиальное распределение

Дискретная случайная величина X, принимающая значения xm=m, где


m=0,1,…,n, имеет биномиальное распределение, если вероятности её значений
определяются следующей формулой:
Pn (m)  P( X  m)  C nm p m (1  p) n  m , m  0, 1, ..., n . (5.5.1)
Здесь
n!
C nm  -
m!( n  m)!
число сочетаний из n по m, а параметр p имеет смысл вероятности, то есть 0  p  1 .
Это распределение связано с повторением опытов. Если в результате опыта событие А
имеет вероятность p и опыт повторяется n раз, то вероятность того, что это событие
произойдет m раз, рана Pn (m) . Действительно, конкретная реализация n испытаний, в
которых событие A произошло m раз, а противоположное событие A соответственно n-m
раз, имеет вероятность p m (1  p ) n  m . Но m событий среди n испытаний могут
распределиться C nm равновозможными способами. Отсюда и получается формула (5.5.1).
37
Сумма
n n
 Pn (m)   C nm p m q n  m  ( p  q) n  1,
m 1 m 1
так как q=1-p а p  q  1 . Выражение Pn (m) является членом разложения бинома
Ньютона (p+q)n ,поэтому это распределение называется биномиальным.
Математическое ожидание
n n
M ( X )   C nm p m q n  m  m  np  C nm11 p m 1q n  m  np . (5.5.2)
m0 m 1
Дисперсия
n
D( X )   C nm p m q n  m  m 2  (np) 2 npq  np(1  p ) . (5.5.3)
m 1
Квадратичное отклонение
 X  np(1  p ) . (5.5.4)
Если n устремить к бесконечности и одновременно p к нулю так, чтобы
выполнялось соотношение
a
p ,
n
где а положительная константа, то в пределе
am a
P ( m)  e ,
m!
а это известное распределение Пуассона. То есть в пределе при n   и p  a / n
биномиальное распределение совпадает с распределением Пуассона.

5.6.Распределение Пуассона

Рассмотрим дискретную случайную величину Х, которая может принимать только целые


неотрицательные значения: 0, 1, 2, …
Говорят, что случайная величина Х распределена по закону Пуассона, если вероятность
того, что она примет определённое значение m, выражается формулой
am a
Pm  e  m  0,1, ,
m!
где а – некоторая положительная величина, называемая параметром распределения
Пуассона.
Ряд распределения по закону Пуассона:
xm 0 1 2 … m
pm ea a a a2 a am a
e e e
1! 2! … m!

Убедимся, что суммарная вероятность равна единице.


  
am a am
 Pm   e  e a
 .
m0 m  0 m! m  0 m!

am
Но  m!  e a ,
m0
38

Следовательно  Pm  e a e a  1.
m 0

0,7
0,6
0,5
a=0,5
0,4 a=1
0,3 a=2
0,2 a=3,5

0,1
0
0 1 2 3 4 5 6 7 8

Рис.5.6.1. Полигон распределения Пуассона.

Вычислим вероятность того, что Х окажется больше 0:


R1  1  P0  1  e a .
Математическое ожидание
 
am 
ma a m 1 a 
a m1
mx   mPm   m m! e a   e  ae a   ae a e a  a.
m 0 m 0 m 1 m  m  1 ! m 1  m  1 !
Т.е. параметр а - есть математическое ожидание.
Дисперсия
Dx   2  mx2

am a 
a m 1  a
2   m2 m!
e  am
 m  1!
e 
m0 m0

a m 1  a
 a    m  1  1 e 
m0  m  1!
  a m 1  a 
a m 1  a 
 a    m  1 e  e .
m  0  m  1! m  0  m  1! 
 m 1  m 1
a a
Но   m  1  m  1! e  a  a,   m  1! e  a  e a e  a  1.
m0 m 1
Следовательно  2  a a  1 .
Dx  a a  1  a 2  a .
Вывод. Дисперсия равна математическому ожиданию. Это свойство часто используют для
определения, распределена ли случайная величина Х по закону Пуассона.
Рассмотрим типичную задачу. Пусть на оси Ох случайным образом
распределяются точки. Пусть распределение удовлетворяет следующим условиям:
1. Вероятность попадания какого-либо числа точек в отрезок l зависит только от длины
отрезка, но не от положения на оси. На единичный отрезок попадает в среднем 
точек.
2. Точки распределяются независимо.
39
3. Вероятность совпадения двух точек равна нулю (чем точки ближе, тем вероятность
меньше).
Выделим на оси отрезок длиной l и рассмотрим дискретную случайную величину Х
– число точек, попадающих в этот отрезок. Возможные значения Х: 0, 1, 2, …, m, …
Докажем, что случайная величина Х имеет закон распределения Пуассона. Для
этого вычислим вероятность того, что на участок l попадёт m точек.
На участок х попадёт х точек. Это математическое ожидание. Поскольку
участок х мал, то попадание двух точек в один отрезок пренебрежимо мало и х есть
вероятность попадания одной точки на участок х.
Пусть существует число n, такое, что l  nx . Тогда вероятность попадания в один
l
отрезок равна p   . А вероятность попадания в m отрезков равна
n
m nm
 l   l 
Cnm   1  
 n  n
Обозначим l  a , тогда
m nm
a  a
Cnm   1   .
n  n
m nm
a  a
Pm  lim C nm   1  
n  n  n
n
 a
m 1  
m  a 
m

C n   1  
a 
nm

n  n  1   n  m  1 a  n
n  n m! nm  a
m

1  
 n
n n  1   n  m  1
lim m
1
n
m a
n 1  
 n
a
n  n

 a  a a 
lim 1    lim 1    ea
n   n n    n 
 
am a
Pm  e
m!
Что и требовалось доказать.
Мы убедились, что распределение Пуассона возникает там, где точки
располагаются случайно друг от друга и подсчитывается их количество, попавшее в
какую-то область. Мы рассмотрели одномерный случай, но его легко можно
распространить на любую размерность. Например, если для отрезка оси параметр а равен
a  l , то для плоского случая a  S (здесь S - площадь области), а для объёмного
a  V (V – объём области).
Докажем, что закон Пуассона является предельным для биномиального
распределения.
Pm , n  Cnm p m 1  p 
nm
,
Причём параметр a  np .
Предельное свойство биномиального распределения можно записать в виде:
am a
lim Cnm p m 1  p 
nm
 e
n m!
a
Если подставить p  , то получим
n
m nm
a  a am a
lim Cnm   1    e ,
n   
n n m!
40
что уже было доказано. При большом n приближённо вероятность можно считать:
Pm , n 
 np  m e  np .
m!
Из-за малой вероятности события закон Пуассона носит название “закона редких
явлений”.

5.7.Геометрическое распределение

Геометрическое распределение выражается следующим образом:


P ( X  n)  p (1  p ) n 1 , (5.7.1)
( n  1,2,3,...)
Название распределения связано с тем , что вероятности при различных n образу-ют
геометрическую прогрессию со знаменателем , равным q=1-p. Действительно
P( X  n  1) p (1  p ) n
  (1  p ) .
P ( X  n) p ((1  p ) n 1
Параметр p имеет смысл вероятности. Пусть при повторении опыта событие А имеет
вероятность p, тогда число опытов X до первого появления события А как раз
определяется выражением (5.7.1). Действительно, вероятность того, что в первых n-1
опытах событие А не произойдет, равна (1-p)n-1 .А вероятность появления его при n-ом
испытании равна p. Отсюда получаем вероятность реализации такой серии событий равна
(1  p ) n 1  p .
Математическое ожидание
 1
M ( X )   (1  p ) n p 2  .
n 1 p
Дисперсия
 1 1 p
D( X )   (1  p ) n p  n 2   .
2
n 1 p p2

5.5.Биномиальное распределение

Дискретная случайная величина X, принимающая значения xm=m, где


m=0,1,…,n, имеет биномиальное распределение, если вероятности её значений
определяются следующей формулой:
Pn (m)  P( X  m)  C nm p m (1  p) n  m , m  0, 1, ..., n . (5.5.1)
Здесь
n!
C nm  -
m!( n  m)!
число сочетаний из n по m, а параметр p имеет смысл вероятности, то есть 0  p  1 .
Это распределение связано с повторением опытов. Если в результате опыта событие А
имеет вероятность p и опыт повторяется n раз, то вероятность того, что это событие
произойдет m раз, рана Pn (m) . Действительно, конкретная реализация n испытаний, в
которых событие A произошло m раз, а противоположное событие A соответственно n-m
раз, имеет вероятность p m (1  p ) n  m . Но m событий среди n испытаний могут
распределиться C nm равновозможными способами. Отсюда и получается формула (5.5.1).
Сумма
n n
 Pn (m)   C nm p m q n  m  ( p  q) n  1,
m 1 m 1
так как q=1-p а p  q  1 . Выражение Pn (m) является членом разложения бинома
Ньютона (p+q)n ,поэтому это распределение называется биномиальным.
41
Математическое ожидание
n n
M ( X )   C nm p m q n  m  m  np  C nm11 p m 1q n  m  np . (5.5.2)
m0 m 1
Дисперсия
n
D( X )   C nm p m q n  m  m 2  (np) 2 npq  np(1  p ) . (5.5.3)
m 1
Квадратичное отклонение
 X  np(1  p ) . (5.5.4)
Если n устремить к бесконечности и одновременно p к нулю так, чтобы
выполнялось соотношение
a
p ,
n
где а положительная константа, то в пределе
am a
P ( m)  e ,
m!
а это известное распределение Пуассона. То есть в пределе при n   и p  a / n
биномиальное распределение совпадает с распределением Пуассона.

5.6.Распределение Пуассона

Рассмотрим дискретную случайную величину Х, которая может принимать только целые


неотрицательные значения: 0, 1, 2, …
Говорят, что случайная величина Х распределена по закону Пуассона, если вероятность
того, что она примет определённое значение m, выражается формулой
am a
Pm  e  m  0,1, ,
m!
где а – некоторая положительная величина, называемая параметром распределения
Пуассона.
Ряд распределения по закону Пуассона:
xm 0 1 2 … m
pm e  a a a 2
a a am a
e e e
1! 2! … m!

Убедимся, что суммарная вероятность равна единице.


  
am am
 Pm   m!e  a  ea  m! .
m0 m0 m0

am
Но  m!  e a ,
m0

Следовательно  Pm  e a e a  1.
m 0
42

0,7
0,6
0,5
a=0,5
0,4 a=1
0,3 a=2
0,2 a=3,5

0,1
0
0 1 2 3 4 5 6 7 8

Рис.5.6.1. Полигон распределения Пуассона.

Вычислим вероятность того, что Х окажется больше 0:


R1  1  P0  1  e a .
Математическое ожидание
 
a m a 
ma a m 1 a 
a m1
mx   mPm  m m!
e 
m  m  1 !
e  ae a 
 m  1  !
 ae a e a  a.
m 0 m 0 m 1 m 1
Т.е. параметр а - есть математическое ожидание.
Дисперсия
Dx   2  mx2

am a 
a m 1  a
2   m2 m!
e  am
 m  1!
e 
m0 m0

a m 1  a
 a    m  1  1 e 
m0  m  1!
  a m 1  a 
a m 1  a 
 a    m  1 e  e .
m  0  m  1! m  0  m  1! 

a m 1  a 
a m 1  a
Но   m  1  m  1! e  a,   m  1! e  e a e  a  1.
m0 m 1
Следовательно  2  a a  1 .
Dx  a a  1  a 2  a .
Вывод. Дисперсия равна математическому ожиданию. Это свойство часто используют для
определения, распределена ли случайная величина Х по закону Пуассона.
Рассмотрим типичную задачу. Пусть на оси Ох случайным образом
распределяются точки. Пусть распределение удовлетворяет следующим условиям:
4. Вероятность попадания какого-либо числа точек в отрезок l зависит только от длины
отрезка, но не от положения на оси. На единичный отрезок попадает в среднем 
точек.
5. Точки распределяются независимо.
6. Вероятность совпадения двух точек равна нулю (чем точки ближе, тем вероятность
меньше).
43
Выделим на оси отрезок длиной l и рассмотрим дискретную случайную величину Х
– число точек, попадающих в этот отрезок. Возможные значения Х: 0, 1, 2, …, m, …
Докажем, что случайная величина Х имеет закон распределения Пуассона. Для
этого вычислим вероятность того, что на участок l попадёт m точек.
На участок х попадёт х точек. Это математическое ожидание. Поскольку
участок х мал, то попадание двух точек в один отрезок пренебрежимо мало и х есть
вероятность попадания одной точки на участок х.
Пусть существует число n, такое, что l  nx . Тогда вероятность попадания в один
l
отрезок равна p   . А вероятность попадания в m отрезков равна
n
m nm
 l   l 
Cnm   1  
 n  n
Обозначим l  a , тогда
m nm
a  a
Cnm   1   .
  
n n
m nm
a  a
Pm  lim C nm   1  
n  n  n
n
 a
m 1  
 a 
m

Cnm   1  
a 
nm

n  n  1   n  m  1 a  n
n  n m! nm  a
m

 1  
 n
n n  1   n  m  1
lim m
1
n
m a
n 1  
 n
a
n  n

 a  a a 
lim 1    lim 1    ea
n   n n    n 
 
am a
Pm  e
m!
Что и требовалось доказать.
Мы убедились, что распределение Пуассона возникает там, где точки
располагаются случайно друг от друга и подсчитывается их количество, попавшее в
какую-то область. Мы рассмотрели одномерный случай, но его легко можно
распространить на любую размерность. Например, если для отрезка оси параметр а равен
a  l , то для плоского случая a  S (здесь S - площадь области), а для объёмного
a  V (V – объём области).
Докажем, что закон Пуассона является предельным для биномиального
распределения.
Pm , n  Cnm p m 1  p 
nm
,
Причём параметр a  np .
Предельное свойство биномиального распределения можно записать в виде:
am a
lim Cnm p m 1  p 
nm
 e
n m!
a
Если подставить p  , то получим
n
m nm
a  a am a
lim Cnm   1    e ,
n   
n n m!
что уже было доказано. При большом n приближённо вероятность можно считать:
44

Pm , n 
 np  m e  np .
m!
Из-за малой вероятности события закон Пуассона носит название “закона редких
явлений”.

5.7.Геометрическое распределение

Геометрическое распределение выражается следующим образом:


P ( X  n)  p (1  p ) n 1 , (5.7.1)
( n  1,2,3,...)
Название распределения связано с тем , что вероятности при различных n образу-ют
геометрическую прогрессию со знаменателем , равным q=1-p. Действительно
P( X  n  1) p (1  p ) n
  (1  p ) .
P ( X  n) p ((1  p ) n 1
Параметр p имеет смысл вероятности. Пусть при повторении опыта событие А имеет
вероятность p, тогда число опытов X до первого появления события А как раз
определяется выражением (5.7.1). Действительно, вероятность того, что в первых n-1
опытах событие А не произойдет, равна (1-p)n-1 .А вероятность появления его при n-ом
испытании равна p. Отсюда получаем, что вероятность реализации такой серии событий
равна (1  p) n 1  p .
Математическое ожидание
 1
M ( X )   (1  p ) n p 2  .
n 1 p
Дисперсия
 1 1 p
D( X )   (1  p ) n p  n 2   .
2
n 1 p p2

5.8.Распределение Паскаля
Распределение Паскаля дискретной случайной величины Х выражается так:
P( X  x)  C xx k 1 p k (1  p) x , ( x  0, 1, 2, ...) , (5.8.1)
где p и k – параметры распределения. Параметр p имеет смысл вероятности, то есть
0  p  1 . Параметр k – целое положительное число.
Математическое ожидание
 x k x k (1  p )
M ( X )   C x  k 1 p (1  p )  x  .
x 0 p
Дисперсия
 k (1  p )
D( X )   C xx k 1 p k (1  p ) x  x 2  ( M ( X )) 2  .
x 0 p2
Это распределение связано, как и геометрическое, с повторением опытов.
Если p – вероятность события А в одном опыте, то до появления этого события k раз
потребуется всего k+x испытаний, где конкретное значение x имеет вероятность (5.8.1).
Это распределение обобщает геометрическое распределение. То есть если k=1, то
распределение Паскаля совпадает с геометрическим. Действительно, если в (5.8.1)
подставить k=1, то получим
P ( X  x )  C xx p (1  p ) x ,
что совпадает с геометрическим распределением (5.7.1), если положить, что
x=n-1
x
и учесть , что C x  1 .
45
5.9.Гипергеометрическое распределение
Гипергеометрическое распределение дискретной случайной величины Х
выражается так:
n x
C kx C N k
P( X  x)  , ( x  0, 1, 2, ..., min(k , n)) , (5.9.1)
n
CN
где N,n,k – целые положительные величины, играющие роль параметров распределения,
причем n  N , k  N .
Это выражение уже встречалось нам раньше в связи с выборкой размера n из
партии деталей размером N, в которой k- число дефектных деталей. Тогда x- число
дефектных деталей в выборке из n деталей, а (5.9.1) – вероятность этого значения.
Математическое ожидание
min(n, k ) nk
M (X )   P( X  x) x  .
x 0 N
Дисперсия
min(n, k ) nk ( N  k )( N  n)
D( X )   P( X  x)  x 2  ( M ( X )) 2  .
x 0 N 2 ( N  1)

5.10.Формула Стирлинга
При расчетах вероятностей в дискретных распределениях часто приходится
вычислять выражение n! , например,
n!
C nm  .
m!( n  m)!
Стирлинг вывел удобную для практических расчетов приближенную формулу
n!  n n e  n 2n . (5.10.1)
Эта формула особенно удобна при больших n но она дает хорошее приближения и при
малых n. На пример при n=2 n!=2, а формула (5.10.1) дает значение 1.9. При n=4 точное
значение 4!=24, а приближенное 23.5. При n=8 8!=40320 а приближенное значение
39902.4 с относительной ошибкой 0.01.
46

6.Непрерывные распределения
6.1.Нормальное распределение
Это наиболее часто встречающийся на практике закон распределения. Он
характеризуется плотностью вероятности вида:

 x m2
1
f  x 
2
e 2 .
 2
Кривая распределения по нормальному закону имеет симметричный холмообразный вид
(см. рис.6.1.1)
f(t)
0,8 a=5 б=0.5

0,7

0,6

0,5 a=5 б=1


0,4

0,3 a=5 б=2

0,2

0,1

0,0 t
0,0 1,0 2,0 3,0 4,0 5,0 6,0 7,0 8,0 9,0 10,0
-0,1

Рис.6.1.1. Графики плотности нормального распределения при


различных значениях квадратичного отклонения .
1
Максимальная ордината кривой, равная , соответствует точке x  m ; по
 2
мере удаления от точки m плотность распределения падает и стремится к оси абсцисс.
Докажем, что m - есть математическое ожидание, а  – есть среднее квадратическое
отклонение. Для этого вычислим основные числовые характеристики случайной величины
Х.
  
 x m2
1
M  X    xf  x  dx   xe 2 2 dx.
  2 
Применим замену переменной
xm
 t.
 2


  
1
MX  
2
2t  m e  t dt 
 
 
 2 t2 m t2

  te dt 
 e dt.
 

Первый интеграл равен нулю. Второй представляет собой интеграл Эйлера-Пуассона:


 
t2 2

e dt  2  e  t dt  .
 0

Следовательно, M  X   m . На практике параметр m часто называют центром рассеивания.


Вычислим дисперсию Х:
47
 
 x  m2
1
D X     x  m
2 2 2
e dx.
 2 
Та же замена переменной:
xm
 t.
 2
2 2   2  t 2
D X    t e dt.
 
 2  t 2
Интегрирование по частям дает D(X)   
 t  2te dt 

   
2  t 2 2 
  te   e  t dt .
 
   

Первое слагаемое равно нулю, второе  , откуда
D X    2 .
Геометрический смысл: m – центр симметрии кривой плотности распределения;  -
характеризует степень рассеивания случайной величины и одновременно расплывчатость
кривой, поскольку площадь, ограниченная кривой плотности всегда равна единице.
Размерность m и  совпадает с размерностью случайной величины Х. Выведем
общие формулы для центральных моментов любого порядка.


  x  m f  x  dx 
S
S 


  x  m2
1 
  x  m
S 2 2
 e dx.
 2 

Делаем замену переменной


xm
 t.
 2
 2  S 
2
S  t e  t dt.
S
 

Интегрируем по частям:
 2  S 
2

t
S 1
S  te  t dt 
 

 2  S

 1  t 2 S 1

S  1   S  2 t2 






2
e t 
2  t e dt .

   
Первый член в скобках равен нулю. Получаем:
 S  1   S 
2 2

t
S 2
S  e  t dt.
2  

Но момент степени S-2:


 2  S 2 
2

t
S 2
S 2  e  t dt .
 

Следовательно
 S   S  1 2  S  2
Т. е. можно выражать чётные моменты через моменты на 2 порядка ниже. Нечетные
моменты в силу симметрии распределения равны нулю. Т. е. для чётных моментов имеем:
2   2 ;
 4  3 4 ;
 6  15 6 ;

48
Общая формула для момента порядка S при чётном S:
 S   S  1!! S ,
где под  S  1!! понимается произведение всех нечётных чисел от 1 до S-1.
Асимметрия:
3
Sk   0.
3
Эксцесс:
4 3 4
Ex  4  3  4  3  0.
 
Т.е. эксцесс характеризует крутость конкретного закона распределения по отношению к
нормальному.
Вычислим вероятность попадания случайной величины Х, подчинённой
нормальному закону с параметрами m,  на участок от  до .
P  X     F     F   ,
где F(x) – функция распределения величины Х.
 x  m 2
x 1 x 
F  x    f  x  dx  e 2 2 dx.
  2  
Замена переменной
xm
 t.

xm
t2
1  
F  x   e 2 dx.
2  
Этот интеграл сложный, но существуют специальные таблицы для функций:
x x t2
2 1 
Ф X   e
t2
dx, Ф X 
*
e 2 dx.
  2 
Ф* есть нормальная функция распределения. Её таблицы приведены в приложениях
учебников и задачников.
 xm
F  x  Ф*  .
  
  m *  m 
P   X     Ф*   Ф  .
     
Свойства функции Ф*:
Ф *      0.
Ф *      1.
Ф *   x   1  Ф *  x .
Учитывая последнее свойство, рассмотрим вероятность попадания на участок,
симметричный, относительно математического ожидания.
l  l  l 
P m  l  X  m  l   Ф*    Ф*     2Ф*    1.
     
49
f(x)

0 m x
*
Решим следующую задачу. Отложим от математического ожидания четыре отрезка
длиной  и вычислим вероятность попадания случайной величины Х в каждый из них.
P m  X  m     Ф * 1  Ф *  0   0,341;
P m    X  m  2   Ф *  2   Ф * 1  0,136;
P m  2  X  m  3   Ф*  3  Ф *  2   0,012;
P m  3  X  m  4   Ф*  4   Ф *  3  0,001.
Вероятностью попадания в четвёртый участок уже практически можно пренебречь. Сумма
же вероятностей для первых трёх равна 0,5 с точностью до 0,01 (1%). Т. е. можно сказать,
что в интервале m  3 укладывается практически всё рассеивание. Такой способ оценки
диапазона возможных значений называется правилом трёх сигм. Это правило позволяет
грубо оценить величину . Берут максимально возможное отклонение и делят его на три.
Часто (особенно в артиллерийской практике) для характеристики рассеяния кроме
среднего квадратичного отклонения используют вероятное (срединное) отклонение,
обозначается Е или В.
Вероятным (срединным) отклонением случайной величины Х, распределённой по
нормальному закону, называется половина длины участка, симметричного относительно
центра рассеивания, вероятность попадания в который равна 0,5.
Т. е. вероятность попадания в интервал m  E равна 0,5.
1 1
P X  m  E   ; P X  m  E   .
2 2
Выразим Е через :
E 1
P  X  m  E   2Ф*    1  ;
  2
E 3
2Ф *     0,75;
  4
E
 0,674;

E  0,674 .

6.2.Показательное распределение

Плотность и функция показательного распределения положительной


случайной величины T выражаются формулами:
t t
1  
(6.2.1)
f (t )  e a , a
F (t )  e , t  0,
a
50
соответственно, а – параметр распределения. График плотности
представлен на рис.6.2.1. В литературе это распределение называют также
экспоненциальным.

f(t)
0,6

0,5
a=2.
0,4 0
a=4.0
0,3
a=7.0
0,2

0,1

0 t
0 1 2 3 4 5 6 7 8 9 10

Рис6.2.1. График плотности показательного распределения при

различных значениях параметра a.

Математическое ожидание
1 t
m  M (T )   exp( )tdt  a .
oa a
Дисперсия
1 t 2
D(T )   exp( )t dt  a 2  a 2 .
0a a
Квадратичное отклонение
T  D(T )  a ,
то есть для показательного распределения математическое ожидание и квадратичное
отклонение совпадают.
Этот закон широко используется в теории надежности благодаря
свойству "отсутствия памяти" (марковскому свойству), которое
значительно облегчает выкладки и упрощает расчетные формулы. Суть
свойства в том, что вероятность безотказной работы объекта в заданном
интервале не зависит от времени предшествующей работы.
Показательный закон является предельным для вероятности
безотказной работы сложных систем, если система состоит из элементов,
каждый из которых отказывает и восстанавливается независимо, но при
отказе хотя бы одного элемента простаивает вся система. Такая ситуация на
практике весьма распространена. Она имеет место, например, для сложных
станков, автоматических линий и др.
51

6.3.Логарифмически нормальное распределение


Логарифмически нормальное распределение для положительной случайной
величины T имеет плотность
1  (ln t  ln a ) 2 
f (t )  exp  , t  0, (6.3.1)
2 dt  2d 2 
где a и d - параметры распределения.

1,2
1
0,8
d=0.5
0,6 d=1.0
0,4 d=2.0

0,2
0
0 2 4 6 8 1 2 4 6 8 2
0, 0, 0, 0, 1, 1, 1, 1,

Рис.6.3.1.График плотности логарифмически нормального


распределения при значениях параметров: a=1.0, d=(0.5, 1.0, 2.0)

Математическое ожидание
 1  (ln t  ln a ) 2  d2
M (T )   exp  tdt  a  exp( ) .
0 2 dt  2d 2  2
Дисперсия
 1  (ln t  ln a ) 2  2 2 2 2 2
D(T )   exp  t dt  ( M (T ))  a  exp(d )  (exp(d )  1).
2 dt 2
0  2d 
Квадратичное отклонение
T  D (T )  M (T )  exp(d 2 )  1 .

Коэффициент вариации
D (T )
T   exp(d 2 )  1 .
M (T )
Ассиметрия
3
Sk    T  (exp(d 2 )  2) .
 T3
Мода
 o  a exp( d 2 ) .
Функция распределения F (t ) выражается через рассмотренную ранее функцию
нормированного нормального распределения   ( x) следующим образом:
52
 1 (ln t  ln a ) 2 x 1 x2 ln t  ln a
F (t )   exp( )dt   exp( )dx    ( ),
0 2 td 2d 2
  2 2 
где
ln t  ln a
x .
d
Здесь используется тот факт, что логарифм случайной величины T, распределенной по
закону (6.3.1) имеет нормальное распределение с математическим ожиданием a и
дисперсией d2, по этому это распределение и называется логарифмически
нормальным.
Если X имеет нормированное нормальное распределение то
T  a  exp(d  X )
будет иметь логарифмически нормальное распределение. После логарифмирования
получаем, что
ln T  ln a
X  .
d
Медиана определяется из следующего уравнения:
ln  e  ln a 1
F ( e )    ( ) ,
d 2
решение которого -
e  a .
Таким образом, параметр распределения a численно равен медиане распределения.
53

7.Статистическая оценка параметров распределения


Теория вероятности лишь описывает закономерности, имеющие место в массовых
случайных явлениях природы. Разработка методов регистрации, описания и анализа
статистических экспериментальных данных, получаемых в результате наблюдения
массовых случайных явлений, составляет предмет науки – математической статистики.
Все задачи математической статистики касаются вопросов обработки наблюдений над
случайными явлениями. Можно выделить три основных типа таких задач:
1. Задача определения закона распределения случайной величины
2. Задача проверки правдоподобия гипотез
3. Задача нахождения неизвестных параметров распределения

7.1.Статистическая функция распределения

Предположим, что изучается некоторая случайная величина Х, закон


распределения которой в точности неизвестен, и требуется определить этот закон из
опыта или проверить экспериментально гипотезу о том, что величина Х подчинена тому
или иному закону. С этой целью над случайной величиной Х производятся ряд
независимых опытов (наблюдений). В каждом из этих опытов величина Х принимает
определенное значение. Совокупность наблюдённых значений величины и представляет
собой первичный статистический материал, подлежащий обработке, осмыслению и
анализу. Такая совокупность называется «простой статистической совокупностью» или
«простым статистическим рядом». В литературе используется так же термин
«выборка», имея ввиду, что из генеральной совокупности объектов берется выборка из
нескольких объектов и над ними производятся соответствующие испытания или
измерения. Обычно простая статистическая совокупность оформляется в виде таблицы с
одним входом, в первом столбце которой стоит номер опыта i, а во втором —
наблюдённое значение случайной величины.
Пример 1. Случайная величина T- время восстановления отказа станка.
Восстановлено 10 отказов, при восстановлении каждого из них затрачено Ti минут
времени. Результаты наблюдений сведены в простой статистический ряд.

Табл.7.1.1.
Простой статистический ряд

i 1 2 3 4 5 6 7 8 9 10
Ti,мин 35 15 66 43 21 165 300 247 52 35

Простой статистический ряд представляет собой первичную форму записи


статистического материала и может быть обработан различными способами. Одним из
способов такой обработки является построение статистической функции распределения
случайной величины.
Статистической функцией распределения случайной величины T называется
частота события T<t в данном статистическом материале. То есть
F *  t   P*  T  t  .
Для того чтобы найти значение статистической функции распределения при
данном t, достаточно подсчитать число опытов, в которых величина T приняла значение,
меньшее чем t, и разделить на общее число N произведенных опытов. То есть
n(t )
F * (t )  ,
N
54
где n(t)- число опытов, в которых T<t.
Для построения графика F * (t ) опытные данные располагают в возрастающем
порядке, то есть
T (1)  T ( 2)  ...  T ( N ) .
Такой упорядоченный ряд статистических данных называется вариационным рядом. T (1) -
наименьшее значение, T (N ) - наибольшее значение ,
R  T ( N )  T (1)
размах выборки.
Пример 2. Построим статистическую функцию распределения для случайной
величины T из предыдущего примера.
Табл.7.1.2
Вариационный ряд

i 1 2 3 4 5 6 7 8 9 10
T(i) 15 21 35 35 43 52 66 165 247 300

Размах выборки R=300-15=285 мин

F*(t)

1.0

t
0 100 200 300
Рис.7.1.1.График статистической функции распределения

7.2.Статистический ряд. Гистограмма

При большом числе наблюдений (порядка сотен) простая статистическая


совокупность перестает быть удобной формой записи статистического материала - она
становится слишком громоздкой и мало наглядной. Для придания ему большей
компактности и наглядности статистический материал должен быть подвергнут
дополнительной обработке - строится так называемый «статистический ряд».
Предположим, что в нашем распоряжении результаты наблюдений непрерывной
случайной величины Х, оформленные в виде простой статистической совокупности.
Разделим весь диапазон наблюдённых значений на интервалы или «разряды» и
подсчитаем количество значений Ni, приходящееся на каждый i-й разряд. Это число
разделим на общее число наблюдений N и найдем частоту, соответствующую данному
разряду:
55
Ni
Pi*  .
N
Если разделить частоту на длину соответствующего интервала, то получим
статистическую плотность
Pi*
f i*  ,
xi  xi 1
являющейся аналогом математической плотности распределения f(x).
Статистический ряд обычно представляется в виде следующей таблицы:

1 2 … i … k
N
интерв.
x0,x1 x1,x2 … xi-1,xi … xk-1,xk
Интерва
л
Число N1 N2 Ni Nk
случаев
Частота P1* P2* … Pi* … Pk*
Плотость f1* f 2* … f i* … f k*

Статистический ряд часто также оформляется графически в виде так называемой


гистограммы. Гистограмма строится следующим образом. По оси абсцисс откладываются
разряды, и на каждом из разрядов как их основании строится прямоугольник, площадь
которого равна частоте данного разряда. Для построения гистограммы нужно частоту
каждого разряда разделить на его длину и полученное число взять в качестве высоты
прямоугольника. В случае равных по длине разрядов высоты прямоугольников
пропорциональны соответствующим частотам.
Из способа построения гистограммы следует, что полная площадь её
равна единице.
Пример.1. Приведем гистограмму для длительностей простоя станков с
числовым программным управлением (ЧПУ) TВ в связи с восстановлением отказов,
построенную по данным статистического ряда, приведенного в ниже следующей таблице.
Объем выборки N=193 достаточно большой, поэтому данные приведены в табл.7.2.1 в
сгруппированном виде. Длина интервала 30 мин. Число интервалов k=15.
Таблица 7.2.1
Статистический ряд простоев станков с ЧПУ

N Интервал, Число Частота Плотность,


инт. мин случаев 1/мин
1 0; 30 57 0.295 0.0098
2 30; 60 71 0.368 0.0122
3 60; 90 17 0.088 0.0029
4 90; 120 11 0.057 0.0019
5 120; 150 6 0.031 0.0010
6 150; 180 5 0.026 0.0009
7 180; 210 3 0.016 0.0005
8 210; 240 4 0.021 0.0007
9 240; 270 3 0.016 0.0005
10 270; 300 4 0.021 0.0007
11 300; 330 2 0.010 0.0003
56
12 330; 360 5 0.026 0.0009
13 360; 390 3 0.016 0.0005
14 390; 420 1 0.005 0.0002
15 420; 450 1 0.004 0.0002

По данным таблицы построен полигон распределения (рис.7.1.1) и гистограмма


(рис.7.1.2).

0,4
0,35
0,3
0,25
Частота

0,2
0,15
0,1
0,05
0
1

13

15
11
Номер интервалов

Рис.7.1.1.Полигон распределения

0,014
0,012
0,01
плотность

0,008
0,006
0,004
0,002
0
1

13

15
11

Номера интервалов

Рис.7.2.2. Гистограмма статистического распределения.

Очевидно, что при увеличении числа опытов можно выбирать всё более и более
мелкие разряды; при этом гистограмма будет всё более приближаться к некоторой кривой,
ограничивающей площадь, равную единице. Нетрудно убедиться, что эта кривая
представляет собой график плотности распределения величины Tв.
Пользуясь данными статистического ряда, можно приближённо построить и
статистическую функцию распределения величины Tв . Построение точной
статистической функции распределения с несколькими сотнями скачков во всех
57
наблюденных значениях трудоёмко и себя не оправдывает. Для практики обычно
достаточно встроить статистическую функцию распределения по нескольким точкам. В
качестве этих точек удобно взять границы разрядов, которые фигурируют в
статистическом ряде. В этом случае

i
F * ( x0 )  0; F * ( xi )   P*j , (i  1,..., k ); F * ( xk )  1 .
j 1
Соединяя полученные точки ломаной линией или плавной кривой, получим
приближённый график статистической функции распределения. На рис.7.2.3 приведен
такой график статистической функции распределения, построенный по данным табл.7.2.1.

1
Вероятность F(x)

0,8

0,6

0,4

0,2

0
0

0
60

12

18

42
24

30

36

Длительность простоя, мин

Рис.7.2.3.График статистической функции распределения.

7.3.Числовые характеристики распределения

Аналогом математического ожидания в статистике является среднее


арифметическое наблюдённых значений случайной величины или статистическое
среднее:
n
 xi
M *  X   m*x  i 1 ,
n
где n – число опытов. Согласно закону больших чисел при неограниченном увеличении
числа опытов статистическое среднее приближается к математическому ожиданию.
Подобные аналогии существуют для всех числовых характеристик. Будем обозначать их
теми же буквами со звёздочкой.
Статистическая дисперсия:
n

 xi  m*x 2 1 n 2
D*  X   i 1   xi  (m*x ) 2 ,
n n i 1
m*x- статистическое среднее.
Аналогично определяются статистические начальные и центральные моменты
любых порядков:
58
n
 xiS
 S*  X   i 1
,
n

  xi  m*x 
n S

 S*  X  
. i 1
n
Нетрудно доказать, что для статистических моментов справедливы те же свойства,
что и для математических моментов. Например, статистический первый центральный
момент всегда равен нулю:

  xi  m*x   xi
n n

1*  i 1
 i 1  m*x  m*x  m*x  0.
n n
Соотношения между начальными и центральными моментами также сохраняются:

x  m   x
n n n
* 2 2
 xi
   
i x i
2 2
 
*
2
i 1
 i 1
 2m*x i 1  m*x   2*  m*x .
n n n
Если число опытов слишком велико и приходится разбивать их на разряды, то получим
приближённые формулы:
k
m*  M *  X   ~
xx p* ,  i i
i 1

 
k
Dx*  D *  X    ~
2
xi  m*x pi* ,
i 1
k
 S*  X    ~
xiS pi* ,
i 1

 
k
 S*  X    ~
S
xi  m*x pi* ,
i 1
где ~
x i - представитель i-го разряда, pi* - частота i-го разряда, k – число разрядов.

7.4.Оценка параметров распределения

При обработке статистического материала часто приходится решать


вопрос о том, как подобрать для данного статистического ряда
теоретическую кривую распределения. Такая задача называется задачей
выравнивания статистических рядов и состоит в подборе теоретической
плавной кривой распределения, наилучшим образом описывающей данное
распределение.
Наиболее часто применяется метод наименьших квадратов, при котором сумма
квадратов отклонений обращается в минимум. Часто вид случайной функции известен
заранее, и нужно лишь определить параметры этой функции. Для решения этой задачи
часто применяют различные методы оценки параметров.
Чаще всего используют следующие методы:
 метод моментов;
 метод максимального правдоподобия;
 метод минимума хи-квадрата.
59
7.4.1. Метод моментов.
Согласно методу моментов параметры распределения выбираются таким образом,
чтобы моменты статистического распределения совпадали с соответствующими
моментами предполагаемого закона распределения. Если предполагаемый закон
распределения случайной величины X имеет один параметр, то он оценивается в
результате решения уравнения
M *(X )  M ( X ) .
Если число параметров 2, то приравниваются первые два момента, в результате получаем
систему из следующих двух уравнений для оценки неизвестных параметров
распределения:
M *(X )  M ( X ) ,
D* ( X )  D ( X ) .
Если параметров 3, то приравниваются первые три момента и решают систему уже из трех
уравнений и так далее.
Проиллюстрируем применения этого метода на конкретных примерах.
Пример 1. В результате наблюдений за работой станка были получены следующие
значения наработки до отказа: T1 , T2 ,..., TN . Известно, что наработка на отказ
подчиняется показательному распределению с плотностью
1 t
f (t ) 
exp( ), t  0 . (7.4.1)
a a
1 N
*
Для этого распределения M (T )  a , а M (T )   Ti .
N i 1
Таким образом, получаем следующую формулу для оценки параметра a
показательного распределения по опытным данным:
1 N
a  Ti . (7.4.2)
N i 1
Пример 2. В результате контроля размера X партии из N деталей были получены
значения X 1, X 2 ,..., X N . Требуется оценить по этой выборке параметры распределения,
в предположении его нормальности. Плотность нормального распределения имеет вид:
1 ( x  a) 2
f ( x)  exp[ ]. (7.4.3)
2  2 2
Это распределение имеет два параметра a и  , поэтому для их оценки имеем два
уравнения, полученные отмеченным выше приравниванием математических ожиданий и
дисперсий:
1 N
a  Xi; (7.4.4)
N i 1
1 N 1 N
2   ( X i  a) 2   X i2  a 2 . (7.4.5)
N i 1 N i 1
Пример 3. Оценим параметры равномерного распределения случайной величины X
по выборке X 1, X 2 ,..., X N .
Плотность равномерного распределения задается следующим образом:
 0 при x  a,

f ( x)  1 /(b  a ) при a  x  b, (7.4.6)
 0 при x  b.

В этом случае для оценки параметров a и b метод моментов дает следующие два
уравнения:
ab 1 N
  X i  m*x ,
2 N i 1
60
(b  a) 2 1 N 2 1 N
  X i (  X i ) 2  D*x .
12 N i 1 N i 1
В результате решения этой системы получаем:
a  m*
x  3D *
x;
(7.4.7)
b  m*
x  3D *
x.
Пример 4. Случайная величина T имеет гамма распределение с плотностью
1 t t
f (t ) ( ) 1 exp( ) , (7.4.8)
( )  
где  ,  - параметры, подлежащие оценке. Если T1 , T2 ,..., TN - реализаци случайной
величины T, то учитывая, что
M (T )     ,
D (T )     2 ,
получаем:
D* (T ) ( M * (T )) 2
 ,  , (7.4.9)
M * (T ) D* (T )
где
1 N 1 N 2
M * (T )   Ti , D* (T )   X i  ( M * (T )) 2 .(7.4.10)
N i 1 N i 1
Пример 5. Оценим параметры логарифмически нормального распределения
случайной величины T по выборке T1 , T2 ,..., TN .Плотность распределения
1 (ln t  ln a ) 2
f (t )  exp[ ], t  0. (7.4.11)
2 t 2 2
Математическое ожидание и дисперсия выражаются через параметры a и 
следующим образом.
M (T )  a  exp( / 2) ,
D (T )  a 2 exp( )  (exp( )  1).
Приравнивая теоретические и статистические моменты и решая соответствующие
уравнения, получаем:
D* (T )
  ln[  1] , (7.4.12)
( M * (T )) 2
a  M * (T )  exp( / 2) . (7.4.12)

Пример 6. Дано статистическое распределение боковой ошибки наводки Х при


стрельбе с самолёта по наземной цели. Требуется выровнять это распределение с
помощью нормального закона.

Ин -4; -3 -3; -2 -2; -1 -1; 0 0; 1 1; 2 2; 3 3; 4


т.
Ni 6 25 72 133 120 88 46 10
pi* 0,012 0,050 0,144 0,266 0,240 0,176 0,092 0,020

Нормальный закон распределения:



 x m2
1
f  x  e 2 2 .
 2
61
Решение. Нормальный закон зависит от двух параметров: m и . Вычислим
статистическое среднее:
m*x  3,5  0,012  2,5  0,050  1,5  0,144  0,5  0,266 
 0,5  0,240  1,5  0,176  2,5  0,092  3,5  0,020  0,168.
Для вычисления дисперсии определим второй начальный момент (S=2, k=8).
8
 2*   ~
xi2 pi*  2,126.
i 1

Dx*   2*   
m*x
2
 2,126  0,028  2,098.
Задаём параметры нормального закона:
m  m*x  2  Dx*
m  0,168;   1,448
С учётом сглаживания получим вид закона распределения:

 x  0,168  2
1
f  x  e 4 ,196
.
1,448 2
Можно построить гистограмму и сглаженный график.
Пример 7. С целью исследования закона распределения ошибки измерения
дальности с помощью радиодальномера произведено 400 измерений дальности.
Результаты опытов представлены в виде статистического ряда. Выровнять статистический
ряд с помощью закона равномерной плотности.
Решение. Закон равномерной плотности выражается формулой
 1
 npu   x   ;
f  x     
0 npu x   или x   .
и зависит от двух параметров  и .
Математическое ожидание и дисперсия для закона равномерной плотности:
mx 

Dx 
   2 .
2 12
Инт. 20;30 30;40 40;50 50;60 60;70 70;80 80;90 90;100

mi 21 72 66 38 51 56 64 32
*
pi 0,052 0,180 0,165 0,095 0,128 0,140 0,160 0,080

Перенесём начало отсчёта в точку х0=60. Получим таблицу

xi -35 -25 -15 -5 5 15 25 35


pi* 0,052 0,180 0,165 0,095 0,128 0,140 0,160 0,080
где x – среднее для разряда значение ошибки дальномера.
Статистическое среднее приближённо равно
k
m*x   ~
xi pi*  0,26.
i 1
Второй статистический момент равен
k
 2*    ~
xi  2 pi*  447,8.
i 1
Статистическая дисперсия:
Dx*   2*  m*x   2
 447,7.
Возвращаемся в прежнее начало
m*x  0,26  60  60,26.
62
Дисперсия та же.
Параметры закона равномерного распределения определим из решения системы
уравнений.
 
 60,26 
2 
.
      447,7
2

12 
Решение:   23,6   96,9 .
Плотность распределения
1 1
f  x    0,0136.
   73,3
Гистограмма и плотность равномерного распределения показаны на рисунке.
0,2

0,15

p
0,1
f

0,05

0
25 35 45 55 65 75 85 95
63

8.Метод наибольшего правдоподобия


Рассмотренный выше метод моментов приводит обычно к
относительно простым формулам для оценки параметров, однако в ряде
случаев эти оценки малоэффективны или вовсе несостоятельны. Например,
для применения метода моментов теоретические моменты должны
существовать, что не для всех распределений выполняется. Например, у
распределения Коши, имеющего плотность
1 1
f ( x)  
 (x  )2 ,
1
2

все моменты бесконечны.
Распределение Фреше
b a b 1 a
f ( x)  ( ) exp(( ) b ), x  0,
a x x
имеет конечные моменты только порядка n<b, а именно начальные
моменты
 n
 n   f ( x) x n dx  a n (1  ).
0 b
Это значит, что методом моментов для оценки параметров а и b можно
воспользоваться, если b>2. Но так как значение параметра b еще нужно
определить, то использования метода моментов становится проблематичным.
Поэтому необходимы и другие методы, лишенные отмеченных
недостатков.
Метод наибольшего правдоподобия обладает важным достоинством: он
всегда приводит к состоятельным оценкам, имеющим наибольшую точность.
Этот метод наилучшим образом использует всю информацию о неизвестных
параметрах распределения, имеющуюся в выборке. Однако на практике он
часто приводит к необходимости решать весьма сложные системы
уравнений.
Метод наибольшего правдоподобия был предложен Р.Фишером, одним
из основоположников математической статистики и является наиболее
обоснованным и проверенным методом, широко используемом в
математической статистике.

8.1.Случай дискретных распределений


Рассмотрим случай оценки параметра распределения дискретной
случайной величины X, вероятности значений которой определяются
согласно распределению P ( , x) , где  - неизвестный параметр, который
нужно оценить по выборке x1 , x2 ,..., xn .
Функция
L( , x1 , x2 ,..., xn )  P ( , x1 )  P( , x2 )  ...  P( , xn )
называется функцией правдоподобия. Если число случаев, когда случайная
величина X приняла значения x1 , x2 ,..., xn равно соответственно m1 , m2 ,..., mn ,
где m1  m2  ...  mn  N - размер выборки, то функция правдоподобия
64
L( , x1 , x 2 ,..., xn )  P m1 ( , x1 )  P m2 ( , x2 )  ...  P mn ( , xn ) . (8.1.1)
Согласно методу наибольшего правдоподобия в качестве оценки
неизвестного параметра  принимается то значение, при котором функция
правдоподобия принимает наибольшее значение для данной выборки. То
есть в качестве оценки для  берется наиболее вероятное значение для
данной выборки.
Это значение находится в результате решения уравнения
dL
 0.
d
Практически удобнее находить максимум функции ln(L), тогда
соответствующее уравнение примет вид:

d ln L
 0. (8.1.2)
d
Это уравнение принято называть уравнением правдоподобия. Решение этого
уравнения дает максимум функции правдоподобия, если для него
выполняется условие
d 2 ln L
 0.
d 2
Если распределение имеет два пара параметра 1 и  2 , то есть имеет
вид P (1 , 2 , x) , то для оценки этих параметров используются система из двух
уравнений правдоподобия:
 ln L  ln L
 0;  0. (8.1.3)
1  2
При большем числе параметров число подобных уравнений соответственно
увеличивается.
Проиллюстрируем применение метода наибольшего правдоподобия на
примерах.
Пример 1. При n-кратном повторении опыта событие А проявилось m
раз. Оценим вероятность события А по методу наибольшего правдоподобия.
Будем считать, что случайная величина X принимает значение 1, если
произошло событие А и 0, если произошло противоположное событие A .
Согласно (8.1.1) функция правдоподобия в данном случае имеет вид:
L( , x1 ,..., xn )   m (1   ) n  m ,
где  - оцениваемая вероятность.
После логарифмирования получаем, что
ln L  m ln   ( n  m) ln(1   ) .
После дифференцирования по  получаем следующее уравнение:
1 1
m  ( n  m)  0,
 1
после решения которого получаем, что
m
ˆ  . (8.1.4)
n
Крышечкой сверху будем отличать оценку параметра от его точного
значения.
65
Формула (8.1.4) уже известна из предыдущего изложения - это оценка
вероятности как частоты события A. Эта оценка состоятельна, то есть при
n   она сходится к вероятности этого события, то есть
ˆ   . Эта оценка также эффективна, то есть не существует других более
эффективных оценок. Оценка так же несмещенная, то есть её математическое
ожидание равно точному значению параметра: M (ˆ)   . Об этих свойствах
оценок подробнее поговорим позже.
Пример 2. Рассмотрим случай оценки параметра дискретной
случайной величины Х, распределенной по закону Пуассона
ai a
P ( a, i )  e , i  0, 1, 2,...
i!
Согласно (8.1.1) функция правдоподобия равна
n a i  a mi
L  ( e ) .
i  0 i!
После логарифмирования получаем
n
ln L   mi  (i ln a  a  ln i!) .
i 0
После дифференцирования получаем:
d ln L n i
  mi (  1)  0 ,
da i 0 a
Откуда
n
 mi i n
aˆ  i  0   P * (i )  i  M * ( X ) , (8.1.5)
n
i 0
 mi
i o
mi
где P* (i)  - статистическая вероятность того, что X=i.
N
Таким образом, в качестве оценки параметра а распределения Пуассона
следует брать статистическое среднее выборки.
Пример 3. Рассмотрим случай оценки параметра геометрического
распределения дискретной случайной величины X, которое задается законом
P ( p, i )  p (1  p ) i 1 , (i  1, 2, 3,...) .
Если значение X  i в выборке размером N, встретилось mi раз, то функция
правдоподобия
n
L   [ p (1  p ) i 1 ]mi .
i 1
n
ln L   mi [ln p  (i  1) ln(1  p )] .
i 1
После дифференцирования получаем:
d ln L n 1 1
  mi [  (i  1) ]  0.
dp i 1 p 1 p
В результате решения этого уравнения получаем оценку для параметра p
66
N 1 1
pˆ   
n n
M *( X ) . (8.1.6)
 mi  i  P * (i )  i
i 1 i 1
mi
Здесь P* (i )  - статистическая вероятность того, что X  i .
N
Таким образом, оценкой наибольшего правдоподобия параметра p
геометрического распределения является величина, обратная выборочному
среднему M * ( X ) .

8.2. Случай непрерывных распределений


Если случайная величина X имеет непрерывную плотность распределения f ( , x ) ,
где  - параметр распределения, который нужно оценить по выборке реализаций этой
случайной величины x1 , x 2 ,..., x N , то в этом случае функция правдоподобия
N
L( , x1 , x2 ,..., x N )  f ( , x1 )  f ( , x 2 )  ...  f ( , x N )   f ( , xi ) .(8.2.1)
i 1
Согласно методу наибольшего правдоподобия наилучшей оценкой параметра  является
значение, для которого функция правдоподобия (8.2.1) достигает максимума.
Если функция дифференцируема по  , то это значение находится из уравнения
dL( , x1 ,..., x N )
 0.
d
Практически удобнее пользоваться логарифмической формой этого
уравнения
d ln L( , x1 ,..., x N )
 0. (8.2.2)
d
Это уравнение называется уравнением правдоподобия.
Если плотность распределения случайной величины X имеет два параметра 1 и
 2 , то есть имеет вид f (1 , 2 , x) , то оценки наибольшего правдоподобия находятся из
системы двух уравнений
 ln L(1 , 2 , x1 ,..., x N )  ln L(1 , 2 , x1 ,..., x N )
 0,  0. (8.2.3)
1  2
Если распределение имеет больше двух параметров, например, 1 , 2 ,..., k , то
составляется система из k уравнений правдоподобия:
L(1 ,..., k , x1 ,..., x N )
 0, j  1,..., k .
 j
К сожалению, эти уравнения не всегда дают явные выражения для оценок
параметров 1 ,..., k и их приходится решать численными методами.
Если область определения плотности f (1 ,..., k , x ) зависит от параметров, то
максимум функции правдоподобия может достигаться на границе этой области. В этом
случае надо анализировать непосредственно функцию правдоподобия (8.2.1).
Если уравнение правдоподобия имеет несколько корней, то надо брать то
решение, при котором функция правдоподобия максимальна.
Пример 1. Оценим данным методом параметр показательного распределения
случайной величины T по выборке ее реализаций t1 , t 2 ,..., t N .
1 t
В этом случае f ( , t )  exp( ), t  0 , а функция правдоподобия
 
N 1 t
L( , t1 ,..., t N )   exp( i ) .
i 1 
67
Уравнение правдоподобия в этом случае имеет вид:
d ln L d N t N 1 N
  ( ln   i )    2  ti  0 .
d d i 1    i 1
В результате решения этого уравнения получаем, что оценка наибольшего правдоподобия
1
ˆ   ti . (8.2.4)
N i
Интересно отметить, что метод моментов в данном случае дал такое же выражение для
оценки параметра  .
Пример 2. Оценим параметры a,  случайной величины Х, распределенной по
нормальному закону с плотностью
1 ( x  a) 2
f ( a,  , x )  exp[ ]
2  2 2
по выборке реализаций x1 , x 2 ,..., x N .
Функция правдоподобия в этом случае равна
N 1 ( x  a) 2
L ( a,  , x1 ,..., x N )   exp[ i ],
i 1 2  2 2
а уравнения правдоподобия:
 ln L  N ( x  a) 2 1 N
  ( ln 2  ln   i 2 )  2  ( xi  a)  0,
a a i 1 2  i 1
 ln L N 1 N
   ( xi  a) 2  0.
   3 i 1
Из первого уравнения получаем, что
1
aˆ   xi . (8.2.5)
N i
Из второго уравнения получаем, что
1
ˆ   ( xi  aˆ ) 2 . (8.2.6)
N i
В данном случае оценки наибольшего правдоподобия совпали с ранее
выведенными оценками по методу моментов.
Пример 3. Оценим параметры a и d логарифмически нормального распределения
случайной величины T , имеющей плотность распределения
1 (ln t  ln a ) 2
f ( a, d , t )  exp[ ], t0
2 dt 2d 2
по выборке t1 , t 2 ,..., t N .
Функция правдоподобия
N 1 (ln t i  ln a ) 2
L(a, d , t1 ,..., t N )   exp[ ].
i 1 2 dti 2d 2
Уравнения правдоподобия в данном случае имеют вид:
 ln L  N (ln ti  ln a ) 2
  [ ln( 2 )  ln d  ln ti  ]
a a i 1 2d 2
1 N
  (ln ti  ln a )  0;
ad 2 i 1
 ln L N 1 N
   (ln ti  ln a) 2  0 .
d d d 3 i 1
Из первого уравнения получаем, что
68
1 N
ln a   ln t i ,
N i 1
откуда получаем оценку для а:
N
aˆ  (  ti )1 / N . (8.2.7)
i 1
Из второго уравнения получаем:
dˆ   (ln ti  ln a) 2 / N . (8.2.8)
i
Из выражения (8.2.7) видно, что оценкой для параметра а является среднее
геометрическое выборки, а оценкой для d2 – выборочная дисперсия для ln T .
Эти оценки отличаются от оценок, ранее полученных по методу моментов.
Пример 4.Оценим параметры  и  случайной величины T, имеющей гамма
распределение, плотность которого имеет вид:

1 t t
f (t )  ( ) 1 exp( ), t  0.
( )  
Оценку произведем по выборке t1 , t 2 ,..., t N .
Функция правдоподобия
N 1 t t
L(  , , t1 ,..., t N )   ( i ) 1 exp( i ) .
i 1 ( )  
Уравнения правдоподобия имеют вид:
 ln L  N t
  [ ln   ln ( )  (  1)(lnti  ln  )  i ] 
  i 1 
N 1
   ti  0;
 2 i
 ln L N( )
   ln ti  N ln   0.
 ( ) i
После упрощающих преобразований получаем следующую систему уравнений:
1
   ti ;
N i
(8.2.9)
 ( ) 1
ln     ln ti .
( ) N i
Эта система уравнений решается численными методами. Если из первого уравнения
определить  и подставить во второе уравнение, то получим уравнение только для  :
( ) 1 1
ln    ln(  ti )   ln ti .
( ) N i N i
Если учесть, что
1 
T  ( t i )1 / N -
T   ti ,
N i i

среднее арифметическое и среднее геометрическое соответственно, то


получим из предыдущего следующее уравнение:
 ( ) T
 exp( )  , (8.2.10)
( ) T
Это уравнение может быт решено численно или графически.
Пример 5. Оценим параметры равномерного распределения случайной величины
X по выборке x1 , x2 ,..., x N .
Плотность равномерного распределения задается следующим образом:
69
 0 при x  a,

f ( x)  1 /(b  a ) при a  x  b,
 0 при x  b.

В этом случае функция правдоподобия имеет вид:
1 N
L( a, b, x1 ,..., x N )  ( ) , a  xi  b, (i  1,..., N )
ba
Максимум этой функции достигается если
aˆ  min( x1 ,..., x N ), bˆ  max( x1 ,..., x N ) , (8.2.11)

то есть, в качестве оценки для а следует брать наименьшее значение из


выборки, а в качестве оценки для b следует брать наибольшее значение из
выборки. Интересно отметить, что формулы для оценок существенно
отличаются от полученных ранее по методу моментов.
Пример 6. Оценим параметры  и  распределения Коши,
имеющего плотность
1 1
f ( x)  
 (x  )2 ,
1
2

по выборке x1 , x2 ,..., x N .
Функция правдоподобия
N 1 1
L(  ,  , x1 ,..., x N )  
i 1 ( xi   ) 2 .
1
2
Уравнения наибольшего правдоподобия получаются как и прежде в
соответствии с (8.2.3):
 ln L  (x   )2 2 x 
  ( ln   ln   ln[1  i 2 ])  [  i ]0
d  i  i ( xi   ) 2
2
1
2
 ln L N 2 (x  )2
   [  i ]  0.
d  i ( xi   ) 2 3
1
2
После упрощающих преобразований получаем для определения параметров
 и  следующую систему из двух уравнений:
xi  
  0;
i  2  ( xi   ) 2
1 (x  )2 1
 2 i 2
 .
N i   ( xi   ) 2
Эта система имеет только численное решение. Если этих решений
окажется несколько, то следует выбрать только то, для которого функция
правдоподобия максимальна. Практически может оказаться проще вместо
решения отмеченной системы искать максимум функции правдоподобия
прямым перебором с малым шагом возможных значений искомых
параметров. На практике обычно бывает известна область возможных
значений параметров распределения. В простейшем случае, исходя из
70
требуемой точности расчета, задается шаг изменения параметров и затем в
цикле по значениям параметров в отмеченной области рассчитывается
функция правдоподобия и выбирается то значение параметров, при котором
эта функция максимальна.
Особенность распределения Коши, как уже отмечалось раньше,
состоит в том, что для него все моменты, включая и математическое
ожидание, бесконечны. Поэтому метод моментов к этому распределению не
применим.
Пример 7. Применим метод наибольшего правдоподобия для оценки
параметров распределения Фреше, для которого, как уже отмечалось, не все
моменты конечны и метод моментов может дать ошибочное решение из-за
того, что выборочные моменты всегда конечны. Плотность распределения
b a b 1 a
f ( x)  ( ) exp(( ) b ), x  0.
a x x
Оценим параметры a и b по выборке x1 ,..., x N .
Функция правдоподобия
b a a
L(a, b, x1 ,..., x N )   ( ) b 1 exp[( ) b ] .
i a xi xi
Логарифм функции правдоподобия
a b
ln L   [ln b  ln a  (b  1) ln a  (b  1) ln xi  ( ) ].
i xi
Уравнения правдоподобия:
 ln L Nb
  ba b 1  xi b  0 .
a a i

 ln L N
  N ln a   ln xi  a b  xi b (lna  ln xi )  0 .
b b i i
После упрощающих преобразований получаем для определения
параметров a и b следующую систему из двух уравнений:
1
a b   xi b ;
N i
 xi b ln xi
1 1
  ln xi  i  0,
b N i  xi b
i
которая решается численно.

8.3.Другие методы оценки параметров


Метод сравнения квантилей. При этом методе уравнения для оценки параметров
составляют путем сравнения квантилей статистического и теоретического распределений.
Если распределение имеет один параметр, то достаточно сравнить статистическую  e* и
теоретическую  e медианы. Напоминаем, что медиана – это квантиль порядка 0.5. Таким
образом, в этом случае параметр оценивается путем решения уравнения
 e   e* .
Напоминаем, что  e находится из уравнения
F (  e )  0.5 ,
71
а
 e*  X [( N 1) / 2 ] ,
то есть  e* - средний член вариационного ряда, если N нечетно,и
1
 e*  ( X [ N / 2]  X [ N / 2 1] ) ,
2
если N четно.
Пример 1. Пусть случайная величина X показательное распределение, то есть
x
F ( x)  1  exp[ ], x  0,
a
тогда a находится из уравнения
exp[  e* / a ]  1 / 2 ,
а именно
 e*
aˆ  .
ln 2
Если параметров два, то приравниваются значения двух квантилей, например,
X 1 / 4  X 1*/ 4 , X 3 / 4  X 3*/ 4 .
Напоминаем, что квантиль порядка γ определяется из уравнения
F ( X )   .
Пример 2. Случайная величина X имеет функцию распределения

F ( x )  1  exp[( x /  ) ], x 0,
тогда для оценки параметров ρ,α получаем систему из двух уравнений:
exp[( X 1*/ 4 /  )  3 / 4;
exp[( X 3*/ 4 /  )  1 / 4;
которая легко решается. Этот метод в данном случае приводит к более
простому решению, чем метод моментов или метод наибольшего
правдоподобия. Следует однако отметить, что с точки зрения точности
оценки параметров этот метод уступает методу наибольшего правдоподобия.
Метод вероятностной бумаги.
72

9.Проверка статистических гипотез


9.1.Вводные замечания
Одной из основных задач математической статистики является задача проверки
статистических гипотез. Существо этой задачи поясним на примере. Предположим, что
мы хоти проверить, свидетельствуют ли опытные данные о том, что событие A имеет
вероятность p=0.5., если в результате n=280 испытаний событие А проявилось m=151
раз. Среднее значение (математическое ожидание) числа опытов для события A
M  np  280  0.5  140 ,
а квадратичное отклонение
  np(1  p )  280  0.5  0.5  8.37 ,
если p=0.5.
Требуется определить, можно ли наблюденную частоту события A m*=151
достаточно близкой к теоретической норме np  140 , отвечающей гипотезе. Для ответа
на поставленный вопрос, нужно обоснованно выбрать границы допустимых при нашей
гипотезе отклонений частот от математического ожидания, выход за которые можно
считать практически невозможными, если гипотеза верна. Выход за эти границы будет
свидетельствовать, что принятая гипотеза p=0.5 ошибочна. То есть отклонение частоты от
математического ожидания значимо. Если отклонение не выходит за отмеченные
границы, то мы вправе считать, что опыт не противоречит нашей гипотезе и наблюденное
отклонение объясняется случайностью испытания.
Обычно в качестве практически невозможных отклонений принимают такие
отклонения, вероятность которых не превышает 0.05 или 0.01 или другое значение.
Такую вероятность называют уровнем значимости. Отвечающие этому уровню границы
отклонений называют границами критической области. Сама критическая область
соответствует значениям отклонений, выходящим за отмеченные границы, а область
внутри границ называется областью принятия гипотезы. Само правило проверки
гипотезы называется критерием значимости.
Ошибки, возникающие при проверке статистической гипотезы, могут быть двух
типов:
I – можно ошибочно отвергнуть гипотезу, если она верна;
II – можно ее ошибочно принять, когда она неверна.
Эти ошибки называются соответственно ошибками первого и второго рода. Вероятность
ошибки первого рода равна уровню значимости. Если β - вероятность ошибки второго
рода, то величину 1- β называют мощностью критерия. Таким образом, мощность
критерия, это вероятность принятия гипотезы, если она верна.
Продолжим рассмотрение примера. Границы области принятия гипотезы
определим с учетом того, что вероятность конкретного числа реализаций M=m события A
при n испытаниях подчиняется биномиальному распределению:
P( M  m)  C nm p m (1  p) n  m .
Если уровень значимости принять равным   0.05, то возможные отклонения от
среднего значения определяются в результате решения уравнения
P ( M  np     )   .
Это уравнение удобно решать, используя аппроксимацию биномиального распределения
нормальным при тех же среднем значении и квадратичном отклонении. Если
воспользоваться таблицей для квантилей нормированного нормального распределения, то

получим, что для вероятности  0.025 квантиль равна   1.96 .
2
Таким образом, область допустимых значений определяется границами
np  1.96  140  16.4 .
73
*
В нашем примере m =151, что меньше 140+16.4=156.4 и больше 140-16.4=123.6. Это
значит, что опытные данные не противоречат гипотезе . Вероятность ошибки при этом
равна 5%.
Если уровень значимости принять   0.01 , то   2.58 , а область допустимых
значений определяется границами
np  1.96  140  21.6 .
Из этих данных видно, что если гипотеза p=0.5 верна, то отклонение m* от np в
пяти случаях из 100 может превышать 16.4 и в одном случае из 100 может превышать
21.6. В нашем случае отклонение m*  np  151  140  11 находится в области
допустимых значений, вследствие чего нет оснований считать гипотезу p=0.5
противоречащей наблюдениям.

9.2.Проверка гипотезы о законе распределения


На практике часто приходится решать задачу определение закона распределения
случайной величины. Эта задача решается так. Предполагается, что случайная величина
X распределена по закону с плотностью где a,b – параметры распределения. Если эти
параметры не известны, то их следует оценить по опытным данным, на пример, по методу
наибольшего правдоподобия. Затем по опытным данным строится статистическая
функция распределения или гистограмма и с использованием соответствующего критерия
согласия проверяется соответствие теоретического закона распределения (гипотезы)
статистическому закону распределения.
Между гипотезой и статистическим распределением неизбежны расхождения. Для
ответа на вопрос, являются ли эти расхождения случайными, или закономерными следут
воспользоваться соответствующим критерием согласия.
Таким образом, задача формулируется так: вводится гипотеза H что величина Х
имеет функцию распределения f(a,b,x). Для того, чтобы принять или отвергнуть эту
гипотезу рассмотрим некоторую величину U, характеризующую степень расхождения
между этим и статистическим распределением. Очевидно, что это есть случайная
величина. Её закон распределения зависит от закона распределения Х.
Допустим, что этот закон распределения нам известен. Обнаружено, что величина
U приняла значение u. Спрашивается, можно ли объяснить это отклонение случайностью?
Вычислим вероятность события U  u . Если эта вероятность мала, то гипотезу Н следует
отвергнуть, в противном случае – принять.
Оказывается, что при некоторых способах выбора U, её закон распределения
обладает простыми свойствами и для достаточно больших выборок практически не
зависит от закона распределения случайной величины X.
Рассмотрим критерий согласия Пирсона - 2. Предположим, что произведено n
независимых опытов, в каждом из которых случайная величина Х приняла определённое
значение. Выделены k интервалов, построена гистограмма распределения и оформлен
статистический ряд.

Интервалы х0;x1 х1 ;x2 … xk-1;xk


*
pi p1* p2*
… pk*

Здесь xi – границы интервалов, pi* - опытные частоты.


Требуется проверить, согласуются ли экспериментальные данные с гипотезой о
том, что случайная величина Х имеет данный закон распределения.
Зная теоретический закон распределения, можно найти вероятности попадания
случайной величины в каждый из разрядов:
p1 , p2 ,  , pk .
74
Проверяя согласованность теории и статистики, будем исходить из расхождений
между теоретическими вероятностями p и наблюдёнными частотами p*. Выберем в
качестве U сумму квадратов отклонений.
 
k 2
U   ci pi*  pi .
i 1
с – веса разрядов берутся обратно-пропорциональными вероятностям разрядов.
n
ci 
pi
При таком выборе коэффициентов мера расхождения обычно обозначается 2:

U  2  n
k  pi*  pi 2 .
i 1 pi
* mi
Учитывая, что pi 
n
k  m  np  2
U  2   i i .
(9.2.1)
i 1 npi
К.Пирсон показал, что U как случайная величина с ростом n имеет асимптотическое
распределение с плотностью
1 u u
f (u )  ( ) r / 2 1 exp( ), u  0. (9.2.2)
2( r 2) 2 2
Это распределение называется  2  распределением и является частным случаем
рассмотренного ранее гамма распределения (7.4.8) с параметрами   2 и α=r/2.
Единственный параметр  2  распределения r называется числом степеней свободы и
определяется по формуле
r  k s, (8.2.3)
где k – число интервалов в гистограмме, по которым сгруппированы данные выборки, а s
– число условий, накладываемых на частоты pi*.
Примеры условий:
k
 pi*  1.
i 1
k
 ~xi pi*  mx .
i 1

  ~xi  m*x  pi*  Dx .


k

i 1
То есть число условий равно числу оцененных по выборке параметров плюс условие
нормировки вероятностей к единице.
Для распределения 2 составлены специальные таблицы, позволяющие
по числу степеней свободы r и уровню значимости  определить
допустимое значение меры расхождения U u для принятия гипотезы о
законе распределения (гипотезы H).
Схема применения критерия 2:
1. Выборка значений случайной величины X разбивается по
интервалам и строится статистический ряд и гистограмма.
2. Оцениваются параметры предполагаемого распределения.
3. Рассчитываются теоретические вероятности попадания случайной
величины в соответствующие интервалы
75
xi
 
pi   f ( a , b , x) dx . (9.2.4)
xi 1
4. Определяется мера расхождения U по формуле (9.2.1).
5. Определяется число степеней свободы r по формуле (9.2.3).
6. Принимается соответствующее значение уровня значимости  .
7. По  и r по таблице для распределения (9.2.2) определяется
допустимое значение меры расхождения u , где u удовлетворяет
уравнению
 1 u r / 2 1 u
 ( ) exp( ) du   . (9.2.5)
u 2 ( r / 2) 2

2
 
8. Если U  u ,то гипотеза о законе распределения f (a , b , x)
принимается как непротиворечащая опытным данным. Если U  u ,
то гипотеза отбрасывается как неправдоподобная.

Пример. Имеется выборка реализаций случайной величины X


объемом n=50:
7.42 6.65 9.00 7.89 7.37 6.52 8.07 6.92
6.37 6.12 7.13 6.03 7.08 8.05 6.37 8.33
6.47 6.99 9.01 7.02 7.49 6.20 6.46 7.81
7.66 5.88 7.72 8.28 6.89 5.95 8.28 9.03
7.34 8.17 8.33 6.79 7.56 7.64 7.82 6.81
6.00 8.66 8.51 7.22 6.46 7.54 7.73 5.20
7.82 7.18

Оценим параметры распределения в предположении, что случайная величина X


подчиняется закону Симпсона, для которого плотность распределения имеет вид:


 0 при x  a и x  b,
 4( x  a ) ab
f ( x)   при a  x  ,
2 2
 (b  a )
 4( b  x ) ab
 при  x  b,
2 2
 (b  a )
Это распределение имеет два параметра a и b, которые оценим по методу моментов из
следующих уравнений:
ab (b  a ) 2
M *(X )  , D* ( X )  .
2 24
По выборке реализаций случайной величины Х определяем:
1 n 1
M *(X )   X i  (7.42  6.65  ...  7.18)  7.305 ;
n i 1 50
1 n 2 1
D* ( X )   X i  ( M * ( X )) 2  (7.42 2  6.65 2  ...)  7.3052  0.8 0.
n i 1 50
Таким образом, для определения параметров a и b имеем два уравнения:
ab
 7.305;
2
76
(b  a ) 2
 0.8 .
24 

В результате решения этой системы получаем, что a  5.11; b  9.50 .
Построим теперь по выборке статистический ряд.
Крайние значения выборки X min  5.20, X max  9.03 . Размах выборки
R  X max  X min  3.84 . Разобьем диапазон изменения значений выборки на 5 интервалов
с шагом 1 от 5 до 10 и проведем группирование данных выборки по интервалам.
Результаты такого группирования отражены в таблице 9.2.1.

Таблица 9.2.1

Интервалы От 5 до 6 От 6 до 7 От 7 до 8 От 8 до 9 От 9 до
10
3
mi 16 19 9 3
pi* 0.06 0.32 0.38 0,18 0.06
f i* ( x ) 0.06 0.32 0.38 0,18 0.06

pi 0.082 0.289 0.396 0.207 0.026

npi 4.11 14.43 19.79 10.37 1.29

(mi  npi ) 2 0.302 0.171 0.031 0.180 2.246


npi

mi – это частота i-го интервала (число данных выборки, попавшее в i-ый интервал);
pi*  mi / n - частость (относительная частота или статистическая вероятность) значений
выборки из i-го интервала; pi - теоретические вероятности попадания значения случайной
величины Х в соответствующий интервал, рассчитанные по формуле (9.2.4). Мера
отклонения статистических вероятностей от теоретических, рассчитанная по формуле
(9.2.1), равная сумме значений пятой строки таблицы 9.2.1, U=2.931.
Если принять уровень значимости   0.01 , то пользуясь уравнением (8.2.5) или
соответствующей таблицей для  2 -распределения для отмеченного значения α и числа
степеней свободы r=5-3=2 получаем, что u  9.2.
Так как U  u , то гипотеза о законе распределения Симпсона не противоречит
опытным данным и ее можно принять.
77

0,4

0,35

0,3

0,25
Плотность

0,2

0,15

0,1

0,05

0
1 2 3 4 5
Интервалы
78

10.Системы случайных величин


10.1.Понятие о системе случайных величин
На практике распространены ситуации, когда случайное явление
характеризуется несколькими случайными величинами. Например,
надежность режущего инструмента характеризуют стойкостью T в минутах
времени резания и временем восстановления Tв в мин. Габаритные размеры
произвольной детали, обрабатываемой на токарном станке характеризуются
длиной L и диаметром D. Габаритные размеры корпусной детали
характеризуются тремя размерами: длиной L, шириной B , высотой H. Сила
резания характеризуется тремя составляющими Px , Py , Pz , то есть
проекциями силы резания на соответствующие оси координат станка.
В общем случае систему случайных величин можно рассматривать как
многомерную случайную величину, каждое возможное ее значение
представляется в виде точки в пространстве с соответствующем числом
измерений, координаты которой и есть соответствующие случайные
величины. Рассмотрим подробнее двумерный случай.

10.2.Двумерные случайные величины и их законы


распределения
Предположим, что (X,Y) – это система двух случайных величин или
коротко – двумерная случайная величина. Функцией распределения такой
случайной величины называется вероятность выполнения двух неравенств
X  x и Y  y , то есть
F ( x, y )  P (( X  x ), (Y  y )) .
Если пользоваться геометрической интерпретацией двумерной случайной
величины, то F ( x, y ) - это вероятность попадания случайной величины
(X,Y) в бесконечный квадрант с вершиной в точке (x,y), находящийся левее и
ниже ее (см. рис.10.2.1).
Y

(x,y)

Рис.10.2.1.
79
Функция распределения F(x,y) есть неубывающая функция по x и по y,
то есть
при x2  x1 F ( x2 , y )  F ( x1, y ),
при y 2  y1 F ( x, y 2 )  F ( x, y1 ).
При x и y равных бесконечности
F ( x, )  F ( , y )  F (,)  0 . (10.2.1)
Если один из аргументов равен   , то
F ( x, )  F1 ( x), F (, y )  F2 ( y ) , (10.2.2)
где F1 ( x ), F2 ( y ) - функции распределения X и Y.
Если x   и y   , то
F ( ,  )  1 . (10.2.3)
Если a  X  b и c  Y  d , то вероятность этого события
P((a  X  b) и (с  Y  d ))  F (b, d )  F (a, d )  F (b, c)  F ( a, c) .(10.2.4)
Это правило иллюстрируется рисунком 10.2.2.

(a,d) (b,d)

(b,c)
(a,c)

Рис.10.2.2. К выводу формулы (10.2.4).

10.3.Плотность распределения двумерной случайной


величины
Если распределение F(x,y) непрерывно и дифференцируемо по x и y, то
можно ввести аналогично одномерному случаю плотность распределения
 2 F ( x, y )
f ( x, y ) 
xy
. (10.3.1)
Плотностью эта величина называется потому, что
f ( x, y ) xy
есть вероятность того что X попадет в интервал ( x, x  dx) , а Y попадет в
интервал ( y, y  y ) , то есть точка (x,y) попадет в прямоугольник размером
x  y .
Вероятность попадания в прямоугольную область (см. рис.10.2.2) через
плотность выражается так:
80
bd
P ((a  X  b) и (с  Y  d ))    f ( x, y ) dydx . (10.3.2)
ac
Вероятность попадания в произвольную область S определяется как
интеграл по области
P (( X , Y )  S )   f ( x, y )dydx
S
.
Функция распределения выражается через плотность следующим
образом:
x y
F ( x, y )    f ( x, y ) dydx . (10.3.3)
 
Условие нормировки вероятностей:
 
  f ( x, y )  1 . (10.3.4)
 

Безусловные распределения X и Y
x  y 
F1 ( x )    f ( x, y ) dydx, F2 ( y )    f ( x, y )dxdy .(10.3.5)
   
Безусловные плотности распределения X и Y
dF1 ( x ) 
f1 ( x )    f ( x, y ) dy ,
dx 
 . (10.3.6)
dF2 ( y )
f 2 ( y)    f ( x, y ) dx
dy 

10.4. Условные законы распределения


Предыдущие формулы позволили через закон распределения
двумерной случайной величины определить распределение каждой из
компонент. Можно ли решить обратную задачу, то есть по законам
распределения отдельных компонент построить закон распределения
двумерной случайной величины? Оказывается, что для этого нужна еще
дополнительная информация, а именно, информация о зависимости или
независимости компонент между собой. Для этого вводятся так называемые
условные законы распределения F ( x | y ) и F ( y | x) или условные плотности
f ( x | y ), f ( y | x) . F ( x | y ) - это вероятность того, что X<x при условии, что Y=y,
то есть
F ( x | y )  P (( X  x)и (Y  x)) ,
а
dF ( x | y )
f ( x | y)  .
dx
Аналогично определяются F ( y | x) и f ( y | x) .
Между одномерными плотностями f1 ( x), f 2 ( y ), f ( x | y ), f ( y | x) и двумерной
плотностью f ( x, y ) существуют следующие связи:
f ( x, y )  f1 ( x) f ( y | x)  f 2 ( y ) f ( x | y ) , (10.4.1)
являющиеся следствием закона умножения вероятностей. Отсюда получаем,
что
f ( x, y ) f ( x, y )
f ( x | y)  
f 2 ( y) 
 f ( x, y )dx , (10.4.2)

81
f ( x, y ) f ( x, y )
f ( y | x)  
f1 ( x) 
 f ( x, y ) dy
. (10.4.3)


10.5.Зависимость и независимость случайных величин


Случайные величины X и Y считаются независимыми, если плотность
их совместного распределения равна произведению безусловных
плотностей, то есть
f ( x, y )  f1 ( x) f 2 ( y ) . (10.5.1)
Из соотношений (10.4.1) вытекает, что если случайные величины X и Y
независимы, то
f ( x | y )  f1 ( x) и f ( y | x)  f 2 ( y ) .
Пример. Совместная плотность распределения системы случайных
величин X и Y имеет вид
1
f ( x, y )  .
 ( x  y  x 2 y 2  1)
2 2 2

Определим, зависимы или независимы случайные величины X и Y.


Знаменатель предыдущей плотности разлагается на два множителя, то
есть равен
 (1  x 2 )   (1  y 2 ) .
Значит
1 1
f ( x, y )  .
 (1  x )  (1  y 2 )
2

Пользуясь формулой (10.3.6), получаем, что


 1 1 1
f1 ( x )  
2

2
dy 
 (1  x 2 )
.
   (1  x )  (1  y )
 1 1 1
f 2 ( y)    dx 
2 2
   (1  x )  (1  y )  (1  y 2 )
Таким образом
f ( x, y )  f1 ( x)  f 2 (x),
Следовательно X и Y независимы.
Понятие зависимости случайных величин отличается от
функциональной зависимости, когда каждому значению X отвечает только
определенное значение Y. Зависимость случайных величин (стохастическая
зависимость) предполагает, что конкретному значению X=x отвечает целый
спектр возможных значений Y, который описывается законом распределения
F(y|x) или плотностью f(x|y). Таким образом, стохастическая зависимость –
это менее тесная зависимость, которая превращается в независимость, если
f ( x | y )  f1 ( x) . То есть распределение Х не зависит от значения Y.
Примером стохастической зависимости является зависимость между
ростом и весом человека. На практике часто пользуются формулой
Y ( кг )  X (см)  100 .
Эта формула не является точной, а характеризует только в среднем
приближенно связь между ростом и весом. Для конкретного человека
возможно отклонение в одну и другую сторону. Наиболее полно мы отразим
82
эту зависимость, если определим условную плотность распределения f(y|x) ,
то есть для каждого значения роста x определим распределение Y.

10.6.Числовые характеристики двумерных случайных


величин
Для двумерных случайных величин могут быть определены моменты
как и для одномерных.
Начальным моментом порядка (k,s) двумерной случайной величины
(X,Y) называется математическое ожидание произведения Xk на Ys:
 
 ks  M [ X k  Y s ]   k s
 f ( x, y ) x y dxdy . (10.6.1)
 

Центральным моментом порядка (k,s) двумерной случайной величины (X,Y)


называется математическое ожидание произведения X k на Y s , где
X k  ( X  m x ) k , Y k  (Y  m y ) s ,

то есть
 
 ks  M [ X k  Y s ]   k s
 f ( x, y )( x  m x )  ( y  m y ) dxdy . (10.6.1)
 

mX , mY – безусловные математические ожидания случайных величин X и Y,


то есть
 
m x   f1 ( x ) xdx,

mY   f 2 ( y ) ydy

.
На практике обычно используют только моменты первого и второго
моментов. Можно показать, что
m x  1,0  M [ X 1  Y 0 ]  M [ X ], m y   0,1  M [ X 0  Y 1 ]  M [Y ] .

Для дисперсий имеют место следующие соотношения:

D x  M [ X 2  Y 0 ]  M [ X 2 ]  D[ X ],
D y  M [ X 0  Y 2 ]  M [Y 2 ]  D[Y ].

Особую роль для двумерных случайных величин играет смешанный


центральный момент
K xy  M [ X 1  Y 1 ]  M [( X  m x )(Y  m y )] 

 
  (10.6.2)
 f ( x, y )( x  m x )( y  m y )dxdy.
 
Этот момент называется корреляционным, так как он характеризует степень
зависимости между X и Y. Действительно, если случайные величины
независимы, то корреляционный момент равен 0. Покажем это. Если X и Y
независимы, то f ( x, y )  f1 ( x)  f 2 ( y ) и интеграл (10.6.2) равен в этом случае
нулю.
Для характеристики степени зависимости случайных величин чаще
применяют безразмерную величину – коэффициент корреляции
K xy
rxy  , 10.6.3)
 x y
 x , y -
квадратичные отклонения X и Y соответственно. Если X и Y
независимы, то K xy  0 и, следовательно, rxy  0 . Обратное утверждение
неверно, то есть можно показать, что зависимые величины имеют
83
корреляционный момент и коэффициент корреляции равными нулю.
Например, двумерная случайная величина с плотностью
 1
 при x 2  y 2  a 2 ,
f ( x, y )   a 2
 0 при x 2  y 2  a 2

имеет корреляционный момент равный нулю, но X и Y зависимы.
Коэффициент корреляции характеризует тесноту линейной
зависимости случайных величин. Если случайные величины X и Y связаны
точной линейной зависимостью
Y  aX  b
то коэффициент корреляции rxy  1 ,
если a>0 и rxy  1 , если а<0.
В общем случае, если X и Y связаны стохастически, то
 1  rxy  1
в зависимости от тесноты этой зависимости. Если rxy  0 , то говорят, что
между X и Y имеется положительная корреляция. Если rxy  0 , то говорят, что
между X и Y имеется отрицательная корреляция. Если rxy  0 , то говорят, что
X и Y не коррелированны. Если X и Y стохастически связаны линейно,
отсутствие корреляции равносильно независимости X и Y.
84

11.Двумерный нормальный закон распределения


Двумерный нормальный закон чаще других двумерных законов
используется на практике. Плотность распределения в этом случае имеет вид:
1 1 ( x  mx )2 2 r ( x  m x )( y  m y )
f ( x, y )  exp{ [  
2 x y 1 r2 2(1  r 2 )  x
2  x y

2
( y  my )
 ]}.
 2
y

Этот закон зависит от пяти параметров m x , m y , x , y , r . Первые два параметра


– это безусловные математические ожидания X и Y. Вторые два –
безусловные квадратичные отклонения X и Y. Пятый параметр - это
коэффициент корреляции между X и Y.
При r=0
1 ( x  mx ) 2 1 ( y  m y )2
f ( x, y )  exp[ ] exp[ ]  f1 ( x)  f 2 ( y ). То есть в этом
2  x 2 x2 2  y 2 2y
случае случайные величины X и Y независимы. То есть в этом случае
равенство коэффициента корреляции нулю равносильно независимости
компонент двумерной случайной величины. Если r>0, то условные
плотности имеют вид:
1 ( x  m x| y ) 2
f ( x | y)  exp[ ];
2  x | y 2 x2| y

1 ( y  m y| x ) 2
f ( y | x)  exp[ ],
2  y | x 2 2
y| x

где
x y
m x| y  m x  r ( y  m y ), m y| x  m y  r ( x  m x ),
y x

 x| y   x 1  r 2 ,  y| x   y 1  r 2 .
Условные математические ожидания m x| y , m y | x зависят линейно от y и от x
соответственно. Эти зависимости называют регрессиями X на Y и Y на X
соответственно. Интересно отметить, что условные квадратичные
 , 
отклонения x| y y | x не зависят от y и x .
85

12.Числовые характеристики функций случайных


величин
12.1.Математическое ожидание и дисперсия функции
На практике часто приходится иметь дело с функциями от случайных
величин. Предположим, что случайные величины Y и X связаны
функционально, то есть
Y  (X ) ,
тогда математическое ожидание Y

my    ( x) f ( x ) dx , (12.1.1)


а дисперсия
 
D y   ( ( x )  m y ) 2 f ( x ) dx  2 2
 [ ( x )] f ( x ) dx  m y , (12.1.2)
 

где f (x ) - плотность распределения величины X.


Важно отметить, что для определения отмеченных характеристик
случайной величины Y не требуется знать ее закон распределения,
достаточно знать только закон распределения X f (x) .
Если Y функционально связана с системой случайных величин (
X 1 , X 2 ,..., X n ) , то есть
Y   ( X 1 , X 2 ,..., X n ) ,
то
 
m y        ( x1 , x 2 ,..., x n ) f ( x1 , x 2 ,..., x n ) dx1dx 2    dxn
 
.
Дисперсия Y
 
D y       [ ( x1 , x 2 ,..., x n )]2 f ( x1 , x 2 ,..., x n ) dx1dx 2    dx n  m 2
y .
 

12.2.Теоремы о числовых характеристиках


12.2.1.Характеристики неслучайной величины
Неслучайная величина X=c как частный случай случайной величины имеет
плотность, выражающуюся через дельта-функцию Дирака, то есть
f ( x)   ( x  c) .

Математическое ожидание неслучайной величины c


M (c )  c . (12.2.1)
Действительно

M (c )    ( x  c ) xdx  c .


Дисперсия неслучайной величины


D( с )=0. (12.2.2)
Действительно

D (c )    ( x  c) x 2 dx  c 2 c 2  c 2  0 .

86
12.2.2. Характеристики функции Y=cX
Математическое ожидание
M (Y )  M (cX )  cM ( X )  cm x . (12.2.3)
Дисперсия

D (Y )  D (cX )   (cx) 2 f ( x) dx  (cm x ) 2  c 2 D ( X ) . (12.2.4)


12.2.3.Характеристики суммы случайных величин


Если Y  X 1  X 2  ...  X n , то
M (Y )  M ( X 1  X 2  ...  X n )  M ( X 1 )  M ( X 2 )  ...  M ( X n ) ,
то есть математическое ожидание суммы случайных величин равно сумме
математических ожидании слагаемых.
n n
M (  Xi )   M (Xi ) . (12.2.5)
i 1 i 1
Докажем этот факт для случая суммы двух случайных величин X и Y.
 
M (X  Y)    ( x  y ) f ( x, y ) dxdy 
 
   
   xf ( x, y ) dxdy    yf ( x, y ) dxdy 
   
     
  x  f ( x, y ) dydx   y  f ( x, y ) dxdy   xf1 ( x) dx   yf 2 ( y ) dy 
     

= M ( X )  M (Y ) .
Дисперсия суммы случайных величин X и Y
D ( X  Y )  D( X )  D(Y )  2 K xy . (12.2.6)
Доказательство.
 
2 2
D( X  Y )    ( x  y ) f ( x, y ) dxdy  ( M ( X )  M (Y )) 
 
   
  x 2 f1 ( x ) dx   y 2 f 2 ( y ) dy  2   xy f ( x, y ) dxdy 
   
 D ( X )  D (Y )  2 K xy .

Если случайные величины независимы, то


D( X  Y )  D ( X )  D (Y ) .
Если Y  X 1  X 2  ...  X n , то
n n
D (  X i )   D ( X i )  2  K ij . (12.2.7)
i 1 i 1 i j
Если случайные величины, входящие в сумму взаимно не коррелированны,
то дисперсия суммы равна сумме дисперсий:
n n
D(  X i )   D( X i ) . (12.2.8)
i 1 i 1

12.2.4.Характеристики линейной функции


Рассмотрим функцию
n
Y   ai X i  b .
i 1
Математическое ожидание
87
n n
M (Y )  M (  ai X i  b)   ai M ( X i )  b . (12.2.9)
i 1 i 1
Доказательство. Пользуясь формулой (12.2.5) получаем, что
n n n n
M (  ai X i  b)  M (  ai X i )  M (b)   M (ai X i )  b   ai M ( X i )  b .
i 1 i 1 i 1 i 1
Дисперсия Y
n
D (Y )   ai2 D ( X i )  2  ai a j K ij , (12.2.10)
i 1 i j
где Kij - корреляционный момент пары (Xi,Xj). Эта формула является
следствием (12.2.7).
Доказательство. Пусть Yi  ai X i , тогда
K (Yi , Y j )  M [(Yi  M (Yi ))  (Y j  M (Y j ))] 
 M [( ai X i  ai M ( X i ))(a j X j  a j M ( X j ))]  ai a j M ( X i  X j )  ai a j K ij .
Если случайные величины Xi не коррелированны друг с другом, то

n
D(Y )   ai2 D( X i ) . (12.2.11)
i 1

12.2.5.Характеристики произведения случайных величин


Пусть
Z  X Y ,
тогда
M ( Z )  M ( X  Y )  M ( X )  M (Y )  K xy . (12.2.12)
Доказательство. Представим X и Y в виде:
X  X  m x , Y  Y  m y ,

тогда
 M ( X  m x )  (Y  m y )]  M ( X  Y )  m x M (Y )  m y M ( X )  m x m y 
M ( X Y ) 
 K xy  m x m y ,
что равносильно (12.2.12).
Если X и Y не коррелированны, то математическое ожидание их
произведения равно произведению их математических ожиданий, то есть:
M ( X  Y )  M ( X )  M (Y ) . (12.2.13)

Дисперсия произведения независимых случайных величин X и Y


D ( Z )  D ( X  Y )  D ( X ) D (Y )  m x2 D (Y )  m 2y D( X ) . (12.2.14)
Доказательство.
D ( Z )  M ( Z 2 )  M [( Z  m z ) 2 ]  M ( X 2Y 2  2m z XY  m z2 ) .(12.2.15)
Так как X и Y независимы, то
M ( X 2Y 2 )  M ( X 2 ) M (Y 2 )  ( D ( X )  m x2 )( D (Y )  m 2
y) 

 D ( X ) D (Y )  m x2 D (Y )  m 2 2 2
y D( X )  mx m y .
mz  mx m y , M ( 2m z XY )  2m x2 m 2
y.

Если эти выражения подставить в (12.2.15), то после приведения подобных


членов получаем (12.2.14).
88
Для независимых центрированных величин дисперсия произведения
равна произведению дисперсий, то есть
D ( X  Y )  D ( X ) D(Y ) . (12.2.16)
89

13.Распределение функции случайных аргументов


13.1.Распределение функции одного аргумента
В предыдущей лекции мы определяли числовые характеристики
функций от случайных аргументов. Но в некоторых случаях требуется знать
и закон распределения функции от случайных аргументов.
Предположим по-прежнему, что между X и Y существует
функциональная связь
Y  (X ) (13.1.1)
и функция  (x) непрерывна, дифференцируема и монотонно возрастающая.
Пусть F1 ( x), f1 ( x) и F2 ( y ), f 2 ( y ) - функции распределения и плотности
распределения X и Y соответственно, тогда вероятность того, что Y  y равна
вероятности того, что X  x (см.рис.13.1.1), то есть
F2 ( y )  F1 ( x ) . (13.1.2)
Y
y=φ(x)

0 X
x

Рис.13.1.1. Иллюстрация к выводу формулы (13.1.3).

Если разрешить функцию (13.1.1) относительно x , то есть


x   ( y)

и подставить в правую часть (13.1.2), то получим, что


F2 ( y )  F1 ( ( y )) .
Дифференцируя полученное выражение по y, получаем:
f 2 ( y )  f1 ( ( y ))   ( y ) .
Если функция (13.1.1) монотонно убывающая, то аналогичные рассуждения
приводят к формуле
f 2 ( y )  f1 ( ( y ))  ( ( y )) .
Обе эти формулы можно записать единообразно так:
f 2 ( y )  f1 ( ( y )) |  ( y ) | . (13.1.3)
Пример 1. Пусть Y  aX  b , тогда
yb 1
 ( y)  ,  ( y )  .
a a
Подставляем полученные результаты в (13.1.3) и получаем, что
90
yb 1
f 2 ( y )  f1 ( ) .
a a
Пример 2. Определим распределение случайной величины Y f 2 ( y ) ,
c
если известно, что Y  и X имеет плотность распределения
X
1 x
f1 ( x)  exp( ), x  0.
a a
В данном случае  ( y )  c / y,  ( y )  c / y 2 .
1 c c
f 2 ( y)  exp( )  , y>0 .
a ay y 2

13.2.Распределение суммы случайных величин


Рассмотрим случай, когда третья случайная величина Z является
суммой двух независимых случайных величин X и Y, то есть
Z  X Y .
Плотности этих величин f1 ( x ), f 2 ( y ) соответственно. Плотность
распределения Z
 
f3 ( z)   f1 ( z  y ) f 2 ( y ) dy   f1 ( x ) f 2 ( z  x ) dx . (13.2.1)
 

Этот интеграл называется сверткой или композицией плотностей и


обозначается следующим образом:
f 3  f1 * f 2 .
Таким образом, если независимые случайные величины суммируются,
то их плотности распределения свертываются.
Это правило распространяется на сумму любого числа независимых
слагаемых. То есть, если
X  X 1  X 2  ...  X n ,
то
f  f1 * f 2 * ... * f n .
Пример. Определим плотность распределения суммы двух равномерно
распределенных величин X1 и X2 c плотностями:
1
f1 ( x )  , 0  x  a;
a
1
f 2 ( x)  , 0  x  b.
b
После подстановки этих плотностей в (13.2.1) и интегрирования в
предположении b  a получаем , что
 0 при ( x  0) и ( x  a  b),
 x
 при (0  x  a ),
 ab
f ( x)  f 1 * f 2   1
при (a  x  b),
 b
 ab x
 при (a  x  b).
 ab
91
Эта плотность называется трапециодальной (см. рис.13.2.1). Если a  b ,
то трапеции вырождается в равнобедренный треугольник и
соответствующая плотность называется плотностью Сипсона.
f1(x) f2(x
a b

1/a
1/b

0 x 0 x
a b

f(x)
ab
1/b

0 а x
b a+b

Рис.13.2.1.Трапециодальное распределение – свертка двух


равномерных распределений.

13.3.Распределение суммы нормально распределенных


случайных величин
Если Z  X  Y , X и Y независимы и нормально распределены с
плотностями
2
1 ( x  mx )2 1 ( y  my )
f1 ( x )  exp[  ], f 2 ( y)  exp[  ], то сумма Z
2  x 2 x2 2  y 2 2y
будет распределена тоже нормально с плотностью
1 ( z  mz ) 2
f3 ( z)  exp[ ],
2  z 2 z2
где
m z  m x  m y ,  z2   x2   2y .

Этот факт доказывается непосредственным интегрированием интеграла


сверстки (13.2.1) после подстановки f1 ( x) и f 2 ( y ) .
Справедливо и более общее утверждение: если
n
Y   ai X i  b , (13.3.1)
i 1
где ai и b- константы, а Хi – независимые нормально распределенные
2
случайные величины со средними значениями m xi и дисперсиями  xi , то Y
будет распределено тоже нормально со средним значением
92
n
m y   ai m xi  b (13.3.2)
i 1
и дисперсией
n
 2y   ai2 xi
2
. (13.3.3)
i 1
Отсюда вытекает, что если суммируются независимые нормально
распределенные случайные величины, то сумма будет иметь тоже
нормальное распределение с математическим ожиданием, равным сумме
математических ожиданий слагаемых и дисперсией, равной сумме дисперсий
слагаемых. То есть, если
n
Y   Xi ,
i 1
то
n n
m y   m xi , D y   Dxi . (13.3.4)
i 1 i 1
93

13.Распределение функции случайных аргументов


13.1.Распределение функции одного аргумента
В предыдущей лекции мы определяли числовые характеристики
функций от случайных аргументов. Но в некоторых случаях требуется знать
и закон распределения функции от случайных аргументов.
Предположим по-прежнему, что между X и Y существует
функциональная связь
Y  (X ) (13.1.1)
и функция  (x) непрерывна, дифференцируема и монотонно возрастающая.
Пусть F1 ( x), f1 ( x) и F2 ( y ), f 2 ( y ) - функции распределения и плотности
распределения X и Y соответственно, тогда вероятность того, что Y  y равна
вероятности того, что X  x (см.рис.13.1.1), то есть
F2 ( y )  F1 ( x ) . (13.1.2)
Y
y=φ(x)

0 X
x

Рис.13.1.1. Иллюстрация к выводу формулы (13.1.3).

Если разрешить функцию (13.1.1) относительно x , то есть


x   ( y)

и подставить в правую часть (13.1.2), то получим, что


F2 ( y )  F1 ( ( y )) .
Дифференцируя полученное выражение по y, получаем:
f 2 ( y )  f1 ( ( y ))   ( y ) .
Если функция (13.1.1) монотонно убывающая, то аналогичные рассуждения
приводят к формуле
f 2 ( y )  f1 ( ( y ))  ( ( y )) .
Обе эти формулы можно записать единообразно так:
f 2 ( y )  f1 ( ( y )) |  ( y ) | . (13.1.3)
Пример 1. Пусть Y  aX  b , тогда
yb 1
 ( y)  ,  ( y )  .
a a
Подставляем полученные результаты в (13.1.3) и получаем, что
94
yb 1
f 2 ( y )  f1 ( ) .
a a
Пример 2. Определим распределение случайной величины Y f 2 ( y ) ,
c
если известно, что Y  и X имеет плотность распределения
X
1 x
f1 ( x)  exp( ), x  0.
a a
В данном случае  ( y )  c / y,  ( y )  c / y 2 .
1 c c
f 2 ( y)  exp( )  , y>0 .
a ay y 2

13.2.Распределение суммы случайных величин


Рассмотрим случай, когда третья случайная величина Z является
суммой двух независимых случайных величин X и Y, то есть
Z  X Y .
Плотности этих величин f1 ( x ), f 2 ( y ) соответственно. Плотность
распределения Z
 
f3 ( z)   f1 ( z  y ) f 2 ( y ) dy   f1 ( x ) f 2 ( z  x ) dx . (13.2.1)
 

Этот интеграл называется сверткой или композицией плотностей и


обозначается следующим образом:
f 3  f1 * f 2 .
Таким образом, если независимые случайные величины суммируются,
то их плотности распределения свертываются.
Это правило распространяется на сумму любого числа независимых
слагаемых. То есть, если
X  X 1  X 2  ...  X n ,
то
f  f1 * f 2 * ... * f n .
Пример. Определим плотность распределения суммы двух равномерно
распределенных величин X1 и X2 c плотностями:
1
f1 ( x )  , 0  x  a;
a
1
f 2 ( x)  , 0  x  b.
b
После подстановки этих плотностей в (13.2.1) и интегрирования в
предположении b  a получаем , что
 0 при ( x  0) и ( x  a  b),
 x
 при (0  x  a ),
 ab
f ( x)  f 1 * f 2   1
при (a  x  b),
 b
 ab x
 при (a  x  b).
 ab
95
Эта плотность называется трапециодальной (см. рис.13.2.1). Если a  b ,
то трапеции вырождается в равнобедренный треугольник и
соответствующая плотность называется плотностью Сипсона.
f1(x) f2(x
a b

1/a
1/b

0 x 0 x
a b

f(x)
ab
1/b

0 а x
b a+b

Рис.13.2.1.Трапециодальное распределение – свертка двух


равномерных распределений.

13.3.Распределение суммы нормально распределенных


случайных величин
Если Z  X  Y , X и Y независимы и нормально распределены с
плотностями
2
1 ( x  mx )2 1 ( y  my )
f1 ( x )  exp[  ], f 2 ( y)  exp[  ], то сумма Z
2  x 2 x2 2  y 2 2y
будет распределена тоже нормально с плотностью
1 ( z  mz ) 2
f3 ( z)  exp[ ],
2  z 2 z2
где
m z  m x  m y ,  z2   x2   2y .

Этот факт доказывается непосредственным интегрированием интеграла


сверстки (13.2.1) после подстановки f1 ( x) и f 2 ( y ) .
Справедливо и более общее утверждение: если
n
Y   ai X i  b , (13.3.1)
i 1
где ai и b- константы, а Хi – независимые нормально распределенные
2
случайные величины со средними значениями m xi и дисперсиями  xi , то Y
будет распределено тоже нормально со средним значением
96
n
m y   ai m xi  b (13.3.2)
i 1
и дисперсией
n
 2y   ai2 xi
2
. (13.3.3)
i 1
Отсюда вытекает, что если суммируются независимые нормально
распределенные случайные величины, то сумма будет иметь тоже
нормальное распределение с математическим ожиданием, равным сумме
математических ожиданий слагаемых и дисперсией, равной сумме дисперсий
слагаемых. То есть, если
n
Y   Xi ,
i 1
то
n n
m y   m xi , D y   Dxi . (13.3.4)
i 1 i 1
97

14.Предельные теоремы
14.1.Понятие о законе больших чисел
Из опыта известно, что в массовых явлениях результат мало зависит от
отдельных проявлений. Например, давление, оказываемое газом на стенки
сосуда, складывается в результате ударов молекул газа о стенки. Не смотря
на то, что каждый удар по силе и направлению совершенно случайны
итоговое давление оказывается практически детерминированным. То же
самое можно сказать о температуре тела, которая определяет среднюю
кинетическую энергию движения атомов тела. Сила тока есть проявление
движения элементарных зарядов(электронов). Конкретные особенности
каждого случайного явления почти не сказываются на среднем результате
массы таких явлений. Случайные отклонения от среднего, неизбежные в
каждом отдельном явлении, в массе взаимно погашаются, нивелируются,
выравниваются. Именно этот факт – устойчивость средних - лежит в основе
закона больших чисел: при большом числе случайных явлений средний их
результат практически перестает быть случайным и может быть предсказан с
большой степенью определенности.
В теории вероятностей под законом больших чисел понимается ряд
математических теорем, в каждой из которых при тех или иных условиях
устанавливается факт приближения средних характеристик большого числа
опытов к постоянным величинам или к предельным распределениям.

14.2.Неравенство Чебышева
Чебышев доказал неравенство, лежащее в основе доказательства
законов больших чисел. Это неравенство утверждает, что если случайная
величина X имеет математическое ожидание mx и дисперсию Dx, то каково
бы не было положительное число α , вероятность того, что X отклоняется от
своего математического ожидания не меньше чем на α, ограничена сверху
величиной D x /  2 :
Dx
P(| X  m x |  )  . (14.2.1)
2
Доказательство. Если f (x ) - плотность распределения X, то

P (| X  m x |  )   f ( x)dx ,
| x  m x |

D x   | x  m x |2 f ( x)dx  2
 | x  m x | f ( x) dx 
2
  f ( x )dx .
 | x  m x | | x  m x |

Первое неравенство справедливо, так как сужается область интегрирования, а


второе неравенство справедливо, так как  | x  m | в области
интегрирования. Из этих неравенств получаем, что
Dx   2 2
 f ( x)dx   P(| x  m x |  ) ,
| x  m x |
98
что эквивалентно (14.2.1).
Пример. Оценим сверху вероятность того, что случайная величина со
средним значением m x и квадратичным отклонением  x отклонится от
среднего значения больше чем на 3  x .
Решение. В этом случае   3 x . Из неравенства Чебышева получаем,
что
 x2 1
P (| X  m x | 3 x )   .
9 x2 9
Практическое значение неравенства Чебышева невелико, так как оно дает
слишком общую и поэтому неточную оценку для вероятности отклонения.
Например, для нормального распределения с такими же параметрами
отмеченная в примере вероятность равна 0.003, что конечно меньше 1/9, но
слишком далеко от этой верхней оценки, даваемой неравенством Чебышева.

14.3.Закон больших чисел Чебышева


Пусть X 1 , X 2 ,..., X n - реализации случайной величины X. Среднее
арифметическое значение этих реализаций
n
 Xi
(14.3.1)
Y  i 1
n
тоже является случайной величиной со средним значением
1 n
m y  M (Y )   M ( X i )  mx (14.3.2)
n i 1
и дисперсией
1 n Dx
Dy 
2
 D( X i )  . (14.3.3)
n i 1 n
Отсюда вытекает, что дисперсия среднего арифметического значения
выборки с ростом выборки стремится к нулю, а среднее арифметическое
становится все ближе к математическому ожиданию m x .
Чебышев этот факт сформулировал в виде теоремы: при достаточно
большом числе независимых опытов среднее арифметическое наблюденных
значений случайной величины сходится по вероятности к ее
математическому ожиданию.
В виде формулы сказанное запишется так: при увеличении n среднее
1
арифметическое  Xi стремится по вероятности к mx , то есть
n i
99

1
P(  X i  mx   )  1   , (14.3.4)
n i
где  ,  - произвольные малые положительные числа.
Доказывается этот факт с использованием неравенства Чебышева, если
применить его к случайной величине (14.3.1).
Марков сделал обобщение результата Чебышева. Если у Чебышева
предполагалось, что случайные величины Xi одинаково распределены, то
Марков рассмотрел случай, когда Xi от опыта к опыту могут изменять закон
распределения, оставаясь независимыми.
Результат Маркова состоит в следующем: если независимые случайные
величины
X 1 , X 2 ,..., X n
имеют математические ожидания
m1 , m2 ,..., mn
и дисперсии
D1 , D2 ,..., Dn
ограниченные величиной L, то есть
Di  L, i  1,2,..., n ,
то при возрастании n среднее арифметическое значение наблюденных
величин X 1 , X 2 ,..., X n сходится по вероятности к среднему арифметическому
их математических ожиданий, то есть к величине
1
 mi .
n i

14.4.Центральная предельная теорема


Рассмотренные варианты закона больших чисел говорят о сходимости
к некоторой величине. Однако есть еще “количественная форма закона
больших чисел”, когда рассматривается сходимость к случайной величине с
определенным законом распределения. Так центральная предельная теорема
говорит об условиях сходимости распределения суммы случайных величин к
нормальному закону распределения.
Центральная предельная теорема для одинаково распределенных
независимых случайных величин формулируется так: если X 1 , X 2 ,..., X n
-независимые случайные величины с одинаковым законом распределения и с
математическим ожиданием m и дисперсией  2 , то при неограниченном
увеличении n закон распределения суммы
n
Yn   X i
i 1
неограниченно приближается к нормальному закону с математическим
ожиданием
my  n  m
и дисперсией
D y  n  2 .
100
Справедлив и более общий результат, когда слагаемые Xi имеют
различные законы распределения, важно только, чтобы дисперсии у них не
слишком отличались друг от друга, например, не превышали некоторую
конечную величину L. В этом случае с ростом числа слагаемых n сумма
будет иметь распределение, неограниченно приближающееся к нормальному
с математическим ожиданием
n
m y   m xi (14.4.1)
i 1
и дисперсией
n
D y   D xi . (14.4.2)
i 1