Вы находитесь на странице: 1из 17

1

Лекция 3. Повторные независимые испытания.

3.1 Последовательность независимых испытаний. Формула Бернулли.


3.2 Асимптотические формулы в схеме Бернулли:
3.2.1 Теорема Пуассона.
3.2.2 Локальная и интегральная теорема Муавра-Лапласа.
3.3 Понятие случайной величины. Виды случайных величин. Закон распределения
дискретной случайной величины. Биномиальный закон распределения и закон Пуассона.
Числовые характеристики ДСВ.
Литература: [1], § 2.1-2.4.
3.1 Последовательность независимых испытаний. Формула Бернулли.
На практике часто приходится сталкиваться с ситуациями, когда выполняется серия
из n испытаний, при каждом из которых событие А может произойти (или не произойти) с
одной и той же вероятностью P ( A)  p .
Если проводится несколько испытаний (опыт повторяется многократно при одном и
том же комплексе условий), причем, вероятность наступления события А в каждом
испытании одна и та же и не зависит от результатов предыдущих испытаний, то такие
испытания называются независимыми.
Последовательность n независимых испытаний, когда P ( A)  p в каждом
отдельном испытании постоянная, называется схемой Бернулли.
Такие схемы достаточно часто имеют место при массовых испытаниях. Именно в
таких ситуациях проявляются законы ТВ.
Простейшая задача, относящаяся к схеме Бернулли – определение вероятности того,
что в n независимых испытаниях событие производится ровно к раз. Обозначается
искомая вероятность символом p mk ( A)  Pn (k ), (0  k  n) .

Рассмотрим пример.
Пусть произведено n=3 испытания и вероятность наступления события А в каждом
из этих испытаний равна P ( A)  p . Тогда вероятность противоположного события
P( A)  1  p  q .
Найдем вероятность того, что событие А наступило ровно 2 раза. Обозначим такое
событие через В2. Очевидно, В2=ААÃ+АÃА+ÃАА слагаемые есть несовместные события.
По теоремам сложения вероятностей несовместных событий и умножения вероятностей
независимых событий получаем:
P ( B2 )  ppq  pqp  qpp  3 p 2 q

Пример. Вероятность попадания в цель при одном выстреле р=0,8. Найти вероятность
всех возможных исходов.
2

Рис. 3.1
5!
P5 (0)  c50 p 0 q 5 0   0,8 0  0,2 5  0,00032
5!
P5 (1)  0,006
P5 (2)  0,051
P5 (3)  0,2048
P5 (4)  0,41
P5 (5)  0,328
Результаты показывают, что вероятность всего при пяти выстрелах следует ожидать
четыре попадания.
Результаты, изображенные на рисунке 3.1 в виде ломаной, называются
многоугольником (полигоном) распределения вероятностей.
Так как все возможные исходы образуют полную группу событий, то
Р5(0)+ Р5(1)+ Р5(2)+ Р5(3)+ Р5(4)+ Р5(5)=1
n
Для любых значений n и k c
k 0
k
n p k q n k  1

Пусть n=200, k=116, p=0,72,


тогда P200 (116 )  c 116
200  0,72  (0,28) 24 . Подсчитать результат практически
116

невозможно, причем, чем меньше р и чем больше n. Возникает необходимость в


отыскании приближенных формул для вычисления Рn(k).
Рассмотрим схему Бернулли для любых n и k.
Пусть событие А произошло в n независимых испытаниях k раз в первых k
испытаниях и не произошло (n-k) раз в остальных испытаниях. Это событие АА…А Ã….
Ã
k n-k
По теореме умножения его вероятность равна p k q n  k . Вероятность появления
события ровно K раз, но в другой последовательности, например, Ã АА…А ÃÃ Ã ….
k n-k-1
так же равна p k q n  k . Число таких событий, когда событие А может произойти К раз
в n испытаниях равно числу сочетаний из n по k. Все такие события равновероятны.
Следовательно, по теореме сложения несовместных событий,

(3 Р(Вк)= р nк  c nk p k q n  k .1)
3

которая называется формулой Бернулли.

Теорема 3.1 (Бернулли): Если проводится n независимых испытаний, в каждом из


которых вероятность появления события А равна Р, то вероятность того, что событие А
произойдет ровно k раз определяется формулой Бернулли.
Пусть n=200, k=116, p=0,72,
тогда P200 (116 )  c 116
200  0,72  (0,28) 24 . Подсчитать результат практически
116

невозможно, причем, чем меньше р и чем больше n. Возникает необходимость в


отыскании приближенных формул для вычисления Рn(k),обеспечивающих
необходимую точность. Такие формулы называются предельными теоремами.

3.2 Асимптотические формулы в схеме Бернулли.


3.2.1 Теорема Пуассона.
Предельные теоремы ТВ в схеме Бернулли, обеспечивающие необходимую
точность, содержат асимптотические формулы, которые при больших n (n   ) дают
сколь угодно малую погрешность.

Теорема 3.2 (Пуассона): Если число испытаний неограниченно увеличивается (n   ), и


вероятность р наступления события А в каждом испытании неограниченно уменьшается (р
 0 ), но так, что np=  есть постоянная величина, то вероятность Рn(k) удовлетворяет
равенству
 k 
lim Рn ( k )  e
n  k! (3.2)

Выражение (3.2) называется асимптотической формулой Пуассона.


Замечание. Формула Пуассона практически не допускает ошибок при n  50 и
np  10 .

Доказательство:

Pn (k ) 
n!
p k (1  p ) n  k 
1  2  3  ...( n  k )(n  k  1)  ...n p k (1  p n )(1  p) k 
k!(n  k )! (1  2  3  ...  k )(1  2  3  ...( n  k ))
 np
(np) k k 1 k 2 1 ( np) k   
1

 (1  )(1  )  ...  (1  )(1  p ) n (1  p)  k  (1  p) 


p

k! n n n k!  
(np) k  np k  
 e  e ,
k! k!

если n   .
Таким образом,
k 
Pn ( k )  e (3.3)
k!

Формула Пуассона есть формула вероятностей маловероятных событий.


Например, при вычислении вероятности выигрыша автомобиля, если куплено
достаточно много лотерейных билетов (по крайней мере, больше 50 билетов).
Из (3.3) следует, что Pn (k )  f ( , k ) .
4

k 
Для упрощения вычислений используется таблица функции f ( , k )  e ,
k!
которая имеется в любом пособии по теории вероятностей.
λ
k 1 … λ …
1

k f ( , k )

Пример 1. Завод в Москву отправил1500 бутылок вина «Каберне». Вероятность


того, что в пути бутылка может разбиться, равна 0,002. Найти вероятность того, что в пути
будет разбито не более 4-х бутылок (событие А).
Искомая вероятность равна:
P( A)  P1500 (0)  P1500 (1)  P1500 (2)  P1500 (3)  P1500 (4) .

n=1500, p=0,002; λ=np=1500 0,002=3


3 0 3 31 3 3 2 3 33 3 3 4 3
P ( A)  e  e  e  e  e  0,815
0! 1! 2! 3! 4!

Пример 2. Какова вероятность того, что среди n=100 студентов, присутствующих на


лекции 31 декабря является днем рождения одновременно 2-х студентов?
1
n=100, р= , λ=np=0,274<10,
365
P100 (2)  f ( , k )  f (0,274;2)  0,0282 (см. таблицу).

3.2.2 Локальная и интегральная теоремы Муавра-Лапласа.


В тех случаях, когда n велико, а р не близка к нулю, для вычисления вероятности в
условиях схемы Бернулли используется теорема Муавра-Лапласа (без доказательства).

Теорема 3.3 (локальная теорема Муавра-Лапласа): Если вероятность р


наступления события А в каждом испытании постоянна и отлична от нуля и
единицы ( p  0, p  1), а число независимых испытаний достаточно велико, то
2
x
вероятность P (k )  1  1 e  2 , где x  k  np (3.3)
n
npq 2 npq

x2
1 
Введем функцию  ( x)  e , которая называется дифференциальной
2

2
функцией Лапласа, а ее график кривой вероятностей. Тогда равенство (3.3) перепишется в
виде

1
Pn ( k )   ( x) (3.4)
npq

Погрешность при вычислении вероятностей тем меньше, чем больше n и практически


равна нулю, если npq  20 .

Функция  (x ) - дифференциальная функция Лапласа. Она не требует вычисления,


т.к. её можно найти по Таблицам значений функции  ( x )" .
Для пользования таблицами, рассмотрим её свойства:
5

1.  ( x )   ( x) - функция четная, поэтому таблицы составлены лишь для


x  0;
2.  (x ) - убывающая достаточно быстро функция;
1
3.  max   (0)   0,39 ;
2
4. lim  ( x)  0 ;
x

5.  ( x ) 0
x 5

Таким образом, таблицы составлены для x 5 (рис. 3.2)

1
2

Рис. 3.2
 (1)  0,24 ;  (2)  0,05
Пример. По результатам проверок налоговыми инспекциями установлено, что в
среднем каждое второе малое предприятие региона имеет нарушение финансовой
дисциплины. Какова вероятность того, что среди тысячи зарегистрированных малых
предприятий имеют нарушение финансовой дисциплины ровно 480?

1
2 480  1000 
P1000 (480)   ( x) 2  1,265
1 1 , где x 
1000   1
2 2 1000 
4
2
P1000 ( 480)   ( 1,265)  0,0113
10 10

Замечание. Малое значение P1000 ( 480)  0,0113 вполне естественно, т.к. кроме
события («k=480 из 1000») возможны события: (0 из 1000), …, (999 из 1000) и (1000 из
1000). 1001 возможных события составляют полную группу событий, и сумма их
вероятностей равна 1, т.е. единичная вероятность распределяется между1001 событием.
Очевидно, что на долю каждого события («k из 1000») приходится малая вероятность.

Наивероятнейшее число наступлений события А.


6

1
Очевидно Pmax  Pn (k 0 )   max ,
npq
k  np
но  max   (0) , т.е. при x  0,
npq
т.е. при k  k 0   np - целая часть числа значения np.
Если np – дробь, то возможны два значения k 0 , т.е. k 0  np  q ; k 0   np  p
 
(k 0  k 0  1) . В общем случае можно записать np  q  k 0  np  p .

Интегральная теорема Лапласа.


Вопрос, на который отвечает локальная теорема Муавра-Лапласа, не представляет
практического интереса (например, вероятность того, что на станцию скорой помощи за
смену поступит ровно один, или ровно 23 вызова). Однако вероятность того, что событие
A в n испытаниях произойдет не менее, чем k1 раз и не более, чем k2 раза весьма актуален.
Путь в рассмотренной выше задаче о малых предприятиях k1=300, k2=460. В этом
случае по теореме сложения вероятность
P1000 (300  k  460)  P1000 ( k  300)  P1000 ( k  301)  ...  P1000 (k  460) .

В принципе вычислить каждое слагаемое (а их число равно 160) можно, используя


локальную теорему Лапласа. Но большое количество слагаемых делает расчет весьма
громоздким. В этом случае используют интегральную теорему Муавра-Лапласа (без
доказательства).

Теорема 3.4 (Интегральная теорема Муавра-Лапласа): Если вероятность р


наступления события А в каждом испытании постоянна и отлична от нуля и единицы
( p  o, p  1) , то вероятность того, что в n испытаниях число появлений события А
заключено в пределах от k1 до k2 раза при большом n приближенно можно вычислить по
формуле
1
Pn (k1  k  k 2 )   ( x2 )  ( x1 ) , (3.4)
2
t2
k1  np k 2  np 2
x

где x1 
npq
, x2 
npq
, ( x) 
2
e
0
2
dt

(3.5)

С увеличением n погрешность уменьшается и при npq  20 практически равна


нулю.
Функция (3.5) затабулирована, но чтобы пользоваться таблицей следует знать
свойства функции (3.5) , которая называется интегральной функцией Муавра-Лапласа.

1.  ( x )   ( x) - функция нечетная.

2.  (x ) монотонно возрастает, при этом lim  ( x )  1 Практически можно считать, что


x 
.
уже при x  4  ( x )  1 . Поэтому таблицы составлены для значений 0  x  4 .
7

Рис. 3.3.
Пример 3.4.1.
Вернемся к задаче о финансовых нарушениях среди 1000 малых предприятий.
Найдем вероятность того, что число предприятий, нарушающих дисциплину, заключено
между 300 и 460.
1
P1000 (300  k  460)   ( x 2 )  ( x1 )
2
1
300  1000 
x1  2  (300  500)  2   400  12,65
1 1 10 10 10 10
1000  
2 2
(460  500)  2 8
x2    2,53
10 10 10

Используя таблицы интегральной функции Лапласа, получаем


1
P1000 (300  k  460)   (2,53)  (12,65) 
2
1 1
   (12,65)   (2,53)  1  0,9886  0,0057
2 2
Пример 3.4.2.
Строительная фирма, занимающаяся установкой летних коттеджей, раскладывает
рекламные листики по почтовым ящикам. Прежний опыт показывает, что примерно в
одном случае из двух тысяч при этом следует заказ. Найти вероятность того, что при
размещении ста тысяч листов, число заказов будет находиться в границах от 45 до 55.

Решение:
8

1
p  0,0005
2000
q  1  0,0005  0,9995
n  100000
np  0,0005  100000  50
npq  0,0005  100000  0,9995  49,975
npq  49,975  7,0693

Используя формулу и значения интеграла вероятностей из таблицы «интегральной


функции Лапласа»
1   55  50   45  50  
P ( 45  m  55)         
2   7,0693   7,0693  
1
   0,70     0,70 0,5   0,25804  0,25084  0,25084
2

Ответ: вероятность того, что при размещении ста тысяч листов и число заказов
будет находиться в пределах от 45 до 55, составляет 0,25084.

С помощью интегральной теоремы Муавра-Лапласа можно найти вероятность


k
отклонения относительной частоты  p * события А от его вероятности р не более, чем
n
на величину  (по абсолютной величине).
Если вероятность р наступления события в каждом испытании постоянна и p  1 ,
p  0 , то при достаточно большом числе n независимых испытаний.
k   k 
Pn   p     Pn      p    
 n   n 
1
 Pn  np  n  k  np  n      x 2     x1  
2
np  n  np n n
x1    ; x2   ,
npq pq pq
тогда
k  1  n   n 
Pn   p            
n  2   pq  
 pq 

окончательно получаем
 
P p *  p       n
pq


 (3.6)
 
для любого  и большого n.
Пусть n  

n 
 n 

lim P p *  p    lim 
  n
pq

 1

   
(3.7)

Результат (3.7) формулируется как теорема Бернулли.

Теорема 3.5 (Бернулли): Практически достоверно, что при неограниченном числе


испытаний относительная частота р* наступления события А отличается от вероятности р
наступления события в одном испытании сколь угодно мало, т.е. событие p  p   *

достоверно, иными словами lim p  p .


*
n 
9

Этот факт называется законом больших чисел в форме Бернулли.


Из закона больших чисел следует, что статистическое определение вероятности не
противоречит классическому определению, т.е. введено корректно.
Найдем, каким быть должно число испытаний n, чтобы условие p  p  
*

выполнялось для заданного  с заданной вероятностью Р. Другими словами, должно


 n 
выполняться условие    P.
 pq 
n
Обозначим  t. Тогда  t   P .
pq
По таблице значений интегральной функции по заданному значению функции Р
найдем соответствующее значение аргумента t.
Следовательно,
t 2 pq
n 2

Пример 3.
В результате проверки малых предприятий установлено, что каждое второе
предприятие нарушает финансовую дисциплину. Сколько предприятий нужно проверить,
чтобы с вероятностью Р=0,95 можно было утверждать, что доля предприятий,
нарушающих финансовую дисциплину, отличается от вероятности нарушения
дисциплины одним предприятием не более, чем на 0,1?
 n  n
    0,95 , из таблицы 
 =1,96.
 pq  pq
1 1
1,96 2 
2 2  1,96  100  1,96 2  25  96,04
2
n
0,12 4
Ответ: n  97.

3.3 Случайные величины.


3.3.1 Понятие случайной величины. Виды случайных величин. Закон распределения
случайной величины.
3.3.2 Закон распределения дискретной случайной величины (ДСВ). Биномиальный
закон распределения и закон Пуассона. 3.3.3 Числовые характеристики ДСВ.
Литература: [1], § 3.1-3.4

3.3.1 Понятие случайной величины.


Виды случайной величины. Закон распределения.
Одним из важнейших понятий ТВ (наряду со случайным событием и вероятностью)
является понятие случайной величины (СВ). По мере развития науки, и в частности ТВ,
понятие СВ становится более предпочтительным, чем понятие случайного события. Это
объясняется тем, что всякое событие можно охарактеризовать каким-то числом.
Например:
10

- А1 – спортсмен стал чемпионом олимпийских игр – получил определенное число


баллов, или за определенное время пробежал дистанцию;
- А2 – абитуриент поступил в институт – получил определенное количество баллов;
- А3 – объект разрушен – наблюдается определенное число попаданий снарядов;
- А4 – банк получил прибыль – открыл определенное число счетов по кредитам;
- А5 – магазин увеличил прибыль – расширил торговую площадь до определенного
размера;
- А6 – ребенок вырос – рост увеличился на некоторое число сантиметров и т.д.

Все рассмотренные события Аi характеризуются некоторым числом. Связь между


событиями и числами весьма удобна, т.к. позволяет вместо схемы событий рассматривать
математические отношения между числами, характеризующими эти события.

Определение 3.3.1.1. Под случайной величиной понимается переменная, которая


в результате исследования (эксперимента, наблюдения) может принять лишь одно
из всех возможных значений, заранее неизвестное:
- число попаданий в цель при трех выстрелах k=(0,1,2,3);
1 2
- относительная частота попадания при трех выстрелах р*=(0, , ,1 );
3 3
- число вызовов, поступивших на станцию скорой помощи за сутки;
- число детей родившихся в городе за сутки;
- расход электроэнергии на предприятии за месяц;
- рост случайно встретившего человека;
- вес наудачу выбранного арбуза;
- расстояние, которое пролетел снаряд.

В первых пяти примерах случайная величина принимает лишь отдельные значения


и все их можно пересчитать (перенумеровать). В последних трех примерах СВ принимает
все значения из некоторого интервала (в том числе и бесконечного). Число этих значений
бесконечно велико и их невозможно пересчитать.
Обозначается СВ большими буквами латинского алфавита: X, Y, Z, … , а отдельные
значения СВ соответствующими малыми буквами. X   x1 , x 2 ,..., x n  или X   x; a  x  b 
.

Определение 3.3.1.2. Случайная величина называется дискретной, если она


принимает отдельные значения, число которых конечно или счетное (ДСВ), и СВ
называется непрерывной, если она принимает все значения из некоторого интервала (в
том числе и бесконечного) (НСВ).

Рассмотрим ДСВ X   x1 , x 2 ,..., x n  . Это означает что в результате испытания могут


произойти события: Х=х1, Х=х2, … , Х=хn, которые несовместны и в общем случае
обладают разной вероятностью наступления. В частности, при четырех выстрелах по цели
возможны следующие исходы: Х=(0,1,2,3,4). Однако, эта информация о возможных
исходах не является полной и не представляет практического интереса, если не известны
вероятности, соответствующие каждому возможному значению СВ. Если же вероятности
для каждого возможного значения xi случайной величины известны, т.е. Р(Х=хi), то
практически СВ полностью определена.
11

Определение 3.3.1.3. Всякое соотношение между возможными значениями СВ и


соответствующими этим значениям вероятностями называется ЗАКОНОМ РАСПРЕДЕЛЕНИЯ
случайной величины.
3.3.2. Дискретные случайные величины (ДСВ).

Рассмотрим ДСВ X   x1 , x 2 ,..., x n  . Очевидно, события Х=хi составляют полную


группу несовместных событий. Если Р(Х=х1)=р1 , Р(Х=х2)=р2, … , Р(Х=хi)=рi, …
Р(Х=хn)=pn, то  pi  1 .
Говорят что единичная вероятность распределена между всеми возможными
значениями дискретной СВ. Закон распределения показывает, как эта вероятность
распределена по возможным значениям СВ.
Для ДСВ закон распределения может быть задан в разных формах:
!.в виде таблицы (матрицы):
Х х1 х2 … х … хn  pi  1  x1 ... xi ... xn 
 p ... p ... p 
i  1 i n 

р р р2 … р … p
1 i n 2.в виде формулы (аналитически): Р(Х=хi)=рi.
3.графически – ломанная или полигон, или
многоугольник распределения вероятностей.
В любом случае  pi  1 .

Рис. 3.4

Пример 3.3.2.1
В билете 3 задачи. Вероятность правильного решения для 1-ой задачи -0,9; для 2-ой
– 0,8; для 3-ей – 0,7. Составить закон распределения вероятностей числа решенных задач.
Решение:
Пусть Аi – событие, состоящее в том, что решена соответствующая задача (i=1,2,3).
Х – случайная величина, характеризующая число решенных задач.
       
P X  0   p A1 A2 A3  p A1  p A2  p A3
События Аi и Ãi независимы.
12

P  X  0   0,1  0,2  0,3  0,006


  
P  X  1  p A1 A2 A3  p A1 A2 A3  p A1 A2 A3    
 0,9  0,2  0,3  0,1  0,8  0,3  0,1  0,2  0,7  0,092
P  X  2   0,398;
P  X  3  0,9  0,8  0,7  0,504
Контроль: 0,006  0,092  0,398  0,504  1

Х 0 1 2 3 -ряд распределения.
р 0,006 0,092 0,398 0,504

Рис. 3.5

На рис. 3.5 изображен многоугольник распределения вероятностей.

Действия над случайными величинами

СВ можно складывать (вычитать) X  Y   xi  y i  i  1, n , над СВ можно проводить


линейные операции:

Z  k1 X  k 2 Y   k1 x i  k 2 y i  i  1, n ,

СВ можно умножать XY   xi y j 

3.3.3 Числовые характеристики дискретных случайных величин.


Закон распределения случайной величины с вероятностной точки зрения даёт о ней
исчерпывающую характеристику настолько полную, что иногда эта полнота мешает ее
изучению. Действительно, если значений случайной величины много (n достаточно
велико), то pi малы. И закон распределения в виде таблицы становится необозримым. А
если рассматриваются две случайные величины, то сравнить их весьма сложно.

X x1 x2 … xi … xn …
pi p1 p ... pi … pn …
2
Y y1 y2 … yi … y … yn …
j
pi p1 p ... pi … p … p …
2 j n
13

Кроме того, во многих случаях нет необходимости иметь абсолютно полную


информацию о случайной величине. Бывает достаточным иметь о СВ общее усредненное
представление, знать некоторые самые характерные ее черты, дающие о СВ самое общее
представление.
Например, знать наивероятнейшее число заболевших гриппом, среднюю прибыль за
месяц, средний заработок за день на некотором предприятии.
Определение. Числа, которые в самой сжатой форме выражают наиболее
существенные особенности случайной величины, называется числовыми
характеристиками.
Важнейшими среди них являются характеристики положения и рассеяния.

Математическое ожидание и его свойства.

Определение. Математическим ожиданием ДСВ называется сумма произведений


всех её возможных значений на соответствующие вероятности.
n
M  X   M x  MX  m x  x1 p1  ...  xi pi  ...  x n p n   x i pi   xi pi .
i 1

Пример 3.3.2.3. (см. задачу 3.3.2.1) Найти математическое ожидание числа


решенных задач.
M  X   0  0,006  1  0,092  2  0,398  3  0,504  2,4
Выясним вероятностный смысл математического ожидания. Пусть произведено n
независимых испытаний и СВ Х приняла значения х1 – m1 раз, x2 – m2 раза, … xk – mk раз,
(m1+m2+…+mk=n). Очевидно, ее среднее значение

m1 x1  m2 x 2  ...  mk x k m m
x  x1 1  ...  x k k  x1 p1  ...  x k p k  M  X 
n n n
Если n достаточно велико (или n   ), то MX  x

Т.е. M  X  есть ее среднее значение.

Механическая интерпретация - M  X  является центром тяжести стержня, если


единичная масса распределена по точкам х1, х2, … , хк.

Замечание. Если n   , то математическое ожидание есть сумма ряда: M  X  =


x
i 1
i pi .

Рассмотрим свойства математического ожидания:


1°. Математическое ожидание постоянной величины равно самой постоянной, т.е.
M C  C .

Доказательство: Постоянную С можно рассматривать как дискретную случайную


величину, принимающую единственное значение С с вероятностью 1. M  C   C  1  С .

2°. Постоянный множитель можно выносить за знак математического ожидания:


M  CX   CM  X  .
14

Доказательство: Пусть случайная величина Х задана законом распределения


вероятностей:

x x1 x2 … xx …
i
p p p … p …
i 1 2 x

Очевидно, что случайная величина СХ также является дискретной и принимает


значения сх1, сх2, … , сxn, … с прежними вероятностями р1, р2, ... , рх, … т.е. закон
распределения СХ имеет вид

Сх Cx Cx … Cx …
i 1 2 x
pi p1 p2 … px …

Тогда по определению математического ожидания


M  CX   Cx1 p1  Cx2 p2  ...  Cxn p n  ...  C  x1 p1  x 2 p 2  ...  x n p n  ...  CM  X  .

3°. Математическое ожидание суммы нескольких случайных величин равно сумме


математических ожиданий слагаемых.

В частности, для двух СВ имеем M[X+Y]=M[X]+M[Y].

4°. Математическое ожидание ОТКЛОНЕНИЯ СВ от ее М[X] равно нулю.

Действительно, на основании св.1,3 следует M[X-M[X]]=M[X]-M[X]=0.


5°. Математическое ожидание произведения нескольких взаимно независимых
случайных величин равно произведению их математических ожиданий.
Для простоты доказательство проведем для двух СВ: Х=(х1,х2) и Y=(y1,y2) . Их
законы распределения

X x1 x2 Y y1 y2
p p1 p2 p p*
1 p 2*

Составим закон распределения СВ XY, используя при этом теорему умножения


вероятностей независимых СВ.

XY x1 y1 x1 y 2 x 2 y1 x2 y 2
p p1 p1* p1 p 2* p 2 p1* p 2 p 2*

  
M  XY   x1 y1 p1 p1*  x1 y 2 p1 p 2*  x 2 y1 p 2 p1*  x 2 y 2 p 2 p 2*  
 1
*
2  
 x1 p1 y1 p  y 2 p  x 2 p 2 y1 p  y 2 p  ( x1 p1  x 2 p 2
* *
1
*
2   y p 1
*
1 
 y 2 p 2*  M  X   M Y 

что и требовалось доказать. Методом математической индукции можно доказать, для


любого числа СВ.

Дисперсия и ее свойства. Среднее квадратическое отклонение.


15

Только математическое ожидание не может в достаточной степени характеризовать


СВ.
Во многих практически важных случаях существенным является вопрос о том,
насколько велики отклонения Х - М(Х) случайной величины от ее математического
ожидания .
Пример. Пусть две случайные величины Х и Y заданы следующими рядами
распределения

Значения Х -0,2 -0,1 0,1 0,2


Вероятности 0,25 0,25 0,25 0,25
р(х)

Значения Y -50 -40 40 50


Вероятности 0,25 0,25 0,25 0,25
p(y)

Легко убедится в том, что математические ожидания этих величин одинаковы и


равны нулю
M  X     0,2  0,25    0,1  0,25  0,1  0,25  0,2  0,25  0
M  Y     50  0,25    40  0,25  40  0,25  50  0,25  0
Вставка – рисунок!!!
Однако разброс значений этих величин относительно их математического
ожидания неодинаков. В первом случае значения, принимаемые случайной величиной Х,
близки к ее математическому ожиданию, а во втором случае далеки от него. Для оценки
разброса (рассеяния) значений случайной величины около ее математического ожидания
вводится новая числовая характеристика – дисперсия.

Дисперсией D(X) случайной величины X называется математическое ожидание


квадрата отклонения случайной величины от ее математического ожидания:

D X   M  X  M  X  
2

Пусть Х-дискретная случайная величина, принимающая значения x1, x2, … , xn


соответственно с вероятностями p1, p2, … , pn. Очевидно, случайная величина  X  M  X   2
принимает значения

 x1  M  X   2 ,  x2  M  X   2 ,..., xn  M  X   2
с теми же вероятностями p1, p2, … , pn. Следовательно, согласно определению
математического ожидания дискретной случайной величины, имеем
n
D X   M  X  M  X      xi  M  X   pi
2 2

i 1
Принимая во внимание определение дисперсии и свойства математического
ожидания, имеем
16


D X   M  X  M  X    M X 2  2 XM  X    M  X   
2 2

M X    2M  XM  X    M  M  X  
2 2

Так как M  X  и  M  X   2 - постоянные, то используя свойства математического


ожидания, получим

M  XM  X    M  X   M  X 

M MX  2
  M  X 
2

Следовательно,

D X   M  X 2   2M  X  M  X    M  X  
2

Откуда окончательно находим

 
D X   M X 2   M  X    x 2  x
2
 2

(3.3.1.1)
Рассмотрим теперь свойства дисперсии:

1°. Дисперсия постоянной равна нулю.

2°. Постоянный множитель можно выносить за знак дисперсии, возводя его в


квадрат:

D kX   k 2 D X 

3°. Если X и Y – независимые случайные величины, то дисперсия суммы этих


величин равна сумме их дисперсий:

D X  Y   D X   D Y 

Средним квадратическим отклонением σ(Х) случайной величины Х называется


корень квадратный из ее дисперсии:

X   D X   СКО

Среднее квадратическое отклонение σ(Х) имеет ту же размерность, что и случайная


величина Х.

Найдем дисперсию и средние квадратичные отклонения для рассмотренного выше


примера, воспользовавшись формулой (3.3.1.1.)
D X   M  X 2   M 2  X 
D  X     0,2   0,25    0,1  0,25  0,12  0,25  0,2 2  0,25  0 2  0,025
2 2

X  0,025  0,158


D  Y     50   0,25    40   0,25  40 2  0,25  50 2  0,25  0 2  2050
2 2

  Y   45,277

Из приведенного примера, очевидно, что при одинаковых средних значениях


(математических ожиданиях) обеих случайных величин X и Y x  y  0 разброс
17

(рассеяние) значений xi и yi относительно своих математических ожиданий отличается во


много раз.

Обратим внимание на интерпретацию математического ожидания и дисперсию в


финансовом анализе.
Пусть Х-случайная величина, определяющая доходность некоторого актива
(например, акции) и известен закон распределения вероятностей доходности актива. Тогда
М(Х) выражает среднюю (прогнозную) доходность актива, а D(X) и σ(X) – меру
отклонения доходности от ее среднего значения, т.е. РИСК данного актива.

Замечание. Следует помнить, что, если Х-случайная величина, принимающая


различные значения, то ее числовые характеристики не случайны, т.е. являются
постоянными величинами.

В теории вероятностей числовые характеристики играют важную роль. Они


позволяют решать многие вероятностные задачи (в том числе составлять прогнозы),
оставляя в стороне законы распределения.

Вам также может понравиться