Вы находитесь на странице: 1из 11

ЛЕКЦИЯ 3

Дискретные случайные величины. Биномиальное распределение дискретной


случайной величины. Числовые характеристики дискретных случайных величин.
Системы случайных величин, их числовые характеристики.

1.8. ДИСКРЕТНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ

Если результатом эксперимента является число, значение которого нельзя

предсказать точно до проведения самого эксперимента, то это число называют случайной

величиной. Случайную величину называют дискретной, если она принимает отдельные,

изолированные возможные значения с определенными вероятностями. Число возможных

значений дискретной случайной величины может быть конечным или счетным.

Рассмотрим случайную величину Х, возможные значения которой образуют

конечную или бесконечную последовательность чисел x1 , x2 , ..., x N ,… . Пусть задана

функция p(x) , значение которой в каждой точке x  xi (i =1, 2, …) равно вероятности того,

что величина Х примет значение x i

p(хi) = pi = P (X = xi).

. Функция p(x) называется законом распределения вероятностей случайной

величины, или кратко, законом распределения. Эта функция определена в точках

последовательности x1 , x2 , ..., x N ,…и обычно задается таблицей вида:

Х х1 х2 ... хN

P p1 p2 ... pN

где хi упорядочены по возрастанию х1 < х2 < x3 < ... < хN < … .Так как события X = xi образуют

полную группу, то

N
 pi  1 , в случае конечной последовательности чисел xi ,
i 1

p
i 1
i  1 , в случае бесконечной последовательности чисел xi ,

что часто служит контролем вычисления значений pi.

Функция распределения вероятностей случайной величины и ее свойства.

Рассмотрим функцию F(x), определенную на всей числовой оси следующим

образом: для каждого х значение F(x) равно вероятности того, что дискретная случайная

величина примет значение, меньшее х, т. е.

F(x) = P(X < x). (1.17)

Эта функция называется функцией распределения вероятностей, или кратко,

функцией распределения.

Зная функцию распределения F (х), легко найти вероятность того, что случайная

величина Х удовлетворяет неравенствам х1  Х < х2.

Рассмотрим событие, заключающееся в том, что случайная величина примет

значение, меньшее х2. Это событие распадается на сумму двух несовместных событий: 1)

случайная величина Х принимает значения, меньшие х1, т. е. Х < х1; 2) случайная величина

Х принимает значения, удовлетворяющие неравенствам х1  Х < х2. Используя правило

сложения вероятностей, получаем

Р (Х < х2) = Р (Х < х1) + Р (х1  Х < х2).

Отсюда

Р (х1  Х < х2) = Р (Х < х2) – Р (Х < х1).

Но по определению функции распределения F(x) [см. формулу (1.17)], имеем

Р (Х < х2) = F(x2), Р (Х < х1) = F(x1);

следовательно,

Р (х1  Х < х2) = F(x2) – F(x1) (1.18)

Таким образом, вероятность попадания дискретной случайной величины в

промежуток х1  Х < х2 равна приращению функции распределения на этом интервале.


Рассмотрим основные свойства функции распределения.

1°. Функция распределения является неубывающей.

В самом деле, пусть х1 < х2. Так как вероятность любого события неотрицательна,

то Р (х1  Х < х2)  0. Поэтому из формулы (1.18) следует, что F(x2) – F(x1)  0, т. е.

F(x2)  F(x1).

2°. Значения функции распределения удовлетворяют неравенствам 0  F(x)  1.

Это свойство вытекает из того, что F(x) определяется как вероятность [см. формулу

(1.17)]. Ясно, что F(–  ) = 0 и F( +  ) = l.

3°. Вероятность того, что дискретная случайная величина примет одно из

возможных значений хi, равна скачку функции распределения в точке хi.

Действительно, пусть хi – значение, принимаемое дискретной случайной величиной,

и  х > 0. Полагая в формуле (1.18) х1 = хi, х2 = хi +  х, получим

Р (хi  Х < хi+  х) = F(хi+  х) – F(xi) (1.19)

В пределе при  х  0 вместо вероятности попадания случайной величины на

интервал хi  Х < хi+  х получим вероятность того, что величина X примет данное

значение хi:

lim Р (хi  Х < хi+  х) = Р (Х = хi) = p(хi).


x 0

С другой стороны, получаем lim F(хi+  х) = F(хi+0), т. е. предел функции F (х) справа,
x 0

так как  х > 0. Следовательно, в пределе формула (1.19) примет вид

p(хi) = F(хi+0) – F(хi) = F(хi+0)– F(хi– 0),

т. е. значение p(хi) равно скачку функции в точке хi

Зная закон распределения дискретной случайной величины Х, можно вычислить

функцию распределения, представляющую собой, в силу определения (1.13) функцию

накопленных вероятностей:

F ( x)   P( X  xi ) , (1.20)
xi  x
где суммирование распространяется на все значения индекса i, для которых xi  x .

1.9. БИНОМИАЛЬНОЕ РАСПРЕДЕЛЕНИЕ ДИСКРЕТНОЙ СЛУЧАЙНОЙ

ВЕЛИЧИНЫ.

Пусть проводится n независимых испытаний, в каждом из которых событие А

наступает с вероятностью р (0 < p < 1), и не наступает с вероятностью q, q = 1 – p. Обозначим

Pn(m) – вероятность того, что в n испытаниях событие А наступит ровно m раз. При этом

заметим, что наступления или ненаступления события А могут чередоваться различным

образом. Условимся записывать возможные результаты испытаний в виде комбинаций букв

А и A . Например, запись А A A А означает, что в четырех испытаниях событие

осуществилось в 1-м и 4-м случаях и не осуществилось во 2-м и 3-м случаях.

Всякую комбинацию, в которую А входит m раз и A входит n – m раз, назовем

благоприятной. Количество благоприятных комбинаций равно количеству k способов,

которыми можно выбрать m чисел из данных п; таким образом, оно равно числу сочетаний

из п элементов по m, т. е. k = Cnm .

Подсчитаем вероятности благоприятных комбинаций. Рассмотрим сначала случай,

когда событие А происходит в первых m испытаниях и, следовательно, не происходит в

остальных n – m испытаниях. Такая благоприятная комбинация имеет следующий вид:

B1  AA... A A A... A ,

где событие А повторяется m раз, а затем событие A повторяется n – m раз. Вероятность

этой комбинации в силу независимости испытаний (на основании теоремы умножения

вероятностей) составляет

P( B1 )  P( A) P( A)...P( A) P( A ) P( A )...P( A )  p m q n  m .

Так как в любой другой благоприятной комбинации Вi событие А встречается также m раз,

а событие A происходит n – m раз, то вероятность каждой из таких комбинаций также

равна p m q n  m . Итак,
P( B1 )  P( B2 )  ...  P( Bk )  p m q nm .

Все благоприятные комбинации являются, очевидно, несовместными. Поэтому (на

основании правила сложения вероятностей)

Pn(m) = P( B1  B2  ...  Bk )  P( B1 )  P( B2 )  ...  P( Bk )  kpm q nm  Cnm p m q nm .

Следовательно, вероятности Pn(m) вычисляются по формуле:

Pn (m)  Cnm p mq n  m , (1.21)

где коэффициенты Cnm называются числом сочетаний из n элементов по m и вычисляют

по формуле:

n! n(n  1)( n  2)...(n  m  1)


C nm   . (1.22)
m!(n  m)! 1  2  3...m

тогда случайная величина Х такая, что Р(Х=m)= Pn(m) определяет биномиальное

распределение или распределение Бернулли.

Из формулы (1.22) видно, что Cnm  Cnn  m (m  1, 2, ..., n  1) . По

определению полагают также Cn0  Cnn  1.

Рассмотрим еще раз смысл коэффициентов Cnm . Пусть заданы n разных элементов.

Всевозможные группировки из данных n элементов по m элементов в каждой,

отличающиеся друг от друга хотя бы одним элементом, при этом порядок расположения

элементов в группировке безразличен, называются сочетаниями из n элементов по m.

Например, n = 4, имеем 4 элемента: а, b, c, d. Выпишем сочетания из четырех элементов по

два: ab, ac, ad, bc, bd, cd. Из определения следует, что сочетания ab и ba не различимы.

43
Число таких сочетаний и находится по формуле (1.18), C42   6.
1 2

9 8 7 18  17
Примеры вычисления: C93   84; C18
16
 C182   153 .
1 2  3 1 2
Вероятность того, что в n испытаниях событие А наступит менее m раз, равна сумме

вероятностей Pn(0) + Pn(1) + ... + Pn(m – 1); более m раз – сумме вероятностей Pn(m + 1) + ...

+ Pn(n). Часто расчеты упрощаются, если применять свойство вероятностей Рn(m)

Pn (0)  Pn (1)  ...  Pn (n)  1 .

Часто необходимо знать, при каком значении т вероятность Р(Х=m) для случайной

величина Х, имеющей распределение Бернулли, .принимает наибольшее значение. То есть

требуется найти наивероятнейшее число т0 наступления события А в данной серии

опытов. Можно доказать, что число m0 должно удовлетворять двойному неравенству

np – q  m0  np + p. (1.23)

Заметим, что сегмент [пр – q, пр + р], в котором лежит т0, имеет длину

(пр+р) – (пр — q) = p+q=1.

Поэтому, если какой-либо из его концов не является целым числом, то между этими

концами лежит единственное целое число, и т0 определено однозначно. В том случае, если

оба конца – целые числа, имеются два наивероятнейших значения: np – q и np + p.

При больших значениях п подсчет вероятностей Pn(m) по формуле (1.17) связан с

громоздкими вычислениями. В этом случае удобнее пользоваться следующей формулой:

1 1
Pn(m)  e x   ( x)
2
/2
(1.24)
npq 2 npq

m  np 1
где x  (р не равно нулю и единице), а  ( x)  e x
2
/2
.
npq 2

Формула (1.20) выражает локальную теорему Лапласа. Точность этой формулы

повышается с возрастанием п. Функция  (x) , как мы увидим в дальнейшем, играет очень

большую роль в теории вероятностей.

На практике часто встречается случай биномиального распределения, при котором

n велико, а р мало. Например, Х – число бракованных изделий объема n (n – велико) при

вероятности появления бракованного изделия p << 1.


Этот случай можно рассматривать как асимптотику биномиального распределения

при n  , р  0, np =  = Const.

Представим выражение для вероятности в биномиальном распределении в виде

1
P( X  m)  (np)(np  p) ... (np  (m  1) p)  (1  p) n  m .
m!

Перейдем к пределу:

nm
1   m
P( X  m)  m lim 1    e  ; (m  0,1,2,... ) . (1.25)
m! n n  m!

Полученное распределение называется распределением Пуассона. Распределение

Пуассона с достаточной точностью может быть использовано как приближенное для

биномиального распределения при n  100, p  0,01.

1.10. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ДИСКРЕТНЫХ СЛУЧАЙНЫХ ВЕЛИЧИН

Случайные величины могут описываться числовыми характеристиками, среди

которых различают характеристики положения (математическое ожидание, мода,

медиана) и характеристики рассеяния (дисперсия, среднеквадратическое отклонение).

Пусть Х – дискретная случайная величина с заданным законом распределения

N
Р(Х=х i ) = p i (i = 1, 2,..., N; p
i 1
i  1 ). Математическое ожидание M (X ) представляет

собой среднее ожидаемое значение случайной величины. Эта величина вычисляется по

формуле:

N
M ( X )   xi pi , (1.26)
i 1

Свойства математического ожидания:

1) M (C )  C , где С = const,

2) M (CX )  CM ( X ) , (1.27)

3) M ( X  Y )  M ( X )  M (Y ) для любых случайных величин Х и Y,


4) M ( XY )  M ( X )  M (Y ) если Х и Y независимы.

Таким образом, если случайная величина Х представлена в виде линейной

комбинации величин Х1, Х2, ..., ХL, то ее математическое ожидание вычисляют ,пользуясь

свойством линейности:

 L  L
M ( X )  M   ci X i    ci M ( X i ) . (1.28)
 i 1  i 1

Если известен закон распределения дискретной случайной величины, то

математическое ожидание любой ее функции может быть вычислено по формуле:

N
M ( f ( X ))   f ( xi )  pi . (1.29)
i 1

Для характеристики степени отклонения значений случайной величины от ее

математического ожидания M (X ) = а вводятся понятия дисперсии D(X ) и среднего

квадратического отклонения  (X ) по формулам:

D( X )  M ( X  a)2 ;  ( X )  D( X ) (1.30)

Свойства дисперсии и среднего квадратического отклонения:

1) D(C)  0 ;  (C )  0 ,

2) D( X  C)  D( X ) ; (1.31)

3) D(CX )  C 2 D( X ) ;  (CX )  C  ( X ) ,

4) если Х и Y независимы, то D( X  Y )  D( X )  D(Y ) , .

где С = const

Можно доказать, что дисперсия для дискретной случайной величины Х может быть

найдена по формуле:

N
D( X )  M ( X 2 )   M ( X )    xi2 pi   M ( X )  .
2 2
(1.32)
i 1
Математическое ожидание и дисперсия дискретной случайной величины Х,

имеющей биномиальное распределение, могут быть найдены по формулам:

M ( X )  np; D( X )  npq , (1.33)

где р – вероятность того, что событие А произойдет, q – вероятность того, что событие А

не произойдет в каждом из независимых испытаний.

Для распределения Пуассона M(X) = D(X) =  .

1.11. СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН, ИХ ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ.

Две или несколько случайных величин Х1, Х2, ..., ХL образуют систему случайных

величин. Система случайных величин может рассматриваться также как случайный вектор

X  (Х1, Х2, ..., ХL)Т .

Основными характеристиками системы случайных величин служат:

 M ( X 1 )   a1 
   
 M ( X 2 )   a2 
центр распределения M     ... 
...
   
 M (X )  a 
 L   L

и матрица ковариаций

 K11 K12 ... K1L 


 
K21 K22 ... K2 L 
K  ( Kij )   (1.34)
 ... ... ... ... 
 
 K L1 K L2 ... K LL 

где аi = M(Xi) – математическое ожидание величины Xi (i = 1, 2, ..., L);

Kij = Kji – ковариация между величинами Xi и Xj, (i, j = 1, 2, ..., L, i  j).

Kij  cov( X i X j )  M [( X i  ai )( X j  a j )] , (1.35)

Kii = D(Xi) – дисперсия величины Xi.

Ковариация между Xi и Xj для дискретных случайных величин может быть

найдена по формуле:
N
Kij  M ( X i X j )  ai a j   xik x jk pk  ai a j . (1.36)
k 1

Две случайные величины Х и Y являются (статистически) независимыми, если для

любых функций f (x) и g (x) , для которых существуют математические ожидания, имеет

место соотношение

M [ f ( x)  g ( x)]  M [ f ( x)]  M [ g ( x)] . (1.37)

Смысл этого определения состоит в том, что никакая информация о значениях

одной величины не влияет на любую информацию о значениях другой величины. В

частности, из (1.37) следует

M ( X  Y )  M ( X )  M (Y ) , (1.38)

а также тот факт, что из независимости двух случайных величин следует их

некоррелированность, т.е., если Х и Y независимы, то cov( X , Y )  0 .

Дисперсия линейной комбинации случайных величин выражается через

ковариации:

 L  L L
D  ci X i     ci c j Kij . (1.39)
 i 1  i 1 j 1

В частности, для попарно независимых величин Xi и Xj ковариации Kij = 0 (i, j = 1,

2, ..., L, i  j) и матрица ковариаций диагональна, а дисперсия линейной комбинации

величин выражается только через их дисперсии:

 L  L 2
D  ci X i    ci D( X i ) .
 (1.40)
 i 1  i 1

Ковариация K ( X , Y ) характеризует степень зависимости случайных величин X и Y.

Величина K ( X , Y ) зависит от единиц измерения случайных величин X и Y. Во избежании

этого неудобства часто вычисляют коэффициент корреляции:


K ( X ,Y )
r( X ,Y )  .
 ( X )   (Y)

Коэффициент корреляции – безразмерная величина. Можно доказать, что

r ( X , Y )  1 для любых X и Y, причем r ( X , Y )  1 тогда и только тогда, когда X и Y

связаны линейной зависимостью: Y  aX  b , где a, b  R, a  0 . r ( X , Y )  1 если а > 0 и

r ( X , Y )  1, если а < 0. Чем ближе r ( X , Y ) к единице, тем вероятнее линейная

зависимость между случайными величинами X и Y.

Вам также может понравиться