Вы находитесь на странице: 1из 8

2020 г. Павлов И.С.

2.3. Дискретная случайная величина и ее закон распределения


Случайная величина X д и с к р е т н а , если существует конечное или счетное
множество чисел x1, x2, ...таких, что P{X=xi}= pi > 0 (i = 1,2,...) и p1 + р2 + р3 +… = 1.
Распределение дискретной случайной величины удобно описывать с помощью
ряда распределения.
Определение 4.4. Рядом распределения (вероятностей) дискретной случайной
величины X называют таблицу (табл. 4.1), состоящую из двух строк: в верхней строке
перечислены все возможные значения случайной величины, а в нижней — вероятности
pi = Р { Х = хi} того, что случайная величина примет эти
значения.
Таблица 4 - 1
Для проверки правильности составления табл. 4.1 X x1 х2 xi хп
рекомендуется просуммировать вероятности рi. В силу
аксиомы нормированности эта сумма должна быть равна Зp1 p2 ... pi ... pn
1: P

Покажем теперь, как по ряду распределения


дискретной случайной величины построить ее функцию распределения F ( x ) . Пусть X
— дискретная случайная величина, заданная своим рядом распределения, причем
значения x1, х2,..., хп расположены в порядке возрастания.
Тогда для всех х≤х1 событие {X<х} является невозможным и поэтому в соответствии с
определением функции распределения F(x) = 0 (рис. 4.2). Если x1  x  x2 , то событие {X
< x} состоит из тех и только тех элементарных исходов ω, для которых Х ( ω) = х1, и,
следовательно, F ( x) = p1 .
Аналогично при x2  x  x3 событие {X < х} состоит из элементарных исходов и, для
которых либо Х ( ω) = x1, либо Х ( ω) = х2, т.е.
{ Х < x } = { Х = x1} + {Х = x2}, а следовательно, F ( x) = p1 + p2

и т.д. Наконец, при х > хn событие {X < x} достоверно и F ( x ) = 1 .

Рис. 4.2

Таким образом, функция распределения дискретной случайной величины является


кусочно-постоянной функцией, принимающей на промежутке (-∞, x1] значение 0, на
промежутках (xi, xi+1], 1≤i <n, — значение р1 + . . . + p i и на промежутке (xn, +∞) —
значение 1.

1
2020 г. Павлов И.С.

Для задания закона распределения дискретной случайной величины, наряду с рядом


распределения и функцией распределения используют другие способы. Так, если на оси
абсцисс на оси абсцисс отложить возможные значения с. в., а на оси ординат — вероят-
ности этих значений. Ломаную, соединяющую последовательно точки (x1, p1) , (x2, p2) , …
называют м н о г о у г о л ь н и к о м (или п о л и г о н о м ) р а с п р е д е л е н и я (см. рис. 17).

Pi

Рис. 17

Математические операции над дискретными с. в.


Суммой (разностью, произведением) д.с.в. X, принимающей значения xi с
вероятностями pi=Р{Х=xi}, i=1, 2,...,n и д.с.в. Y, принимающей значения yj с
вероятностями pj=Р{Y=yj}, j=1, 2,...,m, называется д.с.в. Z = X + Y (Z = X — Y, Z = XY),
принимающая значения zij = xi + y j ( zij = xi − y j , zij = xi y j ) с вероятностями
pij = P{X = xi ; Y = y j } для всех указанных значений i и j. В случае совпадения некоторых
сумм xi + y j (разностей xi − y j , произведений xi y j ) соответствующие вероятности
складываются.
Произведение д.с.в. на число с называется д.с.в. сХ, принимающая значения схi с
вероятностями pi = P{X = xi }.
Две д.с.в. X и Y называются независимыми, если события Ai = {X = xi } и
B j = { Y = y j } независимы для любых i=1, 2,...,n и j=1, 2,...,m, т.е.
P{X = xi ; Y = y j } = P{X = xi }  P{Y = y j } .
В противном случае с.в. называются зависимыми. Несколько с.в. называются
взаимно независимыми, если закон распределения любой из них не зависит от того, какие
возможные значения приняли остальные величины.

2.4. Числовые характеристики случайных величин


Из предыдущих параграфов этой главы следует, что вероятности любых событий,
связанных с каждой случайной величиной, полностью определяются ее законом
распределения, причем закон распределения дискретной случайной величины удобно
задавать в виде ряда распределения.
Однако при решении многих задач нет необходимости указывать закон
распределения случайной величины, а достаточно характеризовать ее лишь некоторыми
(неслучайными) числами. Такие числа (в теории вероятностей их называют числовыми
характеристиками случайной величины) будут рассмотрены в данном разделе. Отметим,
что основную роль на практике играют математическое ожидание, задающее
„центральное” значение случайной величины, и дисперсия, характеризующая „разброс"
значений случайной величины вокруг ее математического ожидания.
2
2020 г. Павлов И.С.

2.4.1. Математическое ожидание случайной величины


Как уже отмечалось выше, наиболее употребляемой на практике числовой
характеристикой является математическое ожидание случайной величины.
Определение 7.1. Математическим ожиданием MX дискретной случайной
величины Х называют сумму произведений значений xi, случайной величины и
вероятностей рi = Р{Х = xi}, с которыми случайная величина принимает эти значения:
MX =  xi pi . При этом, если множество возможных значений случайной величины X
i

счетно, предполагается, что



MX =  xi pi  + ,
i =1

т.е. ряд, определяющий математическое ожидание, сходится абсолютно; в противном


случае говорят, что математическое ожидание случайной величины X не существует.
Вероятностный смысл математического ожидания состоит в том,
n что оно является
средним значением случайной величины. Действительно, т.к. MX =  pi = 1 , то
n i =1

n x p i i
MX =  xi pi = i =1
n
= xсреднее .
i =1
p
i =1
i

Докажем теперь теорему о свойствах математического ожидания.


Теорема 7.1. Математическое ожидание обладает следующими свойствами.
1. Математическое ожидание постоянной (т.е., если случайная величина X принимает
всего одно значение С с вероятностью 1 и, по сути, не является случайной величиной)
равно самой этой постоянной: МС = С.
2. М(аХ + b) = а МХ +b, где а, b — постоянные.
3. M ( Х + Y ) = М Х + М Y д л я л ю б ы х с л у ч а й н ы х в е л и ч и н .
4. Математическое о ж и д а н и е отклонения СВ от ее МО равно 0, т.е. М(Х-МХ)=0.
5. M(Х Y ) = MХ МY для независимых случайных величин Х и Y.

Доказательство:
1. Если случайная величина X принимает всего одно значение С с, вероятностью 1, то
MX = MC = C  P  X = C = C 1 = C .

3
2020 г. Павлов И.С.

Действительно, так как

то

n
аналогично получаем p j =  pij .
i =1

Свойство 3 распространяется на произвольное конечное число слагаемых.

4
2020 г. Павлов И.С.

2.4.2. Дисперсия. Моменты Высших порядков.


2 СВ могут иметь одинаковые средние значения, но их возможные значения будут
по разному рассеиваться вокруг этого среднего.
Поэтому, наряду со средним значением, хочется иметь и число, характеризующее
разброс СВ относительно своего среднего значения. Такой характеристикой обычно
служит дисперсия.
Дисперсией DX случайной величины Х называют матожидание квадрата ее
отклонения от своего математического ожидания, т.е. DX = M ( X − MX )2 .
Кроме дисперсии, можно ввести и другие меры разброса, например, центральные
моменты любого четного порядка. Например, МХ2 - 2-й начальный момент, а вообще
 k = MX k - начальный момент k-го порядка.
Можно также ввести центрированную СВ Х-МХ (величину с нулевым
матожиданием), тогда дисперсия будет равна матожиданию от квадрата центрированной
СВ, т.е. она будет равна 2-му моменту центрированной СВ или же 2-ым центральным
моментом СВ.
Итак, дисперсия DX = M ( X − MX )2 = 2 характеризует разброс значений СВ Х
относительно ее МО.

Теорема 7.2. Дисперсия обладает следующими свойствами.


1. Если СВ Х принимает только 1 значение С с вероятностью 1, то DC=0 (обратное
тоже верно).
2. D ( a Х + b ) = a 2 D Х .
3. DX = MX 2 − (MX )2
4. D( X + Y ) = DX + DY для независимых случайных величин Х и Y.
5. Е с л и С В Х и Y независимы, то D( XY ) = MX 2  MY 2 − (MX )2  (MY )2

Доказательство:
1) Если Х=С, то МХ=С и DX = M ( X − C)2 = (C − C)2 = 0

2) Пусть Y=aX+b, тогда DY = M (Y − MY ) = M (aX + b − M (aX + b))2 =


= M (aX + b − aMX − b)2 = M (a( X − MX ))2 = M (a2 ( X − MX )2 ) = a 2M ( X − MX )2
3) DX = M ( X − MX )2 = M ( X 2 − 2 X  MX + (MX )2 ) = MX 2 − M (2 X  MX ) + M (MX )2 ) =
= MX 2 − 2MX  MX + (MX )2 = MX 2 − 2(MX )2 + (MX )2 = MX 2 − (MX )2 .
4) D( X + Y ) = M ( X + Y − M ( X + Y ))2 = M (( X − MX ) + (Y − MY ))2 =
= M ( X − MX )2 + 2M (( X − MX )(Y − MY )) + M (Y − MY )2 = DX + 2  0 + DY = DX + DY .
Отметим, что если СВ Х и Y зависимы, то
D( X + Y ) = DX + DY + 2M (( X − MX )  (Y − MY )) .
5) Доказательство свойства 5 не приводим.

Замечания.
1. Очевидно, что свойство 4 справедливо для любого числа попарно независимых СВ.
2. Нетрудно видеть, что дисперсия DX имеет размерность квадрата размерности СВ
Х. Для практических же целей удобно иметь величину, характеризующую разброс
значений СВ вокруг ее МО, размерность которой совпадает с размерностью Х. В

5
2020 г. Павлов И.С.

качестве такой величины естественно использовать  = DX , которую называют


средним квадратическим отклонением СВ Х (или стандартным отклонением).

Кроме того, можно ввести еще и следующие понятия.


Мода – наиболее вероятное значение Х. Мод может быть несколько.
Медиана me – такое значение Х, которое делит множество возможных значений Х на 2
равновероятных подмножества, т.е. это середина распределения ( P( X  me ) = P( X  me )
или F (me ) = 0.5 ). Чаще медиану используют для непрерывных случайных величин.

2.5. Некоторые виды дискретных случайных величин


2.5.1. Биномиальное распределение.
Дискретная случайная величина Х распределена по биномиальному закону, если
она принимает значения 0, 1, 2, …, n в соответствии с распределением, заданным
формулой:
P  X = i = Pn (i) = Cni pi q n−i , где i=0, .., n,
Или, что то же самое, рядом распределения, представленным в таблице, где 0<p, q<1 и
p+q=1.
Табл. 1.
X 0 1 … i … n
P qn Cn1 pq n−1 … Cni pi q n−i … pn

Биномиальное распределение является не чем иным, как распределением числа


успехов X в п испытаниях по схеме Бернулли с вероятностью успеха р и неудачи q= 1 -р.
Проверим корректность определения биномиального распределения.
n n
Действительно, Pn (i)  0 и  P (i) =  C
i =0
n
i =0
i
n pi q n −i = ( p + q)n = 1 (по формуле бинома

Ньютона).
Найдем математическое ожидание случайной величины Х, распределенной по
биномиальному закону (число успехов в n испытаниях по схеме Бернулли с вероятностью
успеха р):
n n n
n! n
(n − 1)!
MX =  iPn (i) =  iCni pi q n −i =  i pi q n −i =  np pi −1q n −i =
i =0 i =0 i =0 i !(n − i)! i =0 (i − 1)!(n − i)!
n −1 n −1
= np  Cnj−1 p j q n −1− j = np  Pn −1 ( j ) = np .
j =0 j =0

Быстрее вычислить МО по-другому. Представим число успехов Х в n испытаниях по


схеме Бернулли в виде X = X1 + X 2 + ... + X n , где Хi – число успехов в i-м испытании.
Легко заметить, что MX i = 0  q + 1 p = p (в 1 испытании может быть либо успех, либо
неудача). Значит, в силу свойства 3 матожидания MX = MX1 + MX 2 + ... + MX n = np , что
совпадает с результатами вычислений 1-ым способом.
Аналогично вычисляется и дисперсия. Сначала найдем дисперсию каждого из
слагаемых суммы X = X1 + X 2 + ... + X n :
DX i = (0 − MX i )2 q + (1 − MX i )2 p = (− p)2 q + (1 − p)2 p = p2q + q 2 p = pq( p + q) = pq .
Учитывая, что случайные величины Хi являются независимыми, в силу свойства 4
дисперсии получаем:
6
2020 г. Павлов И.С.

DX = DX1 + ... + DX n = npq .

2.5.2. Полиномиальное (мультиномиальное) распределение

Пусть проводится n независимых опытов в одинаковых условиях, причем каждый


опыт может k взаимоисключающих исходов А1, А2,…, Аk, соответственно, с вероятностями
k
p1, p2,…, pk (  p j = 1 ). Полиномиальным (мультиномиальным) распределением
j =1

называют совместное распределение случайных величин X1, X2,…, Xk, где Хi – число
появлений события Аi в n испытаниях. Такое распределение задается вероятностями
n!
P ( X1 = m1 , X 2 = m2 ,..., X k = mk ) = p1m1 p2m2 ... pkmk ,
m1 !m2 !...mk !
определенными для любого набора целых неотрицательных чисел mi (i=1,…,k),
k
удовлетворяющих условию m
i =1
i = n.

Полиномиальное распределение служит естественным обобщением биномиального


распределения и сводится к последнему при k =2.

2.5.3. Распределение Пуассона


Дискретная случайная величина Х распределена по закону Пуассона, если она
принимает целые неотрицательные значения 0, 1, 2, …, n с вероятностями
i
P  X = i = P(i;  ) = e−  , где i=0, 1,..
i!
или, по-другому, с вероятностями, представленными рядом распределения в Таблице 2,
где   0 - параметр распределения Пуассона. Такое распределение было впервые
исследовано в 1837 г. С.Пуассоном (французский математик, механик и физик, 1781 –
1840 гг.).
Табл. 2.
X 0 1 2 … n …
P e−  e−   2 − … n …
e e− 
2! n!

Проверка корректности определения распределения Пуассона дает:

 
i 
i
 P(i;  ) =  i
i =0 i =0 i!
e−  = e−   i
i =0 i!
= e−  e = 1 .

Распределение Пуассона также называют законом редких событий, поскольку оно всегда
проявляется там, где производится большое число испытаний, в каждом из которых с
малой вероятностью происходит „редкое" событие. В соответствии с законом Пуассона
распределены, например, число вызовов, поступивших в течение суток на телефонную
станцию; число метеоритов, упавших в определенном районе; число распавшихся частиц
при радиоактивном распаде вещества.

Пример. АТС получает в среднем за час 480 вызовов. Определить вероятность того, что
она получит а) за 1 минуту ровно 3 вызова; б) за 30 секунд от 2 до 4 вызовов.

7
2020 г. Павлов И.С.

Решение. а) Пусть Х – СВ, характеризующая число поступивших вызовов за 1 минуту. Из


условия задачи следует, что СВ Х распределена по закону Пуассона. Сначала найдем
480
интенсивность потока вызовов (среднее число вызовов за 1 минуту):  = = 8 . В итоге
60
83
искомая вероятность равна P  X = 3 = e−8 = 0,029 .
3!
б) В отличие от предыдущего пункта, среднее число вызовов за 30 секунд будет равно
480
= = 4 , поэтому искомая вероятность равна
60  2
42 −4 43 −4 44 −4
P(2;4) + P(3;4) + P(4;4) = e + e + e  0,537 .
2! 3! 4!

Можно показать (см. задачу 4.12), что для распределения Пуассона


MX = DX =  .
Кроме того, сумма независимых случайных величин X1 и X2, распределенных по
закону Пуассона с параметрами 1 и 2 , также имеет распределение Пуассона со средним
значением  = 1 + 2 . (см. задачу 4.13).

2.5.4. Геометрическое распределение


Пусть в схеме Бернулли случайная величина Х - число испытаний до появления
первого успеха. Тогда очевидно, что Х - дискретная случайная величина, принимающая
значения 0, 1, 2, …, n, … с вероятностями, вычисляемыми по формуле:
P  X = i = pqi , где i=0, 1, ..
Таким образом, СВ Х имеет ряд распределения, представленный в таблице 3.
Табл. 3
X 0 1 2 … n …
P P qp q2p … qn p …
СВ с таким рядом распределения называют распределенной по геометрическому закону.
Правильность составления такой таблицы вытекает из равенства

  
p
 P{X = i} =  pqi = p qi =
i =0 i =0 i =0 1− q
= 1.

q q
Для геометрического распределения (задача 4.10) MX = , DX = 2 .
p p

Вам также может понравиться