Вы находитесь на странице: 1из 32

34

2. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ

2.1. ДИСКРЕТНЫЕ И НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ

Случайной величиной называется величина, которая в результате опыта


принимает только одно заранее неизвестное значение. Случайная величина
сопоставляется случайному событию. Понятие случайной величины играет
важную роль в теории вероятностей. Если классическая теория вероятностей
оперирует с событиями, то современная теория вероятностей и
математическая статистика оперирует только со случайными величинами.
Обозначаются случайные величины как X, У, Z, …, а их значения как х,
у, z, …Приведем пример типичного приема перехода от события А к
случайной величине, характеризующей это событие. Пусть производится
опыт, в результате которого может появиться или не появиться событие А.
Если ввести такую характеристику, как индикатор случайного события,
сопоставив появлению события А единицу (1), а не появлению с события А
ноль (0), то общее число появлений события А в опытах равно сумме
характеристик этого события во всех опытах, что приводит к известной
формуле относительной частоты события А:
m  
P*   1 1 
  
 1  0 0  
  0  n
 .
n  m nm

Случайные величины бывают дискретными и непрерывными.


Непрерывной случайной величиной называется случайная величина, которая в
результате опыта может принимать любые значения из некоторого интервала
(конечного или бесконечного).
Дискретной случайной величиной называется случайная величина Х,
имеющая набор изолированных возможных значений хi ( i  1,2 , n ).
Примеры непрерывной случайной величины: время безотказной работы
радиолампы, ошибка взвешивания тела на весах, абсцисса точки попадания
математической точки в некоторый интервал и так далее. В этих примерах
возможные значения случайной величины не отделены друг от друга.
Примером дискретной случайной величины может служить число попаданий
в мишень при трех выстрелах, число бракованных деталей в партии, сумма
очков при бросании двух игральных костей и т.д. В этих примерах
возможные значения случайной величины принимают изолированные
значения.
35
2.2. ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН

Законом распределения случайной величины называют всякое


соотношение, устанавливающее однозначную связь между возможными
значениями случайной величины и соответствующими им вероятностями.
Случайная величина будет полностью описана с вероятностной точки зрения
при задании закона распределения ее вероятностей.
Существуют три формы законов распределения:
1.Ряд распределения определяется для дискретных случайных величин.
Рассмотрим дискретную случайную величину X, которая принимает
значения x1 , x 2 ,  , x n с возможными значениями вероятности P  x1   p1 ,
P  x2   p2 ,  , P  xn   pn . События, которые характеризуются значениями x i , –

 P  xi   1 .
n
несовместны и образуют полную группу, поэтому Ряд
1
распределения оформляется в виде таблицы или многоугольника (Рис.2.1) на
плоскости  x , P  P
р4
xi x1 x2 … xn
Pi p1 p2 pn
р2

р1

0 Рис. 2.1 x
2.Функция распределения.
Для количественной характеристики как непрерывных, так и дискретных
случайных величин удобно пользоваться вероятностью события X  x , для
расчета которой все предыдущие вероятности нужно суммировать. Функция
распределения или кумулята случайной величины X есть вероятность того,
что эта величина принимает значение, меньшее, чем х, х( – ∞ , + ∞):
F  x  P X  x   P  Х  xi  .
X  xi

Свойства функции распределения:


F  x  - неубывающая функция F ( x 2 )  F ( x1 ) , если x 2  x1 ;
F      0 (невозможное событие);
F     1 (достоверное событие);

Используя определение F(x), можно получить значение вероятности


попадания случайной величины в заданный интервал  x 2 , x1  оси Ох,
P ( x1  x  x 2 )  F ( x 2 )  F ( x1 ) ,
как приращение функции распределения на этом участке.
Заметим, что для любой непрерывной функции F ( x1 )  F ( x 2 ) при
x1  x 2 .Учитывая последнюю формулу, из этого следует, что нулевой
36
вероятностью могут обладать и достоверные события. Кажущийся парадокс
легко объяснить следующим примером. Пусть масса тела распределена на
участке числовой оси. Очевидно, что в каждой точке этого участка масса
равна нулю, тем не менее, масса всего тела отлична от нуля. Таким образом,
понятие массы может относиться только к конечному интервалу. Такое же
объяснение справедливо для вероятности.
3. Плотность распределения или дифференциальная функция
распределения. Иногда эту функцию называют просто плотностью
вероятности. Определяется только для непрерывных случайных величин.
Пусть F(x) - непрерывная и дифференцируемая (то есть гладкая) функция.
Вычислим вероятность попадания случайной величины X в интервал
( х , х  х ) :
P  x  X  x  x   P  x   F  x  x   F  x  .
P ( x ) P ( x  X  x  x )
f  x   lim  lim 
x  0 x  x  0 x 1 F(x)
Очевидно,
F ( x  x )  F ( x ) dF  x 
 lim   F  x  ,
x  0 x dx
где f  x  и есть плотность распределения. 
Из определения f  x  следует, что вероятность 0 x
попадания случайной величины Х в интервал f(x) Рис. 2.2
 x 2 , x1  есть:
x2
P ( x1  x  x 2 )   f ( x )dx  F ( x2 )  F ( x1 ) а функция
x1
F(x)
распределения может быть проиллюстрирована, 0 x   x
как площадь под линией у  f  x  , расположенная Рис. 2.3
левее х (Рис.2.3):
x
F( x )   f ( x )dx .


Поскольку 0  p  1, то для любой f(x) должно выполняться условие


нормировки:

 f ( x )dx  1 .


Основные свойства дифференциальной функции распределения:


– f  x   0 , поскольку F  x  неубывающая функция;
– f     0 ;
1
– если F  x  безразмерна, то  f  x     x  , где  x  размерность х;

–  f ( x )dx  1 , так как F     1.




2.3. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНЫХ ВЕЛИЧИН


37

Закон распределения случайной величины является её исчерпывающей


характеристикой. Однако во многих практических задачах удобнее и проще
пользоваться набором параметров, характеризующих распределение
случайной величины. Числовыми характеристиками случайной величины
называют параметры, характеризующие самые существенные черты закона
распределения этой величины. Очевидно, что самым первым параметром
является то значение случайной величины, вокруг которого группируются
все её значения.
Математическое ожидание случайной величины. Пусть случайная
величина X принимает значения x1 , x 2 ,  , x n с вероятностями р1 , р2 ,  , рn .
Тогда её математическое ожидание
n n
M Х   mx   x i pi , p i 1
i 1 i 1

является суммой произведений всех возможных значений случайной


величины на соответствующие им вероятности. Отметим, что это постоянная
величина. Для непрерывных случайных величин математическое ожидание
определяется как несобственный интеграл I рода

mx   xf  x  dx .


Заметим, что математическое ожидание можно определить не у всех


случайных величин, а только у тех, у которых представленные выше сумма
или интеграл сходятся.
Перейдем теперь к моментному описанию случайных величин.
Моментное (приближенное) описание случайной величины широко
используется в механике, математической статистике и т.д. Моменты
подразделяются на два вида:
– начальные моменты (приложены к началу координат),
– центральные моменты.
Начальным моментом порядка s называется математическое
ожидание s-ой степени случайной величины:
 
n
 s  Х   M Х s   x is pi - для дискретной случайной величины;
i 1

s Х   M Х s   x
s
f  x  dx - для непрерывной случайной величины.


Очевидно, что первый начальный момент есть математическое ожидание


m x  1  Х  .
Центральным моментом порядка s случайной величины Х
называется математическое ожидание s-ой степени от центрированной
o
величины Х  Х  m x :
38
o  n o n
 s  Х   M  Х s    x is pi    x i  m x  pi - для дискретной случайной величины;
s

  1 1

 o 
 o 
 s Х  MХ s    x s f  x  dx    x  m  f  x  dx
s
x - для непрерывной случайной
   

величины.
Очевидно, что центральный момент первого порядка для любой случайной
величины равен нулю:
n n n
  o
 1  Х   M  Х     x i  m x  рi   x i рi  m x  рi  m x  m x  0 .
  1 1 1

Рассмотрим второй центральный момент, который называется


дисперсией и играет важную роль в теории вероятностей.
n
D x   2  Х     x i  m x  р i - для дискретных случайных величин;
2

1

xm  f  x  dx - для непрерывных случайных величин.


2
Dx  x


Величина дисперсии характеризует разбросанность значений случайной


величины X вокруг m x . На примере дискретной случайной величины
выразим дисперсию через начальные моменты
n n n n
D x    x i  m x  рi   x i2 рi  2m x  x i рi  m x2  рi 
2

1 1 1 1

n
  xi2 рi  2m 2x  m 2x   2  Х   12  Х  
1

 
D x   2  Х   12  Х   M Х 2  M 2  Х  .
Эта формула удобна для практического подсчета значения дисперсии.
Другой характеристикой, связанной с дисперсией, является
среднеквадратичное отклонение
 x  Dx ,

которое имеет размерность случайной величины и может быть наглядно


представлено графически.
Свойства математического ожидания и дисперсии:
1. M С   С ;
Доказательство: Представляя С как дискретную величину, у которой
единственное значение принимается с вероятностью р  1
, получим M  С   С  1  С . Для непрерывной случайной
величины:
39
 
M  С    С  f  x  dx  С   f  x  dx  С .
 

2. M  СХ   СM  Х  ;

Доказательство: Свойство следует из свойств сумм и интегралов.


 o 
3. M Х   0
 
;
Доказательство: Свойство следует из определения центрального момента
первого порядка.
4. D С   0 ;
 
Доказательство: Так как D С   M  С  m c   M  С  С   M  0  0 .
2 2
 
5. D СХ   С 2 D Х  ;

Доказательство: Действительно, D СХ   M  СХ  M  СХ   2   
  
 M С 2  Х  m x   С 2 M  Х  m x   С 2 D Х  .
2 2

Пример 2.1. Дискретная случайная величина задана рядом распределения


xi 2 5 8
pi p1 0,2 0,5
Найти: значение вероятности р1; числовые характеристики M  X  , D X  ,
  X  ; функцию распределения F  x  и построить ее график.
n
 Так как p
i 1
i  1 , то p1  0 ,2  0 ,5  1 ,  p1  0 ,3 .

Найдем математическое ожидание


n
M  X    x i p i  2  0,3  5  0,2  8  0,5  5,6 .
i 1

Далее определим дисперсию


n
D[ X ]   x i2 pi  M 2 [ X ]  4  0,3  25  0,2  64  0,5  5,6 2  6,8 .
i 1

Определим среднее квадратическое отклонение


 x  D x  2,6 .
F(x)
Для функции распределения F  x , 1
определения, имеем
F  x   0 , если x  2 ; 0,5
F  x   0,3 , если 2  x  5 ; 0,3
F  x   0,5 , если 5  x  8 ;
F  x   1 , если x  8 .
0 2 5 8 x
40
Строим функцию распределения (рис.2.4).  Рис. 2.4
Наряду с математическим ожиданием, имеются характеристики
случайной величины, указывающие на некоторые геометрические
особенности её распределения.
Модой дискретной случайной величины называется её наивероятнейшее
значение. Модой непрерывной случайной величины называется значение, при
котором плотность вероятности максимальна. Мода случайной величины X
обозначается символом Mо( X ) (Рис. 2.5).
Медианой непрерывной случайной величины X f(x)
(для дискретных величин эта характеристика
используется редко) называется её значение
Ме(Х), удовлетворяющее условию
Me ( x )  max f ( x ) .

Медиана может быть определена через x


интегрирование плотности вероятности: Me(X) Мо(Х)
М е( X )
1 Рис. 2.5


f ( x )dx 
2
.

Медиана делит фигуру, ограниченную кривой распределения и осью абсцисс,


на две равных по площади части (Рис. 2.5).
Числовая характеристика случайной величины, связанная с
несимметричностью ее распределения относительно математического
ожидания называется асимметрией распределения и равна
3
As ( X )  ,
3
где σ – среднее квадратичное отклонение случайной величины X.
Асимметрия характеризует ‘‘скошенность’’ распределения относительно
математического ожидания. Действительно, при симметричном относительно
математического ожидания распределении непрерывной случайной величины
третий центральный момент

3   ( x  M ( X ))
3
f ( x )dx


равен нулю, как интеграл от нечётной функции в симметричных пределах. (В


случае дискретной величины интеграл заменяется суммой, имеющей
аналогичные свойства). Знак асимметрии определяется преобладанием
отрицательных или положительных отклонений от математического
ожидания. Например, распределение, показанное на рис.2.5, скошено влево и,
следовательно, As( X )  0 .

2.4. КЛАССИЧЕСКИЕ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ


ДИСКРЕТНЫХ СЛУЧАЙНЫХ ВЕЛИЧИН

Биноминальное распределение.
41
Пусть вероятность наступления события А в каждом из n
независимых испытаний одинакова и равна р. Тогда вероятность того, что
событие А наступит m раз в n испытаниях определяется формулой
Бернулли:
Pn ( m )  C nm p m ( 1  p )nm , m  0 , 1, ..., n .

Другими словами, если случайная величина X есть число наступлений


m некоторого события в серии из n испытаний, причем в каждом из них
вероятность наступления этого события одинакова и равна p, то она имеет
биномиальное распределение:
Pn ( X  m )  C nm p m (1  p) n m , m  0, 1, ..., n .

Ряд распределения случайной величины Х имеет вид:


xi 0 1 2 … n
Pi Pn  0  Pn 1 Pn  2  Pn  n 
n

где  P  m   1 в силу того, что события


m 0
n X  x i образуют полную группу.

Функция распределения дается выражением:


k 1
F (k )  C
m 0
m
n p m q n m , q  1  p .

Пример 2.2. Производится 4 независимых испытания, в каждом из которых


событие A появляется с вероятностью р=3/4. Рассматривается случайная
величина X - число появлений события A в серии из четырех испытаний.
Составить закон распределения вероятностей случайной величины X и
построить многоугольник распределения, найти функцию распределения
вероятностей F  x  и построить её, вычислить математическое ожидание и
дисперсию.
 Дискретная случайная величина X может принимать значения: x1  0 ,
x 2  1 , x3  2 , x 4  3 , x 5  4 .
Так как испытания независимы одно от другого и вероятности
появления события A в каждом испытании одинаковы, то случайная
величина X имеет биномиальное распределение. По условию имеем n  4 ,
p  3 4 , q  1  p  0 ,6 . Вероятность P  X  m  вычисляются по формуле:
P X  m   C4m p m q 4m , m  1,2,3,4 .

1 12 12
P( X  0)  (1 4) 4  , P ( X  1)  4(3 4)(1 4) 3  4
 ,
256 4 256
54 54
P( X  2)  6(3 4) 2 (1 4) 2  4
 ,
4 256
108 108 81 81
P( X  3)  4(3 4) 3 (1 4)   , P( X  5)  (3 4) 4   ,
44 256 4 5
256
которым соответствует ряд распределения:
42

хi 0 1 2 3 4
pi 1 12 54 108 81
256 256 256 256 256

График, построенный по этой таблице, называется многоугольником


распределения и представлен на рисунке 2.6а.
Построим функцию распределения F  x  случайной величины X :
при x  0 имеем F  x   0 ,
при 0  x  1 имеем F  x   1 256 ,
при 1  x  2 имеем F  x   1 256  12 256  13 256 ,
при 2  x  3 имеем F  x   13 256  54 256  67 256 ,
при 3  x  4 имеем F  x   67 256  108 256  175 256 ,
при x  4 имеем F  x   175 256  81 256  1 .
График функции распределения F  x  представлен на рисунке 2.6б.

а б
1

F ( x)

0 1 2 3 4 5
Рис. 2.6 x

Вычислим числовые характеристики случайной величины X .


Математическое ожидание:
n
0  12  108  324  324 768
m x   x i pi    3;
i 1 256 256
Дисперсия:
n
0  12  216  972  1296
D x   x i 2 pi  m 2x   9  9,75  9  0,75
i 1 256
Среднее квадратичное отклонение
x  Dx  0,75  0,866 .
Отметим, что в общем случае для биномиального распределения
выполняется
m x  np ; D x  npq .

Учитывая последние формулы, математическое ожидание и дисперсия


случайной величины X могут быть вычислены так:
mx  4  3 4  3 ; D x  4  3 4  1 4  0 ,75 . 

Распределение Пуассона. Пусть дискретная случайная величина Х


принимает целые неотрицательные значения 0,1,2,3,…n, где n   и
вероятность появления события в одном опыте р стремится к нулю так, что
43
величина   np ограничена. Тогда случайная величина Х распределена по
λm  λ
закону Пуассона P m  e , который определяет вероятность появления
m!
события A m раз в n опытах. Ряд распределения можно представить в виде
xi 0 1 2  n
Pi P  0 P 1 P  2  P  n

Функция распределения
m 1
 k 
F (m )   e .
k  0 k!

Для неё выполняется условие


 
λm λm
F  n   e λ
 e   e  λ  e λ  1.
λ

n  0 m! 0 m!

Для распределения Пуассона m x   и D x   .


Рассмотрим простейший поток событий, которые наступают в
случайные моменты времени. Например, поступление сигналов вызова на
автоматическую телефонную станцию. Поток называется стационарным,
если вероятность появления k событий за интервал времени t есть функция
только k и t . Если события независимы, то поток обладает свойством
отсутствия последействия. Если вероятность появления более одного
события за малый промежуток времени значительно меньше вероятности
появления только одного события, то поток обладает свойствами
ординарности. Простейшим (пуассоновским) потоком называется поток
событий, который обладает стационарностью, отсутствием последействий и
ординарностью. Интенсивностью потока  называется среднее число
событий, которые появляются в единицу времени  , где  - параметр
распределения Пуассона. Если   const , то вероятность появления k
событий за время t будет
P k 
  t  k e  t .
t
k!

Пример 2.3. Среднее число вызовов, поступающих на АТС в одну минуту


равно 2. Найти вероятность, что за пять минут поступит 3 вызова.
 По условию   2 , t  5 , k  3 . Тогда   t  10 .
103 10
P5  3  e  0 ,016 .
3!
Заметим, что вероятность поступления, допустим, 10 вызовов будет
1010 10
значительно больше: P5 10  e  0 ,3 .
10!
44

Геометрическое распределение. Пусть производятся независимые


испытания, в каждом из которых событие наступает с вероятностью p и не
наступает с вероятностью q  p  q  1 . Испытания заканчиваются, как только
появится событие А. Если в m  1 опытах событие не появилось, а
появилось в m-ом опыте, то алгебра событий позволяет составить событие
Bm  A A
 AA
m 1
(события несовместны). Вероятность этого события
P  Bm   q m 1  p .

Найдем вероятность появления события А не менее чем в m опытах,


которая представляет собой геометрическую прогрессию. Для достаточно
большого количества опытов ее можно считать бесконечно убывающей, тогда
должно выполняться

p
 pq
1
m 1

1 q
 1.

1 q
Легко показать, что mx  и Dx  .
p p2
Гипергеометрическое распределение. Пусть имеем N изделий, из
которых М бракованных. Наугад извлекают изделия. Поскольку изделия
обратно не возвращаются, то событие, состоящее в том, что изделие не
бракованное, зависимы. Вероятность того, что среди случайно отобранных n
изделий будет m бракованных, равна
m
CM  C Nn mM
P m  .
C Nn

Пример 2.4. В партии из 10 деталей имеется 7 стандартных. Наудачу


отобраны 3 детали. Составить закон распределения вероятностей дискретной
случайной величины X - числа стандартных деталей среди отобранных.
Найти математическое ожидание и дисперсию, построить многоугольник
распределения.
 Случайная величина X - число стандартных деталей среди отобранных
деталей - имеет гипергеометрическое распределение с параметрами N  10 ,
M  7 , n  3 . Найдем вероятности возможных значений x1  0 , x2  1 , x3  2 ,
x4  3 случайной величины X по формуле
C Mm  C NnmM
P X  m  , m  0 ,1,2 ,3 .
C Nn
Здесь: N - число деталей в партии; M - число стандартных деталей в
партии; n - число отобранных деталей; m - число стандартных деталей
среди отобранных;
45
C 70  C 33 1 C 71  C 32 7  3 21
P  X  0  3
 ; P  X  1  3
  ;
C10 120 C10 120 120
2 1 3 0
C C 21  3 63 C C 35
P  X  2  7 3 3   ; P  X  3  7 3 3  .
C10 120 120 C10 120

Ряд распределения случайной величины X имеет вид:

x 0 1 2 3
P 1/120 21/120 63/120 35/120

Многоугольник Р(х) распределения представлен на рис. 2.7.


Найдем математическое ожидание m x :
1 21 63 35 252
mx  0   1  2  3   2 ,1 .
120 120 120 120 120

Найдем  :
M X2  
M X 2  0
1
120
 1
21
120
 4
63
120
 9
35 588

120 120
 4 ,9 .

Дисперсию найдем по формуле


Р(х)
D x  M  X 2   m 2x .
63/120
Имеем
35/120
D x  4 ,9   2 ,1  4 ,9  4 ,41  0 ,49 .
2
21/120
Тоже можно получить по 1/120 Рис. 2.7
0
формулам: 1 2 3 х
M n
mx   2,1 ;
N
M  n N  M  N  n 
Dx   0 ,49 .
N 2   N  1

2.5. КЛАССИЧЕСКИЕ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ


НЕПРЕРЫВНЫХ СЛУЧАЙНЫХ ВЕЛИЧИН

Прежде чем перейти к рассмотрению классических законов


распределения непрерывной случайной величины, приведем пример её
исследования по заданной функции распределения.
Пример 2.5. Непрерывная случайная величина X задана функцией
распределения
46

 0 при x  2;
 2
F  x    x  2 при 2  x  3;
 1 при x  3.

Найти функцию плотности f  x  и числовые характеристики M  X  , D X  ,
  X  . Вычислить вероятности попадания случайной величины X в
интервалы (1; 2,5), (2,5; 3,5).
 Найдем плотность распределения
F(x)
 0 при x  2;

f  x  F  x  2 x  2 при 2  x  3;
2

 0 при x  3.
 1
Найдем математическое ожидание
x
 3
 x3  8
3
0 1 2 3
M  X    xf  x  dx  2  x x  2  dx  2   x 2   .
 2 3 2 3
Найдем дисперсию и среднее квадратическое отклонение Рис. 2.8
 3
64
D X    x f  x  dx   M  X    2 x  x  2 dx 
2
2 2

 2
9
3
 x4 2x3  64 43 64 1 f(x)
 2      
4 3 2 9 6 9 18
X   D X   0,23 .
2
Используя формулу
P a  X  b   F  b   F  a  ,
1
найдем вероятности попадания X в заданные
x
интервалы 0 1 2.92
Рис. 3
P1 1  X  2 ,5  F  2 ,5  F 1   2 ,5  2  0  0 ,25 ,
2

P2  2 ,5  X  3 ,5  F  3,5  F  2 ,5  1   2 ,5  2  1  0 ,25  0 ,75 .


2

Теперь рассмотрим типичные распределения непрерывных


случайных величин: равномерное, показательное, нормальное.
Равномерное распределение (закон равномерной плотности). В
некоторых задачах в пределах некоторого интервала все значения случайной
величины равновероятны.
c ,   x  
f  x  
0 , x  α , x  

Определим С из условия нормировки f(x)

S=1
0   x
47

1
 f  x  dx  1 , C    


Тогда функция распределения будет иметь вид


F  x 
x
x  Рис. 2.10
 f  x  dx     .

F(x)
Вероятность попадания Х в интервал [a,b]
ba 1
P a  x  b   .
 
Определим основные моменты,
характеризующие это распределение Рис. 2.11
 0  a b  x
1  
mx  
  
xdx 
2
,

 2     2  2  2   2     
 2
   
2
1
   
Dx  x 2
dx       ,
 2  3 4 12
3
As( X )  0
3
в силу равенства нулю всех центральных моментов:
 k  M [ X  M ( X )]k  0, k  1, 2, 3, ... ;

Равномерное распределение по определению не имеет моды, а его медиана


совпадает с математическим ожиданием.
Таким образом, для равномерного распределения:

mx 
   2 As ( X )  0 ; Me ( X )  m x .
2
; Dx  ;
12

Показательное распределение. Данное распределение имеет важное


значение в теориях массового обслуживания, информации, надежности.
Показательным законом распределения описываются явления природы,
определяемые процессами релаксации, затухания или раскачки и другими
переходными процессами.
Плотность распределения показательного закона задается законом
 λe  λx , при x  0
f  x   .
 0 , при x  0
Функция распределения
f(x)
х
1  e  λx , при x  0 
F  x  λ  e  λx
dx   .
  0 , при x  0
Вероятность попадания случайной величины в
интервал   x   находится по формуле 0 a b x

P a  x  b   F  b  F  a   e  λa  e  λb ,
F(x)

1
48
и проиллюстрирована на рис. 2.12 заштрихованной областью.
Определим основные характеристики показательного Рис. 2.12
распределения:
1. Математическое ожидание:
 
1
 xf  x  dx  λ  xe dx  .
 λx
mx 
 0
λ
2. Дисперсия:
 
1 2 1 1
  x  mx  f  x  dx  λ  x e dx  ;
2 2  λx
Dx   2  2  2
 0
λ2 λ λ λ

1
 (X )  .

3. Асимметрия:


x  x 6 
3
3x 2 6 x 6
3  0 x e dx  e    2  3  4   3
3  x

0

6 6 2
3 2 3
3   3  31 2  21  3  3  3  3  As( X )  3  2  0
    
не зависит от параметра  .
4. Медиана:
Me
Me 1 1 1
 e
 x
dx  e x   e Me   Me  ln 2 ;
0
0 2 2 

5. Из рис. 2.12 очевидно, что мода Mo=0.

Таким образом, для показательного закона распределения:


1 1 1
mx 

; Dx  2 ;
As ( X )  2 ; Me  ln 2 ; Mo=0.

Пример 2.6. Время работы радиолампы t – случайная величина, которая


распределена по показательному закону. Определить вероятность того, что
лампа проработает не менее 600 часов, если средняя продолжительности ее
работы равна 400 часам.
1 1
 По условию   m  400 . Тогда
x

t  3
  
P  600  t     λ  e  λt
dt   e 400 e 2  0 ,22 .
600
600

Введем величину R t   1  F  t   e  t , называемую функцией


надёжности, определенную как вероятность того, что устройство отработает
1
безотказно не менее t единиц времени. Величина mx  имеет смысл

времени, за которое вероятность безотказной работы устройства уменьшится
в е раз.
49
Например, если время безотказной работы устройства распределено по
закону f  t   0 ,005e 0 ,005t , то вероятность безотказной работы в течение 1000
часов равна R t   1  F  t   e 5  0 ,0067 , а в течение 100 часов - R t   e 0.5  0 ,607
.

Нормальное распределение (закон Гаусса). Данное распределение играет


исключительную роль в теории вероятностей, так как является предельным
для всех остальных законов распределения. Нормальный закон
распределения широко применяется для описания природных явлений и
играет фундаментальную роль в понимании сущности этих явлений. Можно
привести множество примеров – как из области природы, так и из области
человеческой деятельности – когда случайная величина распределена таким
образом, что функция плотности вероятности имеет максимум при среднем
значении (математическом ожидании) случайной величины и симметрична
относительно этого максимума. Это значит, что существует закон,
управляющий поведением случайных величин различной природы. Такой
закон называется нормальным распределением или законом Гаусса.
Плотность вероятности нормально распределённой случайной
величины определяется формулой:
( x a ) 2
1 
f ( x)  e 2 2
 2

Данная функция удовлетворяет условию нормировки плотности при любых


значениях параметров a и  . Действительно:

( x )a 2 x  a 
1  22 z  1  2/z 2 .
 2
 e dx   e dz  1  


 f ( x )dx

2 


 dz  x /d 
Несобственный интеграл

z2 / 2
e dz  2


называется интегралом Пуассона.


50
Функция плотности вероятности нормального распределения,
изображенная на рис. 2.13(а), определена для любых значений аргумента.
Своего максимума она достигает при x  a :
( x  a )2
( xa) 
f ( x )   3 e 2 2  0  х  а - точка экстремума,
 2
1
f max ( x  a )  .
 2

График f ( x ) симметричен относительно линии x  a (при a  0 получаем


чётную функцию) и имеет две точки перегиба x  a   :
( x a )2 ( x a )2
( x  a) 2  1 
f ( x)  5 e 2 2
 e 2 2

 2  3
2

( x a )2
( x  a) 2   2 
 e 2 2
 0  ( x  a) 2   2  х  а   .
 5 2

При x   f(x) асимптотически приближается к нулю.

Рис. 2.13

Для случайной величины X , нормально распределённой с параметрами


a и  математическое ожидание и дисперсия определяются формулами:
M ( X )  a; D( X )   2 .

На рисунке 2.13б изображены три нормальные кривые с разными


параметрами a и  . Видно, что при уменьшении a кривая, не изменяя формы,
смещается влево, при увеличении - вправо. С ростом  максимальное
значение f ( x ) снижается, а сама кривая становится более пологой. Площадь
фигуры, заключённой между любой нормальной кривой и осью абсцисс, в
силу условия нормировки стремится к единице. Отметим также, что
асимметрия нормального распределения:
51
3
As ( X )  0
3
в силу равенства нулю всех нечетных центральных моментов:
 k  M [ X  M ( X )]k  0, k  2m  1, m  1, 2, ... ,

а мода и медиана совпадают с математическим ожиданием:


Me ( X )  Mo( X )  a .
Вероятность попадания нормальной случайной величины, в интервал
( ,  ) определяется выражением:

 xa
 ( x a )
2

1 z 2
P(  X   )   f (x)dx   e dx   2

  2  dz  dx / 
 a  а  a
2 2 2
 z  z  z
1 1 1
 
2  a
e
2
dz  
2 0
e dz 
2

2 0
e dz. 2


Полученные интегралы не выражаются через элементарные функции и для
их вычисления используют специальную функцию Лапласа Ф(x):
x z2
1 
 ( x )    ( z )dz , где :  ( z )  e 2.
0 2

Таблицы значений функций  ( z ) и  ( x ) приведены в приложении (таблицы


№1 и №2), соответственно.
Итак, для нормальной случайной величины вероятность попадания в
заданный интервал (, ) равна

 a   a 
P(  X   )        .
     

Так как  ( z ) - положительная, чётная,


быстро убывающая с ростом модуля z функция,
то  ( x ) - нечётная функция, которая проходит
через начало координат, а при x  
52
асимптотически приближается к значению 1/2 (см. выше интеграл
Пуассона). График функции Лапласа показан на рис. 2.14.
Вероятности попадания нормальной случайной величины в
симметричный относительно её математического ожидания интервал:
X  a   определяются выражением:

 
P ( X  a   )  2   ,
 
из которого легко получить вероятности попадания Х в интервалы: X a  ,
X  a  2 , X  a  3 :

P ( X  a   )  2 (1)  0.6826 ; P ( X  a  2 )  2 ( 2)  0.9544 ;


P ( X  a  3 )  2 (3)  0.9973 .
Из последнего выражения следует правило трёх сигм: отклонения
нормальной случайной величины от математического ожидания более чем на
три средне квадратичных отклонения практически невозможны. Другими
словами: если известно, что случайная величина распределена по
нормальному закону, то можно предположить, что её значения, выходящие из
интервала X  a  3 , связаны с ошибками измерения и могут не приниматься
во внимание.
Итак, если измерения некоторой случайной величины показывают, что
она подчиняется правилу трёх сигма, то есть основания предполагать, что эта
случайная величина распределена нормально.
Пример 2.7. Непрерывная случайная величина X распределена по
нормальному закону с математическим ожиданием m  10 и средним
квадратическим отклонением   2 . Найти вероятность попадания
случайной величины в интервал  8;14 .
 Вероятность того, что X примет значение, принадлежащее интервалу
  ,   , определяется по формуле
 а   а 
P    X     Ф   Ф .
     
Для её вычисления используем свойство нечетности функции Лапласа и
таблицу №2, приведенную в приложении:
 14  10   8  10 
P 8  X  14   Ф   Ф   Ф 2   Ф  1  Ф 2   Ф1 
 2   2  
 0,4772  0,3413  0,8185.

Пример 2.8. По шоссе шириной 20 м ведется стрельба в направлении,


перпендикулярном шоссе. Прицеливание производится по середине шоссе.
Среднеквадратичное отклонение в направлении стрельбы для данной
53
дальности   8 м. Имеется систематическая ошибка (недолет) в 3 м. Найти
вероятность попадания в шоссе при одном выстреле.
 По условию задачи m  3 и   8 . Вероятность попадания в шоссе
принимает значение:
 10  3    10  3 
P   10  x  10   Ф   Ф   Ф1,65  Ф 0 ,87   0 ,75 .
 8   8 

2.6. СИСТЕМА СЛУЧАЙНЫХ ВЕЛИЧИН

На практике повсеместно сталкиваются с задачами, в которых


результаты опытов описываются не одной, а двумя и более случайными
величинами, образующими систему случайных величин. Например, точка
попадания пули в мишень характеризуется координатами X и Y, тогда как
точка попадания зенитного снаряда в самолет характеризуется уже тремя
координатами X, Y, Z. Свойства системы нескольких случайных величин не
исчерпываются свойствами отдельных случайных величин, а включают также
взаимные связи случайных величин между собой. Так, например, если
“характеризовать” человека только двумя случайными величинами – ростом и
весом, то существует так называемая корреляционная зависимость между
этими величинами. Как правило, если человек выше ростом, то он и тяжелее,
и наоборот.
Обозначаются случайные величины как X, Y, Z,  . Ограничимся
рассмотрением системы только двух переменных, поскольку обобщение на
их большее число не представляет особых трудностей.
Основные формы законов распределения двухмерной случайной
величины.
1. Двухмерный ряд распределения для дискретной случайной
величины. Оформляется в виде таблицы. X. . ..
Пусть X принимает x1 , x2 , x3 ,  , xn , и Y Y
.
принимает значения y1 , y2 , y3 ,  , ym c ..
.
.. . .
вероятностями P  x i , y j   Pij , причем
должно выполняться
n m
  Pij  1 .
i 1 j 1

2. Функция распределения системы


двух случайных величин применяется для y
описания как дискретных, так и
непрерывных случайных величин.
0 x

Рис. 2.15
54
Функцией распределения системы  X ,Y  называют вероятность совместного
выполнения неравенств X  x , Y  y :
F  x , y  P X  x ,Y  y .
Функция распределения допускает простую геометрическую
интерпретацию, показанную на рис.2.15, как вероятность попасть в
прямоугольник левее и ниже точки  x , y  .
Свойства функции распределения:
– F  x , y  неубывающая функция обоих аргументов, F  x 2 , y   F  x1 , y 
при x2  x1 , F  x, y 2   F  x, y1  при y2  y1 ;
– F  x ,   F    , y   0 (невозможные события);
– F  x ,    F1  x  одномерная функция x;
– F   , y   F2  y  одномерная функция y;
– F  ,    1 ;
– 0  F  x , y  1;
Геометрически функция распределения есть вероятность попадания
случайной величины  x , y  в заданный прямоугольник  x , y   R :
y

R P   x , y   R 

 F   ,   F   ,   F   ,   F  ,  .
0   x
Рис. 2.16

3. Плотность распределения системы случайных величин. Для


непрерывных случайных величин можно ввести дифференциальную

y
D
x
Рис. 2.17
функцию распределения
 2F  x , y
f  x , y  .
xy
Тогда элемент вероятности dp можно представить как некоторый
объем dp  f  x , y  dxdy . Вероятность попасть в область D определяется
P   x , y   D    f  x , y  dxdy .
D

Легко увидеть связь между F  x , y и f  x , y :


55
x y

F  x, y     f  x, y  dxdy .
  

Свойства плотности распределения:


– f  x , y   0 для всех x и у;
 

–   f  x, y  dxdy
 
1 .
Рассмотрим распределение отдельных случайных величин, входящих в
систему. По свойству F  x , y  : F  x ,    F1  x  , F   , y   F2  y  , следует
 x  y
F1  x    f  x, y  dydx и F2  y     f  x, y  dxdy .
     

Плотность распределения одномерных случайных величин, входящих в


систему, есть
 
f1  x    f  x, y  dy и f2  y   f  x, y  dx .
 

Следовательно, чтобы получить плотность распределения одной из


случайных величин, входящих в систему, необходимо проинтегрировать
плотность распределения системы по другой случайной величине.
Условный закон распределения случайной величины Y при
определенном значении X.
f  x, y  f  x, y 
f  y x  
f1  x  
.
 f  x, y  dy


Аналогично
f  x, y  f  x, y 
f  x y  
f2  y 
.
 f  x, y  dx


Таким образом, получили закон умножения законов распределений:


f  x , y   f1  x   f  y x   f 2  y   f  x y  .

Случайная величина Y называется независимой от случайной


величины X, если закон распределения ее не зависит от того, какие значения
примет случайная величина X. Для того чтобы случайная величина Y не
зависела от случайной величины X, необходимо и достаточно выполнения
условия F  x , y   F1  x   F2  y  или f  x , y   f1  x   f 2  y  , то есть должны
выполняться равенства f1  x   f  x y  и f 2  y   f  y x  .
Например, для двухмерного распределения Коши
1 1  1   1 
f  x , y   2 2        f1  x   f 2  y  .
 x y  x  y  1   x  1    y  1 
2 2 2 2 2
   
Зависимости случайных величин бывают двух типов –
функциональные  y  f  x   и стохастические (вероятностные). Если связь
стохастическая, то можно указать закон распределения случайной величины
56
Y в зависимости от того, какое значение приобретает случайная величина X.
Вероятностные связи могут быть более или менее тесными. Тесные связи
характеризуются большой вероятностью совместного появления случайных
величин. Те физические величины, которые на практике мы считаем
функционально зависимыми (например, закон Ома U  R  I ), в
действительности связаны весьма тесной стохастической связью, т.е. при
определенном значении одной из них, значения другой колеблются столь
мало, что этими колебаниями пренебрегают.
Определим меру зависимости случайных величин, которая определяет
тесноту связи. Для этого введем числовые характеристики системы
случайных величин.
Начальным моментом порядков k, s системы двух случайных величин
 X ,Y  называют математическое ожидание произведения x k на y s :.
 Pij xik y sj для дискретных x, y,

  i
 k ,s  M x k  y s    
, j

  x y f  x, y  dxdy для непрерывных x, y.


k s


 
Центральным моментом порядков k, s для системы  X ,Y  называют
математическое ожидание произведение центрированных случайных величин
X и Y в степенях k и s соответственно.
 Pij  xi  mx   y j  m y  для дискретных x, y ,
 o o    i, j
 k ,s  M  X k  Y s    
     x  mx   y  m y  f  x, y  dxdy для непрерывных x, y.

 
На практике применяют, в основном, следующие характеристики
10  m x и  01  m y , определяющие среднее y
положение системы  X ,Y  на плоскости.
 20  D x и  02  D y , определяющие разброс
относительно этого положения. 0 x
Особую роль играет второй
Рис. 2.18
(центральный) смешанный момент. Он
называется ковариацией двух случайных

величин. Иначе его называют корреляционным моментом K xy или


моментом связи
 o o 
1,1  M  X  Y   Cov  X ,Y   K xy
 
и определяют как
K xy  x i  mx   y j  m y  Pij для дискретных x, y ,
i, j

K xy     x  m   y  m  f  x, y  dxdy

x y для непрерывных x, y.
57
Отсюда легко получить удобную для расчетов K xy формулу
K xy  11  10   01 или K xy  M  X  Y   M  X   M Y  .
Покажем, что для независимых случайных величин корреляционный
момент равен нулю. Действительно, если fx,y  f1x  f2y , то
 
K    x  m  f  x  dx   y  m  f  y  dy  m  m   m  m   0 .
xy x 1 y 2 x x y y
 

Таким образом, независимые случайные величины всегда не


коррелированны. Если корреляционный момент двух случайных величин
отличен от нуля, то это является признаком существования их зависимости.
Однако, из некоррелированности случайных величин не всегда следует их
независимость.
Величина корреляционного момента не совсем удобна для
количественной оценки тесноты связи, так как содержит информацию о
рассеянии самих случайных величин. Поэтому удобно ввести коэффициент
K
корреляции r    , который отражает только связь X и Y. Для
xy

x y

функциональной связи r  1 , а для стохастической r  1 . Если случайные


величины независимы, то r  0 .
Отметим, что коэффициент корреляции характеризует только линейную
зависимость случайных величин.

2.7. ТЕОРЕМЫ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ СИСТЕМЫ ДВУХ


СЛУЧАЙНЫХ ВЕЛИЧИН

Зная числовые характеристики отдельных случайных величин, можно


найти числовые характеристики композиций этих случайных величин.
Теорема 1. Математическое ожидание суммы случайных величин равно
сумме их математических ожиданий. M  X  Y   M  X   M Y  . Покажем на
примере непрерывных случайных величин:
   
M X Y     x  y  f  x, y  dxdy   xf1  x  dx   yf 2  y  dy  m x  m y .
   

Теорема 2. Дисперсия суммы двух случайных величин равна сумме их


дисперсий и удвоенного корреляционного момента этих величин:
D X  Y   D X   DY   2 K xy .
Докажем это. Обозначим Z  X  Y . Используя теорему 1, получим
m z  m x  m y . Центрируем случайные величины Z  m z  X  m x  Y  m y .
 0   0   0 0  0 
Тогда D X  Y   M  Z 2   M  X 2   2 M  X  Y   M Y 2   D X   DY   2 K xy .
       
Для независимых X и Y : D X  Y   D X   DY  .
58
Теорема 3. Математическое ожидание произведения двух случайных
величин равно сумме произведения их математических ожиданий и их
корреляционного момента. M  XY   M  X  M Y   K xy .
Действительно, 
K xy  M  X  Y   M  x  m x   y  m y   M  XY   m x m y .
 0 0

 
Отсюда M  XY   M  X  M Y   K xy .
Для независимых случайных величин M  X  Y   M  X   M Y  .
Теорема 4. Дисперсия произведения независимых центрированных
 0 0
случайных величин равна произведению их дисперсий: D  X  Y   D X   D Y  .
 

0 0
Действительно, для Z  X0  Y0 в силу теоремы 3 получаем m z  M  X   M Y   0 .
   

Тогда следует
 0 0  0 0
  0   0 
D  X  Y   M  X 2  Y 2   M  X 2    M Y 2   D X   DY  ,
       

что и требовалось доказать.


Пример 2.9. Случайные величины X и Y независимы. Найти
математическое ожидание M  Z  и дисперсию D Z  случайной величины
Z  5 X  8Y  4 , если M  X   1 , M [Y ]  2 , D X   4 , DY   1 .
 Для независимых случайных величин имеем:
M  X  Y   M  X   M Y  , M  X  Y   M  X   M Y 
D X  Y   D X   DY  , D[ X  Y ]  D[ X ]  D[Y ].

кроме того, M  c   c , D c   0 , D[cX ]  c 2 D[ X ] , где c  const . Тогда


M  Z   5M  X   8M  Y   4  5  16  4  17 ;
D  Z   25D X   64 DY   100  64  164 ;
  Z   D  Z   12,8 .

2.8. НОРМАЛЬНЫЙ ЗАКОН НА ПЛОСКОСТИ

Нормальный закон распределения двух случайный величин x и y имеет


вид
1   x  m  2
x  x  m x   y  m y   y  m y  2 
 2r 
f  x,y  
1
e
  
2 1 r 2  σ 2x σ xσ y σ 2y

 .
2
2πσ x σ y 1  r
Плотность распределения f  x , y полностью описывается 5
параметрами m x , m y ,  x ,  y и r. Видно, что при r  0 , случайные
величины становятся независимыми:
 x m x  2 
 y m y 2

1 1
f  x,y    f1  x   f 2  y  .
2 σ 2x 2 σ 2y
e  e
2π σ x 2π σ y
Используя интеграл Пуассона
59
 AC  B 2
π 
e e ,
 Au 2  2 Bu C
du  A


A
легко получить одномерные плотности распределений

 xm x  2
 y m y  2
2 σ 2x 
e и 1 ,
f1  x   f2  y  2 σ 2y
e
2π σ y
2π σ y
которые совпадают с определением нормального закона для одной случайной
величины. Можно так же получить корреляционный момент, он определится,
как K xy  r x y . После несложных, но громоздких преобразований можно
получить условные законы распределения нормально распределенной
системы зависимых случайных величин х и у. Например, для f ( y / x)
( y m y / x )2

f ( x, y ) 1 2 y / x
f ( y / x)   e

2  y / x ,
 f ( x, y )dy


где введены обозначения  y / x   y 1  r 2 , ( x / y   x 1  r 2 ) и


y x
my / x  my  r ( x  m x ), (m x / y  m x  r ( y  m y )) . Последние являются уравнениями
x y
линий регрессии (Рис. 2.19), показывающими изменение средней одной
случайной величины в зависимости от изменения
y
y
другой случайной величины. Здесь tg  r .С
x
увеличением числа опытов ( n   ) линии 
регрессии вырождаются в одну прямую. 0 x
Найдем вероятность попадания системы
независимых случайных величин  X ,Y  , Рис. 2.19
распределенных по нормальному закону, в некоторый

заданный прямоугольник R . Итак, r  0 и f  x , y   f1  x   f 2  y  ,


тогда
P  a  x  b, c  y  d    f1  x  dx  f 2  y  dy ,
b d

a c
откуда следует искомая вероятность
  b  mx   a  mx    d  m y   c  m y 
P  x, y   R   Ф   Ф   Ф   Ф 
        .
  x   x  
   y   y 
x2 y2
Найдем так же вероятность попадания  X ,Y  в эллипс R : 2  2  1
a b
. Пусть для простоты mx  my  0.
Выразим параметры эллипса через
среднеквадратичные отклонения: a  k x и b  k y , где k - коэффициент
пропорциональности. Сделаем замену переменных
60
x y
 u,  v ,
x  y

тогда
1  u 2 v 2  2 u  r cos  
P  x,y   R  
2π 
e dudv   
D  v  r sin  
2π k
1 k

  e e  1  e k 2 .
r 2 2 r 2 2 2
 d  rdr 
2π 0 0 0

Таким образом, искомая вероятность определяется


a b
P  x, y   R   1  e k 2 , где k     .
2

x y

R
При  x   y   (попадание в круг), k

.
Одномерная функция распределения определится, как

F  R   P   x,y   R   1  e  k 2  1  e  R
2 2 2σ 2

с плотностью распределения
R2
R  2
f  R   F  R   2 e 2σ ,
σ
представляющей собой закон Рэлея, который описывает движение любой
точки корабля во время волнения на море (закон корабельной качки).
Пример 2.10. Сделаны три выстрела в цель с разбросом снаряда

x  y 3
y
R
1 2
0 x
м. без систематической ошибки  m x  0 , m y  0 .
Цель представляет из себя фигуру, изображенную Рис. 2.20
на Рис.2.20, где   3,6 м, а R  1,5 м. Найти вероятность
хотя бы одного попадания, если ошибки попадания распределены по
нормальному закону.
 Прежде всего, найдем вероятность одного попадания в данную фигуру.
Саму фигуру удобно представить в виде суммы полукруга и прямоугольника.
Тогда вероятность P  P1  P2 , где
1
P1 
2
1
2
2

P r  1,5  1  e  R 2σ  0 ,05 ,
2

 3,6   1,5 1,5 
P2  Ф( )  Ф(0)  Ф( )  Ф(  )  Ф(1,2)  Ф(0,5)  0,15
 3   3 3 
61
Получаем P  0,2 и q  0,8 . Вероятность хотя бы одного попадания при трех
выстрелах P3   1  1  q 3  0 ,5 . 

2.9. ЗАКОН БОЛЬШИХ ЧИСЕЛ

Суть закона больших чисел заключается в следующем: при большом


числе случайных явлений средний их результат практически перестает быть
случайным и может быть предсказан с большой степенью точности.
Неравенство Чебышева (лемма). Пусть имеется случайная величина
X с характеристиками m x и D x . Каково бы ни было   0 , вероятность
того, что случайная величина X отклонится от своего математического
Dx
ожидания не меньше чем на  , ограничено сверху величиной ,
2
Dx
P x  mx     .
2
Для доказательства допустим, что
непрерывная случайная величина X 2
распределена по закону f  x  . Отсюда следует
m x 

P x  m x      f  x  dx .
m x 

Вероятность противоположного события


Рис. 2.21
P (/ x  m x /   )   f ( x ) dx
/ x  m x / 
. 0
Рассмотрим определение дисперсии и для / x  mx /   получаем
 

  x  m  f  x  dx   x  m f  x  dx 
2 2
Dx  x x
 

   mx 

2  f  x  dx   2

 m 
f  x  dx   f  x  dx    2
  f  x  dx.
 x   x  m x 

Dx Dx
Отсюда непосредственно следует:  f x  dx 
x  mx 
 2 или P x  mx      2 , что
и требовалось показать. Переходя к противоположному событию, получим
Dx
P x  m x     1  .
2
Неравенство Чебышева имеет большое теоретическое значение, так как
позволяет достаточно просто доказать целый ряд теорем закона больших
чисел. С другой стороны, неравенство Чебышева не имеет большого
практического приложения, поскольку точность оценок, сделанных на основе
его применения, невелика. Например, оценим вероятность отклонения
случайной величины, распределенной по нормальному закону, на 3 x от m x .
62
D
Неравенство Чебышева дает P x  m x  3   9 2  0,1 , тогда как на самом деле
x

P  x  m x  3 x   Ф 3  Ф 0   0,003 . Таким образом, неравенство Чебышева дает


только грубую оценку.
Пусть производится n независимых опытов в равных условиях. В
результате этих опытов случайная величина X принимает различные
значения x1 , x 2 , x3 ,  , x n . Предположим, что все x i распределены по одному
закону распределения M  xi   m x и D x i   D x , i  1, n . Введем новую
1n
случайную величину Y   x i и получим ее математическое ожидание и
n1
дисперсию:
1 n  1 n nm x
m y  M Y   M   x i    M  x i    mx ,
n 1  n 1 n
1 n  1 n nD D
D y  DY   D   x i   2  D x i   2 x  x .
n 1  n 1 n n
Видно, что при n   , D y  0 , то есть случайная величина Y уже не
является случайной. Чем больше будет опытов, тем точнее можно определить
значение Y, M Y   m x .
Теорема Чебышева. При достаточно большом числе независимых
опытов среднее арифметическое наблюдаемых значений случайной величины
сходится по вероятности к ее математическому ожиданию
n 
m x или P    x i n  m x     1   ,   0 ,   0 .
P
Y 
1 
Доказательство. Применим неравенство Чебышева:
 n  D

P Y  my     Dy
следует P    xi n  m x     x2   .
2  1  n
Каково бы не было число  , всегда найдется число n, которое дает
Dx
  1 , где значение Dx ограничено. Таким образом,
n 2
 n 
P    xi n  m x     1   , что и требовалось доказать.
 1 
Теорема Бернулли. При неограниченном увеличении числа
независимых опытов частота события A сходится по вероятности к его
вероятности P  A  P в отдельном опыте.
Используя неравенство Чебышева, получаем
Dx
P  P *  P  A     1   1 для n  .
 2n
63
Пример 2.11. Стрелок стреляет в мишень 3 раза, причем вероятность его
попадания в мишень при каждом выстреле равна 2 3 . Оценить вероятность
 n 
попадания в мишень от 185 до 215 раз  P*   xi n  .
 1 
 m p  2 3 ,   15 300  0,05 . Тогда D x  P  q  1 3  2 3  2 9
 300 2  2  300 2
и  i
P  x 300   0, 05 
  1   1  0,3  0,7 . 
 1 3  9  300  15 2

Пример 2.12. Прибор состоит из 20 независимо работающих блок-схем.


Вероятность отказа каждой блок-схемы за время t равна 0,05. С помощью
неравенства Чебышева оценить вероятность того, что отклонение числа
отказавших блок-схем от среднего числа отказов за время t окажется меньше
двух.
 Обозначим через X дискретную случайную величину - число отказавших
блок-схем за время t . Тогда
M  X   np  20  0 ,05  1 ,
D X   npq  20  0 ,05  0 ,95  0 ,95 .
Воспользуемся неравенством Чебышева:
D X 
P X  M  X      1 
 2n
Подставим M  X   1 , D X   0,95 ,   2 , n  20 , получим

P (/ x  1 /  2)  1 
0,95 или P  X  1  2   0,988
20  4 .
2.10. ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА

В законе больших чисел мы рассматривали предельные значения самих


случайных величин. Теперь рассмотрим предельные законы законов
распределения случайных величин. Основная идея продельной теоремы
состоит в том, что при суммировании достаточно большого числа случайных
величин распределение суммы случайных величин стремится к нормальному
закону. И чем больше членов в сумме, тем точнее она будет описываться
нормальным законом распределения. При этом не играет роли, как
распределены сами члены суммы. Перечислим требования, предъявляемые к
сумме случайных величин: во-первых, члены суммы должны быть одного
порядка малости (равномерно малыми) и, во-вторых, сумма должна состоять
из достаточно большого числа слагаемых  n  20 . Отметим, что центральная
предельная теорема на самом деле – это целый комплекс теорем для
различных условий опыта. Приведем самую простую из них.
64
Теорема. Если X1 , X 2 , X 3 ,  , X n – независимые случайные величины,
имеющие один и тот же закон распределения с математическим ожиданием
m и дисперсией  2 , то при неограниченном возрастании числа случайных
n
величин n, закон распределения их суммы Y   xi c m y  nm и D y  nD
1

 y 
 n неограниченно приближается к нормальному
 y m y 2

1 ,
f  y  e 2 2y
2  y
а вероятность того, что случайная величина Y попадет в интервал  ,  
будет приближенно равна
   my    my 
P   Y     Ф   Ф
   y ,

  y   
где m y  nm
и  y  n .
Отметим, что частным случаем центральной предельной теоремы
является нелокальная (интегральная) теорема Муавра-Лапласа при: m y  np ,
D y  npq ,  y  npq , Pn ( m )  C nm p m q nm , m  0 , 1, ..., n .

Вероятность попадания Y в интервал  ,   в этом случае есть:


   nр   
P    Y     Ф   Ф   nр 
  nрр 
 nрр   .

Пример 2.13. В процессе производства 60% изделий получаются высшего


сорта. Наудачу отбирают 200 изделий. Найти вероятность, что среди
отобранных изделий от 120 до 150 являются изделиями высшего сорта.
 P  0,6 , q  0,4 , m y  np  120 , D y  npq  48 ,  y  7
 150  120   120  120 
P 120  Y  150  Ф   Ф   Ф 4 ,3  0 ,5 . 
 7   7 
Пример 2.14. Складываются 24 независимых случайных величины,
равномерно распределенных в интервале  0, 1 . Написать
приближенное выражение плотности распределения 1
суммы этих случайных величин. Найти так же
вероятность того, что сумма будет заключена в пределах 0 1 x
от 6 до 8.
24
1, 0  x  1
Y x
1
i , где f  x   
0, x  0, x  1
6 12 y
0 1 1 1
mx   , Dx  , m y  nP  12 , D y  nDx  2 . Рис. 2.22
2 2 12
65
Используем центральную предельную теорему  n  20 :

1   y 412 
2

f  y  e
4 . Вероятность того, что 6<Y<8 определяется

следующим образом

 8  12   6  12 
P  6  Y  8   Ф   Ф   Ф 2,8  Ф 4,2  0,005 . 
 2   2 