Вы находитесь на странице: 1из 522

1 Построение вариационных рядов и вычисление статистических

характеристик

1.1 Вариационные ряды

Установление закономерностей, которым подчиняются массовые


случайные явления, основано на изучении статистических данных – сведений
о том, какие значения принял в результате наблюдений интересующий
исследователя признак. Изучение статистических данных начнем с их
группировки.
Пример 1. Исследователь, интересующийся тарифным разрядом
медицинского персонала больницы, в результате наблюдений за 100
медицинским персоналом получил следующие данные: 5, 1, 4, 5, 4, 3, 5, 5, 2, 5,
5, 6, 4, 3, 1, 5, 2, 5, 5, 5, 3, 3, 3, 6, 6, 5, 6, 5, 3, 4, 5, 4, 6, 6, 5, 2, 1, 5, 4, 5, 5, 3, 6, 4,
5, 5, 4, 3, 5, 5, 5, 4, 5, 6, 1, 5, 2, 6, 4, 4, 3, 5, 6, 3, 5, 6, 2, 5, 4, 5, 5, 4, 6, 5, 2, 5, 3, 4,
5, 6, 5, 5, 3, 5, 4, 6, 6, 5, 5, 4, 5, 5, 6, 5, 6, 5, 5,6, 5, 5. В рассматриваемом примере
признаком является тарифный разряд медицинского персонала больницы.
Очевидно, что все возможные значения этого признака могут быть
пронумерованы, так как признак (тарифный разряд) принимает только
изолированные значения, отличающиеся друг от друга на некоторую
конечную величину. В дальнейшем такие признаки условимся называть
дискретными.
Для изучения результатов наблюдений прежде всего необходимо их
сгруппировать. Расположим наблюдавшиеся значения признака в порядке их
возрастания. Эта операция называется ранжированием данных наблюдений.
В результате получим следующий ряд, который называется ранжированным:
1,1,1,1 2,2,2,2,2,2 3,3, . . . . . .3 4,4,. . . . . 4
4 раза 6 раз 12 раз 16 раз
5,5,. . . . . . . 5 6,6, . . . . . . . 6
44 раза 18 раз

Из ранжированного ряда следует, что признак (тарифный разряд) принял 6


различных значении: первый, второй и т. д. до шестого разряда.
В дальнейшем различные наблюдавшиеся значения признака условимся
называть вариантами и обозначать через х, а под варьированием понимать
изменение значений признака у наблюдаемых элементов.
В рассматриваемом примере вариант 1 повторился 4 раза, вариант 2 – 6
раз, вариант 3 – 12 раз, вариант 4 – 16 раз и т. д. Число, показывающее сколько
раз встречается вариант в ряде наблюдении, называется частотой варианта
m x  . Ранжированный ряд представим в виде таблице 1.1.

Таблица 1.1- Ранжированный ряд


Тарифный разряд (x) Количество Накопленная частота
медицинского m  нак
x
персонала m x 
1 4 4
2 6 10
3 12 22
4 16 38
5 44 82
6 18 100
Σ 100
В этой таблице можно было бы поместить не частоту варианта, а долю
ее в сумме всех частот  x  , которая равна отношению частоты m x  к общему
числу наблюдений (n), т. е.  x  m x / n . Такая величина называется
частостью. Поставим каждому варианту в соответствие его частость. В
результате получим следующую таблицу 1.2.

Таблица 1.2 – Тарифный разряд


Тарифный разряд (x) Доля медицинского Накопленная частость
персонала  x   
нак
x

1 0,04 0,04
2 0,06 0,10
3 0,12 0,22
4 0,16 0,38
5 0,44 0,82
6 0,18 1,00
Σ 1,00

Таблица, позволяющая судить о распределении частот (или частостей)


между вариантами, называется дискретным вариационным рядом.
В примере 1 была поставлена задача изучить результаты наблюдений.
Если просмотр первичных данных не позволил составить представление о
варьировании значений признака, то, рассматривая вариационный ряд, можно
сделать следующие выводы: тарифный разряд колеблется от 1 до 6; наиболее
часто встречается 5-й тарифный разряд; с ростом тарифного разряда (до 5-гo
разряда) растет число медицинского персонала, имеющих соответствующий
разряд.
Наряду с понятием частоты используется понятие накопленной
частоты, которую условимся обозначать через m нак
x  
. Накопленная частота
показывает, сколько наблюдалось элементов со значением признака, меньшим
или равным х. Отношение накопленной частоты к общему числу наблюдений
называется накопленной частостью и обозначается через нак
x  
. Очевидно, что

нак нак
x  mx / n .

В дискретном вариационном ряду накопленные частоты (частости)


вычисляются для каждого варианта и являются результатом
последовательного суммирования частот (частостей), начиная с частоты
(частости) первого варианта. Например, в таблице 1.1 варианту 1
соответствует накопленная частота 4, так как наблюдалось 4 человека
медицинского персонала с тарифным разрядом, равным 1; варианту 2
соответствует накопленная частота 10, так как наблюдалось (4+6) человек
медицинского персонгала с тарифным разрядом, меньшим или равным 2 и т.
д. В таблице 1.2 для каждого варианта вычислены накопленные частости.
Пример 2. Пусть исследователь, изучающий величину выработки на
одного человека медицинского персонала больницы в отчетном году в
процентах к предыдущему году, получил следующие данные (в целых
процентах) по 117 людям: 111, 85, 85,91, 101, 109,86, 102, 111, 98, 105, 85, 112,
98, 112, 113, 87, 109, 109, 115,99, 105, 111, 94, 107, 99, 107, 125, 89, 104, 113,
96, 103, 145, 104, 105, 88, 103, 97, 115, 109, 89, 108, 107, 97, I.06, 107, 96, 109,
116, 109, 117, 108, 109, 139, 116, 117, 103, 127, 119, 118, 125, 105 116. 117. 106,
101, 113, 107, 105, 119, 107, 119, 111, 112: 129, 113, 106, 104, 106, 98, 123, 108,
93, 105. 106. 139, 108, 109, 93, 107, 117, 107, 118, 99, 108, 108, 119, 98, 108, 101,
109, 109. 128, 128, 127, 121, 118, 122. 116, 124, 125, 114. 126, 131, 141, 143.
В этом примере признаком является выработка в отчетном году в
процентах к предыдущему. Очевидно, что значения, принимаемые этим
признаком, могут отличаться одно от другого на сколь угодно малую
величину, т. е. признак может принять любое значение в некотором числовом
интервале (только для упрощения дальнейших расчетов полученные данные
округлены до целых процентов). Условимся называть такие признаки
непрерывными. По приведенным данным трудно выявить характерные черты
варьирования значении признака. Построение дискретного вариационного
ряда также не даст желаемых результатов (слишком велико число вариантов).
Для получения ясной картины объединим в группы рабочих, у которых
величина выработки колеблется, например, в пределах -10%.
Сгруппированные данные представим в таблице 1.3.
В таблице 1.3 частоты показывают, сколько наблюдалось элементов со
значением признака, принадлежащим тому или иному интервалу. Такую
частоту иногда называют интервальной. Накопленные частоты вычислены для
верхних границ интервалов и являются результатами последовательного
суммирования интервальных частот, начиная с частоты первого интервала.
Таблица, позволяющая судить о распределении частот (или частостей)
между интервалами варьирования значений признака, называется
интервальным вариационным рядом.
Интервальный вариационный ряд, представленный в таблице 1.3,
позволяет выявить закономерности распределения медицинского персонала
по интервалам выработки.
Интервальный вариационный ряд строят по данным наблюдений за
непрерывным признаком, а также за дискретным, если велико число
наблюдавшихся вариантов. Дискретный вариационный ряд строят только для
дискретного признака.
Иногда интервальный вариационный ряд условно заменяют
дискретным. Тогда серединное значение интервала принимают за вариант x, а
соответствующую интервальную частоту – за m x .
Таблица 1.3- Интервальный вариационный ряд
Выработка в отчётном Количес Доля Накопленная Накопленная
году в процентах к тво медицинск частота частость
предыдущему людей ого m нак   
нак
(интервалы) медицин персонала
ского (ω)
персона
ла (m)
80 – 90 8 8/117 8 8/117
90 – 100 15 15/117 23 23/117
100 – 110 45 45/117 69 69/117
110 – 120 29 29/117 98 98/117
120 – 130 13 13/117 111 111/117
130 – 140 3 3/117 114 114/117
140 – 150 3 3/117 117 117/117
Σ 117 1

1.2 Построение интервального вариационного ряда

Для построения интервального вариационного ряда необходимо


определить величину интервала, установить полную шкалу интервалов, в
соответствии с ней сгруппировать результаты наблюдений. В примере 2 при
выборе величины интервала учитывались требования наибольшего удобства
отсчетов. Величина интервала была принята равной 10% и оказалась удачной:
построенный интервальный ряд позволил выявить закономерности
варьирования значений признака. Для определения оптимальной величины
интервала (h), т. е. такой, при которой построенный интервальный ряд не был
бы слишком громоздким и, в то же время, позволял выявить характерные
черты рассматриваемого явления, можно использовать формулу Стэрджеса:

h  ( x max  x min ) /(1  3,322 lg n ) (1.1)


где x max и x min – соответственно максимальная и минимальная варианты. Если
h оказывается дробным числом, то за величину интервала следует взять либо
ближайшее целое число, либо ближайшую несложную дробь.
За начало первого интервала рекомендуется принимать величину,
равную ( x min  h / 2) . Тогда, если a i – начало i-гo интервала, то a 1  x min  h / 2 ;
a 2  a 1  h ; a 3  a 2  h и т. д. Построение интервалов продолжают до тех пор,
пока начало следующего по порядку интервала не будет равным или большим
x max .
После установления-шкалы интервалов следует приступать к
группировке результатов наблюдений. Границы последовательных
интервалов записывают в столбец слева, а затем, просматривая статистические
данные в том порядке, в каком они были получены, проставляют черточки
справа от соответствующего интервала. В интервал включаются варианты
большие, чем нижняя граница интервала и меньшие или равные верхней
границе интервала. Целесообразно каждое пятое и шестое наблюдения
отмечать диагональными черточками, пересекающими квадрат из четырех
предшествующих. Общее количество черточек, приставленных против
какого-либо интервала, определяет его частоту.
Пример 3. Построить интервальный вариационный ряд 110 следующим
результатам измерения диаметра (в мм) шейки матки после родов: 6,75; 6,77;
6,77; 6,73; 6,76; 6,74; 6,70; 6,75; 6,71; 6,72; 6,77; 6,79; 6,71; 6,78; 6,73; 6,70; 6,73;
6,77; '6,75; 6,74; 6,71; 6,70; 6,78; 6,76; 6,81; 6,69; 6,80; 6,80; 6..77; 6,68; 6,74;
6,70; 6,70; 6,74; 6,77; 6,83; 6,76; 6,76; 6,82; 6,77; 6,71; 6,74; 6,77; 6,75; 6,74; 6,75;
6,77; 6,72; 6,74; 6,80; 6,75; 6,80; 6,72; 6,78; 6,70; 6,75; 6,78; 6,78; 6,76; 6,77; 6,74;
6,74; 6,77; 6,73; 6,74; 6,77; 6,74; 6,75; 6,74; 6,76; 6,76; 6,74; 6,74; 6,74; 6,74; 6,76;
6,74; 6,72; 6,80; 6,76; 6,78; 6,73; 6,70; 6,76; 6,76; 6,77; 6,75; 6,78; 6,72; 6,76; 6,78;
6,68; 6,75; 6,73; '6,82; 6,73; 6,80; 6,81; 6,71; 6,82; 6,77; 6,80; 6,80; 6.70; 6,70;
6,82,6,72; 6,69; 6.73; 6,76; 6,74; 6,77; 6,72; 6,76; 6,78; 6,78; 6,73; 6,76; 6,80; 6,716;
6,72; '6,76; 6,76; 8,70; 6,73; 6,75; 6,77; 6,77; 6,70; 6,81; 6,74; 6.73; 6,77; 6,74; 6,78;
6,69; 6,74; 6:71; 6,716; 6,76; 6,77; 6,70; 6,81; 6.74; 6,74; 6,77; 6,75; 6,80; 6,74;
6,76; 6,77; 6,77; 6,81; 6,75; 6,78; 6,73; 6,76; 6,76; 6,76; 6,77; 6,7'6; 6,80; 6,77; 6,74
;6,77; 6,72; 6,75; 6,76; 6,77; 6,81; 6,76; 6,76; 6,76; 6,80; 6,74; 6,80; 6,74; 6,73; 6,75;
6,77; 6,74; 6,76; 6.77; 6,77; 6,75; 6,76; 6,74; 6,82; '6,76; 6,73; 6,74; 6,75; 6,76; 6,72;
6,78; 6,72; 6,76;6,77; 6,75; 6,78.
Решение. Величину интервала определим по формуле (1.1):

h  (6,83  6,68) /(1  3,322 lg 200)  0,15 / 8,64  0,02.

За начало первого интервала принимаем величину, равную


a 1  6,68  0,01  6,67. Тогда a 2  6,67  0,02  6,69; a 3  6,71 и т. д. Шкала
интервалов и группировка результатов наблюдений приведены в таблице 1.4.

Таблица 1.4- Шкала интервалов и группировка результатов


наблюдений
Диаметр Подсчет частот Частоты
шейки (m x )
плунжера
после
шлифовки
(интервалы)
6, 67 – 6,69 5
6,69 – 6,71 17

6,71 – 6,73 24

6,73 – 6,75 54

6,75 – 6,77 52
6,77 – 6,79 23
6,79 – 6,81 18

6,81 – 6,83 7

1.3 Графическое изображение вариационных рядов

Графическое изображение вариационного ряда позволяет представить в


наглядной форме – закономерности варьирования значений признака.
Наиболее широко используются следующие виды графического изображения
вариационных рядов: полигон, гистограмма, кумулятивная кривая и огива.
Полигон, как правило, служит для изображения дискретного
вариационного ряда. Для его построения в прямоугольной системе координат
наносят точки с координатами ( x; m x ) , где х – вариант, а mx –
соответствующая ему частота. Иногда вместо точек ( x; m x ) строят точки
( x;  x ) . Затем эти точки соединяют последовательно отрезками. Крайние
левую и правую точки соединяют соответственно с точками, изображающими
варианты, ближайший снизу к наименьшему и ближайший сверху к
наибольшему. Полученная ломаная линия называется полигоном.
Пример 4. Построить полигон распределения по данным, приведенным
в таблице 1.2.
Решение. Смотрите рисунок 1 (cчитать 5  0,44, 6  0,18 )
Гистограмма служит для изображения только интервального
вариационного ряда. Для ее построения в прямоугольной системе координат
по оси абсцисс откладывают отрезки, изображающие интервалы
варьирования, и на этих отрезках, как на основании, строят прямоугольники с
высотами, равными частотами (или частотям) соответствующего интервала. В
результате получается ступенчатая фигура, состоящая из прямоугольников,
которая и называется гистограммой.
Если по оси абсцисс выбрать такой масштаб, чтобы ширина интервала
была равна единице, а по оси ординат считать, что единица масштаба
соответствует по одному

vx

0,44

0,18
0,16
0,12
0,04
6 1 2 3 4 5 6
x

Рисунок 1-Полигон

наблюдению, то очевидно, что площадь гистограммы равна общему числу


наблюдений, если по оси ординат откладывались частоты, и равна единице,
если откладывались частости.
Пример 5. Построить гистограмму распределения по данным,
приведенным в таблице 1.3.
Решение. Смотрите рисунок 2 (считать x=75, а не x=80).
Иногда интервальный ряд изображают с помощью полигона. В этом
случае интервалы заменяют их серединными
mx
46
23

15
13
2
3
60 90 100 110 120 130140 150
x

Рисунок 2- Полигон

значениями и к ним относят интервальные частоты. Для полученного


дискретного ряда строят полигон.
Пример 6. Построить полигон распределения по данным, приведенным
в таблице 1.3.
Решение. Смотрите рисунок 2. Полигон изображен на этом рисунке
пунктирной ломаной линией.
Кумулятивная кривая (кривая накопленных частот или накопленных
частостей) строится следующим образом. Если вариационный ряд
дискретный, то в прямоугольной системе координат строят точки с
координатами ( x; m нак нак
x ) , где x – вариант, m x – соответствующая ему

накопленная частота. Иногда вместо точек ( x; m нак нак


x ) строят точки ( x;  x ) .

Полученные точки соединяют отрезками.


Если вариационный ряд интервальный, то по оси абсцисс откладывают
интервалы. Верхним границам интервалов соответствуют накопленные
частоты (или накопленные частости); нижней границе первого интервала –
накопленная частота, равная нулю. Построив кумулятивную кривую, можно
приблизительно установить число элементов совокупности (или их долю),
значение признака для которых меньше или равно данному числу. При
перемене осей кумулятивная кривая называется огивой.
Пример 7. Построить кумулятивную кривую по данным, приведенным
в таблице 1.2.
Решение. Смотрите рисунок 3. Кумулятивная кривая изображена на
этом рисунке сплошной линией.
Пример 8. Построить кумулятивную кривую по данным, приведенным
в таблице 1.3.
Решение. Смотрите рисунок 4. Кумулятивная кривая изображена на
этом рисунке сплошной линией.
Огибы на рисунке 3 и 4 изображены пунктирными линиями.
Построение вариационного ряда – первый шаг к осмысливанию ряда
наблюдений. Однако, на практике этого недостаточно, в особенности, когда
необходимо сравнить два или более ряда. Сравнению подлежат только так
называемые однотипные вариационные ряды, т. е. ряды, которые построены
по результатам обработки сходных статистических данных. Например, можно
сравнивать распределения рабочих по возрасту на двух заводах,
распределения времени простоев станков одного вида. Однотипные
вариационные ряды обычно имеют сходную форму при графическом
изображении, однако, достаточно часто они отличаются друг от друга, а
именно:
имеют различные значения признака, вокруг которых концентрируются
наблюдения (меры этой качественной особенности называются средними
величинами) различаются рассеянием наблюдений вокруг средних величин
(меры этой особенности получили название показателей вариации).
x

117
96

69

23
8
80 90 100 110 120 130 140 150 x

Рисунок 3- Кумулятивная кривая

x

1,00
0,38

0,22

0,06
1 2 3 4 5 6 x

Рисунок 4- Кумулятивная кривая

Средние величины и показатели вариации позволяют судить о


характерных особенностях вариационного ряда и называются
статистическими характеристиками. К статистическим характеристикам
относятся также показатели, характеризующие различия в скошенности
полигонов и различия в их островершинности.
1.4 Средние величины

Средние величины являются как бы представителями всего ряда


наблюдений, так как вокруг них концентрируются наблюдавшиеся значения
признака. Заметим, что только для качественно однородных наблюдений
имеет смысл вычислять средние величины.
Средние величины имеют ту же размерность, что и признак в
математической статистике различают несколько видов средних величин:
средняя арифметическая, средняя геометрическая, средняя гармоническая,
средняя квадратическая, средняя кубическая и т. д. При выборе вида средней
величины необходимо прежде всего ответить на вопрос, какое свойство ряда
мы хотим представить средней величиной или, иначе говоря, какая цель
преследуется при вычислении средней? Это свойство, получившее название
определяющее, и определяет вид средней. Понятие определяющего свойства
впервые введено советским статистиком А. Я. Боярским.
Наиболее распространенной является средняя арифметическая. Пусть
x1 , x 2 ,...x n – данные наблюдений; x – средняя арифметическая. Свойство,
определяющее среднюю арифметическую, формулируется следующим
образом: сумма наблюдений должна остаться неизменной, если каждое из
них заменить средней арифметической, т. е.

n n
 xi   x (1.2)
i 1 i 1

n
Так как x =const , то  x i  n x . Отсюда получаем следующую формулу
i 1

для вычисления средней арифметической по данным наблюдений:


 n 
x    x i  n (1.3)
 i1 

Если по наблюдениям построен вариационный ряд, то средняя


арифметическая вычисляется так:

 
x    xm x   mx (1.4)
m  x

где x – вариант, если ряд дискретный, и центр интервала, если ряд


интервальный; m x – соответствующая частота.
Частоты m x в формуле (1.4) называются весами, а операция умножения
x на m x – операцией взвешивания. Среднюю арифметическую, вычисленную
по формуле (1.4), называют взвешенной, в отличии от средней ариф-
метической, вычисленной по формуле (1.3).
Очевидно, что если по данным наблюдений построен дискретный
вариационный ряд, то формулы (1.3) и (1.4) дают одинаковые значения
средней арифметической. Если же по наблюдениям построен интервальный
ряд, то средние арифметические, вычисленные по формулам (1.3) и (1.4),
могут не совпадать, так как в формуле (1.4) значения признак а внутри каждого
интервала принимаются равными центрам интервалов. Ошибка возникающая
в результате такой замены, вообще говоря, очень мала, если наблюдения
распределены равномерно вдоль каждого интервала, а не скапливаются к
одноименным границам интервалов (т. е. либо все к нижним границам, либо
вес к верхним границам). Среднюю арифметическую для вариационного ряда
можно вычислять но формуле
x   xx (1.5)
x

которая является следствием формулы (1.4). Действительно,

 xm x mx
x x  x   xx
 x x  x x
m m
x x

Пример 9. По данным, приведенным в таблице 1.3, вычислить среднюю


выработку на одного человека медицинского персонала в отчетном году в
процентах к предыдущему.
Решение. Очевидно, что зная среднюю выработку на одного человека
медицинского персонала и численность медицинского персонала, можно
определить выработку всех людей. Но это есть не что иное, как свойство (1.2),
определяющее среднюю арифметическую. Следовательно, средняя выработка
есть средняя арифметическая. Вычислим ее по формуле (1.4):

85  8  95  15  105  46  115  29  125  13  135  3  145  3


x  108,8(%)
8  15  46  29  13  3  3

Итак, средняя выработка на одного человека медицинского персонала равна


108,8%.
Заметим; что при вычислении средней выработки операция взвешивания
представляет собой умножение выработки на число рабочих, что приводит к
осмысленному результату: получаем общую выработку рабочих. В
дальнейшем, какая бы средняя ни вычислялась, необходимо помнить, что
операция взвешивания должна иметь конкретный смысл.
Пример 10. Вычислить средний тарифный разряд медицинского
персонала по данным. приведенным в таблице 1.2. При решении
воспользоваться формулой (1.5).
Решение. Средний тарифный разряд

x  1  0,04  2  0,06  3  0,12  4  0,16  5  0,44  6  0,18  4

Свойство, определяющее среднюю арифметическую, сводилось к


требованию неизменности суммы наблюдений при замене каждого из них
средней арифметической. При решении практических задач может оказаться
необходимым вычислить такую среднюю x q , при замене которой каждого

наблюдения, осталась бы неизменной сумма q-x степеней наблюдений, т. е.


чтобы

n n
 x iq   (x q )q (1.6)
i 1 i 1

где q –положительное или отрицательное число. Средняя x q называется

степенной средней q-го порядка. Из определяющего свойства (1.6) получим


следующую формулу для вычисления x q по данным наблюдений

 n q
x q    x i  n
q (1.7)
 i1 

Если по наблюдениям построен вариационный ряд, то степенная


средняя q-го порядка называется взвешенной и вычисляется по формуле
 
x q  q   x q m x   mx (1.8)
 x  x

Сравнивая формулы (1.8) и (1.4), можно сделать вывод о том, что


степенная средняя первого порядка есть не что иное, как средняя
арифметическая, т. е. x1  x .
Степенная средняя минус первого порядка x 1 называется средней
гармонической. Взвешенная средняя гармоническая

 x 1m x 1
x 1  1 x  (1.9)
 mx  
  (1 / x )m x   mx
x
 x  x

Степенная средняя второго порядка называется cpeдней


квадратической. Взвешенная средняя квадратическая

 
x 2    x 2 m x   mx (1.10)
 x  x

Степенная средняя третьего порядка называется средней кубической.


Взвешенная средняя кубическая

 
x 3  3   x 3 m x   mx (1.11)
 x  x

и т. д.
Пример 11. Наблюдения показали, что каждая из 10 медицинских сестер
затрачивает на ухаживание за больным 0,11 ч., индивидуальные же затраты
времени на ухаживание за теми же больными у 15 медицинских сестер
составляют 0,1 ч. Вычислить среднее время, необходимое на ухаживание за
одним больными, при котором за час всеми медицинскими сестрами могли бы
поухаживать за тем же количеством больных.
Решение. Здесь наблюдаемый признак – время, необходимое на
ухаживание за больным. Признак принял два различных значения x1  0,11 и
x 2  0,1 ; соответствующие частоты m x1  10 и m x 2  15 .

По условию среднее время t должно быть таким, чтобы при замене им


индивидуальных затрат времени осталось неизменным количество больных,
ухоженными медицинскими сестрами за час, т. е.

(1 / x1 )  m x1  (1/ x 2 )  m x 2  (1 / t )(m x1  m x 2 )

Отсюда получаем, что среднее время t есть не что иное, как средняя
гармоническая взвешенная:

m x1  m x 2 10  15 11
t   ( ч)
(1 / x1 )m x1  (1 / x 2 )m x 2 (1 / 0,11)  10  (1 / 0,1)  15 106

Заметим, что в рассматриваемом примере при вычислении средней


гармонической операция взвешивания имеет конкретное содержание:
произведение (1 / x )  m x есть количество деталей, произведенное в течение
часа m x рабочими.
Неправомерность использования средней арифметической
x 1m x1  x 2 m x 2
x  0,104(ч)
m x1  m x 2

В качестве среднего времени подтверждают следующие расчеты: если


считать, что t =0,104 ч, то медицинская сестра в течение часа должна была
5
поухаживать за (1/ 0,104)(10  15)  240 больными, а в действительности они
13
10
ухаживают за (1/ 0,11)  10  (1/ 0,1)  15  240 больными.
11
Пример 12. Скорая движется со скоростью 1  20км / ч и  2  30км / ч
соответственно в течение t 1  6ч и t 2  1ч , затрачивая в час количество

горючего пропорционален квадрату скорости. Найти среднюю скорость  ,


двигаясь с которой скорая затратит на свой пробег то же самое количество
горючего.
Решение. Средняя скорость  определяется из условия

c12 t1  c 22 t 2  c() 2 ( t1  t 2 )

где с – коэффициент пропорциональности. Получаем, что средняя скорость 


есть не что иное, как средняя квадратическая взвешенная, причем весом
является время:

12 t1   22 t 2 20 2  6  30 2  1
   21,7(км / ч)
t1  t 2 6 1

Средней геометрической x геом называется корень n-й степени из


произведения наблюдений x1 , x 2 ,...x n :
n
x геом  n  xi (1.12)
i 1

где  –знак произведения.

Если по наблюдениям построен вариационный ряд, то средняя


геометрическая вычисляется по формуле
Из формулы (1.12) видно, что среднюю геометрическую следует
применять в тех случаях, кода при замене каждого наблюдения необходимо
сохранить неизменным произведение наблюдений.
Пример 13. За 5 лет завод выпустил следующее количество
медицинской продукции (в тыс. т.): a 1  6 , a 2  7 , a 3  9 , a 4  10 , a 5  13 .
Определить среднегодовой темп роста выпуска медицинской продукции.
Решение. Темп роста выпуска за (i+1)-й год равен a i1 / a i . Тогда
ежегодные темпы роста составляют a 2 / a 1  7 / 6 ; a 3 / a 2  9 / 7 ; a 4 / a 3  10 / 9 ;
a 5 / a 4  13 / 10 ; произведение же из равно темпу роста выпуска продукции за 5
4
лет  (a i1 / a i )  a 5 / a1  13 / 6 . Следовательно, и среднегодовой темп роста T
i 1

должен быть таким, чтобы темп роста за 5 лет остался неизменным, если
каждый ежегодный темп заменить среднегодовым, т.е. T определится из
условия

 (a i1 / a i )  (T) 4
i 1

Отсюда получаем, что среднегодовой темп роста T есть не что иное, как
средняя геометрическая из ежегодных темпов:
4
T4  (a i1 / a i )  4 7 / 6  9 / 7  10 / 9  13 /10  1,21
i 1

Можно доказать, что средняя геометрическая является предельным

случаем степенной средней q-гo порядка при q=0, т.е. x геом  q lim 0 x q
Поэтому среднюю геометрическую условно называют степенной средней
нулевого порядка: x геом  x 0 .
Если для вариационного ряда вычислить степенные средние различных
порядков, то окажется, что с ростом порядка увеличивается числовое значение
степенной средней, т. е. x 2  x 1  x 0  x1  x 2 . Это свойство называется
мажорантностью степенных средних. Советский статистик Б. С. Ястремский
показал, что если

 (x  x) 2 m x  qV 2 
V x
мало (<0,3), то x q  x 0 1  
n(x) 2  2 

и с уменьшением коэффициента V уменьшается различие в степенных


средних.
Для определения степенной средней q-гo порядка при q≠0 требуется
вычислить среднюю арифметическую из q-x степеней наблюдений. В связи с
этим рассмотрим свойства средней арифметической, позволяющие глубже
понять ее смысл и упростить вычисление.

1.5 Свойства средней арифметической

Свойство 1. Сумма произведений отклонений вариантов от средней


арифметической на соответствующие частоты равна нулю:
 ( x  x )m x  0
x

Доказательство. Исходя из формулы средней арифметической (1.4),


получим:

0   xm x   xm x   ( xm x  xm x )   ( x  x )m x ,
x x x x

что и требовалось доказать.


Свойство 2. Средняя арифметическая постоянной величины равна этой
постоянной. Доказательство очевидно.
Свойство 3. Если все варианты уменьшить (увеличить) на одно и то же
число, то средняя арифметическая уменьшится (увеличится) на то же число.
Доказательство. Очевидно, что при уменьшении вариантов на одно и то
же число c, соответствующие им частоты останутся прежними. Поэтому
средняя арифметическая для изменённого вариационного ряда такова

 (x  c)m x  xm x   cm x  xm x  cm x
xc x  x x
 x  x  x  c,
 x
m  xm  x  x
m m
x x x x

что и требовалось доказать. Аналогично можно доказать, что x  c  x  c . Это


свойство позволяет среднюю арифметическую вычислять не по данным
вариантам, а по уменьшенным (увеличенным) на одно и то же число с. Если
среднюю арифметическую, вычисленную для измененного ряда, увеличить
(уменьшить) на число c, то получим среднюю арифметическую Для
первоначального вариационного ряда.
Свойство 4. Если все варианты уменьшить (увеличить) в одно и то же
число раз, то средняя арифметическая уменьшится (увеличится) во столько
же раз.
Доказательство. Очевидно, что при уменьшении вариантов в k раз из
частоты останутся прежними. Поэтому средняя арифметическая для
измененного ряда

x
 (x / k)m x 1  xm x x
  x
 x  ,
k  x m k  x k
m
x x

что и требовалось доказать. Аналогично можно доказать, что ( xk )  x  k .


Рассмотренное свойство позволяет среднюю арифметическую вычислять не
по данным вариантам, а по уменьшенным (увеличенным) в одно и то же k раз
число. Если среднюю арифметическую, вычисленную для измененного ряда,
увеличить (уменьшить) в k раз, то получим среднюю арифметическую для
первоначального вариационного ряда.
Свойство 5. Если ряд наблюдений состоит из двух групп наблюдений, то
средняя арифметическая всего ряда равна взвешенной средней
арифметической групповых средних, причем весами являются объемы групп.
Пусть n1 и n 2 – число наблюдений соответственно в l-й и 2-й rруппах;

x – средняя арифметическая для всего ряда ( n1 + n 2 ) наблюдений; x 1 и x 2 –


средние арифметические соответственно для l-й и 2-й группы наблюдений.
Требуется доказать, что x  ( x1n1  x 2 n 2 ) /(n1  n 2 ).
Доказательство. Исходя из определяющего свойства средней
арифметической (1.2) имеем: произведение ( n1  n 2 ) x равно сумме ( n1  n 2 )

наблюдавшихся значений признака; n1 x1 равно сумме n1 , наблюдавшихся


значений, образующих первую группу; n 2 x 2 равно сумме n 2 наблюдавшихся
значений, образующих вторую группу. Следовательно,

( n1  n 2 ) x = n 1 x 1 + n 2 x 2 ,

что и требовалось доказать.


Следствие. Если ряд наблюдений состоит из k групп наблюдений, то
средняя арифметическая всего ряда ( x ) равна взвешенной средней
арифметической групповых средних ( x i ), причем весами являются объемы
групп ( n i ):

x n  x 2 n 2  ...  x k n k
 xini
i 1
x 1 1  .
n1  n 2  ...  n k k
 ni
i 1

Свойство 6. Средняя арифметическая для сумм (разностей) взаимно


соответствующих значений признака двух рядов наблюдений с одинаковым
числом наблюдений равна сумме (разности) средних арифметических этих
рядов.
Пусть x1 , x 2 ,...x n – один ряд наблюдений, x– его средняя

арифметическая; y1 , y 2 ,...y n – другой ряд наблюдений, y – его средняя


арифметическая; x1  y1 , x 2  y 2 ,...x n  y n – ряд сумм соответствующих

наблюдений, x  y – его средняя арифметическая. Требуется доказать, что

x  y  x  y.
Доказательство. Имеем
n n n
 (x i  yi )  x i  yi
i 1 i 1 i 1
xy    x  y,
n n n

что и требовалось доказать.


Аналогично можно доказать, что x  y  x  y .
Следствие. Средняя арифметическая алгебраической суммы
соответствующих значений признака нескольких рядов наблюдений с
одинаковым числом наблюдений равна алгебраической сумме средних
арифметических этих рядов.
Как иллюстрацию этого свойства этого свойства рассмотрим
следующий случай. Каждое измерение является суммой истинного размера и
ошибки измерения. Следовательно, средняя арифметическая измерений есть
сумма средней арифметической истинного размера (в силу свойства 2, она
совпадает с истинным размером) и средней арифметической ошибок
измерения.
Следовательно, средняя измерений равна истинному размеру, тогда и
только тогда, когда сумма ошибок измерений равна нулю.

1.6 Упрощенный способ вычисления средней арифметической

Вычисление средней арифметической вариационного ряда


непосредственно по формуле (1.4) приводит к громоздким расчетам, если
численные значения вариантов и соответствующие им частоты велики.
Упрощенный способ вычисления средней арифметической предполагает
вычисление средней арифметической не по первоначальным вариантам х, а по
уменьшенным на некоторое число c, а затем разделенным на некоторое число
k, т. е. для вариантов x '  ( x  c) / k . Зная среднюю арифметическую x ' для
изменённого ряда, легко вычислить среднюю арифметическую для
первоначального ряда:

x  x'  k  c (1.14)

Действительно, принимая во внимание четвертое и третье свойства средней


арифметической, получим

x c x c x c
x '      ;
 k  k k

откуда следует, что x  x '  k  c.


Очевидно, что от выбора числовых значений c и k зависит насколько
простым будет вычисление средней арифметической для измерительного
ряда. Значения c и k обычно выбирают так, чтобы новые варианты
x '  ( x  c) / k были небольшими целыми числами. Если ряд дискретный, то в
качестве c берется вариант, занимающий серединное положение в
вариационном ряду (если таких вариантов два, то за c принимается тот,
которому соответствует большая частота); за k принимают наибольший общий
делитель вариантов (x – c). Если ряд интервальный, то его заменяют
дискретным; тогда c – центр серединного интервала (если таких интервала два,
то берётся тот, которому соответствует большая частота); за k принимают
длину интервала.
Пример 14. Используя упрощенный способ вычисления средней
арифметической, по данным, приведённым в таблице 1.3, найти среднюю
выработку на одного человека медицинского персонала в отчётом году в
процентах к предыдущему.
Решение. Примем c=115, k=10. Результаты вычислений расположим в
таблице 1.5.
Таблица 1.5- Результаты вычислений
Выработка в Количество Середина xc x 'm x x '1 ( x '1)m x
x' 
отчетном рабочих ( интервала k
году в mx ) (x)
процентах к
предыдущему
(интервалы)
(1) (2) (3) (4) (5) (6) (7)
80 – 90 8 85 -3 -24 -2 -16
90 – 100 15 95 -2 -30 -1 -15
100 – 110 46 105 -1 -46 0 0
110 – 120 29 115 0 0 1 29
120 – 130 13 125 1 13 2 26
130 – 140 3 135 2 6 3 9
140 – 150 3 145 3 9 4 12
 117 -72 45

В соответствие с формулой (1.4) имеем

x '  ( x ' m x ) /  m x  72 / 117  0,62.

По формуле (1.14) находим

x  0,62  10  115  108,8%.

Для проверки хода вычислений заполняем два последних столбца


таблицы. Так как  (x'1)m x   x' m x   m x , то  (x'1)m x   x' m x  n,
т.е. разность между итогом последнего и пятого столбцов таблицы должна
быть равна n. В самом деле 45 – ( – 72)=117.
1.7 Медиана и мода

Наряду со средними величинами в качестве описательных


характеристик вариационного ряда применяются медиана и мода.
~
Медианой (M e ) называется значение признака, приходящееся на
середину ранжированного ряда наблюдений.
Пусть проведено нечетное число наблюдений, т. е. n=2q – 1, и
результаты наблюдений проранжированы и выписаны в следующий ряд:
x (1) , x ( 2) ,..., x ( q 1) , x ( q ) , x ( q 1) ,..., x ( n ) . Здесь через x (i ) обозначено значение

признака, занявшего i-е порядковое место в ранжированном ряду. На середину


ряда приходится значение x ( q ) . Следовательно,

~
(M e )  x q .

Если проведено четное число наблюдений, т. е. n=2q, то на середину


ранжированного ряда x (1) ,..., x ( q ) , x ( q 1) ,..., x ( n ) приходятся значения x ( q ) и

x ( q 1) . В этом случае за медиану принимают среднюю арифметическую

значений x ( q ) и x ( q 1) , т. е.

~
(M e )  ( x ( q )  x ( q 1) ) / 2.

Покажем на примерах, как определяется медиана для дискретного и


интервального вариационных рядов.
Пример 15. Вычислить медиану для дискретного вариационного ряда,
заданного в таблице 1.1.
Решение. Проведено четное число наблюдений: n=100=2·50.
Следовательно,

~
(M e )  ( x (50)  x (51) ) / 2,

где x (50) и x (51) – значения признака, расположенные соответственно на 50-м и

51-м порядковых местах в ранжированном ряду наблюдений. Чтобы найти


x (50) и x (51) по выращенному ряду, воспользуемся тем, что накопленная

частота – это число, показывающее сколько наблюдалось значении признака,


меньших или равных данному. По ряду накопленных частот видим, что
наблюдалось 38 значений признака, меньших или равных четырем. 11 82
значениям меньших или равных пяти. Следовательно, x (50) = x (51) =5, а медиана
~
(M e )  (5  5) / 2  5 (тарифный разряд).
Пример 16. Вычислить медиану для интервального вариационного ряда,
заданного таблице 1.3.
Решение. Проведено нечетное число наблюдений n=117. Так как
~
117=2·59 – 1, то (M e )  x (59) , где x (59) – значение признака, расположенное на

59-м порядковом месте в ранжированном ряду наблюдений. Однако по


интервальному ряду нельзя определить точно ни одного из наблюдений, в том
числе н нужное. По ряду накопленных частот видим, что наблюдалось 23
значения признака, меньших или равных 100, и 69 значений, меньших или
равных 110. Следовательно, x (59) принадлежит интервалу 100 – 110. Этот

интервал именно поэтому и называется медианным. В медианном интервале


наблюдалось 46 значений признака. Допустим, что в медианном интервале
наблюдения распределены равномерно. Тогда на единицу частоты медианного
интервала приходится линия, равная (110 – 100)/46= 10/46, и x (59) можно

определить, если к началу медианного интервала прибавить часть его длины,


приходящуюся на разность между 59-ю и частотой, накопленной к началу
медианного интервала, т. е.

~
M e  100  (10 / 46)(59  23)  107,8(%)

В общем случае медиана для интервального вариационного ряда


определяется по формуле

 
  m x  2  m нак
~
Me
h x 
~
M e  a M~ (1.15)
e
m M~
e

или по тождественной ей формуле

нак
~ 0,5  M~
M e  a M~  h e
(1.16)
e
M~
e

где a M~e – начало медианного интервала, т. е. такого, которому соответствует

первая из накопленных частот (накопленных частостей), превышающая


половину всех наблюдений (превышающая 0,5); m нак
~ ~
Me
нак
Me
  – частота

(частость), накопленная к началу медианного интервала; m M~ M~


e
  – частота
e

(частость) медианного интервала.


Приведем важное свойство медианы: сумма абсолютных величин
отклонений вариантов от медианы, умноженных на соответствующие
частоты, меньше, чем от любой другой величины, т. е.
 x  Me mx   x  a mx ,
~
x x

~
если a  M e . В частности, это свойство медианы может быть использовано при
проектировании расположения трамвайных и троллейбусных остановок,
бензоколонок, ссыпных пунктов и т. д.
Пример 17. На участке дороги имеются 4 населенных пункта. Для
проектирования ЛПУ собраны данные о числе предполагаемых больных из
каждого пункта. Результаты обследования приведены в таблице 1.6. На каком
километре следует расположить ЛПУ, чтобы общий путь скорой до него был
минимальным?

Таблица 1.6 – Результаты обследования


На каком километре 2 3 5 8
расположен пункт
(варианты)
Предполагаемое 50 30 40 10
число больных
(частоты)

~
Решение. Здесь n=130=2·65; M e  ( x ( 65)  x ( 66) ) / 2  (3  3) / 2  3(км) . По

свойству медианы минимальный общий путь будет получен в том случае, если
ЛПУ сделать на третьем километре.
Из определения медианы ясно, что на медиану совершенно не влияет
изменение крайних членов ранжированного ряда наблюдений, если только
любой из них, меньший медианы, остается меньше ее, а любой, больший
медианы, продолжает быть больше ее. Поэтому медиану следует предпочесть
средней арифметической, если крайние варианты по сравнению с остальными
оказались чрезмерно большими или малыми.
Итак, медиана – это значение признака, который делит ранжированный
ряд наблюдений на две равные по объему группы. В свою очередь, в каждой
группе можно найти значение признака, делящее ее на две равные по объему
группы. Это значение называется квартилем. Квартили и медиана делят
ранжированный ряд на 4 равные части.
Аналогично можно разделить ранжированный ряд на 10 равных по
объему частей децилями, на 100 частей центилями. Такие величины, как
квартили, децили и т. д., делящие ранжированный ряд наблюдений на
некоторое число равных частей, называют квантилями. Под p – процентным
квантилем понимают такое значение признака в ранжированном ряду, которое
не превосходит p % наблюдений.
~
Модой ( M o ) называется такое значение признака, которое наблюдалось
наибольшее число раз. Нахождение моды для дискретного вариационного
ряда не требует каких-либо вычислений, так как ею является вариант,
которому соответствует наибольшая частота.
В случае интервального вариационного ряда мода вычисляется по
следующей формуле (приводится без доказательства):

~ m M~  m M~
o 1
M o  a M~  h o
(1.17)
o
2m M~  m M~ 1
 m M~
o o o 1

Или по тождественной формуле:

~ M~  M~
o 1
M o  a M~  h o
(1.18)
o
2M~  M~ 1
 M~
o o o 1

где a M~o – начало модального интервала, т.е. такого, которому соответствует

наибольшая частота (частость); m M~o ( M~o ) – частота (частость) модального


интервала; m M~ o 1 ( M~o 1 ) – частота (частость) интервала, предшествующего

модальному; m M~ o 1 ( M~o 1 ) – частота (частость) интервала, следующего за

модальным.
Пример 18. Вычислить моду для интервального вариационного ряда,
заданного таблице 1.3.
Решение. Модальным интервалом является интервал от 100 до 110, так
как ему соответствует наибольшая частота, равная 46. Поэтому по форуле
(1.17), в которой a M~o  100, h  10, m M~o  46, m M~o 1  15, m M~o 1  29, получаем

~ 46  15
M o  100  10  106,2(%).
2  46  15  29

В частности, мода используется в тех случаях, когда нужно дать ответ


на вопрос, какой товар имеет наибольший спрос, каковы преобладающие в
данный момент уровни производительности труда, себестоимости и т. д.
Модальная производительность, себестоимость и т. д. помогает вскрыть
ресурсы, которые имеются в экономике.
Если полигон вариационного ряда не имеет значительной скошенности
~ ~
ни в левую, ни в правую сторону, то x  (3M e  M o ) / 2.
Следует отметить, что мода и медиана могут быть только условно
отнесены к средним величинам, поскольку основным требованием,
предъявляемым к средним величинам, является требование
представительности ими того или иного свойства ряда наблюдений,
определяемого всеми наблюдениями. Ни мода, ни медиана не удовлетворяют
этому требованию.
1.8. Показатели вариации
Средние вeличины, характеризуя вариационный ряд одним числом, не
отражают изменчивости наблюдавшихся значений признака, т.е вариацию.
Простейшим показателем вариации является вариационный размах ( R в )
равный разности между наибольшим и наименьшим вариантами, т. е.

R в  x max  x min (1.19)

Вариационный размах весьма приближенный показатель вариации, так как он


почти не зависит от изменения вaриантов, а крайние варианты, которые
используются для его вычисления, как правило, ненадежны.
Наибольший интерес представляют меры рассеяния наблюдений вокруг
средних величин. Так как средняя арифметическая является основным видом
средних, ограничимся рассмотрением мер рассеяния наблюдений вокруг
средней арифметической.
Отклонения вариантов от средней арифметической характеризуют
разности ( x  x ). Однако простая сумма отклонений, взвешенных
соответствующими частотами, т. е.  ( x  x )m x , не может характеризовать
x

вариацию около средней арифметической. В силу первого свойства средней


арифметической эта сумма равна нулю. В разностях ( x  x ) берутся или их
абсолютные величины, или их квадраты. В соответствии с этим получают
различные показатели вариации.
Средним линейным отклонением (d) называется средняя
арифметическая абсолютных величин отклонений вариантов от их средней
арифметической:

 
d    x  x m x  /  m x (1.20)
 x  x
Дисперсией ( s 2 ) называется средняя арифметическая квадратов
отклонений вариантов от их средней арифметической:

 
s 2    ( x  x ) 2 m x   mx (1.21)
 x  x

Мера рассеяния должна выражаться в тех же единицах, что и значения


признака, поэтому вместо дисперсии в качестве показателя вариации чаще
используется корень квадратный из дисперсии.
Арифметическое значение корня квадратного из дисперсии называется
средним квадратическим отклонением:

 
s    ( x  x ) 2 m x   mx (1.22)
 x  x

Пример 19. По данным, приведенным в таблице 1.3, вычислить


дисперсию и среднее квадратическое отклонение для распределения
медицинского персонала по величине выработки в отчетном году в процентах
к предыдущему году.
Решение. Известно, что x  108,8% (см. пример 9). Применяя формулу
(1.21), находим

(83  108,8) 2  8  (95  108,8) 2  15  (105  108,8) 2  46 


s 
2
... 
8  15  46  29  13  3  3
 (115  108,8) 2  29  (125  108,8) 2  13  (135  108,8) 2  3 
...  ... 
8  15  46  29  13  3  3
 (145  108,8) 2  3
...   159.
8  15  46  29  13  3  3

Следовательно, среднее квадратическое отклонение

s  159  12,61(%).

Приведем свойство минимальности дисперсии: дисперсия меньше средней


арифметической квадратов от средней арифметической квадратов отклонений
вариантов от любой постоянной величины, отличной от средней
арифметической, т.е.

 
s 2    x  a  m x   mx ,
2

 x  x

если a  x .
Доказательство. Найдём экстремум функции

 
f (a )    x  a  m x   mx .
2

 x  x

Для этого решим уравнение f ' (a )  0 . Имеем

 
f ' (a )    2 x  a m x   m x  0;
 x  x

 
 x  a m x  0; a    xm x   m x  x.
x  x  x
Так как

 
f ' ' (a )   2 xm x   m x  0,
 x  x

то функция f (a ) имеет в точке a  x минимум, что и требовалось доказать.


Свойство минимальности дисперсии позволяет понять, почему ей
следует отдать предпочтение перед средним линейным отклонением.
Учитывая свойство медианы можно утверждать, что среднее линейное
отклонение относительно медианы (а не относительно средней
арифметической) обладает свойством минимальности и его имело бы смысл
использовать в качестве меры рассеяния значений признака вокруг медианы.
В дальнейшем в качестве показателя рассеяния значений признака около
средней арифметической будем использовать только дисперсию или среднее
квадратическое отклонение.
Итальянский статистик Коррадо Джинни предложил в качестве
показателя вариации использовать показатель

  x  xj ,
n
2  1 n 2
2
i
i , j1

где x 1 , x 2 ,..., x n ряд наблюдений. Особенность этого показателя состоит в


том, что он зависит только от разностей между наблюдениями и измеряет как
бы внутреннюю изменчивость значений признака, а не их рассеяние вокруг
какой-либо точки. Можно показать, что s 2  2 2 , т. е. что дисперсия, являясь
мерой рассеяния значений признака вокруг средней арифметической,
характеризует также и внутреннюю их изменчивость. Сравнение средних
квадратических отклонений, вычисленных для однотипных вариационных
рядов, позволит установить, где рассеяние значений признака вокруг средней
арифметической больше. Для характеристики того, насколько средняя
арифметическая хорошо представляет вариационный ряд, используется
коэффициент вариации, равный выраженному в процентах отношению
среднего квадратического отклонения к средней арифметической:

 
V  s x  100%. (1.23)

Если вариационные ряды имеют одинаковые средние арифметические,


то средняя арифметическая ряда с меньшим коэффициентом вариации более
представительна, так как среднее квадратическое отклонение, или, иначе
говоря, среднее рассеяние значений признака вокруг средней арифметической,
также является меньшим. Очевидно также и следующее утверждение: если
вариационные ряды имеют одинаковые средние квадратические отклонения,
то более представительной является средняя арифметическая того ряда, у
которого коэффициент вaриации меньше. Если полигон вариационноrо ряда
не имеет значительной скошенности ни в левую, ни в правую сторону, а
исследуемый признак может принимать только положительные значения, то
обычно V <30%.
Если коэффициент вариации V> 100%, то, как правило, можно сделать
вывод, что наблюдения неоднородны.

1.9 Свойства дисперсии

Рассмотрим основные свойства дисперсии, знание которых позволит


упростить ее вычисление.
Свойство 1. Дисперсия постоянной величины равна нулю.
Доказательство этого свойства очевидно вытекает из тогo, что дисперсия
является показателем рассеяния наблюдений вокруг средней арифметической,
а средняя арифметическая постоянной равна этой постоянной.
Свойство 2. Если все варианты уменьшить (увеличить) На одно и то же
число с, то дисперсия не изменится.
Доказательство. Если все варианты уменьшить на число c, то в
соответствии со свойством 3 средней арифметической, средняя для
 
измененного вариационного ряда равна x  c , следовательно, его дисперсия

 x  c  x  c m x  x  x  m x
2 2

s x c  x
2
 x  s2 ,
 mx  mx
x x

т.е. совпадает с дисперсией первоначальноrо вариационногo ряда, что и


требовалось доказать. Аналоrично можно доказать, что s 2x  c  s 2 .
Доказанное свойство позволяет вычислять дисперсию не по данным
вариантам, а по уменьшенным (увеличенным) на одно и то же число с, так как
дисперсия, вычисленная для измененного ряда, равна первоначальной.
Свойство 3. Если все варианты уменьшить (увеличить) в одно и тоже
число k раз, то дисперсия уменьшится (увеличится) в k2 раз.
Доказательство. Если все варианты уменьшить в k раз, то, согласно
свойству 4 средней арифметической, средняя для измененного вариационного
ряда равна x k , следовательно, его дисперсия
 x k  x k   1 k 2 x  x 
2 2
mx
s 2x k  x  x 
 mx  mx
x x

 x  x  m x
2

1 s2
 2 x
 2,
k  mx k
x

что и требовалось доказать. Аналогично можно доказать, что s 2xk  k 2 s 2 .


Это свойство позволяет дисперсию вычислять не по данным вариантам,
а по уменьшенным (увеличенным) в одно и то же число k раз. Если дисперсию,
вычисленную для измененного ряда, увеличить (уменьшить) в k раз, то
получим дисперсию для первоначального вариационного ряда.
Следствие. Если все варианты уменьшить (увеличить) в k раз, то среднее
квадратическое отклонение уменьшится (увеличится) в число раз, равное k
Следствие очевидно вытекает из определения среднего Kвадратического
отклонении.
Прежде, чем рассматривать следующее свойство дисперсии, докажем
теорему.
Теорема. Дисперсия равна разности между средней арифметической
квадратов вариантов и квадратов средней арифметической, т.е.


s2  x 2  x ,
2
(1.24)

 
где x 2    x 2 m x   mx .
 x  x

Доказательство. Производя тождественные преобразования выражения


для дисперсии, имеем
 x  x  m x  x 2 m x  2 x xm x   x 
2 2
mx
s2  x  x x x

 mx  mx
x x

 x 2mx 2 x  xm x x   m
2
x
 x  x
 x

 mx  mx  mx
x x x

 x2  2 x    x 
2 2

 x2  x ,
2

что и требовалось доказать.


Свойство 4 Если ряд наблюдений состоит из двух групп наблюдений, то
дисперсия всею ряда равна сумме средней арифметической групповых
дисперсий и средней арифметической квадратов отклонений групповых
средних от средней всего ряда, причем при вычислении средних
арифметических весами являются объемы групп.
Пусть n 1 и n 2 - число наблюдений соответственно в 1-й и 2-й группах;

x 1 , x 2 - средние арифметические для 1-й и 2-й группы наблюдений, s 12 , s 22 -

дисперсии для 1-й и 2-й группы наблюдений; x и s 2 - средняя арифметическая

и дисперсия для всего ряда (n 1  n 2 ) наблюдений. Требуется доказать, что

s 
2 s 12 n 1  s 22 n 2

 
2
x1  x n1  x 2  x n 2
.
 
2

n1  n 2 n1  n 2

Доказательство. Пусть x 1 , x 2 ,..., x n1  n 2 - ряд наблюдавшихся значений

признака, причем к первой группе не относятся наблюдения x 1 , x 2 ,..., x n1 , а ко

второй x n1 1 , x n 2  2 ,..., x n1  n 2 . Обозначим символом i порядковый номер

наблюдения, попавшего в 1-ю группу, а через j – порядковый номер


наблюдения, попавшего во 2-ю группу. На основании теоремы о дисперсии
имеем

  2
s12  x i2  x 1 , s 22  x 2j  x 2 .  
2

Следовательно, первое слагаемое имеет вид

s12 n 1  s 22 n 2 x i n 1  x j n 2  x 1 n 1  x 2 n 2

2 2

  2
 
2

n1  n 2 n1  n 2
n1  n 2
   
n1

 
2 2
x i2  x 2j  x 1 n 1  x 2 n 2
i 1 j n1 1
 
n1  n 2
n1  n 2

   2
x q2  x 1 n 1  x 2 n 2   2

q 1
 .
n1  n 2

В соответствии со свойством 5 средней арифметической, можно


записать, что x n 1  n 2   x 1 n 1  x 2 n 2 . Учитывая последнее равенство,
преобразуем второе слагаемое:

x 1 
2
 x n1  x 2  x n 2

  2

n1  n 2


x  n 1
2
1  2
 2 x 1 xn 1  x n 1  x 2 n 2  2 x 2 xn 2  x n 2  

2
 2

n1  n 2


x  n  x  n  x  n
1
2
1
2
2
2
1 
 n 2   2x x 1 n 1  x 2 n 2


n1  n 2


x  n  x  n  x  n
1
2
1
2
2
2
1  n2 
.
n1  n 2
Используя найденные выражения для слагаемых, получим:

s12 n 1  s 22 n 2

 2
x1  x n1  x 2  x n 2

 
2

n1  n 2 n1  n 2
n1  n 2

   2
  2
 
x q2  x 1 n 1  x 2 n 2  x 1 n 1  x 2 n 2  x
2
  2
  n
2
1  n2 
q 1
 
n1  n 2
n1  n 2

 xq

q 1

n1  n 2

 x
2
 x2  x  2
 s2 ,

что и требовалось доказать.


Если ряд наблюдений разбит на k групп, то межгрупповой дисперсией (
 2 ) называется средняя арифметическая квадратов отклонений групповых
средних ( x i ) от средней всего ряда наблюдений ( x ), причем весами являются
объемы групп ( n i ), т. е.

 x i  x  n i
k

i 1
 
2
k
.
 ni
i 1

Средней групповых дисперсий, или внутригрупповой дисперсией,

 
называется, s i2 средняя арифметическая групповых дисперсий s i2 , причем  
весами являются объемы группы ( n i ):
k
 s i2 n i
i 1
s i2  k
.
 ni
i 1

Следствие (из свойства 4). Если ряд наблюдений слагается из k групп


наблюдений, то дисперсия всего ряда равна сумме внутригрупповой и
межгрупповой дисперсии, т. е.

s 2  s i2   2

1.10 Упрощенный способ вычисления Дисперсии

Вычисление дисперсии вариационного ряда непосредственно по


формуле (1.21) приводит к громоздким расчетам, если численные значения
вариантов и соответствующие им частоты велики.
Упрощенный способ предполагает вычислять дисперсию не по
первоначальным вариантам х, а по уменьшенным па некоторое число с, а затем
разделенным на некоторое число k, т. е. для вариантов x '  ( x  c) / k . Зная s 2x

(дисперсию для измененного ряда), легко вычислить дисперсию s 2 для

первоначального ряда:

s 2  s 2x k 2 . (1.25)

Действительно, приняв во внимание третье и второе свойство


дисперсии, получим
1 2 1 2
s 2x  s 2 ( x  c) / k  s x  c  s .
k2 k2

Откуда следует, что s 2  s 2x k 2 .


Требования к числам с и k предъявляются такие же, как и в упрощенном
способе вычисления средней арифметической.
Пример 20. Вычислить дисперсию для распределения медицинского
персонала по величине выработки в отчетном году в процентах к
предыдущему году по данным, приведенным в таблице 1.3, используя
упрощенный способ.
Решение. Примем c  115, k  10 . Результаты вычислений расположим в
таблице 1.7.
В соответствии с формулой (1.24) имеем

s 2x '  ( x ' ) 2  ( x ') 2  (230 / 117)  (72 / 117) 2  1,59

По формуле (1.25) находим

s 2  1,59  10 2  159.

Для проверки хода вычислений заполняем 3 последних столбца


таблицы. Так как

 (x '1) 2 m x   (x ' ) 2 m x  2 x ' m x   m x ,


 (x '1) 2 m x   (x ' ) 2 m x  2 x ' m x  n,
т.е. если от итога последнего столбца вычесть сначала итог шестого столбца,
а затем удвоенный итог пятого, то должно получиться 117. Действительно,
203  230  2(72)  117.
Таблица 1.7- Результаты вычислений
Выра Колич Серед xc x ' m x ( x ' ) 2 m x '1 ( x '1)m x ( x '1) 2 m
x'  x x
ботка ество ина h
в медиц интер
отчет инско вала
ном го (x)
году в персо
проце нала (
нтах к mx )
пред
ыдущ
ему
(инте
рвалы
)
80-90 8 85 -3 -24 72 -2 -16 32
90- 15 95 -2 -30 60 -1 -15 15
100
100- 46 105 -1 -46 46 0 0 0
110
110- 29 115 0 0 0 1 29 29
120
120- 13 125 1 13 13 2 26 52
130
130- 3 135 2 6 12 3 9 27
140
140- 3 145 3 9 27 4 12 48
150
 117 - - -72 230 - - 203

1.11 Центральные и начальные моменты

Средняя арифметическая и дисперсия вариационного ряда являются


частными случаями более общего понятия о моментах вариационного ряда.
Начальным моментом (~  ) порядка q называется средняя
q

арифметическая q-х степеней вариантов, т.е.


 
 q  x q    x q m x 
~
 mx . (1.26)
 x  x

Начальный момент нулевого порядка

 
 0  x 0    x 0 m x 
~
 m x  1.
 x  x

Начальный момент первого порядка

~
 1  x.

Начальный момент второго порядка

 
 2  x 2    x 2 m x 
~
 mx
 x  x

и т.д.
Центральны моментом ~
 порядка q называется средняя
q

арифметическая q-х степеней отклонений вариантов от их средней


арифметической, т.е.


~  xx
 q 
q 
 q
 
   x  x m x   mx . (1.27)
 x  x

Центральный момент нулевого порядка


~  xx
 0   0 
  
   x  x m x 
0
 m x  1.
 x  x

Центральный момент первого порядка

 1 
~  x  x 1  
  x  x1
m

x 
    mx  0
 x  x

(в силу первого свойства средней арифметической).


Центральный момент второго порядка

~  xx
 2  
2 
  
   x  x m x 
2
 mx  s2.
 x  x

Используя формулу бинома Ньютона, разложим в ряд выражение для


центрального момента q-ro порядка

~  xx
 q  
q

 x q  C1q x q 1 x  C q2 x q  2 ( x ) 2  ...  (1) q ( x ) q 

 x q  C1q x q 1 x  C q2 x q  2 ( x ) 2  ...  (1) q ( x ) q 

 x q  C1q x x q 1  C q2 ( x ) 2 x q  2  ...  (1) q ~


1q .

в проведенных тождественных преобразованиях использовано шестое и


q!
четвертое свойства средней арифметическое; C qp  - число сочетаний
p!(q  p)!
из q элементов по p элементов.
Итак, центральный момент q-ro порядка выражается через начальные
моменты следующим образом:
~ ~
  q  C1q ~
1 ~
 q 1  C q2 ~
12 ~
 q  2  C 3q ~
13 ~
 q 3  (1) q ~
1q . (1.28)
q

Полагая в этой формуле q=0, 1, 2, ... и т. д., можно получить выражения


центральных моментов различных порядков через начальные моменты:

~ ~
  0  1,
0
~ ~
 1  ~
1  0,
1

~ ~
  2  2~
1 ~
1  ~
12  ~
2  ~
12 , (1.29)
2

~ ~
  3  3~
1 ~
 2  3~
12 ~
1  ~
13  ~
 3  3~
1 ~
 2  2~
12 , (1.30)
3

~ ~
  4  4~
1 ~
 3  6~
12 ~
 2  4~
13 ~
1  ~
1  ~
4
 4  4~
1 ~
 3  6~
12 ~
 2  3~
14 . (1.31)
4

Заметим, что формула (1.29) для центрального момента второго порядка,


как и следовало ожидать, аналогична формуле (1.24) для дисперсии.

1.12 Свойства центральных моментов и упрощенья способ их


вычисления

Рассмотрим свойства центральных моментов, которые позволят


значительно упростить их вычисление.
Свойство 1. Если все варианты уменьшить (увеличить) на одно и то же
число с, то центральный момент q-гo порядка не изменится
Доказательство. Если все варианты уменьшить на число c, то средняя
арифметическая для измененного ряда равна ( x  c) , а потому центральный
момент q-ro порядка

 x  c  x  c m x  x  x  m x
q q

~
  x  x ~ ,

q x c
 mx  mx q

x x

~
что и требовалось доказать. Аналогично можно доказать, что  ~
q x c   q .

Свойство 2. Если все варианты уменьшить (увеличить) в одно и то же


число k раз, то центральный момент q-гo порядка уменьшится (увеличится) в
kq раз.
Доказательство. Если все варианты уменьшить в одно и то же число k
раз, то средняя арифметическая для измененного вариационного ряда равна
x k , а потому центральный момент q-гo порядка.
Упрощеный способ вычисления центральных моментов предполагает
вычислять их не по первоначальны мвариантам х, а по вариантам
~  (центральный момент q-гo порядка для измененного
x   ( x  c) / k . Зная q

рядa), легко вычислить центральный момент q-гo порядка ~


 для
q

первоначального ряда:

~ 
 ~ 'q * k q
q

Действительно, принимая во внимание доказанные свойства


центрального момента, получим
~ 1 1
p'q  ~
p q( x c ) / k  0 * ~
p q( x c )  0 * ~
p
k k

откуда следует, что


Пример 21. Вычислить центральные моменты второго, третьего и
четвертого порядков для распределения медицинского персонала по
величине выработки в отчетном году в процентах к предыдущему по
данным, приведенным в таблице 1.3, используя упрощенный способ.
Решение. Результаты вычислений расположим в таблице 1.8. В
соответствии с определением начальногo момента получим следующие
значения начальных моментов для вариантов х':

~
1 
'  x 'm x

72 ~ '  ( x ) m x 230
; 2 
' 2
 ,
 xm 117  xm 117

~
3 
'  (x ' ) 3 m x

264 ~ '  ( x ) m x 1238
; 
' 4
 ,
 mx 117 4  mx 117

Используя формулы получим:

~
p 2'  ~
 2'  ( ~
1' )  1,59, ~
p 3'  ~
 3'  3  1'  '2  2(  1' ) 2  0,91

~
p 4'  ~
 4'  4 1'  3'  6(  1' ) 2  '2  3( 1' ) 4  9,6

В соответствии с формулой (1.32) получим следующие значения


центральных моментов для первоначально вариационного ряда:
~  1,59 * 10 2  159, 
 ~  0,91 * 10 3  910, 
~  9,06 * 10 4  906000
2 3 4

Заметим, что дисперсия, вычесленная в примере 20, точно совпадает со


значением центрального момента второго порядка для проверки хода
вычислений заполняем 5 последних столбцов таблицы. Так как

 (x '  1) 3 m x   (x ' ) 3 m x  3 (x ' ) 2 m x 3 (x ' )m x   m x


и  ( x '  1) 4 m x   ( x ' ) 4 m x  4 ( x ' ) 3 m x 6 ( x ' )m x  4 x ' m x   mx

то

 (x '  1) 3 m x   (x ' ) 3 m x  3 (x ' ) 2 m x 3 ( x ' )m x  n


и

 (x '  1) 4 m x   (x ' ) 4 m x  4 (x ' ) 3 m x 6 ( x ' ) 2 m x  4 x ' m x  n

Действительно,

327  (264)  3 * 230  3 * (72)  117 и


1391 - 1238 - 4(-264) - 6 * 230 - 4 * (-72)  117

1.13 Асимметрия и эксцесс

Коэффициентом асимметрии (Х) называется отношенное центрального


момента третьего порядка к кубу среднего квадратического отклонения:
~  (x  x) 3 m x
~ / s3  3  x
A , (1.33)
( ~ ( m x ) * s 2
3
p2 )3

Если полигон вариационного ряда скошен, т. е. одна из его ветвей,


начиная от вершины, зримо короче другой, то такой ряд называют
асимметричным. Из формулы (1.33) следует, что если в вариационном ряду
преобладают варианты, меньшие Х, то коэффициент асимметрии отрицателен;
говорят, что в этом случае имеет место левосторонняя асимметрия. Если же в
вариационном ряду преобладают варианты, большие х, то коэффициент
асимметрии положителен; в этом случае имеет место правосторонняя
асимметрия.
Коэффициент асимметрии не имеет ни верхней, ни нижней границы, что
снижает его ценность как меры асимметрии. Практически коэффициент
асимметрии редко бывает особенно велик, а для умеренно асимметричных
рядов он обычно меньше единицы. Экспрессом или коэффициентом крутости
(Е) называется уменьшенное на 3 единицы отношение центрального момента
четвертого порядка к четвертой степени среднего квадратического
отклонения:

~ ~
~ 4 
E  3  ~ 42  3
s4 2

За стандартное значение эксцесса принимают Е=О. Правомерность


этого доказывается в 3.4 при изучении так называемой нормальной кривой.
Эта кривая имеет форму, указанную на рисунке 21. Кривые, у которых Е<О по
сравнению с нормальной менее крутые, имеют более плоскую вершину и
называются плосковершинными.
Таблица 1.8- Результаты вычислений
Выборка на Количество Серед xc x' m x x'2 m x '3 m x x ' 4 m x ( x '1) ( x '1) m( x '1) 2 m ( x '1) 3 m ( x '1) 4 m
x'  x x x x x
одного медицинск ина h
рабочего в ого интегр
отчетном персонала ( ала x
году в mx
процентах к
предыдущему
(интервалы)
80-90 8 85 -3 -24 72 -216 648 -2 -16 32 -64 128

90-100 15 95 -2 -30 60 -120 240 -1 -15 15 -15 15


100-110 46 105 -1 -46 46 -46 46 0 0 0 0 0
110-120 29 115 0 0 0 0 0 1 29 29 29 29
120-130 13 125 1 13 13 13 13 2 26 52 104 208
130-140 3 135 2 6 12 24 48 3 9 27 81 243
140-150 3 145 3 9 27 81 243 4 12 48 192 768
 117 -72 230 -264 1238 203 327 1391
Кривые, у которых Е>О более крутые, имеют более острую вершину и
называются островершинными.
Пример 22. По данным, приведенным в таблице 1.3, вычислить
коэффициент асимметрии эксцесс для распределения медицинского
персонала по величине выработки в отчетном году в процентах к
предыдущему.
Решение. Среднее квадратическое отклонение, центральный момент
третьего и четвёртого порядка, необходимые для вычисления асимметрии и
эксцесса, были вычислены в примере 21. Напомним их значения: s;
Коэффициент асимметрии оказался положительным. Это
свидетельствует о правосторонней асимметрии данного распределения.
Эксцесс оказался также положительным. Это говорит о том, что кривая,
изображающая ряд распределения, островершинная.
2 Основные понятия теории вероятностей

2.1 Классификация событий

Одним из основных понятий теории вероятностей является понятие


события. Под событием понимается любой факт, который может произойти б
результате опыта или испытания. Под опытом или испытанием понимается
осуществление определенного комплекса условий.
Простейшим примером события является результат подбрасывания
монеты. В этом примеру опытом является подбрасывание монеты, а его
исходы - событиями. В данном опыте рассматриваются два события:
появление цифры и появление «гербах. Событием можно, например, считать
выход со станка деталей определенного размера или деталей, размеры
которых лежат внутри определенного интервала. Появление бракованных
изделий - также событие. Можно привести бесчисленное множество подобных
примеров. События обозначаются заглавными буквами латинского алфавита
А, В, С, ... и т. д.
Различают события совместные н несовместные. События называются
совместными, если наступление одного из них сопровождается наступлением
других в одном и том же испытании. В противном случае события являются
несовместными. Рассмотрим следующий пример. Завод выпускает приборы
трех типоразмеров: I, II и III.
Пусть
А - изготовленный прибор относится к I типоразмеру;
В - изготовленный прибор относится ко II типоразмеру;
С - изготовленный прибор относится к III типоразмеру.
Очевидно, что эти события являются несовместными.
Техническим контролем изделия могут быть забракованы по
нескольким признакам: выход размеров за границы технического допуска,
наличие механических повреждений, непроваренность сварного шва и т. д.
Одному изделию могут быть присущи все указанные виды дефектов. Поэтому
эти виды дефектов являются совместными событиями.
Событие называйся достоверным, если оно обязательно произойдет в
условиях данного опыта.
Событие называется невозможным, если оно не может произойти в
условиях данного опыта.
Если, например, двигатель исправен, нормально функционирует система
топливоподачи и источник энергии (аккумулятор) находится в рабочем
состоянии, то при включении зажигания и стартера вращение вала двигателя
автомобиля — событие достоверное.
При выходе из строя хотя бы одной системы топливо подачи вращение
вала двигателя становится событием невозможным.
Событие называется возможным или случайным, если в результате
опыта оно может появиться, но может и не появиться.
Примером случайного события может служить выявление дефектного
изделия при контроле партии готовой продукции, несоответствие размера
обрабатываемого изделия заданному, отказ одного из звеньев
автоматизированной системы управления.
События называются равновозможными, если по условиям испытания
ни одно из этих событий не является объективно более возможным, чем
другое.
Приведем следующий пример. Пусть магазину поставляют
электролампочки (причем в равных количествах) несколько заводов-
изготовителей. События, состоящие в покупке лампочки любого из этих
заводов, равновозможны.
Важным понятием является полная группа событий. Несколько событий
в данном опыте образуют полную группу, если в результате опыта обязательно
появится хотя бы одно из них. Рассмотрим еще один пример. Для правильной
организации работы студентов-практикантов в лаборатории весь парк
лабораторных приборов был разбит на следующие группы:
А – лабораторному прибору требуется наладка через 7 ч работы;
B- 10 ч работы;
C- 15 ч работы;
D- 20 ч работы;
E- 21 и более часов работы.
Все имеющиеся в лаборатории приборы можно отнести к одной из
указанных групп. События А, В, С, D, Е образуют полную группу событий.
Введем понятие противоположного, или дополнительного события. Под
противоположным событием А понимается событие, которое обязательно
должно произойти, если не наступило некоторое событие А.
Противоположные события несовместны и единственно возможны. Они
образуют полную группу событий. Так, например, если партия анализов
состоит из годных и бракованных, то при извлечении одного анализа оно
может оказаться либо годным - событие А, либо бракованным - событие А .
События, образующие полную группу событий и являющиеся
несовместными и равновозможными, называются случаями или шансами.
Если наблюдающиеся в опыте события равновозможны, несовместны и
образуют полную группу, то говорят, что опыт сводится к схеме случаев или
к схеме урн. (Эти термины впервые появились в работах, посвященных
исследованию правил азартных игр.)
2.2 Классическое определение вероятности события

Для количественного сравнения между собой событий по степени


возможности их появления вводится определенная мера, которая называется
вероятностью события.
Вероятностью события называется численная мера степени объективной
возможности появления этого события.
Рассмотрим следующее понятие. Случай называется благоприятным
или благоприятствующим некоторому событию, если появление этого случая
влечет за собой появление данного события. Пусть, например, производится
опыт - подбрасывание кубика, грани которого пронумерованы цифрами от 1
до 6. Рассмотрим событие А - появление четной цифры. Случай - появление
числа 2 - благоприятствует событию А. Приведем еще один пример. Пусть в
ящике содержатся годные анализы и испорченные, испорченные по
нескольким видам причин, каждый из которых может быть только у одного
анализа. Рассмотрим событие, заключающееся в появлении бракованного
анализа при вынимании его наугад из ящика. Этому событию будут
благоприятствовать все анализы, имеющие брак.
Если опыт сводится к схеме случаев, то вероятность появления события
А в данном опыте вычисляется как отношение числа случаев m,
благоприятствующих появлению этого события, к общему числу случаев n.
Это и есть классическое определение вероятности события. Таким образом,
вероятность события А

m
PA   . (2.1)
n

Впервые определение вероятности события было дано в XVIII в.


Лапласом. Из формулы (2.1) следует, что вероятность события является
положительным числом и может меняться в пределах от 0 до 1 в зависимости
от того, какую долю составляет благоприятствующее число случаев от общего
числа случаев:

0  m  n ,0  PA   1.

Отметим следующие свойства вероятности.


Свойство 1. Если все случаи являются благоприятствующими данному
событию А, то это событие обязательно произойдет. Следовательно,
рассматриваемое событие является достоверным, а вероятность его появления
Р(А) = 1 , так как в этом случае m  n :

m
Р(А) =  1.
n

Свойство 2. Если нет ни одного случая, благоприятствующего данному


событию А, то это событие в результате опыта произойти не может.
Следовательно, рассматриваемое событие является невозможным, а
вероятность его появления равна Р(А) = 0 , так как в этом случае m = 0 :

0
PA    0.
n

Свойство 3. Вероятность наступления событий, образующих полную


группу, равна единице, так как появление хотя бы одного из них в результате
опыта является событием достоверным.
Свойство 4. Вероятность наступления противоположного события А
определяется так же, как и вероятность наступления события А:
nm
PA  
m
1 ,
n n

где n  m  - число случаев, благоприятствующих появлению


противоположного события А. Отсюда, вероятность наступления
противоположного события А равна разности между единицей и
вероятностью наступления события А:

PA   1  PA  (2.2)

Важным достоинством классического определения вероятности


события является то, что с его помощью вероятность события можно
определить, не прибегая к опыту, а исходя из логических рассуждений.
Приведем несколько примеров непосредственного вычисления вероятностей.
Пример 1. В ящике находится 10 испорченных и 15 годных анализов,
которые тщательно перемешаны. Найти вероятность того, что наудачу
извлеченный анализ годен.
Решение. Обозначим через А событие, состоящее в появлении годной
детали. Общее число случаев n  25 , число случаев, благоприятных событию
А, m  10 . Следовательно,

Р(A) = 15/25 = 3,5 .

Пример 2. Условие предыдущей задачи сохраняется, только теперь из


ящика извлекают три анализа:
а) чему равна вероятность того, что все три анализа будут годными?
б) какова вероятность того, что извлечены только два годных
анализа?
Решение. а) Обозначим через В событие, состоящее в появлении трех
годных анализов. Общее число случаев равно числу способов, сколькими
можно извлечь из ящика все анализы по три штуки (число сочетаний из 25
элементов по три): n  C 325 . Число случаев, благоприятствующих событию В,
равно числу способов, позволяющих взять три детали из числа годных, т. е
числу сочетаний из 15 элементов по три: m  C15
3
. Искомая вероятность

Р(В) = C15
3
/С 325 = 91/460 .

б) Обозначим через С событие, состоящее в появлении двух годных


анализов. Общее число случаев останется прежним, т. е. n  C 325 . Число
случаев, благоприятствующих событию С, равно числу способов, сколькими
можно одновременно взять две годные детали из 15 годных и одну
бракованную из 10 бракованных, т. е.

m  C15
2
 C110 ;


PC  C15
2

 C110 / C 325  21 / 46.

2.3 Статистическое определение вероятности события

Формула (2.1) используется для непосредственного вычисления


вероятностей событий только тогда, когда опыт сводится к схеме случаев.
На практике часто классическое определение вероятности неприменимо
по двум причинам:
- во-первых, классическое определение вероятности предполагает,
что общее число случаев n должно быть конечно. На самом же деле, оно
зачастую неограниченно;
- во-вторых, часто невозможно представить исходы опыта в виде
равновозможных и несовместных событий.
Давно было замечено, что частота появления событий, не сводящихся к
схеме случаев, при многократно повторяющихся опытах имеет тенденцию
стабилизироваться около какой-то постоянной величины. Это свидетельствует
о том, что данные события также обладают определенной степенью
объективной возможности появления в опыте, меру которой можно
представить в виде относительной частоты или частости.
Знаменитый швейцарский ученый Яков Бернулли привел
математическое доказательство того, что при большом числе испытаний
частость стремится воспроизвести вероятность и в пределе при большом числе
опытов должна практически совпадать с ней. Это положение носит название
закона больших чисел (этот закон будет рассмотрен в дальнейшем). Многие
ученые проводили специальные опыты для проверки закона Бернулли,
вычисляя частость появления событий, сводящихся к схеме случаев, и
сравнивания ее с вероятностью, вычисленной по классическому определению.
Так, французский натуралист Бюффон и английский статистик Пирсон
проводили опыты с бросанием монеты (подсчитывалось число случаев
выпадения «герба»). Результаты их опытов приведены в следующей таблице.
Как следует из таблицы, уже 4040 испытаний достаточно для совпадения
эмпирической частости и вероятности до сотого знака, а 24 000 испытаний
дают практически полное совпадение частости и вероятности. Таким образом,
можно считать эмпирически доказанным, что частость событий, сводящихся к
схеме случаев, при большом числе произведенных опытов стремится к их
вероятности.
Таблица 2.1- Результаты опытов
Опыты Вероятность Частость Отклонение Число
частости от испытаний
вероятности
Опыт 0,5000 0,5069 0,0069 4040
Бюффона
Первый опыт 0,5000 0,5016 0,0016 12000
Пирсона
Второй опыт 0,5000 0,5005 0,0005 24000
Пирсона

Это свойство случайных событий, известное под названием устойчивости


частот, можно перенести и на другие типы случайных событий, не
обладающих симметрией исходов и не составляющих полную группу. Правда,
подсчет теоретической вероятности для таких событий представляет
известные трудности.
Так возникло понятие статистической вероятности события, под
которой понимается относительная частота появления события А в n
произведенных опытах. Статистическая вероятность вычисляется на
основании результатов опытов по следующей формуле *:

m
Р * А   , (2.3)
n

где m - число появлений события А в n опытах.


Статистическая вероятность события идентична понятию частости
появления признака, использованному в главе 1.
2.4. Понятия суммы и произведения событий

Непосредственный подсчет вероятностей по классическому или


статистическому определению для решения многих практически важных
задач достаточно труден. Поэтому возникла необходимость в разработке
методов вычисления вероятностей событий, позволяющих по известным
вероятностям одних событий определять вероятности наступления других
событий. Эти методы связаны с применением основных теорем теории
вероятностей: теоремой сложения и теоремой умножения вероятностей,
которые могут быть строго доказаны только для событий, сводящихся к схеме
случаев, однако их можно распространить и на события, не сводящиеся к этой
схеме. В этом случае их принимают как аксиомы теории вероятностей.

A+B

A B
A AB B

Рисунок 5- Вероятность событий А и В

Прежде чем сформулировать и доказать основные теоремы рассмотрим


некоторые вспомогательные понятия, а именно понятия суммы и
произведения событий.
Суммой двух событий А и В называется событие С, состоящее в
появлении события А или события В, или обоих этих событий. Другими
словами, можно сказать, что событие С состоит в появлении хотя бы одного
из событий А и В. Например, если полученные анализы бракуют по двум
видам причин: А - несоблюдение правил проведения лабораторного анализа и
В – нарушения взятия биоматериала, то событие С означает вообще наличие
испорченности у проверяемого изделия (либо несоблюдение правил
проведения лабораторного анализа, либо нарушения взятия биоматериала,
либо обоих вместе).
Если события А и В несовместны, то появление этих событий вместе
отпадает и сумма событий А и В заключается в появлении или события А, или
события В.
Суммой нескольких событий называется событие, состоящее в
появлении хотя бы одного из этих событий.
Произведением двух событий А и В называется событие С, состоящее в
совместном появлении события А и события В.
Например, если взять для контроля два анализа из партии, состоящей из
бракованных и годных анализов, и событие А означает, что первый взятый
анализ годен; событие В - второй взятый анализ также годен, то событие С=АВ
состоит в том, что обе детали годные.

A+B

A B
A AСB B

С С

Рисунок 6- Вероятность событий А, В и С


Произведением нескольких событий называется событие, состоящее в
совместном появлении всех этих событий.
Дадим геометрическую интерпретацию понятий суммы и произведения
событий. Если обозначить через А попадание точки в область А, через В -
попадание точки в область В, то А+В - попадание в область, заштрихованную
на рисунок 5, АВ - попадание в область, заштрихованную на рисунке 5, б. На
рисунке 6 дана геометрическая интерпретация суммы и произведения трех
событий.

2.5 Теорема сложения вероятностей

Предварительно рассмотрим конкретный пример. Пусть имеется партия


биоматериала со следующим распределением размеров по диаметру:
120 биоматериалов диаметром 24,90 мм;
40 24,86 мм;
30 24,85 мм;
10 24,84 мм.
Какова вероятность извлечь биоматериал диаметром либо 24,86, либо
24,85, либо 24,84 мм?
Общее количество случаев равно 200. Из них благоприятствуют
поставленному условию 80. В соответствии с этим, вероятность извлечения
биоматериала диаметром от 24,86 до 24,84 мм

Р(А) = 80/200 = 2/5 .

Теперь рассмотрим вероятности извлечения биоматериала каждого


диаметра в отдельности. Для этого обозначим через А1 событие,
заключающееся в извлечении из данной совокупности биоматериала
диаметром 24,90 мм, А2- биоматериала диаметром 24,86 мм, А3 - биоматериала
диаметром 24,85 мм, А4 - биоматериала диаметром 24,84 мм. Тогда имеем

PA 1   120 / 200  3 / 5; PA 2   40 / 200  1 / 5;


PA 3   30 / 200  3 / 20; PA 4   10 / 200  1 / 20 .

По условию задачи необходимо определить вероятность извлечения


биоматериала с диаметром либо 24,86, либо 24,85, либо 24,84 мм. Складывая
вероятности появления биоматериала определенного диаметра, находим

Р(А) = 1/5 + 3/20 + 1/20 = 2/5 .

Таким образом, получена ранее вычисленная вероятность.


Теорема. 2.1. Вероятность появления одного из двух несовместных
событий равна сумме вероятностей этих событий:

РА  В  РА   РВ . (2.4)

Доказательство. Введем следующие обозначения: n - общее число


возможных случаев в опыте; m1 - число случаев, благоприятствующих
наступлению события А; m2 - число случаев, благоприятствующих
наступлению события В.
Число случаев, благоприятствующих наступлению либо события A,
либо события В, равно m1+m2. Так как события А и В несовместны, то нет
случаев, благоприятствующих наступлению событий A и В одновременно,
следовательно,

PA  B  m1  m 2  / n  m1 / n  m 2 / n . (2.5)


Учитывая, что PA   m1 / n; PB  m 2 / n , и подставляя эти выражения
в равенство (2.5), получим тождество.
Методом индукции можно обобщить теорему сложения на
произвольное число несовместных событий.
Теорема 2.2. Вероятность появления одного из нескольких попарно
несовместных событий равна сумме вероятностей этих событий:

 n  n
P  A i    PA i  , (2.6)
 i 1  i 1

Доказательство. Пусть теорема имеет место для n-1 событий:

PA 1  A 2    A n 1   PA 1   PA 2     PA n 1 .

Обозначим

A 1  A 2    A n 1  C ,
тогда по доказанной теореме можно записать:

PA 1  A 2    A n 1  A n   PC  A n   PC   PA n  .

Так как

PC   PA 1  A 2    A n 1  
 PA 1   PA 2     PA n 1 ,

то имеем
PA 1  A 2    A n 1  A n  
 PA 1   PA 2     PA n 1   PA n ,

что и требовалось доказать.


Теорему сложения вероятностей можно распространить и на случай
бесконечно большого числа несовместных событий:

   
P  A i    PA i  . (2.7)
 i 1  i 1

Следствие 1. Если несовместные события A 1 , A 2 ,  , А n образуют


полную группу, то сумма вероятностей этих событий равна единице, т. е.

PA 1   PA 2     PA n   1 .

Доказательство. Используя свойство 3, вытекающее из определения


вероятности события, можно записать
PA 1  A 2    A n   1.

Так как по условию события A 1 , A 2 ,  , А n - несовместные, то,


применяя теорему сложения вероятностей к левой части равенства, получим

PA 1  A 2    A n   PA 1   PA 2     PA n   1 .

Следствие 2. Сумма вероятностей противоположных событий равна


единице

P(A) + Р(A) = 1 .
Противоположные события образуют полную группу из двух
несовместных событий. Поэтому это следствие можно вывести как частный
случай из предыдущего следствия, не прибегая к отдельному доказательству.
Последнее следствие часто используют при решении практических
задач, когда оказывается легче вычислить вероятность противоположного
события А , чем вероятность прямого события A.
Если события совместны, то при сложении вероятностей этих событий
следует учитывать вероятность их совместного появления. Докажем
следующую теорему.
Теорема 2.3. Сложение вероятностей двух совместных событий.
Вероятность суммы двух совместных событий равна сумме вероятностей этих
двух событий без вероятности их совместного появления

PA  B  PA   PB  PAB  . (2.8)

Доказательство. Используя геометрическую интерпретацию событий


(рисунок 5), можно события А, В и их сумму А+В представить в виде сумм
несовместных событий:

А = АВ  АВ ,
В = АВ  АВ ,
А + В = АВ + АВ  АВ .

На основании теоремы сложения несовместных событий получим


следующие равенства:

Р(А)  Р(АВ) + Р(А В) , (2.9)


Р(В) = Р(АВ) + Р(АВ) , (2.10)

Р(А + В) == Р(АВ) + Р(АВ) + Р(АВ) . (2.11)

Складывая левые и правые части равенств (2.9) и (2.10), имеем

Р(А) + Р(В) = 2РР(АВ  Р(АВ)  Р(АВ) .

Отсюда

Р(АВ)  Р(АВ) = Р(А) + Р(В) - 2P(AB) .

Подставляя правую часть этого равенства в равенство (2.11), получим

PA  B  PA   PB  PAB  ,

что и требовалось доказать.


Аналогично, можно доказать, что вероятность суммы трех совместных
событий

PA  B  C  PA   PB  PC  PAB 


. (2.12)
 PBC  PAC   PABC

Методом индукции можно полученную формулу распространить на


случай вероятности суммы произвольного числа совместных событий:
PA 1  A 2    A n   PA 1   PA 2     PA n  
 PA 1 A 2   PA 1 A 3     PA n 1  A n  
(2.13)
 PA 1 A 2 A 3     PA n  2  A n 1  A n    
  1  PA 1 A 2  A n .
n

2.6 Теорема умножения вероятностей

Различают зависимые и независимые события. Два события называются


независимыми, если появление одного из них не изменяет вероятность
появления другого. Например, если в цехе работают две автоматические
линии, по условиям производства не связанные между собой, то остановки
этих линий являются независимыми событиями.
Несколько событий называются независимыми в совокупности, если
любое из них не зависит от любой комбинации остальных. События
называются зависимыми, если появление одною из них изменяет вероятность
появления другого. Пусть, например, две производственные установки
связаны единым технологическим циклом, Тогда вероятность выхода из строя
одной из них зависит от того, в каком состоянии находится другая.
Вероятность одного события (В), вычисленная в предположении
осуществления другого события (А), называется условной вероятностью
события В и обозначается через Р(В/А).
Условие независимости события В от события А записывают в виде
Р(В/А) = Р(В) , а условие зависимости - в виде PB / A   PB . Рассмотрим

пример вычисления условной вероятности события.


Пример 3. В ящике находятся пять ножей для среза биоматериала - два
изношенных и три новых. Производится два последовательных извлечения
ножей. Определить вероятность появления изношенного ножа при втором
извлечении при условии, что извлеченный в первый раз нож в ящик не
возвращается.
Решение. Обозначим через А извлечение изношенного ножа в первом
случае, а через А - извлечение нового. Тогда

PA   2 / 5; PA   3 / 5 .

Поскольку извлеченный нож в ящик не возвращается, то изменяется


соотношение между изношенными и новыми ножами, следовательно,
вероятность извлечения изношенного ножа во втором случае зависит от того,
какое событие осуществилось перед этим.
Обозначим через В событие, означающее извлечение изношенного ножа
во втором случае. Вероятности этого события могут быть такими:

Р(B/A) = 1/4; Р (ВВА) = 2/4 = 1/2 .

Следовательно, вероятность события B зависит от того, произошло или


нет событие А.
Теорема 2.4. Вероятность произведения двух событий равна
произведению вероятности одного из них на условную вероятность другого,
вычисленную при условии, что первое событие произошло

Р(АВ) = Р(А)  Р(В/А) , (2.14)

или

Р(АВ) = Р(В) - Р(А/В) .

Доказательство. Рассмотрим опыт, сводящийся к схеме случаев. Пусть n


- общее число возможных случаев в опыте. Предположим, что событию А
благоприятны m случаев, а событию В - k случаев. Событие В наступает в
предположении, что событие А уже произошло. Следовательно, совместному
наступлению событий АВ благоприятны из общего числа n случаев только k:

P(AB) = k/n .

При вычислении условной вероятности события В нужно учитывать, что


общее возможное число случаев для этого события состоит только из тех
случаев, которые благоприятствовали появлению события А:

P(B/A) = k/m ,

Р(А)  m/n .

Подставляя последние выражения в формулу (2.14), получим тождество.


Теорема доказана.
Так, для рассмотренного выше примера вероятность двухкратного
извлечения изношенных ножей

Р(АВ)  Р(А)  Р(В/А)  2/5  1/4  1/10 .

Теорема 2.5. Умножение вероятностей для произвольного числа событий.


Вероятность произведения нескольких событий равна произведению
вероятности одного из этих событий на условные вероятности других.
Условная вероятность каждого последующего события вычисляется в
предположении, что все предыдущие события произошли.
Доказательство. Проведем доказательство методом индукции. Пусть
теорема справедлива для (n-1) события:
PA 1 A 2  A n 1  
 PA 1 PA 2 / A 1  PA n 1 / A 1 A 2  A n  2 .

Обозначим произведение событий A 1 A 2  A n 1 через С:

C  A 1 A 2  A n 1 .

Тогда, согласно теореме умножения вероятностей для двух событий, имеем

PA 1 A 2  A n 1 A n   PCA n   PC PA n / C  .

Так как

PC   PA 1 A 2  A n 1  
 PA 1 PA 2 / A 1  PA n 1 / A 1 A 2  A n  2 ,

то можно записать:

PA 1 A 2  A n 1 A n  
(2.15)
 PA 1  / PA 2 / A 1  PA n / A 1 A 2  A n 1 ,
что и требовалось доказать.
Следствие 1. Если появление события А не зависит от события В, то и
появление события В не зависит от события А
Доказательство. Если появление события А не зависит от события В, то
можно записать

Р(А) = Р(A/B) (2.16)


Используя две формы записи теоремы умножения, имеем

Р(А)  Р(В/А) = Р(В)  Р(А/В) .

Подставим в это тождество выражение (2.16)

Р(А)  Р(В/А) = Р(В)  Р(А) .

Разделив обе части равенства на Р(А), получим

Р(В/А) - Р(В) ,

что и требовалось доказать.


Следствие 2. Вероятность произведения двух независимых событий
равна произведению вероятностей этих событий.
Доказательство. Учитывая следствие 1 преобразуем формулу (2.14). В
результате получим следующее равенство:

Р(АВ)  Р(А)  Р(В) ,

что и требовалось доказать.


Это следствие может быть распространено на произвольное число
событий, независимых в совокупности:

PA 1 A 2  A n   PA 1 PA 2  PA n  . (2.17)

Пример 4. На автоматическую линию сборки медицинских приборов


поступают для запрессовки верхняя часть коробки и нижняя. Запрессовка
доброкачественна, если детали по сопрягаемым диаметрам изготовлены без
отклонения от допуска. Определить вероятность того, что запрессовка будет
доброкачественной, если вероятность изготовления внутреннего диаметра
верхней части коробки в пределах допуска равна 0,98, а вероятность
изготовления наружного диаметра нижней части коробки в пределах допуска
равна 0,95.
Решение. Пусть А - событие изготовления годной верхней части
коробки; В - событие изготовление годной нижней части коробки.
Технологические процессы изготовления деталей коробки независимы друг от
друга, поэтому появление бракованной верхней части крышки коробки не
влияет на изменение вероятности появления годной нижней части коробки. В
силу независимости этих событий искомая вероятность

Р (ААB= Р(А)  Р (ВВ= 0,98  0,95 = 0,931 .

Пример 5. Известно, что 85% готовой продукции медицинского завода


является стандартной. Вероятность того, что она отличного качества равна
0,51. Найти вероятность того, что наудачу взятое изделие окажется отличного
качества.
Решение. Пусть А - событие, означающее, что взятое наудачу изделие
окажется стандартным, В - событие, означающее, что изделие отличного
качества Изделие может быть отличного качества, если оно стандартное
Поэтому из условия задачи следует, что Р (A) = 0,85 и Р B/A  = 0,51. Тогда

Р (AB) = Р (АА Р(В/А) = 0,85  0,51 = 0,4335 .


Если равенство Р(АВ) - Р(А)Р(В) = 0 не выполняется, т. е.
Р(АВ) - Р(А)Р(В)  0 , то это означает, что события А и В являются

зависимыми.
Рассмотрим меру степени зависимости между этими событиями. В
качестве абсолютного показателя величины связи между событиями А и В
можно принять разность

Р(АВ) - Р(А)Р(В) =  . (2.18)

Рассматривая равенство 2.18, записанное в виде

PA PB / A   PB   ,

можно сделать вывод, что выбранный показатель величины связи


положителен, если вероятность одного события возрастает после наступления
другого, и отрицателен, в противном случае.
Показатель величины связи между событием А и событием В равен -  .
Действительно, событие А можно представить как сумму несовместных
событий

АВ + АB = А .

Тогда
Р(АВ) + Р(АВ) = Р(А) . (*)

С другой стороны,

Р(А)Р(В) + Р(А)Р( В) = Р(А)[Р(В) + Р( В)] = Р(А) .


Вычитая последнее равенство из равенства (*), получим

Р(АВ) - Р(А)Р(В) + Р(АВ) - Р(А)Р( В) = 0 .

Учитывая равенство (2.18), можно записать

Р(АВ) - Р(А)Р( В) = -  . (2.19)

Аналогично можно показать, что

Р(АВ) - Р(А)P(B)  -  , (2.20)

Р(АВ) - Р(А)P( B)   . (2.21)

Таким образом, знак показателя связи меняется, если одно из двух


рассматриваемых событий заменить противоположным ему событием,
абсолютная же величина показателя остается постоянной. Из выражений
(2.18) - (2.21) следует, что величина связи  существенным образом зависит
от значений вероятностей событий А и В. Из равенств (2.18) - (2.21) можно
получить следующие два выражения:

Р (AB) Р (АВ) = [Р (A)P(B) + ] [P (А) Р (В) + ] ,

PAB PAB  P(A)P( B)  P(B)P( A )  .

Вычитая второе равенство из первого, получим


P(AB)P( AB)  P(AB)P( AB)  [P(A )P(B) 
.
 P(A )P( B)  P( A )P(B)  P( A )P( B)]  .

Применяя к каждому из четырех совмещений АВ, АВ, АВ, АВ , сумма


вероятностей которых как единственно возможных несовместных событий
равна единице, теорему умножения вероятностей, имеем

  PA PB / A PA PB / A   PA PB / A  


 PA PB / A   PA PA PB / A PB / A   P( B / A )P(B / A )
.

Принимая во внимание, что

P( B/A)  l - P(B/A),
P( B/A)  l - P(B/A),

получим следующее выражение для показателя  :

 = Р(А)Р( А)[P(B/A) - P(B/A)] .

Разность между условными вероятностями одного из событий в случае


наступления и в случае ненаступления другого называют коэффициентом
регрессии. Если рассматривают коэффициент регрессии события А
относительно события В, то ею обозначают через  A ; коэффициент регрессии
события В относительно события А обозначают через  B . Таким образом,
 A  PA / B  P(A / B); (2.22)

 B  PB / A   P(B / A) . (2.23)


Коэффициенты регрессии можно представить в виде

  P(A )P( A )
A  , B  , A  B
PBPB  PA PA 
. (2.24)
P(B)P( B)

Из рассмотрения формул, выражающих коэффициенты регрессии,


можно сделать следующие выводы. Коэффициенты регрессии имеют тот же
знак, что и показатель величины связи  . Коэффициенты регрессии  A и  B
имеют всегда одинаковый знак. Коэффициенты регрессии равны между собой
только в том случае, если имеют место следующие равенства:

Р(А) = Р(В)

или

Р(A) = 1 - Р(А) = Р(B) .

Коэффициенты регрессии обращаются в нуль только тогда, когда


события А и В независимы. Коэффициенты регрессии не превышают по
абсолютной величине единицы, так как они представляют собой разность
между двумя положительными числами, не превышающими единицу. При
этом  = 1 , если события А и В происходят совместно, т.е. Р(В/А) = 1 и

P(B/A) = 0 или Р(А/В) = 1 и Р(А/ В) = 0 . Коэффициент регрессии р = -1, если

происходят совместно события А и В или А и В. Таким образом,  1    1


Для характеристики взаимной зависимости между событиями А и В
используют среднюю геометрическую обоих коэффициентов регрессии,
которая называется в этом случае коэффициентом корреляции между
событиями А и В:
P(B)P( B) P(A )P( A )
R   AB  A  B ,
P(A )P( A ) P(B)P( B)

или

 PAB   PA PB


R  (2.25)
PA PA PBPB  PA PA PBPB 

Коэффициент корреляции имеет тот же знак, что и коэффициенты


регрессии и изменяется в пределах от -1 до + 1:

 1  R  1 .

Коэффициент корреляции обращается в нуль, если события А и В


независимы. Коэффициент корреляции R=1, если события A и B происходят
совместно; R= -1, если события А и В являются противоположными
событиями.
Пример 6. При исследовании качества изготовления лабораторного
оборудования на одном из медицинских заводов установлено, что вероятность
изготовления лабораторного оборудования с внешним отклонением,
превосходящим 3 мм, равна 0,1280, вероятность изготовления лабораторного
оборудования с внутренним отклонением, превосходящим 3 мм, равна 0,0346,
а вероятность изготовления колеса, у которого и внешнее и внутреннее
отклонение превосходят 3 мм, равна 0,0206. Вычислить условные вероятности
событий, коэффициенты регрессии и корреляции между внешними и
внутренними отклонениями лабораторного оборудования.
Решение. Пусть событие А состоит в том, что внешнее отклонение у
изготовленного лабораторного оборудования превзойдет 3 мм; событие В –
внутреннее отклонение у изготовленного лабораторного оборудования
превзойдет 3 мм. По условию имеем: Р(А) =0,1280; Р(В) =0,0346; Р(АВ)
=0,0206. События А и В можно представить в виде суммы несовместных
событий:
A  AB  AB, B  AB  AB .

Применяя теорему сложения вероятностей, получим

Р(А) = Р(АВ) + Р(АВ) ,

Р( В) = Р (AB) + Р(АВ) ,

откуда

Р (АB) = Р (A)  Р (АВ) ,

Р (АB) = Р (B)  Р (АВ) .

Вероятность события АВ можно найти, учитывая равенство:

АВ = А + В .

Следовательно,

Р (AB) = Р (А + В) = 1 - Р (А  B) ,
Р (A  B) = Р(А)  Р (ВВ- Р(АВ) = 0,1280 + 0,0346 - 0,0206 = 0,1420 ,

Р(АВ) = 1 - 0,1420 = 0,8580 ,

Р(А) = 1 - Р (A) = 1 - 0,1286 = 0,8720 ,


P(B) = 1 - Р(В) = 1 - 0,0346 = 0,9654 ,
Р (АB) = 0,8720 - 0.858С = 0,0140 ,
Р (АB) = 0,9654 - 0,8580 = 0,1074 .

Вычислим условные вероятности событии и коэффициенты регрессий и


корреляции. Найдем вероятность того, что внутреннее отклонение
лабораторного оборудования превзойдет 3 мм, если внешнее отклонение
лабораторного оборудования также превосходит 3 мм,

PAB 0,0206
PB / A     0,1609 .
PA  0,1280

Вероятность того, что внутреннее отклонение лабораторного


оборудования превзойдет 3 мм, если внешнее отклонение лабораторного
оборудования меньше 3 мм,

PAB 0,0140
PB / A     0,0160 .
PA  0,8720

Коэффициент регрессии события В относительно события А,


характеризующий в данном случае эффективность внешнего отклонения на
изменение внутреннего отклонения лабораторного оборудования

 В  Р (ВВ/А- Р (B/A) = 0,1609 - 0,0160 = 0,1449 .

Вероятность того, что внешнее отклонение лабораторного оборудования


превзойдет 3 мм, если внутреннее отклонение лабораторного оборудования
также превзойдет 3 мм,
PA/B  PAB /PB = 0,0206/0,0346 = 0,5953 .

Найдем вероятность того, что внешнее отклонение лабораторного


оборудования превзойдет 3 мм, если внутреннее отклонение лабораторного
оборудования меньше 3 мм,

Р (A/ В) = Р (АВ)/Р (ВВ= 0,1074/0 ,9654 = 0,1112 .

Коэффициент регрессии события А относительно события В,


характеризующий в данном случае эффективность действия внутреннее
отклонение лабораторного оборудования на изменение внешнего отклонения
лабораторного оборудования, равен

А = Р (A/B) - Р (ААВ) = 0,5953 - 0,1112 = 0,4841.

Коэффициент корреляции между событиями А и В

R   A  B  0,1449  0,4841  0,2619

2.7 Формула полной вероятности

Теорема 2.6. Если событие А может наступить только при условии


появления одного из событий В1, В2, ..., Вn, образующих полную группу
несовместных событий, то вероятность события А равна сумме произведений
вepoятностей каждого из событий В1, В2, ..., Вn на соответствующую
условную вероятность события А:
n
P(A )   P(B i ) * P(A / B i ), (2.26)
i 1

Эта формула носит название формулы полной вероятности.


Доказательство. Формулу полной вероятности можно вывести на
основании теорем сложения и умножения вероятностей.
Согласно условию событие А можно представить в виде несовместных
комбинаций

A  B1 A  B 2 A  ...  B n A

По теореме сложения вероятностей несовместных событий можно


записать

A  B1 A  B 2 A  ...  B n A

\
По теореме умножения вероятностей имеем

P(A)  P(B1 ) * P(A / B1 )  P(B 2 ) * P(A / B 2 )  ...  P(B n ) * P(A / B n )

Или

n
P(A )   P(B i ) * P(A / B i ),
i 1

Пример 7. На сборочный конвейер медицинского оборудования


поступают детали с трех станков. Производительность станков неодинакова.
Первый дает 50% программы, второй 30%, а третий 20%. Если в сборку
попадает деталь, сделанная на первом станке, то вероятность получения
годного узла равна 0,98. Для продукции второго и третьего станков
соответствующие вероятности равны 0,95 и 0,8. Определить вероятность тoгo,
что узел, сходящий с конвейера, годный.
Решение. Обозначим через А событие, означающее годность собранного
узла; через В1, В2 и В3 события, означающие, что детали сделаны
соответственно на первом, втором, третьем станках. Тогда
имеем:

P(B1 )  0,5; P(B 2 )  0,3; P(B 3 )  0,2;


P(A / B1 )  0,98; P(A / B 2 )  0,95; P(A / B 3 )  0,8;

Искомая вероятность

P(A )  P(B1 ) * P(A / B1 )  P(B 2 ) * P(A / B 2 )  ...  P(B 3 ) * P(A / B 3 ) 


 0,5 * 0,98  0,3 * 0,95  0,2 * 0,8  0,935

2.8 Формула Бейеса или теорема гипотез

Формулы Бейеса применяются при решении практических задач, когда


событие А, появляющееся совместно с каким-либо из событий B1, В2,..., Вn,
которые образуют полную группу несовместных событий (эти события
иногда называются гипотезами), произошло и требуется произвести
количественную переоценку вероятностей событий B1, В2,..., Вn. Априорные
(до опыта) вероятности Р(B1), Р(В2),..., Р(Вn) известны. Требуется вычислить
апостериорные (после опыта) вероятности, т. е. по cyществу нужно найти
условные вероятности P(B1/A), Р(В2/А), ..., Р(Вn/А).
Пусть событие А может наступить при условии появления одного из
несовместных событий B1, В2,..., Вj,…, Вn образующих полную группу.
Вероятность cовместного наступления события А с любым из этих событий
(пусть это будет событие Bj ) согласно теореме умножения вероятностей
определится следующим образом:

P(AB j )  P(A) * P(B j )P(B j / A),


P(AB j )  P(B j ) * P(A)P(B j / A),

Левые части этих выражений равны, следовательно, равны и правые


части, поэтому

P( A ) P( B j / A )  P( B j ) P( A / B j )

Решая это уравнение относительно P(A / B j ) при условии, что P(A)  0 ,

получим

P( B j A )  P( B j ) P( A / B j ) / P( A )

Раскрывая в последнем равенстве P(A ) по формуле полной


вероятности, имеем

n
P(B j A )  P(B j )P(A / B j ) /  P(B i ) * P(A / B i ), (2.27)
i 1

Эта формула носит название формулы Бейеса.


Пример 8. Пользуясь данными примера 7, рассчитать вероятности того,
что в сборку попала деталь, изготовленная на первом, втором в третьем
станках соответственно, eсли узел, сходящий С конвейера, годный.
Решение. Paсчет условных вероятностей произведем по формуле Бейеса.
Имеем:
для первого станка

0,5 * 0,98
P(B1 A)  P(B1 )P(A / B1 ) / P(A)   0,525;
0,935

0,3 * 0,95
P( B 2 A)  P( B 2 ) P( A / B 2 ) / P( A)   0,304;
0,935

0,2 * 0,8
P( B 2 A )  P( B 2 ) P( A / B 2 ) / P( A )   0,171;
0,935

В настоящее время. формулы Бейеса находят широкое применение при


решении .проблем управления, связанных с принятием административных
решений, когда приходится сталкиваться с недостаточной информацией о
закономерностях в экономике и промышленности. По мере накопления
дополнительной информации производится корректировка решений.
например. одной из таких проблем является принятие окончательного
решения при входном контроле партии деталей. При этом возможны
следующие варианты решений:
1) принять всю партию, запустив ее в производство;
2) проконтролировать каждое изделие в партии, заменяя или исправляя
при этом дефектные изделия;
3) забраковать всю партию.
Использование формул Бейеса позволяет принять наилучшее решение.
Пусть на завод поставляют партии изделий объемом N. Обозначим через B i
наличие в партии i бракованных изделий (i==о, 1, ..., j, .... l). При контроле
из партии случайным образом отбирается n изделий. Обозначим через событие
А наличие в выборке. бракованных изделий. Вероятность обнаружения k
бракованных изделий среди n отобранных (k==0, 1. ...,m ). если во всей партии
содержится i бракованных изделий, определим по формуле
C kn C lNkn
P(A / B i ) 
C nN

j m
Cm
n C Nn
P(B j )[
l C nN
P(B j A )  P(B j )P(A / B j ) /  P(B i ) * P(A / B i )  l

l m
Cm
n / C nN  P(B j ) * C Njmn
lm

P(B j ) * C Njmn
 l
,
 P(B j ) * C Njmn
lm

Рассмотрим конкретный пример. связанный с контролем поршневых


колец.
Пример 9. Пусть по проведенным ранее выборкам известно, что в
поставляемых с завода изготовителя партиях имеется следующее
распределение количества тонометров, не удовлетворяющих принятому
уровню качества.

Количество бракованных тонометров 0 1 2 3


Вероятность наличия в партии l бракованных 0,5 0,3 0,18 0,02
тонометров P(B j )

При входном контроле партии из 200 тонометров в выборке объемом 20


единиц обнаружено один тонометр ниже принятого ypовня качества. Оценить
вероятности наличия дефектных изделий в партии после входногo контроля.
Решение. По условию задачи имеем: N=200, n=20; k=l, P(B 0 )  0,5; P(B1 )  0,3;
P(B 2 )  0,18; P(B 3 )  0,02;

Вероятности наличия дефектных изделий в партии изменятся так:

P(B 0 / A )  0,
0
P(B1 ) * C180
P ( B1 A )   0,00085
0
P(B1 ) * C180  P(B 2 ) * C1180  P(B 3 ) * C180
2

P(B 2 ) * C1180
P(B 2 A)   0,09129
0
P(B1 ) * C180  P(B 2 ) * C1180  P(B 3 ) * C180
2

2
P(B 3 ) * C180
P(B 3 A)   0,90786
0
P(B1 ) * C180  P(B 2 ) * C1180  P(B 3 ) * C180
2

Переоценка вероятностей позволяет администрации, исходя из


экономических затрат, либо забраковать партию тонометров, отправив ее на
завод-изготовитель, либо произвести разбраковку партий, либо принять их
производство.

2.9 Схема испытаний Бернулли и Пуассона

На практике приходится сталкиваться с такими задачами, которые


можно представить в виде многократнo повторяющихся испытаний, в
результате каждого из которых может появиться или не появиться событие А.
При этом представляет интерес исход не каждого отдельного испытания, а
общее число появлений события А в результате определенного количества
испытаний. В подобных задачах нужно уметь определять вероятность любого
числа m появлений события А в результате n испытаний. Рассмотрим случай,
когда испытания являются независимыми и вероятность появления события А
в каждом испытании постоянна.
Если вероятность события А в каждом испытании не зависит от исходов
других испытаний, то такие испытания называются независимыми
относительно события А. Если независимые испытания производятся в
одинаковых условиях, то вероятность события А в этих испытаниях одна и та
же. При изменении условий испытаний вероятность события А от испытания
к испытанию меняется. Примером независимых испытаний может служить
проверка на годность изделий, взятых по одному из ряда партий. Если в этих
партиях процент брака одинаковый, то вероятность того, что отобранное
изделие будет бракованным, в каждом случае является постоянным числом.
Вывод формулы Бернулли. Воспользуемся понятием
сложного события, под которым подразумевается совмещение нескольких
элементарных событий, состоящих в
появлении или, непоявлении события А в i-m испытании. Пусть производится
n независимых испытаний, в каждом из которых событие А может либо
появиться с вероятностью р, либо не пояпиться с вероятностью q=1-р.
Рассмотрим событие Вm, состоящее в том, что событие А в этих n испытаниях
наступит ровно т раз и, следовательно, не наступит ровно n-m раз. Обозначим
через Ai (i == 1, 2, ..., n) . появление события А, через Ai - непоявление события
А в i-m испытании. В силу постоянства условий испытания имeем

P(A 1 )  P(A 2 )  ...  P(A n )  p,


P( A 1 )  P( A 2 )  ...  P( A n )  1  p  q

Событие А может появиться m раз в разных последовательностях или


комбинациях, чередуясь с противоположным событием A . Число возможных
комбинаций Taкого рода рaвно числу сочетаний из n элементов по m, т. е.
C nm . Следовательно, событие Вm можно представить в
виде суммы сложных событий несовместных между собой, причем число
слагаемых равно C nm :

B m  A 1 A 2 ...A m A m 1 ...A n  A 1 A 2 A...A n 1 A n  A1 A 2 ...A n  m A n  m 1 ...A n , (2.28)

где в каждое произведение событие А входит m раз, а A входит n-m раз.


Вероятность каждого cложного coбытия, входящего в формулу (2.28), по
теореме умножения вероятностей для независимых событий равна
pm qn-m. Так как общее число таких событий равно C nm то, используя теорему
сложения вероятностей для несовместных событий, получим вероятность
события Вm (обозначим ее через Рm,n):

m n m
Pm, n  C m
np q ,

или

n!
Pm, n  * p mq n  m (2.29)
m!(n  m)!

Полученную формулу называют формулой Бернулли, а повторяющиеся


испытания, удовлетворяющие условию независимости и постоянства
вероятностей появления в каждом из них события А, называются
испытаниями Бернулли или схемой Бернулли.
События Вm (m==0,1, ..., n), состоящие в различном числе появлений события
А в n испытаниях несовместны и образуют полную гpyппy. Следовательно,
n n
 Pm,n   Cmn pmq n  m  q n  C1n p q n 1  ...  Cmnpmq n  m  ...  pn  1, (2.30)
m 0 m 0

Нетрудно заметить, что правая часть последнего равенства представляет


собой члены разложения бинома

(q  p) n  q n  C1n p q n 1  ...  C m m n m
n p q  ...  p n  1

В связи с этим распределение вероятностей вида (2.30)


называется биноминальным распределение. Оно будет
рассмотрено в главе 3.
Если вероятность появлений события А меняется от
испытания к испытанию, то вероятность события Вm по
формуле (2.29) такова:

Pm,n  p1q 2 ...p m q m 1 ...q n  ...  p1q 2 p 3 ...p n q n 1 ...q 1q 2 ...q n  m p n  m 1 ...p n

где рi - вероятность появления события А; qi - вероятность непоявления


события А в i-m испытании. Имеем

P(A i )  p i ,
P( A i )  1  p i  q i ,

В этом случае -при вычислении вероятностей возможного


числа наступлений события А в n независимых испытаниях применяется так
называемая производящая функция  n (x) , представляющая собой
произведение различных биномов:
 n ( x )  (q 1  p1 x )(q 2  p 2 x )...(q n  p n x ),

или

 n ( x )  П(q l  p i x ), (2.31)

Производящая функция обладает тем свойством, что после


перемножения биномов и приведения подобных членов коэффициент при х m
представляет собой вероятность тогo, что событие А появится ровно m раз в n
независимых испытаниях. Это можно записать в виде следующей формулы:

n
П (q l  p i x )   Pm,n x m , (2.32)
m 0

Выполнив все действия в левой части последнего paвенства, получим


все вероятности: Р0,n, Р1,n, ..., Рn,n как коэффициенты при нулевой, первой и т.
д. степенях х. Сумма вcex вероятностей Рm,n равна единице, так как события
Вm (m ==0, 1, ..., n) образуют полную группу несовместных событий

n
 Pm,n  1
m 0

Формально это равенство можно получить, положив в


формуле (2.32) х= 1. Последовательность независимых испытаний, в которых
условие постоянства вероятностей появления события А не соблюдается,
впервые была исследована Пуассоном и носит название схемы испытаний
Пуассона. Она является обобщением схемы Бернулли. При p1 =p1=...=pn=p
имеем q1 =q2=...=qn=q и производящая функция  n ( x ) принимает следующий
вид:
 n ( x )  (q  p x ) n ,

Раскрывая это выражение по формуле бинома, получим

 n ( x )  (q  p x ) n  q n x 0  C1n p q n 1 x 1  ...  C m m n m m
n p q x  ...  p n x n , (2.33)

или

n
(q  p x )  n
 C mn p m q n  m x m ,
m 0

откуда следует формула (2.29)


Формула (2.33) может быть использована для вычисления вероятности
события Вm (m=0, 1, ..., n).
Kpомe вероятности Рm,n появления события А ровно m раз на практике
требуется вычислить вероятность того, что событие А наступит не менее m раз
(обозначим это через событие Сm), не более m раз (обозначим это
через событие Dm ), .менее m раз (событие Dm-1), более
m раз (событие Сm+1 ). Очевидно, что

C m  B m  B m 1  ...  B n ,
D m  B 0  B1  ...  B m ,
D m 1  B 0  B1  ...  B m 1 ,
C m 1  B m 1  B m  2  ...  B n ,

Используя теорему сложения вероятностей, вероятности перечисленных


событий можно выразить следующим образом:
n
P(C m )  P(B m )  P(B m 1 )  ...  P(B n )   Pi ,n , (2.34)
im

m
P(D m )  P(B 0 )  P(B1 )  ...  P(B m )   Pi ,n , (2.35)
i 0

m 1
P(D m 1 )  P(B 0 )  P(B1 )  ...  P(B m 1 )   Pi ,n , (2.36)
i 0

n
P(C m 1 )  P(B m 1 )  P(B m  2 )  ...  P(B n )   Pi,n , (2.37)
i  m 1

События Сm и Dm-1, а также Dm и Сm+1, являются противоположными.


Это свойство событий используется для упрощения вычислений при решении
практических задач. Имеем:

P(C m )  1  P(D m 1 ), (2.38)

P(D m )  1  P(C m 1 ), (2.39)

Пример 10. Вероятность выхода за границы поля допуска при обработке


биоматериала на лабораторном станке равна 0,07. Определить вероятность
тогo, что из пяти наудачу отобранных в течение дня биоматериалов у одной
размеры диаметра не cooтветствуют заданному допуску.
Решение. Условие задачи удовлетворяет требованиям схемы Бернулли.
Поэтому по формуле (2.29), полаrая n=5,m=1, p=0.07, получим:
P1,5  C15 (0,07)1 (0,93) 4  0,2618

Пример 11. В конце рабочего дня на контроль поступают четыре партии


лекарственных медикаментов, различающихся между собой качеством
изготовления. Вероятность тогo, что медикамент из 1 партии удовлетворяет
медицинским условиям, равна 0,8; из 2 партии - 0,7; из 3 партии - 0.9; из 4
партии - 0,93. Заведующий отбирает из каждой партии по одному
медикаменту. Найти вероятность тогo, что поступившие в конце рабочего дня
партии будут приняты заведующим, если необходимым условием для этоrо
является наличие среди отобранных не менее двух медикаментов,
удовлетворяющих медицинским условиям.
Решение. Так как для каждой партии вероятности тогo, что медикамент
удовлетворяет медицинским условиям, различны, т. е. условия испытаний
неодинаковы, то для решения воспользуемся производящей функцией (2.31):

( x )  (0,2  0,8x )(0,3  0,7 x )(0,1  0,9 x )(0,05  0,95x )  0,003  0,0103x 
 0,1073x 2  0,4033x 3  0,4788x 4

Событие - присутствие среди отобранных не менее двух медикаментов,


удовлетворяющих медицинским условиям, которое мы обозначим через С2
означает наличие либо двух, либо трех, либо четырех таких медикаментов
среди отобранных.
Вероятность искомого события по формуле ('2,34) такова:

4
P(C 2 )   Pi , 4
i2
Коэффициенты при х2 , х3, х4 в разложении по степеням х производящей
функции  4 ( x ) являются соответствующими вероятностями
Р2,4 ; Р3,4; Р4,4 , следовательно,

P(C 2 )  0,1073  0,4033  0,4788  0,9894

Пример 12. Вероятность ошибки врача на автоматическом роботе во


время операции равна 0,7. Определить вероятности возможного числа
появления смертей среди пяти пациентов отобранных случайным образом.
Решение. По условию n=5, p=0,3; q=0,7. Применяя производящую
функцию (2.33), получим

 5 ( x )  (0,3  0,7 x ) 5  0,35  C15 * 0,7 * 0,3 4 x  C 52 * 0,7 2 * 0,33 x 2 


 C 35 * 0,7 3 * 0,3 2 x 3  C 54 * 0,7 4 * 0,3 x 4  0,7 5 * x 5  0,00243  0,0235x  0,1323x 2 
 0,3087x 3  0,36015x 4  0,16807x 5

Искомые вероятности являются коэффициентами, следовательно,

P0,5  0,00243; P1,5  0,0,02835; P2,5  0,1323; P3,5  0,3087;


P4,5  0,36015; P5,5  0,16807;

2.10 Навероятнейшее число появления события при повторных


испытаниях по схеме Бернулли

Наивероятнейшим числом появления события А в n независимых


испытаниях называется такое число m0, для которого вероятность,
соответствующая этому числу, превышает или, по крайней мере, не меньше
вероятности каждого из остальных возможных чисел появления события А.
Так например, сравнивая вероятности числа появлений бракованных изделий
среди пяти отобранных в примере 12 предыдущего параграфа, получим
навероятнейшее число m0=4. Для определения наивероятнеишего числа не
обязательно вычислять вероятности возможных чисел появлений события,
достаточно знать число испытаний n и вероятность появления события А в
отдельном испытании. Обозначим вероятность, соответствующую
наивероятнейшему ,числу m0, через Рm0,n Используя формулу (2.29), можно
записать:

n!
Pm0,n  C m
n p
m0 n m0
q  * p m0 q n m0 (2.40)
m 0 !(n  m 0 )!

Согласно определению наивероятнейшего числа, вероятности


наступления события А соответственно m0+ 1 и m0 -1 раз должны, по крайней
мере, не превышать вероятность Рm0,n т. е.

Pm 0 ,n  Pm 0 1,n ,

Pm0 ,n  Pm0 1,n ,

Подставляя в неравенства значение Pm0 ,n и выражения вероятностей

Pm0 1,n и Pm 0 1,n ,имеем:


n!
p m0 q n m0 
m 0 ! (n  m 0 )!
n!
 p m 0 1q n  m 0 1 
(m 0  1)! (n  m 0  1)!
n!
p m0 q n m0 
m 0 ! (n  m 0 )!
n! m 1 n  m 1
 p 0 q 0 
(m 0  1)! (n  m 0  1)!

Решая эти неравенства относительно то, получим:

m 0  np  q; m 0  np  q;

Объединяя последние неравенства, получим двойное неравенство,


которое используется для определения наивероятнейшего числа

np  q  m 0  np  q, (2.41)

Так как длина интервала, определяемого неравенством (2.41), равна единице

np  q  (np  q )  p  q  1,

и событие может произойти в n испытаниях только целое число раз; то следует


иметь в виду, что:
1) если np-q - целое число, то существуют два значения
наивероятнейшего числа, а именно: m0=np-q и m0'=np-q+ 1 =nр+р;
2) если np-q - дробное число, то существует одно наивероятнейшее
число, а именно: единственное целое, заключенное между дробными числами,
полученными из неравенства (2.41);
3) если nр - целое число, то существует одно наивероятнейшее число, а
именно: m0=nр.
При больших значениях n пользоваться биноминальной формулой (2.40)
для подсчета вероятности, соответствующей наивероятнейшему числу
неудобно. Если в равенство (2.40) подставить формулу Муавра-Стирлинга

n!  n n e  n 2n ,

справедливую для достаточно больших n, и принять наивероятнейшее число


равным m0=nр, то получим формулу для приближенноuо вычисления
вероятности, cоответствующей наивероятнейшему числу:

n n e  n 2n p np q nq 1
Pm 0 ,n   , (2.42)
(np) np e  np 2np (np) nq e  nq 2nq 2qnp

С возрастанием числа n возрастает точность этой формулы.


Пример 13. Известно, что 1/15 часть продукции, поставляемой заводом
в больницы, не удовлетворяет всем требованиям cтaндарта. На базу была
завезена партия изделий объемом 250 штук. Найти навероятнейшее число
изделий, удовлетворяющих требованиям стандарта, и вычислить вероятность
того, что в этой партии окажется наивероятнейшее число изделий.
Решение. По условию n=250; q= 1/15; p= 1-1/15=14/15 согласно
неравенству (2.41), имеем
250*14/15 -1/15 < m0 < 250*14/15 -14/15,
откуда 233,26 < m0 < 234,26.
Следовательно, навероятнейшее число изделий, удовлетворяющих
требованиям стандарта, в партии из 250 штук равно 234. Подставляя данные в
формулу (2.42), вычислим вероятность наличия в партии наивероятнейшего
числа изделий:

1
P234, 250   0,1012
2 * 250 * 14 / 15 * 1 / 15
3 Законы распределения случайных величин

3.1 Случайная величина. Задание законов ее распределения

Случайной называется величина, которая принимает в результате


испытания то или иное (но при этом только одно) возможное значение, заранее
неизвестное, меняющееся от испытания к испытанию и зависящее от
случайных обстоятельств. В отличие от случайного события, являющегося
качественной характеристикой случайного результата испытания, случайная
величина характеризует результат испытания количественно. Примерами
случайной величины могут служить: размер обрабатываемом детали,
погрешность результата измерения какого-либо параметра изделия или среды,
содержание химических элементов в чугуне и т. д. Случайные величины могут
быть дискретными и непрерывными.
Дискретной называется такая случайная величина, которая принимает
конечное или бесконечное счетное множество значений. Это, например, число
дефектных изделий в партии; число вызовов, поступающих на телефонную
станцию в течение суток; число отказов элементов устройства за
определенный промежуток времени при испытании его на надежность и т. д.
Непрерывной называется такая случайная величина, которая может
принимать любые значения из некотоpoгo конечного или бесконечного
интервала. Очевидно, число возможных значений непрерывной случайной
величины бесконечно. Время безотказной работы как отдельных элементов
системы, так и всей системы в целом; погрешность измерения расхода
жидкости; погрешность изготовления деталей на станке являются
непрерывными случайными величинами.
Случайные величины обычно обозначаются заглавными буквами конца
латинского алфавита - Х, У, Z, ..., а их возможные значения -
соответствующими малыми буквами - х, у, z ... .
Для задания случайной величины недостаточно перечислить все ее
возможные значения. Необходимо также знать, как часто могут появиться те
или иные ее значения в результате испытаний при одних и тех же условиях, т.
е. нужно задать вероятности их появления.
Пусть Х - дискретная случайная величина, принимающая в результате
испытания следующие возможные значения:

X  x1 , X  x 2 ; ...; X  x n . (3.1)

Перечисленные значения случайной величины можно рассматривать как


события, появляющиеся при испытаниях. Обозначим вероятности этих
событий через р с соответствующими индексами:

P(X  x1 )  p1 ; P(X  x 2 )  p 2 ; ...; P(X  x n )  p n .

События (3.1) образуют полную группу n несовместных событий,


следовательно, сумма вероятностей всех возможных значений случайной
величины Х равна единице:

n n
 P(X  x1 )   p i  1 .
i 1 i 1

Совокупность всех возможных значений случайной величины и


соответствующих им вероятностей составляет распределение случайной
величины.
Законом распределения случайной величины называется всякое
соответствие между возможными значениями случайной величины и
соответствующими им вероятностями. Про случайную величину говорят, что
она подчиняется данному закону распределения. Две случайные величины
называются независимыми, если закон распределения одной из них не зависит
от того, какие возможные значения приняла другая величина. В противном
случае случайные величины называются зависимыми.
Несколько случайных величин называются взаимно независимыми, если
законы распределения любого числа из них не зависят от того, какие
возможные значения приняли остальные величины.
Закон распределения случайной величины может быть задан в виде
таблицы 3.1, в виде функции распределения и в виде плотности
распределения. Таблица, содержащая возможные значения случайной
величины и соответствующие вероятности, является простейшей формой
задания закона распределения случайной величины:

Таблица 3.1 – Закон распределения случайной величины


Х х1 х2 х3 … х n 1 хn
(3.2)
Р p1 p2 p3 … p n 1 pn

Табличное задание закона распределения может быть использовано


только для дискретной случайной величины с конечным числом возможных
значений. Непрерывная случайная величина имеет бесчисленное множество
возможных значений, поэтому перечислить их в таблице невозможно. Кроме
того, как будет показано дальше, каждое отдельное значение непрерывной
случайной величины обладает нулевой вероятностью. Табличная форма
задания закона случайной величины называется также рядом pacпределения.
При графическом изображении ряда распределения в прямоугольной
системе координат по оси абсцисс откладывают все возможные значения
случайной величины, а по оси ординат соответствующие вероятности. Затем
строят точки ( х i ; p i ) и соединяют их прямолинейными отрезками (рисунок
3.1). Полученная фигура называется многоугольником распределения.
Функция распределения является наиболее общей формой задания
закона распределения. Она используется для задания как дискретных, так и
непрерывных случайных величин. Обычно ее обозначают через F(х). Функция
распределения определяет вероятность того, что случайная величина Х
примет значение, меньшее фиксиpованного действительного числа х, т. е.

F( x )  P(X  x ) . (3.3)

Рисунок 3.1 – Многоугольник распределения

Вероятность того, что Х < х зависит от х, следовательно, F (х) является


функцией от х. Поэтому F (х) и называется функцией распределения. В
литературе встречаются также термины: интегральная функция
распределения и интегральный закон распределения.
Геометрическая интерпретация функции распределения очень проста.
Если случайную величину рассчитывать как случайную точку Х оси Ох
(рисунок 3.2), которая в результате испытания может занять то или иное
положение на этой оси, то функция распределения F (х) есть вероятность того,
что случайная точка Х в результате испытания попадает левее точки х.
0 X x x

Рисунок 3.2 – Случайная точка Х на оси Ох

Для дискретной случайной величины Х, которая может принимать


значения x 1 , x 2 , ..., x n , функция распределения имеет вид:

F( x )   P( X  x 1 ) , (3.4)
xi x

где неравенство x i  x под знаком суммы означает, что суммирование


распространяется на все те значения x i , которые по своей величине меньше х.
Построим функцию распределения случайной величины Х, ряд
распределения которой имеет вид (3.2):
при x 1  x :

F( x )  P(X  x 1 )  0 ;
при x 1  x  x 2 :

F( x )  P(X  x 2 )  P(X  x 1 )  p1 ;

при x 2  x  x 3 :

F( x )  P(X  x 3 )  P(X  x 1 )  P(X  x 2 )  p1  p 2 ;

при x 3  x  x 4 :
F( x )  P(X  x 4 )  P(X  x 1 )  P(X  x 2 )  P(X  x 3 )  p1  p 2  p 3 ;

при x n 1  x  x n :

F( x )  P(X  x n )  P(X  x 1 )  P(X  x 2 )  P(X  x 3 )  ...  P(X  x n 1 ) 

 p1  p 2  p 3  ...  p n 1  p n  1 .

Функция распределения имеет скачок в тех точках, в которых случайная


величина принимает конкретные значения, указанные в ряде распределения.
В интервалах между значениями случайной величины функция F (х)
постоянна. Сумма всех скачков функции распределения равна единице.
График функции распределения дискретной случайной величины есть
разрывная ступенчатая ломаная линия (рисунок 3.3.).

F(x)

0 x

Рисунок 3.3 – График функции распределения дискретной случайной


величины
Непрерывная случайная величина имеет непрерывную функцию
распределения; график этой функции имеет форму плавной кривой (рисунок
3.4).
F(x)

0 x

Рисунок 3.4 - График функции распределения непрерывной случайной


величины

Рассмотрим общие свойства функции распределения.


Свойство 1. Функция распределения F (х) есть неотрицательная
функция, заключенная между нулем и единицей:

0  F( x )  1 .

Это свойство вытекает из определения функции распределения как


вероятности осуществления события, заключающегося в выполнении
неравенства Х <х. Функция распределения, как и всякая вероятность, есть
величина безразмерная.
Свойство 2. Вероятность попадания случайной вeличины в интервал
[, ) равна разности значений функции распределения на концах этого
интервала:

P(  X  )  F()  F() , (3.5)

Доказательство. Рассмотрим следующие три события:


событие А, состоящее в том, что X   ;
событие В, состоящее в том, что X   ;
событие С, состоящее в том, что   X   .
Можно записать, что:

P(A)  P(X  )  F() ,


P(B)  P(X  )  F() ,
P(c)  P(  X  ) .

Очевидно, что событие А представляет собой сумму двух несовместных


событий В и С:

А = В + С.

По теореме сложения вероятностей имеем

Р (А) = Р (В) + Р (С),

или

F()  F()  P(  X  ) , (3.6)

откуда

P(  X  )  F()  F()


что и требовалось доказать.
Следствие. Вероятность любого отдельного значения непрерывной
случайной величины равна нулю.
Полагая, что    , будем неограниченно уменьшать интервал [, ) . В
пределе вместо вероятности попадания случайной величины Х в интервал
[, ) получим вероятность того, что эта величина принимает отдельно взятое
значение  :

P(X  )  lim P(  X  )  lim[F()  F()] . (3.7)


   

Значение этого предела зависит от того, является ли функции F (х) в


точке а непрерывной или же терпит разрыв. Если в точке  функция F (х)
имеет разрыв, то предел (3.7) равен значению скачка функции F (х) в точке 
. Если же функция F (х) в точке  непрерывна, то этот предел равен нулю.
Так как непрерывная случайная величина Х имеет непрерывную
функцию распределения F (х), то из равенства (3.7) следует, что вероятность
любого отдельного значения непрерывной случайной величины равна нулю.
На первый взгляд, этот вывод кажется парадоксальным, так как события,
вероятности которых равны нулю, в предыдущей главе рассматривались нами
как невозможные. Из изложенного в настоящем параграфе следует, что
нулевой вероятностью обладают не только невозможные, но и возможные
события. Действительно, событие, состоящее в том, что непрерывная
случайная величина Х принимает значение а, возможно, по вероятность этого
события равна нулю. Этот вывод вполне согласуется со статистическим
определением вероятности события, по которому частость появления события
при большом числе испытаний не равна, а только приближается к вероятности.
Поэтому равенство нулю вероятности события означает только, что при
неограниченном повторении испытаний это событие появляется сколь угодно
редко и ни в какой мере не означает, что данное событие невозможно.
На основании этого следствия для непрерывной случайной величины
свойство 2 может быть записано без включения в рассматриваемый интервал
(, ] левого его конца:

P(  X  )  F()  F() . (3.8)

Свойство 3. Функция распределения случайной величины есть


неубывающая функция, т. е. при   

F()  F() .

Это свойство вытекает из равенства (3.6). Так как вероятность любого


события есть число неотрицательное, то имеем

P(  X  )  0 ,

следовательно, F()  F() при    .


Свойство 4. На минус бесконечности функция paспределения F (х) равна
нулю, а на плюс бесконечности функция распределения равна единице, т. е.

F()  0 ; F()  1 .

Свойство становится очевидным при геометрической интерпретации


функции распределения (рисунок 3.2). Если точка х неограниченно
перемещается влево, то попадание случайной точки Х левее х в пределе
становится невозможным событием. Поэтому естественно полагать, что
вероятность этого события стремится к нулю, т. е. можно записать F()  0 .
При неограниченном перемещении точки х вправо попадание случайной
точки Х левее х в пределе становится достоверным событием. Поэтому
естественно полагать, что вероятность этого события стремится к единице, т.
е. F()  1 .
Кратко свойство функции распределения можно сформулировать так:
функция распределения является неотрицательной неубывающей функцией,
удовлетворяющей условиям F()  0 и F()  1 . Вероятно и обратное
утверждение: функция, удовлетворяющая перечисленным условиям, может
рассматриваться как функция распределения некоторой случайной величины.
Следует заметить, что в то время как каждая случайная величина
однозначно определяет функцию распределения, одну. и ту же функцию
распределения могут иметь различные случайные величины. Можно привести
более корректное определение случайной величины, а именно: случайной
величиной называется переменная величина, значения которой зависят от
случая и для которой определена функция распределения вероятностей.
Непрерывную случайную величину можно задать не только
интегральной функцией распределения, но и дифференциальной функцией.
Рассмотрим эту форму задания закона распределения случайной величины.
Пусть имеется непрерывная случайная величина Х с функцией распределения
F (х). Вероятность попадания этой случайной величины на элементарный
участок [ x; x  x ] через интегральную функцию определится, согласно
формуле (3.5), так:

P( x  X  x  x )  F( x  x )  F( x ) .

Разделим обе части этого равенства на x :

P( x  X  x  x ) F( x  x )  F( x )
 .
x x
Полученное отношение называется средней вероятностью,
приходящейся на единицу длины этого участка. Считая функцию
распределения F (х) дифференцируемой, перейдем в последнем равенстве к
пределу при x  0 . В пределе получим производную от функции
распределения, которая и называется дифференциальной функцией
распределения

P( x  X  x  x ) F( x  x )  F( x )
lim  lim  F' ( x ) . (3.9)
x 0 x x 0 x

Введем обозначения: f ( x )  F' ( x ) . Итак, дифференциальной функцией


распределения f (х) является первая Производная от интегральной функции.
Иногда функцию f (х) называют дифференциальным законом распределения
случайной величины Х или плотностью распределения вероятности. Заметим,
что для описания распределения вероятностей дискретной случайной
величины дифференциальная функция неприменима. Кривая, изображающая
дифференциальную функцию распределения f (х) случайной величины,
называется кривой распределения (рисунок 3.5). Выделим на оси абсцисс
элементарный участок dx, примыкающий в точке х (рисунок 3.6).

f(x)

0 x

Рисунок 3.5 - Кривая распределения


f(x)

0 dx x

Рисунок 3.6 - Элементарный участок dx, примыкающий в точке х

Вероятность попадания случайной величины на этот элементарный


участок с точностью до бесконечно малых высшего порядка равна f(x)dx.
Геометрически это есть площадь элементарного прямоугольника с высотой
f(x) и основанием dx. Величина f(x) dx называется элементом вероятности.
Теперь можно дать более cтpoгoе определение непрерывной случайной
величины: случайная величина Х называется непрерывной, если ее функция
распределения F (х) непрерывна на всей оси Ох, а плотность pacпpeдeления
f(x) существует везде, за исключением, быть может, конечного числа точек.
Рассмотрим свойства дифференциальной функции распределения.
Свойство 1. Дифференциальная функция pacпpeделения
неотрицательна

f (x)  0 .

Это свойство непосредственно вытекает из определения


дифференциальной функции как производной от неубывающей функции
распределения F (х). Геометрически это свойство означает, что кривая
распределения расположена либо над осью абсцисс, либо на этой оси.
Свойство 2. Вероятность попадания непрерывной случайной величины
Х в интервал [, ) равна определенному интервалу от дифференциальной
функции, взятому пределах от  до  :

P(  X  )   f ( x )dx . (3.10)

Доказательство. На основании свойства 2 функция распределения,


учитывая следствие, сформулированное для непрерывной случайной
величины, имеем

P(  X  )  F()  F() .

Согласно основной теореме интегрального исчисления можно записать


 f (x )dx  F()  F() .


Таким образом,


P(  X  )   f ( x )dx .

Геометрически это означает, что вероятность попадания непрерывной


случайной величины Х в интервал [, ] численно равна площади
криволинейной трапеции, заштрихованной на рисунке 3.7.
Свойство 3. Интегральная функция распределения может быть
выражена через дифференциальную по формуле:

x
F(X )   f (x )dx . (3.11)

Доказательство. По определению интегральной функции

F(X)  P(X  x )  P(  X  x ) . (3.12)

Полагая в формуле (3.10)    ,   x , имеем

x
P(  X  x )   f (x )dx .


Заменив в последнем выражении P(  X  x ) через F (х), в силу


формулы (3.12) получим

x
F(X )   f (x )dx .


На графике плотности распределения функции распределения


соответствует площадь, заштрихованная на рисунке 3.8.
f(x) f(x)

F(x)

α β x 0 х x

Рисунок 3.7 - Вероятность Рисунок 3.8 - Плотность


попадания непрерывной случайной распределения функции
величины Х в интервал [, ] распределения
Свойство 4. Интеграл в бесконечных пределах от дифференциальной
функции равен единице:

 f (x )dx  1 .


Доказательство. Полагая в равенстве (3.11) х   и учитывая, что


F()  1, получим:


F()   f (x )dx  1 ,


что и требовалось доказать.


Геометрически это означает, что площадь, ограниченная кривой
распределения и осью абсцисс, равна единице. Следует иметь в виду, что
функция распределения F(х), как всякая вероятность, есть безразмерная
величина, а размерность плотности распределения f(х) обратна размерности
случайной величины.
Пример 1. Вероятность выхода за границу поля допуска при
шлифовании торцов коробки медицинского прибора равна 0,25. Для контроля
стабильности процесса через равные промежутки времени отбирают пять
коробок. Определить вероятность того, что в выборке окажется меньше двух
коробок, размеры которых выходят за границу поля допуска. Вычислить
функцию распределения числа коробок, размеры которых выходят за границу
поля допуска. Построить многоугольник распределения и график
интегральной функции.
Решение. Обозначим число коробок медицинских приборов, размеры
которых выходят за границу поля допуска через Х, тогда возможные значения
случайной величины Х таковы: x 1  0 ; x 2  1 ; x 3  2 ; x 4  3 ; x 5  4 ; x 6  5 .
Вероятность возможных значений случайно величины определяем по формуле
Бернулли:

m n m
Pn ,m  C m
n p q .

В нашем случае n = 5; m = x i ; i = 1, 2, ..., 6, р = 0,25; q = 0,75.


Составим ряд распределения:

Таблица 3.1 – Таблица распределения


X 0 1 2 3 4 5
P 0,2373 0,3955 0,2637 0,0879 0,0146 0,0010

Многоугольник распределения изображен на рисунке 3.9.

р
0,5

0,25

0 1 2 3 4 5 х

Рисунок 3.9 - Многоугольник распределения

Построим функцию распределения случайной величины Х.


Воспользуемся формулой (3.4):
при х  0 :
F( x )  P(X  0)  0 ;

при 0  х  1:

F( x )   P(X  x i )  P(X  0)  0,2373 ;


x i 1

при 1  х  2 :

F( x )   P(X  x i )  P(X  0)  P(X  1)  0,2373  0,3955  0,6328 ;


xi 2

при 2  х  3 :

F( x )   P(X  x i )  P(X  0)  P(X  1)  Р(Х  2) 


x i 3

 0,2373  0,3955  0,2637  0,8965 ;

при 3  х  4 :

F( x )   P(X  x i )  P(X  0)  P(X  1)  Р(Х  2)  Р(Х  3) 


x i 4

 0,2373  0,3955  0,2637  0,0879  0,9844 ;

при 4  х  5 :

F( x )   P(X  x i )  P(X  0)  P(X  1)  Р(Х  2)  Р(Х  3)  Р(Х  4) 


x i 4

 0,2373  0,3955  0,2637  0,0879  0,0146  0,9990 ;

при х  5 :
F( x )   P(X  x i )  P(X  0)  P(X  1)  Р(Х  2)  Р(Х  3)  Р(Х  4) 
x i 4

 P(X  5)  1 .

Событие, состоящее в том, что в выборке должно быть меньше двух


коробок, размеры которых выходят за границу поля допуска, означает, что
случайная величина Х должна удовлетворять неравенству 0  X  2 . Имеем

P(0  X  2)  F(2)  P(X  0)  P(X  1)  0,2373  0,3955  0,6328

График интегральной функции распределения представлен на рисунке


16.

F(x)

0,5

0,25

0 1 2 3 4 5 х

Рисунок 3.10 – График интегральной функции распределения

Пример 2. Случайная величина Х подчинена закону распределения с


плотностью
 0 при x  0,

f ( x )  a sin x при 0  x  ,
 0 при x  .

Определить коэффициент а; построить график плотности


распределения. Найти вероятность попадания случайной величины на участок
от 0 до  / 2 . Определить интегральную функцию и построить ее график.
Решение. Площадь, ограниченная кривой распределения численно равна

 

 f (x )dx   a sin xdx  a cos x 0  2a .
 0

Учитывая четвертое свойство плотности распределения, находим: а=1/2.


Следовательно, плотность распределения может быть выражена так:

 1
sin x при 0  x  ,
f (x)   2
 0 при x  0 и x  .

График плотности распределения изображен на рисунке 17. По формуле


(3.13) имеем

/2 /2
  1 1 1   1
P 0  x   
 2  2
sin x dx   cos x
2 0
   cos  cos 0   .
2 2  2
0
F(x)

0,5

  3
0  x
4 2 4

Рисунок 17 - График плотности распределения

Для определения интегральной функции воспользуемся формулой (3.11)

x x
1 1
F( x )   sin x dx   cos x  0,5  0,5 cos x .
0
2 2 0

Таким образом, имеем:

 0 при x  0,

Fi ( x )  0,5  0,5 cos x при 0  x  ,
 при x  .
 1

График интегральной функции изображен на рисунке 3.12.


F(x)

0 x

Рисунок 3.12 - График интегральной функции

3.2 Числовые характеристики случайной величины

Закон распределения полностью характеризует случайную величину с


вероятностной точки зрения. Но при решении ряда практических задач нет
необходимости знать все возможные значения случайной величины и
соответствующие им вероятности, а удобнее пользоваться некоторыми
количественными показателями, которые давали бы в сжатой форме
достаточную информацию о случайной величине. Такие показатели
называются числовыми характеристиками случайной величины. Основными
из них являются математическое ожидание, дисперсия, моменты различных
порядков, мода и медиана.
Математическое ожидание характеризует положение случайной
величины на числовой оси, определяя собой некоторое среднее значение,
около которого сосредоточены все возможные значения случайной величины.
Поэтому математическое ожидание иногда называют просто средним
значением случайной величины. Рассмотрим дискретную случайную
величину Х, принимающую значения x 1 , x 2 , ..., x n с вероятностями
p1 , p 2 , ..., p n . Определим среднюю арифметическую значений случайной
величины, взвешенных по вероятностям их появлений. Таким образом,
вычислим среднее значение случайной величины или ее математическое
ожидание, которое будем обозначать через М (х) или через М [Х]:

x p  x 2 p 2  ...  x n p n
 x i pi
i 1
M( x )  1 1  .
p1  p 2  ...  p n n
 pi
i 1

n
Учитывая, что  p i  1 , получим
i 1

n
M(x )   x i p i . (3.13)
i 1

Если дискретная случайная величина Х принимает бесконечное счетное


множество значений, то ее математическое ожидание


M(x )   x i p i .
i 1

Итак, математическим ожиданием дискретной случайной величины


называется сумма произведений всех ее возможных значений на их
вероятности. При этом должно удовлетворяться требование абсолютной

сходимости ряда:  x ipi .
i 1

Средняя арифметическая наблюдаемых во время испытаний значений


случайной величины приближается к ее математическому ожиданию при
большом числе испытаний. При проведении серии испытаний средние
арифметические наблюдаемых значений случайной величины, вычисленные
для каждой серии, колеблются около математического ожидания этой
случайной величины. При этом колебание становится меньше с увеличением
числа испытаний в серии, и все вычисленные средние приближаются к
постоянной величине - математическому ожиданию. Это свойство называется
свойством устойчивости средних.
Формулу (3.13) можно распространить на случай непрерывных величин,
заменив в ней отдельные значения x i непрерывно изменяющейся величиной
х, соответствующие вероятности р i элементом вероятности f(х)dx, сумму -
интегралом.
Итак, для непрерывной случайной величины, возможные значения
которой располагаются по всей оси Ох, математическое ожидание


M(x )   xf (x )dx , (3.14)



при условии существования интеграла  x f (x )dx .


Математическое ожидание непрерывной случайной величины Х,


возможные значения которой принадлежат интервалу [а, b],

b
M ( x )   xf ( x )dx . (3.15)
a

Следует отметить, что встречаются случайные величины, для которых



математическое ожидание не существует, так как сумма  x i pi или интеграл
i 1

 x f (x )dx расходятся. Понятию математического ожидания случайной



величины можно дать механическую интерпретацию. Распределение
вероятностей дискретной случайной величины принимается за распределение
масс, отнесенных к точкам x 1 , x 2 , ..., x n на оси абсцисс. Вся pacпределенная
масса принимается равной единице. Тогда математическое ожидание,
определяемое формулой (3.13), есть не что иное, как абсцисса центра тяжести
всей системы материальных точек. Подобную же интерпретацию имеет
математическое ожидание непрерывной случайной величины. В этом случае
масса распределена по оси абсцисс непрерывно, с плотностью f(x).
Через функцию распределения F(x) математическое ожидание можно
выразить следующим образом:


M(x )   xdF(x ) .


Приведем некоторые свойства математического ожидания.


Свойство 1. Математическое ожидание суммы двух случайных величин
равно сумме их математических ожиданий

M ( x  y)  M ' ( x )  M ( y) .

Доказательство. Пусть Х и У - дискретные случайные величины с


математическими ожиданиями М(х) и М(у). Законы распределения случайных
величин заданы в виде следующих рядов:

Х x1 x2 … xn Х y1 y2 … ym
Р p1 p2 … pn Р g1 g2 … gm
n m

 pi  1 pj 1
i 1 j1

Для суммы случайных величин Х + У ряд распределения принимает вид,


представленный в таблице 3.2.

Таблица 3.2 – Ряд распределения


Х+У x 1  y1 x 2  y 2 … x1  y m x 2  y1 x 2  y2 … x 2  ym …
Р p1g 1 p1g 2 … p1g m p 2 g1 p 2g 2 … p 2g m …

Продолжение таблицы 3.2


Х+У … x n  y1 x n  y2 … x n  ym
Р … p n g1 png2 … pngm

При составлении этого ряда распределения используется теорема


умножения вероятностей.
Математическое ожидание случайной величины Х + У равно сумме
произведений возможных значений этой величины на соответствующие им
вероятности:

M( x  y)   ( x i  y i )p i g j   x i p i g j   y i p i g j 
i j i j i j

  x i p i  g j   y i g j  p i  M ( x )  M ( y) .
i j j i

Методом математической индукции можно доказать это свойство для


произвольного числа слагаемых величин. Математическое ожидание суммы
нескольких случайных величин равно сумме их математических ожиданий:
n  n
M  x i    M ( x i ) .
 i 1  i 1

Следует отметить, что приведённое выше свойство справедливо как для


независимых, так и для зависимых случайных величин.
Свойство 2. Математическое ожидание произведения двух независимых
случайных величин равно произведению их математических ожиданий:

M( xy )  M( x )M( y) .

Доказательство. Пусть законы распределения дискретных случайных


величин Х и У заданы рядами pacпределения, приведенными при
доказательстве первого свойства, а их математические ожидания
соответственно равны:

n m
M ( x )   x i p i , M ( y)   y j g j .
i 1 j1

Составим ряд распределения для случайной величины, являющейся


произведением независимых случайных величин ХУ:

Таблица 3.3 –Ряд распределения для случайной величины


ХУ x 1 y1 x1y 2 … x1y m x 2 y1 x 2y2 …
Р p1g 1 p1g 2 … p1g m p 2 g1 p 2g 2 …

Продолжение таблицы 3.3


ХУ … x 2ym … x n y1 x n y2 … x n ym
Р … p 2g m … p n g1 png2 … pngm

Используя определение математического ожидания, получим

M( xy)   x i y j p i g j   x i p i  y j g j  M( x )M( y) .
i j i j

Методом математической индукции можно доказать это свойство для


произвольного числа перемножаемых взаимно независимых случайных
величин

 n  n
M  x i    M ( x i ) .
 
 i 1  i 1
Таким образом, математическое ожидание произведения нескольких
взаимно независимых случайных величин равно произведению их
математических ожиданий.
Свойство 3. Математическое ожидание постоянной величины равно
самой постоянной:

М (с) = с.

Доказательство. Постоянную величину с можно рассматривать как


дискретную случайную величину с единственным значением, которому
соответствует вероятность р = 1. Следовательно, используя определение
математического ожидания, имеем:

М (с) = с, 1 = с.
Свойство 4. Постоянный множитель случайной вeличины может быть
вынесен за знак математического ожидания:

М (сх) = с М (х)

Доказательство. Рассматривая сХ как произведение двух независимых


случайных величин и используя второе и третье свойства математического
ожидания, имеем

М (сх) = М (с) М (х) = с М (х)

Свойство 5. Математическое ожидание отклонения случайной


величины от ее математического ожидания равно нулю.
Доказательство. Это свойство является следствием первого и третьего
свойств математического ожидания:

М[X – M (x)] = M (x) – M (x) = 0.

Пример 3. Найти математическое ожидание числа бракованных


лекарственных препаратов в выборке из пяти партий, если случайная величина
Х (число бракованных лекарственных средств), задана рядом распределения,
представленным в таблице 3.4.

Таблица 3.4 – Ряд распределения


Х 0 1 2 3 4 5
Р 0,2373 0,3955 0,2637 0,0879 0,0146 0,0010

Решение. По формуле (3.13) находим


M( x )  0  0,2373  1  0,3955  2  0,2637  3  0,0879  4  0,0146  5  0,0010  1,25

Пример 4. Распределение содержания кремния в радиоэлементах


представлено в таблице 3.5.

Таблица 3.5 - Распределение содержания кремния в радиоэлементах


Si, % 1,2 1,3 1,4 1,5 1,6 1,7 1,8 1,9 2,0
P 0,32 0,25 0,14 0,12 0,08 0,05 0,02 0,01 0,01

Определить математическое ожидание содержания кремния в отливках


для данного состава шихты.
Решение. Случайной величиной Х по условию задачи является
содержание кремния в радиоэлементах. По формуле (3.13) находим

M( x )  1,2  0,32  1,3  0,25  1,4  0,14  1,5  0,12  1,6  0,08  1,7  0,05  1,8  0,02 
 1,8  0,02  1,9  0,01  2,0  0,01  1,373% .

К. характеристикам положения случайной величины кроме


математического ожидания относится также мода и медиана.
Модой Мо дискретной случайной величины называется наиболее
вероятное ее значение.
Модой Мо непрерывной случайной величины называется такое ее
значение, при котором плотность распределения имеет максимум.
Геометрически моду можно интерпретировать как абсциссу точки максимума
кривой распределения. Бывают двухмодальные и мономодальные
распределения. Встречаются распределения, которые имеют минимум, но не
имеют максимум. Такие распределения называются антимодальными.
Медианой случайной величины Ме называется такое ее значение, для
которой справедливо равенство:

P(X  Me )  P(X  Me ) ,

т. е. равновероятно, что случайная величина окажется меньше или больше


медианы. С геометрической точки зрения медиана это абсцисса точки, в
которой площадь, ограниченная кривой распределения, делится пополам. Так
как вся площадь, ограниченная кривой pacпределения и осью абсцисс, равна
единице, то функция распределения в точке, соответствующей медиане, равна
0,5:

F(Me)  P(X  Me)  0,5 .

Следует отметить, что если распределение одномодальное и


симметричное, то математическое ожидание, мода и медиана совпадают.
Дисперсия и среднее квадратическое отклоненне. С помощью этих
характеристик можно судить о рассеивании случайной величины вокруг
математического ожидания
Из пятого свойства математического ожидания очевидно, что выбор в
качестве меры рассеивания математического ожидания отклонения случайной
величины от ее математического ожидания не дает никакого результата.
Поэтому в качестве меры рассеивания случайной величины берут
математическое ожидание квадрата отклонения случайной величины от ее
математического ожидания, которое называют дисперсией случайной

величины Х и обозначают через  2 [X ] или через 2x :

 2x  M[X  M( x )] 2 .
Для дискретной случайной величины дисперсия равна сумме
произведений квадратов отклонений значений случайной величины от ее
математического ожидания на соответствующие вероятности:

n
 2x   [ x i  M ( x )] 2  p i . (3.16)
i 1

Для непрерывной случайной величины, закон распределения которой


задан в виде плотности вероятности f (х), дисперсия


 2x   [ x  M ( x )] 2 f ( x )dx . (3.17)


Через функцию распределения F (х) дисперсия выражается следующим


образом:


 2x   [ x  M ( x )] 2 dF( x ) .


Недостатком дисперсии является то, что она имеет размерность квадрата


случайной величины и ее нельзя геометрически интерпретировать.
Этих недостатков лишено среднее квадратическое отклонение
случайной величины, которое представляет собой положительный
квадратный корень из дисперсии

 x   2x .

Рассмотрим некоторые свойства дисперсии.


Свойство 1. Дисперсия суммы двух независимых случайных величин
равна сумме дисперсий этих величин:

 2 [X  Y]   2x   2y ,

Доказательство. Используя определение дисперсии и первое свойство


математического ожидания, coгласно которому

М ( X  Y )  M ( x )  M ( y) ,

дисперсию случайной величины Х + У можно выразить следующим образом:

 2 [X  Y]  M[X  Y  M( x  y)] 2  M[X  M( x )  Y  M( y)] 2 .

Представим выражение в квадратных скобках в виде двучлена и


запишем квадрат его суммы. Используя свойства математического ожидания
суммы нескольких величин и произведения двух независимых случайных
величин, получим:

 2 [X  Y]  M[X  M( x )] 2  2M[X  M( x )]  M[Y  M( y)] 2  M[Y  M( y)] 2

Согласно пятому свойству математического ожидания, второе слагаемое


в последнем выражении равно нулю, следовательно, имеем

 2 [X  Y]   2x   2y .
Методом математической индукции можно доказать это свойство для
произвольного числа взаимно независимых случайных величин:

 X i     2 X i  .
n
 2

i 1

Свойство 2. Дисперсия случайной величины равна разности между


математическими ожиданиями квадрата случайной величины Х и квадратом
её математического ожидания:

 2x  M( x 2 )  [M( x )] 2 . (3.18)

Доказательство. Используя определение дисперсии и свойства


математического ожидания, имеем
 2х  M[X  M( x )] 2  M[X 2  2ХM ( x )  [M( x )] 2 ] 

 M( x 2 )  2M( x )M( x )  [M( x )] 2  M( x 2 )  [M( x )] 2 .

что и требовалось доказать.


Свойство 3. Дисперсия постоянной величины равна нулю:

 2 (c)  0 .

Доказательство. Используя определение дисперсии и четвертое


свойство математического ожидания, имеем

 2 (c)  M[c  M(c)] 2  M[c  c] 2  M(0)  0 .


Свойство 4. Постоянный множитель случайной величины можно
выносить за знак дисперсии, предварительно возведя его в квадрат:

 2 [cX]  c 2  2x .

Доказательство. Используя определение дисперсии и четвертое


свойство математического ожидания, имеем

 2 [cX]  M[cX  M(cx )] 2  M[cX  cM( x )] 2  M(c 2 [X  M( x )] 2 ) 

 c 2 M[X  M( x )] 2  c 2  2x

Свойство 5. Дисперсия разности двух независимых случайных величин


равна сумме их дисперсий:

 2 [X  Y]   2x   2y .

Доказательство. На основании первого свойства дисперсии, можно


записать

 2 [X  (Y)]   2x   2 [Y] .

Согласно четвертому свойству дисперсии имеем:

 2 [Y]  (1) 2  2y   2y .

Окончательно получаем:
 2 [X  Y]   2x   2y

Свойство 6. Дисперсия произведения двух независимы случайных


величин Х и У определяется по формуле:

 2 [XY ]   2x  2y  [M( x )] 2  2y  [M( y)] 2  2x ,

Доказательство. Используя определение дисперсии и свойства


математического ожидания, имеем:

 2 [XY ]  M[XY  M( xy )] 2  M[X 2 Y 2 ]  2M[XY ]M[XY ]  [M[XY ]] 2 

 M[X 2 Y 2 ]  [M(XY )] 2 .

При независимых Х и У величины X 2 и Y 2 также независимы,


следовательно,

M[XY ]  M ( x )M ( y) , M[X 2 Y 2 ]  M( x 2 )M( y 2 ) .

Математические ожидания квадратов случайной величины Х и У можно


записать в виде

M( x 2 )   2x  [M( x )] 2 ; M( y 2 )   2y  [M( y)] 2 .

Окончательно имеем:

 2 [XY ]  M( x 2 )M( y 2 )  [M( x )M( y)] 2   2x  2y  [M( x )] 2  2y  [M( y)] 2  2x .


Пример 5. Вычислить дисперсию числа бракованных лекарственных
препаратов для распределения, приведенного в примере 3.
Решение. По определению дисперсии имеем

 2x  (0  1,25) 2  0,2373  (1  1,25) 2  0,3955  (2  1,25) 2  0,2637 

 (3  1,25) 2  0,0879  (4  1,25) 2  0,0146  (5  1,25) 2  0,0010  0,938 .

Следует отметить, что дисперсию удобнее вычислять, исходя не из ее


определения, а по формуле (3.18).
Пример 6. Вычислить дисперсию и среднее квадратическое отклонение
содержания кремния в радиоэлементах для распределения, приведённого в
примере 4.
Решение. Найдем математическое ожидание квадрата случайной
величины Х:

M( x 2 )  1,2 2  0,32  1,3 2  0,25  1,4 2  0,14  1,5 2  0,12  1,6 2  0,08  1,7 2  0,05 

 1,8 2  0,02  1,9 2  0,01  2,0 2  0,01  1,9179 [%] 2

 2x  M( x 2 )  [M( x )] 2  1,9179  [1,373]2  0,0328[%] 2 ;


 x  0,1811% .

Обобщением основных числовых характеристик .случайной величины


является понятие моментов случайной величины.
В первой лекции было дано понятие моментов вариационных рядов.
Сформулируем теперь определение начальных и центральных моментов как
характеристик случайной величины.
Начальным моментом q-го порядка случайной величины называют
математическое ожидание величины X q :

 q  M[X q ] .

Начальный момент дискретной случайной величины:

n
 q   x iq p i ;
i 1

начальный момент непрерывной случайной величины:


q  x
q
f ( x )dx .


Центральным моментом q-того порядка случайной величины называют

математическое ожидание величины [X  M ( x )]q :

 q  M{[ X  M( x )]q } .

Центральный момент дискретной случайной величины

n
 q   [ x i  M ( x )]q p i ;
i 1

центральный момент непрерывной случайной величины



 q   [ x  M ( x )]q f ( x )dx .


Для начальных и центральных моментов случайной величины


справедливы те же соотношения, что и для моментов вариационного ряда.
Начальный момент первого порядка представляет собой математическое
ожидание, а центральный момент второго порядка - дисперсию случайной
величины.
Нормированный центральный момент третьего порядка. служит
характеристикой скошенности или асимметрии распределения (коэффициент
асимметрии):

A  3 / 3 .

Нормированный центральный момент четвертого порядка служит


характеристикой островершинности или плосковершинности распределения
(эксцесс):

E  4 / 4  3 .

Пример 7. Случайная величина Х задана плотностью распределения

 0 при х  0,

f ( x )  ax 2 при 0  x  2,
 0 при x  2.

Найти коэффициент а, интегральную функцию, математическое


ожидание, дисперсию, ассимметрию и эксцесс.
Решение. Площадь, ограниченная кривой распределения, численно
равна

2 2 2
ax 3 8
 f (x )dx   ax dx  3  a.
2

0 0 0
3

Учитывая, что эта площадь должна быть равна единице, находим: a=3/8.
Для определения интегральной функции используем форму (3.11)

x x x
F( x )   f ( x )dx   3 / 8x 2 dx  | 3 / 8  x 3 / 3  x 3 / 8 ,
0 0 0

следовательно,

 0 при х  0,
 3
f ( x )  x / 8 при 0  x  2,
 1 при x  2.

По формуле (3.15) найти математическое ожидание

2 2
M ' ( x )   xf ( x )dx   3 / 8x 3 dx  3 / 8 0 x 4 / 4  1,5 .
2

0 0

Дисперсию определим по формуле (3.18). Для этого найдем сначала


математическое ожидание квадрата случайной величины

2 2
M ( x )   x f ( x )dx   3 / 8x 4 dx  3 / 8 0 x 5 / 5  2,4 .
2 2 2

0 0
Таким образом,

 2x  M( x 2 )  [M( x )] 2  2,4  (1,5) 2  0,15 .

Центральные моменты третьего и четвёртого порядков вычислим через


начальные моменты. Имеем:

1  M( x )  1,5 ,

 2  M( x 2 )  2,4 ,

2 2
32
 3  M ( x )   x f ( x )dx   3 / 8x 3 dx  | x 6 / 6  4 ,
3 3

0 0
80
2 2
32 7
 4  M ( x )   x f ( x )dx   3 / 8x dx  | x / 7  6,8571,
4 4 6

0 0
80

 3   3  31 2  213  4  3  1,5  2,4  2  1,5 3  0,05 ,

 4   4  41 3  612  2  314  6,8571  4  1,5  4  6  1,5 2  2,4  3  1,5 4  0,0696 ,

A   3 /  3  0,05 /(0,3873) 3  0,86 ,

E   4 /  4  3  0,0696 /(0,3873) 4  3  0,093 .

Введем понятие центрированной и нормированной случайной


величины. Отклонение случайной величины Х от ее математического
  X  M( x ) называется центрированной случайной
ожидания М(х), т. е. X
величиной.
 ]
Математическое ожидание центрированной случайной величины М[ X
 ] равна диcперсии случайной величины Х.
равно нулю, а дисперсия  2 [X
Доказательство. На основании пятого свойства математического
ожидания имеем

 ]  M[X  M( x )]  0 .
M[X

Используя пятое и третье свойства дисперсии, получим:

 ]   2 [X  M( x )]   2x .
 2 [X

Центрирование случайной величины геометрически равносильно


переносу начала координат в точку, абсцисса которой равна математическому
ожиданию.
Нормированной случайной величиной (Т) называется центрированная
случайная величина, выраженная в дoлях среднего квадратического
отклонения

X X  M(x )
T  .
x x

Математическое ожидание нормированной случайной величины М[Т]


равно нулю, а дисперсия  2 [T ] равна единице.
Доказательство. На основании четвертого и пятого свойств
математического ожидания имеем:
 X  M( x ) 
  2  X  M ( x )   x /  x  1 ,
1 2
M[T]  M  2 2

 x  x

что и требовалось доказать.

3.3 Равномерное распределение

Непрерывная случайная величина Х имеет равномерное распределение


на интервале [а, b], если на этом интервале плотность распределения
случайной величины постоянна, а вне его равна нулю, т. е. если

 0 при х  a ,

f ( x )  c при a  x  b,
 0 при x  b.

где с = const. Равномерное распределение иногда называют законом
равномерной плотности.
График плотности f(х) для равномерного распределения изображен на
рисунке 19. Найдем значение постоянной с. Так как площадь, ограниченная
кривой распределения, равна единице, и все значения случайной величины
принадлежат интервалу [а, b], то должно выполняться равенство

 f (x )dx  1,
a

или

 cdx  1,
a
отсюда

c = 1 / (b – a).

Итак, закон равномерного распределения аналитически можно записать


в виде

 0 при х  a ,

f ( x )  1 /(b  a ) при a  x  b,
 при x  b.
 0

f(x)

0 а b x

Рисунок 3.13 - График плотности f(х) для равномерного распределения

Найдем выражение функции распределения F(х) для равномерного


распределения на интервале [а, b]. Согласно формуле (3.11), имеем

x
xa
x x
1 x
F( x )   f ( x )dx   dx   .
a a
ba ba a ba

При х < а имеем F(х) =0, а при х > b имеем F(х) = 1.


Таким образом,
 0 при х  a ,
x  a
F( x )   при a  x  b,
 b  a
 1 при x  b.

График функции F (х) изображен на рисунке 3.14.


Определим основные числовые характеристики случайной величины Х,
имеющей равномерное распределение. Математическое ожидание

x
ab
b
x x2
M(x )   dx   .
a
b  a 2( b  a ) a
2

Итак, математическое ожидание равномерного распределения


находится посередине интервала [а, b]. В силу симметричности распределения
медиана величины Х совпадает с математическим ожиданием:

Me  (a  b) / 2 .

Моды равномерное распределение не имеет.

f(x)

0 а b x

Рисунок 3.14 - График функции F (х)


Дисперсию случайной величины Ч находим по формуле (3.17):

2
(b  a )  1 (b  a ) 2
b

  2    x 
2
 dx  .
a  2  b  a 12

Среднее квадратическое отклонение

  (b  a ) / 2 3 .

В силу симметричности распределения, центральный момент третьего


порядка, следовательно, и коэффициент асимметрии для закона равномерной
плотности равны нулю
A  3 / 2  0 .

Четвёртый центральный момент

4
(b  a )  1 (b  a ) 4
b

4    x   dx  .
a
2  ba 80

Коэффициент эксцесса

E   4 / 1  3  1,2 .

Вероятность попадания случайной величины Х, имеющей равномерное


распределение, на участок [, ] , который является частью участка [а, b],
определяется по формуле

dx 
P (   X  )    .

b  a b  a

Примером случайной величины, имеющей равномерное распределение


вероятностей, может служить ошибка при снятии показаний. с измерительных
при боров, если производится округление отсчета до ближайшего целого
деления.
3.4 Нормальное распределение

Нормальное распределение наиболее часто встречающийся вид


распределения. С ним приходится сталкиваться при анализе
производственных погрешностей, контроле технологических процессов и
режимов, а также при анализе и прогнозировании различных явлений в
биологии, медицине и других областях знаний.
Анализ общих условий возникновения нормального распределения
показывает, что наиболее важным условием является формирование признака
как суммы большого числа взаимно независимых слагаемых, ни одно из
которых не характеризуется исключительно большой, по сравнению с
другими, дисперсией. В производственных условиях такие предпосылки в
основном соблюдаются. Рассмотрим, например. обработку деталей на станке-
автомате. Отклонение размеров деталей от номинального вызывается
многими причинами. более или менее независимыми друг от дpyгa. К ним
относится: колебание режима обработки, неточность установки и базировки
деталей в приспособлении, неоднородность обрабатываемoгo материала,
неточность и износ режущего инструмента, упругие деформации узлов станка
под влиянием усилий обработки, износ деталей станка и т. д. Каждая из этих
причин влияет на размер детали. так что то отключение, которое фактически
регистрируется при измерениях, является суммой большого числа
отклонений. Если слагаемые отклонения примерно одного порядка, то
суммарное отклонение является случайной величиной с нормальным законом
распределения.
При достаточно многочисленной совокупности нормальное
распределение проявляется и в эмпирическом распределении.
Примечание. Совокупность всех возможных значений случайной
величины и соответствующих нм вероятностей образует так называемое
теоретическое распределение. Совокупность фактических значений
случайной величины, полученных в результате наблюдений, с
соответствующими частотами или частостями образуют эмпирическое
распределение.
Следует строго различать роль многочисленности совокупности и
многочисленности независимых слагаемых, образующих величину признака в
каждом отдельном случае. Многочисленность независимых слагаемых
обуславливает нормальный характер теоретического распределения.
Многочисленность совокупности обеспечивает отражение теоретического
распределения, каково бы оно ни было в эмпирическом.
Термин «нормальное распределение» применяется в условном смысле,
как общепринятый в литературе термин, хотя и не совсем удачный. Так,
утверждение, что какой-то признак подчиняется нормальному закону, вовсе
не означает наличие каких-то незыблемых норм, якобы лежащих в основе
явления, отражением которого является рассматриваемый признак, а
подчинение другим видам законов не означает какую-то анормальность
данногo явления.
Главная особенность нормального закона состоит в том, что он является
предельным законом, к которому приближаются другие законы
распределения.
Нормальное распределение впервые открыто Муавром в 1733 г.
Нормальному закону распределения подчиняются только непрерывные
случайные величины. Поэтому распределение нормальной совокупности
может быть задано в виде плотности распределения:

1
e ( x a ) / 2 ,
2 2
f (x)  (3.19)
 2

или в виде функции распределений


x x
1
F( x )   f ( x )dx   e ( x a ) / 2 dx .
2 2
(3.19)
  2  

График плотности нормального распределения называю нормальной


кривой (рисунок 3.15). Она представляет собой колоколообразную фигуру,
симметричную относительно прямой, проходящей через точку х = а, и
асимптотически приближающуюся к оси абсцисс при х   . Как следует из
аналитического выражения плотности, нормальное распределение
определяется параметрами а и  . На рисунке 3.4 изображен график
интегральной функции нормального распределения.

f(x)

0 M(x) x

Рисунок 3.15 – Нормальная кривая

Найдем математическое ожидание и дисперсию случайной величины,


подчиняющейся нормальному закону, для чего используем общие
определения числовых характеристик случайных величин:

 
1
М ( x )   xf ( x )dx   xe ( x a ) / 2 dx .
2 2

  2  
Введём новую переменную t  ( x  a ) /  . Имеем: x  t  a ; dx  dt .
Нетрудно убедиться, что новые пределы интегрирования совпадают со
старыми. Таким образом,

  
 1 1
 (t  a )e  t / 2 dt   te  t / 2 dt   e  t / 2 dt  a .
2 2 2
М(x ) 
 2   2   2  

Первое слагаемое в правой части равенства равно нулю, так как под
знаком интеграла с симметричными пределами находится нечетная функция.
Второе слагаемое равно а, поскольку

e
t 2
/2
dt  2 .


Итак, имеем М (х) = а.


Найдем дисперсию случайной величины, распределенной нормально.

 
1
 (x  a ) f (x )dx   (x  a ) e
2 ( x a ) 2
/ 2 2
 2x  2
dx .
  2  

Вводя в это выражение новую переменную t  ( x  a ) /  и принимая во


внимание, что новые пределы интегрирования равны старым, получим

 
3 2
 2  2 
2 t 2 / 2 t 2 / 2
 2x  t e dt  te dt .
Интегрируем по частям, положив u = t, te  t
2
/2
dt  d , откуда du = dt,

 te
t 2
 /2
dt . Окончательно имеем


 2x   2 .

Таким образом, становится ясен статистический смысл параметров а и


 нормальной кривой распределения.
Рассмотрим некоторые свойства нормального распределения.
Свойство 1. Функция плотности нормального pacпределения
определена на всей оси Ох, т. е. каждому значению х соответствует вполне
определенное значение функции.
Свойство 2. При всех значениях х (как положительных, так и
отрицательных) функция плотности пpинимает положительные значения, т. е.
нормальная кривая расположена над осью Ох.
Свойство 3. Предел функции плотности при неограниченном
возрастании х равен нулю:

lim f ( x )  0 .
x 

Графически это состоит в том, что ветви кривой асимптотически


приближаются к оси Ох.
Свойство 4. Функция плотности нормального распределения в точке х=а
имеет максимум, равный

1
f (a )  .
 2
В этом нетрудно убедиться, найдя первую производную от f(x)

x  a ( x a ) 2 / 2  2
f ' (x)   e .
 3 2

Так как первая производная при переходе через точку, в которой она
обращается в пуль, меняет знак от «+» к «», то имеем в точке х = а максимум
функции f(x).
Свойство 5. График функции плотности f (х) симметричен относительно
прямой, проходящей через точку х = а.
Отсюда следует равенство для нормально распределенной величины
моды, медианы и математического ожидания.
Свойство 6. Кривая распределения имеет две точки перегиба с
координатами

 1   1 
 a  ;  и  a  ; 
  2e    2e 

Для отыскания координат этих точек найдем вторую производную:

1 ( x a ) 2 / 2 2  (x  a ) 2 
f ' ' (x)   e   1.
 3 2   2

При х = а +  и x = a -  вторая производная обращается в нуль, а при


переходе через эти точки она меняет знак. Подставляя эти значения аргумента
в выражение функции плотности, находим ординаты точек перегиба.
Свойство 7. Нечетные центральные, моменты нормального
распределения равны нулю.
Выведем общую формулу центральных моментов любого порядка для
нормально распределенной случайной величины, согласно определению
имеем:

 
1
 q   ( x  a ) f ( x )dx 
q
 ( x  a ) q ( x a ) 2 / 2 2
e dx .
  2  

Заменяя переменную выражение t  ( x  a ) /  , получим:


q
2 
q q 2 / 2
q  t e dt . (3.21)

Интегрируя это выражение по частям, имеем:


(k  1) q
t e
q  2 q 2
q  /2
dt . (3.22)
2 

По формуле (3.21) можно получить следующее выражение для  k 2 :


 q 2
t e
q  2 q 2
 q 2  /2
dt .
2 

Найдем отношение центральных моментов  k и  k 2 :

 q /  q 2  (k  1) 2 .
Отсюда получаем простое рекуррентное соотношение, выражающее
моменты высших порядков через моменты низших порядков:

 q  (q  1) 2  q  2 . (3.23)

Как следует из формулы, центральные моменты нечетных порядков


равны нулю, поскольку 1  0 . Пользуясь формулой (3.23), можно получить
следующие выражения для центральных моментов четного порядка:

 2   2 ;  4  3 4 ;  6  15 6 .

Свойство 8. Коэффициенты асимметрии и эксцесса нормальною


распределения равны нулю. Действительно,

A  3 / 3  0 ;

E  4 / 4  3  0 .

Становится ясной важность вычисления этих коэффициентов для


эмпирических рядов распределения, так как они характеризуют скошенность
и крутость данного ряда по сравнению с нормальным.
Свойство 9. Форма нормальной кривой не изменяется при изменении
величины параметра а (математического ожидания). При уменьшении или
увеличении математического ожидания график кривой сдвигается влево или
вправо (рисунок 3.16).
f(x)

0 M(x1) M(x2) M(x3) x

Рисунок 3.16 – Сдвиг кривой при уменьшении или увеличении


математического ожидания

При изменении же параметра  меняется форма кривой. С возрастанием


 максимальная ордината кривой распределения уменьшается, а с
уменьшением  - возрастает. Согласно свойству плотности распределения,
площадь, ограниченная кривой распределения и осью абсцисс, равна единице.
Поэтому с ростом  кривая pacпределения сжимается к оси абсцисс и
растягивается вдоль нее; с уменьшением  нормальная кривая растягивается
вдоль оси ординат (рисунок 3.17).

f(x)

II
III

0 х

Рисунок 3.17 – Изменение кривой распределения от изменения 


Функция плотности распределения с параметрами а = 0,  = 1
называется нормированной плотностью, а ее график нормированной
нормальной кривой. Нормированную нормальную кривую можно представить
как кривую распределения нормированной случайной величины
T  [X  M ( x )] /  . Нормированную плотность распределения используют для
расчета теоретической кривой pacпределения, соответствующей данному
эмпирическому ряду. Для этого переменные заменяют выражением
1 t 2 / 2
t  ( x  a ) /  . Значения нормированной плотности f ' ( t )  e для
2
различных t приведены в таблице 1 приложений. Следует иметь в виду, что
нормированная плотность нормального распределения является четной
функцией, т. е. f ( t )  f ( t ) .
На практике часто необходимо вычислять вероятность того, что
нормально распределенная случайная величина находится в определенных
границах. Расчет легко провести с помощью значений специальной функции
(так называемой функции Лапласа или интеграла вероятности):

t
[ 2]
2 0
t 2 / 2
( t )  e dt .

Эти значения приведены в таблице 2 приложений. Функция Лапласа


нечетная функция, т. е. ( t )   ( t ) .
В § 3.1 было показано, что вероятность того, что любая случайная
величина Х примет значение, принадлежащее интервалу (, ) , можно
выразить через функцию распределения

P(  X  )  F()  F() .


Перейдем к нормированной случайной величине T  [X  M ( x )] /  .
Неравенства X и [  M( x )] /   [X  M( x )] /   [  M( x )] / 
равносильны. Поэтому вероятности этих неравенств равны между собой.

   M( x ) X  M( x )   M( x ) 
P(  X  )  P   .
    

Используя предыдущее равенство, запишем:

P( t 1  T  t 2 )  F( t 2 )  F( t 1 ) , (3.24)

  M( x )   M( x )
где t 1  ; t2  . Считая, что нормированная случайная
 
величина Т имеет нормальное pacпределение и используя определение
интегральной функции распределения, получим:

t t 0 t
1 1 1
F( t )  P(T  t )   f ( t )dt   e t 2 / 2
dt   e t 2 / 2
dt   e t 2 / 2
dt .
 2   2   2  0

Первое слагаемое численно равно половине площади под


нормированной нормальной кривой распределения; второе слагаемое является
выражением функции Лапласа.
Итак, для нормально распределенной случайной величины имеем:

F( t )  1 / 2  1 / 2 ( t ) . (3.25)

Используя формулу (3.25) в выражении (3.24), получим


P( t 1  T  t 2 )  1 / 2 ( t 2 )  1 / 2 ( t 1 ) . (3.26)

Определим вероятность того, что нормально распределенная случайная


величина Х отклоняется от своего математического ожидания М (х) на
величину меньшую, чем в. т. е. найдем вероятность осуществления
неравенства X  M( x )   , или (что одно и тоже) вероятность осуществления

двойного неравенства M ( x )    X  M ( x )   . Перейдем к нормированной


случайной величине Т, заменив границы отклонения случайной величины Х
на нормированные:

M( x )    M( x ) 
t  .
 

Пользуясь формулой (3.26), получим

P( t 1  T  t 2 )  1 / 2( t 2 )  1 / 2( t 1 )  1 / 2( / )  1 / 2( / )  ( / ) .

Итак, окончательно имеем:

P ( X  M ( x )   )   (  / ) . (3.27)

В частности, при М (х) = 0 :

PX    ( / ) . (3.28)

Выразив отклонение случайной величины Х в долях cpeднeгo


квадратического отклонения, т. е. положив   t , равенство (3.27) можно
записать в виде:
PX  M( x )  t  ( t ) . (3.29)

Таким образом, значение функции Ф (t) при заданном t определяет


вероятность того, что отклонение нормально распределенной случайной
величины по абсолютной величине меньше t .

При t = 1 имеем PX  M( x )    (1)  0,6327 ;

при t = 2 PX  M( x )  2   (2)  0,9545 ;

при t = 3 PX  M( x )  3  (3)  0,9973 .

Из последнего равенства следует, что практически рассеяние нормально


распределенной случайной величины укладывается на участке M ( x )  3 .
Вероятность того, что случайная величина Х попадает за этот участок очень
мала, а именно равна 0,0027, т. е. это событие может произойти лишь в 0,27%
случаев. Такие события можно считать практически невозможными. На
приведённом рассуждении основано правило трех сигм, которое
формулируется следующим образом: если случайная величина имеет
нормальное распределение, то отклонение этой величины от математического
ожидания по абсолютной величине не превосходит утроенного среднего
квадратического отклонения.
Используя это правило, ориентировочно оценивают среднее
квадратическое отклонение. Для этого из ряда наблюдения выбирают
максимальное и минимальное значения и их разность делят на шесть.
Полученное число является грубой оценкой среднего квадратического
отклонения при условии, что распределение признака нормально.
Пример 8. Размер детали для медицинского прибора задан полем
допуска 10 - 12 мм. Оказалось, что средний размер деталей для медицинского
прибора равен 11,4 мм, а среднее квадратическое отклонение - 0,7 мм. Считая,
что размер детали для медицинского прибора подчиняется закону
нормального распределения, определить вероятность появления брака по
заниженному и завышенному размеру.
Решение. По условию задачи имеем: М (х) = 11,4 мм.  = 0,7 мм. Нижняя
граница поля допуска Tн  10 мм. Верхняя гpaница поля допуска Tв  12 мм.
Браком по заниженному размеру является деталь для медицинского прибора с
размером, выходящим за нижнюю границу допуска; браком по завышенному
размеру деталь с размером, выходящим за верхнюю границу поля допуска.
Искомые вероятности соответственно равны:

 T  M( x ) 
P(X  Tн )  F(Tн )  1 / 2  1 / 2  н   1 / 2  1 / 2(2)  1 / 2  1 / 2(2) 
  
 0,0225 ,

 T  M( x ) 
P(X  Tв )  1  P(X  Tн )  1  F(Tн )  1 / 2  1 / 2  н 
  
 1 / 2  1 / 2 (0,86)  0,1950

При решении использованы данные, приведенные в таблице 2


приложений.
Пример 9. Установлено, что при измерении диаметра валика
микрометром случайная погрешность подчиняется нормальному закону со
средним квадратическим отклонением, равным 0,12 мм. Систематической
погрешностью измерения можно пренебречь. Найти вероятность того, что
измерение производится с ошибкой, не превосходящей по абсолютной
величине 0,2 мм.
Решение. По условию имеем:   0,2 ;   0,12 мм. Искомая вероятноcть
P( X  0,2)  (0,2  0,12)  (1,67)  0,9051 .

В таблице 3.6 – 3.8 приведены три способа расчета теоретического


нормального распределения по двум известным характеристикам x и s
эмпирического ряда распределения диаметра шейки плунжера после
шлифовки. При расчетах статистические характеристики эмпирического ряда
распределения приравниваются числовым характеристикам теоретического
x  M( x ) ; s   .
В таблице 3.6 расчет производится по нормальной плотности
1 t 2 / 2
нормального распределения f (t)  e , где t  [ x  M ( x )] /  -
2
нормированное отклонение случайной величины. В этом случае интервальный
ряд заменяется дискретным, в предположении, что частота или частость
относится к серединам интервалов. После вычисления нормированных
отклонений t находятся значения нормированной плотности f (t) по таблице 1
приложений. Плотность случайной величины Х можно представить в виде

1 1 t 2 / 2 1
f (x)  e   f (t) .
 2 
Таблица 3.6 – Расчёт теоретической кривой распределения диаметра шейки плунжера после шлифовки с помощью
нормированной плотности нормального распределения

1 t 2 / 2
f (t)  e
2

Интервалы Эмпирическая ab X  M( x ) h h Теоретическая


x t f(t) f (t) N  f (t)
a-b частота m 9 2    частота m 
6,67 – 6,69 5 6,68 -2,24 0,0325 0,0206 4,12 4
6,69 – 6,71 17 6,70 -1,60 0,1109 0,0702 14,04 14
6,71 – 6,73 24 6,72 -0,97 0,2492 0,1577 31,54 32
6,73 – 6,75 54 6,74 -0,34 0,3765 0,2383 47,66 48
6,75 – 6,77 52 6,76 0,29 0,3825 0,2421 48,42 49
6,77 – 6,79 23 6,78 0,93 0,2589 0,1639 32,78 33
6,79 - 6,81 18 6,80 1,56 0,1182 0,0748 14,96 15
6,81 – 6,83 7 6,82 2,19 0,0363 0,0230 4,60 5

 200 0,9906 200


x  6,7507
s = 0,0316
Таблица 3.7 – Расчёт теоретической кривой распределения диаметра шейки плунжера после шлифовки с помощью
функции

1 1
P (a  X  b )  ( t 2 )  ( t 1 )
2 2

Интервалы Эмпирическая a  M( x ) b  M( x ) Теоретическая


t1  t2  1
 ( t1 )
1
( t 2 ) P (a  X  b ) Np
a-b частота m 9   2 2 частота m 
6,67 – 6,69 5 -2,55 -1,92 -0,4945 -0,4725 0,0220 4,40 5
6,69 – 6,71 17 -1,92 -1,29 -0,4725 -0,4015 0,0710 14,20 14
6,71 – 6,73 24 -1,29 -0,66 -0,4015 -0,2455 0,1560 31,20 31
6,73 – 6,75 54 -0,66 -0,02 -0,2455 -0,0080 0,2375 47,50 48
6,75 – 6,77 52 -0,02 0,61 -0,0080 0,2290 0,2375 47,50 48
6,77 – 6,79 23 0,61 1,24 0,2290 0,3925 0,1635 32,70 33
6,79 - 6,81 18 1,24 1,88 0,3925 0,4700 0,0775 15,50 16
6,81 – 6,83 7 1,88 2,51 0,4700 0,4940 0,0240 4,80 5

 200 0,9885 200


x  6,7507
s = 0,0316
Таблица 3.8 - Расчёт теоретической кривой распределения диаметра
шейки плунжера после шлифовки с помощью интегральной функции
Накопленная
Эмпирическая
Интервалы эмпирическая t  [b  1
частотность ( t ) F(b)
a-b частотность  M( x )] /  2
э
 нак
6,67 – 6,69 0,025 0,025 -1,92 -0,4725 0,0275
6,69 – 6,71 0,085 0,110 -1,29 -0,4015 0,0985
6,71 – 6,73 0,120 0,230 -0,66 -0,2455 0,2545
6,73 – 6,75 0,270 0,500 -0,02 -0,0080 0,4920
6,75 – 6,77 0,260 0,760 0,61 0,2290 0,7290
6,77 – 6,79 0,115 0,875 1,24 0,3925 0,8925
6,79 - 6,81 0,090 0,965 1,88 0,4700 0,9700
6,81 – 6,83 0,035 1,000 2,51 0,4940 0,9940

 1,000
x  6,7507
s = 0,0316

1
Произведение  f ( t ) является теоретической частостью признака

приходящейся на середину интервала. Для определения частоты признака,
распределенной по всей ширине интервала, эта величина умножается на
ширину интервала h и на общее число наблюдений N   m i . При округлении

вычисленных значений теоретических частот следует обращать внимание,


чтобы соблюдалось равенство сумм эмпирических частот, т. е.  mэ   mт
. Из-за того что расчёт вероятностей ведётся по серединам интервалов, этот
способ является недостаточно точным.
При втором способе расчёта теоретической кривой нормального
распределения вероятность попадания случайной величины в каждый
интервал распределения вычисляется по формуле:

1 1
P (a  X  b )  ( t 2 )  ( t 1 ) ,
2 2

где t 1  [a  M ( x )] /  и t 2  [b  M ( x )] /  - нормированные отклонения начала


и конца интервалов.
По таблице 2 приложений находим для вычисленных нормированных
отклонений функции распределения Ф(t). Соответствующие вычисления
приведены в таблице 3.7. В результате получаем теоретическую частоту
признака, относящуюся ко всей ширине интервала.
Третий способ расчета производится с помощью интегральной функции
1
F(b)  1 / 2  ( t ) , где t - нормированное отклонение верхних границ
2
интервалов t  [b  M( x )] /  . В итоге получаем накопленную
теоретическую частость, отнесенную к верхним границам интервалов
(таблица 3.8).

3.5 Биномиальное распределение

Биномиальным распределением является распределение вероятностей


появления m числа событий в n независимых испытаниях, в каждом из
которых вероятность появления события постоянна и равна р. Вероятность
возможного числа появления события вычисляется по формуле Бернулли

P(X  m)  C mn p m q n  m (m  0, 1, ..., n )
где q = l - p. Постоянные n и р, входящие в это выражение, являются пара
метрами биномиального закона.
Биномиальным распределением описывается распределение
вероятностей только дискретной случайной величины. Возможными
значениями случайной величины Х являются m  0, 1, ..., n . Биномиальному
распределению подчиняется, например, число бракованных изделий в
выборках из неограниченной партии продукции. Биномиальное
распределение может быть задано в виде ряда:

Таблица 3.9 – Биномиальное распределение


X=m 0 1 2 … t … n
Pm ,n C 0n p 0 q n C1n p1q n 1 C 2n p 2 q n  2 … C in p i q n i … C nn p n q 0

и в виде функции распределения:

 0 при m  0,

F(m)    Pm ,n при 0  m  n ,
m i  m
 1 при m  n.

Найдем числовые характеристики случайной величины,


подчиняющейся биномиальному распределению. Запишем выражения
начальных моментов до четвертого порядка включительно;

n
1   mC mn p m q n m , (3.30)
m 0

n
2   m 2 C mn p m q n m , (3.31)
m 0
n
3   m 3 C mn p m q n m , (3.32)
m 0

n
4   m 4 C mn p m q n m , (3.33)
m 0

Для вычисления сумм в формулах (3.30 - 3.33) продифференцируем


несколько раз по р следующее выражение:

n
(p  q)  n
 C mn p m q n m .
m 0

В результате получим:

n
n (p  q ) n 1   mC mn p m1q n m , (3.34)
m 0

n
n (n  1)( p  q ) n 2
  m(m  1)C mn p m2 q n m , (3.35)
m 0

n
n (n  1)( n  2)( p  q ) n 3
  m(m  1)(m  2)C mn p m3 q n m , (3.36)
m 0

n
n (n  1)(n  2)(n  3)(p  q ) n 4
  m(m  1)(m  2)(m  3)C mn p m4 q n m , (3.37)
m 0

Умножая левую и правую части равенства (3.34) на р, имеем

n
np(p  q ) n 1
  mC mn p m1q n m , (3.38)
m 0
Правые части равенства (3.30) и (3.38) равны между собой,
следовательно, равны и левые части. т. е.

1  np(p  q) n 1 .

Учитывая, что p + q = 1, имеем

1  np (3.39)

или

M ( x )  np .

Итак, математическое ожидание числа появлений события в n


независимых испытаниях равно произведению числа испытаний на
вероятность появления события в каждом испытании.

Умножим обе части равенства (3.35) на p 2 :

n
n (n  1)p (p  q )
2 n 2
  m(m  1)C mn p m q n m .
m 0

Учитывая, что p + q = 1, имеем

n n
n 2 p 2  np 2   m 2 C mn p m q n m   mC mn p m q n m .
m 0 m 0

Используя равенства (3.30), (3.31) и (3.39), получим выражение


начального момента второго порядка:
 2  n 2 p 2  np 2  np . (3.40)

Умножим обе части равенства (3.36) на p 3 :

n
n (n  1)(n  2)p 3 (p  q ) n 3   m(m  1)(m  2)C mn p m q n m
m 0

или

n n n
n p  3n p  2np 
3 3 2 3 3
m 3
C mn p m q n  m  3 m 2
C mn p m q n  m  2  mC mn p m q n  m .
m 0 m 0 m 0

Принимая во внимание равенства (3.30), (3.32), (3.39) и (3.40), получим


выражение начального момента третьего порядка:

 3  n 3 p 3  3n 2 p 3  2np 3  3n 2 p 2  3np 2  np . (3.41)

Умножая обе части равенства (3.37) на p 4 , получим:

n
n (n  1)(n  2)(n  3)p (p  q ) 4 n 4
  m(m  1)(m  2)(m  3)C mn p m q n m
m 0

или

n n
n p  6n p  11n p  6np 
4 4 3 4 2 4 4
m 4
C mn p m q n  m  6  m 3 C mn p m q n  m 
m 0 m 0
n n
 11 m 2
C mn p m q n  m  6  mC mn p m q n  m .
m 0 m 0

Учитывая равенства (3.30) - (3.33), (3.39) - (3.41), находим

 4  n 4 p 4  6n 3 p 4  11n 2 p 4  6np 4  6n 3 p 3  18n 2 p 3  12np 3 

 7n 2 p 2  7np2  np .

Используя связь между центральными и начальными моментами,


получим выражение дисперсии и среднего квадратического отклонения для
биномиального распределения;

 2   2  npq ; (3.42)

  npq , (3.43)

а также выражения центральных моментов третьего и четвёртого порядков:

 3  npq(q  p) ,

 4  3n 2 p 2 q 3  npq(1  6pq) .

Показатели асимметрии и эксцесса для биномиальногo распределения


имеют вид:

A  (q  p) / npq , (3.44)
E  (1  6pq) / npq . (3.45)
Р

р=0,9
0,3
р=0,1

0,25

р=0,7
0,2 р=0,3 р=0,5

0,15

0,1

0,05

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 m

Рисунок 3.18 – Многоугольники биномиального распределения при n = 20 и р


= 0,1; 0,3; 0,5: 0,7 и 0,9

р n=3

0,4 n=5

0,3 n=10

0,2

0,1
0,05

0 1 2 3 4 5 6 7 8 9 10 m

Рисунок 3.19 - Многоугольники распределения при р = 2 / 3 и n = 3,5, 10


Исследуем форму графиков биномиальных распределений. Сначала при
фиксированном n и меняющемся р, затем при фиксированном р и
возрастающем n. На рисунке 24 построены многоугольники биномиального
распределения при n = 20 и р = 0,1; 0,3; 0,5: 0,7 и 0,9. Особенностью этих
распределений является то, что вероятность Pm ,n сначала возрастает при

увеличении m и достигает наибольшего значения при некотором


наивероятнейшем значении m  m 0 , которое (как было доказано в § 2.10)
можно определить из двойного неравенства

np  q  m 0  np  p .

Значение m0 является модой биномиального закона. Если имеются два


наивероятнейших значения, то распределение является 6имодальным.
Отметим, что для любого биноминального распределения расстояние между
математическим ожиданием и модой не превосходит единицы.
Если np - целое число, то математическое ожидание и мода совпадают.
После достижения наивероятнейшего значения то вероятность Pm ,n начинает

убывать. Распределение, вообще, асимметрично, за исключением случая,


когда р = 0,5. При р < 0,5 асимметрия положительна. При р > 0,5 асимметрия
отрицательна. При увеличении числа испытаний n форма многоугольника
распределения приближается к симметричной и при крайних значениях р. Это
следует и из формул (3.44) и (3.45) (с ростом n асимметрия и эксцесс стремятся
к нулю). Практически график биномиального распределения можно считать
симметричным при np  4. На рисунке 25 изображены многоугольники
распределения при р = 2 / 3 и n = 3,5, 10. При возрастании n график
биномиального распределения сдвигается вправо и становится более плоским.
При вычислении вероятностей биномиального распределения полезно
следующее соотношение, связывающее два соседних члена Pn ,m и Pn ,m 1 :
Pm 1,n / Pm,n  (n  m) /(m  1)  p / q . (3.46)

3.6 Локальная теорема Муавра - Лапласа

При большом числе испытаний n биномиальное распределение весьма


близко к нормальному. Обоснование и доказательство, этого положения
содержится в локальной теореме Муавра - Лапласа. Теорема для р = 1/2 была
доказана Муавром в 1730 г., а затем в 1783 г. обобщена Лапласом на случай
произвольного р, отличного от нуля и единицы.
Локальная теорема Муавра - Лапласа. Если вероятность p
наступления события А в n независимых иcпытаниях постоянна и отлична от
нуля и единицы, то при условии, что число испытании достаточно велико
вероятность того, что в этих испытаниях событие А наступит ровно m раз

1
Pm ,n   f (t) , (3.47)
npq

1 t 2 / 2 m  np
где f ( t )  e ;t .
2 npq

Доказательство. Исходя из определения производной как предела


приращения функции к приращению аргумента, можно записать:

Pm 1,n  Pm ,n
y'   Pm 1,n  Pm ,n .
(m  1)  m

Используя формулу (3.46) найдем отношение производной к функции:


y' Pm 1,n  Pm ,n Pm 1,n nm p np  m  q
  1   1  (3.48)
y Pm ,n Pm ,n m 1 q q (m  1)

Обозначим через х отклонение значения случайной величины от


математического ожидания или моды (распределение считаем
симметричным): x = m - np, откуда x = m + np. Подставляя последние
выражения в формулу (3.48), получим:

y'  (m  np)  q xq  x (1  q / x )


   .
y q(m  1) q( x  np  1) npq(1  x / np  1 / np)

Предполагая, что число испытаний n заведомо велико, отклонение х


мало по сравнению с величиной nр и вepoятности р и q заметно отличаются от
нуля, можно принять:

q / x  0 ; x / np  0 ; 1 / np  0 .

Тогда имеем

y' / y   x / npq . (3.49)

dy
Так как y'  , то равенство (3.49) можно представить в виде
dx

dy xdx
 .
y npq

Интегрируя это выражение, получим


dy xdx
 y
 
npq
,

x2
ln y    c,
2npq

e (x / 2 npq )  c
2
 y.

или

y  e c  e x
2
/ 2 npq
.

Обозначим постоянный множитель e c  y 0 , тогда имеем:

y  y 0 e x
2
/ 2 npq
.

Вероятность наивероятнейшего числа определяется по приближенной


формуле:

1
Pm 0 ,n  .
2npq

При х = 0, т. е. для модального значения распределения, получим

1
y  y0e0  .
2npq

Отсюда
1
e x
2
y / 2 npq
. (3.50)
2 npq

Вводя нормированное отклонение

t  x / npq  (m  np) / npq ,

получим

1
e t
2
y /2
,
2 npq

1 t 2 / 2
где e - нормированная плотность нормального распределения f (t),
2
т.е.

1
Pm ,n   f (t) .
npq

Таким образом, из локальной теоремы Муавра - Лапласа следует, что

распределение нормированной случайной величины (m  np) / npq стремится


к нормальному закону при перечисленных выше условиях.

Так как для биномиального закона распределения  2  npq гJ2==npq, то


из выражения (З.50) можно получить формулу Гаусса при М (х) = 0 (для
центрированной случайной величины) :

1
e  x / 2 .
2 2
y
 2
Локальная теорема Муавра - Лапласа относится к предельным теоремам
теории вероятностей (смотри главу IV). Асимптотическая формула этой
теоремы позволяет производить расчеты вероятности появлений событий при
большом числе испытаний, не прибегая к формуле Бернулли.
Пример 10. Вероятность того, что станок - автомат производит годную
таблетку, равна 8/9. За смену было изготовлено 280 таблеток. Определить
вероятность того, что среди них 20 бракованных.
Решение. Согласно условию задачи имеем; n = 280; m = 20; p = 1/9; q=8/9,
По формуле (3.47) находим

1 f (t )
P20, 280   f (t)  .
280  1 / 9  8 / 9 5,2588

Вычислим нормированное отклонение

m  np 20  280  1 / 9
t   2,11 .
npq 280  1 / 9  8 / 9

По таблице 1 приложений находим: f(-2,11) = 0,0431. Искомая


вероятность

P20, 280  0,0431 / 5,2588  0,0082 .

Вычисления, проведенные по формуле Бернулли, дадут такой же


результат.
Пример 11. Используя условия примера 10 лекции 2, по формуле (3.47)
вычислить вероятность тогo, что из пяти наудачу отобранных в течение смены
деталей, У одной размеры диаметра. не соответствуют заданному допуску.
Решение. Имеем
1 f (t)
P1,5   f (t)  ,
5  0,07  0,93 0,5705

m  np 1  5  0,07 0,65
t    1,14 .
npq 5  0,07  0,93 0,5705

По таблице 1 приложений находим f(1,14) = 0,2083.


Искомая вероятность
P1,5  0,3651.

Если вычисления проводить по формуле Бернулли, то мы приходим к


другому результату, а именно: P1,5  0,2618 (смотри пример 10, глава 11).

Такое расхождение объясняется тем, что формула локальной теоремы Муавра


- Лапласа дает достаточно хорошие приближения лишь при больших
значениях n.

3.7 Логарифмически нормальное распределение

Логарифмически нормальным распределением называется


распределение такой cтpoгo положительной величины Х, логарифм которой
U  ln X распределен нормально.
Плотность распределения случайной величины U определяется по
формуле

1
e [ u M ( u )] / 2  2u
2
f (u )  . (3.51)
 u 2
Плотность распределения случайной величины Х, которую можно
представить как показательную функцию x  e u , связана с плотностью
распределения величины и следующим образом:

dF( x ) dF[ x (u )] du du 1
f (x)     f (u )   f (u ) .
dx du dx dx x

Отсюда находим:

1
e [ln x M ( u )] / 2  2u
2
f (x)  ,
x u 2

где х > 0. При x  0 имеем f(х) = 0.


Математическое ожидание и дисперсию случайной величины Х,
подчиняющейся логарифмически нормальному распределению, найдем после
соответствующих преобразовании, исходя из общих определений этих
характеристик:


M ( x )   xf ( x )dx  e (  u  2 M ( u )) / 2 ;
2
(3.52)
0

 

  [ x  M ( x )] 2 f ( x )dx  e  u  2 M ( u ) e  u  1 .
2 2
 2x (3.53)
0

Найдём математическое ожидание и дисперсию случайной величины U.

Разделив  2x на [M( x )] 2 , получим:

 2x /[M( x )] 2  e u  1 ,
2
откуда

 2u  ln[ 2x /[M( x )] 2  1] .

Прологарифмировав выражение (3.52), имеем

ln M( x )   2u / 2  M(u ) ,

откуда

1   2x 
M (u )  ln M ( x )   2u / 2  ln M ( x )  ln   1.
2 [M ( x )] 2 

Таким образом, плотность логарифмически нормального распределения


можно представить в виде

1   2x 
ln X  ln M ( x )  ln  1
2  [ M ( x )]2


  2x 
2 ln  1 
1  [ M ( x )]2 
f (x)  e
  2x 
x 2 ln  2
 1
[M ( x )] 

На рисунке 3.20 изображены вид кривой логарифмически нормального


распределения и ее составляющие. Логарифмически нормальным
распределением хорошо аппроксимируются эмпирические распределения
случайной величины со значительной правосторонней асимметрией. Это
распределение находит широкое применение при описании многих явлении в
технике и в экономических исследованиях (например, с его помощью можно
описать распределение трудовых доходов населения).
1 ln x
y
 2( u )


ln x  M ( u )  2
2 2 ( u )
e


ln x  M ( u )  2
1 2 2 ( u )
e
x 2(u )

0 x


ln x  M(u ) 2
2 2 ( u )

Рисунок 3.20 - Кривая логарифмически нормального распределения и ее


составляющие

В таблице 3.10 приведен пример расчета логарифмически нормального


распределения несимметричности расположения осей болтовых отверстий
относительно центрального отверстия дисков тракторных колёс.
Вычисленные статистические характеристики x и s 2 приравнивают к

числовым характеристикам теоретического распределения: x = М (х); s 2   2x

. Затем, используя полученные выше выражения, определяют М(u) и  u , по


которым вычисляют далее нормированные отклонения t.
Таблица 3.10 – Пример расчета логарифмически нормального распределения несимметричности расположения осей
болтовых отверстий относительно центрального отверстия дисков тракторных колёс
Эмпири- x ' 2 m t1  t2  1 1 1
xi  x'  (t 1 ) ( t 2 )  ( t 2 )  Теорети-
Интервалы ческая  [ln a   [ln b  2 2 2
частота  a  b
x  x 0 x 'm ln a ln b 1 ческая
a-b   M (u )] /  M (u )] /   ( t 1 ) частота
2 h 2 m
mэ / u / u
0 – 3,5 9 1,75 -5 -45 225  1,2528  -2,28 -0,5000 -0,4885 0,0115 6
3,5 – 7,0 101 5,25 -4 -404 1616 1,2528 1,9459 -2,28 -0,71 -0,4885 -0,2610 0,2275 114
7,0 – 10,5 185 8,75 -3 -555 1665 1,9459 2,3514 -0,71 0,21 -0,2610 0,0830 0,3440 172
10,5 – 14,0 112 12,25 -2 -224 448 2,3514 2,6391 0,21 0,87 0,0830 0,3080 0,2250 113
14,0 – 17,5 49 15,75 -1 -49 49 2,6391 2,8622 0,87 1,37 0,3080 0,4145 0,1065 53
17,5 – 21,0 24 19,25 0 0 0 2,8622 3,0445 1,37 1,79 0,4145 0,4635 0,0490 25
21,0 – 24,5 12 22,75 1 12 12 3,0445 3,1987 1,79 2,14 0,4635 0,4840 0,0205 10
24,5 – 28,0 5 26,25 2 10 20 3,1987 3,3322 2,14 2,44 0,4840 0,4925 0,0085 4
28,0 – 31,5 2 29,75 3 6 18 3,3322 3,4500 2,44 2,71 0,4925 0,4965 0,0040 2
31,5 – 35,0 1 33,25 4 4 16 3,4500 3,5553 2,71 2,95 0,4965 0,4985 0,0020 1
-
500 4069 500
1245

x 0  19,25 ; x  10,53350 ;  u  0,1937 ; M(u )  2,2578 ; h  3,5 ; s 2  23,7392 ;  u  0,4402


2
3.8 Закон распределения Пуассона или закон распределения редких
явлений

Биномиальное распределение приближается к нормальному тем лучше,


чем больше n и чем меньше р или q. Однако это не имеет места, если наряду с
увеличением n одна из величин р или q стремится к нулю. В этом случае
биномиальное распределение в пределе дает распределение Пуассона.
Преобразуем выражение для вероятности Pm ,n в биномиальном

распределении, предварительно обусловившись, что при увеличении n


сохраняется равенство a  np , т.е. p  a / n . Имеем:

n (n  1)(n  2)...(n  m  1)(n  m)  ...  2  1 m n m


Pm,n  p q 
m!(n  m)!
m n m
1 a  a
 n (n  1)( n  2)...(n  m  1)  1   
m! n  n
n m
1 n n 1 n  2 n  m 1 m  a   a 
    ... a 1    1   .
m! n n n n  n  n

Вычислим пределы сомножителей:

n n 1  1 n2  2
lim  1 ; lim  lim 1    1 ; lim  lim 1    1 ;
n  n n  n n  n n  n n  n

m
n  m 1  m  1  a
lim  lim 1    1 ; lim 1    1.
n  n n  n  n  n

a 1
Для нахождения предела выражения (1  a / n ) n обозначим   ,
n x
откуда n  ax . Далее имеем:
 ax a
 a
n
 1  1
x

lim 1    lim 1    lim 1     e a ,
n   n x  x x   x
 

так как lim 1  1 / x x  e  2,71828... .


x 

Таким образом, при n   и р или q   получим

a m e a
Pm,n  . (3.54)
m!

Это и есть формула распределения Пуассона.


Закон Пуассона описывает число событий m, происходящих за
одинаковые промежутки времени при условии, что события происходят
независимо друг от друга с постоянной средней интенсивностью. При этом
число испытаний n велико, а вероятность появления события в каждом
испытании р мала. Поэтому закон Пуассона называется еще законом
распределения редких явлений. Параметром распределения Пуассона является
величина  , характеризующая интенсивность появления событий в n
испытаниях. На рисунке 3.21 приведены многоугольники распределения
Пуассона, соответствующие различным значениям параметра  .
p

а=0,5
0,5
а=1
а=2
а=3,5

0 1 2 3 4 5 6 7 8 m

Рисунок 3.21 – Многоугольники распределения Пуассона

Пуассоновским распределением хорошо описывается распределение  -


частиц, испускаемых радиоактивным источником за определенный
промежуток времени, число требований на выплату страховых сумм за год,
число вызовов, поступивших на телефонную станцию за определенное время
суток, число отказов элементов при испытании на надежность сложных
радиоэлектронных устройств, число бракованных изделий в выборках при
взятии проб из партий, изготавливаемых на заводе изделий и т. д.
Закон распределения Пуассона может быть задан в виде ряда
распределения, представленного в таблице 3.11.

Таблица 3.11- Ряд распределения


X=m 0 1 2 … m …


     m 
Pm e e e … e …
1! 2! m!

Возможные значения случайной величины образуют бесконечную


последовательность целых чисел 0, 1, 2, … .
Убедимся, что при этом соблюдается необходимое требование для ряда
распределения, сводящееся к тому, чтобы сумма всех вероятностей Pm была
равна единице.
Имеем:

  
a m  am
 Pm   m! e  e  m! .


m 0 m 0 m 0


am
Но   e  , следовательно,
m  0 m!


 Pm  e  e   1.
m 0

Найдём математическое ожидание и дисперсию случайной величины,


распределенной по закону Пуассона:

 
a m 
M(x )   mPm  m m!
e .
m 0 m 0

Так как первый член суммы, соответствующий m = 0, paвен нулю, то,


начиная суммирование с m = 1, получим


a m  
a m 1
M( x )   m e  e 

   np .
m 1 m ! m 1 ( m  1 )!

Для определения дисперсии найдем математическое ожидание квадрата


случайной величины:

a m  
a m 1 
a m 1
M( x )   m
2
e  e  m
2 
 e  [( m  1)  1]


m 1 m! m 1 (m  1)! m 1 (m  1)!


a m 1 
a m 1 
a m2 
a m 1
 e 
 (m  1) (m  1)!  e  (m  1)!   e  (m  2)!  e  (m  1)! .
 2  

m 1 m 1 m2 m 1

Так как каждая из этих сумм равна e  , то

M ( x 2 )   2 e   e   e   e    2   .

Следовательно, дисперсия случайной величины Х

 2X  M( x 2 )  [M( x )] 2   2     2    np .

Отличительной особенностью этого вида распределения является


равенство математического ожидания и дисперсии. Аналогично можно
получить следующие выражения начальных моментов третьего и четвертого
порядков:

 3   3  3 2   ,

 4   4  6 3  7 2   .

Используя соотношения между центральными и начальными


моментами, получим выражения центральных моментов третьего и четвертого
порядков:

 3   3  3 2    3( 2  )  2 3   ,
 4   4  6 3  7 2    4( 3  3 2  )  6( 2  ) 2  3 4  3 2   .

Найдем выражения асимметрии и эксцесса:

А   / 3  1/  ;

E  [(3 2  ) /(  3 )]  3  1 /  .

Так как параметр а всегда положителен, то асимметрия и эксцесс


распределения Пуассона также положительны.
В таблице 3.12 приведен расчет теоретического распределения
эмпирического ряда числа бракованных изделий, составленного по
результатам 150 проб из партий пружин, изготовленных в цехе за смену.
Статистические xaрактеристики х и s 2 , вычисленные по эмпирическому
ряду, практически равны друг другу:

0,32  1,52  2,36  3,19  4,8  5,2  6,1  7,0


х  1,52 ,
150

(0  1,52) 2  32  (1  1,52) 2  51  (2  1,52) 2  36 


s 
2
...
150

 (3  1,52) 2  19  (4  1,52) 2  8  (5  1,52) 2  2 


... ...
150

 (6  1,52) 2  1  (7  1,52) 2  0
...  1,54 ,
150
что является одним из признаков пуассоновского распределения. Приравняв
полученное значение х математическому ожиданию теоретического закона и
подставив   1,52 в формулу закона Пуассона, вычисляем теоретические
частоты. Общее число наблюдений равно числу проб (N = 150).

Таблица 3.11 - Расчет теоретического распределения эмпирического


ряда числа бракованных изделий
Число
бракован-
ных 0 1 2 3 4 5 6 7
пружин в
пробе
Число
32 51 36 19 8 2 1 0
проб
Pm 0,2231 0,3346 0,2510 0,1255 0,0471 0,0141 0,0079 0,0008
N  Pm 33,46 50,19 37,65 18,82 7,06 2,11 1,18 0,12
Теорети-
ческая 33 50 38 19 7 2 1 0
частота
4 Предельные теоремы теории вероятностей

4.1 Предварительные замечания

Теория вероятностей изучает закономерности, свойственные массовым


случайным явлениям. Предварительные теоремы вероятностей устанавливают
зависимость между случайностью и необходимостью. Изучение
закономерностей, проявляющихся в массовых случайных явлениях, позволяет
научно предсказывать результаты будущих испытаний.
Предварительные теоремы теории вероятностей делятся на две группы,
одна из которых получила название, закона больших чисел, а другая –
центральной предельной теоремы.
В настоящей главе рассматриваются следующие теоремы, относящиеся
к закону больших чисел: лемма Маркова и неравенство Чебышева, теоремы
Чебышева, Маркова, Бернулли и Пуассона.
Закон больших чисел состоит из нескольких теорем, в которых
доказывается приближение средних характеристик при соблюдении
определенных условий и некоторым постоянным значениям. Впервые доказал
и сформулировал одну из теорем закона больших чисел швейцарский
математик Яков Бернулли (1654-1705). Теорема, носящая его имя, является
одной из простейших форм закона больших чисел, касается альтернативной
изменчивости признака и устанавливает закономерность частости появлений
событий.
Выдающийся французский математик Симеон Дени Пуассон (1781-
1840) в одной из своих работ обобщил эту теорему, распространив ее на
случаи, когда вероятность событий в испытаниях меняется независимо от
результатов предшествующих испытаний. Он же впервые ввел термин «закон
больших чисел».
Великий русский математик П.Л. Чебышев (1821-1894) доказал, что
закон больших чисел действует в явлениях с любой вариацией и
распространяется также на закономерность средней. Дальнейшее обобщение
теорем закона больших чисел связано с именем А.А. Маркова, С.Н.
Бейнштейна, Л.Я. Хипчина и А.Н. Колмогорова.
Рассмотрение теорем закона больших чисел начинаем с леммы Маркова
и неравенства Чебышева, с помощью которых значительно упрощаются
доказательства теорем закона больших чисел.

4.2 Лемма Маркова и неравенство Чебышева

Лемма Маркова: для любой положительной случайной величины Х


вероятность того, что она примет значение, не превосходящее некоторого
положительно числа  , больше, чем разность между единицей и отношение
математического ожидания этой случайной величины к данному числу  :

M( x )
PX    1  . (4.1)

Доказательство. Примем доказательство для дискретной случайной


величины способом, получившим название метода урезания. Пусти
x 1 , x 2 ,..., x n - есть упорядоченная совокупность всех значений, принимаемых
положительной случайной величиной Х, соответствующими вероятностями
n
р 1 , р 2 ,..., р n , причем  p i 1 . Не нарушая общности доказательства, можно
i 1

допустить, что значения случайной величины Х расположены в порядке


убывания. Выберем некоторое произвольное число   0 и предположим, что
первые r значений совокупности больше  ( r  n ) . Так как по условию
случайная величина Х принимает только положительные значения, то можем
записать неравенство:

x 1 p1  x 2 p 2  ....  x r p r  x 1 p1  x 2 p 2  ....  x r p r  ...  x n p n

По определению математического ожидания:

x 1 p1  x 2 p 2  ....  x r p r  ...  x n p n  М( х )

следовательно,

x 1 p1  x 2 p 2  ....  x r p r  М( х ) .

Заменяя в левой части последовательного неравенства значения


переменных x i (i  1,2,..., r ) числом  , получим следующее усиленное
неравенство:

(p1  p 2  ...  p r )  М( х ) ,

или

М( х )
p1  p 2  ...  p r  .

Левая часть этого неравенства выражает вероятность того, что


случайная величина принимает значение, большее  , т.е. Р{X  } . Поэтому
полученное неравенство можно записать в виде:
М( х )
Р{X  }  .

Вероятность противоположного события, а именно вероятность того,


что случайная величина Х может принимать значение не больше  ,
определяется следующим неравенством:

М( х )
Р{X  }  1  ,

что и требовалось доказать.


Лемма Маркова справедлива для любого закона распределения
положительной случайной величины. В силу того, что величина вероятности
не может быть больше единицы и меньше нуля, при использовании
неравенства следует иметь ввиду, что математическое ожидание случайной
величины не может превосходить  .
Неравенство Чебышева. Если случайная величина Х имеет конечное
математическое ожидание и дисперсию, то для любого положительного числа
 справедливо неравенство:

 2 (x)
P{| X  M( x ) | }  1  , (4.2)
2

т.е. вероятность того, что отклонение случайной величины Х от своего


математического ожидания по абсолютной величине не превзойдет  , больше
разности между единицей и отношением дисперсии этой случайной величины
к квадрату  .
Доказательство. Воспользуемся леммой Маркова. Рассмотрим
случайную величину Z  X  M( x ) , для некоторых значений которой
выполняется неравенство X  M( x )   . Так как случайная величина Z

положительна, то неравенство X  M( x )   и X  M(x )2   2


равносильным.

Применим лемму Маркова к случайной величине Z 2  X  M( x ) .


2

Тогда имеем:

MX  M( x )
 
2
P X  M( x )    1 
2 2
.
2

Числитель дроби в правой части неравенства, по определению, есть


дисперсия случайной величины Х, следовательно, неравенство можно
записать в виде:

PX  M( x )    1 
2 2  (х)
2
.
 2

Так в силу равносильности соответствующих неравенств вероятности


 
P X  M ( x )  2 и PX  M ( x )   равны, то
2

 2 (х)
PX  M( x )    1  2 ,

что и требовалось доказать.


Запишем теперь вероятность события X  M( x )   , т.е. события,

противоположного событию X  M( x )   . Очевидно, что


 2 (х)
PX  M( x )    2 . (4.3)

Неравенство Чебышева, как и неравенство Маркова, справедливо для


любого закона распределения случайной величины Х, однако неравенство
Чебышева применимо как к положительны, так и к отрицательным случайным
величинам. Неравенство (4.3) ограничивает сверху вероятность, что случайная
величина отклонится от своего математического ожидания на величину,
большую чем  . Из этого неравенства следует, что при уменьшении
дисперсии верхняя граница вероятности тоже уменьшается и значения
случайной величины с небольшой дисперсией сосредоточиваются около
математического ожидания. Полагая   t , запишем неравенства (4.2) и (4.3)
в виде

P{| X  M ( x ) | }  1  1 / t 2
P{| X  M ( x ) | }  1 / t 2

Задаваясь различными значениями t , вычислим верхние границы


вероятностей того, что отклонение случайной величины выйдет за пределы t
:

при t  1 имеем P{| X  M ( x ) | }  1


t2 P{| X  M( x ) | 2}  1 / 4
t 3 P{| X  M( x ) | 3}  1 / 9

В заключение еще раз подчеркнем, что вероятности рассматриваемых


событий не могут превысить эти числовые значения ни при каком законе
распределения случайной величина.
Пример 1. Для правильной организации сборки узла медицинского
прибора необходимо оценить вероятность, с которой размеры деталей
отклоняются от середины поля допуска не более чем на 2 мм. Известно, что
середина поля допуска совпадает с математическим ожиданием размеров
обрабатываемых деталей, а среднее квадратическое отклонение равно 0,25 мм.
Решение. По условию задачи имеем:   2 мм, ( х )  0,25 мм. В нашем
случае Х – размер обрабатываемых деталей. Используя неравенство
Чебышева, получим:

P{| X  M ( x ) | 2}  0,9844.

4.3 Теорема Чебышева и Маркова

Теорема Чебышева. При достаточно большом числе независимых


испытаний n можно с вероятностью, близкой к единице, утверждать, что
разность между средним арифметическим наблюдавшихся значений
случайной величины Х и математически ожиданием величины М(х) по
абсолютной величине окажется меньше сколь угодно малого числа   0 при
условии, что случайная величина Х имеет конечную дисперсию, т.е.

P{| X  M( x ) | }  1   , (4.4)

где  – положительное число, близкое нулю.


Доказательство. Пусть х 1 , х 2 ,..., х n – наблюдавшийся при n
независимых испытаниях значение случайной величины Х, математическое

ожидание которой М(х) и дисперсия  2 ( х ) . Эти значения можно


рассматривать как независимые случайные величины Х 1 , Х 2 ,..., Х n с
одинаковыми математическими ожиданиями и дисперсиями:
M( x i )  M( x ),  2 ( х i )   2 ( x ) (i  1,2,...n ).

Средняя арифметическая этих случайных величин

n
X   X i / n.
i 1

Используя свойства математического ожидания и дисперсии случайной


величины, можно записать:

 n 
  Xi  1 n
M ( x )  M  i1    M ( x i )  M ( x ) , (4.5)
 n  n i1
 
 
 n 
  Xi  1 n 2 ( x )
 (x)   
2 2 i 1
  2   (xi ) 
2
. (4.6)
 n  n i1 n
 
 

Применим к случайной величине Х неравенство Чебышева

 2 (х)
PX  M( x )    1  2 .

Учитывая равенства (4.5) и (4.6), получим:

2 ( х )
PX  M( x )    1  2 . (4.7)
n
Задавшись сколь угодно малым числом  , можно определить n, для
которого выполняется неравенство

 2 (х)
 .
2n

Тогда, записав неравенство (4.7) в виде

PX  M( x )    1   ,

мы только усилим его.


Теорема доказана. Переходя в фигурных скобках к противоположному
событию, получим:

PX  M( x )     . (4.8)

Теорема Чебышева позволяет с достаточной точностью по средней


арифметической судить о математическом ожидании или наоборот: по
математическому ожиданию предсказывать ожидаемую величину средней.
Так, на основании этой теоремы можно утверждать, что если произведено
достаточно большое количество измерений определенного параметра
прибором, свободным от систематической погрешности, то средняя
арифметическая результатов этих измерений сколь угодно мало отличается от
истинного значения измеряемого параметра.
Теорему Чебышева распространить на случай n попарно независимых
случайных величин Х 1 , Х 2 ,..., Х n с различными математическими
ожиданиями и дисперсиями. Средняя арифметическая этих случайных
величин обладает также свойством устойчивости и при определенных
условиях мало отличается от средней арифметической математических
ожиданий этих величин. Теорема Чебышева, сформулированная для более
общих условий, носит название обобщенной теоремы.
Обобщенная теорема Чебышева. При достаточно большом числе
попарно независимых случайных величин Х 1 , Х 2 ,..., Х n с математическими

ожиданиями М ( х 1 ), М ( х 2 ),..., М ( х n ) и дисперсиями  2 ( х 1 ),  2 ( х 2 ),...,  2 ( х n )


с вероятностью, близкой к единице, можно утверждать, что разность между
средней арифметической наблюдавшихся значений случайных величин
Х 1 , Х 2 ,..., Х n и средней арифметической их математических ожиданий по
абсолютной величине окажется меньше сколь угодно малого числа   0 при
условии, что дисперсия всех этих случайных величин не превосходит одного
и того же постоянного числа B, т.е.

 n n 
 i X M ( x ) 
 i1 
i
P  i 1
   1   , (4.9)
 n n 
 

где  - положительное число, близкое нулю.


Доказательство. Пусть Х 1 , Х 2 ,..., Х n - n попарно независимых
случайных величин. Средняя арифметическая этих величин является, в свою
очередь, тоже случайной величиной. Обозначим ее через Х :

n
 Xi
i 1
Х .
n

Определим математическое ожидание и дисперсию Х :


 n  n
  X i   M( x i )
M( x )  M  i 1   i 1
 n  n
 
 
 n  n 2
  X i    (x i )
2  i 1   i 1
 (x)  
2
.
 n  n2
 
 

Применяя к случайной величине Х неравенство Чебышева, получим:

 2 (х)
PX  M( x )    1  2 ,

или

 n n  n
 i X M ( x )   2 ( x i )
 
i
P  i1  i1    1  i1 2 2 . (4.10)
 n n  n 
 

Заменяя в первой части последнего неравенства дисперсии случайных


величин величиной B, которую по условию теоремы не превосходит ни одна
из дисперсий, получим усиленное неравенство:

 n n 
  Xi  M(x i ) 
 i1  В
P  i 1
   1  2 . (4.11)
 n n  n
 
Для любого сколь угодно малого числа   0 можно найти такое число
n, при котором выполняется неравенство:

B
 .
n 2

Таким образом, получаем неравенство, справедливость которого и


требовалось доказать:

 n n 
  i  M(x i )
X 
 i 1 i 1 
P     1  .
 n n 
 

Переходя в фигурных скобках к противоположному событию, можно


записать

 n n 
  Xi  M(x i ) 
 i1 
P  i 1
    . (4.12)
 n n 
 

Пример 2. Для определения потребности в сырье выборочным путем


устанавливают средний вес отливки для работа-хирурга, так как вес отливки,
рассчитанный по металлической модели, отличается от фактического веса.
Сколько нужно взять отливок, чтобы с вероятностью, большей 0,9, можно
было утверждать, что средний вес отработанных отливок отличается от
расчетного, принятого за математическое ожидание веса, не более чем на 0,2
кг? Установлено, что среднее квадратическое отклонение веса равно 0,45 кг.
Решение. По условию задачи имеем

( х )  0,45; х  0,2; Px  M( x )  x  0,9 ,

где x - средний вес отливок для робота-хирурга. Используя формулу (4.7),


получим

 2 (х)
1  0,9,
2n

откуда находим n  50 .
Пример 3. На завод поступила партия таблеток, рассортированных
автоматом для упаковки по их длине. Таблетки, распределенные по размерам
на группы, помещены в 64 ящика с одинаковым количеством в каждом. Из
каждого ящика отобрано по 10 таблеток и измерены их длины. При условии,
что дисперсия контролируемого параметра в каждом ящике не превышает
0,015мм 2 , определить, с какой вероятностью можно ожидать, что средняя
арифметическая, вычисленная по результатам выборок, отклонится по
абсолютной величине от средней длины деталей о всей партии не более чем на
0,3 мм.

Решение. По условию задачи имеем: n  640,   0,3, B  0,015 .


Воспользовавшись неравенством (4.11), получим

 n n 
  i  M( x i )
X 
 i 1 i 1 
P   0,3  0,997.
 n n 
 
Рассмотрим случай зависимых случайных величин, являющихся
дальнейшим обобщением закона больших чисел.
Теорема Маркова. При достаточно большом числе случайных величин
Х 1 , Х 2 ,..., Х n , среди которых могут быть зависимые, с вероятностью, близкой
к единице, можно утверждать, что разность между средней арифметической
наблюдавшихся значений случайных величин и средней арифметической их
математических ожиданий по абсолютной величине окажется меньше сколь
угодно малого   0 , если при n   выполняется условие

2 
n
  X i 
 i 1 
 0.
n2

Доказательство. Рассмотрим случайную величину Х, являющуюся


средней арифметической случайных величин Х 1 , Х 2 ,..., Х n :

n
 Xi
i 1
X .
n

Очевидно,

n
 M(x i )
i 1
M(x )  , (4.13)
n

2  n
   Xi 
2 ( x )   i12  . (4.14)
n
Используя равенства (4.13) и (4.14) и учитывая, что при n   , согласно

2 n
  X i 
 i 1 
накладываемому теоремой условию,  0, получим:
n2

 n n 
  i  M( x i )
X 
 i1 
P  i 1
   1   , (4.15)
 n n 
 

где  – положительное число, близкое нулю. Это неравенство выражает


теорему Маркова, или закон больших чисел в его достаточно общем виде.

4.4 Теорема Бернулли и Пуассона

Теорема Бернулли устанавливает связь между частостью появлений


события и его вероятностью. Она может быть выведена как следствие из
теоремы Чебышева.
Теорема Бернулли. При достаточно большом числе независимых
испытаний n можно с вероятностью, близкой к единице, утверждать, что
разность между частостью появлений события А в этих испытаниях и его
вероятностью в отдельном испытании по абсолютной величине окажется
меньше сколь угодно малого числа  , если вероятность наступления этого
события в каждом испытании постоянна и равна р.
Утверждение теоремы можно записать в виде следующего неравенства:

m 
P   p    1   , (4.16)
n 
где  и  - любые сколь угодно малые положительные числа.
Доказательство. Рассмотрим в качестве случайных величин число
появлений событий А в n испытаниях.
Пусть:
X 1 - число появлений события А в первом испытании;

X 2 - число появлений события А во втором испытании;


X n - число появлений события А в n-м испытании.
Так как событие А в каждом испытании может либо произойти, либо не
произойти, то, следовательно, случайная величина может принимать лишь два
значения: 1 и 0 с соответствующими вероятностями p и q=1-p.
Математическое ожидание и дисперсия каждой случайной величины
соответственно равны:

M( x i )  1  p  0  q  p , (4.17)

2 ( x i )  (1  p) 2  p  (0  p) 2  q  pq . (4.18)

Очевидно, что:

M ( x i )  M ( x 2 )  ...  M ( x n ) , (4.19)

2 ( x i )  2 ( x 2 )  ...  2 ( x n ) . (4.20)

Исходя из того, что в силу независимости испытаний обеспечивается


взаимная независимость случайных величин Х 1 , Х 2 ,..., Х n и дисперсии всех
величин ограничены (произведение pq имеет наибольшее значение, равное
1/4), к рассматриваемым величинам можно применить теорему Чебышева.
В результате, учитывая равенства (4.17-4.20) и то, что средняя
арифметическая величина Х 1 , Х 2 ,..., Х n есть не что иное, как частость
появлений событий А в n испытаниях, т.е.

n
 Xi / n  m / n ,
i 1

Получим следующее неравенство:

m 
P   p    1  (pq) /(n2 ) . (4.21)
n 

Для любого сколь угодно малого   0 всегда можно определить такое


число n, при котором выполняется неравенство.

(pq) /(n 2 )   .

Итак, доказана справедливость неравенства

m 
P   p    1   .
n 

При решении практических задач иногда бывает необходимо оценить


вероятность наибольшего отклонения частоты появлений событий от ее
ожидаемого значения. Случайной величиной в этом случае является число
появлений события А в n независимых испытаниях. Имеем:

m  X 1  X 2  ...  X n ,
n  n n
M (m)  M  X i    M ( x i )   p  np,
 i 1  i 1 i 1

2  n 2
n n
 (m)    X i     [X i ]   pq  npq.
2

 i 1  i 1 i 1

Используя неравенство Чебышева, в этом случае получим:

Pm  np    1  (npq) / 2 . (4.22)

Пример 4. Из 1000 изделий медицинского назначения, отправляемых в


мазазины, было подвергнуто обследованию 200, отобранных случайным
образом изделий. Среди них оказалось 25 бракованных. Приняв долю
бракованных изделий среди отобранных за вероятность изготовления
бракованного изделия, оценить вероятность того, что во всей партии
бракованных изделий окажется не более 15% и не менее 10%.
Решение. Определим вероятность изготовления бракованного изделия

p  25 / 200  0.125.

Наибольшее отклонение частости появлений бракованных изделий от


вероятности p по абсолютной величине равно | m / n  p | 0.025 ; число
испытаний n=1000. Используя формулу (4.21), находим искомую вероятность:

m 
P   p  0,025  1  (0,125  0,875) /(1000  0,025 2 ) ,
n 

или
P{| m / n  p | 0,025}  0,825.
Обобщение теоремы Бернулли на случай, когда испытания происходят
при неодинаковых условиях, что вызывает изменение вероятности появлений
события А в каждом испытании, является теорема Пуассона.
Теорема Пуассона. При достаточно большом числе независимых
испытаний n можно с вероятностью, близкой к единице, утверждать, что
разность между частостью появлений событий А и средней арифметической
вероятностей этого события в каждом испытании по абсолютной величине
окажется меньше сколь угодно малого числа  , если вероятность события А
меняется от испытаний к испытанию. Утверждение теоремы можно записать
в виде следующего неравенства:

P{| m / n  p | }  1   , (4.23)

где  и  - любые сколь угодно малые положительные числа.


Доказательство. Рассмотрим n независимых испытаний, в каждом из
которых событие A может появиться с вероятностями р1 , р 2 ,..., р n и не
появится соответственно с вероятностями q 1 , q 2 ,..., q n . Путь:
Х 1 - число появлений события А в первом испытании;

Х 2 - число появлений события А во втором испытании;


Х n - число появлений события А в n-м испытании.
Математические ожидания случайных величин Х i (i  1,2,..., n ) и их
дисперсии таковы:

M( x i )  1  p i  0  q i  p i ,

 2 ( x i )  (1  p i ) 2  p i  (0  p i ) 2  q i  p i q i .
Средняя арифметическая математических ожиданий величин Х i есть не
что иное, как частость появлений события А в n испытаниях

n
 Xi / n  m / n .
i 1

Средняя арифметическая математических ожиданий величин Х i равна


средней арифметической соответствующих вероятностей события, т.е.

n
p   p i / n.
i 1

Дисперсии случайных величин Х i ограничены: p i q i  1 / 4 . Средняя


арифметическая дисперсия случайных величин Х i равна:

1 n
pq    p i q i .
n i 1
Итак, случайные величины Х i (i  1,2,..., n ) удовлетворяют все условиям
обобщенной теоремы Чебышева. Используя формулу (4.10), получим:

m 
P   p    1  (pq) /(n2 ) , (4.24)
n 

или
m 
P   p     1  1 / 4 n 2 .
n 
Для любого сколь угодно малого числа   0 можно найти такое число
n, при котором выполняется неравенство:
1 / 4n 2  .

Таким образом, получаем неравенство, которое и требовалось доказать:

P{| m / n  p | }  1  .

Теорема Пуассона имеет большое практическое значение, так как


обычно условие испытаний бывают непостоянны и вероятность появлений
интересующего нас события является переменной величиной. Частость
появлений события в реальных условиях приближается к некоторой средней
вероятности этого события, характерной для данной группы условий.
Пример 5. При повышенном содержании серы в отливке появляются
газовые раковины. В результате исследований установлены следующие
вероятности появлений отливок с газовыми раковинами в зависимости от серы
(таблица 4.1).

Таблица 4.1 –Вероятность появления бракованных отливок


Содержание 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09 0,10
серы, %
Вероятность 0,01 0,01 0,02 0,04 0,06 0,09 0,12 0,15 0,20
появления
бракованных
отливок

Было подвергнуто химическому анализу 2500 отливок. Результаты


анализов приведены в таблице 4.2.
Таблица 4.2 – Результаты химического анализа отливок
Содержание 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09 0,10
серы, %
Количество 100 250 326 405 500 567 273 54 25
отливок

Какова вероятность того, что отклонение частости появления отливок с


газовыми раковинами от ее средней вероятности в исследованных отливках не
превысит 0,008?
Решение. Найдем значение средней дисперсии pq:

0,01  0,99  100  0,01  0,99  250  0,02  0,98  326  0,04  0,96  405 
pq  ... 
2500
0,06  0,94  500  0,09  0,91  567  0,12  0,88  273  0,15  0,85  54 
...  ... 
2500
0,20  0,80  25
...   0,0559
2500

Подставляя в правую часть неравенства (4.24) найденное значение pq и


заданные n  2500 и   0,008 , получим
P{| m / n  p | 0,008}  0,6506.

4.5 Теорема Ляпунова

Рассмотренные теоремы закона больших чисел касаются вопросов


приближения некоторых случайных величин к определенным предельным
значениям независимо от их закона распределения. В теории вероятностей
существует другая группа теорем, касающихся предельных законов
распределения суммы случайных величин. Эта группа теорем носит общее
название центральной предельной теоремы. Различные формы центральной
предельной теоремы отличаются между собой условиями, накладываемыми на
сумму составляющих случайных величин. Впервые центральная предельная
теорема была сформулирована и доказана великим русским математиком А.М.
Ляпуновым.
Теорема Ляпунова. Закон распределения суммы независимых
случайных величин Х i (i  1,2,..., n ) приближается к нормальному закону
распределения при неограниченном увеличении n, если выполняются
следующие условия:
1) Все величины имеют конечные математические ожидания и
дисперсии:


M ( x i )  a i ; M[ x i  a i ]   ( x i ), M[ x i  a i ]  c i ,
2 2

где   0, (i  1,2,..., n ) ;
2) Ни одна из величин по своему значению резко не отличается от всех
остальных:

n
 ci
i 1
lim 1  / 2
 0.
n 
n 2 
   ( x i 
)
 i 1 

n
Следовательно, для Yn   X i при n   выполняется соотношение:
i 1

y [ y  M ( Yn )]
2

1
2( y) 
22 ( y )
P{Yn  y}  e dy , (4.25)
n n
где M (Yn )   M ( x i );  (Yn )    ( x i ).
2 2

i 1 i 1

В частности, если все величины Х 1 , Х 2 ,..., Х n имеют одинаковые

законы распределения с математическим ожиданием M(x) и дисперсией  2 ( х )


, то условие 2) при n   примет вид:

nc c
  0.
(n 2 ( x ))1  / 2 n  / 2  2 ( x )

При решении многих практических задач используют следующую


формулировку теоремы Ляпунова для средней арифметической
наблюдавшихся значений случайной величины х , которая также является
случайной величины (при этом соблюдается условия, перечисленные выше):
если случайная величина Х имеет конечные математическое ожидание

М(х) и дисперсию  2 ( х ) , то распределение средней арифметической


х  ( х 1  х 2  ...  х n ) / n, вычисленной по наблюдавшимся значениям
случайной величины в n независимых испытаниях, при n   приближается

к нормальному закону математическим ожиданием М(х) и дисперсией  2 ( х )


т.е.

[ x  M ( x )]2
 x
1
2( x ) 
22 ( x )
P{x  x}  e dx . (4.26)

Поэтому вероятность того, что х заключено в интервале [a,b], можно


вычислить по формуле:
b [ x  M ( x )]
2

1
2( x ) a
22 ( x )
P (a  x  b )  e dx . (4.27)

Используя функцию Лапласа, формулу (4.27) можно записать в


следующем, удобно для расчетов вида:

1 1
P(a  x  b)  Ф( t 2 )  Ф( t 1 ),
2 2

где

t 1  (a  M ( x )) / ( x ); t 2  (b  M ( x )) / ( x ).

Следует отметить, что центральная предельная теорема не только для


непрерывных, но и для дискретных случайных величин. Практическое
значение теорема Лапласа огромно. Опят показывает, что закон распределения
суммы независимых случайных величин, сравнимых по своему рассеиванию,
достаточно быстро приближается к нормальному. Уже при числе слагаемых
порядка десяти закон распределения суммы может быть заменен нормальным.
4.6 Теорема Муавра-Лапласа

Частым случаем центральной предельной теоремы является теорема


Муавра – Лапласа, которая известна также под названием интегральной
предельной теоремы Муавра – Лапласа. В ней рассматривается случай, когда
случайные величины Х i (i  1,2,..., n ) дискретны, одинаково распределены и

принимают только два возможных значения: 0 и 1.


Интегральная теорема Муавра – Лапласа. Если производится n
независимых испытаний, в каждом из которых событие A появляется с
вероятностью p, то для любого интервала (а,b) справедливо следующее
соотношение:

 a  np m  np b  np  1  b  np  1  a  np 
P(a  m  b)  P     Ф   
 2  npq   2 Ф npq  , (4.28)
 npq npq npq     

где m – число появлений события А в n испытаниях; q  1  p .


Доказательство. Число появлений события А в n испытаниях является
случайной величиной, которую можно представить в виде случайной суммы:

n
m   Xi ,
i 1

где Х i - случайная величина, выражающая число появлений А в i-м опыте.

Как было показано (формулы (4.17) – (4.18)), M ( x i )  p ;  2 ( x i )  pq .


Следовательно, число появлений события m является суммой независимых
случайных величин Х i , имеющих один и тот же закон распределения с
конечными математическими ожиданиями и дисперсией. В таком случае, на
основании центральной предельной теоремы, закон распределения случайной
величины m при увеличении испытаний приближается к нормальному.
Поэтому для определения вероятности попадания случайной величины m в
интервал (a,b) справедлива формула:

1  b  M (m)  1  a  M (m) 
P (a  m  b )  Ф   Ф
2  (m)  2  (m) 
. (4.29)

Было показано, что M (m)  np ;  2 (m)  npq . Подставляя эти выражения


в формулу (4.29), получим:
1  b  np  1  a  np 
P (a  m  b )  Ф    Ф ,
2  npq  2  npq 

или, переходя к нормированной случайной величине,

 a  np m  np b  np  1  b  np  1  a  np 
P ( a  m  b )  P     Ф   Ф .
 npq npq  2  npq  2  npq 
   
 npq

Теорема доказана.
Теорема Муавра – Лапласа справедлива для биномиального
распределения при больших значениях n. Это обстоятельство позволяет
упростить вычисление вероятностей биномиального распределения при
больших n, так как подсчет вероятностей того, что событие наступит в n
испытаниях не менее а раз и не более b раз по точной формуле:

P (a  m  b )   C mn p m q n m
a  m b

связан с громоздкими вычислениями. Однако следует иметь в виду, что


формула (4.28) дает приближенные результаты.
Вводя обозначения нормированных отклонений

t 1  (a  np) / npq ; t 2  (b  np) / npq ,

получим следующую, удобную для практических расчетов, формулу:

P(a  m  b)  1 / 2Ф( t 2 )  1 / 2Ф( t1 ) . (4.30)


Из этой формулы с помощью соответствующих преобразований можно
получить следующие соотношения:

P(np  t1 npq  m  np  t 2 npq )  1 / 2Ф( t 2 )  1 / 2Ф( t1 ) , (4.31)

P( t1 npq  m  np  t 2 npq )  1 / 2Ф( t 2 )  1 / 2Ф( t1 ) , (4.32)

m
P( t1 (pq) / n   p  t 2 (pq) / n )  1/ 2Ф( t 2 )  1/ 2Ф( t1 ) . (4.33)
n

При t 1   t 2 формулы (4.32) и (4.33) принимают вид:

 
P m  np  t npq  Ф( t ) , (4.34)

m 
P   p  t (pq) / n   Ф( t ) . (4.35)
 n 

В отличии от неравенства (4.21) и (4.22), определяющих нижнюю


границу вероятности отклонения частости появлений события от его
вероятности в отдельном испытании или частоты появлений события от его
математического ожидания, формулы (4.34) и (4.35) дают более точную
оценку этой вероятности.
Пример 6. Вероятность появлений газовых раковин при отливке формы
для медицинского прибора равна 0,2. Изготовлено 400 форм. Найти величину
наибольшего отклонения частости отлитых форм с наличием газовых раковин
от вероятности 0,2, которую можно гарантировать с вероятностью 0,9545.
Решение. По условию n=400; p=0,2; q=0,8; Ф(t)=0,9545. По таблице 2
приложений находим: t=2,0. Используя формулу (4.35), получим:
 0,2  0,8 
P  m / n  0,2  2   0,9545,
 400 

или

Pm / n  0,2  0,04  0,9545.

Следовательно, величина наибольшего отклонения частости от


постоянно вероятности p=0,2, которую можно гарантировать с вероятностью
0,9545, равна 0,04.
Пример 7. Известно, что при контроле бракуется 10% лекарственных
средств. Для контроля отобрано 500 лекарственных средств. Найти
вероятность того, что число годных лекарственных средств окажется в
пределах от 460 до 475.
Решение. По условию n=500; p=0,9; q=0,1; a=460; b=475. По формуле
(4.30) находим искомую вероятность.

460  450 475  450


t1   1,49 ; t 2   3,73 ;
500  0,9  0,1 500  0,9  0,1
P(460  m  475)  1 / 2Ф3,73  1 / 2Ф1,49  0,0679.

Пример 8. При установившемся технологическом процессе вероятность


изготовления бракованных таблеток равна 0,17. Для обоснования введения
автоматического контроля необходимо определить количество таблеток n,
которое нужно направлять на контроль, чтобы с вероятностью 0,95 быть
уверенным в стабильности технологического процесса, если допускается 20%
брака.
Решение. По условию известно, что m/n=0,2; p=0,17, q=0,83; Ф(t)=0,95.
По таблице 2 приложения находим, что t=1,96. Используя формулу (4.35),
получим:

 0,17  0,83 
P   0,2  0,17  1,96   0,95.
 n 

Отсюда находим: n>602.


5 Статистическое оценивание параметров распределения

5.1 Понятие об оценке параметров

При изучении качественного или количественного признака,


характеризующего совокупность однородных объектов, не всегда имеется
возможность обследовать каждый объект изучаемой совокупности. Приведем
такой пример. Электрическую лампочку условимся считать стандартной, если
продолжительность ее горения не менее 1200ч, в противном случае она
считается нестандартной. За качеством продукции обязан следить завод-
изготовитель. Исследовать каждую лампочку на продолжительность горения
практически невозможно, да это и противоречит здравому смыслу. Как же
получить представление о качестве изготовляемой продукции? Пусть заводу
необходимо поставить потребителю партию готовых изделий. Вместо данных
о качестве всех электрических лампочек партии достаточно получить точные
сведения о качестве небольшой их части, отобранных случайно. По
продолжительности горения отобранных лампочек можно судить о качестве
всех лампочек партии. Практика подтверждает, что сделанные выводы бывают
достаточно надежными.
Вся подлежащая изучению совокупность однородных объектов
называется генеральной совокупностью. Часть случайно отобранных объектов
называется выборочной совокупностью или просто выборкой. Число объектов
в генеральной совокупности или в выборке обычно называют их объемами.
Раздел «Статистическое оценивание параметров» входит в
математическую статистику как ее основная часть. В самом общем смысле
содержание этого раздела можно сформулировать как совокупность методов,
позволяющих делать научно обоснованные выводы о числовых параметрах
распределения генеральной совокупности по случайной выборке из нее.
Если, например, нас интересует математическое ожидание генеральной
совокупности, то задача статистической оценки параметров заключается в
том, чтобы найти такую выборочную характеристику, которая позволила бы
получить по возможности более точное и надежное представление об
интересующем нас параметре (в данном случае о математическом ожидании).
Состав выборки случаен, поэтому выводы о параметрах генеральной
совокупности, сделанные по выборочным данным, могут быть ложными. С
возрастанием числа элементов выборки вероятность правильного вывода
увеличивается. Поэтому всякому решению, принимаемому при
статистической оценке параметров, стараются поставить в соответствие
вероятность, характеризующую степень достоверности принимаемого
решения.
Сформулируем задачу оценки параметров в общем виде. Обозначим
через X случайную величину (непрерывную или дискретную),
подчиняющуюся закону распределения F(X, ) , аналитическое выражение
которого известно. Функция распределения F(X, ) определяется параметром
 , численное значение которого неизвестно. Исследователь все элементы
генеральной совокупности для вычисления параметра  не представляется
возможным, поэтому об этом параметре пытаются судить по выборкам из
генеральной совокупности. Пусть произведено m выборок, каждая из которых
состоит из n независимых наблюдений x ij (i – номер выборки, j – номер

элемента в выборке). Тогда можно записать:

первая выборка состоит из элементов ( x11 , x12 , ..., x1n ) ;


вторая » » » ( x 21 , x 22 , ..., x 2n ) ;
……………………………………………………………..
i-я » » » ( x i1 , x i2 , ..., x in ) ;
…………………………………………………………..
m-я » » » ( x m1 , x m2 , ..., x mn ) .
Обозначим через X1 случайную величину, принимающую значения
( x11 , x12 , ..., x1n , ...) , через X 2 - случайную величину, принимающую значения

( x 21 , x 22 , ..., x 2n , ...) и т.д. Тогда величины X1 , X 2 , ..., X m можно рассматривать


как m независимых случайных величин, каждая из которых распределена по
закону F(X, ) * .
Всякую однозначно определенную функцию результатов наблюдений
над случайной величиной X, с помощью которой судят о значении параметра
 , называют оценкой параметра  . Если оценку параметра  обозначить
~
через  n , то можно записать, что

~
 n  f (X1 , X 2 , ..., X m ).

~
Поскольку X1 , X 2 , ..., X m - случайные величины, то и  n является
величиной случайной. Так, например, если известно, что изучаемая величина
распределена в генеральной совокупности по нормальному закону, то
необходимо оценить по выборкам математическое ожидание и среднее
квадратическое отклонение, так как именно эти два параметра полностью
определяют нормальное распределение; если случайная величина подчинена
закону Пуассона, то необходимо оценить только один параметр  ,
определяющий это распределение.
Выбор оценки, позволяющей получить хорошее приближение
оцениваемого параметра, - основная задача теории оценивания.

5.2 Основные свойства оценок

Основными свойствами оценок являются свойства несмещенности,


эффективности и состоятельности.
~
Оценка  n называется несмещенной, если ее математическое ожидание
равно оцениваемому параметру  , т.е.

~
M ( n )  .

~
Если это равенство не выполняется, то оценка  n может либо завышать
~ ~
значение  (т.е. M ( n )   ), либо занижать его (т.е. M ( n )   ). В обоих
случаях это приводит к систематическим (одного знака) ошибкам в оценке
параметра  .
Требование несмещенности гарантирует отсутствие систематических
ошибок при оценке параметров.
~
Так как  n - случайная величина, значение которой изменяется от
выборки к выборке, то меру ее рассеивания около математического ожидания
~ ~ ~
 будем характеризовать дисперсией D( n ) . Пусть  n и Tn - две
~ ~
несмещенные оценки параметра  , т.е. M ( n )   и M (Tn )   , причем
~ ~ ~ ~
дисперсию  n и Tn обозначим соответственно через D( n ) и D(Tn ) . Из двух
~ ~
оценок  n и Tn следует отдать предпочтение той, которая обладает меньшим
рассеиванием около оцениваемого параметра, так как в этом случае значение
оценки, вычисленное по конкретной выборке, меньше всего отличается от
~ ~
истинного значения оцениваемого параметра. Если D( n )  D(Tn ) , то в
~
качестве оценки  принимают  n .
~
Несмещенная оценка  n , которая имеет наименьшую дисперсию среди
всех возможных несмещенных оценок параметра  , вычисленных по
выборкам одного и того же объема, называется эффективной оценкой.
~
Оценка  n параметра  называется состоятельной, если она
подчиняется закону больших чисел, т.е. выполняется следующее равенство:
~

lim P  n      1.
n 

Состоятельность оценки означает, что чем больше объем выборки, тем
больше вероятность того, что ошибка оценки не превысит сколь угодно малого
положительного числа . Следовательно, в случае использования
состоятельных оценок оправдывается увеличение числа единиц выборки, так
как при этом все менее вероятной становится возможность значительной
ошибки в оценке неизвестного параметра.
На практике при оценке параметров не всегда удается удовлетворить
одновременно требованиям несмещенности, эффективности и
состоятельности оценки. Так, например, может оказаться, что для простоты
расчетов целесообразно использовать незначительно смещенную оценку.
Однако выбору оценки всегда должно предшествовать ее критическое
рассмотрение со всех точек зрения.

5.3 Оценка математического ожидания и дисперсии по выборке

Наиболее важными числовыми характеристиками случайной величины


являются математическое ожидание и дисперсия.
Теорема 5.1. Арифметическая средняя X , вычисленная по n
независимым наблюдениям над случайной величиной X, которая имеет
математическое ожидание  , является несмещенной оценкой этого параметра.
Доказательство. Пусть X1 , X 2 , ..., X i , ..., X n - n наблюдений над
случайной величиной X. По условию случайная величина X имеет
математическое ожидание, равное  , а это значит, что

M(X1 )  , M(X 2 )  , ..., M(X i )  , ..., M(X n )  .


По определению средняя арифметическая:
n

X  X 2  ...  X i  ...  X n
 Xl
l1
X 1  .
n n

Рассмотрим теперь математическое ожидание средней арифметической.


Используя свойства математического ожидания имеем

 X  X 2  ...  X i  ...  X n 
M ( X )  M 1   1 / n  M X1  X 2  ...  X i  ...  X n  
 n 
 1 / n  M (X1 )  M (X 2 )  ...M (X i )  ...  M (X n )  1 / n  (    ...    ...   

n
 1 / n  ( n )   ,

следовательно, M ( X )   . Теорема доказана.


Теорема 5.2. Арифметическая средняя X , вычисленная по n
независимым наблюдениям над случайной величиной X, которая имеет
математическое ожидание  и дисперсию  2 , является состоятельной
оценкой этого параметра.
Доказательство. Пусть X1 , X 2 , ..., X i , ..., X n - n независимых наблюдений
над случайной величиной X. Условия предыдущей теоремы сохраняются и в
этом случае, поэтому

M ( X )  .

Запишем неравенство Чебышева для средней арифметической X :


P X     D( X )
.
2
Известно, что
D( X )  1 / n 2 D(X1 )  D(X 2 )  ...  D(X i )  ...  D(X n ).

По условию теоремы X – случайная величина, дисперсия которой  2 , а


значит, что

D(X1 )   2 ; D(X 2 )   2 ; ...; D(X i )   2 ; ...; D(X n )   2 .

Следовательно,

D( X)  1/ n 2 ( 2   2  ... 2  ...   2 )  1/ n 2 (n 2 )   2 / n.



n

Итак, мы доказали, что дисперсия средней арифметической в n раз


меньше дисперсии случайной величины X. Тогда:

D( X) 2
lim  lim  0,
n   2 n  n   2

поэтому


lim P X      1,
n 

что и требовалось доказать.


Приведем без доказательства весьма важный для практики результат.
Если случайная величина X распределена по нормальному закону с
параметрами (,  2 ) , то несмещенная оценка X математического ожидания 

имеет минимальную дисперсию, равную 2 / n , поэтому средняя


арифметическая X в этом случае является эффективной оценкой
математического ожидания  .
Докажем некоторые результаты, относящиеся к оценке дисперсии.
Теорема 5.3. Если случайная выборка состоит из n независимых
наблюдений над случайной величиной X с математическим ожиданием  и

дисперсией  2 , то выборочная дисперсия:

n
s  1 / n  (X i  X ) 2
2

i 1

не является несмещенной оценкой генеральной дисперсии.


Доказательство. Пусть X1 , X 2 , ..., X i , ..., X n - n независимых наблюдений
над случайной величиной X. По условию

M(X1 )  M (X 2 )  ...  M(X i )  ...  M(X n )  

D(X1 )  D(X 2 )  ...  D(X i )  ...  D(X n )   2 .

Преобразуем формулу выборочной дисперсии:

s 2  1 / n  (X i  X ) 2  1 / n  (X i      X ) 2  1 / n  (X i  )  ( X  ) 
n n n
2

i 1 i 1 i 1

 
n
 1 / n  (X i  ) 2  2(X i  )( X  )  ( X  ) 2 
i 1
n n
 1 / n  ( X i  )  2 / n ( X  ) ( X i  )  n / n ( X  ) 2 .
2

i 1 i 1
n
Упростим выражение 2 / n ( X  ) (X i  ) . Принимая во внимание,
i 1

 n  n
что X    X i  n , откуда nX   X i , можно записать
 i1  i 1

n  n 
2( X  ) (X i  ) 2( X  )  X i  n 
i 1
  i1   2( X  )(nX  n)  2( X  ) 2 .
n n n

Тогда

n n
 ( X i  ) 2  ( X i  ) 2
i 1 i 1
s2   2( X  ) 2  ( X  ) 2   ( X  ) 2 .
n n

Теперь рассмотрим математическое ожидание от выборочной


дисперсии:

 n 2
  ( X i  ) 
M (s 2 )  M  i1   M ( X  ) 2 .
 n 
 
 

Используя определение и свойства дисперсии, можно доказать, что

 n 2
  ( X i  ) 
M  i1   2
 n 
 
 
и
M ( X   ) 2  D( X )   2 / n ,

следовательно,

M(s 2 )   2   2 / n.

Итак,

 2 (n  1) 2
M(s )   
2 2
  ,
n n

т.е. s 2 является смещенной оценкой дисперсии генеральной совокупности.


Нетрудно привести несмещенную оценку дисперсии генеральной
совокупности

1 n
ŝ 
2

n  1 i1
(X i  X ) 2 .

Обычно эту оценку называют исправленной выборочной дисперсией.


Действительно,

n 2
ŝ 2  s ,
n 1

тогда
 n 2 n n n 1 2
M(ŝ 2 )  M s  M(s 2 )     2 .
 n 1  n 1 n 1 n

Дробь n/(n-1) называется поправкой Бесселя. При малых значениях n


поправка Бесселя довольно значительно отличается от единицы, с
увеличением же n она быстро стремится к единице. При n>50 практически нет
разницы между оценками s 2 и ŝ 2 . Можно показать, что оценки s 2 и ŝ 2
являются состоятельными оценками  2 .
Несмещенной, состоятельной и эффективной оценкой  2 является
оценка

n
 ( X i  ) 2
i 1
s 2  ,
n

для вычисления которой необходимо знание математического ожидания


случайной величины X. Оценки s 2 и ŝ 2 не являются эффективными. В том
случае, когда значение математического ожидания неизвестно, для оценки
дисперсии  2 пользуются состоятельной и несмещенной оценкой ŝ 2 .

5.4 Метод наибольшего правдоподобия

Основным способом получения оценок параметров генеральной


совокупности по данным выборки является метод наибольшего
правдоподобия (метод максимального правдоподобия). Этот метод был
разработан выдающимся английским математиком Р.А. Фишером. Основная
идея метода заключается в следующем.
Пусть X1 , X 2 , ..., X i , ..., X n - n независимых наблюдений над случайной
величиной X, которая может быть как дискретной, так и непрерывной; f ( X, )
- вероятность значения (если случайная величина дискретна) и плотность
вероятности (если случайная величина непрерывна). Функция f ( X, ) зависит
от неизвестного параметра  , который требуется оценить по выборке.
Если X1 , X 2 , ..., X i , ..., X n - независимые случайные величины, то
выражение

L  f (X1, )  f(X 2 , ) ... f(X i , ) ... f(X n , ) (5.1)

называется функцией правдоподобия.


~
В качестве оценки неизвестного параметра  берется такое значение 
, при подстановке которого в выражение (5.1) вместо параметра  , получаем
максимальное значение функции L.
~
Оценку  обычно называют оценкой наибольшего правдоподобия.
~
Заметим, что оценка наибольшего правдоподобия  зависит от количества и
числовых значений случайных величин X1 , X 2 , ..., X i , ..., X n , следовательно,
сама является случайной величиной.
Если функция L дифференцируема относительно параметра  , то
отыскание оценки этого параметра сводится к нахождению максимума
функции L относительно  . Если L недифференцируема относительно
параметра  , то для вычисления максимума функции L приходится
использовать другие методы, что иногда связано с большими
вычислительными трудностями.
Если функция L дифференцируема, то для нахождения оценки
наибольшего правдоподобия необходимо решить уравнение
L
0 (5.2)


и отобрать то решение, которое обращает функцию L в максимум.


Иногда вместо уравнения (5.2) удобнее рассматривать уравнение

1 L  ln L
   0. (5.3)
L  

В том случае, когда закон распределения случайной величины зависит


от нескольких параметров 1 ,  2 , ...,  h , ход рассуждений аналогичен
~ ~ ~
предыдущему, т.е. необходимо найти такие величины 1 ,  2 , ...,  k , которые
максимизировали бы функцию правдоподобия. Если эта функция
дифференцируема относительно каждого из оцениваемых параметров, то
отыскание оценок наибольшего правдоподобия сводится к отысканию
максимума функции L относительно параметров 1 ,  2 , ...,  h по правилу
определения экстремума функции нескольких переменных.
Рассмотрим пример, иллюстрирующий общие идеи метода наибольшего
правдоподобия. Пусть X1 , X 2 , ..., X i , ..., X n  n независимых наблюдений над
случайной величиной X, подчиняющихся нормальному закону распределения.
Как известно, нормальный закон распределения определяется двумя
параметрами, а именно: математическим ожиданием  и дисперсией  2 .
Функция f ( X, ) в нашем случае имеет вид:

1
 e (( X ) / 2 ) .
2 2
f (X, ,  2 ) 
 2
Задача заключается в том, чтобы по данным выборки
X1 , X 2 , ..., X i , ..., X n оценить неизвестные параметры распределения  и  2 .
Функцию наибольшего правдоподобия можно записать в следующем виде:

( X1  ) 2 ( X 2  ) 2 ( X n  ) 2
1  1  
L e 22  e 22 ... e 22 
 2  2
1 
( X1  ) 2 ( X 2  ) 2
  ... 
( X n  ) 2
1 
1
( X  ) ( X  ) ...( X
1
2
2
2
n  )
2

 e 2 2 2 2 2 2  e 22 
 2 
n
 2  2

n
1
2 
  ( X i  ) 2
1 2
 e i 1
.
 2 
n

Функция L дифференцируема относительно параметров  и  2 . Для


упрощения выкладок имеет смысл искать максимум не самой функции L, а
lnL, поскольку и L и lnL имеют максимум в одной и той же точке:

n
1
  ( X i   ) 2
1 2 2
L e i 1
,
 2  n

n
 1  1 n
ln L  ln  
  2  2 2
 (X i  ) 2 ln e.
i 1

Так как ln e=1, то имеем

ln L  n l

(5.4)
Для нахождения оценок параметров  и  2 необходимо решить
совместно следующую систему уравнений:

  ln L
   0,
 (5.5)
  ln L  0.
  2

Найдем первую производную от ln L по параметру  . Заметим, что

 1 
 n ln 
  2 
 0,


1
так как при дифференцировании по  выражение n ln является
 2
константой. Следовательно,

 1 n

   ( X i  ) 2 
 ln L  2
2
i 1 
 
 
1
 2 

 (X 1  ) 2  (X 2  ) 2  ...  (X i  ) 2


2 

  2   2(X 1  )  2(X 2  )  ...  2(X i  ) 


1
2
n

1 n  ( X i  )
  2 ( X i   )  i 1
.
2 2
i 1 2

Итак,
n

 ln L
 ( X i  )
i 1
 .
 2

Для определения оценки  частную производную от ln L по параметру


 приравниваем нулю:

n
 ( X i  )
i 1
 0,
2

или

n n
 X i     0,
i 1 i 1

n
 X i  n  0,
i 1

следовательно,

n
n   X i ,
i 1

 n   n 
откуда     X i  / n , но   X i  / n по определению есть X . Таким образом,
 i1   i1 
математическое ожидание следует оценивать с помощью средней
арифметической.
Исследуем вторую частную производную

 n 
  ( X i  ) 
  i 1 2 
  
 
 2 ln L  
 
 2

1 (X 1  )  (X 2  )  ...  (X n  )
 2  
 
1  X 1 X 2 X n   1
  
   ...   n   (0  0  ...  0  ...  0  n ) 
 2        2 
n
1 n
 (n )    0.
 2
2

Далее перейдем к преобразованиям, связанным со вторым уравнением


системы (5.5). Найдем первую производную от ln L по параметру  2 :

 n

 n ln 1 / 2  1 / 2 2   (X i  ) 2 
 ln L  i 1 
 
 ( )
2
 ( )
2

 n

 1 / 2   (X i  ) 2 
 
2

n ln 1  ln 2  1 / 2( )
2
 i 1 
  
 ( )
2
 ( ) 2

 ln 1  ln 2 n  ln( ) 2  ( X i  ) 2  ( 2 ) 1
i 1
n  n     
 ( 2 )  ( 2 ) 2  ( 2 ) 2  ( 2 )
n n

n
 ( X i  ) 2 n
 ( X i  ) 2
i 1 i 1
00    .
2 2
2( ) 2 2
2 2
2 4
Для определения оценки  2 производную от ln L по параметру  2
приравняем к нулю:

n
 ( X i  ) 2
i 1
   0 ( 2  0),
2 2 2 4

или

n
 n   (X i  ) 2  0,
2

i 1

откуда

n
 ( X i  ) 2
i 1
2  .
n

Учитывая, что X   , можно записать

n
 (X i  X ) 2
i 1
2  .
n

Исследуем вторую частную производную


n

 ln L
2
n  ( ) 2 1  ( X i  ) 2  ( 2 )  2
i 1
     
 ( 2 ) 2 2  ( 2 ) 2  ( 2 )
n n
2 ( X i   ) 2
 ( X i  ) 2
n i 1 n i 1
    
2 1
2(  )2 3
2 4
6
n

n
 ( X i  ) 2 1 n n 2 n n n
i 1
 n        0.
2 4
n  6
2 4
 6
2 4
 4
2 4

Доказать самостоятельно, что

 2 ln L  2 ln L
 ( X i  )
i 1
  .
 ( 2 )  ( 2 ) 4

Анализируя результаты, полученные при решении системы (5.5), можно


 n

  (X i  X ) 2 
сказать, что точка с координатами    X;  2  i1  максимизирует

n
 
 
значение функции ln L, следовательно, и саму функцию L, так как в
экстремальной точке определитель

 2 ln L  2 ln L
 2  ( 2 )
Q  0.
 2 ln L  2 ln L
 ( 2 ) 2  ( 2 ) 2

Действительно,
n
 n/ 2
-  (X i  )  1 /  4 2
n 
 n 2 / 2( 2 ) 3   (X i  )  1 /( 2 ) 4 .
i 1

 i1 
n
  (X i  )  1 /  4 - n/2 4
i 1

Подставим в значение определителя вместо  и  2 решение системы


(5.5):

2
n 2

n n
2 3   ( X i  X )  n
4

3
  i1 
4
.
 n
  n
2
2  ( X i  X ) 2   ( X i  X ) 
 i1   i1 

Выражение

n n
 (X i  X )   X i  nX  0,
i 1 i 1

поэтому значение определителя больше нуля:

n5
Q 3
 0.
n 
2  ( X i  X ) 2 
 i1 

Итак, пришли к следующему выводу: если случайная величина


подчинена нормальному закону распределения, то по данным выборки
математическое ожидание следует оценивать с помощью средней
арифметической, а дисперсию генеральной совокупности – дисперсией
выборки s 2 . Средняя арифметическая, рассчитанная по выборке, которая взята
из совокупности с нормальным законом распределения, является
несмещенной, эффективной и состоятельной оценкой математического
ожидания.
Метод наибольшего правдоподобия для оценки математического
ожидания также предполагает использование средней арифметической.
Однако, применяя метод наибольшего правдоподобия, не всегда можно
получить оценки, удовлетворяющие одновременно всем трем критериям.
Так, например, дисперсию генеральной совокупности в
вышеразобранном примере, по методу наибольшего правдоподобия
рекомендуется оценивать выборочной дисперсией s 2 . Выборочная дисперсия
s 2 удовлетворяет лишь условию состоятельности. Поэтому к каждой оценке,
получаемой с помощью метода наибольшего правдоподобия, следует
подходить критически, т.е. анализируя всякий раз, удовлетворяет ли она
основным свойствам оценок.
Заметим, что иногда не существует оценок, одновременно
удовлетворяющих свойствам несмещенности, эффективности и
состоятельности. В случае, если математическое ожидание генеральной
совокупности неизменно, не существует эффективной оценки дисперсии
генеральной совокупности. В подобных случаях надо стремиться к тому,
чтобы получить оценку, удовлетворяющую, по возможности, наибольшему
количеству свойств, предъявляемых к оценкам. Например, дисперсию
генеральной совокупности в случае неизвестного математического ожидания
следует оценивать исправленной выборочной дисперсией s 2 , которая
удовлетворяет свойствам несмещенности и состоятельности, а не s 2 , которая
является лишь состоятельной оценкой генеральной дисперсии.
5.5 Распределение средней арифметической для выборок из нормальной
совокупности. Распределение Стьюдента

Выброчная средняя, рассчитанная по конкретной выборке, есть


определенное число. Так как состав выборки случаен, то средняя
арифметическая, вычисленная для элементов другой выборки того же объема
из той же генеральной совокупности, определяется числом, быть может,
отличным от первого, т.е. средняя изменяется от выборки к выборке.
Следовательно, выборочную среднюю можно рассматривать как
случайную величину, что позволяет говорить о законе распределения
выборочной средней. Приведем без доказательства следующую теорему.
Теорема 5.4. Если случайная величина Х подчиняется нормальному
закону распределения с параметрами ( ,  2 ), а X1 , X 2 , ..., X i , ..., X n - ряд
независимых наблюдений над случайной величиной Х, каждое из которых
имеет те же числовые характеристики, что и Х, т.е.

M (X1 )  M (X 2 )  ...  M (X i )  ...  M (X n )  ,


D(X1 )  D(X 2 )  ...  D(X i )  ...  D(X n )   2 ,

 n 
то выборочная средняя X    X i  / n также подчиняется нормальному
 i1 
закону распределения.
X 
M ( X )   , D( X )   2 / n . Поэтому нормированное отклонение
/ n
подчиняется нормальному закону распределения со средним значением,
равным нулю, и дисперсией, равной единице. Действительно, используя
свойства математического ожидания, а также тот факт, что X и  -
независимы, имеем
 X  n n n
M   M ( X  )  [M ( X )  M ()]  (  )  0,
/ n    
 X  n n n 2
D   2 [D( X )  D()]  2  D( X )  2   1.
/ n     n

Пример 1. Автомат штампует печатные платы для медицинских


приборов. Контролируется длина печатной платы, которая подчиняется
нормальному закону распределения. Найти вероятность того, что средняя
длина X печатной платы, отобранных случайным образом, отклонится от
математического ожидания более чем на 2 мм, если дисперсия случайной
величины Х равна  2  9 мм 2 , а количество печатных плат в выборке n=16.
Решение. Обозначим математическое ожидание случайной величины
буквой  . Так как печатные платы выбираются независимо друг от друга, то
случайная величина X имеет нормальное распределение с математическим

ожиданием  и дисперсией  X   / n  9 / 16 мм , или  X  3 / 4 мм . Теперь


2 2 2

найдем вероятность того, что X    2

1  b   a   
 
P X    2  P[2( X  )  2)  P(  2  X    2)  Ф
  2  
  Ф
    

a b   X   X 
1   (  2  )4   (  2  )4   1
  Ф   Ф     2 [Ф(8 / 3)  Ф  8 / 3)] 
2  3   3 
1
 [Ф(8 / 3)  Ф(8 / 3)]  Ф(8 / 3)  0,9922,
2
следовательно,

P( X    2)  1  0,9922  0,0076,
т.е. практически можно быть уверенным, что наблюдаемая средняя длина
детали отклонится от заданной, принимаемой за математическое ожидание, не
более, чем на 2 мм.
Итак, если случайная величина Х имеет нормальный закон
распределения, то нормированное отклонение:

X 
z  n,

также подчиняется нормальному закону распределения. Однако дисперсия


генеральной совокупности  2 почти всегда оказывается неизвестной, поэтому
вызывает большой практический интерес изучение распределение статистики

X 
t  n,

где ŝ 2 - несмещенная и состоятельная оценка дисперсии  2 , вычисленная по


выборочным данным. В литературе по математической статистике
доказывается, что дифференциальная функция распределения статистики t
имеет вид

n / 2
 t2 
s( t , n )  B n 1   . (5.6)
 n  1 

Проанализируем каждый из параметров, входящих в


дифференциальную функцию распределения s(t, n). Известно, что
коэффициент Bn зависит лишь от объема выборки; t – текущая переменная; n
– величина объема выборки. Следовательно, распределение статистики t не
зависит ни от математического ожидания  случайной величины Х, ни от

дисперсии  2 , а зависит лишь от объема выборки n. Закон распределения


статистики t называет t-распределением Стьюдента. Для функции s(t, n)
составлена таблица 6 приложений. Как очевидно из закона распределения
Стьюдента, функция s(t, n) является четной, т.е. s(-t, n)=s(t, n).
Рассмотрим правило пользования таблицей t-распределения.
Всякому фиксированному значению n в таблице 6 приложений отвечают
три значения t n ,p , каждое из которых определяется выбранной вероятностью

Р.
Так, n=13 соответствуют следующие значения распределения
Стьюдента: t13; 0,95  2,18; t13; 0,99  3,06; t13; 0,999  4,32 .Заметим, что существуют

более подробные таблицы изменения вероятности P и объема выборки n.\


Вероятность P выбирают, исходя из конкретных требований решаемой
задачи. На практике обычно пользуются вероятностью p=0,95.
Сравним значения, приведенные в таблицах 2 и 6 приложений.
Например, в таблице 2 значению вероятности p=0,95 соответствует z=1,96.
Проследим по таблице как изменяется значение t с ростом n при p=0,95
(таблица 5.1).

Таблица 5.1 – Изменение значения t с ростом n при p=0,95


n 5 15 20 30 50 100 
t n ; 0,95 2,78 2,15 2,093 2,045 2,009 1,984 1,960

Из анализа табличных данных видно, что уже при n=50 распределение


Стьюдента мало отличается от нормального. Так, например, если p=0,95, то
z=1,96 и t 50; 0,95  2,009 , т.е. 2,009-1,960=0,049. При малых значениях n t-
распределение заметно отличается от нормального. Например, если p=0,95, то
z=1,96 и t 5; 0,95  2,78 , т.е. 2,78-1,96=0,82.

X 
В заключение еще раз подчеркнем, что статистика t  . n имеет

распределение Стьюдента, если случайная величина X подчиняется
нормальному закону распределения, а средняя X вычисляется по выборочным
данным X1 , X 2 , ..., X n , полученным в результате независимых наблюдений.

5.6 Распределение дисперсии в выборках из нормальной генеральной


совокупности. Распределение  2 Пирсона

Рассмотрим закон распределения выборочной дисперсии, рассчитанной


для наблюдений, взятых из нормальной совокупности.
Так как состав выборки подвержен случайности, то выборочная
дисперсия, вычисленная для элементов другой выборки того же объема из той
же генеральной совокупности, определяется числом, быть может, отличным
от первого, т. е. выборочная дисперсия изменяется от выборки к выборке.
Следовательно, выборочную дисперсию можно рассматривать как случайную
величину, и говорить о законе распределения выборочной дисперсии. При
анализе распределения дисперсии выборки следует иметь в виду следующие
два случая:
1) математическое ожидание случайной величины известно;
2) математическое ожидание неизвестно.
Случай 1. Предположим, что известно математическое ожидание 
случайной величины Х. Условимся считать, что случайная величина Х

подчиняется нормальному закону распределения с параметрами (,  2 ) , а Х1,


Х2, …, Хi, …, Хn – ряд независимых наблюдений, каждое из которых
подчиняется нормальному закону распределения с математическим
ожиданием  и дисперсией  2 . Тогда выборочная дисперсия вычисляется по
формуле

1 n
s 2   (X i  ) 2 .
n i1

Если вместо случайной величины Х ввести   Х   , то значение s 2 не


изменится, а случайная величина  также подчиняется нормальному закону
распределения с математическим ожиданием, равным нулю, и дисперсией  2
. Следовательно, можно записать

1 n 1 n 2
s 2   i
n i1
( X   ) 2
  i .
n i1

Так как наблюдения Х1, Х2, …, Хn по условию независимы, то и 1, 2,


…, n также независимы. Итак,

1 n 2
s 2   i ,
n i1

откуда

n
ns 2   i2 .
i 1

Разделим обе части последнего равенства на  2  0, тогда


2
ns 2 1 n 2 n  i 
  i      .
 2  2 i1 i 1

Пусть / = u. Так как случайная величина  подчинена нормальному


закону распределения с математическим ожиданием, равным нулю и
дисперсией  2 , то случайная величина u также имеет нормальный закон
распределения с математическим ожиданием, равным нулю, и дисперсией,
равной единице. Значения u1, u2, …, un, независимы, следовательно,
u12 , u 22 , ..., u 2n также между собой независимы, поскольку независимы
n
1 , 2 , ..., n . Итак, обозначим  
2
(ns*2 ) /  2   u i2 .
i 1

Случайная величина, представляющая собой сумму квадратов n


независимых случайных величин ui (i  1, n ) , каждая из которых подчиняется

нормальному закону распределения с параметрами ( = 0,  2 =1), называется


случайной величиной с распределением 2 и k = n степенями свободы.
Число степеней свободы равно числу независимых переменных минус
число связей, накладываемых на эти переменные. В рассматриваемом случае

суммируется n независимых слагаемых u i2 , поэтому случайная величина 2


имеет k = n степеней свободы.
Дифференциальную функцию распределения 2 с k = n степенями
свободы можно записать в следующем виде:

f ( 2 )  L( n )   n  2  e 
2
/2
,

где L(n) – коэффициент, зависящий от объема выборки;  – текущая


переменная; n – количество элементов в выборке. Дифференциальная функция
распределения представлена на рисунке 5.1.
f(2)

n=1

0,5

0,4

0,3 n=2

0,2
n=6

0,1

0 2 4 6 8 10 12 14 2

Рисунок 5.1 – Дифференциальная функция распределения

Следовательно, распределение статистики 2 не зависит ни от


математического ожидания  случайной величины Х, ни от дисперсии  2 , а
зависит лишь от объема выборки n. Найдем математическое ожидание
распределения 2:

 n 2
М ( )  М  u i   M (u12 )  M (u 22 )  ...  M (u 2n ) 
2

 i1 
2 2 2
X  Х  Х 
 M 1   M 2   ...   n  
        
M ( X1   ) 2 M ( X 2   ) 2 M ( X n  ) 2
   ...  
2 2 2
2 2 2
 2  2  ...  2  n.
 
 
 
n
Следовательно, математическое ожидание случайной величины с
распределением 2 и k = n степенями свободы равно числу степеней свободы.
В специальной литературе можно найти доказательство того, что дисперсия
распределения 2 равна удвоенному числу степеней свободы, т. е. D(2) = 2k.
Дифференциальная функция распределения 2 сложна и интегрирование
ее является весьма трудоемким процессом, поэтому созданы таблицы
распределения 2.
В приложениях приводится таблица 7 для вычисления вероятности того,
что случайная величина, подчиняющаяся закону 2 с известным числом
степеней свободы, превысит некоторое фиксированное значение  2k ;  , т. е.

P(2 >  2k ;  ).

Рассмотрим на конкретных примерах правило пользования таблицей.


Пример 2. Пусть для случайной величины, подчиняющейся закону 2 с
числом степеней свободы k = 7, требуется определить отклонение  2k ;  ,

вероятность превышения которого равна 0,05, т. е. найти  2k ;  , для которого

P(2 >  2k ;  ) = 0,05.

Решение. Искомое число  2k ;  находится на пересечении столбца 0,05 и

строки 7 таблицы 7 приложений, т. е.  2k ; 0,05 = 14,1, поэтому

P(2 >14,1) = 0,05.

Пример 3. Проверено 10 независимых наблюдений над случайной


величиной Х, распределенной нормально с математическим ожиданием  = 0
и дисперсией  2 = 4. Найти вероятность того, что сумма квадратов результатов
наблюдения превысит 16.
Решение. Пусть Х1, Х2, …, Х10 – независимые наблюдения случайной
 10 2 
величины Х. Необходимо вычислить вероятность P  X i  16  . Так как по
 i1 
условию каждая из случайных величин Хi (i  1,10) имеет нормальное

распределение с  = 0 и  2 = 4, то отношение Хi /  = Хi / 2 (i  1,10) также

подчиняется нормальному закону распределения с  = 0 и  2 = 1,


10
следовательно, сумма квадратов  (X i / 2) 2 имеет распределение 2 с k = 10
i 1

степенями свободы. Поэтому

 10 2   10  X i  2 16 
P  X i  16   P       P( 2  4).
 i1   i1  2  4 

По таблице 7 приложений находим при k = 10, т. е. в строке 10, число,


близкое к 4. Таким числом является 3,94. Вероятность соответствующая этому
числу, находится в заголовке столбца:

P(2 >4) = 0,95.

Случай 2. Рассмотрим закон распределения выборочной дисперсии,


когда математическое ожидание случайной величины Х неизвестно. Как и
прежде считаем, что случайная величина Х подчиняется нормальному закону

распределения с параметрами (,  2 ) , а Х1, Х2, …, Хn есть ряд независимых


наблюдений над случайной величиной Х. Тогда дисперсия для этой выборки
вычисляется по формуле
2 1 n
s  
n  1 i1
(X i  X) 2 .


ns 2
Примем без доказательства тот факт, что случайная величина 2 имеет

распределение 2 с k = (n - 1) степенями свободы.

5.7 Понятие доверительного интервала. Доверительная вероятность

Оценка неизвестного параметра генеральной совокупности одним


числом называется точечной оценкой.
Наряду с точечным оцениванием, статистическая теория оценивания
параметров занимается вопросами интервального оценивания. Задачу
интервального оценивания в самом общем виде можно сформулировать так:
по данным выборки построить числовой интервал, относительно которого с
заранее выбранной вероятностью можно сказать, что внутри этого интервала
находится оцениваемый параметр. Интервальное оценивание особенно
необходимо при малом числе наблюдений, когда точечная оценка в
значительной мере случайна, следовательно, мало надежна.

~ ~

Доверительным интервалом  (n1) ;  (n2) для параметра  называется
такой интервал, относительно которого можно с заранее выбранной
вероятностью p = 1 - , близкой к единице, утверждать, что он содержит
неизвестное значение параметра , т.е.


~ ~

P  (n1)     (n2)  1  .
~ ~
Чем меньше для выборки вероятности  (n1)   (n2) , тем точнее оценка

неизвестного параметра , и наоборот, если этот интервал велик, то оценка,


произведенная с его помощью, мало пригодна для практики. Так как концы
~ ~
доверительного интервала  (n1) и  (n2) зависят от элементов выборки, т. е. ими
~ ~
определяются, то значения  (n1) и  (n2) могут меняться от выборки к выборке.
Вероятность p = 1 -  принято называть доверительной вероятностью.
Остановимся на вопросе о том, какими принципами следует
руководиться при выборе доверительной вероятности. Выбор доверительной
вероятностине является математической задачей, а определяется конкретно
решаемой проблемой. Для иллюстрации этого положения приведем
следующий пример. Пусть на двух предприятиях вероятность выпуска годных
изделий p = 1 -  = 0,99, т.е. вероятность выпуска бракованных изделий  =
0,01. Можно ли в рамках математической теории, т. е. не интересуясь
характером выпускаемых изделий, решить вопрос о том, мала или велика
вероятность ?
Пусть одно предприятие выпускает медицинские препараты, а другое –
медицинские приборы. Если на сто препаратов встретится один бракованный,
то с этим можно мириться при условии, что выбросить один процент
препаратов дешевле, чем перестроить технологический процесс. Если же на
сто приборов встретится один бракованный, что может повлечь за собой
серьезные последствия, то с таким положением мириться никак нельзя.
Следовательно, в первом случае вероятность брака  приемлема, а во втором
– нет, поэтому выбор доверительной вероятности p = 1 -  следует
производить, исходя из конкретных условий задачи.

5.8 Построение доверительного интервала для математического


ожидания при известном 
Пусть случайная величина Х распределена нормально, причем среднее
квадратическое отклонение  этого распределения известно. Требуется
оценить неизвестное математическое ожидание . Наилучшей оценкой
математического ожидания в смысле несмещенности, состоятельности и
эффективности, является выборочное среднее Х . Известно, что выборочное
   
среднее Х распределено нормально с параметрами М Х = , D Х =  2 / n;

Х
нормированное отклонение распределено также нормально с
/ n

параметрами  = 0,  2 =1, поэтому вероятность любого отклонения Х  

может быть вычислена по формуле:

 X 
P  n  z p   Ф(z) . (5.7)
  

Задавая определенную доверительную вероятность p = 1 -  = Ф(z), по


таблице 2 приложений можно определить значение zp. Для оценки 
преобразуем формулу (5.7):

  
P X    z p   Ф( z ) ,
 n

или


P  z p

 
 X    zp
 
  (z) ,
 n n

откуда получим
   
P X  z p    X  zp   Ф( z ) .
 n n 

Таким образом, с вероятностью (надежностью) Ф(z) = 1 –  можно


утверждать, что интервал

   
 Х  zp ; Х  zp  (5.8)
 n n

Является доверительным для оценки .



Замечание. Обозначим  = zp . Тогда:
n
1) при фиксированном значении zp с возрастанием n величина 
уменьшается, следовательно, точность интервального оценивания
увеличивается;
2) увеличение надежности оценки p = 1 -  = Ф(z) ведет к увеличению zp,
так как функция Ф(z) возрастающая, поэтому при фиксированном объеме
выборки n величина  также возрастает, что ведет к увеличению
доверительного интервала, и, следовательно, уменьшению точности оценки.
Пример 4. Случайная величина Х имеет нормальное распределение с
известным средним квадратическим отклонением  = 2. Найти доверительный
интервал для оценки неизвестного математического ожидания  по
выборочной средней Х , если объем выборки n = 16 и задана доверительная
вероятность p = 1 -  = 0,98.
Решение. По таблице 2 приложений находим значение zp,
соответствующее вероятности 0,95; имеем z0,95 = 1,96. Далее находим
  (z p  ) / n  (1,96  2) / 16  (1,96  2) / 4  0,98 .

Следовательно, ( Х - 0,98; Х + 0,98) является доверительным интервалом


для оценки  с вероятностью p = 0,95. Например, если Х = 4,1, то
доверительный интервал имеет следующие доверительные границы:

Х - 0,98 = 4,1 – 0,98 = 3,12,


Х + 0,98 = 4,1 + 0,98 = 5,08,
поэтому можно записать, что 3,12 <  <5,08.
Так как Х - случайная величина, возможные значения которой
меняются от выборки к выборке, то концы доверительного интервала ( Х - ;
Х + ) также являются случайными величинами, меняющимися от выборки к
выборке.
Если выборки повторять и для каждой из них определять границы
доверительного интервала, то при большом числе опытов частность
интервалов, которые покроют неизвестное значение, мало отличается (по
теореме Бернулли) от выбранной доверительной вероятности (1 - ).
В нашем примере выбрана доверительная вероятность p = 0,95. Это
значит, что если произведено достаточно большое количество выборок, то
95% из них определяют такие доверительные границы, внутри которых будет
находиться оцениваемый параметр , и лишь 5% интервалов его не содержат.
Поэтому было бы ошибкой истолковать равенство P(3,12 <  < 5,08) = 0,95 как
вероятность того, что математическое ожидание заключено в интервале [3,12;
5,08], равна 0,95. Математическое ожидание может либо попасть в этот
интервал (и тогда вероятность события (3,12 <  < 5,08) равна единице), либо
не попасть (и тогда вероятность события [3,12 <  < 5,08] равна нулю).
Следовательно, доверительную вероятность не следует связывать с
оцениваемым параметром – она связана лишь с границами интервала,
определяемыми случайностью выборки.

5.9 Построение доверительного интервала для математического


ожидания при неизвестной 

Пусть случайная величина Х распределена нормально, причем среднее


квадратическое отклонение  этого распределения неизвестно. Требуется
оценить неизвестное математическое ожидание . Случайная величина

X
t   n
s

распределена по закону Стьюдента, поэтому, выбрав вероятность p = 1 -  и


зная объем выборки n, можно, пользуясь таблицей 6 приложений, найти tn,p
такое, что

 X 
P   n  t n , p   1   . (5.9)
 s 
 

Произведем преобразование формулы (5.9), позволяющее оценить :


 s 
P X    t n ,p   1  ,
 n 

или
 
 s s 
P  t n ,p   ( X  )  t n , p   1 ,
 n n 

откуда

 
 s s 
P X  t n ,p     X  t n ,p    1  .
 n n 

Поэтому с вероятностью (надежностью) p = 1 -  можно утверждать, что


интервал

 
 s s 
 X  t     X  t  (5.10)
n 
n ,p n ,p
n

является доверительным для оценки .


Несмотря на кажущееся сходство формул (5.8) и (5.10), между ними
существует различие, заключающееся в том, что в формуле (5.10)
коэффициент tn,p зависит не только от доверительной вероятности, но и от
количества элементов в выборке. Особенно это различие заметно при малом
количестве наблюдений.
Пример 5. Пусть требуется построить доверительный интервал для
оценки неизвестного математического ожидания  при n = 9, p = 0,95, Х = 6,

s = 3.
Решение. Построим сначала доверительный интервал по формуле (5.8),

приняв  = s , а затем – по формуле (5.10), и сравним полученные результаты.
По таблице 2 приложений значению p = 0,95 соответствует z0,95 = 1,96,
поэтому
 
X zp    X  zp ,
n n

или, подставляя числовые данные,

3 3
6  1,96    6   1,96 ,
9 9

следовательно,

4,04 <  <7,96.

В таблице 6 приложений значениям p = 0,95, n = 9, соответствует t9; 0,95=


=2,31, поэтому:

 
s s
X  t n ,p    X   t n ,p ,
n n

или

3 3
6  2,31    6   2,31 .
9 9

Окончательно имеем 3,69 <  < 8,31.


В первом случай длина интервала равна (7,96 – 4,04) = 3,92, во втором –
(8,31 – 3,69) = 4, 62, т. е. по формуле (5.8) получен меньший доверительный
интервал, чем по формуле (5.10). Объясним этот факт. Полученный при малом
количестве наблюдений с помощью закона Стьюдента более широкий
доверительный интервал для оценки математического ожидания по
сравнению с результатом, полученным при использовании нормального
закона распределения, вовсе не свидетельствует о недостатке распределения
Стьюдента, а скорее наоборот – о его преимуществе, так как при
использовании t-распределения учитывается, что никакой дополнительной
информации о дисперсии генеральной совокупности  2 , кроме той, которую
дает выборка, нет. Поэтому использование при оценки математического
ожидания нормального закона распределения, при малом n и неизвестной
дисперсии, привело бы к неоправданному сужению доверительного
интервала.
Итак, для оценки математического ожидания случайной величины,
распределенной нормально, по малым выборкам при неизвестном  следует
пользоваться t-распределением Стьюдента.

5.10 Построение доверительного интервала для дисперсии

Пусть случайная величина Х распределена нормально. Требуется


построить доверительный интервал для дисперсии генеральной совокупности

2 либо по выборочной дисперсии s 2 , либо по s2.


Построение доверительного интервала для дисперсии основывается на

том, что случайная величина (n s 2 )/2 имеет распределение 2 с k = n степенями



свободы, величина (n s2 )/2 имеет распределение 2 с k = (n – 1) степенями
свободы.
Подробно рассмотрим построение доверительного интервала для
второго случая, так как именно он наиболее часто встречается на практике.

Итак, для выбранной доверительной вероятности p = 1 – , учитывая, что (n s2

)/2 имеет распределение 2 с k = (n – 1) степенями свободы, можно записать


 2 n s 2 
P 1  2   22   1   .
  

Далее по таблице 2 распределения, нужно выбрать такие два значения

12 и  22 , чтобы площадь, заключенная под дифференциальной функцией

распределения 2 между 12 и  22 , была равна 1 – .

f(2) f(2)

S1 S2

1 2 3 4 5 6 7 8 9 10
2 1 2 3 4 5 6 7 8 9 10
2
12  22 12  22
а) б)

Рисунок 5.2 – График распределения

Как очевидно из рисунка 5.2, значениями 12 и  22 можно варьировать


так, чтобы значение заштрихованной площади оставалось постоянным (s1=s2)

и равным p = 1 –  (p = 1 –  = s1 = s2). Обычно 12 и  22 выбирают так, чтобы

   
P  2  12  P  2   22   / 2 ,

т. е. площади, заштрихованные на рисунке 30, были равны между собой. Тогда


имеем
 2 n s 2 
P 1  2   22   1  P( 2  12 )  P( 2   22 ) .
  
  /2 /2

Так как таблица 7 приложений содержит лишь P( 2   2k , ) , то для

вычисления по ней P( 2  12 ) запишем следующее тождество:

P( 2  12 )  1  P( 2  12 ) .

Поэтому
 2 n s 2 
P 1  2   22   1  [1  P( 2  12 )]  P( 2   22 ) 
  
 1  1  P( 2  12 )  P( 2   22 ) 
 P( 2  12 )  P( 2   22 ).

Итак,

 2 n s 2 
P 1  2   22   P( 2  12 )  P( 2   22 )  1  ;
  

P( 2  12 )  (1  )  P( 2   22 )  1     / 2  1   / 2 .


f(2)

1 2 3 4 5 6 7 8 9 10
2
12  22

Рисунок 5.3 – График распределения

Преобразуем двойное неравенство


ns 2
12  2   22 (5.11)

так, чтобы было можно оценить 2. Рассмотрим два неравенства, ему
эквивалентные:

 
ns 2 ns 2
12
 2 и 2   22 ,
 
 
ns 2 ns 2
откуда находим: 2   и   2 .
2 2
2 1
Обобщая полученные результаты, можно записать

 
ns 2 ns 2
  2 .
2
 22 1

Неравенство (5.11) эквивалентно последнему неравенству, поэтому


 2 n s 2 2  n s 2 
ns 2 
P 1  2   2   P 2    2   1   .
2

    2 1 

Пример 6. Построить доверительный интервал с вероятностью p = 0,96



для дисперсии 2 случайной величины Х, распределенной нормально, если s 2
= 10, n = 20.
Решение. Доверительная вероятность p = 1 –  = 0,96,  = 0,04. По
таблице 7 приложений при p2 = /2 = 0,04/2 = 0,02 и k = (n – 1) = 19 степенями

свободы находим значение  22 = 33,7; вероятности


p1  1   / 2  1  1 / 2  4 / 100  0,98 и n – 1 = 19 степенями свободы

соответствует значение 12 =8,6. Тогда доверительный интервал для 2 можно


записать в следующем виде:

(20·10)/33,7 < 2 < (20·10)/8,6,


5,935 < 2 < 23,256.

Для интервальной оценки среднего квадратического отклонения служит


равенство

 n s 
n s 
P   1  .


 2 1 

Вычислим оценку среднего квадратического отклонения  по данным


примера 6:

5,935    23,256 ,
или

2,43 <  <4,82.


6 Проверка статистических гипотез

6.1 Понятие статистической гипотезы. Общая постановка задачи


проверки гипотез

Проверка статистических гипотез тесно связана с теорией оценивания


параметров. В естествознании, технике, экономике часто для выяснения того
или иного случайного факта прибегают к высказыванию гипотез, которые
можно проверить статистически, т. е. опираясь на результаты наблюдений в
случайной выборке. Под статистическими гипотезами подразумеваются такие
гипотезы, которые относятся или к виду, или к отдельным пара метрам
распределения случайной величины. Так, например, статистический является
гипотеза о том, что распределение производительнoсти труда рабочих,
выполняющих одинаковую работу в одинаковых opганизационно-
технических условиях, имеет нормальный закон распределения.
статистической будет также гипотеза о том, что средние размеры деталей,
производимые на однотипных, параллельно работающих станках, не
различаются между собой.
Сформулируем задачу статистической проверки гипотезы в общем виде.
Пусть f (Х,  ) - закон распределения случайной величины Х, зависящей от
одного параметра  . Предположим, что необходимо проверить гипотезу о
том, что    0 . Назовем эту гипотезу нулевой и обозначим её через H 0 .
гипотезу о том, что   1 , назовем конкурирующей и обозначим её через H 1 .
Заметим, что иногда гипотезу H 1 называют альтернативной гипотезой или
альтернативой. Таким образом, перед нами стоит задача проверки гипотезы
H 0 относительно конкурирующей гипотезы H 1 на основании выборки,
состоящей из n независимых наблюдений X 1 , X 2 , ..., X n над случайной
величиной Х. Следовательно, все возможное множество выборок объекта
можно разделить на два непересекающихся подмножества (обозначим их
через О и W) таких, что проверяемая гипотеза H 0 должна быть отвергнута,
если наблюдаемая выборка попадет в подмножество W, и принята, если
выборка принадлежит подмножеству О.
Подмножество W называют критической областью; O - областью
допустимых значений. Так как подмножество О состоит из всех тех выборок,
объема n, которые не вошли в подмножество W, то подмножество W
однозначно определяет подмножество О и наоборот, т. е. необходимо
определить одно подмножество, второе же получается автоматически
единственным образом.
Возникает вопрос о том, какими принципами следует руководствоваться
при построении критической области W. Эти принципы были
сформулированы в работах известных математиков Е. Неймана и Э. Пирсона.
При выборе критической области следует иметь в виду, что принимая или
отклоняя гипотезу H 0 , можно допустить ошибки двух видов.
Ошибка первого рода состоит в том, что нулевая гипотеза H 0
отвергается, т. е. принимается гипотеза H 1 , в то время, как в действительности
все же верна гипотеза H 0 .
Ошибка второго рода состоит в том, что гипотеза H 0 принимается, в то
время, как верна гипотеза H 1 .
Рассмотренные случаи наглядно иллюстрирует следующая таблица:

Таблица 6.1 – Вероятность появления ошибок при проверке гипотез


Гипотеза H 0 Верна Неверна
Отвергается Ошибка 1-го рода Правильное решение
Принимается Правильное решение Ошибка 2-го рода
Вероятности ошибок первого и втopoгo рода однозначно определяются
выбором критической области W. Для любой заданной критической области
W условимся обозначать через  вероятность ошибки первого рода, через 
- вероятность ошибки втopoгo рода. Следовательно, можно сказать, что при
большом количестве выборок доля ложных заключений равна  , если верна
гипотеза H 0 , и  ), если верна гипотеза H 1 .
В теории статистической проверки гипотез доказывается, что при
фиксированном объеме выборки соответствующий выбор критической
области W позволяет сделать как угодно малой либо  , либо  .

6.2 Проверка гипотезы о равенстве центров распределений двух


нормальных генеральных совокупностей при известном 

Проверка гипотез о равенстве двух центров распределения имеет важное


практическое значение. Действительно, иногда оказывается, что средний
результат в одной серии экспериментов заметно отличается от среднeгo
результата в другой серии. При этом возникает вопрос, можно ли объяснить
обнаруженное расхождение средних случайными ошибками эксперимента
или оно вызвано какими-либо незамеченными или даже неизвестными
закономерностями? В промышленности задача сравнения средних часто
возникает при выборочном контроле качества изделий, изготовленных на
разных установках или при разных технологических режимах.
Сформулируем задачу сравнения двух центров распределения в общем
виде. Рассмотрим две случайные величины Х и У, каждая из которых
подчиняется нормальному закону распределения. Пусть имеются две
независимые выборки объемами n 1 и n 2 из генеральных совокупностей Х и
У. Необходимо проверить нулевую гипотезу H 0 , заключающуюся в том, что
M(X)  M(Y) , относительно альтернативной гипотезы H 1 , состоящей в том,

что M(X)  M(Y)  0 .


В настоящем параграфе рассматривается случай, кoгда генеральные

дисперсии  2X и  2Y известны. Так как о значениях математических ожиданий


М(Х) и М(У) нам ничего неизвестно, то для проверки гипотезы H 0
используются их наилучшие оценки X и Y .
Как известно, средние X и Y имеют нормальный закон распределения

с параметрами M(X);  2X / n 1   
и M(Y);  2Y / n 2 . Выборки независимы,
поэтому X и Y также независимы и случайная величина, равная разности
между X и Y , имеет нормальное распределение, причем

D( X  Y )  D( X )  D( Y )   2X / n 1   2Y / n 2 .

Если гипотеза H 0 справедлива, то

M( X  Y )  M( X )  M( Y )  0 ,

следовательно, нормированная разность

XY
z
 2X / n 1   2Y / n 2

подчиняется нормальному закону распределения с математическим


ожиданием, равным нулю, и дисперсией, равной единице.
Выбирая, сообразуясь с условиями задачи, вероятность p  1   , можно
по таблице 2 приложений определить статистику z p , которая разделит

множество z на два непересекающихся подмножества: область допустимых


значений z и критическую область z. Те значения z, для которых z  z p ,

образуют область допустимых значений; значения z, для которых z  z p ,

определяют критическую область.


Итак, для вероятности p  1   критическая область определяется
неравенством
XY
 zp .
 2X / n 1   2Y / n 2

Если  2X   2Y , то критическая область определяется неравенством

XY
 zp .
 1 / n1  1 / n 2

Вероятность  отвечает тем событиям, которые при данных условиях


исследования считаются практически невозможными. Чем меньше  , тем
меньше вероятность отклонить проверяемую гипотезу, если она верна
(совершить ошибку первого рода); с уменьшением уровня значимости 
увеличивается область допустимых значений, следовательно, увеличивается
риск принять проверяемую гипотезу, когда она неверна (увеличивается
вероятность ошибки второго рода).
При проверке гипотезы о равенстве центров распределения двух
нормальных генеральных совокупностей при заданном уровне значимости 
контролируется лишь ошибка первoгo рода, но нельзя сделать вывода о
степени риска, связанного с принятием неверной гипотезы, т. е. с
возможностью совершения ошибки второго рода.
Пример 1. В результате двух серий измерений с количеством измерений
n 1  25 и n 2  50 получены следующие средние значения исследуемой
величины: x  9,79 и y  9,60 . Можно ли с надёжностью p  0,99 объяснить
это расхождение случайными причинами, если известно, что средние
квадратические отклонения в обеих средних измерений  x   y  0,30 ?

Решение. Вычислим нормированную разность

XY 7,79  9,60


z    2,59 .
 1 / n1  1 / n 2 0,30 1 / 25  1 / 50

Сравним значение z  2,59 с критическим значением z 0,99  2,576 .

Имеем 2,59 > 2,576, поэтому с надёжностью 0,99 можно считать расхождение
средних неслучайным (значимым), так как попадание в область значений
z  2,576 при нашей гипотезе практически невозможно. Заметим однако, что

для значений z  2,576 , еще нельзя утверждать, что гипотеза подтвердилась:


можно только признать допустимость гипотезы для рассмотренных
выборочных наблюдений до тех пор, пока более обстоятельные исследования
не позволят cдeлать противоположное заключение.
Следовательно, с помощью проверки статистических гипотез, можно
лишь отвергнуть проверяемую гипотезу, но никогда нельзя доказать ее
справедливость.

6.3 Проверка гипотезы о равенстве центров распределения нормальных


генеральных совокупностей при неизвестном 

Рассмотрим две случайные величины Х и У, каждая из которых


подчиняется нормальному закону распределения с математическими
ожиданиями М(Х) и М(У). Условимся считать, что о  2X   2Y   2 ; числовое

же значение 2 неизвестно.
Пусть имеются две независимые выборки объемами n 1 и n2
соответственно из генеральных совокупностей Х и У. Необходимо проверить

нулевую гипотезу H 0 ; состоящую в том, что М(Х)=М(У), относительно

альтернативной гипотезы H 1 , заключающейся. в том, что M(X)  M(Y)  0 .


Для оценки М (Х) и М(У) используются их наилучшие оценки по
выборке x и y , а для оценки  2 используются выборочные оценки

2 1 n1 2 1 n2
sx  
n 1  1 i 1
(x i  x) и s y  
n 2  1 i 1
( y i  y) 2 .

Так как генеральные совокупности Х и У имеют одинаковые дисперсии,


то для оценки  2 целесообразно использовать результаты обоих выборок. В
математической статистике доказывается, что лучшей оценкой для  2 данном
случае является

2 2
 2 s x (n 1  1)  s y (n 2  1)
s 
n1  n 2  2

Если гипотеза H 0 справедлива, то случайная величина ( X  Y )


подчиняется нормальному закону распределения с математическим

ожиданием, равным нулю, и дисперсией  2 (1 / n 1  1 / n 2 ) . Действительно,

M( X  Y )  M( X )  M( Y )  0 ,

D( X  Y )  D( X )  D( Y )   2 / n 1   2 / n 2   2 (1 / n 1  1 / n 2 ) .
Так как величина 2 неизвестна, то возникает вопрос о том какой
статистикой оценить D( X  Y ) . В качестве выборочной оценки D( X  Y )

  1 1  2
обычно принимают оценку s X2  Y      s , так как
 1
n n 2 

 1  2   1  s x2 (n 1  1)  s y2 (n 2  1) 
M  
1
  s    
1 
 
  1
  M s 2   
1 
  M 
n1  n 2  2

 n 1 n 2    n1 n 2   n1 n 2   
2 2
 1 1  (n 1  1)  M ( s x )  (n 2  1)  M ( s y )
     
 n1 n 2  n1  n 2  2

 1 1  (n 1  1)   2  (n 2  1)   2  1 1  2

          .
 1
n n 2  n 1  n 2  2  1
n n 2 

Kак известно, если случайная величина (X  Y) подчиняется


нормальному закону распределения, то статистика

(X  Y )  M(X  Y ) (X  Y )  M(X  Y )
t   2 2
s(X Y)  1 1  s x (n 1  1)  s y (n 2  1)
   
 1
n n 2  n1  n 2  2

имеет t -распределение Стьюдента, причем число степеней свободы


k  n1  n 2  2 .
Если гипотеза H 0 справедлива, то статистику t можно записать в виде

(X  Y)
t 2 2
 1 1  s x (n 1  1)  s y (n 2  1)
   
 1
n n 2  n1  n 2  2
Выбрав вероятность p  1   , можно по t - распределения определить
критическое значение t n1  n 2  2;  для которого

P ( t  t n 1  n 2  2;  )   .

Если вычисленное значение t  t n1  n 2 2;  , то с надежностью p  1  

можно считать расхождение средних значимым (неслучайным).


Пример 2.. Пусть при тех же данных, что и в примере 1 ( n 1  25 , n 2  50
, x  9,79 , y  9,60 ), средние квадратические отклонения в обеих генеральных
совокупностях неизвестны (но равны). В этом случае для проверки гипотезы
2  2 
H 0 необходимо подсчитать s x и s y2 . Пусть оказалось, что s x  0,28 , s y2  0,33

. Далее имеем

 0,28 2  24  0,33 2  49
s  0,31 .
74

xy 0,19
t   2,47 .
s 1 / n 1  1 / n 2 0,31 0,04  0,02

Вероятности p = 0,99 и числу степеней свободы k = 73 в таблице t-


распределения соответствует t 73; 0,01  2,65 .

Так как 2,47 < 2,65, то с надежностью 0,99 нельзя считать pacхождение
средних значимым.

6.4 F - распределение и проверка гипотезы о равенстве дисперсий двух


нормальных генеральных совокупностей
Гипотезы о дисперсиях имеют особенно большое значение в технике,
так как измеряемая дисперсией величина рассеивания характеризует такие
исключительно важные показатели, как точность машин' и приборов,
погрешность показаний измерительных приборов, точность технологического
процесса и т. д.
Сформулируем гипотезу о равенстве дисперсий двух нормальных
генеральных совокупностей. Рассмотрим две случайные величины Х и У,
каждая из которых подчиняется нормальному закону распределения, с

дисперсиями  2X и  2Y . Пусть из генеральных совокупностей Х и У извлечены


две независимые выборки объемами n 1 и n 2 . Проверим гипотезу H 0 о том,

что  2X   2Y , относительно альтернативной гипотезы H 1 заключающейся в



том, что  2X   2Y . Для оценки  2X используется выборочная дисперсия s X2 , а

для оценки  2Y выборочная дисперсия s Y2 ; следовательно, задача проверки
 
гипотезы H 0 сводится к сравнению дисперсии s X2 и s Y2 .
Для построения критической области с выбранной надежностью

выводов необходимо исследовать совместный закон распределения оценок s X2
  
и s Y2 . Таким совместным законом распределения статистик s X2 и s Y2 является
F - распределение, называемое распределением Фишера - Снедекора.
Рассмотрим случайную величину V, подчиняющуюся нормальному
закону распределения с параметрами (  ,  2 ). Произведем из генеральной

совокупности V две независимые выборки объемами n 1 и n 2 . Для оценки  2


 
можно использовать выборочные дисперсии s X2 и s Y2 , pacсчитанные по
элементам первой и второй выборок.
 
Случайные величины s12 n 1 /  2 и s 22 n 2 /  2 распределены по закону  2

с k 1  (n 1  1) и k 2  (n 2  1) степенями свободы. Случайная величина F,


определяемая отношением

 
n 2 s12 n 1 /  2 s12
F   ,
n 1 s 22 n 2 /  2 s 22

называется случайной величиной с распределением Фишера - Снедекора.


 
Заметим, что всегда можно так ввести обозначения, что окажется s12  s 22 .
поэтому случайная величина F принимает значения, не меньшие единицы.
Известна формула дифференциальной функции pacпределения
случайной величины F. Оказывается, что дифференциальный закон
распределения случайной величины F не содержит неизвестных параметров (

 ,  2 ) и их оценок (  , s 2 ), определяющих распределение V, а зависит лишь

от числа наблюдений в выборках n1 и n 2 . Этот факт позволяет составить


таблицы распределения случайной величины F, в которых различным
значениям уровням значимости и различным сочетаниям величин k 1 и k 2
соответствуют такие значения F (  , k 1 , k 2 ), для которых справедливо
равенство

P[F  F(  , k1 , k 2 ) ]   .

Теперь вернемся к задаче проверки гипотезы H 0 о равенстве дисперсий.


2
2 2 s
Вычислив выборочные дисперсии s1 и s 2 , рассчитаем их отношение F  12 ,
s2
причем в числителе запишем большую из двух вычисленных оценок
дисперсии  2 (это условие соблюдается для сокращения объема таблиц).

Затем, выбрав необходимый уровень значимости а, по таблице F -


распределения находим число F(  , k1 , k 2 ) , которое сравниваем с вычисленным F.

Если окажется, что F  F(  , k1 , k 2 ) , то проверяемая гипотеза H 0 отвергается, если

F  F(  , k1 , k 2 ) , то выборочные наблюдения не противоречат проверяемой

гипотезе.
Пример 3. На двух станках обрабатываются печатные платы для
медицинских приборов. Были отобраны две пробы: из печатных плат,
сделанных на станке 1, n 1  10 штук, на 2 станке - n 2  15 штук. По данным

этих выборок рассчитаны выборочные дисперсии s12  9,6 (для первого

станка) и s 22  5,7 (для второго станка). Следовательно,

2
s 9,6
F  12   1,68
s 2 5,7

с числом степеней свободы k 1  10  1  9 и k 2  15  1  14 . Проверить


  0,05 гипотезу о том, что станки обладают различной точностью.

Решение. Чтобы проверить гипотезу о равенстве дисперсий  12   22 с


уровнем значимости   0,05 при k 1  9 и k 1  14 , находим по таблице F -
распределения F( 0,05, 9,14)  2,65 . Итак, имеем 1,68 < 2.65, следовательно,

предположение о равенстве дисперсий не противоречит наблюдениям, иными


словами, пока нет оснований считать, что станки обладают различной
точностью.
Отметим, что при проверке гипотезы о равенстве дисперсий при
заданном уровне значимости а, контролируется лишь ошибка первого рода, но
нельзя сказать о степени риска, связанного с принятием неверной гипотезы, т.
е. с возможностью ошибки второго рода.

6.5 Проверка гипотез о законе распределения. Критерия согласия  2

До этого рассматривались гипотезы, относящиеся к отдельным


параметрам распределения случайной величины, причем закон ее
распределения предполагался известным. Однако во многих практических
задачах точный закон pacпределения исследуемой случайной величины
неизвестен, т. е. является гипотезой, которая требует статистической
проверки.
Обозначим через Х исследуемую случайную величину. Пусть требуется
проверить гипотезу H 0 о том, что эта случайная величина подчиняется закону
распределения F(х). Для проверки гипотезы произведем выборку, состоящую
из n независимых наблюдений над случайной величиной Х. По выборке можно
построить эмпирическое распределение F*(х) исследуемой случайной
величины. Сравнение эмпирического F*(х) и теоретического распределений
производится с помощью специально подобранной случайной величины -
критерия согласия. Существует несколько критериев согласия:  2 Пирсона,
Колмогорова, Смирнова и др.
Критерий согласия  2 Пирсона наиболее часто употребляемый
критерий для проверки гипотезы о законе распределения.
Рассмотрим этот критерий. Разобьем всю область изменения Х на l
интервалов  1 ,  2 , ...,  l . И подсчитаем количество элементов n i , попавших
в каждый из интервалов  i . Предполагая известным теоретический закон
распределения F(х), всегда можно определить p i , (вероятность попадания
случайной величины Х в интервал), тогда теоретическое число значений
случайной величины Х, попавших в интервал  i , можно рассчитать по
формуле np i . Результаты проведенных расчетов объединим в таблицу 6.2.

Таблица 6.2 - Результаты проведенных расчетов


Интервалы  i 1 2 … i … l

Эмпирические m1 m2 … mi … ml
частоты ( m i )
Теоретические np1 np 2 … np i … np l
частоты ( np i )

Здесь m1 + m 2 + ... + m i + … + m l = n; p1 + p 2 + ... + p l = 1.


Если эмпирические частоты сильно отличаются от теоретических, то
проверяемую гипотезу H 0 следует отвергнуть, в противоположном случае -
принять.
Сформулируем критерий, который бы характеризовал степень
расхождения между эмпирическими и теоретическими частотами.
Если проверяемая гипотеза H 0 верна, то случайная величина m i ,
характеризующая количество попаданий в интервал  i , подчиняется
биномиальному закону распределения с математическим ожиданием np i и
дисперсией np i q i (q i  1  p i ) . Тогдa при n   случайная величина

y i  (m i  np i ) / np i q i

распределена нормально с математическим ожиданием, равным нулю, и


дисперсией, равной единице. Случайные величины y 1 , y 2 , ..., y l связаны
между собой линейной зависимостью. Действительно,
l l
(m i  np i ) l l l
 yl np l q l  
np i q i
np i q i   (m i  np i )   m i   n  p i ) 
i 1 i 1 i 1 i 1 i 1

 n  n 0.

В литературе по математической статистике доказывается, что при


n   статистика

l l
(m i  np i ) 2
 y l2 q l 
np l
i 1 i 1

имеет распределение  2 с k = (l - 1) степенями свободы.


Однако, если параметры распределения F(х) оцениваются по выборке,
l
(mi  npi ) 2
то  при n   имеет распределение  2 с k = (1 - r - 1) степенями
i 1 npl
свободы (r - число параметров распределения F(х), рассчитанных по выборке).
Следовательно, в качестве меры pacхождения между m i и np i для i = 1, .... l
используют критерий

(m i  np i ) 2
l
 
2

i 1 np l

Правило применения критерия  2 сводится к следующему. Рассчитав

значение  2 и выбрав уровень значимости критерия  , по таблице  2 -

распределения определяется  2 k ; . Если  2   2 k ; , то гипотеза H 0

отвергается, если  2  2 k ; , то гипотеза принимается. Очевидно, что при


проверке гипотезы о законе распределения контролируется лишь ошибка
первого рода.
В заключение заметим, что, как отмечалось выше, статистика

(m i  np i ) 2
l
 
2

i 1 np l

имеет  2 - распределение лишь при n   , поэтому необходимым условием


применения критерия Пирсона является наличие в каждом из интервалов по
меньшей мере 5 - 10 наблюдений. Если количество наблюдений в отдельных
интервалах очень мало (порядка 1 - 2), то имеет смысл объединить некоторые
разряды. Проиллюстрируем применение критерия  2 на двух примерах. В
первом примере разберем случай, когда ставится гипотеза о том, что
исследуемая случайная величина подчиняется закону Пуассона, а во втором -
нормальному закону распределения.
Пример 4. На телефонной станции производились наблюдения за
числом Х неправильных соединений в минуту. Наблюдения в течение часа
дали следующие результаты: 3; 1; 3; 1; 4; 2; 2; 4; 0; 3; 0;. 2; 2; 0; 2; l; 4; 3; 3; l;
4; 2; 2; 1; l; 2; l; 0; 3; 4; l; 3; 2; 7; 2; 0; 0; 1; 3; 3; 1; 2; 4; 2; 0; 2; 3; 1; 2; 5; 1; 1; 0;
1; 1; 2; 2; 1; 1; 5. Требуется определить среднюю арифметическую и дисперсию
неправильных соединений в минуту И проверить выполнение основного

условия для распределения Пуассона [M (X)   2 ] . Найти теоретическое


распределение Пуассона и проверить степень согласия теоретического и
эмпирического распределений по критерию  2 Пирсона с уровнем значимости
  0,05 .
Решение. Упорядочим результаты наблюдений, записав их в таблицу
6.3:
Таблица 6.3 – Результаты наблюдений
xi 0 1 2 3 4 5 6 7
mi 8 17 16 10 6 2 0 1

Обозначим через x среднее число неправильных соединений в минуту

0  8  1  17  2  16  3  10  4  6  5  2  6  0  7  1
x  2.
60

Вычислим выборочную оценку дисперсии

 2 8  (0  2)  17  (1  2)  16  (2  2)  10  (3  2)  6  (4  2)  ...
2 2 2 2 2
s  
59

 2  (5  2) 2  0  (6  2) 2  1  (7  2) 2
  2,1 .
59

Необходимое условие для распределения Пуассона x  s2  2
практически выполняется. Запишем теоретический закон Пуассона в виде

2 m 2
P ( m)  e .
m!

Так как значение математического ожидания неизвестно, то подставим


вместо него оценку x по выборке. Имеем:

2 0 2
P(0)   e  0,1353  р 0 ,
0!
21  2
P(1)   e  0,2707  р1 ,
1!

2 2 2
P(2)   e  0,2707  р 2 ,
2!

2 3 2
P(3)   e  0,1804  р 3 ,
3!

2 4 2
P(4)   e  0,0902  р 4 ,
4!

2 5 2
P(5)   e  0,0361  р 5 ,
5!

2 6 2
P(6)   e  0,0120  р 6 ,
6!
2 7 2
P (7 )   e  0,0034  р 7 .
7!

Запишем полученные результаты в следующую таблицу:

Таблица 6.4 – Результаты вычислений


i 0 1 2 3 4 5 6 7
xi 0 1 2 3 4 5 6 7
mi 8 17 16 10 6 2 0 1
np i 8,1 16,24 16,24 10,82 5,41 2,166 0,72 0,204
Объединим 5, 6 и 7 столбцы, так как в каждом из них мало наблюдений.
Тогда 6.4 таблица преобразуется в таблицу 6.5.

Таблица 6.5 – Результаты вычислений (объединение столбцов 5, 6, 7)


i 0 1 2 3 4 5
xi 0 1 2 3 4 5 и более
mi 8 17 16 10 6 3
np i 8,1 16,24 16,24 10,82 5,41 0,09

Вычислим значение  2 :

(8  8,1) 2 (17  16,24) 2 (16  16,24) 2 (10  10,82) 2 (6  5,41) 2


 
2
    
8 16,24 16,24 10,82 5,41

(3  3,09) 2
  0,2 .
3,09

Примем уровень значимости   0,05 . Количество интервалов l = 6. По


выборке вычислен один параметр, которым определяется закон Пуассона,
математическое ожидание, следовательно r = 1. Поэтому число степеней
свободы k = l – r – 1 = 6 – 1 – 1 = 4. В таблице 7 приложений значениям   0,05

и k = 4 соответствует Х 24; 0,05  9,5 . Имеем 9,5 > 0,2, следовательно, нет

оснований отвергнуть проверяемую гипотезу.


Пример 5. Измерены 100 обработанных деталей. Отклонения от
заданного размера приведены в таблице 6.6.

Таблица 6.6 - Отклонения детали от заданного размера


Наблюю- Наблюю- Наблюю- Наблюю-
№ № № №
даемые даемые даемые даемые
п/п п/п п/п п/п
значения значения значения значения
1 2 3 4 5 6 7 8
1 -1,8 26 0,5 51 -1,9 76 2,1
2 0,3 27 0,1 52 -2,8 77 -1,9
3 0,1 28 2,1 53 2,3 78 -0,8
4 1,3 29 -0,9 54 1,3 79 -3,0
5 2,1 30 0,3 55 -0,8 80 0,2
6 -2,5 31 2,1 56 0,1 81 -0,8
7 -0,9 32 1,3 57 3,1 82 1,1
8 1,4 33 1,2 58 1,3 83 0,1
9 3,1 34 -0,8 59 0,1 84 0,2
10 2,1 35 0,3 60 2,1 85 2,3
11 2,1 36 1,2 61 3,1 86 -1,9
12 -0,9 37 -0,8 62 1,1 87 1,2
13 1,1 38 0,1 63 2,2 88 3,1
14 1,2 39 -1,9 64 -0,8 89 0,8
15 0,1 40 3,1 65 1,1 90 1,3
Продолжение таблицы 6.6
1 2 3 4 5 6 7 8
16 0,7 41 -0,7 66 -1,8 91 0,2
17 1,3 42 2,2 67 1,1 92 1,1
18 2,2 43 0,1 68 0,5 93 -0,9
19 -1,8 44 1,2 69 0,2 94 -0,8
20 1,4 45 0,4 70 1,5 95 -1,8
21 1,1 46 5,0 71 1,2 96 1,2
22 3,1 47 0,3 72 0,2 97 2,2
23 -0,9 48 -1,9 73 1,2 98 -0,9
24 4,1 49 1,3 74 0,1 99 3,1
25 -1,8 50 -0,9 75 4,2 100 0,1

Проверить при уровне значимости   0,01 гипотезу Н 0 о том, что


отклонения от проектного размера подчиняются нормальному закону
распределения.
Решение. Случайную величину (отклонения от проектного размера)
обозначим через Х. Имеем Х min  2,5 ; Х max  5 . Область измерения
случайной величины Х равна 5 - (-2,5) = 7,5. В соответствии с (1.1) длина
интервала h = 1. Вариационный ряд приведён в таблице 6.7.

Таблица 6.7 – Вариационный ряд


x i  x i 1 -3  -2 -2  -1 -1  0 01 12 2 3 3 4 45
mi 3 10 15 24 25 13 7 3

Из анализа ряда распределения следует, что число наблюдений в


крайних интервалах меньше 5, поэтому их можно объединить с соседними. В
результате объединения получим следующий ряд распределения (таблица 6.8).
Таблица 6.8 – Объединенная таблица вариационного ряда
x i  x i 1 -3  -1 -1  0 01 12 23 35
mi 13 15 24 25 13 10

Для вычисления вероятностей рi необходимо предварительно


вычислить параметры, определяющие нормальный закон распределения. В
условии задачи ничего не сказано о математическом ожидании и дисперсии,
поэтому вычислим их оценки по выборке:

 
x  0,6 ; s 2  2,53 ; s  1,6

Теперь перейдем к расчету вероятностей p i (i  1,6) . Статистика P1


выражает вероятность тoгo, что случайная величина Х принимает значение,
принадлежащее интервалу (-3, -1), т. е.

  3  0,6  X    1  0,6 
P1  P(3  x  1)  P    
 1,6   1,6 

 1 / 2 (1,00)  1 / 2 (2,25)  1 / 2(2,25)  1 / 2 (1,00)  0,4800  0,3415  0,1465


Аналогично вычисляются статистики P1 , P2 , ... P6 . P2  0,1933 ;
P3  0,2467 ; P4  0,2119 ; P5  0,1226 ; P6  0,0638 .
Полученные результаты приведены в таблице 6.9.
Таблица 6.9 – Результаты вычислений
x i  x i 1 -3  -1 -1  0 01 12 23 35
mi 13 15 24 25 13 10
np i 14,64 29,33 24,67 21,19 12,26 6,38

Вычислим статистику  2 :

(13  14,64) 2 (14  19,33) 2 (24  24,67) 2 (24  24,67) 2 (25  21,19) 2
 
2
    
14,64 19,33 24,67 24,67 21,19

(13  12,26) 2 (10  6,38) 2


   5,53 .
12,26 6,38

Количество интервалов равно l = 6. По выборке рассчитано два


параметра: математическое ожидание и дисперсия, следовательно, r = 2.
Поэтому число степеней свободы k = (l – r – 1) = 6 – 2 – 1 - = 3. В таблице 7
приложений значениям   0,01 и k = 3 соответствует  32; 0,01  11,3 .

Имеем 11,3 > 5,53, следовательно, нет оснований отвергнуть


проверяемую гипотезу.
7 Выборочный метод

7.1 Статистическая теория выборочного метода

Теория статистического оценивания параметров и проверки гипотез


позволяет делать научно обоснованные выводы о всей генеральной
совокупности по выборке из нее. Но при рассмотрении этих вопросов нигде не
говорилось о том, как составлять выборку, чтобы она давала надежное
представление о всей генеральной совокупности. Естественно, что не всякая
выборка позволяет получить действительное представление о генеральной
совокупности. Приведем такой пример. Автомат изготовляет шарики.
Контролируется диаметр шарика. шарики упакованы в ящик в два ряда: в
нижнем ряду находятся шарики с диаметром 1,7см  D  2см , в верхнем -
1,5см  D  1,7см . Пусть требуется определить средний размер шарика в
партии по выборке. Поскольку выборка может быть произведена из шариков,
расположенных в верхнем ряду, то очевидно, что она не даст объективного
представления о всей партии.
Чтобы по данным выборки можно было с уверенностью судить об
интересующем признаке генеральной совокупности, выборка должна быть
представительной (репрезентативной).
Выборка является репрезентативной, если она образована случайно.
Существуют различные способы отбора. В зависимости от способа отбора
различают выборки следующих типов:
1) случайная выборка с возвратом,
2) случайная выборка без возврата,
3) механическая,
4) типическая,
5) серийная.
Рассмотрим образование случайных выборок с возвратом и без возврата.
Если выборка производится из массы изделий (например, из ящика), то после
тщательного перемешивания следует брать объекты случайно, т.е. так, чтобы
все они имели одинаковую вероятность попасть в выборку. Часто для
образования случайной выборки элементы генеральной совокупности
предварительно нумеруются, а каждый номер записывается на отдельной
карточке. В результате получается пачка карточек, число которых совпадает с
объемом генеральной совокупности. После тщательного перемешивания из
этой пачки берут по одной карточке. Объект, имеющий одинаковый номер с
карточкой, считается попавшим в выборку. При этом возможны два
принципиально различных способа образования выборочной совокупности.
Первый способ - вынутая карточка после фиксации ее номера
возвращается в пачку, после чего карточки снова тщательно перемешиваются.
Повторяя такие выборки по одной карточке, можно образовать выборочную
совокупность любого объема. Выборочная совокупность, образованная по
такой схеме, получила название случайной выборки с возвратом.
Второй способ - каждая вынутая карточка после записи ее номера
обратно не возвращается. Повторяя по такой схеме выборки по одной
карточке, можно получить выборочную совокупность любого заданного
объема. Выборочную совокупность, образованную по этому способу,
называют случайной выборкой без возврата. Случайная выборка без возврата
образуется в случае, если из тщательно перемешанной пачки сразу берут
нужное число карточек.
Однако, при большом объеме генеральной совокупности описанный
выше способ образования случайной выборки с возвратом и без возврата
оказывается очень трудоемким. В этом случае пользуются таблицами
случайных чисел, в которых числа расположены в случайном порядке. Для
того, чтобы отобрать, например, 50 объектов из пронумерованной генеральной
совокупности, открывают любую страницу таблицы случайных чисел и
выписывают подряд 50 чисел; в выборку попадают те объекты, номера
которых совпадают с выписанными случайными числами. Если случайное
число таблицы окажется больше объема генеральной совокупности, то такое
число не пропускают.
Заметим, что различие между случайными выборками с возвратом и без
возврата стирается, если они составляют незначительную часть большой
генеральной совокупности.
При механическом способе образования выборочной совокупности
подлежащие обследованию элементы генеральной совокупности отбираются
через определенный интервал. Так, например, если выборка должна
составлять 50% генеральной совокупности, то отбирается каждый второй
элемент генеральной совокупности. Если выборка десятипроцентная, то
отбирается каждый десятый элемент и т.д.
Следует отметить, что иногда механический отбор может не обеспечить
репрезентативности выборки. Например, если отбирается каждый двадцатый
обтачиваемый валик, причем сразу же после отбора производят замену резца,
то отобранными окажутся все валики, обточенные затупленными резцами. В
таком случае необходимо устранить совпадение ритма отбора с ритмом
замены резца, для чего следует отбирать хотя бы каждый десятый валик из
двадцати обточенных.
При большом количестве выпускаемой однородной продукции, когда в
ее изготовлении принимают участие различные станки и даже цеха, для
образования репрезентативной выборки пользуются типическим способом
отбора. В этом случае генеральную совокупность предварительно разбивают
на непересекающиеся группы. Затем из каждой группы по схеме случайной
выборки с возвратом или без возврата отбирают определенное число
элементов. Они и образуют выборочную совокупность, которая называется
типической.
Пусть, например, выборочным путем исследуется продукция
лекарственных средств, в которой имеется 10 видов продукции, производящих
одну и ту же марку. Пользуясь схемой случайной выборки с возвратом или без
возврата, отбирают изделия сначала из продукции, 1 вида, затем второго и т.д.
видах. Такой способ отбора позволяет образовать типическую выборку.
Иногда на практике бывают целесообразно пользоваться серийным
способом отбора, идея которого заключается в том, что генеральную
совокупность разбивают на некоторое количество непересекающихся серий и
по схеме случайной выборки с возвратом или без возврата контролируют все
элементы лишь отобранных серий. Например, если изделия изготовляются
большой группой станков-автоматов, то сплошному обследованию
подвергают продукцию только нескольких станков. Серийным отбором
пользуются в случае, если обследуемый признак колеблется в различных
сериях незначительно.
О том, какому способу отбора следует отдать предпочтение в той или
иной ситуации, следует судить, исходя из требований поставленной задачи и
условий производства. Заметим, что на практике при составлении выборки
часто используют одновременно несколько способов отбора в комплексе.

7.2 Оценка математического ожидания и дисперсии по случайной


выборке с возвратом и без возврата

Проанализируем формулы, позволяющие оценить математическое


ожидание и дисперсию по случайной выборке с возвратом и без возврата.
Сначала рассмотрим образование случайной выборки с возвратом. Этот
способ гарантирует один и тот же закон распределения случайной величины в
генеральной совокупности независимо от того, какой отбирается элемент:
первый, второй и т.д.
Элементы выборки X1 , X 2 , , X n можно рассматривать, как случайные
величины, а способ образования выборки позволяет сделать заключение о том,
что они независимы. Действительно, обозначим объем генеральной
совокупности через N. Тогда вероятность того, что X1 принимает конкретное
значение x1, равна P(X1  x1 )  1/N ; вероятность того, что Х2 принимает
значение x2, также равна P(Х 2  x 2 )  l/N и т. д. Следовательно, вероятность
события X i  х i не зависит от того, произошли ли события X1  x1 , X 2  x 2 и
т. д.
Поэтому на основании результатов, полученных в § 5.3, можно сделать
вывод о том, что средняя X  X1  X 2    X n  / n , рассчитанная по
элементам выборки, которая составлена по способу случайной выборки с
возвратом, является наилучшей (несмещенной, состоятельной и, в случае
нормального распределения случайной величины в генеральной
совокупности, эффективной) оценкой математического ожидания  с

дисперсией  2 / n , где  - математическое ожидание, а  2 - дисперсия


генеральной совокупности. В том случае, когда значение математического
ожидания неизвестно, для оценки генеральной дисперсии  2 по случайной
выборке с возвратом пользуются состоятельной и несмещенной оценкой ŝ 2 .
Пример 1. По схеме случайной выборки с возвратом обследован рост
625 мужчин. Определить с вероятностью 0,99 наибольшее отклонение
среднего роста мужчин в выборке от среднего роста мужчин в генеральной
совокупности, если распределение роста мужчин в генеральной совокупности
подчиняется нормальному закону распределения. Известно, что среднее
квадратическое отклонение роста мужчин в генеральной совокупности равно
6 см.
Решение. Используя тот факт, что случайная величина (рост мужчин)
подчиняется нормальному закону распределения, можно записать:
  
P X        .

 X 

Так как дисперсия средней арифметической в n раз меньше дисперсии


случайной величины, то
 2X   2 / n ,

или

 X   / n  6/625  6/25  0,24 .

Поэтому

 
P X       / 0,24  0,99 .

По таблице 2 приложений находим, что  z   0,99 при z=2,58.


Следовательно, /0,24  2,58 , откуда   2,58  0,24  0,62 см .
Таким образом, с вероятностью 0,99 можно утверждать, что средний
рост мужчин в выборке отличается от среднего роста мужчин в генеральной
совокупности не более, чем на 0,62 см.
Если производится случайная выборка без возврата, то элементы
X1 , X 2 , , X n уже нельзя считать независимыми.
Действительно, если обозначить объем генеральной совокупности через
N, то вероятность события X1  x1 равна P(X1  x1 )  1/N , а вероятность
события X 2  x 2 при условии, что элемент х1 уже отобран, равна
Px1 x 2 (X 2  x 2 )  1/ N - 1 , т. е. вероятность события X 2  x 2 меняется в
зависимости от тою, имеет место событие X1  x1 или пет. Однако, и в этом
случае можно доказать, что средняя арифметическая является несмещенной и
состоятельной оценкой математического ожидания, а ее дисперсия

Nn
DX    2 / n  (7.1)
N 1

Очевидно, если объем генеральной совокупности велик, а выборка


представляет лишь ее небольшую часть, то выражение N  n  / N  1  1 и
результаты оценки дисперсии по случайной выборке с возвратом и без
возврата мало отличаются между собой.
Пример 2. Из 4000 тонометров по схеме случайной выборки без
возврата было отобрано 200 тонометров, средняя продолжительность работы
которых оказалась равной 1250 ч. Какова вероятность того, что средний срок
службы тонометров, подчиняющийся нормальному закону распределения,
заключен в границах от 1220 до 1280 ч? Среднее квадратическое отклонение
генеральной совокупности принять равным 150 ч.
Решение. Имеем: N =4000; n =200; X =1250;  =150. Нас интересует
вероятность неравенства 1220    1280 . Рассмотрим ряд неравенств,
эквивалентных записанному: (1220 - 1250)  ( - X)  (1280 - 1250) , или
- 30  ( - X)  30 , или |  - X |  30 . Так как случайная величина подчиняется
нормальному закону распределения, то

 30 
 
P   X  30   .

 X 
Теперь необходимо вычислить  Х т.е. среднее квадратическое

2 N  n
отклонение средней арифметической. Так как  2X   , то
n N 1

 Nn 150 4000  200


Х     10,34 .
n N 1 200 4000  1

Тогда

P   X  30  
 30 
   2,90  0,9962
 10,34 

Если дисперсия генеральной совокупности неизвестна, то по случайной


выборке без возврата ее оценивают по формуле

N 1 2
s2   ŝ ,
N

где

n 2

 X i  X 
i 1
ŝ 
2
n 1

Однако, на практике дисперсию генеральной совокупности можно


оценивать и в этом случае выборочной дисперсией ŝ 2 , так как обычно объем
генеральной совокупности бывает велик и сомножитель (N - l)/N можно
принять равным единице.
7.3 Вычисление объема выборки

После того как для оценки интересующего параметра генеральной


совокупности обоснованно выбран способ образования выборки, приступают
к расчету необходимого объема выборки, задавшись желаемой степенью
точности оценки  и доверительной вероятностью (1 -  ) .
Рассмотрим задачу определения объема случайной выборки с возвратом
и случайной выборки без возврата для оценки математического ожидания по
выборочной средней.
Сначала остановимся на расчете объема случайной выборки с
возвратом. Если исследуемая случайная величина подчиняется нормальному
закону распределения и ее среднее квадратическое отклонение известно, то

  
 z p .

P X  z p     X  zp
 n n

Сообразуясь с потребностями конкретно решаемой задачи, выберем


доверительную вероятность 1     z p  и из таблицы 2 приложений для

заданной вероятности выпишем z p . Длина доверительного интервала, равная

      
 X  z p n    X  z p n   2z p n ,
   


определяет точность оцениваемого параметра. Если обозначить z p   ,то
n
по заданной точности  и найденному значению z p всегда можно вычислить

n . Действительно,
2
z 2p  2
n

Откуда

 
n  z 2p  2 / 2 . (7.2)

Пример 3. Каким должен быть объем случайной выборки для оценки


математического ожидания  , если известно, что половина доверительного
.интервала   0,5 , а доверительная вероятность р  1 -   0,95 ? Дисперсия

изучаемой случайной величины .  2  5 .


Решение. По таблице 2 приложений отыскиваем значение z р ,

соответствующее р=0,95. Имеем z 0,95  1,96 . Подставляя в формулу (7.2)

исходные данные, получим

n  (1,962  5)/0,52  76,8  77 .

Следовательно, для заданной доверительной вероятности и точности


оценки объем выборки должен составлять не менее 77 наблюдений.
Если вычисленный объем n выборки слишком велик по сравнению с
практически имеющимися возможностями, то его можно снизить, либо
уменьшив доверительную вероятность, либо увеличив доверительный
интервал.
Если р = 0,8064 , то по таблице 2 приложений находим Z 0,8064  1,30 ,

тогда:
n = (1,30 2  5)/0,52 = 33,8  34 .

Если среднее квадратическое отклонение  случайной величины X ,


подчиняющейся нормальному закону распределения, неизвестно, то
предварительно берут небольшую пробную выборку и по ее данным делают

приближенную оценку параметра  . Эту оценку подставляют затем в


2

формулу (7.2), которая в этом случае принимает вид:

t 2n ,p  ŝ 2
n , (7.2)
2

где ŝ 2 - выборочная дисперсия пробной выборки; t n,p - число, взятое из табл. 6

приложений, соответствующее вероятности р и числу наблюдений n .


Пусть теперь выборка, отбираемая для определения средней, является
случайной выборкой без возврата. Если исследуемая случайная величина
подчиняется нормальному закону распределении, то можно записать

PX  z p  X    X  z p  X   z p 

Как и прежде, сообразуясь с условиями конкретной задачи, выберем


доверительную вероятность 1     z p  и по таблице 2 приложений для

заданной вероятности находим z p .

Если дисперсия  2 генеральной совокупности известна, то

2 N  n
 2X   ,
n N 1
и доверительный интервал для математического ожидания можно записать в
виде

2 N  n 2 N  n
X  zp     X  zp 
n N 1 n N 1

В данном случае

2 N  n
 
2
z 2p  
n N 1

Откуда

n N  12  z 2p  2 N  n 2 z 2p

или

Nz 2p  2
n . (7.3)
N  12  z 2p  2

Очевидно, при N   следует пользоваться формулой n  z 2p  2 / 2 ,  


так как

Nz 2p  2 z 2p z 2p  2
lim  lim  .
N N  12  z 2p  2 N
N 1 2 z 2p  2 2
 
N N
Пример 4. Определить необходимый объем случайной выборки без
возврата для определения средней продолжительности работы тонометров в
партии из 5000 штук, чтобы с вероятностью 0,99 предельная ошибка выборки
не превышала 25 ч. Генеральное среднее квадратическое отклонение принять
равным 150 ч.
Решение. По формуле (7.3) при N = 5000 , z 0,99 = 2,58 ;  = 150 ;  = 25

найдем

5000  2,582  1502


n  228,7  229 .
4999  252  2,582  1502

Теперь решим вопрос о том, какая из двух выборок (случайная выборка


с возвратом или без возврата) требует при заданном доверительном интервале
2 и доверительной вероятности р = 1 -  большего количества наблюдений
в выборке. Обозначим через n ' количество элементов случайной выборки без
возврата. Таким образом, необходимо сравнить две формулы:

Nz 2p  2 z 2p  2
n'  и n (7.4)
N  12  z 2p  2 2

 
Заметим, что1 / n  2 / z 2p  2 . Преобразуем формулу для вычисления n '

, для чего числитель и знаменатель дроби разделим на 2 . Тогда получим

1 1 Nn
n'    (7.5)
N  1 2 z 2p  2 N  1 1 1 N  n  1
   
N z 2p  2 Nz 2p  2 N n N
Как известно, значение дроби увеличится, если уменьшить ее
знаменатель. Так как n  1 , то n  1  0 , поэтому дробь не уменьшится, если
отбросить в знаменателе выражение (n - 1) , следовательно,

n'  (N  n)/N  n .

Таким образом, n '  n , т. е. объем случайной выборки с возвратом не


меньше объема случайной выборки без возврата.
Пример 5. Определить необходимый объем случайной выборки с
возвратом и случайной выборки без возврата для оценки средней длины
таблеток в партии, состоящей из 8000 таблеток, если в качестве доверительной
вероятности выбрана р = 0,92 , доверительный интервал 2 = 0,04 , дисперсия

 2 = 0,25 .

Решение. Имеем: N = 8000 ; z 0,92 = 1,75 ;  = 0,02 ;  2 = 0,25 . По формуле

(7.4) находим
1,752  0,25
n  1914 .
0,022

Значение n' вычисляем по формуле (7.5):

8000  1914
n'   1545
8000  1913

Итак, объем случайной выборки с возвратом получился больше, чем


объем случайной выборки без возврата (1914 > 1545) .
8 Основы дисперсионного анализа

8.1 Общая идея дисперсионного анализа

Дисперсионный анализ - это статистический метод анализа результатов


наблюдений, зависящих от различных, одновременно действующих факторов,
выбор наиболее важных факторов и оценка их влияния.
Дисперсионный анализ находит применение в различных областях
науки и техники. В настоящей главе рассматриваются некоторые простейшие
методы дисперсионного анализа. Идея дисперсионного анализа заключается в
разложении общей дисперсии случайной величины на независимые
случайные слагаемые, каждое из которых характеризует влияние того или
иного фактора или их взаимодействия. Последующее сравнение этих
дисперсий позволяет оценить существенность влияния факторов на
исследуемую величину. Пусть, например, X - исследуемая величина; А и В -
влияющие на нее факторы; х - среднее значение величины X . Допустим, что
отклонение X от х при действии факторов А и В на исследуемую величину
можно представить в виде суммы

X  x        ,

где  - отклонение, вызываемое фактором А ;  - отклонение, вызываемое


фактором В ;  - отклонение, вызываемое различными другими неучтенными
и случайными факторами.
Кроме того предположим, что  ,  и  являются независимыми
случайными величинами. Обозначим дисперсии величин X ,  ,  , 

соответственно через  2X ,  2 , 2 ,  2 . Тогда имеет место равенство


 2X   2  2   2

Здесь  2 - остаточная дисперсия, учитывающая влияние неучтенных

или случайных факторов.


Сравнивая  2 или 2 с  2 , можно установить степень влияния факторов

А и В на величину X по сравнению с неучтенными факторами, сравнивая

 2 и 2 между собой, - сравнительное влияние факторов А и В на X .

Дисперсионный анализ позволяет на основании выборочных данных


определить значения  2 , 2 и  2 , а так же, используя соответствующие

критерии, оценить существенность их влияния на исследуемую величину.


Если исследуется влияние одного фактора на исследуемую величину, то
речь идет об однофакторной классификации или однофакторном комплексе.
Если изучается влияние двух факторов, то речь идет о двухфакторной
классификации или двухфакторном комплексе и т. д.
В дальнейшем предполагается, что совокупности случайных величин
имеют нормальное распределение и равные дисперсии.

8.2 Однофакторный комплекс

На практике возможен случай, когда на автоматической линии


несколько станков параллельно выполняют некоторую операцию. Для
правильного планирования последующей обработки важно знать, насколько
однотипными являются средние размеры деталей, получаемых на параллельно
работающих станках. Здесь имеет место лишь один фактор, влияющий на
размеры деталей, - станки, на которых они изготавливаются. Исследователя
интересует, существенно ли влияние этого фактора на размеры деталей? Ответ
на этот вопрос можно получить, сравнивая средние по каждому станку
размеры деталей между собой и оценки существенности разницы этих
средних. Предположим, что совокупности размеров деталей имеют
нормальное распределение и равные дисперсии. Имеется m таких
совокупностей, из которых произведены выборки объемом n1 , n 2 ,  , n i ,  , n m
. Обозначим выборку из i-й совокупности x i1 , x i 2 ,  , x in . Тогда все выборки
можно записать в виде следующей таблицы, которая называется матрицей
наблюдений.

Таблица 8.1 - Выборки


Количество элементов
совокупности (n)
1 2 … j … n
Количество
совокупностей (m)
1 x11 x12 … x1j … x1n1
2 x21 x22 … x2j … x2n2
…… … … … … … …
i xi1 xi2 … xij … xini
…… … … … … … …
m xm1 xm2 … xmj … xmnm

Средние этих выборок обозначим через 1 ,  2 ,  , i ,  ,  m . Теперь


проверим гипотезу о равенстве этих средних. Нулевую гипотезу запишем так:

H 0 : 1   2    i     m ;

альтернативную - в виде

H1 : 1   2    i     m .
Гипотеза Н0 проверяется сравнением внутригрупповых и
межгрупповых дисперсий по F-критерию. Если расхождение между ними
незначительно, то нулевая гипотеза принимается. В противном случае
гипотеза о равенстве средних отвергается и делается заключение о том, что
различие в средних обусловлено не только случайностями выборок, но и
действием исследуемого фактора.
Рассмотрим структуру межгрупповой и внутригрупповой дисперсии и
способ их вычисления. Вернемся к табл. 8.1. Найдем средние арифметические
членов каждой совокупности. Для первой совокупности обозначим среднюю
арифметическую через x1* , для i-й - через x i* . Тогда имеем

n1 ni nm

 x1 j  x ij  x mj
j1 j1 j1
x i*  ; x ij  ; x mj  .
n1 ni nm

Общую среднюю арифметическую всех m совокупностей обозначим


через x :

1 m n
x  x ij ,
mn i1 j1

или

1 m
x  x i* .
m i1
 x ij  x 2 .
m n
Найдем сумму квадратов отклонений x ij от x , т. е.
i 1 j1

Представим ее в виде

Q   x ij  x    x ij  x i*  x i*  x  
m n m n
2 2

i 1 j1 i 1 j1

  x ij  x i*    x i*  x  
m n m n
2
(8.1)
i 1 j1 i 1 j1

 2 x ij  x i* x i*  x 
m n

i 1 j1

причем

S   x ij  x i* x i*  x  
m n

i 1 j1

  x ij  x i*  x i*  x 
n m

j1 i 1

 x ij  x i*   0 ,
n
Но так как это есть сумма отклонений переменных
j1

одной совокупности от средней арифметической этой же совокупности, т.е.


S  0 . Второй член суммы (8.1) запишем в виде

m n m
 x i*  x 2  n  x i*  x 2 .
i 1 j1 i 1

Тогда основное тождество (8.1) можно представить следующим


образом:
 x ij  x 
 n  x i*  x    x ij  x i*  ,
m n m m n
2 2 2

 i
i 1 j1 1   i 1 j1

Q Q1 Q2

или

Q  Q1  Q 2 (8.2)

Слагаемое Q1 является суммой квадратов разностей между средними


отдельных совокупностей и общей средней всей совокупности наблюдений;
эта сумма называется суммой квадратов отклонений между группами и
характеризует систематическое расхождение между совокупностями
наблюдений. Величину Q1 называют иногда рассеиванием по факторам (т. е.
за счет исследуемого фактора).
Слагаемое Q 2 представляет собой сумму квадратов разностей между
отдельными наблюдениями и средней соответствующей совокупности; эта
сумма называется суммой квадратов отклонений внутри группы. Она
характеризует остаточное рассеивание случайных погрешностей
совокупностей.
Наконец, Q называется общей или полной суммой квадратов
отклонений отдельных наблюдений от общей средней х .

Оценим дисперсии s12 , s 22 , s 2 :

1 m
s12   x i*  x 2  Q1 ,
m  1 i1 m 1

x ij  x i* 2  Q 2 ,
m n
1
s 22  
mn  1 i1 j1 mn  1
x ij  x 2 .
m n
1
s 
2

mn  1 i1 j1

Затем произведем оценку различия между дисперсиями s12 и s 22 по F-


критерию:

Q1 / m  1
F . (8.3)
Q 2 / mn  1

Этот критерий подчиняется F-распределению с k1  m  1 и


k 2  mn  1 степенями свободы. Выбирая уровень значимости  , найдем по
таблице 5 приложений соответствующий предел так, чтобы

PF  F    .

Сравнивая между собой межгрупповую и остаточную дисперсии, по


величине их отношения судят, насколько сильно проявляется влияние
факторов (в этом сравнении и заключается основная идея дисперсионного
анализа).
Однофакторный дисперсионный анализ удобно представить в виде
таблицы (таблица 8.2).
Таблица 8.2 - Однофакторный дисперсионный анализ
Число
Компоненты Сумма степеней Оценка
Средний квадрат
дисперсии квадратов свободы дисперсий
k
Межгрупповая  x i*  x 2 m 1 1
 x i*  x 2 s12
i m 1 i
Внутригрупповая  x ij  x i* 2 mn  1 1
 s 22
ij mn  1
  x ij  x i* 
2

ij

Полная (общая)  x ij  x 2 mn  1 1

ij mn  1
  x ij  x 
2

ij

Пример построения однофакторного комплекса. Пусть имеются


четыре партии сырья для текстильной промышленности для производства
медицинской спец. одежды. Из каждой партии отобрано по пять образцов и
проведены испытания на определение величины разрывной нагрузки.
Результаты испытаний приведены в таблице 8.3.
Требуется выяснить, существенно ли влияние различных партий сырья
на величину разрывной нагрузки.
Решение. В нашем случае m  4, n  5 . Вычисляем среднюю
арифметическую каждой строки по формуле

1 n
x i*   x ij .
n j1
Имеем: x1*  164 ; x 2*  170 ; x 3*  202 ; x 4*  164 .

Таблица 8.3 – Значения разрывной нагрузки в зависимости от номера


партии
Номер партии Разрывная нагрузка
1 200 140 170 145 165
2 190 150 210 150 150
3 230 190 200 190 200
4 150 170 150 170 180

Найдем среднюю арифметическую всех совокупностей:

m n 
x    x ij  / mn   3500 / 20  175 .
 
 i1 j1 

Вычислим величины, необходимые для построения таблицы 8.2:


1) сумму квадратов отклонений между группами Q1 с k1 = (m - 1)
степенями свободы:

4
Q1  5   x i*  x   5  996; k 1  4  1  3 ;
i 1

2) сумму квадратов отклонений внутри группы Q 2 с k 2  mn  m 


степенями свободы:

Q 2   x ij  x i*   7270; k 2  20  4  16 ;
4 5
2

i 1 j1
3) полную сумму квадратов Q с k  mn  1 степенями свободы:

Q   x ij  x   12250; k  20  1  19 .
4 5
2

i 1 j1

По расчетным значениям составляем таблицу (таблица 8.4).

Таблица 8.4 – Значения параметров однофакторного дисперсионного


анализа
Компоненты Суммы Число степеней Средний
дисперсии квадратов свободы квадрат
Межгрупповая 4980 3 1660,0
Внутригрупповая 7270 16 454,4
Полная 12250 19 644,7

По таблице 5. приложений находим значение F при k 2  16 и k1  3


степенях свободы и уровне значимости  = 0,01 . Табличное значение F =9,01.
Вычисленное значение F меньше табличного, поэтому можно утверждать, что
нулевая гипотеза не отвергается, а это значит, что различие между сырьем в
партиях не влияет на величину разрывной нагрузки.
Следует осторожно подходить к истолкованию окончательных
результатов, так как они предполагают нормальную плотность и
тождественность дисперсий. Каждое из допущений требует проверки,
основанной на тщательном анализе проведенных экспериментов, или, если
расхождение между средними незначимо и нулевая гипотеза получила
подтверждение, то следует помнить, что это справедливо только в данном
конкретном случае.
8.3. Двухфакторный комплекс

Если исследуют действие двух, грех и т.д. факторов, то структура


дисперсионного анализа та же, что и при однофакторном анализе,
усложняются лишь вычисления. Рассмотрим задачу оценки действия двух
одновременно действующих факторов. Предположим, что имеется несколько
однотипных станков и несколько видов сырья. Требуется выяснить, значимо
ли влияние различных станков и качество сырья в партиях на качество
обрабатываемых деталей. Это типичная задача двухфакторного
дисперсионного анализа. Пусть фактор А - влияние станков; фактор В -
влияние качества сырья в партиях. Размер обрабатываемой детали обозначим
через x ij . Для простоты рассмотрим сначала случай, когда для каждого станка

и каждой партии сырья имеется лишь одно наблюдение. Тогда матрицу


наблюдений можно записать в виде таблицы (таблица 8.5).

Таблица 8.5 – Матрица наблюдений


Партии сырья (j) B1 B2 … B j … Bv x i*
Ставки (i)
A1 x11 x12 … … … x1v x i*

A2 x 21 x 22 … … … x 2 v x 2*

… … … …
… … … …
Ai x ij


Ar x r1 x r2 … … … x rv x r*
x *j x *1 x *2 … … … x *v x
Пусть имеется r A1 , A 2 ,  , A i ,  , A r  станков. В матрице наблюдений
им соответствуют r строк, которые назовем уровнями фактора A . Имеем
vB1 ,  , B j ,  , B v  партий сырья. В матрице им соответствуют v столбцов,

которые назовем уровнями фактора B .


Пересечение i -го и j -го уровней образует ij -ячейку, в которую
записываются наблюдения, полученные при одновременном исследовании
факторов A и B на i -м и j -м уровнях соответственно.
По каждому столбцу и строке вычислим среднее значение, а также
общее среднее. Величины x i* , x * j и x вычисляются следующим образом:

1 v 1 r
x i*   x ij , x * j   x i j ,
v j1 r i1

1 r v
x    x ij .
rv i1 j1

Основное тождество однофакторного анализа в данном случае


принимает вид:

Q   x ij  x    x ij  x i*  x * j  x  x i*  x  x * j  x  
r v r v
2 2

i 1 j1 i 1 j1

 v x i*  x   r  x * j  x    x ij  x i*  x * j  x  
r v r v
2 2 2
(8.4)
i 
1
  j1

 i 1 j1

Q1 Q2 Q3

 Q1  Q 2  Q 3

Слагаемое Q1 представляем собой сумму квадратов разностей между


средними по строкам и общим средним и характеризует изменение признака
по фактору A . Слагаемое Q 2 представляет собой сумму квадратов разностей
между средними по столбцам и общим средним и характеризует изменение
признака по фактору B . Слагаемое Q 3 называется остаточной суммой
квадратов и характеризует влияние неучтенных факторов. Сумма Q
называется общей или полной суммой квадратов отклонений отдельных
наблюдений от общей средней.
Произведем оценку дисперсий:

s2 
1 r v
  x ij  x 2  Q , (8.5)
rv  1 i1 j1 rv  1
r
1 Q
 v x i*  x   1 ,
2
s12 (8.6)
r  1 i1 r 1

При преобразовании тождества (8.4) к выражению в скобках прибавили


и отняли x i* , x * j и х

r  x * j  x   2 ,
v
1 Q

2
s 22 (8.7)
v  1 j1 v 1

x 
r v
1
r  1v  1 
s 32  ij  x i*  x * j  x 
i 1 j1
(8.8)
Q3

r  1v  1

В двухфакторном анализе для выяснения значимости влияния факторов


A и B на исследуемый признак сравнивают дисперсии по факторам с

остаточной дисперсией, т.е. оценивают отношения s12 / s 32 и s 22 / s 32 .


Известно, что если случайная величина распределена нормально, то
отношение выборочных дисперсий имеет F-распределение. Поскольку
нормальный закон распределения случайной величины является
предпосылкой дисперсионного анализа, то имеем

Q1 / r  1 s12
FA   ,
Q 3 / r  1v  1 s 32

Q 2 / v  1 s2
FB   22 .
Q 3 / r  1v  1 s 3

Полученные значения FA и FB сравнивают с табличными значениями


при выбранном уровне значимости  . При FA  F и FB < F пулевая гипотеза
о равенстве средних не отвергается, т.е. влияние факторов A и B на
исследуемый признак незначимо.
Двухфакторный дисперсионный анализ удобно представить в виде
таблицы (таблица 8.6).
Рассмотрим на примере построение двухфакторного комплекса с одним
наблюдением в ячейке. Имеем три уровня фактора В : B1 В 2 и В3 и два уровня
фактора A : A1 и A 2 (таблица 8.7)

Таблица 8.6 - Двухфакторный дисперсионный анализ


Число
Компонента Оценки
Сумма квадратов степеней
дисперсий дисперсий
свободы
Между r r 1 s12
Q1  v x i*  x 
2

средними по i 1

строкам
Между v 1
Q 2  r  x * j  x 
v
2 s 22
средними по j1

столбцам
Остаточная r  1v  1
Q 3   x ij  x i*  x * j  x 
r v
2 s 32
i 1 j1

Полная rv  1
Q    x ij  x 
r v
2 s2
(общая) i 1 j1

Таблица 8.7 – Матрица наблюдений


B B1 B2 B3 x i*
A
A1 1 2 3 2
A2 5 6 10 7
x *j 3 4 6,5 4,5

Для данного комплекса r  2 , v = 3 , n  r  v = 6 . В нижней строке


таблицы 8.7 и в правом крайнем столбце приведены средние значения по
строкам и столбцам, т. е. по уровням факторов. Так, среднее по уровню
фактора B1 равно x *1  1  5 / 2  3 ; среднее по уровню фактора A1 равно
x1*  1  2  3 / 3  2 . Общее среднее x  4,5 . По формуле 8.4 вычислим
суммы квадратов:

  
Q1  3 2  4,5  7  4,5  3  2,5  2,52  37,5 ;
2 2 2


Q 2  2 3  4,5  4  4,5  6,5  4,5  13 ;
2 2 2

Q 3  1  2  3  4,5  2  2  4  4,5 
2 2

 3  2  6,5  4,5  5  7  3  4,5 


2 2

 6  7  4  4,5  10  7  6,5  4,5  3;


2 2

Q  37,5  13,0  3,0  53,5 .


Для нахождения оценок дисперсий воспользуемся формулами (8.5)-
(8.8):

s12  37,5 / 1  37,5 ; s 22  13 / 2  6,5 ; s 32  3 / 1  1,5 .

Теперь таблицу 8.6 можно записать в следующем виде.

Таблица 8.8 – Значение параметров двухфакторного дисперсионного


анализа
Сумма Число степеней Оценка
Компонента дисперсий
квадратов свободы дисперсий
Между средними по 37,5 1 37,5
строкам (фактор А)
Между средними по 13,0 2 6,5
столбцам
Остаточная 3,0 2 1,5
Полная 53,5 5 10,7

Вычисляем FA и FB :

FA  s12 / s 32  37,5 / 1,5  25 ,

FB  s 22 / s 32  6,5 / 1,5  4,3 .

Для уровня значимости   0,05 и k 2  1 степеней свободы по таблице


5 приложений находим значение F :

F A   18,51 , FA  25 ,
F B   19,0 , FB  4,3 .

Сравнивая табличные значения с вычисленными, имеем

FA  F A  ; FB  F B  .

Полученные результаты позволяют сделать следующие выводы: нулевая


гипотеза о равенстве средних по строкам не подтверждается, т. е. влияние
фактора A на исследуемый признак значимо: нулевая гипотеза о равенстве
средних по столбцам не опровергается, т.е. влияние фактора B на
исследуемый признак незначимо.
При одном наблюдении в ячейке схема вычислений довольно проста,
однако, в этом случае достоверность выводов, полученных на основании
проведенного анализа, недостаточна. Поэтому при решении практических
задач желательно иметь несколько наблюдений в одной ячейке. В этом случае
вычисления усложняются, однако, выводы получаются более достоверными.
Рассмотрим схему двухфакторного дисперсионного анализа с
несколькими (но равным количеством) наблюдениями в каждой ячейке.
Случай двухфакторною анализа (или двухфакторного комплекса) с
равным числом наблюдений в каждой ячейке является частным случаем
пропорционального комплекса. Пропорциональным называется такой
комплекс, в котором количества наблюдений в ячейках любых двух, строк или
столбцов пропорциональны. Пропорциональный, а также комплекс с равным
числом наблюдений в ячейке, всегда ортогональны. Ортогональность не
связана с предположениями нормальности и определяется только числом
наблюдений в ячейке. Матрицу наблюдений можно представить в виде
таблицы (таблица 8.9).
Таблица 8.9 – Матрица наблюдений
B
A B1 B2 … Bv x i**
A1 x11* x12* x1v*
x111 , x112 x121 , x122 ,..., x12 k … x1v1 , x1v 2 , x1**
..., x11k … ..., x1vk

A2 x 21* x 22* x 2 v*
x 211 , x 212 , x 221 , x 222 , … x 2 v1 , x 2 v 2 , x 2**
..., x 21k ..., x 22 k ..., x 2 vk
x ij*
… … … x ij1 , x ij 2 , … x i**
..., x ijk

Ar x r1* x r 2* x rv*
x r11 , x r12 , x r 21 , x r 22 , … x rv1 , x rv 2 , x r**
..., x r1k ..., x r 2 k ..., x rvk
x * j* x *1* x *2* … x * v* x

Здесь x111 , x112 ,  , x rvk - наблюдавшиеся значения исследуемого


признака;

1 k
x ij*   x ijk - среднее значение в ячейке;
k 1

1 v
x i**   x ij* - среднее значение по строке;
v j1

1 r
x * j*   x ij* - среднее значение по столбцу; (8.9)
r i1

1 r v
x   x ij* - общее среднее.
rv i1 j1
Здесь r - число уровней фактора A; v - число уровней фактора В.
Порядок проведения дисперсионного анализа в этом случае такой же,
как и прежде: сначала вычисляют суммы квадратов, оценки дисперсий, затем
отношение дисперсий F сравнивают с табличным.
Схема анализа и порядок вычисления сумм приведены в таблице 8.10.
Как видно из таблицы 8.10, в схеме анализа появляется новая сумма
квадратов Q 4 и несколько меняется структура суммы Q 3 (вместо x ijk берется

x ij* ). Появление суммы Q 4 обусловлено наличием нескольких наблюдений в

ячейке. В предыдущей схеме (таблица 8.6) эта сумма отсутствовала, так как
при одном наблюдении в ячейке разность ( x ijk  x ij* ) равна нулю.

Сумма Q 4 характеризует влияние прочих случайных факторов (кроме


факторов А, В и их взаимодействия), поэтому для определения значимости
влияния факторов А и В величину дисперсии, обусловленную влиянием этих
факторов, сравнивают с дисперсией, обусловленной влиянием прочих
факторов. При этом вычисляют следующие отношения дисперсий:

FA  s12 / s 24 , FB  s 22 / s 24 .

Вычисленные значения сравнивают с табличными значениями F ,


которые получены для заданного уровня значимости и соответствующего
числа степеней свободы.
Таблица 8.10 - Схема анализа и порядок вычисления сумм
Компонента Суммы квадратов Число Оценки
дисперсий степеней дисперси
свободы й
Между r v 1 s12
Q1  vk  x i**  x 
2

средними по i 1

строкам (по
фактору А)
Между r 1
Q 2  rk  x * j*  x 
v
2 s 22
средними по j1

столбцам (по
фактору В)
Взаимодействи v  1r  1
Q 3  k  x ij*  x i**  x * j*  x 
r v
2 s 32
е i 1 j1

Остаточная rvk  1
Q 4   x ijk  x ij* 
r v k
2 s 24
i 1 j1 1

Полная сумма rvk  1


Q     x ijk  x 
r v k
2 s2
квадратов i 1 j1 1

Рассмотрим пример построения двухфакторного комплекса по


приведенной схеме. В текстильной промышленности важным является
выявление факторов, влияющих на качество пряжи, с тем, чтобы в
дальнейшем их было можно регулировать. В таблице 8.11 приведены данные
о величине разрывной нагрузки в зависимости от наладки машины и партии
сырья.
При каждом уровне наладки машины исследовано по пять образцов из
каждой партии сырья для определения разрывной нагрузки. Требуется
выяснить, значимо ли влияют наладка машины и партии сырья на величину
разрывной нагрузки.
По формуле (8.9) определяем средние значения, Таблица 8.11
преобразуется к следующему виду

Таблица 8.11 – Матрица зависимости партии сырья от уровня укладки


машины
Партии
сырья (В) В1 В2
Уровень
накладки машины (А)
А1 190 260 170 170 170 190 150 210 150 150
А2 150 250 220 140 180 230 190 200 190 200
А3 190 185 135 195 195 150 170 150 170 180

Таблица 8.12 –Матрица зависимости партии сырья от уровня укладки


машины
Партии сырья
(В) B1 B2 x i**
Уровень
yкладки машины (А)
A1 x11*  192 x12*  170 x1**  181,0
A2 x 21*  188 x 22*  202 x 2**  195,0
A3 x 31*  180 x 32*  164 x 3**  172,0
x * j* x *1*  186,7 x *2*  178,7 182,7

Находим суммы квадратов (таблица 8.10):


Q1  2686,6; Q 2  480; Q3  1860; Q 4  22360;
Q  2686,7  480  1860  22360  27386,7

Вычисляем оценки дисперсий:


s12  Q1 / v  1  2686,7 / 2  1  2686,7 ;

s 22  Q 2 r  1  480 / 3  1  240 ;

s 32  Q 3 /v  1r  1  860 / 1  2  930 ;

s 2  vrk  1  27386,7 / 2  3  5  1  944,4 ;

s 24  Q 4 /vr k  1  22360 / 2  3  4  931,7 .

Таблица 8.10 в нашем случае преобразуется к следующему виду:

Таблица 8.13 - Значение параметров двухфакторного дисперсионного


анализа
Компонента Суммы Число степеней Оценка
дисперсии квадратов свободы дисперсии
Между средними 2686,7 1 2686,7
по строкам (по
фактору А)
Между средними 480 1 240
по столбцам (по
фактору В)
Взаимодействие 1860 2 930
Остаточная 22360 24 931,7
Полная 27386,7 29 944,4

Вычисляем отношения дисперсий:


FA  2686,7 / 931,7  2,88; FB  240 / 931,7  0,26 .

При уровне значимости   0,05 , k 4  24 и k1  1степенями свободы для


FA и k 2  24 , k 2  2 степенями свободы для FB находим следующие
табличные значения: F A   4,26; F B   3,40. Сравнивая табличные значения

с вычисленными, имеем

FA  F A  ; FB  FA B  .

Следовательно, нулевая гипотеза о равенстве средних не отвергается,


т.е. влияние фактора А (уровня наладки машины) и фактора В (партии сырья)
на величину разрывной нагрузки незначимо.
В тех случаях, когда каждый последующий фактор сгруппирован внутри
предыдущего, имеем дело с многофакторным комплексом. Рассмотрим
четырехфакторный комплекс. Пусть имеется четыре типа изоляционного
покрытия (фактор А); два уровня температуры (фактор В); два уровня
давления, при которых изготавливается покрытие (фактор С) и четыре
стальные панели, имеющие данное покрытие (фактор D). В случае одного
наблюдения в ячейке матрица наблюдений имеет вид:
Таблица 8.14 – Матрица значений
Факт 1 2 3 4
ор А
Факт 1 2 1 2 1 2 1 2
ор В
Факт 1 2 1 2 1 2 1 2 1 2 1 2 1 2 1 2
ор С
Фа 1 x 1111x 1121x 1211x 1221x 2111x 2121x 2211x 2221x 3111x 3121x 3211x 3221x 4111x 4121x 4211x 4221
кто 2 x 1112x 1122x 1212x 1222x 2112x 2122x 2212x 2222x 3112x 3122x 3212x 3222 x 4112x 4122x 4212x 4222
р 3 x 1113x 1123x 1213x 1223x 2113x 2123x 2213x 2223x 3113x 3123x 3213x 3223x 4113x 4123x 4213x 4223
D
4 x 1114x 1124x 1214x 1224x 2114x 2124x 2114x 2224x 3114x 3124x 3214 x 3224x 4114x 4124x 4214x 4224

Идея разложения общей дисперсии на составляющие остается прежней,


однако, схема такого комплекса довольно громоздка. Действительно, в этом
случае общая дисперсия раскладывается на 2 р (р - порядок комплекса; в
данном случае р=4) составляющих, которые определяют эффекты действия р
факторов, их двух-, трех- и четырехфакторных взаимодействий (в общем
случае кончая р-факторным взаимодействием).
В случае четырехфакторного комплекса имеем

Q общ  Q A  Q B  Q C  Q D  Q AB  Q AC  Q AD  Q BC 
 Q BD  Q CD  Q ABC  Q ABD  Q BCD  Q ABCD

Более детально познакомиться с методами многофакторного


дисперсионного анализа можно в более полных курсах теории вероятностей и
математической статистики.
8.4. Дисперсионный анализ с неравным числом наблюдений в
ячейке

В предыдущих подпунктах лекции рассматривались схемы


дисперсионного анализа, когда в ячейках матрицы наблюдений находилось
одинаковое число наблюдений. В рассмотренных случаях проверка гипотез о
действии исследуемых факторов и их взаимодействии на результирующий
признак сводилась к достаточно простым вычислительным схемам.
Однако в матрице наблюдений может оказаться неодинаковое
количество, наблюдений в ячейках, а некоторые ячейки вообще могут быть
пустыми. Предположим, например, что на текстильной фабрике необходимо
определить влияние качества сырья в партиях (фактор A) и состояния машин
(фактор В) на механические свойства пряжи, а именно на удлинение
(результирующий признак х). Было взято три партии пряжи (три уровня
фактора А) и пять машин (пять уровней фактора В), причем в каждую ячейку
решено записать по пять наблюдений. Планируемая матрица наблюдений
должна иметь следующий вид (таблица 8.15):

Таблица 8.15 – Планируемая матрица наблюдений


B
1 2 3 4 5
A
x111, x112, x121, x122, x131, x132, x141, x142, x151, x152,
x113, x114, x123, x124, x133, x134, x143, x144, x153, x154,
I
x115 x125 x135 x145 x155
(1,1) (2,2) (1,3) (1,4) (1,5)
x211, x212, x221, x222, x231, x232, x241, x242, x251, x252,
II x213, x214, x223, x224, x233, x234, x243, x244, x253, x254,
x215 x225 x235 x245 x255
(2,1) (2,2) (2,3) (2,4) (2,5)
x311, x312, x321, x322, x331, x332, x341, x342, x351, x352,
x313, x314, x323, x324, x333, x334, x343, x344, x353, x354,
III
x315 x325 x335 x345 x355
(3,1) (3,2) (3,3) (3,4) (3,5)

Однако оказалось, что вторая машина испортилась при обработке


первой партии сырья, а третья машина на некоторое время была остановлена
для профилактического осмотра. В результате ячейка с индексом (1.2)
осталась пустой, а для заполнения ячейки (1.3) получено лишь три наблюдения
из пяти запланированных, поскольку первая партия сырья была израсходована
и получить недостающую информацию оказалось невозможным.
Аналогичные ситуации возникли при обработке второй и третьей партий
сырья, поэтому в результате эксперимента получили следующую матрицу
наблюдений (таблица 8.16):

Таблица 8.16 – Значения результатов эксперимента


B
1 2 3 4 5
A
x111, x112, x141, x142, x151, x152,
x131, x132,
x113, x114, 0 x143, x144, x153, x154,
I x133
x115 (1,2) x145 x155
(1,3)
(1,1) (1,4) (1,5)
x211, x212, x221, x222, x231, x232,
x241, x242,
x213, x214, x223, x224, x233, x234, 0
II x243
x215 x225 x235 (2,5)
(2,4)
(2,1) (2,2) (2,3)
III x311, x312, x321, x322, x331, x332, x341, x342 x351, x352
x313, x314, x323, x324, x333 (3,4) (3,5)
x315 x325 (3,3)
(3,1) (3,2)

Для того, чтобы при обработке матрицы наблюдений можно было


воспользоваться уже известными схемами, необходимо вычеркнуть из нее
столбцы, в которых встречаются пустые ячейки, и ячейки с числом
наблюдений меньшим пяти, что невозможно, так как в этом случае получается
матрица, не позволяющая решить поставленную задачу.

Таблица 8.17 – Матрица значений


B
1
A
I x111, x112, x113, x114, x115
II x211, x212, x213, x214, x215
III x311, x312, x313, x314, x315

Для решения подобных задач разработана особая методика, с


подробным изложением которой можно ознакомиться в работе. Остановимся
на двухфакторном дисперсионном анализе при наличии пустых ячеек в
матрице наблюдений. Представим каждое наблюдение x ijk в виде

x ijk     i  j   ij  eijk ,

где i  1,2,, I (I - количество строк); j  1,2,  , J (J - количество столбцов);


k  1,2,, K (К - количество наблюдений в ячейке);  - средняя всего
комплекса;  i - эффект, обусловленный действием фактора А;  i - эффект,
обусловленный действием фактора В;  ij - эффект, обусловленный
взаимодействием i-го уровня фактора А с j-м уровнем фактора В; e ijk -

вариация результатов внутри отдельной ячейки, с помощью которой


учитываются все неконтролируемые факторы.
На составляющие наблюдения x ijk накладывается ряд ограничений. Так,

предполагается, что множество eijk  подчиняется нормальному закону

распределения с математическим ожиданием, равным нулю, и дисперсией  2


. Средние эффекты факторов А, В и их взаимодействие также предполагаются
равными нулю, т. е.

1 I 1 J 1 I 1 J
 i J  j I  ij J   ij  0
I i1
     
j1 i 1 j1

Для примера запишем наблюдения ячеек (2,4) и (3,5) в табл. 8.16 во


вновь принятых обозначениях:

x 241     2   4   24  e 241 ,
x 242     2   4   24  e 242 ,
x 243     2   4   24  e 243 ,
x 351     3  5   35  e 351 ,
x 352     3  5   35  e 352 .

Как следует из предыдущих подпунктов лекции, в случае наличия в


каждой ячейке матрицы наблюдений равного количества наблюдений,
существуют простые формулы для оценки эффектов по исследуемым
факторам. Если в матрице наблюдений есть пустые ячейки, то простых
формул привести нельзя. В этом случае анализ начинают с проверки
отсутствия эффекта взаимодействия. Обычно эту гипотезу обозначают через
H AB . Если гипотеза H AB отвергается, т.е. взаимодействие значимо, то
считается доказанным влияние и фактора А, и фактора В на результирующий
признак х. Если же гипотеза H AB принимается, т.е. взаимодействие факторов
незначимо, то переходят к проверке влияния на результирующий признак
каждого из факторов А и В по схеме однофакторного дисперсионного анализа.
Перейдем к проверке гипотезы H AB . Общая идея проверки гипотезы
H AB сводится к следующему:
1. Сначала вычисляется сумма квадратов отклонений каждого
наблюдения ячейки от своего среднего. Полученные результаты по всем
непустым ячейкам складывают. Полученная сумма (обозначим ее через Q c )
характеризует вариацию наблюдений, которая вызвана неконтролируемыми
факторами. Действительно, М e ij   0 , поэтому среднюю x j*  ячейки (ij)

можно представить в виде

x ij*     i  i   ij ,

следовательно,

x ijk  x ij*     i   j   ij  e ijk      i   j   ij   e ij .

Итак,

  x ijk  x ij* 2
K
Qe 
ij D k 1

где D - множество непустых ячеек. Статистика Q e имеет k = (n - p) степеней


свободы, где n - общее количество наблюдений; р - количество непустых
ячеек. Рассчитать полученную статистику по матрице наблюдений не
составляет труда.
2. Если взаимодействие факторов незначимо, то среднюю {x ij* }

ячейки можно представить в следующем виде:

x ij*     i   j

Тогда разность такова

x ijk  x ij*     i   j   ij  e ijk      i   j  


  ij  e ijk 

Сумма квадратов отклонений каждого наблюдения ячейки от своего


среднего

Q ABe    ij  e ijk  
K
2

ijD k 1

  x ijk     i   j 
K
2

ijD k 1

содержит сумму эффектов взаимодействия и вариацию наблюдений,


вызванную действием неконтролируемых факторов. Если из Q ABe вычесть Q c
, то получим эффект, характеризующий взаимодействие исследуемых
факторов. Эта разность имеет (р - I - J + 1) степеней свободы.
3. Если гипотеза H AB справедлива, т.е. взаимодействие факторов
незначимо, то отношение
Q AB  Qe  / p  I  J  1
Q e / n  p 

имеет F-распределение с (р - I - J + 1)  k1 и (n - р) = k 2 степенями свободы.


Затем проверка гипотезы сводится к следующему: выбирается уровень
значимости а, соответствующий проверяемой гипотезе H AB . При данном
уровне значимости а и числе степеней свободы k1 и k2 находят табличное
значение F. Если Fтабл  F , то нет оснований отвергать проверяемую гипотезу

H AB . Если Fтабл  F , то гипотеза H AB отвергается, т.е. взаимодействие


факторов значимо.
4. Для того чтобы вычислить Q ABe , необходимо найти оценки
,  i ,  j , при гипотезе H AB .

Известно, что наилучшие оценки для ,  i ,  j можно получить по методу


K ij
наименьших квадратов, т. е. минимизируя статистику  x ijk     i   j 2
ijD k 1

по каждому из параметров ,  i ,  j , а именно, приравнивая нулю производные

по каждому из параметров:

Q ABe Q Q
 0; ABe  0; ABe  0 (8.10)
  i  j

i  1,2,, I; j  1,2,, J .

Пусть G i - количество элементов в i-й строке, H j - количество элементов

в j-м столбце. Тогда систему уравнений (8.10) можно записать в виде


 I J K

n    i G i   i H j   x ijk ,
 i 1 j1 ijD k 1
 J J K
 G i  G i  i   k ij j   x ijk ,
*
(8.11)
 j1 j1 k 1
 I I K
 H j   k ij  i  H j j   x ijk .
**

 i 1 i 1 k 1

Система 8.11 содержит I  J  1 уравнение с I  J  1 неизвестными


, 1 ,  2 ,  ,  I , 1 ,  ,  J . Однако, среди уравнений системы (8.11) лишь (I+J-
1) линейно независимых, так как сумма уравнений, отмеченных *, равна
первому уравнению, а сумма уравнений, отмеченных **, также равна первому
уравнению. Из этого следует, что решение системы не является единственным.
1 I 1 J
Учитывая, что   i  0 и  i  0 и исключая из системы (8.11)
I i1 J j1

любые два уравнения (например, первое и последнее), получим

 J J K

 G i   G i  i   k ii    x ijk ,
 j1 j1 k 1
 I I K

H j   k ij  i  H j j   x ijk ,
i 1 i 1 k 1
 I (8.12)


  i  0,
i 1
 J


  j  0.
j1

Система (8.12) имеет единственное решение. Решая систему,


определяем ,  i ,  j , а затем рассчитываем Q ABe .

В заключение остановимся па критерии допустимого количества пустых


ячеек. Количество пустых ячеек считается допустимым, если число степеней
свободы k1  (р - I - J + 1) и k 2  (n - р) отлично от нуля и при этом система
(8.12) имеет единственное решение. При невыполнении хотя бы одного из этих
условий задача оценки влияния действующих факторов не может быть
решена.
Приводом пример. Рассмотрим двухфакторный комплекс. Матрица
наблюдений имеет следующий вид (таблица 8.18):

Таблица 8.18 – Матрица наблюдений


B B1 B2 B3
A
A1 0,5; 0,6 0,4; 0,3
A2 0,6; 0,6 0,2; 0,6; 0,4 0,6; 0,5

Для удобства вычислений составим вспомогательную таблицу, в каждой


ячейке которой запишем сумму элементов (ij) ячейки, среднее (ij) ячейки и
количество элементов (ij) ячейки.

Таблица 8.19 – Вспомогательная таблица


В В1 В2 В3 Сумма Средняя Количество
А строки строки элементов
строки
А1 1,1 0,55 0,7 0,35 1,8 0,45 4
2 2
А2 1,2 0,6 1,2 0,4 1,1 0,55 3,5 0,5 7
2 3 2
Сумма 2,3 1,2 1,8 5,3
столбца
Средняя 0,375 0,4 0,45 0,482
столбца
Количество 4 3 4 11
элементов
в столбце

Система (8.11) в данном случае принимает вид

11  41  7 2  41  3 2  43  5,3,


 4  41  21  23  1,8,

 7  7 2  21  3 2  23  3,5,

 4  21  2 2  41  2,3,
 3  3 2  3 2  1,2,

 4  21  2 2  43  1,8.

Заметим, что сумма второго и третьего уравнений есть первое


уравнение; сумма четвертого, пятого и шестого уравнений также есть первое
уравнение системы (8.12). В рассматриваемом примере система (8.12)
преобразуется к виду

4  41  21  23  1,8,


7  7 2  21  3 2  23  3,5,
4  21  2 2  41  2,3,
3  3 2  3 2  1,2,
1   2  0,
1   2  3  0.

Для решения подобных систем можно использовать, например, метод


обратных матриц. Однако в данном случае мы не воспользуемся общим
методом. Преобразуем сначала второе и четвертое уравнения системы, для
чего выпишем их отдельно и представим в следующем виде:
7  7 2  1   2  3    2  3,5,
  
0
   2   2  0,4.

Решим эти уравнения относительно  2 и    2  . В результате получим:


 2  0,117,    2  0,517 .
Представим теперь первое уравнение в следующем виде:

4  41  21  2 2  23   2 2  1,8 ,

Откуда

4  41  2 2  1,8 .

Используя вычисленные ранее значения  2 и    2  , находим:


  0,454,  2  0,063, 1  0,063 .
Из третьего уравнения находим 1  0,121 , из шестого уравнения
определяем 3  0,004 .
Рассчитаем Q ABe . Заметим, что формулу для определения Q ABe можно
преобразовать, возведя в квадрат выражение, стоящее в скобках, что позволит
сократить количество вычислений. Имеем:

Q ABe    x ijk
2
   x ijk    i  x ijk 
i j k i j k i j k

  i  x ijk ;
j k

 x ijk2  2,75;


i j k
  x ijk  5,3;  x ijk  2,4062;
i j k i j k

  i  x ijk  0,1069;   j  x ijk  0,1307;


i j k j i k

Q ABe  2,75  2,4062  0,1069  0,1307  0,106.

Вычислим Q e :

Q e  0,5  0,55  0,6  0,55  0,4  0,35 


2 2 2

 0,3  0,35  0,6  0,6  0,6  0,6  0,2  0,4 


2 2 2 2

 0,4  0,4  0,6  0,4 0,6  0,55 


2 2 2

 0,5  0,55  0,095;


2

F
0,106  0,0955  2  3  1  0,71, k  1; k  6.
0,0951  5
1 2

Пусть гипотеза H AB проверяется при уровне значимости   0,05 , тогда


Fтабл  5,99 . Итак Fтабл  F , следовательно, взаимодействие исследуемых
факторов незначимо, поэтом надо перейти к анализу каждого из факторов в
отдельности по схеме дисперсионного анализа.
9 Основы корреляционного анализа

9.1 О связях функциональных, стохастических, статистических и


корреляционных

Связи между различными явлениями в природе сложны и


многообразны, однако, их можно определенным образом классифицировать.
В технике и естествознании часто речь идет о функциональной зависимости
между переменными x и y, когда каждому возможному значению х
поставлено в однозначное соответствие определенное значение у. Это может
быть, например, зависимость между давлением и объемом газа (закон Бойля
Мариотта).
В реальном мире многие явления природы происходят в обстановке
действия многочисленных факторов, влияние каждого из которых ничтожно,
а число их велико. В этих случаях связь теряет свою строгую
функциональность и изучаемая физическая система переходит не в
определенное состояние, а в одно из возможных для нее состояний. Здесь речь
может идти лишь с так называемой стохастической связи. Стохастическая
связь состоит в том, что одна случайная переменная реагирует на изменение
другой изменением своего закона распределения. В практике статистических
исследований часто рассматривается частный случай такой связи, называемый
статистической связью. Об этой связи имеет смысл говорить тогда, когда
условное математическое ожидание одной случайной переменной является
функцией значения, принимаемого другой случайной переменной, т. е.

MY | x   f x .

Таким образом, изучение статистических зависимостей основывается на


исследовании таких связей между случайными переменными, при которых
значение одной случайной переменной, в среднем, изменяется в зависимости
от того, какие значения принимает другая случайная переменная.
Знание статистической зависимости между случайными переменными
имеет большое практическое значение: с ее помощью можно прогнозировать
значение зависимой случайной переменной в предположении, что неза-
висимая переменная примет определенное значение. Однако, поскольку
понятие статистической зависимости относится к осредненным условиям,
прогнозы не могут быть безошибочными. Применяя некоторые вероятностные
методы, как будет показано далее, можно вычислить вероятность того, что
ошибка прогноза не выйдет за определенные границы.
Итак, чтобы изучить статистическую зависимость, нужно знать
условное математическое ожидание случайной переменной. Для его оценки
необходимо знать аналитический вид двумерного распределения (X, У).
Однако, суждение об аналитическом виде двумерного распределения,
сделанное по отдельной ограниченной по объему выборке, может привести к
серьезным ошибкам. Поэтому идут на упрощение и переходят от условного
математического ожидания случайной переменной к условному среднему
значению, т. е принимают, что

MY | X  x   yx ,

где M Y | X  x  — математическое ожидание случайной переменной Y при


условии, что случайная величина X приняла значение х.
Зависимость между одной случайной переменной и условным средним
значением другой случайной переменной называется корреляционной-
зависимостью.
Вопрос о том, что принять за зависимую переменную, а что за
независимую, следует решать применительно к каждому конкретному случаю.
Корреляционная зависимость имеет в исследовательской работе
широкое применение. Она характеризуется формой и теснотой связи.

9.2 Определение формы связи. Понятие регрессии

Определить форму связи — это значит выявить механизм получения


зависимой случайной переменной. При изучении статистических
зависимостей форму связи можно характеризовать функцией регрессии
(линейной, квадратной, показательной и т. д.)
Условное математическое ожидание M Y | X  x  случайной переменной
У, рассматриваемое как функция х, т. е. MY | X  x   f x , называется
функцией регрессии случайной переменной У относительно X (или функцией
регрессии У по X). Точно так же условное математическое ожидание
M X | Y  y случайной переменной X , т. е. MX | Y  y   f y , называется
функцией регрессии случайной переменной X относительно У (или функцией
регрессии X но У).
Пример 1. Задана двумерная случайная переменная (X, У) с плотностью
вероятности р(х, у) —х'+2у при 0  x  1 и 0  y  1 . Требуется найти функцию
регрессии переменной У для случая, когда переменная X принимает значение
х.
Решение. Для определения функции регрессии (или условного
математического ожидания М(У|Х=x:) нужно знать условную плотность
вероятности переменной У при X = х, которая определится следующим
образом:

p x , y  x  2y x  2y
pY | X  x     .
1 1
x 1
 px, ydy  x  2ydy
0 0
Тогда функция регрессии

x  2y 0,5x  2 / 3
1 1
MY | X  x    урY | X  x dy   y dy  .
0 0
x 1 x 1

Аналогично находится функция регрессии переменной X при У=у.


Функции регрессии выражают математическое ожидание переменной У
(или X) для случая, когда другая переменная принимает определенное
числовое значение, или, иначе говоря, функция M Y | X  x  показывает, ка-
ково будет в среднем значение случайной переменной У, если переменная X
принимает значение х. Все сказанное справедливо и для функции M X | Y  y 
Становится очевидным, что функция регрессии имеет важное значение при
статистическом анализе зависимостей между переменными и может быть
использована для прогнозирования одной из случайных переменных, если
известно значение другой случайной переменной. Точность такого прогноза
определяется дисперсией условного распределения

 2 Y | X  x   MY | X  x   MY | X  x 
2

или

 
 2 Y | X  x   M Y 2 | X  x  MY | X  x  ,
2

т. е. дисперсия вычисляется обычным способом, только вместо безусловного


распределения случайной переменной берется ее условное распределение.
Аналогично имеем

 2 X | Y  y   MX | Y  y   MX | Y  y 
2
или

 
 2 X | Y  x   M X 2 | Y  y  MX | Y  y  .
2

Пример 2. Используй условия примера 1, вычислить дисперсию


условного распределения.
Решение. Воспользовавшись приведенными выше формулами и
учитывая результаты, полученные при решении примера, находим

2
x  2y  0,5x  2 / 3 
1
 Y | X  x    y
2 2
dy    
0
x  1  x  1

1 / 3x  0,5 1 / 4 x 2  2 / 3x  4 / 9 1 / 12x 2  1 / 6 x  1 / 18
   .
x 1 x  12 x  12

Например, при Х=1 получим

11
 2 Y | X  1  M  0,076.
144

Это значит, что если Х=1, то наблюдаемые значения случайной


переменной У отклоняются от своего математического ожидания (т. е. от
функции регрессии), в среднем, на 0,076.
В данном случае дисперсия условного распределения У зависит от
значения, принимаемого случайной переменной X, но эта закономерность не
является обшей. В том случае, когда X и У имеют двумерное нормальное
распределение, дисперсия оказывается постоянной.
Несмотря на важность понятия функции регрессии, возможности ее
практического применения весьма ограничены. Как видно из приведенного
примера, для оценки функции регрессии необходимо знать аналитический вид
двумерного распределения (X, У). Только зная вид этого распределения,
можно точно определить вид функции регрессии, а затем оценить его
параметры. Однако, для подобной оценки мы чаще всего располагаем лишь
выборкой ограниченного объема, по которой нужно найти вид двумерного
распределения (X, У), а затем вид функции регрессии. Это может привести к
значительным ошибкам, так как одну-и ту же совокупность точек (xi, yi) на
плоскости можно одинаково успешно описать с помощью различных
функций. Именно поэтому возможности практического применения функции
регрессии ограничены.
Для характеристики формы связи при изучении корреляционной
зависимости пользуются понятием кривой регрессии. Кривой регрессии У по
X (или У на X) называется условное среднее значение случайной переменной
У, рассматриваемой как функция от х, т. е.

yx   f x .

Аналогично, условное среднее значение случайной переменной X, т. е.


x y , рассматриваемое как функция у, называется кривой регрессии X по У
(или X на У). Возникает вопрос: почему для определения кривой регрессии
пользуются именно условным средним y (х)? Функция y (х) обладает одним
замечательным свойством: она дает наименьшую среднюю погрешность оцен-
ки прогноза.
Предположим, что кривая регрессии является произвольной функцией.
Средняя погрешность прогноза по кривой регрессии определяется
математическим ожиданием квадрата разности между измеренной величиной
и вычисленной по формуле кривой регрессии, т. е. MY  f x 2 . Естественно
потребовать вычисления такой кривой регрессии, средняя погрешность
прогноза по которой была бы наименьшей. Таковой является f x   yx  . Это
следует из свойств минимальности рассеивания около центра распределения
y (х). Если рассеивание вычисляется относительно f x   yx  , то средний
квадрат отклонения увеличивается. Поэтому можно сказать, что кривая
регрессии, выражаемая как y (х), минимизирует среднюю квадратическую
погрешность прогноза величины У по X.
Определение корреляционной связи было дано безотносительно к
совместному закону распределения переменных (X, У), т. е. корреляционную
связь можно исследовать при любом законе распределения (X, У). Однако в
теории корреляции важное место занимает двумерный нормальный закон
распределения случайных переменных (X, У). В этом случае условные
математические ожидания М(У|Х=x) и М(Х|У=у) совпадают с условными
средними значениями М(У|Х=х)= y (х) и М(Х|У=у)= x (у), что следует из
свойств нормального закона распределения. Таким образом, кривая регрессии
совпадает с функцией регрессии, и, следовательно, средняя погрешность
прогноза по уравнению регрессии уменьшается.
9.3 Поле корреляции

Двумерная корреляция изучает пары случайных чисел: значение


независимой переменной х и соответствующее ему значение зависимой
переменной у. Рассмотрим, например, зависимость между объемом
выполненных работ (у) и накладными расходами (х). Вопрос о том, какую
переменную считать независимой, а какую — зависимой, решается для
каждого конкретного случая и определяется целью исследования. Пару
случайных чисел (х, у) можно изобразить графически в виде точки с
координатами (х; у). Таким образом, можно изобразить весь набор пар
случайных чисел (всю выборку). Задача упрощается, если выборку
упорядочить. Для этого значения х и у разбивают на интервалы; затем на листе
бумаги под прямым углом проводят координатные оси и наносят
координатную сетку (рисунок 31). По одной из осей откладывают интервалы,
соответствующие переменной х, по другой — переменной у. Каждую пару
значений переменных из данной выборки изображают в виде точки в
соответствующей клетке. Так, например, в ячейку x  2; y  10  20 попало 4
точки. Это значит, что в данный интервал изменения х и у попало 4 пары
значений (х, у). Такое изображение корреляционной зависимости называется
полем корреляции.
По расположению точек на рисунке 9.1 можно в первом приближении
сделать предположение о форме и тесноте корреляционной связи. Так,
очевидно, что с увеличением значений х значения у возрастают.
Следовательно, можно сделать вывод, что имеет место положительная связь
между х и у.
Если вычислить средние значения у в каждом интервале изменения х
[обозначим их через Уi(х)], нанести эти точки на рисунок 9.1 и соединить их
между собой, то получим ломаную линию, по виду которой можно судить, как
ь среднем меняется у в зависимости от изменения х. Такая ломаная линия
называется эмпирической линией регрессии. По ее виду можно сделать
предположение о форме связи. В данном случае ломаную линию можно
аппроксимировать прямой, так как она приближается к ней.

Объем выполненных работ, млн.руб


y

60
50
40
30
20
10
1 2 3 4 5 6 x
Накладные расходы, млн. руб

Рисунок 9.1- Корреляция

По выборочным данным можно построить также корреляционную


таблицу (таблица 9.1). Для этого выборочные значения х и у разбиваются на
интервалы. В первой строке и первом столбце таблицы помещаются интерва-
лы изменения х и у и значения середин интервалов. Так, например, 1,5 —
середина интервала изменения х=1÷2,15 — середина интервала изменения у
=10÷20. В ячейки, образованные пересечением строк и столбцов, заносятся
частоты попадания пар значений (х, у) е соответствующие интервалы по х и у.
Например, частота 4 означает,
Таблица 9.1- Корреляционная таблица
Нак
ладные
расх
оды, млн. 1 2 3 4 5 6 7 8
руб. -2 -3 -4 -5 -6 -7 -8 -9 m
Объем 1 2 2 4 5 6 7 8 y

выполнен ,2 ,5 ,5 ,5 ,5 ,5 ,5 ,5
ных
работ,
млн. . руб.
10-20 4 5 9
15
20-30 1 3 1 5
25
30-40 2 3 6 5 3 1 20
35
40-50 5 9 19 8 7 2 1 51
45
50-60 1 2 7 16 9 4 2 41
55
60-70 1 5 6 4 2 2 20
65
70-80 1 3 4
75
mx 7 17 10 36 33 21 9 8 150

что в интервал изменения х от 1 до 2 и интервал изменения у от 10 до 20 попало


4 пары наблюдавшихся значений. Эти частоты обозначают через mху.
В 9-й строке и 10-м столбце находятся значения mх и mу — суммы mху
по соответствующему столбцу и строке.
Как будет показано в дальнейшем, корреляционной таблицей удобно
пользоваться при вычислении коэффициентов корреляций и параметров
уравнений регрессии.
9.4 Линейная регрессия. Понятие о способе наименьших квадратов

Линейная регрессия, или линейная форма связи между случайными


переменными, занимает особое место в теории корреляции. При такой форме
связи y (х) есть линейная функция от x, т.е.

y  a 0  a 1x, (9.1)

где а0 и а1 — коэффициенты регрессии; х— независимая случайная


переменная. Линейная регрессия обуславливается двумерным нормальным
законом распределения пары случайных переменных (X, У).
Параметры в уравнении регрессии, т. е. коэффициенты регрессии,
определяются по способу наименьших квадратов.
В начале XIX в. Лежандр и Гаусс независимо друг от друга нашли метод
определения неизвестных по результатам опыта, с помощью которого можно
эффективно использовать избыточную информацию. Условие Лежандра
сводится к следующему требованию:

n
Q   x i     Q min ,
2

i 1

где хi — измеренное или опытное значение переменной величины;  —


истинное или теоретическое значение этой величины. Таким образом,
требование Лежандра заключается в том, чтобы сумма квадратов отклонений
измеренных величин от истинного значения была бы минимальной. Гаусс дал
теоретико-вероятностное обоснование этого подхода.
В случае линейной регрессии за теоретическое значение принимается
значение y (х), получаемое по формуле (9.1), т. е. ищется такай прямая линия,
сумма квадратов отклонений измеренных значений уi от которой была бы
минимальной:

n
Q   y i  yx   Q min ,
2

i 1

где уi,—-измеренное значение у.


Как известно, минимум функции можно найти, приравняв к нулю ее
первую производную. Запишем последнее выражение в следующем виде *:
При выводе формул опущены индексы переменных.

Q   y  a 0  a 1 x   Q min ,
2

Находим частные производные функции Q по а0 и а1 и приравниваем их


нулю

 Q
 a  2 y  a 0  a 1 x   0,
 0

 Q  2 y  a  a x x  0.
 a 1 0 1

Сокращая оба уравнения на —2 и производя полное суммирование,


получим

 y   a 0   a 1 x  0,

 yx   a 0 x   a 1 x  0.
2
Величины a0 и а1, являются постоянными, поэтому их можно вынести за
знак суммы; a0 есть не что иное, как па0. В результате имеем

na 0  a 1  x   y,

 (9.2)
a 0  x  a 1  x   yx.

2

Система (9.2) называется системой нормальных уравнений. Решая ее,


получим значения коэффициентов регрессии:

a0 
 y x 2   x  yx
,
n  x 2   x 
2

n  yx   x  y
a1  .
n  x   x 
2 2

Пример 3. По данным, п приведенным в таблице 9.1, вычислить


коэффициенты в уравнении регрессии. Связь между переменными
предполагается линейной вида (9 1).
Решение. Вычислим все суммы, необходимые для составления
нормальных уравнений, и запишем их в таблице 9.2.
Так как ряды значений х и у разбиты на интервалы и подсчитаны
частоты попадания пар значений (x, у) в каждый интервал, то систему
нормальных уравнений можно представить в следующем виде

a 0  m xy  a 1  xm x   ym y ,
 (9.3)
a 0  xm x  a 1  x m x   yxm xy .
2

Подставляя данные, приведенные в таблице 9.2, в формулу (9.3), имеем


150a 0  735a 1  7110,0,

735a 0  4053,5a 1  37175,0.
В результате несложных преобразований получим

a 0  4,900a 1  47,400,

a 0  5,515a 1  50,578.

Вычтем из второго уравнения первое

0,615a 1  3,178, откуда а1= 5,167.

Подставим значение а1 в преобразованную систему уравнений:

a 0  47,400  4,9  5,167,

откуда находим aо=22,082.


Теперь уравнение регрессии можно записать в виде

yx   22,082  5,167 x.

Это уравнение выражает зависимость среднего объема выполненных


работ yx  от накладных расходов х.
Таблица 9.2- Данные регрессии
Накладные
расходы(x),
млн. руб. 1-2 2-3 3-4 4-5 5-6 6-7 7-8 8-9
my y my y2 my ∑yxmxy
Объем 1,5 2,5 3,5 4,5 5,5 6,5 7,5 8,5
выполненных
работ (y), млн. руб.
10-20 4 5 9 135 2025 277,5
15
20-30 1 3 1 5 125 3125 312,5
25
30-40 2 5 6 5 3 1 20 700 24500 2695,0
35
40-50 1 9 19 8 7 2 1 51 2295 103275 10912,5
45
50-60 2 7 16 9 4 2 41 2255 124025 7605,5
55
60-70 1 5 6 4 2 2 20 1300 84500 7605,0
65
70-80 1 3 4 300 22500 37175,0
75
mx 9 8 150 7110 363950
x mx 10,5 42,5 66,5 162,0 181,5 136,5 67,5 68,0 735,0
x2 mx 15,75 106,25 232,75 729,0 998,25 887,25 506,25 578,0 4053,5
9.5 Кривые регрессии. Нелинейная регрессия

Форма связи между yx  и х определяется уравнением регрессии. В качестве


уравнения регрессии может быть использовано или уравнение прямой линии, или
многочлен к-й степени, или какая-то другая кривая (например, показательная
функция). В первом случае связь называется линейной, в остальных — нелинейной.

y
Относительный уровень поддержек

5,6
5,2
обращения

5
4,6
4,2
3,4
3,2
4 6 8 10 12 14 16 x
Объем сбыта товаров

Рисунок 9.2- Линейная регрессия

Линейная регрессия была подробно рассмотрена в предыдущем подпункте.


Рассмотрим нелинейную регрессию. Связь между переменными X и У
изображается в виде ноля корреляции на рисунке 9.2. Как видно из рисунка, точки,
изображающие частоты появления пар значений (х, y), располагаются но дуге.
Предположим, что в данном случае связь между X и У имеет вид

y  x   a 0  a 1 / x. (9.4)
Нахождение коэффициентов регрессии а0 и а1 в этом случае аналогично их
нахождению в случае линейной связи, т. е. коэффициенты регрессии находятся из
условия

Q   y  yx   Q min
2

или

Q   y  a 0  a 1 / x   Q min .
2

Дифференцируя последнее равенство по ао и а1 получим

 Q
 a  2 y  a 0  a 1 / x ,
 0

 Q  2 y  a  a / x   1 / x.
 a 1 0 1

Приравнивая каждое из уравнений нулю, получим следующую систему


нормальных уравнений:

 a 0   a 1 / x   y,
 (9.5)
 a 0 / x   a 1 x   y / x.
2

Пример 4. По данным, приведенным в таблицы 9.3, вычислить


коэффициенты в уравнении регрессии. Связь между переменными предполагается
вида (9.4).
Решение. В таблице 9.3 приведены все необходимые суммы для составления
нормальных уравнений, а также средние значения y i x  для каждого интервала
изменения х. Значения y i x  приведены в последней строке таблицы и нанесены на
поле корреляции. Получено изображение эмпирической линии регрессии. Решив
уравнения (9.5), можно вычислить теоретические значения yx  и построить
теоретическую линию регрессии. Запишем систему уравнений (9.5) в виде

na 0  a 1  m x / x   ym y ,

a 0  m x / x  a 1  m x x   ym xy / x ,
2
Таблица 9.3- Суммы для составления нормальных уравнений
Объем сбыта
товара(x),
млн. руб.
4-6 6-8 8-10 10-12 12-14 14-16 16-18 18-20 1
Относитель- my y my y2 my ym xy
5 7 9 11 13 15 17 19 x
ный
уровень издержек
обращения (y), %
1 2 3 4 5 6 7 8 9 10 11 12 13
3,4-3,8 2 3 5 18 64,8 0,9918
3,6
3,8-4,2 1 1 3 2 1 8 32 128 2,1524
4,0
4,2-4,6 1 4 2 2 9 39,6 174,24 3,3523
4,4
4,6-5,0 3 1 3 3 10 48 230,4 5,0074
4,8
5,0-5,4 3 2 5 26 135,2 3,3842
5,2
5,4-5,8 2 2 2 5 28 156,8 4,4621
5,6
5,8-6,2 3 1 4 24 144 4,2666
6,0
6,2-6,6 3 1 4 25,6 163,84 4,7546
6,4
mx 8 9 6 8 6 5 4 4 50 241,2 1197,28 28,371
4
1 1,600 1,2857 0,6667 0,7273 0,4615 0,3333 0,2353 0,2105 5,5203
mx
x
Продолжение таблицы 9.3
1 2 3 4 5 6 7 8 9 10 11 12 13
1 0,320 0,1837 0,0711 0,0661 0,0661 0,0222 0,0138 0,0111 0,7265
mx 0
x2
y 1 x  
 ym xy 06,05 5,29 5,20 4,50 1,50 4,16 3,80 3,70
mx
50a 0  5,5203a 1  241,2,

5,5203a 0  0,7265a 1  28,3714.

Разделим каждое уравнение на коэффициент при первом члене

a 0  0,1104a 1  4,824,

a 0  0,1316a 1  5,1395.

и вычтем из второго уравнения первое.

0,212а1 =0,3155, откуда a1 = 14,881.

Подставим значение ах в преобразованную систему уравнений:

а0 = 4,824 — 0,1104  14,881, откуда а0 = 3,181.

Уравнение кривой регрессии (9.4) принимает вид

yx   3,181  14,881 / x.

Вычислим теоретические значения у(х) (таблицы 9.4); полученная


кривая изображена на рисунке 9.2.

Т а б ли ц а 9 .4 - Те о р е ти ч е с к и е зн а ч е н и я
x 5 7 9 11 13 15 17 19
y x  6 ,1 6 5 ,3 1 4 ,8 3 4 ,5 3 4 ,3 2 4 ,1 7 4 ,0 5 3 ,9 6
Рисунок 9.2 дает наглядную картину расположения выборочных точек
(пар значений х, у) эмпирической линии регрессии и теоретической линии
регрессии, вычисленной но способу наименьших квадратов.
Рассмотрим общий случай нелинейной зависимости между
переменными X и У. Это многочлен к-й степени от х:

y x   a 0  a 1 x  a 2    a k x k . (9.6)

Коэффициенты регрессии а0, а1 ,…, ак определяются по принципу


наименьших квадратов. Находятся частные производные

Q Q Q
, ,, . (9.7)
a 0 a 1 a k

Каждая производная приравнивается нулю:

 Q

 a  2 y  a 0  a 1 x  a 2 x    a k x  0,
2 k

 0
 Q
  
 2 y  a 0  a 1 x  a 2 x 2    a k x k x  0,
 a 1


 Q

 a  2 y  a 0  a 1 x  a 2 x    a k x x  0.
2 k

k

 k

В результате несложных преобразований получим


na 0  a 1  x  a 2  x 2    a k  x k   y,

a 0  x  a 1  x 2  a 2  x 3    a k  x k 1   yx ,


a
 0  x  a1  x  a 2  x    a k  x 2 k   yx k .
k k 1 k2

Вычислив коэффициенты системы, ее можно решить любым известным


методом.
Пример 5. По данным, приведенным в таблице 9.5, вычислить коэф-
фициенты в уравнении регрессии. Связь между переменными вида
у(х)=а0+а1х+а2х2.
Решение. Система нормальных уравнений в этом случае имеет вид

a 0 n  a 1  x  a 2  x 2   y,


a 0  x  a 1  x  a 2  x   xy,
2 3


a 0  x  a 1  x  a 2  x   yx .
2 3 4 2

Все суммы, необходимые для составления нормальных уравнений,


приведены в таблице 9.5. Подставляя их в уравнения системы, получим
следующую систему нормальных уравнений:

50a 0  125a 1  365a 2  151,



125a 0  365a 1  1175a 2  405,
365a  1175a  4025a  1237.
 0 1 2

Преобразуем эту систему к виду

a 0  2,5a 1  7,3a 2  3,02,



a 0  2,92a 1  9,4a 2  3,24,
a  3,22a  11,03a  3,39.
 0 1 2
Решив данную систему уравнений, найдем значение коэффициентов
регрессии:

a 0  1,424, a 1  0,799, a 2  0,055.

Таблица 9.5 –Нормальные уравнения


x yx,
1 2 3 4 my y my yx2mxy
y mxy
5 1 1 5 20 80
4 3 6 6 15 60 192 648
3 3 8 6 3 20 60 147 411
2 5 4 3 12 24 44 96
1 2 2 2 2 2
mx 10 15 15 10 50 151 405 1237
x mx 10 30 45 40 125
x2 mx 10 60 135 160 365
x3 mx 10 120 405 640 1175
x4 mx 10 240 1215 2560 4025

Итак, в рассматриваемом случае уравнение регрессии имеет вид

yx   142  0,799x  0,055x 2 .


9.6 Измерение тесноты связи. Эмпирическое корреляционное
отношение

В предыдущем подпункте излагались методы установления формы


связи. Однако, при изучении корреляционных зависимостей возникает
необходимость п измерении тесноты связи. Приведем пример. Рассмотрим два
корреляционных ноля: поле а и поле б (рисунок 9.3). Пусть линии регрессии у
по х в обоих полях расположены одинаково, однако точки поля б расположены
гораздо ближе к линии регрессии, чем точки поля с. Если бы у полностью
определялся аргументом х, то все точки лежали бы на линии регрессии. Чем
сильнее влияние прочих факторов, тем дальше точки отстоят от линии
регрессии. Очевидно, что в случае б прочие факторы меньше влияют на
аргумент х, чем в случае а, и зависимость между y и х является более тесной.
С помощью какого показателя можно измерить тесноту связи? За основу
берется общий показатель изменчивости— полная дисперсия  2y . Полной

дисперсией  2y условимся называть дисперсию Y относительно условного

генерального среднего  Y . Как известно из дисперсионного анализа, полную


дисперсию можно разложить на две составляющие, каждая из которых
характеризует действие одного из факторов. Дисперсию  2y также можно

разложить на две составляющие, одна из которых характеризует влияние


данного фактора X на Y, вторая— влияние прочих факторов. Очевидно, что
чем меньше влияние прочих факторов, тем теснее связь. Представим  2y в виде

 2y  MY  yX   MyX   1  .


2 2
Первое слагаемое обозначим через  2Y|x . Это дисперсия переменной У

относительно теоретической линии регрессии yX  ; она измеряет влияние так


называемых прочих факторов на Y.

0 x

Рисунок 9.3-Линия корреционного анализа

Второе слагаемое обозначим через  2Y|x . Это дисперсия теоретической

линии регрессии относительно условной генеральной средней; она измеряет


влияние так называемого данного фактора X на Y.

Покажем, что  2Y действительно можно разложить на два таких


слагаемых:

 2Y|  M Y   Y   MY  yX   yX    Y  


2 2

 MY  yX   MyX    Y 2 


2
(9.8)
 2MY  yX yX    Y .

Полагаем для простоты распределение дискретным. Имеем


MY  yX yX    Y    y  yx  
x y

 yx    Y   px, y  
  yx    Y px  Y  yx py | x   0,
x y

так как при любом х справедливо равенство

 Y  yx py | x    ypy | x   yx  py | x  yx   yx   0.


y

Таким образом, доказано, что третье слагаемое в равенстве (9.8) равно


нулю, следовательно, равенство (9.7) справедливо. Поскольку второе
слагаемое в равенстве (9.7) оценивает влияние фактора X на У, то его можно
использовать для оценки тесноты связи между X и У. Тесноту связи удобно
оценивать в единицах общей дисперсии  2Y2 , т. е. рассматривать отношение

MyX    Y 2 1 /  2Y . Эта величина обозначается через  2 TY|x и называется


теоретическим корреляционным отношением. Таким образом,

MyX    Y 2  2Y|x
 2
TY| x   . (9.9)
 2Y  2Y

Разделив обе части равенства (9.7) на 2Y , получим

 
 2Y /  2Y   2Y|x   2Y|x /  2Y ,

или

1   2Y / x /  2Y   TY
2
|x .
Из последней формулы можно легко получить другое выражение для
TY
2
|x .

 TY
2
| x  1   Y| x /  Y .
2 2
(9.10)

Поскольку  2Y|x   2Y , так как  2Y|x является составной частью  2Y то из

равенства (9.10) следует, что значение TY


2
|x находится всегда между нулем

и единицей.
Все сделанные выводы справедливы и для TY
2
|x . Из равенства (9.10)

следует, что TY


2
|x только тогда, когда  Y | x  0 , т. е. отсутствует влияние
2

прочих факторов и все распределение сконцентрировано на кривой регрессии


yX  . В этом случае между Y и X" существует функциональная зависимость.

Далее из равенства (9.10) следует, что TY


2
|x =0 тогда и только тогда,

когда yX    Y  const , т е. линия регрессии Y по X есть горизонтальная


прямая, проходящая через центр распределения. В этом случае можно сказать,
что переменная Y не коррелирована с X на рисунке 9.4. Аналогичными
свойствами обладает (показатель тесноты связи между X и Y).
y 2 T  0

0 x

Рисунок 9.4-Горизонтальная корреляционная прямая а)


y 2 T  1

0 x

Рисунок 9.4- Корреляционная прямая б)

y 0  2 T  1

0 x

Рисунок 9.4-Корреляционная прямая в)


Некоррелированность не следует смешивать с независимостью: если
 TY
2
| x =0 переменная Y может зависеть от X, но так, что центры условных

распределений не меняются, а изменяются условные дисперсии.


Часто используется величина

 TY
2
| x   TY| x   Y|x /  Y .
2
(9.11)

Считается, что она не может быть отрицательной. Значения величины


 TY
2
 
| x или Tx| y также могут находиться лишь в пределах от нуля до единицы.
2

Это очевидно из формулы (9.11).


Пример 6. По данным, приведенным в таблице 9.3, вычислить
теоретическое корреляционное отношение.

Решение. Воспользуемся формулой (9.9). Представим  2Y и  2Y|x в

следующем виде:

 y2m y   ym y
2

 2Y    ,
my  m
 y

 2Y|x 
1
 yx   y2 m x .
m

В данном случае неизвестно генеральное среднее  Y , поэтому вос-


пользуемся его оценкой y . Все суммы, необходимые для вычислений,

приведены в таблице 9.3. Вычисляем  2Y :

 2Y = 1197,28/50 — (241,2/50)2 = 0,6746,


затем находим y :

y   ym y /  m y  241,2 / 50  4,824.

Данные, необходимые для вычисления  2Y|x , приведены в таблице 9.6.

Таблица 9.6- Данные, необходимые для вычисления

y x 
 yx   y mx yx   y2 m x
6,16 +1,336 8 14,2792
5,31 +0,486 9 2,1258
4,83 +0,006 6 0
4,53 -0,294 8 0,6915
4,32 -0,504 6 1,5241
4,17 -0,654 5 2,1386
4,05 -0,774 4 2,3963
3,96 -0,864 4 2,9860

 26,1415

Значения y (х) взяты из таблицы 9.3.


Имеем:

 2Y|x = 26,1415/50 = 0,5228.

Находим значения показателей тесноты связи


 TY
2
| x = 26,5228/0,6746 = 0,7750,

откуда  TY
2
| x =0,8803. Значение  TY| x позволяет сделать вывод о достаточно
2

тесной связи между переменными Y и X.


Перед тем как начать исследование формы связи, в случае, если вид
зависимости еще не установлен, а коэффициенты регрессии не вычислены,
чаете бывает необходимо убедиться в наличии какой бы то ни было связи
между переменными. Может оказаться, что связь несущественна и
вычисление коэффициентов регрессии неоправданно и проведено впустую, В
этом случае вычисляется эмпирическое корреляционное отношение.
В отличие от теоретического корреляционного отношения при выводе
формулы эмпирического корреляционного отношения пользуются
эмпирической линией регрессии и оценками дисперсий S2. Представим
дисперсию зависимой переменной у в виде

S 2y 
1
 y  y i x 2  1  y i x   y2 , (9.12)
n k

где у — измеренное значение зависимой - переменной; yi x  — условное


среднее (среднее значение у в данном интервале х); y — среднее всей
совокупности; k — количество интервалов; n — общее число измерений.
Обозначим первое из слагаемых в равенстве (9.12) (дисперсию
зависимой переменной у относительно эмпирической линии регрессии) через
S 2 y  x  второе слагаемое (дисперсию эмпирической линии регрессии

относительно среднего всей совокупности) через  2y  x  . Величина  2y  x 

называется также межгрупповой дисперсией.


Подобно теоретическому, эмпирическое корреляционное отношение
можно записать в виде

2   2y  x  /  2y , (9.13)

или


 2  1   2y x  /  2y . (9.14)

Из сравнения формул (9.12) и (9.7) становится очевидным различие


между теоретическим и эмпирическим корреляционным отношением: при
расчете теоретического корреляционного отношения необходимо знать форму
связи между переменными; при расчете эмпирического корреляционного
отношения о форме связи между переменными не делается никаких-
"предположений, так как в этом случае используется эмпирическая линия
регрессии.

Согласно следствию из свойства 4 дисперсии, значения 2 всегда

заключены в пределах от нуля до единицы. При 2 =0 отсутствует
изменчивость средних yi x  и линия регрессии параллельна оси абсцисс.
Можно считать, что в этом случае корреляционная связь между у их
отсутствует. При yi x  =1 все точки корреляционного поля лежат на линии
регрессии. В этом случае говорят о наличии функциональной связи между у
их.

Пользуются также показателем y i x    2 , который берется, как и


теоретическое корреляционное отношение  T , со знаком плюс. Эмпирическое
корреляционное отношение систематически завышает тесноту связи и тем
сильнее, чем меньше число наблюдений. Поэтому эмпирическое
корреляционное отношение рекомендуется использовать для
предварительной оценки тесноты связи, для окончательной же оценки
используется теоретическое корреляционное отношение.
Пример 7. По данным, приведенным в таблице 9.3, вычислить эмпи-
рическое корреляционное отношение и сравнить его с теоретическим,
вычисленным в примере 6.
Решение. Для вычисления воспользуемся формулой (9.13). Пусть
S 2 y   2y  0,6746. . Значение yi x  возьмем из таблицы 9.3. Результаты

вычислений приведены в таблице 9.7.

Таблица 9.7- Результаты вычислений корреляции


y i x  y i x   y mx y i x   y2 m x
6,05 +1,23 8 12,1032
5,29 +0,47 9 1,9881
5,20 +0,38 6 0,8664
4,50 -0,32 8 0,8192
4,53 -0,29 6 0,5046
4,16 -0,66 5 2,1780
3,80 -0,02 4 4,1616
3,70 -0,12 4 5,0176

 27,6387

Вычислим значение дисперсии эмпирической линии регрессии


относительно среднего всей совокупности и эмпирическое корреляционное
отношение:

27б6387
 2yx    0,5528,
50
 0,5528 
2   0,8194, откуда 2  0,905.
0,6746

9.7 Коэффициент корреляции

Рассмотрим важный для теории и практики случай вычисления


теоретического корреляционною отношения, когда зависимость между X и Y
линейна: yx   a 0  a 1 x. Тогда, согласно формуле (9.9), имеем

MyX    Y 2   2Y|x yx   y


2

 2
T   . (9.15)
 2Y n 2Y

Подставим в формулу (9.15) вместо yx  и y их выражения для случая


линейной зависимости. Для y , используя равенство (9.2), можно записать

y
 y  na 0  a 1  x  a  a 1 x. (9.16)
0
n n

В результате подстановки выражений (9.2) и (9.16) в формулу (9.15)


получим

 a 0  a 1 x  a 0  a 1 x   a 12 x  x 2
 T 
2
 
n 2y n 2y
a 12  x  x 
2
a 12  2x
  .
n 2y  2y

Заменим в последнем выражении а1 его значением, полученным при


решении нормальных уравнений
2
a 12  2x  n  xy   x  y   2
   2x .
 2y  n  x   x    y
2 2
 

Учитывая, что знаменатель выражения, находящегося в квадратных

скобках, равен 2x , имеем

  xy
2

a 12  2x /  2y    xy   2x  2y .
 n 
Извлекая квадратный корень, получим

  xy 
  xy   x  y  r. (9.17)
 n 
 

Выражение (9.17) называется выборочным коэффициентом корреляции


и обозначается через r *.
Из формулы (9.17) легко получить еще одно выражение для вычисления
коэффициента корреляции

r
 x  x y  y  (9.18)
n x  y

В самом деле,
1
 x  x y  y   1  xy  xy  yx  xy  
n n


 xy  x  y  y x  nxy   xy  xy.
n n n n n

откуда следует справедливость формулы (9.18).


При малом числе наблюдений коэффициент корреляции удобно
вычислить по формуле

n  xy   x  y
r , (9.19)
n  x   x  n  y   y 
2 2 2 2

которая получается из выражения (9.17) в результате умножения числителя и


знаменателя на n2.
При большом числе наблюдений удобно пользоваться еще одной
модификацией формулы (9.17), а именно,

r  a 1 x /  y . (9.20)

Итак, коэффициент корреляции является частным случаем


теоретического корреляционного отношения, когда связь между переменными
X и У линейна. По абсолютной величине он равен  T  r . Отсюда следует, что
коэффициент корреляции можно считать показателем
Р дальнейшем для краткости слово «выборочный» опускается.
тесноты связи в случае, если зависимость между X и Y, линейна.
Докажем следующую теорему.
Теорема 9.1. Коэффициент корреляции принимает значения в интервале
—1, +1.
Доказательство. Докажем справедливость утверждения для случая
дискретных переменных. Запишем явно неотрицательное выражение

2
1 x  x y  y

n   x
   0.
 y 

Возведем выражение под знаком суммы в квадрат

 1 x  x 2  2 1 x  x y  y   1 y  y 2   0.
      2 y 
 n 2x n x y n 

Первое и третье из слагаемых равны единице, поскольку из определения


1
дисперсии следует, что  x  x 2   2x и 1  y  y2   2y . Таким образом,
n n
окончательно получим

1  2r  1  0,

откуда

 1  r  1,

Если коэффициент корреляции положительный, то связь между


переменными положительная. Это значит, что с ростом значений х
увеличивается у. Нели коэффициент имеет отрицательное значение, то связь
между переменными отрицательная, т. е. с ростом значений х величина у
уменьшается. Приведем следующее важное свойство коэффициента
корреляции. Коэффициент корреляции не зависит от выбора начала отсчета и
единицы измерения, т. е. от любых постоянных a 1 и a 2 , b1 и b 2 таких, что
а1,>0 и а2>0, т. е.

r a 1 x  b1 ; a 2 x  b 2   r x , y .

Таким образом, переменные х и у можно уменьшать или увеличивать в


а раз, а также вычитать (или прибавлять) к значениям х и у одно и то же число
Ь. В результате величина коэффициента корреляции не изменится.
Если коэффициент корреляции r(х, у)= 0, то случайные величины
некоррелированы. Некоррелированность не следует смешивать с
независимостью, независимые случайные величины всегда некоррелированы.
Однако обратное утверждение неверно: некоррелированные величины могут
быть 'зависимы и даже функционально.
Пример 8. По данным, приведенным в таблицы 9 2, вычислить коэф-
фициент корреляции.
Решение. Воспользуемся формулами (9.19) и (9.20). Разделим числитель
и знаменатель выражения (9.19) на n. В результате получим

r
 xy   x  y  1 / n  . (9.21)
 x   x  / 2  y   y  / 2
2 2 2 2

Все необходимые суммы вычислены (таблица 9.2). Имеем:

 xy  37175,0  x  735,0;  y  7110,0;  x 2  4053,5;


 y 2  363950,0.

Подставляя числовые значения в формулу (9.21), получим


31175,0  735,0  7110,0 / 150
r ,
4053,5  735,0  / 150 363950,0  7110,0  / 150
2 2

откуда r=2336,0/21,26• 164,12=0,67.


При вычислении коэффициента корреляции по формуле (9,20), нужно
найти а1  x и  y . Значение а1, вычислено в примере 3(а1 =5,167). Величины

 x и  y найдем методом моментов:

 x 2mx   xm x
2

x    ,
 
 mx   mx 

 y 2 m y    ym y 
2

y  .
 m y   m y 

Результаты вычислений сведем в таблицу.


Итак, связь между случайными переменными оказалась положительной.
Можно сказать, что число 0,67 — это вероятность прогноза величины у, по х
по полученному в примере 3 уравнению регрессии.
Таким образом, коэффициент корреляции характеризует степень
приближения зависимости между случайными величинами к линейной
функциональной зависимости. Значение коэффициента корреляции
определяет, насколько зависимость между случайными переменными близка
к линейной функциональной.
Таблица 9.8 – Результаты вычислений
xm x 735,0 ym x 7110,0

x 2mx 4053,5 y2m y 363950,0

 mx 150 my 150

 x 2mx 27,02
 y2my 2426,33
 mx my
  x 2mx   y2m y
2 2
 
  24,01   2246,76
  mx   my 
   

 x  1,73,  y  13,4;

r  a 1 x /  y  5,167  1,73 / 13,4  0,67.

Коэффициент корреляции часто используют при нелинейных связях.


Если предварительный графический анализ указывает на какую-либо тесноту
связи, то полезно вычислить коэффициент корреляции. Если |r| =0,84÷0,9, то
можно с уверенностью считать, что независимо от вида этой связи, она
достаточно тесна для того, чтобы исследовать ее форму.

9.8 Интервальное оценивание коэффициента корреляции и


коэффициентов регрессии

Как известно из теории выборочного метода, по данным отдельной


выборки можно оценить параметры генеральной совокупности, т. е. получить
приближенные значения этих параметров и найти доверительные интервалы.
Точечной оценкой коэффициента корреляции р является эмпирический
коэффициент корреляции r, а оценкой коэффициентов регрессии а0 и а1
коэффициенты а0 и а1 соответственно. Однако коэффициент корреляции r
является надежной оценкой р лишь при достаточно близком к нормальному
распределению величин X и У. В этом случае эмпирический коэффициент
корреляции имеет приближенное нормальное распределение с параметрами р
и  r Зная закон распределения r, можно найти доверительные интервалы для
параметра р:

r  t qr < p < r  t qr , (9.22)

где r — эмпирический коэффициент корреляции; tq — параметр

нормированной функции Лапласа (находится в таблице по заданной


доверительной вероятности);  r — среднеквадратическое отклонение r.
Итак, для нахождения доверительных интервалов для р нужно
вычислить  r ,- задаться доверительной вероятностью Р и найти в таблице
соответствующее ей значение t q .

Оценка для  r вычисляется по формуле

1 r2
 r  Sr  .
n

Подставив это выражение в формулу (9.22), получим

1 r2 1 r2
r  tq < p < r  tq . (9.23)
n n
Пример 9. Найти доверительные интервалы для коэффициента
корреляции, вычисленного в примере 8.
Решение. При r =0,67 и n=150 имеем

 
 r  S r  1  0,67 2 / 150  0,045.

Для доверительной вероятности P =0,95 по таблице 4 приложений на


ходим: t q = 1,96. Таким образом, имеем

0,67  1,96  0,045 < p < 0,67  1,96  0,45,


0,582 < p < 0,758.

Следовательно, с вероятностью 0.95 коэффициент корреляции будет


находиться в указанных границах.
В случае небольшого числа наблюдений (n<30) распределение
эмпирического коэффициента корреляции существенно отличается от
нормального. В этом случае для оценки коэффициента корреляции
применяется найденное Фишером преобразование, при котором эмпири-
ческий коэффициент корреляции приравнивается гиперболическому тангенсу
некоторой величины z:

r  thz,

откуда

1 1 r
r  ln .
2 1 r
Распределение величины z не зависит от значений р и n; с ростом числа
наблюдений распределение быстро приближается к нормальному.
При корреляционном анализе необходимо оценить достоверность связи
между переменными, т. е. выяснить, не объясняемся ли величина
коэффициента корреляции, полученная по выборочным данным,
случайностями выборки. Для этого оценивается значимость (или сущест-
венность) коэффициента корреляции. Проверяется гипотеза H0 о том, что р=0,
альтернативной является гипотеза H1: p  0 .
При большом объеме выборки величина r / r подчиняется
нормальному закону распределения с параметрами (0, 1), поэтому проверка
значимости (или существенности) коэффициента корреляции сводится к
следующему: вычисляется значение t  r /  r , которое затем сравнивается с
найденным по таблице 4 приложений для заданной вероятности p значением
tq .

Если t < t q , то принимается гипотеза Н0, т. е. коэффициент корреляции

считать существенным нельзя и его появление объясняется случайностями


выборки. Если t < t q , то гипотеза Н0 отвергается и коэффициент корреляции

можно считать существенным, а связь между случайными переменными X и


Y достоверной.
Пример 10. Оценить существенность коэффициента корреляции,
вычисленного в примере 8.
Решение. Имеем r =0,67,  r =0,045. Вычислим величину

r 0,67
t   14,9.
r 0,045
Вероятности Р=0,95 соответствует значение t q = 1,96. Таким образом,

t >> t q Следовательно, можно сделать вывод о том, что между X и Y

действительно существует корреляционная зависимость.


Доверительные интервалы для коэффициентов регрессии вычисляются
по формуле

a  t q a < a < a  t qa , (9.24)

где а — коэфффициепты регрессии, полученные при решении нормальных


уравнений; t q — параметр нормированной функции Лапласа; a —

среднеквадратическое отклонение коэффициента регрессии.


Среднеквадратическое отклонение коэффициента регрессии
вычисляется по формуле

y 1 r2
a   , (9.25)
x n

где  y — среднеквадратическое отклонение признака у;  x —

средпекьадратическое отклонение признака х; r — эмпирический


коэффициент корреляции; n — количество пар признаков.
Значения  y и x вычисляются по известным формулам для

среднеквадратического отклонения:

n  y 2   y  ,
1 2
y 
n

n  x 2   x  ,
1 2
x 
n
Пример 11. Определить доверительные интервалы для коэффициентов
регрессии, вычисленных в примере 3.
Решение. Необходимые для вычисления  y и  x суммы находим в

таблице 9.2. Подставляя найденные значения в привеченные выше формулы,


получим:

1
y  150  363950,0  7110,0  13,4,
2

150

1
x  150  4053,5  735  1,73.
2

150

По формуле (9.25) имеем

13,4
a   0,045  0,348.
1,73

Доверительной вероятности Р=0,95 соответствует значение t q = 1,96. В

примере 3 было найдено, что a1=5,167 В этом случае доверительный интервал


для и таков.

5,168— 1,96  0,348 <a <5,168 + 1,96  0,348, 4,485<а<5,851.

Таким образом, параметр а с вероятность Р=0,95 находится в


вычисленных пределах.
9.9 Множественная регрессия

Часто одна случайная величина зависит от ряда других переменных.


Пусть, например, случайная величина Y зависит от х1, х2, ..., хn . В этом случае
для изучения связи между переменными используют видоизмененный метод,
применяемый для двух случайных величин, и уравнение связи составляют
между зависимой случайной величиной Y и n переменными х. Для простоты
рассуждений условимся считать, что связь эта линейна и форма ее
определяется следующим уравнением регрессии:

y x   a 0  a 1 x 1  a 2 x 2    a n x n , (9.26)

где x1 ,х2, хn - переменные; а0, а1, ..., аn — неизвестные параметры, называемые


коэффициентами регрессии.
Метод, позволяющий по выборке, которая содержит отдельные
наблюдавшиеся значения переменных у и x1, x2, ..., хn - оценить значение
неизвестных параметров a0, a1, ..., an, называется множественной регрессией.
Выражение (9.26) называется уравнением множественной линейной
регрессии. Коэффициенты уравнения регрессии (9.26) так же, как и в случае
двух признаков, определяют, исходя из принципа наименьших квадратов,

Q   y  a 0  a 1 x 1  a 2 x 2  a n x n   Q min .
2

Последовательно дифференцируя это выражение по a0, a1, ..., an и


приравнивая каждое из полученных выражений нулю, получают систему
нормальных уравнений
na 0  a 1  x 1 a 2  x 2    a n  x n   y,

a 0  x 1  a 1  x 1 a 2  x 1 x 2    a n  x 1 x n   x 1 y,
2



a
 0  x n  a 1  x 1 x n a 2  x 2 x n    a n  x n   x n y,
2

которую затем решают любым известным способом. Для простоты


вычислений обычно используют следующий прием: все переменные
стандартизуют, т. е. вместо у, x1, x2 , …, хn берут

yy x  x1 x  xn
t0  , t1  1 , …, t n  n , (9.27)
0 1 n

где y , х1 х2, ..., хn — средние значения переменных у, х1 х2, ..., хn (по выборке
в N единиц);  0 , 1 ,...,  n — средние квадратические отклонения величин у, х1
х2, ..., хn. В этом случае упрощается вид линейных соотношений между
переменными, что весьма важно при изучении зависимости многих
переменных. В стандартизованном масштабе среднее значение признака равно
нулю, а среднее квадратическое отклонение равно единице. Действительно,

1 N x1  x1 1  1 N 1 N 
t1   1
  
1  N 1
x 1   x 1   0;
N 1 N 1 

1 N x 1  x 1   1 N 2
2
1
 2t1    N 1   x  x  .
N 1 1
1 1
12 12  1 

Выражение в квадратных скобках есть не что иное как 12 . Таким


образом, имеем
 2t1  12 12  1 .

Коэффициент корреляции r12 определяется по формуле

1 N
r12   t 1 t 2 . (9.28)
N 1

Действительно,

1 N t 1  t 1 t 2  t 2 
r12    
N 1

t1 t 2

1 N t 1  0 t 2  0  1 N
 
N 1 1 1
  t1t 2 .
N 1

Очевидно, что коэффициент корреляции, вычисленный по формуле


(9.28), равен коэффициенту корреляции, определенному в натуральном
масштабе.
Уравнение множественной линейной регрессии в стандартизованном
масштабе имеет вид

t y  1 t 1   2 t 2     n t n ,

где t 1 , t 2 ,  t n — стандартизованные значения переменных x 1 , x 2 ,  x n ; t y —

среднее значение стандартизованной зависимой переменной; 1 ,  2 ,  n —


стандартизованные коэффициенты множественной регрессии, которые
находятся из условия

 t y  t y   min .
Используя это условие, приходим к следующей системе нормальных
уравнений:
r10  1   2 r12     n rn ,
r   r   r     r ,
 20 1 21 2 12 n 2n


ri 0  1 r11   2 r12     j rij     n rin ,


rn 0  1 rn1   2 rn 2     n rnn ,

где гij — парный коэффициент корреляции между i-й и j-й независимой


переменной; ri0 — парный коэффициент корреляции между зависимой
переменной у и i-й независимой переменной х.
Решая систему (9.29), находим искомые значения коэффициентов
1 ,  2 ,  n В частности при решении можно использовать способ Крамера, т.
е. считать  i   i / 

1 r12 r13  r1n


r21 1 r23  r2 n

  rij  
rn1 rn 2   1

определитель системы (9.29), а  i , получается из определителя  заменой


соответствующего столбца столбцом свободных членов системы (9.29). Если
оценки коэффициентов регрессии обозначить теми же буквами, что и
коэффициенты регрессии, то в натуральном масштабе их можно выразить
следующим образом:

a i  i  y / i i  1,2, , n ,
a 0  y  a1x1  a 2 x 2    a n x n , (9.30)
где  i — оценки коэффициентов регрессии в стандартизованном масштабе,
полученные в результате решения системы (9.29).
Пример 12. По данным, приведенным в таблице 9.9, вычислить ко-
коэффициенты регрессии. Связь между переменными предполагается
линейной

y  a 0  y  a1x1  a 2 x 2 .

Решение. Во втором, третьем и четвертом столбцах таблицы находятся


значения переменных y1 , x 1и x 2 (N=20) В пятом, шестом седьмом столбцах
приведены t 0 , t 1 , t 2 , , вычисленные по формулам (9.27).
В нижних строках приведены еле чующие значения:

y  73,05; x 1  418,60; x 2  25,55;


 y  9,02; 1  86,9;  2  6,2.

По формулам (9.28) вычисляем парные коэффициенты корреляции:

r01  0,825; r02  0,69; r12  0,57.

Составим систему нормальных уравнений:

1  0,57 2  0,82.
0,571   2  0,69.

Вычислим определители ,  1 ,  2 :
1 0,57
  1  0,325  0,675,
0,57 1

 0,82 0,57
1    0.82  0,39  0,43,
 0,69 1

1  0,82
2    0,69  0,47   0,22.
0,57  0,69

Таким образом, 1  0,43 / 0,675  0,63,  2  0,33.


Переходя к натуральному масштабу, получим:

a 1  1  y /  1 ; a 2   2  y /  2 .

Подставляя числовые значения, имеем:

9,02
a 1  0,63  0,065,
86,9
9,02
.a 2  0,33  0,480,
6,2
a 0  y  a 1 x 1  a 21 x 2 .
a 0  73,05  0,65  418,60  0,48  25,55  112,52.

Итак, уравнение регрессии в натуральном масштабе имеет вид

yx   112,52  0,065x 1  0,48x 2 .

По величине коэффициентов а1 и а2 можно судить, насколько изменится


зависимая переменная, если соответствующая независимая переменная
изменяется на единицу, при условии, что остальные переменные сохраняют
постоянное значение.

Таблица 9.9- Зависимость между пределом прочности на разрыв,


пределом текучести и пределом выносливости симметричном изгибе (для
стали)

на

Предел выносливости при


п.
Предел текучести кг/мм2
прочности

симметричном изгибе
п

t0 t1 t2 t0t1 t0t2 t1t2


разрыв, кг/мм2
Предел

1 2 3 4 5 6 7 8 9 10
1 85,5 255 1,38 17,3 -1,88 -1,33 -2,59 -1,81 2,5
2 81,7 341 0,96 19.8 -0,89 -0,93 -0,85 -0,89 0,83
3 81,7 373 -0,15 30.1 -0,52 0,73 0,08 -0,11 -0,38
4 62,7 447 -1,15 31,9 0,33 1,02 -0,38 -1,17 0,34
5 66,4 446 -0,74 38,3 0,32 2,06 -0,24 -1,52 0,66
6 70,6 410 -0,27 26,5 -0,1 0,15 0,03 -0,04 -0,02
7 65 495 -0,89 36,2 0,88 1,72 -0,78 -1,54 1,51
8 72,8 451 -0,03 21 0,37 -0,73 -0,01 0,02 -0,27
9 67,6 565 -0,6 29,5 1,68 0,64 -1,01 -0,39 1,07
10 90,2 354 1,9 24,9 -0,74 -1,06 -1,41 -2,02 0,78
11 60,2 549 -1,42 25 1,5 -0,09 -2.13 0,13 -0,14
12 74,8 328 0,19 28 -1,04 0,4 -0,2 0,08 -0,41
13 63.4 555 -1,07 33,9 1,57 1,35 -1,68 1,44 2,11
Продолжение таблицы 9.9
1 2 3 4 5 6 7 8 9 10
14 74,2 415 0,13 16,1 -0,04 -1,52 0 -0,19 0,06
15 71,6 415 -0,16 21 -0,04 -0,73 0,01 0,12 0,03
16 60,9 527 -1,35 28,7 1,25 0,51 -1,69 -0,69 0,64
17 81,1 379 0,89 20,3 -0,46 -0,85 -0,41 -0,76 0,39
18 71,5 439 -0,17 19,9 0,23 -0,91 -0,04 0,16 -0,21
19 77,2 350 0,46 22,6 -0,79 -0,48 -0,36 0,22 0,38
20 91,2 278 2,09 20,1 -1,62 -0,88 -3,38 -1,84 1,42

 1461 8372 511,1 -16,5 -13,71 11,32

1 73,05 418,6 25,55


n

 9,02 86,9 6,2

9.10 Частный коэффициент корреляции

Во множественном регрессионном анализе взаимосвязь между


случайными переменными усложняется. Парный (или полный) коэффициент
корреляции между i-й и j-й случайными переменными может не
соответствовать действительности. Например, положительная корреляция
между переменными xi и xj; может быть обусловлена их зависимостью от xk, в
то время как при фиксированном xk эти величины стохастически независимы.
Следовательно, при изучении связи между этими величинами необходимо
исключить влияние xk , т. е. найти теcноту связи при фиксированном значении
xk.
Пусть имеем три случайные переменные:x1, x2, x3. Найдем зависимость
между x1 и x2 при фиксированном значении x3. Эту зависимость можно
выразить через парные коэффициенты корреляции следующим образом:
r12  r13 r23
r12,3  , (9.31)
(1  r 2
13 ) (1  r 2
23 )

где r12 r13 r23 парные коэффициенты корреляции. Действительно, в случае

независимости x1 и x2 от x3 имеем r13 = r23 =0. Тогда по формул(9.31) находим

r13 = r123 =0.

Если x1 и x2 зависяn от x3, то имеем ( r12 - r13 r23 =0), так как r13 и r23
отличны от нуля. Оценивать зависимость с помощью такой разности
неудобно. Поэтому ее нормируют так, чтобы получившийся коэффициент
находился в пределах от - 1 до + 1. В это случае получаем выражение (9.31),
которое в общем виде можно записать так:

rij  rik r jk
rij,k  , (9.32)
(1  r 2
ik ) (1  r 2
jk )

где rij , rik , r jk - парные коэффициенты корреляции. Koэффициент rijk

называется частным или условным коэффициентом корреляции величин без


учета влияния xk. Поскольку исключено влияние только одной переменной, то
коэффициент корреляции называется частным коэффициентом корреляции
первого порядка. В случае четырех переменных можно вычислить частные
коэффициенты корреляции первого и втopoгo порядка. Коэффициенты
втopoгo порядка получаются в результате последовательнoго исключения
парных Коэффициентов корреляции, а затем коэффициентов корреляции
первогo порядка.
Так, для четырех случайных величин x1, x2, x3, x1 коэффициенты
корреляции nepвогo порядка вычисляются по формуле (9.32); затем по
формуле (9.33) можно вычислить коэффициенты корреляции второгo порядка,
например,

r12,3  r14,3 r24,3


r12,34  , (9.33)
(1  r 2
14,3 ) (1  r 2
24,3 )

где r12,3 r14,3 r24,3 частные коэффициенты корреляции первого порядка.

Частные коэффициенты корреляции высших порядков вычисляются


аналогично.
Пример 13. По данным примера 12 вычислить частный коэффициент
корреляции между у и х1, исключив влияние х2.
Решение. Имеем:

r12  0,825; r13  0,69; r23  0,57;

Учитывая найденные величины, по формуле (9.31) получим

 0,825  (0,69 * 0,57)


r12,3   0,725
(1  0,69 )(1  0,57 )
2 2

Очевидно, что частный коэффициент корреляции между у и х1 меньше


парного коэффициента корреляции между теми же переменными, так как
исключено влияние переменной х2.

9.11 Совокупный коэффициент корреляции

Теснота связи в случае множественной регрессии оценивается


корреляционным отношением, которое в случае линейной связи называется
.множественным или совокупным коэффициентом корреляции и обозначается
буквой R. Рассмотрим подробно структуру и способы вычисления этого
показателя на примере корреляции трех переменных. Имеем:

R   2yx1x 2   2yx1x 2 /  2y , (9.34)

где 2yx1x 2 -корреляционное отношение;

1 1
 yx
2
1x 2

n
 ( y x1x 2  y) 2 ,  2y   ( y  y) 2
n

Здесь y  a 0  a 1 x 1  a 2 x 2 -заданное линейное уравнение


x1 x1

y  a 0  a 1 x 1  a 2 x 2 ; y-наблюдавшиеся значение зависимой переменной.

Таким образом, коэффициент множественной Koppeляции есть мера


зависимости между одной случайной переменной и множеством других.
Коэффициент множественной корреляции выражает точность прогноза
зависимой случайной переменной по линейному уравнению регрессии.
Коэффициент, множественной корреляции можно выразить через
коэффициенты парной корреляции

2
ryx  ryx
2
 2ryx ryx rx x
R 2 i 2 1 2 1 2

1 rx21x 2

Действительно, согласно формуле (9.34), имеем


R  2
 2yx1x 2 /  2y   x1x 2
(y  y) 2

 [a 0  a 1 x 1  a 2 x  a 0  a 1 x 1  a 2 x 2 ] 2

n 2y n 2y


 [a 1 ( x 1  x 1 )  a 2 ( x 2  x 2 ] 2  (9.35)
n 2y


 [ a 1 2 ( x 1  x 1 ) 2  a 2 2 ( x 2  x 2 ) 2  2a 1 a 2 ( x 1  x 1 )( x 2  x 2 )]

n 2y
a 12  2x1  a 22  2x 2  2a 1  x1a 2  x 2 rx1x 2
 ,
 2y

Для трех переменных, учитывая выражение (9.31)