Академический Документы
Профессиональный Документы
Культура Документы
64
Л. Я. Савельев
В статье даются определения основных понятий элементарной теории вероятностей и описываются коэффициенты
корреляции и информации для измерения зависимости между случайными переменными. Коэффициент корреляции
проще, но он измеряет только линейную зависимость и в общем случае не пригоден даже для измерения функциональ-
ной зависимости. Коэффициент информации сложнее, но он измеряет любую стохастическую зависимость между пере-
менными. Применение компьютерных программ позволяет легко вычислять коэффициенты информации.
Ключевые слова: вероятность, распределение, интеграл, корреляция, информация.
ISSN 1818-7889. Вестник НГУ. Серия: Педагогика. 2009. Том 10, выпуск 2
© Л. Я. Савельев, 2009
16 Л. Я. Савельев
a
uj 1
1 a
1 uj 1
a un 1 a
1 un 3.1. Рассмотрим множество F F U всех
n 1
случайных переменных на вероятностном
a a 1 a a. пространстве U , p . Их можно складывать,
Следовательно, перемножать и умножать на числа с соблю-
P sj 0 1 P sj 1 1 a. дением обычных правил действий с функ-
Подчеркнем, что эти вероятности не за- циями. Поэтому F – называют алгеброй.
висят от номера места j в последовательно- Среднее E каждой функции f F – ставит
сти u. Пусть s s j . Тогда в соответствие число Ef. Поэтому E называ-
ется функционалом на F.
n n m Линейность среднего E означает, что
Ps m am 1 a b m, n, a
m E f g Ef Eg , E (cf ) cEf
для каждых f , g F и числа c. Положи-
для m 0, 1, , n . Сумма s u sj u тельность и нормированность означает, что
Ef 0 для каждой f 0 и E 1 1 . Нера-
равна числу единиц в двоичной строке
венство f 0 эквивалентно f u 0 для
u u1 un . Говорят, что переменная s имеет
всех u U , а символ 1 обозначает число 1 и
биномиальное распределение. постоянную на U со значением 1. Формаль-
2.7. Пример. Для двоичной марковской но постоянные тоже являются случайными
последовательности BM n, a, Q аналогич- величинами. Они обозначаются так же, как
ные вероятности вычисляются сложнее. Они их значения. Из нормированности и линей-
зависят от номера места k 0 k n . ности среднего следует равенство Ec c
Используя определения в п. 1.4 и индук- для каждой постоянной c.
цию, нетрудно проверить (упражнение), что Все указанные свойства среднего E легко
в марковском случае проверяются.
P sk 1 P u B n 1 : uk 1 Из линейности и положительности сред-
него следует его монотонность:
1 u0
a u0 1 a q u0 , u1 q uk 1 ,1 Ef Eg f g .
ui , j k
3.2. Пример. Рассмотрим случайную пе-
q 1, uk 1 q un 1 , un b a b dk , ременную s на пространстве B n, a – чис-
где ло единиц в последовательности Бернулли
1 q 0,0 длины n с параметром a. Пусть s j u u j
d q 1,1 q 0,0 1, b
1 d
для u uj B n . Из определений следует,
(предполагается, что d 1 ). Следовательно,
P sk 0 1 b a b d k . что
n n n
В частности, su uj sj u s sj .
P s0 1 a , P s0 0 1 a. j 1 j 1 j 1
Поэтому
Если q 1,1 a, q 0,0 1 a , то d 0 и n n
b a . Марковская последовательность пре- Es E sj Es j .
вращается в бернулевскую и j 1 j 1
P sk 1 a , P sk 0 1 a Но Es j P sj 1 a.
для каждого k 0, 1, ,n. Следовательно, Es na .
В частности, Es n 2 при a 1 2 . При-
3. Свойства среднего близительно таким бывает число гербов при
Основные свойства среднего можно вы- n-кратном подбрасывании симметричной
разить одной фразой: среднее есть нормиро- монеты. Если a 1 4 , то Es n 4 . Прибли-
ванный положительный линейный функ- зительно таким бывает число пар гербов при
ционал на алгебре случайных переменных. n-кратном подбрасывании двух симметрич-
Эти свойства среднего существенно помо- ных монет. (Предполагается, что n доста-
гают при вычислениях. точно большое.)
Коэффициенты корреляции и информации 19
2
Df E f 2 Ef . f , g E fg f , g F .
Она доказывается так: Свойства скалярного произведения легко
E f Ef
2
E f 2 2 f Ef Ef
2 проверяются. Оно симметрично
2 f , g E fg E gf g , f ; линейно по
=E f 2 2E f Ef E Ef
каждой переменной:
= E f 2 2 Ef 2 Ef 2 E f 2 2
Ef .
af bg, h E af bg h E afh bgh
В частности, если f X – событие, то
aE fh bE gh a f , h b g , h
X2 X , EX PX и
2
и по симметрии
DX P X P X f , bg ch b f , g c f , h
P X 1 P X P X P X . для каждых переменных f , g , h F и чисел
Дисперсия события X равна произведе- a , b, c ; положительно на диагонали:
нию его вероятности на вероятность его до- f, f E f 2 0.
полнения X U X . Для стандарта верно Если вероятность p невырожденная
равенство p u 0 для каждого исхода u U , то ска-
S X P X P X .
лярное произведение , невырожденное:
4.5. Пример. Случайные переменные s j
f, f 0 f 0.
на пространстве Бернулли B n, a являются
5.2. Каждую переменную f F можно
событиями и Es j a j 1, , n . Поэтому центрировать с помощью ее среднего значе-
Ds j a1 a . ния Ef и перейти к центрированной пере-
Ковариации C s j , sk при j k равны 0: менной f 0 f Ef со средним значением
Ef0 E f Ef Ef Ef 0 .
E sj a sk a E s j sk s j a ask a2
Сумма и произведение на число центри-
E s j sk aEs j aEsk a2 рованных переменных тоже центрированы.
Значит, центрированные переменные со-
a2 a2 a2 a2 0 ставляют подпространство векторного
так как E s j sk a 2 (1.3.4). Следовательно, пространства F. Обозначим это подпро-
D sj sk Ds j Dsk 2a 1 a . странство F0 F0 U . Каждый вектор про-
По индукции нетрудно обобщить эту странства F равен сумме некоторых вектора
формулу (упражнение) на n слагаемых из F0 и постоянной:
s1 ,, sn . Дисперсия числа единиц в после- f f 0 c , f 0 f Ef , c Ef .
довательности Бернулли длины n с парамет- Основные определения корреляционной
ром a выражается равенством теории проще формулировать для центри-
Ds na 1 a . рованных переменных. Заметим, что
2
Стандартное отклонение числа единиц от Df 0 E f 0 f0 , f0 ,
среднего значения na имеет порядок n . Sf0 Df0 f0 , f0
5. Корреляционная теория для каждой центрированной f 0 .
Эта теория используется при описании 5.3. В соответствии с общим определе-
зависимости случайных переменных. Для ее нием нормы вектора в евклидовом про-
изложения удобен геометрический язык. странстве положим
5.1. Алгебра F F U переменных на f0 f0 , f0 Sf0 .
вероятностном пространстве U , p являет- Норма центрированной переменной рав-
ся векторным пространством: переменные на ее стандарту.
можно складывать и умножать на числа, Если f 0 0 , то центрированную пере-
соблюдая обычные для векторов правила. менную f 0 можно нормировать и перейти к
Это пространство можно сделать евклидо- нормированной переменной
вым, если с помощью среднего E опреде-
лить скалярное произведение таких векторов f0 f0 f0
Коэффициенты корреляции и информации 21
Этот пример показывает, что коэффици- ся из белой урны. Какова вероятность того,
ент корреляции может равняться 0 и тогда, что оба выбирающиеся шара имеют одина-
когда случайные переменные явно зависи- ковый цвет?
мы. Поэтому нужны более адекватные меры 1. Подробное решение. Условимся опи-
зависимости между случайными перемен- сывать:
ными, описывающие не только линейную строкой 11: выбор черного шара из крас-
зависимость. ной урны и черного шара из черной урны;
5.8. Формула полной вероятности. Стан- строкой 12: выбор черного шара из крас-
дартные задачи, решаемые с помощью фор- ной урны и белого шара из черной урны;
мулы полной вероятности, можно схемати- строкой 21: выбор белого шара из крас-
чески описать следующим образом. ной урны и черного шара из белой урны;
Задача о полной вероятности. Известны: строкой 22: выбор белого шара из крас-
1) вероятности P( Bi ) i нескольких ис-
ной урны и белого шара из белой урны.
ключающих друг друга условий Bi одно из Множество строк U {11, 12,21,22} опи-
сывает возможные результаты рассматри-
которых с достоверностью выполняется;
ваемого опыта.
2) условные вероятности PBi ( A) i со-
Условия B1 {11,12} , B2 {21, 22} опи-
бытия A при условии, что выполняется Bi . сывают соответственно выбор черного и
Какова вероятность P( A) события A ? белого шаров из красной урны. Так как вы-
Решение. Рассмотрим конечную вероят- бор производится наугад, то
ностную модель с множеством исходов 1 a1 a2 2
U {11, , i1, , n1,10, , i0, , n0} , состав- P( B1 ) , P( B2 ) .
a1 a2 3 a1 a2 3
ленном из n строк 11, , i1, , n1 , n строк Аналогично, вследствие выбора наугад
10, , i 0, , n0 , и элементарной вероятно- шаров из черной и белой урн, условные ве-
стью p со значениями: роятности события A {11,12} , описываю-
p(i1) i i, p(i 0) i (1 i) (i 1, , n). щего выбор двух черных или двух белых
В этой модели каждое условие шаров, равны соответственно:
Bi {i1, i0} (i 1, , n) составлено из двух 2 b1 c1 4
PB1 ( A) , PB2 ( A) .
строк i1 и i0 , а событие b1 b2 5 c1 c2 7
A {11, , i1, , n1} - из строк 11, , i1, , n1 . Из правила умножения вытекает, что
Используя свойства вероятностей i элементарная вероятность p , описывающая
и i , нетрудно проверить, что в этой модели реализуемость возможных результатов рас-
P( Bi ) сматриваемого опыта, имеет значения:
i, PBi ( A) i (i 1, , n).
Решение задачи дает формула полной a1 b1 1 2
p (11) ,
вероятности a1 a2 b1 b2 3 5
n n
P( A) P( Bi ) PBi ( A) . a1 b2 1 3
i i p (12) ,
i 1 i 1 a1 a2 b1 b2 3 5
5.9. Рассмотрим несколько примеров на a2 c2 2 4
вычисление вероятностей. Они будут ис- p(21) ,
a1 a2 c1 c2 3 7
пользоваться в примерах на вычисление ко-
эффициентов корреляции. p(22)
a2 c1
2 3
.
Пример 1. Имеются красная, черная и a1 a2 c1 c2 3 7
белая урны с черными и белыми шарами. В вероятностной модели, определяемой
В красной урне a1 1 черный и a0 2 бе- такими множеством исходов U и элемен-
лых шара, в черной – b1 2 черных и b0 3 тарной вероятностью p , задача сводится к
белых, в белой – c1 3 черных и c0 4 бе- вычислению вероятности P( A) события
лых. Из красной урны наугад выбирается A {11,21} . По формуле полной вероятности
шар. Если этот шар черный, то следующий P( A) P( B1 ) PB1 ( A) P( B2 ) PB2 ( A)
шар также наугад выбирается из черной ур-
ны. Если шар, выбранный из красной урны, 1 3 2 3
0,51.
белый, то следующий шар наугад выбирает- 3 5 3 7
Коэффициенты корреляции и информации 23
тексте 67 % гласных и 33 % согласных букв. p1 p0 r11 r10 r01 r00 1 ). Искомая ве-
Среди букв, следующих непосредственно за роятность равна
гласной, 49 % гласных и 51 % согласных. 1 1 2 2 p1r11 p0 r01 q1 0,66 .
Среди букв, следующих непосредственно за Пример 8. В условиях примера 7 какова
согласной, 100 % гласных и 0 согласных. вероятность того, что принимается сиг-
Какова вероятность того, что за наугад вы- нал 0?
бранной буквой самоанского текста непо- Ответ: p1r10 p0 r00 0,34 .
средственно следует гласная буква? Пример 9. По линии связи с вероятно-
Задача сводится к задаче о полной веро-
стью pi посылается сигнал i ( i 0, 1, ,
ятности с вероятностями условий 1 0,67 ,
n 1 ). Если посылается сигнал i , то с вероят-
0,33 и условными вероятностями
0
ностью rij принимается сигнал j ( j 0, 1, ,
0 49 , 0 . Искомая вероятность
1 0
n 1 ). Какова вероятность того, что прини-
равна 1 1 2 2 0,66 . мается сигнал j ?
Замечание. В примерах 7–9 рассматри- Задача сводится к задаче о полной веро-
вается система связи (рис. 1): ятности с вероятностями условий i pi и
Линия связи условными вероятностями i rij . Искомая
Передатчик Приемник
вероятность равна
n 1 n 1 n 1
Рис. 1 qi pi rij pi rij 0, pi 1, qj 1 .
i 0 i 0 j 0
x1 y1 y2 x2 при y1 y2
s x, y log r y I f ,g H g 0.
x, y и в множестве X элементов не меньше, чем в
Пусть x X. Так как s x, y 0, Y. При этом y g u , f u g u для
s x, y q x , то выполнено некоторого u U .
y Таким образом, если IK f , g 1 или,
0 s x, y q x , s x, y log s x, y q x 0. что эквивалентно, I f , g H f H g ,
Поэтому то для каждого x X существует единст-
s x, y венный элемент y x Y , для которого
s x, y log 0
x, y q x s x, y 0 . При этом s x, x q x . Точно
s x, y так же для каждого y Y существует един-
s x, y log 0 ственный элемент x y X , для которо-
q x
го s x, y 0 . При этом s y , y r y .
для всех пар x, y . А из
Множества X и Y имеют одно и то же число
s x, y q x 0 следует, что существу- элементов. Для всех y x и для всех
y
N H ( X ,Y ) I ( X ,Y ) I /H
5 3,058157329 0,477325149 0,156082601
10 4,263773642 0,218176722 0,051169865
15 4,917559179 0,128902473 0,026212694
20 5,361868389 0,088804858 0,016562297
25 5,698574847 0,067360554 0,011820597
30 5,970157286 0,054299593 0,009095170
35 6,198046467 0,045545940 0,007348435
40 6,394515148 0,039261528 0,006139876
45 6,567256381 0,034520625 0,005256476
50 6,721422755 0,030810876 0,004583981
L. Savelev
The basic concepts of the elementary theory of probabilities definitions are given and the coefficients of correlation
and information for measurement of dependence between random variables are described. The coefficient of correlation is
simpler, but it measures only linear dependence and generally is not suitable even for measurement of functional depen-
dence. The coefficient of information is more complex, but it measures any stochastic dependence between variables.
Computer programs allow easily calculate coefficients of information.
Keywords: probability, distribution, integral, correlation, information.