Академический Документы
Профессиональный Документы
Культура Документы
Взаимная информация
41
словами,
I( X, Y) I(Y, X) . (7.41)
Покажем это. Действительно, исходя из (7.35),
H( X, Y) H( X) H(Y / X) H(Y) H( X / Y) ,
откуда следует, что
I( X, Y) H( X) H( X / Y) H(Y) H(Y / X) I(Y, X) , (7.42)
т.е. имеет место симметрия (7.41). Поэтому можно
пользоваться любым из двух приведенных в (7.42) ва-
риантов расчета I( X, Y) I(Y, X) .
Подставив в формулу (7.39) выражение H( X / Y)
из (7.33), можно получить еще один возможный вариант
расчета I( X, Y) :
I( X, Y) H( X) H( X / Y) H( X) [H( X, Y) H(Y)]
H( X) H(Y) H( X, Y) . (7.44)
Взаимная информация обладает следующими
свойствами:
1) I( X, Y) 0 , если события множеств X и Y
статистически независимы, т.е. p(x i , y j ) p(x i )p(y j ) для
всех i и j . Это непосредственно следует из формулы
(7.43), поскольку
p( x i , y j ) p( x i )p( y j )
log log 0.
p( x i )p( y j ) p( x i )p( y j )
Из интуитивных представлений тоже ясно, что если со-
бытия множества Y никак не связаны с появлением
событий множества X , то события множества Y не
несут никакой информации о событиях множества X , и
наоборот.
2) I( X, Y) 0 при зависимости событий множеств
X и Y , что вытекает из выражения (7.39), и учете не-
равенства H( X / Y) H( X) и H(Y / X) H(Y) (7.36).
3) I( X, Y) I max ( X, Y) H(x) , если события множе-
ства Y достоверно отражают события множества X ,
42
т.е. по реализации Y можно точно восстановить реали-
зацию X , или наоборот. Математически это означает,
что
1, j i
p( x i / y j ) .
0, j i
В этом случае H( X / Y) 0 и из (7.39) следует, что
I( X, Y) H( X) .
4) Взаимная информация обладает свойством
симметрии (7.42).
Если на вход канала передачи поступают от ис-
точника информации сообщения, сформированные из
символов алфавита X (x1 , x 2 ,..., x N ) , то, как было выше
сказано, энтропия H( X) , измеряемая в (бит/симв.), ха-
рактеризует количество информации, приходящейся в
среднем на один символ алфавита X . Взаимная ин-
формация I( X, Y) ,также измеряемая в (бит/симв.), ха-
рактеризует приходящееся в среднем на один символ
количество информации, содержащейся в принятом с
выхода канала сообщении, сформированном из симво-
лов алфавита Y (y 1 , y 2 ,..., y M ) , относительно исходно-
го переданного сообщения. Другими словами, I( X, Y) -
это среднее количество информации, переносимой на
приемную сторону одним передаваемым по каналу свя-
зи символом.
При отсутствии помех I( X, Y) H( X) , поскольку
при этом H( X / Y) 0 . Это максимальное количество
информации, приходящееся в среднем на один символ,
которая может быть получена от источника сообщений.
В общем случае, при наличии помех H( X / Y) 0
и I( X, Y) H( X) . Поэтому величину H( X / Y) H( X)
I( X, Y) можно назвать удельной потерей информа-
43
ции, т.е. потерей количества информации, приходя-
щейся в среднем на один передаваемый символ
I 1 H( X / Y) H( X) I( X, Y) . (7.45)
Если на вход канала передачи поступает сооб-
щение, состоящее из L символов алфавита X , то об-
щее количество информации в этом передаваемом со-
общении
I ,пер . L H( X) , (7.46)
а общее количество принятой взаимной информации
I ,пр . L I( X, Y) L[H( X) H( X / Y)] . (7.47)
Следовательно, обусловленная неидеальностью
канала передачи общая величина потерь информации
I I ,пер . I .пр . L[H(x) I( X, Y)] L H( X / Y) . (7.48)
Ввиду свойства симметрии взаимной информа-
ции (7.42), общее количество принятой на приеме вза-
имной информации можно рассчитать и по формуле
I ,пр. L I( X, Y) L I(Y, X) L[H(Y) H(Y / x)] , (7.49)
либо, используя соотношение (7.44), по формуле
I ,пр . L[H( X) H(Y) H(Y / x)] . (7.50)
Пример 7.5. Некоторый источник дискретных со-
общений имеет алфавит символов X (x1 , x 2 , x 3 ) , веро-
ятности появления которых p(x1 ) 0,7 ; p(x 2 ) 0,2 ;
p(x 3 ) 0,1 . Канал передачи, на вход которого поступают
сформированные источником сообщения, характеризу-
ется матрицей переходных вероятностей
y1 y 2 y 3
x 1 0,98 0,01 0,01
P( Y / X )
x 2 0,1 0,75 0,15
x 3 0,2 0,3 0,5
Требуется рассчитать:
44
а) количество информации в сформированном
источником сообщении длиной L 1000 символов;
б) количество принятой информации;
в) величину информационных потерь при пере-
даче этого сообщения.
Решение. а) Количество информации в сообще-
нии длиной в L символов, поступившем от источника
на вход канала передачи, определяется соотношением
(7.446), где H( X) – энтропия источника, определяемая
по формуле (7.5), равна:
N
H( X) p( x i ) logp( x i ) (0,7 log 0,7 0,2 log 0,2 0,1 log 0,1)
i 1
45
0,7 0,98 0,2 0,1 0,1 0,2 0,726 ;
p(y 2 ) p(x1 )p(y 2 / x1 ) p(x 2 )p(y 2 / x 2 ) p(x 3 )p(y 2 / x 3 )
0,7 0,01 0,2 0,75 0,1 0,3 0,187 ;
p(y 3 ) p(x1 )p(y 3 / x1 ) p(x 2 )p(y 3 / x 2 ) p(x 3 )p(y 3 / x 3 )
0,7 0,01 0,2 0,15 0,1 0,5 0,087 .
Отсюда следует, что энтропия выходного множе-
ства
H(Y) (0,726 log 0,726 0,187 log 0,187 0,087 log 0,087)
1,095 бит/смв.
Условная энтропия множества Y по множеству
X может быть рассчитана по формуле (7.31):
N M
H( Y / X) p( x i ) p( y j / x i ) log p( y j / x i )
i 1 j1
46
I I ,пер . I ,пр . 1156,8 630 526,8 бит.
H( X) H( X / Y) H( Y) H( Y / X)
а) H( X, Y) H( X) H( Y)
I( X, Y) H( X) H( X / Y) H( Y) H( Y / X) 0
H( X) H( Y)
H( X / Y) H( Y / X)
H( X, Y)
б)
I ( X, Y ) H ( X ) H ( X / Y ) H ( Y ) H ( Y / X )
H ( X ) H ( Y ) H ( X, Y ) 0
Рисунок 7.4. Геометрическая иллюстрация информа-
ционных характеристик двух множеств случайных событий
Xи Y:
а) множества X и Y статистически независимы;
б) множества X и Y статистически взаимосвязаны.
48