Академический Документы
Профессиональный Документы
Культура Документы
Module « CC »
Exo 1 :
1. Calculer la quantité d’information propre I(Ei) associée à chaque évènement
Ei, i ∈ {1, 2, 3, 4}.
Par définition, on a I(Ei) = − log2(P r(X = Ei)). Pour les évènements E1, . . . , E4 on
a donc :
16
()4
• I(E1) = − log2 32 = 4.30.
4
30
()4
• I(E2) = − log2 32 = 2.89.
4
( )
• I(E3) = − log2 32 = 12.13.
4
( )
• I(E4) = − log2 32 = 15.13.
4
D’où
32
(( )( ))
I(E1 ; E2) = - log 20 16
4
4
4
= −7, 94. Ici l’information mutuelle est
(( ))
I( E ) = - log(Pr(X=E)) = -log 32
4
= 15.13.
1
Ici toutes les mains ont la même probabilité p = 32
4 ( ) d’arriver et donc :
1
32
( )
H(X) = - p log(p) 4 = - log
(( ))
32
4
= 15.13.
Ainsi la quantité d’information nécessaire pour spécifier une main est égale à
l’entropie de la variable aléatoire correspondant au contenu d’une main.
Exo 7 :
a) : est une instance de la règle de la chaine pour l’entropie conjointe :
H( X , Y ) = H(X) + H(Y/X) = H (Y) + H(X/Y) .
Avec : Y = g(x) .
1, y=g ( x )
{
P(y|X=x) = 0 , y ≠ g ( x ) d’où
1
P(y|X = x) log p ( y∨X =x) = 0 , ∀ y ∈ g( X )
et donc
H(g(X)/X) = Ex [ E( y ∈ g ( x )) 0 ] = 0
d¿
est une conséquence immédiate de la non-négativité de l’entropie
conditionnelle : H(X|Y) ≥ 0 , avec Y= g(X) .
Exo 3 :
1) Si les joueurs sont équilibrés , la probabilité de chaque branche est ½ .
Nous pouvons donc établir la probabilité conjointe de X et Y , résumée
par le tableau suivant :
Par un simple calcul de loi marginale, nous obtenons facilement que Y est
une variable uniforme binaire, Y ∈{2,3 } , que la loi de X est la suivante :
Et que p( X| Y = 2 ) est uniforme dans { AA , BB } et p ( Y | X = 3) est
uniforme dans { ABA ,ABB ,BAA, BAB } . par application directe de la
définition d’entropie , nous obtenons :
1 1 1
H(X|Y) = 2 H(X|Y= 2 ) + 2 H( X| Y = 3 ) = 2 ( 1 + 2 ) = 1.5 bits.
Il est évident que Z est une variable uniforme dans l’ensemble { A ,B } , et
donc son entropie est H(Z) = 1 bit.
Conditionnellement à la valeur de Z = z , la séquence X peut prendre trois
valeurs ; une correspondant à la suite X = zz de longueur 2 ( avec
probabilité ½), et les deux autres correspondant à la victoire de l’autre
équipe dans le premier ou le deuxième jeu ( z(bar)z , zz(bar)), chacune
avec prob ¼ . Les entropies conditionnelles sont donc indépendantes de
la valeur de z :
1 2
H( X|Z = z ) = 2 log2 + 4
log4 = 1.5 bits.
I (Z ; Y) = 0.
Figure : représentation du tournoi par un arbre binaire.