Вы находитесь на странице: 1из 84

Information et quantité d’information

Vincent Vajnovszki

Vincent Vajnovszki Information et quantité d’information


Sleon une édtue de l’Uvinertisé de Cmabrigde, l’odrre des
ltteers dnas un mot n’a pas d’ipmrotncae, la suele coshe
ipmrotnate est que la pmeirère et la drenèire lteetrs sinoet à la
bnnoe pclae. Le rsete peut êrte dnas un dsérorde ttoal et vuos
puoevz tujoruos lrie snas porblmèe. C’est prace que le creaveu
hmauin ne lit pas chuaqe ltetre elle-mmêe, mias le mot cmome
un tuot.

Vincent Vajnovszki Information et quantité d’information


La théorie de l’information se préoccupe des systèmes de
communication et de leur efficacité.

Vincent Vajnovszki Information et quantité d’information


La théorie de l’information se préoccupe des systèmes de
communication et de leur efficacité.

Ce domaine trouve son origine scientifique avec Claude


Shannon qui en est un peu le père fondateur par son article A
Mathematical Theory of Communications publié en 1948.

Vincent Vajnovszki Information et quantité d’information


Parmi les branches importantes, on peut citer :
le codage de l’information,
codes correcteurs d’erreurs,
la mesure quantitative de redondance d’un texte,
la compression de données,
la cryptographie.

Vincent Vajnovszki Information et quantité d’information


Plusieurs scientifiques la considèrent même comme une
grandeur physique fondamentale.

Vincent Vajnovszki Information et quantité d’information


Plusieurs scientifiques la considèrent même comme une
grandeur physique fondamentale.
Rolf Landauer (IBM) : l’information est physique et elle doit
avoir la même place, dans l’analyse du monde qui nous
entoure, que la matière, l’énergie, l’espace et le temps.

Vincent Vajnovszki Information et quantité d’information


Plusieurs scientifiques la considèrent même comme une
grandeur physique fondamentale.
Rolf Landauer (IBM) : l’information est physique et elle doit
avoir la même place, dans l’analyse du monde qui nous
entoure, que la matière, l’énergie, l’espace et le temps.
Gilles Cohen-Tannoudji : il faut introduire une quatrième
constante fondamentale, une constante informationnelle
ayant le même statut que la vitesse de la lumière c, la
constante de gravitation G et la constante de Planck h
pour rendre compte de l’importance de la notion
d’information en physique théorique.

Vincent Vajnovszki Information et quantité d’information


La théorie de l’information a ainsi orienté l’évolution de
certaines disciplines scientifiques.

Vincent Vajnovszki Information et quantité d’information


La théorie de l’information a ainsi orienté l’évolution de
certaines disciplines scientifiques.
La biologie moléculaire qui a été dominée dans la seconde
moitié du XXe siècle par des approches centrées sur
l’information génétique,

Vincent Vajnovszki Information et quantité d’information


La théorie de l’information a ainsi orienté l’évolution de
certaines disciplines scientifiques.
La biologie moléculaire qui a été dominée dans la seconde
moitié du XXe siècle par des approches centrées sur
l’information génétique,
Les sciences humaines et sociales, des théories comme le
structuralisme,

Vincent Vajnovszki Information et quantité d’information


La théorie de l’information a ainsi orienté l’évolution de
certaines disciplines scientifiques.
La biologie moléculaire qui a été dominée dans la seconde
moitié du XXe siècle par des approches centrées sur
l’information génétique,
Les sciences humaines et sociales, des théories comme le
structuralisme,
Certaines conceptions néolibérales de l’économie
s’appuient elles aussi sur une conception essentialiste de
l’information.

Vincent Vajnovszki Information et quantité d’information


Il faut moins de bits pour écrire chien que mammifère.
Pourtant l’indication Médor est un chien contient bien plus
d’information que l’indication Médor est un mammifère : le
contenu d’information sémantique d’un message dépend du
contexte. En fait, c’est le couple message + contexte qui
constitue le véritable porteur d’information.
Un évènement avec peu de probabilité représente beaucoup
d’information

Vincent Vajnovszki Information et quantité d’information


Il faut moins de bits pour écrire chien que mammifère.
Pourtant l’indication Médor est un chien contient bien plus
d’information que l’indication Médor est un mammifère : le
contenu d’information sémantique d’un message dépend du
contexte. En fait, c’est le couple message + contexte qui
constitue le véritable porteur d’information.
Un évènement avec peu de probabilité représente beaucoup
d’information
Exemple : Il neige en janvier contient beaucoup moins
d’information que Il neige en août pour peu que l’on soit dans
l’hémisphère nord.

Vincent Vajnovszki Information et quantité d’information


Définition Une information désigne un ou plusieurs
événements possibles parmi un ensemble fini d’événements.
L’information permet de diminuer l’incertitude.

Vincent Vajnovszki Information et quantité d’information


Définition Une information désigne un ou plusieurs
événements possibles parmi un ensemble fini d’événements.
L’information permet de diminuer l’incertitude.
Exemple Considérons par exemple une source qui peut
produire trois symboles a, b et c. Quand le destinataire attend
un symbole, il est dans l’incertitude quant au symbole que la
source va engendrer. Lorsque le symbole apparaı̂t et qu’il
arrive au destinataire, cette incertitude diminue.

Vincent Vajnovszki Information et quantité d’information


Le but de la théorie de l’information est de mesurer cette
incertitude avant réception.

Vincent Vajnovszki Information et quantité d’information


Le but de la théorie de l’information est de mesurer cette
incertitude avant réception.
Exemple On recherche une lettre dans une boı̂te. Si on précise
que la lettre se trouve dans une enveloppe bleue, on fournit
une information qui diminuera le temps de recherche du fait
que le nombre de lettres dans des enveloppes bleues est plus
restreint.
Si on ajoute l’information que la lettre dans une grande
enveloppe, on pourra abréger d’autant plus le temps de la
recherche.

Vincent Vajnovszki Information et quantité d’information


Quantité d’information

Définition La quantité d’information est définie par


 
N
log2
n

N est le nombre d’événements possibles


n est le cardinal du sous-ensemble dénoté par l’information
qui est exprimé en logon.
Observation La quantité d’information est une fonction
croissante.

Vincent Vajnovszki Information et quantité d’information


Exemple Dans une boı̂te il y a N = 1050 lettres dont
n1 = 500 lettres en enveloppes bleues
n2 = 250 en grandes enveloppes
n = 40 en grandes enveloppes bleues

Vincent Vajnovszki Information et quantité d’information


Exemple Dans une boı̂te il y a N = 1050 lettres dont
n1 = 500 lettres en enveloppes bleues
n2 = 250 en grandes enveloppes
n = 40 en grandes enveloppes bleues
L’information :
la lettres
  est dans une enveloppe dans la boı̂te vaut
N
log2 N = log2 (1) = 0
la lettres
 est dans une enveloppe bleue vaut
log2 nN1 = log2 ( 1050
500 ) = 1, 07
la lettres
 est dans une grande enveloppe vaut
log2 nN2 = log2 ( 1050
250 ) = 2, 07
la lettres
 est dans une grande enveloppe bleue vaut
log2 nN3 = log2 ( 1050
40 ) = 3, 64

Vincent Vajnovszki Information et quantité d’information


0 1 2

1 3 5 7 2 3 6 7 4 5 6 7
9 11 13 15 10 11 14 15 12 13 14 15
17 19 21 23 18 19 22 23 20 21 22 23
25 27 29 31 26 27 30 31 28 29 30 31

3 4

8 9 10 11 16 17 18 19
12 13 14 15 20 21 22 23
24 25 26 27 24 25 26 27
28 29 30 31 28 29 30 31

Vincent Vajnovszki Information et quantité d’information


Entropie

L’entropie nous permet de mesurer la quantité moyenne


d’information contenue dans un ensemble de messages et de
mesurer l’incertitude.

Vincent Vajnovszki Information et quantité d’information


Entropie

L’entropie nous permet de mesurer la quantité moyenne


d’information contenue dans un ensemble de messages et de
mesurer l’incertitude.
Soit X un ensemble partitionné en n sous-ensembles Xi ,
1 ≤ i ≤ n (les messages), avec
i=n
[
X = Xi
i=1

Par définition, la quantité d’information liée à chaque message


de Xi est
   
|X | N
I(Xi ) = log2 = log2 .
|Xi | ni

Vincent Vajnovszki Information et quantité d’information


Définition L’entropie d’une partition est
i=n  
X ni N
H(partition) = log2
N ni
i=1

Vincent Vajnovszki Information et quantité d’information


Définition L’entropie d’une partition est
i=n  
X ni N
H(partition) = log2
N ni
i=1

Observation Si
ni
pi =
N
est la probabilité de l’apparition d’un message en Xi
i=n
X
H(partition) = − pi log2 (pi )
i=1

Vincent Vajnovszki Information et quantité d’information


Du fait que les Xi forment une partition de X ,
i=n
X
pi = 1,
i=1

et l’entropie correspond à la distribution de probabilité de tous


les messages possibles.

Vincent Vajnovszki Information et quantité d’information


Exemple Soit une urne content N = 100 boules dont x
blanches et 100 − x boules noires. On considère l’expérience
qui consiste à tirer une boule.

Vincent Vajnovszki Information et quantité d’information


Exemple Soit une urne content N = 100 boules dont x
blanches et 100 − x boules noires. On considère l’expérience
qui consiste à tirer une boule.
I(b)=quantité d’information liée à l’apparition d’une boule
blanche
I(n)=quantité d’information liée à l’apparition d’une boule
noire
H=quantite d’information moyenne par expérience =
l’entropie

Vincent Vajnovszki Information et quantité d’information


Exemple Soit une urne content N = 100 boules dont x
blanches et 100 − x boules noires. On considère l’expérience
qui consiste à tirer une boule.
I(b)=quantité d’information liée à l’apparition d’une boule
blanche
I(n)=quantité d’information liée à l’apparition d’une boule
noire
H=quantite d’information moyenne par expérience =
l’entropie
   
x 100 100 − x 100
H= log2 + log2
100 x 100 100 − x

Vincent Vajnovszki Information et quantité d’information


Exemple Soit une urne content N = 100 boules dont x
blanches et 100 − x boules noires. On considère l’expérience
qui consiste à tirer une boule.
I(b)=quantité d’information liée à l’apparition d’une boule
blanche
I(n)=quantité d’information liée à l’apparition d’une boule
noire
H=quantite d’information moyenne par expérience =
l’entropie
   
x 100 100 − x 100
H= log2 + log2
100 x 100 100 − x

x 100 − x I(b) I(n) H


50 50 1 1 1

Vincent Vajnovszki Information et quantité d’information


Exemple Soit une urne content N = 100 boules dont x
blanches et 100 − x boules noires. On considère l’expérience
qui consiste à tirer une boule.
I(b)=quantité d’information liée à l’apparition d’une boule
blanche
I(n)=quantité d’information liée à l’apparition d’une boule
noire
H=quantite d’information moyenne par expérience =
l’entropie
   
x 100 100 − x 100
H= log2 + log2
100 x 100 100 − x

x 100 − x I(b) I(n) H


50 50 1 1 1
40 60 1,32 0,73 0,97

Vincent Vajnovszki Information et quantité d’information


Exemple Soit une urne content N = 100 boules dont x
blanches et 100 − x boules noires. On considère l’expérience
qui consiste à tirer une boule.
I(b)=quantité d’information liée à l’apparition d’une boule
blanche
I(n)=quantité d’information liée à l’apparition d’une boule
noire
H=quantite d’information moyenne par expérience =
l’entropie
   
x 100 100 − x 100
H= log2 + log2
100 x 100 100 − x

x 100 − x I(b) I(n) H


50 50 1 1 1
40 60 1,32 0,73 0,97
1 99 6,64 0,014 0,080

Vincent Vajnovszki Information et quantité d’information


• Quand un seul choix est possible (tous les pi sont nuls, sauf
un), l’incertitude est nulle; l’information apportée en spécifiant
ce choix est donc elle aussi nulle.

Vincent Vajnovszki Information et quantité d’information


• Quand un seul choix est possible (tous les pi sont nuls, sauf
un), l’incertitude est nulle; l’information apportée en spécifiant
ce choix est donc elle aussi nulle.
• Dans le cas où les probabilités sont toutes égales (à p), on a

H = log2 (1/p),
cela correspond à une entropie ou une incertitude maximale, et
l’information apportée en spécifiant le choix effectué est
maximale.

Vincent Vajnovszki Information et quantité d’information


Claude Shannon

En 1948, l’Américain Claude Shannon publie l’article


A Mathematical theory of communication.

Vincent Vajnovszki Information et quantité d’information


Claude Shannon

En 1948, l’Américain Claude Shannon publie l’article


A Mathematical theory of communication.
Cette théorie mathématique de la communication a changé
d’identité au fil du temps, puisqu’en français elle est connue
sous le nom de théorie de l’information.

Vincent Vajnovszki Information et quantité d’information


Claude Shannon

En 1948, l’Américain Claude Shannon publie l’article


A Mathematical theory of communication.
Cette théorie mathématique de la communication a changé
d’identité au fil du temps, puisqu’en français elle est connue
sous le nom de théorie de l’information.
Shannon avait élaboré son modèle pour résoudre un problème
de communication téléphonique (augmenter la vitesse de
transmission des données et en diminuer les pertes). Dans ce
modèle, la communication est définie en termes de
transmission d’information, quelle qu’elle soit.

Vincent Vajnovszki Information et quantité d’information


Thermodynamique

Rappelons que l’entropie est une grandeur fondamentale de la


thermodynamique, science élaborée au XIXe siècle le siècle de
la Révolution industrielle, qui permet de quantifier la part de
l’énergie d’un système transformable en énergie mécanique.

Vincent Vajnovszki Information et quantité d’information


Avec les travaux du physicien autrichien Ludwig Boltzmann, à
la fin du XIXe siècle, l’entropie a pu être interprétée dans le
cadre de la physique statistique comme une mesure du
désordre d’un système.

Vincent Vajnovszki Information et quantité d’information


Avec les travaux du physicien autrichien Ludwig Boltzmann, à
la fin du XIXe siècle, l’entropie a pu être interprétée dans le
cadre de la physique statistique comme une mesure du
désordre d’un système.

Vincent Vajnovszki Information et quantité d’information


Plus précisément, l’entropie (statistique) mesure le nombre
d’états microscopiques auxquels peut avoir accès le système
considéré, compte tenu des contraintes macroscopiques telles
que l’énergie totale et le volume

Vincent Vajnovszki Information et quantité d’information


Plus précisément, l’entropie (statistique) mesure le nombre
d’états microscopiques auxquels peut avoir accès le système
considéré, compte tenu des contraintes macroscopiques telles
que l’énergie totale et le volume (un état microscopique est par
exemple caractérisé par les vitesses et positions à un instant
donné de chacun des atomes dont est constitué le système).

Vincent Vajnovszki Information et quantité d’information


Codage pour un canal non bruité

Afin de transmettre un message sous la forme de signal, il faut


le coder; c’est ce que l’on nomme également codage de
source.

Vincent Vajnovszki Information et quantité d’information


Codage pour un canal non bruité

Afin de transmettre un message sous la forme de signal, il faut


le coder; c’est ce que l’on nomme également codage de
source.
écriture
parole
code Morse
code ASCII
unicode
codes binaires i.e. sur l’alphabet {0, 1}

Vincent Vajnovszki Information et quantité d’information


Codage pour un canal non bruité

Afin de transmettre un message sous la forme de signal, il faut


le coder; c’est ce que l’on nomme également codage de
source.
écriture
parole
code Morse
code ASCII
unicode
codes binaires i.e. sur l’alphabet {0, 1}
Soit Σ un alphabet et Σ∗ l’ensemble des mots finis sur cet
alphabet. Un code C = {c1 , ..., ck } est un sous-ensemble de
Σ∗ . Les éléments ci ∈ C sont appelés les mots du code.

Vincent Vajnovszki Information et quantité d’information


Si
tous les mots du code sont de même longueur, on dit que
C est un code de longueur fixe ou code en bloc

Vincent Vajnovszki Information et quantité d’information


Si
tous les mots du code sont de même longueur, on dit que
C est un code de longueur fixe ou code en bloc
dans le cas contraire, C est un code à longueur variable

Vincent Vajnovszki Information et quantité d’information


Si
tous les mots du code sont de même longueur, on dit que
C est un code de longueur fixe ou code en bloc
dans le cas contraire, C est un code à longueur variable
si aucun mot du code n’est le préfixe d’un autre C est
appelé préfixe

Vincent Vajnovszki Information et quantité d’information


Si
tous les mots du code sont de même longueur, on dit que
C est un code de longueur fixe ou code en bloc
dans le cas contraire, C est un code à longueur variable
si aucun mot du code n’est le préfixe d’un autre C est
appelé préfixe
Exemple
C = {0, 10, 11} code préfixe de longueur variable

Vincent Vajnovszki Information et quantité d’information


Si
tous les mots du code sont de même longueur, on dit que
C est un code de longueur fixe ou code en bloc
dans le cas contraire, C est un code à longueur variable
si aucun mot du code n’est le préfixe d’un autre C est
appelé préfixe
Exemple
C = {0, 10, 11} code préfixe de longueur variable
C = {1, 01, 11} code non-préfixe de longueur variable

Vincent Vajnovszki Information et quantité d’information


Si
tous les mots du code sont de même longueur, on dit que
C est un code de longueur fixe ou code en bloc
dans le cas contraire, C est un code à longueur variable
si aucun mot du code n’est le préfixe d’un autre C est
appelé préfixe
Exemple
C = {0, 10, 11} code préfixe de longueur variable
C = {1, 01, 11} code non-préfixe de longueur variable
C = {000, 101} code de longueur fixe

Vincent Vajnovszki Information et quantité d’information


Codes optimaux

En associant des codes courts aux messages les plus


fréquents et des codes longs aux messages les moins
fréquents, on peut construire un code optimal : au sens où le
nombre moyen de bits par symbole correspond précisément à
l’entropie de l’ensemble des messages possibles.

Vincent Vajnovszki Information et quantité d’information


Code de Morse

lettre fréquence fréquence alphabet de


en français en anglais Morse
a 6.16 8.05 ·−
b 0.40 1.62 − · ··
c 5.35 3.20 − · −·
d 3.86 3.65 −··
e 18.61 12.31 ·
f 2.24 2.28 · · −·
g 1.79 1.61 −−·
h 1.48 5.14 · · ··
i 6.35 7.18 ··
j 0.04 0.10 · − −−
k 0.13 0.52 −·−

Vincent Vajnovszki Information et quantité d’information


lettre fréquence fréquence alphabet de
en français en anglais Morse
l 5.26 4.03 · − ··
m 1.79 2.25 −−
n 6.02 7.19 −·
o 5.12 7.94 −−−
p 2.92 2.28 · − −·
q 0.62 2.29 − − ·−
r 5.35 6.03 ·−·
s 6.96 6.59 ···
t 7.41 9.59 −
u 5.03 3.10 ··−
v 1.03 0.93 · · ·−
w 0.20 0.25 ·−−
y 1.39 1.88 − · −−
z 0.04 0.09 − − ··

Vincent Vajnovszki Information et quantité d’information


Code de Braille

⠁⠃⠉⠙⠑⠋⠛⠓⠊⠚
a b c d e f g h i j

⠅⠇⠍⠝⠕⠏⠟⠗⠎⠞
k l m n o p q r s t

⠥⠧⠺⠭⠽⠵
u v w x y z
 

Vincent Vajnovszki Information et quantité d’information


Codage de Huffman

Huffman a proposé un algorithme qui construit un code préfixe


optimal

Vincent Vajnovszki Information et quantité d’information


Codage de Huffman

Huffman a proposé un algorithme qui construit un code préfixe


optimal
Longueur moyenne, efficacité et redondance
Soit A = {a1 , a2 , . . . , ak } un alphabet de source tel que
pi est la probabilité d’apparition du symbole ai
ai → ci est un code où ci est un mot de longueur `i ,

Vincent Vajnovszki Information et quantité d’information


Codage de Huffman

Huffman a proposé un algorithme qui construit un code préfixe


optimal
Longueur moyenne, efficacité et redondance
Soit A = {a1 , a2 , . . . , ak } un alphabet de source tel que
pi est la probabilité d’apparition du symbole ai
ai → ci est un code où ci est un mot de longueur `i ,
Définition La longueur moyenne du code est défini comme:
k
X
L= pi `i
i=1

qui correspond à la somme pondérée des longueurs de tous


les mots.

Vincent Vajnovszki Information et quantité d’information


La longueur moyenne coı̈ncide avec le rapport entre
le nombre de symboles binaires du message codé, et
le nombre de symboles de source

Vincent Vajnovszki Information et quantité d’information


La longueur moyenne coı̈ncide avec le rapport entre
le nombre de symboles binaires du message codé, et
le nombre de symboles de source
quand le message est suffisamment long pour que tous les
symboles apparaissent avec une fréquence relative égale à
leur probabilité.

Vincent Vajnovszki Information et quantité d’information


Exemple
alphabet code probabilité
source
1
a 0 2
1
b 10 4
1
c 11 4

Vincent Vajnovszki Information et quantité d’information


Exemple
alphabet code probabilité
source
1
a 0 2
1
b 10 4
1
c 11 4

La longueur moyenne est


3
X 1 1 1
L= pi `i = · 1 + · 2 + · 2 = 1.5
2 4 4
i=1

Vincent Vajnovszki Information et quantité d’information


Exemple
alphabet code probabilité
source
1
a 0 2
1
b 10 4
1
c 11 4

La longueur moyenne est


3
X 1 1 1
L= pi `i = · 1 + · 2 + · 2 = 1.5
2 4 4
i=1

L’entropie est
k
X 1 1 1 1
H= pi log2 ( ) = ·log2 (2)+ ·log2 (4)+ ·log2 (4) = 1.5
pi 2 4 4
i=1

Vincent Vajnovszki Information et quantité d’information


Efficacité et redondance

Définition On définit l’efficacité comme le rapport

H
η=
L
et la redondance
r =1−η

Vincent Vajnovszki Information et quantité d’information


Exemple Soit l’alphabet de source A = {a, b} tel que

alphabet probabilité code


source
=symbole
a pa = 0, 8 0
b pb = 0, 2 1

Vincent Vajnovszki Information et quantité d’information


Exemple Soit l’alphabet de source A = {a, b} tel que

alphabet probabilité code


source
=symbole
a pa = 0, 8 0
b pb = 0, 2 1

L’entropie de la source est de

−0, 8 · log2 (0, 8) − 0, 2 · log2 (0, 2) = 0, 72

Vincent Vajnovszki Information et quantité d’information


Exemple Soit l’alphabet de source A = {a, b} tel que

alphabet probabilité code


source
=symbole
a pa = 0, 8 0
b pb = 0, 2 1

L’entropie de la source est de

−0, 8 · log2 (0, 8) − 0, 2 · log2 (0, 2) = 0, 72

sa longueur moyenne est

0, 8 · 1 + 0, 2 · 1 = 1

Vincent Vajnovszki Information et quantité d’information


Exemple Soit l’alphabet de source A = {a, b} tel que

alphabet probabilité code


source
=symbole
a pa = 0, 8 0
b pb = 0, 2 1

L’entropie de la source est de

−0, 8 · log2 (0, 8) − 0, 2 · log2 (0, 2) = 0, 72

sa longueur moyenne est

0, 8 · 1 + 0, 2 · 1 = 1

avec l’efficacité de η = 0.72 et la redondance de r = 0.28

Vincent Vajnovszki Information et quantité d’information


Comment peut-on diminuer cette redondance et améliorer
l’efficacité?

Vincent Vajnovszki Information et quantité d’information


Comment peut-on diminuer cette redondance et améliorer
l’efficacité? Une idée est de coder des couples de symboles au
lieu des symboles eux-mêmes.

symbole probabilité code


aa = α paa = 0, 64 0
ab = β pab = 0, 16 11
ba = γ pba = 0, 16 100
bb = δ pbb = 0, 04 101

Vincent Vajnovszki Information et quantité d’information


L’entropie de la source est de
 
1
0, 64 · log2 +
0, 64
  
1
2 · 0, 16 · log2 +
0, 16
 
1
0, 04 · log2 = 1, 45
0, 04

Vincent Vajnovszki Information et quantité d’information


L’entropie de la source est de
 
1
0, 64 · log2 +
0, 64
  
1
2 · 0, 16 · log2 +
0, 16
 
1
0, 04 · log2 = 1, 45
0, 04

sa longueur moyenne est

1 · 0, 64 + 2 · 0, 16 + 3 · (0, 16 + 0, 04) = 1, 56

Vincent Vajnovszki Information et quantité d’information


L’entropie de la source est de
 
1
0, 64 · log2 +
0, 64
  
1
2 · 0, 16 · log2 +
0, 16
 
1
0, 04 · log2 = 1, 45
0, 04

sa longueur moyenne est

1 · 0, 64 + 2 · 0, 16 + 3 · (0, 16 + 0, 04) = 1, 56

1,45
avec l’efficacité de η = 1,56 = 0.93 et la redondance de
r = 0.07

Vincent Vajnovszki Information et quantité d’information


En revanche, le coût à payer est une complexification des
opérations de codage et de décodage (Arbre de Huffman).

Vincent Vajnovszki Information et quantité d’information


En revanche, le coût à payer est une complexification des
opérations de codage et de décodage (Arbre de Huffman).
On montre que, en faisant croı̂tre le nombre de symboles du’un
code, l’efficacité du codage peut devenir aussi proche que
possible de sa limite supérieure (égale à 1).

Vincent Vajnovszki Information et quantité d’information


En revanche, le coût à payer est une complexification des
opérations de codage et de décodage (Arbre de Huffman).
On montre que, en faisant croı̂tre le nombre de symboles du’un
code, l’efficacité du codage peut devenir aussi proche que
possible de sa limite supérieure (égale à 1).
C’est précisément la signification du premier théorème de
Shannon.

Vincent Vajnovszki Information et quantité d’information


En revanche, le coût à payer est une complexification des
opérations de codage et de décodage (Arbre de Huffman).
On montre que, en faisant croı̂tre le nombre de symboles du’un
code, l’efficacité du codage peut devenir aussi proche que
possible de sa limite supérieure (égale à 1).
C’est précisément la signification du premier théorème de
Shannon.
Théorèmes 1 de Shannon Théorème du codage de source:
Sans perturbation, il est possible, à partir d’un alphabet
quelconque, de coder les messages émis de telle sorte que le
rendement soit aussi proche que souhaité de la valeur
maximale, i.e. la capacité du canal.

Vincent Vajnovszki Information et quantité d’information


Théorie algorithmique de l’information

ou théorie de la complexité de Chaitin-Kolmogorov née dans la


décennie 1960, à la frontière de la logique mathématique et de
l’informatique théorique.
Kolmogorov
Chaitin
Solomonof

Vincent Vajnovszki Information et quantité d’information


On veut transmettre en Australie deux types de
renseignements :
1 les heures de lever et de coucher du soleil à Paris depuis
dix ans;
2 les résultats du Loto à Paris tous les jours depuis dix ans.

Vincent Vajnovszki Information et quantité d’information


On veut transmettre en Australie deux types de
renseignements :
1 les heures de lever et de coucher du soleil à Paris depuis
dix ans;
2 les résultats du Loto à Paris tous les jours depuis dix ans.
Pour transmettre le premier résultat, il suffit d’une petite formule
avec des sinus et des cosinus. Tandis que pour transmettre les
résultats du Loto, depuis dix ans, il n’y a pas d’autre moyen que
d’envoyer la liste. Personne ne trouve jamais de formule pour
simplifier la tache.

Vincent Vajnovszki Information et quantité d’information


On veut transmettre en Australie deux types de
renseignements :
1 les heures de lever et de coucher du soleil à Paris depuis
dix ans;
2 les résultats du Loto à Paris tous les jours depuis dix ans.
Pour transmettre le premier résultat, il suffit d’une petite formule
avec des sinus et des cosinus. Tandis que pour transmettre les
résultats du Loto, depuis dix ans, il n’y a pas d’autre moyen que
d’envoyer la liste. Personne ne trouve jamais de formule pour
simplifier la tache.
La complexité d’une information, c’est la longueur du plus petit
programme informatique qui la génère.

Vincent Vajnovszki Information et quantité d’information


On veut transmettre en Australie deux types de
renseignements :
1 les heures de lever et de coucher du soleil à Paris depuis
dix ans;
2 les résultats du Loto à Paris tous les jours depuis dix ans.
Pour transmettre le premier résultat, il suffit d’une petite formule
avec des sinus et des cosinus. Tandis que pour transmettre les
résultats du Loto, depuis dix ans, il n’y a pas d’autre moyen que
d’envoyer la liste. Personne ne trouve jamais de formule pour
simplifier la tache.
La complexité d’une information, c’est la longueur du plus petit
programme informatique qui la génère.
Une suite comme celle des heures de lever et de coucher du
soleil est plus simple qu’une suite comme celle des résultats du
Loto.

Vincent Vajnovszki Information et quantité d’information


La distance informationnelle entre deux suites A et B est
définie comme la taille du plus court programme permettant de
transformer A en B et B en A

Vincent Vajnovszki Information et quantité d’information

Вам также может понравиться

  • TD2020-2 Corrige
    TD2020-2 Corrige
    Документ3 страницы
    TD2020-2 Corrige
    Juba Hamiche
    100% (1)
  • Lexique de Commandes Cisco
    Lexique de Commandes Cisco
    Документ23 страницы
    Lexique de Commandes Cisco
    Selma Bouk
    Оценок пока нет
  • Information A Lire
    Information A Lire
    Документ1 страница
    Information A Lire
    Juba Hamiche
    Оценок пока нет
  • TD2020 1 PDF
    TD2020 1 PDF
    Документ1 страница
    TD2020 1 PDF
    Juba Hamiche
    Оценок пока нет
  • Comparaison Entre Routage Dynamique Et Routage Statique - Réseaux Informatiques
    Comparaison Entre Routage Dynamique Et Routage Statique - Réseaux Informatiques
    Документ7 страниц
    Comparaison Entre Routage Dynamique Et Routage Statique - Réseaux Informatiques
    Juba Hamiche
    Оценок пока нет
  • 5G en France
    5G en France
    Документ2 страницы
    5G en France
    Juba Hamiche
    Оценок пока нет
  • Not Scient
    Not Scient
    Документ2 страницы
    Not Scient
    Juba Hamiche
    Оценок пока нет
  • TD2020 2
    TD2020 2
    Документ2 страницы
    TD2020 2
    Juba Hamiche
    Оценок пока нет
  • TD2020-1 Corrige PDF
    TD2020-1 Corrige PDF
    Документ1 страница
    TD2020-1 Corrige PDF
    Juba Hamiche
    Оценок пока нет
  • Les Commandes CISCO Ccna
    Les Commandes CISCO Ccna
    Документ3 страницы
    Les Commandes CISCO Ccna
    Juba Hamiche
    Оценок пока нет
  • PDF
    PDF
    Документ2 страницы
    PDF
    Juba Hamiche
    Оценок пока нет
  • 02 Modulation
    02 Modulation
    Документ8 страниц
    02 Modulation
    Houda Kadi
    Оценок пока нет
  • Les Puissance
    Les Puissance
    Документ6 страниц
    Les Puissance
    Juba Hamiche
    Оценок пока нет
  • Léon L'africain Art PDF
    Léon L'africain Art PDF
    Документ2 страницы
    Léon L'africain Art PDF
    sebastiengarnier5751
    Оценок пока нет
  • Le Service NAT
    Le Service NAT
    Документ2 страницы
    Le Service NAT
    Anas Hrich
    Оценок пока нет
  • Lexique de Commandes Cisco
    Lexique de Commandes Cisco
    Документ23 страницы
    Lexique de Commandes Cisco
    Selma Bouk
    Оценок пока нет
  • Co Ts
    Co Ts
    Документ82 страницы
    Co Ts
    Refka Mansoury
    Оценок пока нет
  • Methode de Compression Codage Source
    Methode de Compression Codage Source
    Документ29 страниц
    Methode de Compression Codage Source
    Juba Hamiche
    Оценок пока нет
  • Série D'execice 1+corrigé
    Série D'execice 1+corrigé
    Документ17 страниц
    Série D'execice 1+corrigé
    Juba Hamiche
    Оценок пока нет
  • Melange Ur
    Melange Ur
    Документ4 страницы
    Melange Ur
    Juba Hamiche
    Оценок пока нет
  • Entête IP
    Entête IP
    Документ8 страниц
    Entête IP
    Juba Hamiche
    Оценок пока нет
  • Cours CN Chapitre1
    Cours CN Chapitre1
    Документ14 страниц
    Cours CN Chapitre1
    Juba Hamiche
    Оценок пока нет
  • 7-Changement de Frequence PDF
    7-Changement de Frequence PDF
    Документ45 страниц
    7-Changement de Frequence PDF
    Juba Hamiche
    Оценок пока нет
  • TZ + Filtre Numerique
    TZ + Filtre Numerique
    Документ12 страниц
    TZ + Filtre Numerique
    Juba Hamiche
    100% (1)
  • Exercices Sur La Transformee en Z: Exercice 1
    Exercices Sur La Transformee en Z: Exercice 1
    Документ7 страниц
    Exercices Sur La Transformee en Z: Exercice 1
    omarkhan33
    Оценок пока нет
  • Filtre Actif 1
    Filtre Actif 1
    Документ2 страницы
    Filtre Actif 1
    Juba Hamiche
    Оценок пока нет
  • Polycopie Bekhouche Khaled
    Polycopie Bekhouche Khaled
    Документ57 страниц
    Polycopie Bekhouche Khaled
    واعر ياسين
    100% (6)
  • RTC - Reseau Telephonique Commuté
    RTC - Reseau Telephonique Commuté
    Документ17 страниц
    RTC - Reseau Telephonique Commuté
    razane3
    100% (4)
  • Les Reseaux PDF
    Les Reseaux PDF
    Документ35 страниц
    Les Reseaux PDF
    jlkazadi
    Оценок пока нет
  • Chapitre 4-2023
    Chapitre 4-2023
    Документ20 страниц
    Chapitre 4-2023
    MOUSSA Mamane Rabiou
    Оценок пока нет
  • Devoirs 1
    Devoirs 1
    Документ2 страницы
    Devoirs 1
    Sam Benbakreti
    Оценок пока нет
  • Théorie de L'information
    Théorie de L'information
    Документ271 страница
    Théorie de L'information
    Khadidja Athamnia
    Оценок пока нет
  • Entr Opie
    Entr Opie
    Документ36 страниц
    Entr Opie
    Van Folivi
    Оценок пока нет
  • Comnum
    Comnum
    Документ19 страниц
    Comnum
    Pape mbaye Diaw
    Оценок пока нет
  • Histoire Des Théories de La Communication
    Histoire Des Théories de La Communication
    Документ44 страницы
    Histoire Des Théories de La Communication
    ThỏTúi
    100% (1)
  • Ptin
    Ptin
    Документ158 страниц
    Ptin
    lahbak abderrahmene
    Оценок пока нет
  • Tor4276 PDF
    Tor4276 PDF
    Документ155 страниц
    Tor4276 PDF
    Ilyas ZgàouLa
    Оценок пока нет
  • Chapitre Ii
    Chapitre Ii
    Документ40 страниц
    Chapitre Ii
    anes bendjemai
    Оценок пока нет
  • Comp
    Comp
    Документ38 страниц
    Comp
    Rahil hil
    Оценок пока нет
  • TD Codage Et Compression
    TD Codage Et Compression
    Документ7 страниц
    TD Codage Et Compression
    Mohamed Mohamed
    Оценок пока нет
  • Ch12-Th Info-MB
    Ch12-Th Info-MB
    Документ23 страницы
    Ch12-Th Info-MB
    safa
    Оценок пока нет
  • Exam 07-08
    Exam 07-08
    Документ3 страницы
    Exam 07-08
    Chouichi Ghada
    Оценок пока нет
  • Ia 10 DT
    Ia 10 DT
    Документ30 страниц
    Ia 10 DT
    Sarra Hamza
    Оценок пока нет
  • Théorie de L'information Et Du Codage
    Théorie de L'information Et Du Codage
    Документ131 страница
    Théorie de L'information Et Du Codage
    Mohamed Mohamed
    Оценок пока нет
  • Chapitre 1 - THI - Introduction, Historique Et Principes de La THI
    Chapitre 1 - THI - Introduction, Historique Et Principes de La THI
    Документ58 страниц
    Chapitre 1 - THI - Introduction, Historique Et Principes de La THI
    Mira Allali
    Оценок пока нет
  • Master SIC Harmonisé
    Master SIC Harmonisé
    Документ49 страниц
    Master SIC Harmonisé
    Hanane Menad
    Оценок пока нет
  • td10 Reponses
    td10 Reponses
    Документ3 страницы
    td10 Reponses
    tamara amira
    Оценок пока нет
  • Chapitre 3 - Rappel Sur Le Codage Source Entropique Sans Perte
    Chapitre 3 - Rappel Sur Le Codage Source Entropique Sans Perte
    Документ68 страниц
    Chapitre 3 - Rappel Sur Le Codage Source Entropique Sans Perte
    abdelhak bouslimani
    Оценок пока нет
  • TI Poly Cours
    TI Poly Cours
    Документ67 страниц
    TI Poly Cours
    Charles L.
    Оценок пока нет
  • Cours Et TD Codage Et Théorie de L'information
    Cours Et TD Codage Et Théorie de L'information
    Документ42 страницы
    Cours Et TD Codage Et Théorie de L'information
    Ninå Så
    100% (3)
  • Support 1 Cours
    Support 1 Cours
    Документ42 страницы
    Support 1 Cours
    souhir
    Оценок пока нет
  • Comnum 1
    Comnum 1
    Документ14 страниц
    Comnum 1
    Pj le Welpi
    Оценок пока нет
  • Chapitre2 TM
    Chapitre2 TM
    Документ30 страниц
    Chapitre2 TM
    nyanguitatianaolivia
    Оценок пока нет
  • TD 2 - TIC - Master - Solution
    TD 2 - TIC - Master - Solution
    Документ7 страниц
    TD 2 - TIC - Master - Solution
    DB Stor
    Оценок пока нет
  • Codage FC2
    Codage FC2
    Документ64 страницы
    Codage FC2
    Suley Paterson
    100% (1)
  • Corrige Sujet2 Theorie de Info
    Corrige Sujet2 Theorie de Info
    Документ4 страницы
    Corrige Sujet2 Theorie de Info
    Fopa
    Оценок пока нет
  • Sujet2 PDF
    Sujet2 PDF
    Документ2 страницы
    Sujet2 PDF
    Duvet francois
    100% (1)
  • Transmission, Information Et Codage PDF
    Transmission, Information Et Codage PDF
    Документ135 страниц
    Transmission, Information Et Codage PDF
    Bila
    Оценок пока нет
  • Exercices D - Application
    Exercices D - Application
    Документ3 страницы
    Exercices D - Application
    Abdallah Grima
    Оценок пока нет