Академический Документы
Профессиональный Документы
Культура Документы
TEORIA DE LA INFORMACION
Y LA CODIFICACION
Estadstico
Sintaxis
Semntico
Pragmatismo
Apobtica
Nivel 1: Estadstica
El teorema de informacin de Shannon es
muy adecuado para
describir el aspecto estadstico, describiendo de forma cuantitativa
las caractersticas del lenguaje que tienen como fundamento los
parmetros probabilsticos. Por otra parte no tiene en cuenta si
una serie de signos posee algn significado. En este nivel tampoco
se tienen en consideracin cuestiones gramaticales.
Nivel 2: Sintaxis
La composicin de signos para formar palabras en las denominadas
secuencias de smbolos, as como el orden de las palabras para originar
frases, estn supeditadas a reglas determinadas, basadas en acuerdos
concretos para cada lenguaje.
A nivel sintctico se requiere un repertorio determinado de
signos para representar la informacin (sistema de cdigo). La mayor
parte de los lenguajes escritos utilizan letras para ello, pero hay
que tener en cuenta que para ciertos fines se emplearon y se emplean
los sistemas ms diversos: morse. jeroglfico, el cdigo de banderas,
notas, cdigos de informtica, cdigo gentico, el lenguaje de las
abeja basadas en figuras bailadas, sustancias aromticas utilizadas
por los insectos en el lenguaje feromnico, la posicin de las manos
en el lenguaje para los sordomudos.
Por sintaxis de un lenguaje se entienden todas las reglas
gramaticales segn las cuales se pueden o deben combinar los diferentes
ING. CARLOS EGAS
Fuente
Codifica.
Medio
Decodifi.
Destino
Ruido
I E log
1
p E
unidadesde informacin
ec.1
Unidades de medida
La unidad de medida de la cantidad de informacin esta determinada
por la base del logaritmo utilizado en el clculo, las tres unidades
mas utilizadas son las siguientes.
Logaritmo
Unida de informacin
base 2
natural (base e)
base 10
Bits de informacin
nats
hartleys
Condicin de adicin
ING. CARLOS EGAS
I ET log
i=1
p E i
ec.2
q = nmero de smbolos.
Condicin de probabilidad
S s1 , s 2 , s q
Donde los smbolos s1 , s2 , sq conforman el alfabeto de dicha fuente
(alfabeto fuente).
Cuando las probabilidades de los smbolos son independientes
entre ellos, se tiene lo que se conoce como una fuente de informacin
ING. CARLOS EGAS
la
cantidad
de
bits de informacin
1
ps i
H S ps i I s i
i=1
H S = p( si ) log
i=1
1
p( si )
ec.3
bits de informacin
H S
smbolo de S
H S ser la cantidad media de informacin por smbolo emitida por
la fuente o entropa de la fuente de informacin de memoria nula.
La cantidad de informacin proporcionada por la fuente en un
intervalo de tiempo dado es igual a la suma de la informacin generada
por cada uno de los smbolos que ha emitido la fuente en ese intervalo
de tiempo.
Nuevamente, la base del logaritmo utilizado definir las unidades
de la entropa.
H r S =
H S
ec.4
log r
unidades de informacin
H r S
smbolo
echo referencia a los pulsos binarios como bits; ahora se define bit
como una medida del contenido de informacin. Para una fuente binaria
con eventos equiprobables las dos definiciones coinciden, pero esto
es sin duda un caso especial.
Sin embargo el trmino bit esta tan firmemente arraigado con
ambos sentidos que en el transcurso del curso se lo emplear en los
dos significados, por lo cual se recomienda poner mucha atencin
en la interpretacin de los resultados.
Las matemticas son una herramienta fundamental para el
desarrollo de la teora de informacin y codificacin y todas las
conclusiones importantes a las que se han llegado son fruto de su
eficiente uso.
Si la fuente emite rs smbolos cada segundo (baudios), la
velocidad promedio de informacin (taza de informacin) de la fuente
esta dada por viene dada por:
R rs H r S ec.5
I 1 log1 0.5 1
bit de informacin
I T 4.3219
es:
bits de informacin
I T 3 1.4406
bits de informacin
H S 1.4849
bits de informacin
smbolo
bits de informacin
segundo
RELACIONES FUNDAMENTALES
Expresin 1
ln x x 1
ln
1
1 x
x
Expresin 2
i=1
i=1
y i xi 1
Entonces se cumple:
q
i=1
i=1
Si a = 2, b = e y C = y i x i
yi
log
xi
= ln y i / xi
1
ln 2
xi log
i=1
q
yi
xi ln y i xi
xi i=1
ln x x - 1
q
xi log
i=1
q
yi
1 q
y i xi
xi ln 2 i=1
i=1
x
i=1
x
i=1
log
yi
1
1 1
xi ln 2
1
log y i log 0
xi
x log y
i
log xi 0
i=1
i=1
i=1
xi log y i xi log xi
Esta igualdad se da cuando y i x i .
Propiedad de la entropa
Suponiendo una fuente de informacin de memoria nula S s i con
i 1, 2, q y cuyas probabilidades son ps i respectivamente, se tiene
que:
log q H S ec.8
Demostracin:
q
H S p i log
i=1
1
pi
i=1
log q = log q pi
i=1
Restando H S log q :
q
H S log q pi log
i=1
q
1
pi log q
pi i=1
1
1
H S log q p i log
log q H S log q p i log
pi
p
q
i=1
i
=
1
i
log q H S p i log p i q
i=1
log q H S p i log e ln ( p i q )
i=1
Si:
ln
1
1 x
x
log q H S pi log e 1
pi q
i=1
q
q
q
1
1
log e pi
log q H S log e pi 1
pi q
i=1
i=1 q
i=1
log q H S log e 1 1
log q H (S ) 0
Por lo tanto:
log q H S
H(S) max
(bits inf./smbolo)
2
3
4
5
8
16
1
1.58
2
2.32
3
4
H S w log 1 w w log 1 w
H S H w H w
s , s , s
1
H S p i log
n
i=1
p i
ec.9
p00 p0 p0 0.16
p01 p0 p1 0.24
p10 p1 p0 0.24
p11 p1 p1 0.36
Donde:
1 00
2 01
3 10
4 11
La entropa es igual a:
H S 2 0.16 log 1 0.16 0.24 log 1 0.24 0.24 log 1 0.24 0.36 log 1 0.36
H S 2 1.9418
La entropa de la fuente de informacin de memoria nula se relaciona con la entropa de su extensin con la siguiente expresin:
H S n nH S ec.10
Demostracin:
qn
H S p i log
n
i=1
q
H S psi log
i=1
p i
1
psi
1
1
1
Existe n logaritmos
H S n pi1 log
Sn
1
pi1
1
pin
pi1
pi1 log
Sn
1
q
1 q
pi 2 pin H S
pi1 i=1
i=1
Lengua
H S max
H S
H S2
H S 25
Inglesa
Rusa
Francesa
Espaola
Rumana
Alemana
4.76
5.00
4.70
4.70
4.70
4.76
4.03
4.35
3.98
4.01
4.11
4.037
3.32
3.52
3.40
310
3.01
2.80
j1
, s j 2 , s jm , el
j2
, s j 3 , s jm , si .
Diagrama de estados
Considerando una fuente de Markov de segundo orden con alfabeto
fuente S 0, 1 y con probabilidades:
p0 00 p1 11 0.6
p1 00 p0 11 0.4
p1 10 p0 10 0.3
p0 01 p1 10 0.7
ps j , si psi s j ps j
A partir de las probabilidades de los estados podemos conocer
la probabilidad de ocurrencia de un smbolo en una fuente de Markov
de primer orden.
q
ps , s ps p
j
ec.11
j=1
estado
ps j1 , s j 2 , s j 3 , s jm
Probabilidad condicional. Probabilidad de que la fuente emita el
smbolo si, dado que se esta en el estado s j1 , s j 2 , s j 3 , s jm :
psi s j1 , s j 2 , s j 3 , s jm
Probabilidad simultnea. Probabilidad de saber con certeza cual es
el smbolo a la salida dado que el estado es s j1 , s j 2 , s j 3 , s jm :
ps j1 , s j 2 , s j 3 , s jm , si
Probabilidad de ocurrencia de un
smbolo:
psi
I si s j1 , s j 2 , s j 3 , s jm log 1 p si s j1 , s j 2 , s j 3 , s jm
Si queremos considerar la informacin proporcionada por todos
los smbolos debemos calcular la cantidad de informacin media por
smbolo cuando nos hallamos en el estado s j1 , s j 2 , s j 3 , s jm , es decir,
H S si s j1 , s j 2 , s j 3 , s jm psi s j1 , s j 2 , s j 3 , s jm .I si s j1 , s j 2 , s j 3 , s jm
H ( S M ) p s j1, s j 2 , s j 3 , s jm , si . log 1 si s j1 , s j 2 , s j 3 , s jm
s m 1
psi s j1 , s j 2 , s j 3 , s jm psi
FUENTE AFIN
es
probabilidades
psi s j
para
continuacin que H S * H S m .
i, j 1, 2, q
se
demuestra
Demostracin:
q
yi
x log x
i=1
Si ps j si xi y ps j psi yi :
ps
, si log
ps j psi
s2
ps j . si
ps ps
ps , s log ps s ps
i
s2
p s j , si log
S
H S M ps j , si log
S2
p s j si
psi
p s j , si log psi
S2
H S M ps j , si log
q
i=1
H S M psi log
i=1
p si
psi
ps , s
j
j=1
H S M H S
H S M H S
p i j1 , j 2 , j 3 , j
Con:
i s j1 , s j 2 , , s jn
La
secuencia
j1
, s j 2 , , s jn
es
equivalente
la
secuencia
p i j1 , j 2 , j 3 , j psi1 , si 2 , sin s j1 , s j 2 , , s jm
psi1 s j1 , s j 2 , , s jm psi 2 s j1 , s j 2 , , s jm , si1 psin s1nm , s1nm1 , sin1
Esta ltima expresin se ha supuesto para el caso en que n es
mayor que m. Si n en menor que m, el ltimo trmino de esta expresin
sera:
psin sin1 , sin1 , , s1in1
nH S M H S M
de
orden
H( S n ) = p j , i log
n
S n ( 1 )
para
1
p i / j
Rf log q H S ec.13
En sistemas de compresin de datos, el objetivo es de generar
la misma cantidad de informacin pero con un nmero menor de smbolos
q.
Rendimiento
log q
H S
Sea una fuente de Markov binaria de tercer orden tal que S (0.1) .
Con:
s j1 0
s j2 1
Una de sus 16 probabilidades condiciones puede ser la siguiente:
p0 001
La segunda extensin de esta fuente de Markov tiene el siguiente
alfabeto fuente:
Donde:
11 00 s11 , s11
12 01 s11 , s12
13 10 s12 , s11
14 11 s12 , s12
Una de las 32 probabilidades condicionales de la segunda
extensin puede ser la siguiente:
p01 010 p j 2 j 2 j
En donde:
S a, b
a
ab
ba
aba
.
.
X 0, 1
0
00
010
00
.
.
Cdigo bloque
Es aquel que asigna a cada uno de los smbolos del alfabeto fuente S , una secuencia fija de smbolos del alfabeto cdigo X a cuya
secuencia se denomina palabra cdigo.
Si alfabeto fuente es S a, b y el alfabeto cdigo es X 0, 1 :
Smbolos a
codificar
a
b
Palabras
cdigo
00
00
Cdigo no singular
ING. CARLOS EGAS
S a, b, c, d
X 0, 1
Smbolos a
codificar
Cdigo
singular
a
b
c
d
Cdigo no
singular
0
00
01
01
0
00
01
10
Secuencia
transmitida
Posibles secuencias
enviadas
Aabb
Y
aaaaa
bbb
aabb
baaaa
bbaa
S a, b
X 0, 1
a
b
01
10
0101
0110
ING. CARLOS EGAS
ba
bb
1001
1010
0
01
101
1010
Cdigo unvoco
Un cdigo bloque se dice unvoco si y solamente si, su extensin
de orden n es no singular para cualquier valor finito de n.
Esta definicin asegura que cada una de las secuencias
codificadas de n smbolos del alfabeto fuente, estn asociadas a solo
una secuencia de palabras cdigo.
S a, b, c, d
X 0, 1
Smbolos a
codificar
a
b
c
d
Cdigo A
0
00
01
01
Cdigo B
0
11
01
10
S a, b, c, d
X 0, 1
Smbolos a
codificar
Cdigo
instantneo
Cdigo no
instantneo
a
b
c
d
1
0
10
110
1110
0
01
011
0111
Cdigo
instantneo
0
Longitud de palabra
cdigo l i
l1 1
ING. CARLOS EGAS
10
110
l2 2
l3 3
1110
l4 4
LA INEGUALDAD DE KRAFT
La inecuacin de Kraft proporciona
existencia de cdigos instantneos.
la
condicin
para
la
li
1 ec.14
i=1
n r
i
-1
i=1
n2 r nl r
ING. CARLOS EGAS
nl 1 r
l 1
n1 r l -2 n2 r l -3 nl -2 r
l
l -1
l -2
nl r n1 r n2 r nl -1 r
nl r
1 n1 r1 n2 r 2 nl -1 r ( l 1)
-1
-2
-3
-(l-1)
-l
n1 r n2 r n3 r nl -1 r nl r 1
n r
i
-1
i=1
LA INEGUALDAD DE McMILLAN
La inecuacin de Kraft se aplica a los cdigos instantneos los
cuales son un caso especial de los cdigos unvocamente decodificables, por lo tanto se podra decir que tambin esta ecuacin es
aplicable a los cdigos unvocos, o es una condicin necesaria pero
no suficiente para tener tambin cdigos unvocos, sin embargo es
necesario probar que tambin son aplicables a ellos.
La desigualdad de McMillan mostrar que la misma, puede ser
aplicada a los cdigos unvocamente decodificables.
q
li
i=1 r
nl ec.15
Demostracin
q li
l
i
r
n
r
i
i=1
i=1
( n1 r -1 n2 r -2 ni r -i )n
Al elevar a la n, el polinomio formado, tendr exponentes desde
-n hasta -nl. Si l es igual a la longitud mxima que pueda tener una
palabra en el cdigo univoco, nl ser la longitud mxima que puede
tener una palabra cdigo en la extensin de orden n.
La expresin anterior puede ser reemplazada por el siguiente
sumatorio.
nl
N k r -k
k=n
Nk r
nl
nl
k=n
k=n
N k r r - k r k = 1
-k
k=n
nl
1 = nl n 1
k=n
O lo que es lo mismo:
nl
-k
r nl n + 1 nl
k=n
q li
r
i=1
nl
S s , s , s , s
i
L = pi l i
i=1
simb.del.alfab..cdigo
ec.16
simb.del.alfab.. fuente
CODIGO COMPACTO
Un cdigo ser compacto con respecto a una fuente S , si su
longitud media es igual o menor que la longitud media de todos los
cdigos unvocos que pueden aplicarse a la misma fuente con el mismo
alfabeto.
Es posible establecer una relacin entre la cantidad de
informacin media de la fuente a ser codificada y la longitud media
mnima posible que se puede obtener al codificar dicha fuente.
H r (S) L ec.17
Para poder realizar esta comparacin, es necesario que la base
del logaritmo empleado para calcular la entropa, sea igual al nmero
de smbolos del alfabeto cdigo.
Para obtener la condicin con la cual la longitud media toma
el valor mnimo se igualan los correspondientes sumatorios.
q
i=1
i=1
pi l i pi logr
1
pi
CDIGOS HUFFMAN
Los cdigos Huffman son en realidad cdigos compactos, los cuales
se obtienen en base a un proceso de codificacin utilizando las
llamadas fuentes reducidas.
Estos cdigos representan al tipo de cdigo de longitud variable
y muchas de las veces son ms eficientes para representar una misma
informacin, sin embargo estos cdigos presentan el problema de que
es difcil reconocer el fin de cada palabra cdigo cuando ms de dos
palabras cdigo se juntan para la transmisin
Pasos para la obtencin de cdigos Huffman:
1. En primer lugar hay que colocar los smbolos de la fuente
a codificar en forma vertical, de tal forma que el valor de
probabilidades se hallen en forma descendente.
2. Hay que verificar si el nmero de los smbolos de la fuente,
es igual r+(r-1) donde es un nmero entero y r es el nmero
de smbolos del alfabeto cdigo X x1 , x 2 , x3 , x r .
3. Si no se cumple la condicin anterior hay que completar el
nmero de smbolos del alfabeto a codificar con smbolos que
tengan probabilidad igual a cero. Esto se lo hace para que
el nmero de smbolos de la ltima fuente reducida tenga
exactamente el nmero de smbolos que tiene el alfabeto cdigo.
4. Para formar una fuente reducida, escogen los r ltimos smbolos
de la fuente para generar un nuevo smbolo cuya probabilidad
es igual a la suma de las probabilidades de los r smbolos.
De esta forma se tiene una nueva fuente con r - 1 smbolos
denominada fuente reducida.
5. Los smbolos de esta fuente reducida, tambin se los ordena
de tal manera que sus probabilidades estn en forma
descendente.
6. El procedimiento de encontrar fuentes reducidas se lo hace
hasta llegar a una fuente reducida de r smbolos o hasta
que tengamos la seguridad de que si codificamos la ltima
fuente reducida, obtengamos un cdigo compacto.
7. Si llegamos a una fuente reducida de r smbolos procedemos
a codificar cada uno de ellos, con cada uno de los smbolos
del alfabeto cdigo.
8. Realizamos la codificacin regresiva
codificacin de la fuente original.
hasta
realizar
Caso #1
la
Palabra
cdigo
Smbolo de la fuente
reducida
Palabra
cdigo
.
.
.
.
.
.
.
.
.
.
.
.
s pr 1
xr 1
s pr 1
xr 1
s p r
xr x1
st
xr
s p r 1
xr x2
s p 1
x r x r 1
sp
xr xr
Caso # 2
Cuando la suma de las ltimas r probabilidades no es el menor
valor.
Smbolo de la
fuente
Palabra
cdigo
Smbolo de la fuente
reducida
Palabra
cdigo
.
.
.
.
st
xi
s pr 1
s pr 1
xr 1
s p r
xr 1
xi x1
s p r 1
xi x 2
s p 1
xi x r 1
sp
xi x r
Rendimiento de un cdigo
El rendimiento de un cdigo se define como la relacin entre
la longitud media mnima terica posible y la longitud media del
cdigo.
(S)
c = H r
L
Eficiencia de un cdigo
La eficiencia de un cdigo es:
Eficiencia ( c .100)%
1
li log r
pi
Siempre y cuando los valores de las longitudes obtenidas sean
nmeros enteros, lo que en la prctica no se da, lo cual hace a este
mtodo para encontrar cdigos compactos, deficiente que la obtencin
de cdigos compactos utilizando los cdigos Huffman.
Sin embargo, hay que notar que si se cumple la condicin anterior,
se tiene un cdigo con una eficiencia del 100% ya que se cumple que
L H r S .
Si tenemos una fuente de informacin S a, b, c, d y un alfabeto
cdigo X 0, 1 . En base a sus probabilidades tratamos de encontrar cual
sera la longitud de las palabras cdigo para tener un cdigo compacto
con un rendimiento del 100%.
Smbolos a
codificar
pi
l i log r 1 p i
Cdigo
compacto
a
b
c
d
0.25
0.25
0.25
0.25
2
2
2
2
00
11
01
10
pi
l i log r 1 p i
a
b
c
d
0.3
0.3
0.25
0.15
1.73
1.73
1.99
2.73
1
1
logr li logr 1
pi
pi
Multiplicando por p i :
1
1
pi logr pi li pi logr pi
pi
pi
Al realizar el sumatorio
hasta i=q
se tiene que:
H r (S ) L H r (S ) 1
La expresin anterior es aplicable a una fuente de informacin
de memoria nula y si por definicin la extensin de dicha fuente es
tambin una fuente de informacin de memoria nula, la misma expresin
puede ser aplicable a su extensin de orden n, por lo que:
H r (S n ) Ln H r (S n ) 1
Donde Ln es la longitud media del cdigo compacto aplicado a
la extensin de orden n.
H r (S )
Ln
1
H r (S )
n
n
Ln
H r (S )
n
Fuente secundaria
pi
Si
si
1/2
1/4
00
01
0
10
ING. CARLOS EGAS
1/8
1/8
1
10
11
110
111
se
las
puede
clasificar
en
Irreversible
Codificacin reductora de
fidelidad
Reduccin de entropa
Reduccin de Redundancia
REDUCCIN DE ENTROPIA
En cualquier sistema en el cual la informacin de una fuente
de datos debe ser transmitida, existen dos preguntas fundamentales.
1.
2.
Cuantizacin
La cuantizacin ha sido la forma ms comn de compresin, no
solo para realizar una conversin anlogo-digital como el PCM, sino
como una parte integral de tcnicas de compresin como el DPCM.
Bsicamente existen tres formas de realizar la cuantizacin.
1. Cuantizacin escalar o de memoria cero
Este tipo de cuantizacin intenta minimizar el ruido de
cuantizacin, proporcionando un nmero fijo de niveles. Nosotros
cuantizamos una muestra
y usamos las mismas caractersticas de
cuantizador para todas las dems muestras. Dentro de este grupo existen
los cuantizadores uniformes y no uniformes o logartmicos.
2. Cuantizacin de bloque
En vez de cuantizar cada muestra independientemente, con la misma
funcin de cuantizacin, nosotros podemos, en general, aproximar una
secuencia o bloque de n muestras por una secuencia seleccionada de
un cdigo preestablecido de S secuencias
3. Cuantizacin secuencial.
En la cuantizacin de bloque nosotros optimizamos la codificacin
de la fuente tomando en cuenta solo las muestras en el bloque dado,
independientemente de las muestras de los anteriores o posteriores
bloques.
En la cuantizacin secuencial, no existe esta restriccin y
existen basicamente dos tipos de cuantizadores secuenciales; los
codificadores predictivos y los codificadores de bsqueda de
multicamino.
Los codificadores predictivos incluyen tcnicas conocidas como
la modulacin delta, el DPCM. Ambas tcnicas predicen el siguiente
valor de la muestra y luego cuantizan la diferencia entre el valor
predecido y el valor actual. La modulacin delta utiliza un bit de
cuantizacin, mientras el DPCM utiliza k bits.
Los codificadores de bsqueda de multicamino, utilizan los
valores muestreados previamente para seleccionar la forma de cuantizar
la siguiente muestra. Entre las tcnicas mas utilizadas actualmente
se hallan la codificacin de trellis y la codificacin de rbol.
REDUCCIN DE REDUNDANCIA
Las tcnicas de reduccin de redundancia remueven o reducen la
cantidad de los datos, los cuales pueden se reinsertados o
reconstituidos en el receptor del sistema con una mnima distorsin.
Redundancia log q H S
Taza de compresin
Hay muchas maneras de definir la taza de compresin. En general,
es simplemente la razn entre los bits por smbolo antes de la
compresin y los bits por smbolo despus de la compresin.
La taza de compresin mxima viene dada por:
Rmax log q H S
fuentes binarias
n
T j 1
j=1 j
q
Donde:
q = es el nmero de muestras no redundantes 1 q N 1 .
n j = es el nmero que indica la posicin de una muestra no redundante
1 n j N 1.
10
9
8
7
6
5
4
3
2
1
0
1
45
36
28
21
15
10
6
3
0
1
120
84
56
35
20
10
4
1
0
210
126
70
35
15
5
1
0
252
126
56
21
6
1
0
210
84
28
7
1
0
120
36
8
1
0
45
9
1
0
10
1
0
11
1
10
..Column
a
47
1 2
n j = nmero de fila.
j = nmero de columna para cada valor de j .
Las filas son numeradas de abajo hacia arriba y las columnas
de izquierda a derecha.
Para la secuencia a codificar tenemos que las muestras no redundantes
son dos y sus posiciones son 3 y 11 dentro de la secuencia de dgitos,
por lo que:
T elemento 3, 1 elemento11, 2
T 2 45 27
Decodificacin
ING. CARLOS EGAS
elemento k 1 , q
(fila,columna)
D T elemento k , q
3.- En la (q-1) columna colocamos el valor de D tal que el elemento
1,q-1 D < elemento l+1,q-1.
4.- Realizamos la resta y continuamos hasta llegar a la primera
columna.
5.- La secuencia original define las posiciones de los 1L (unos
lgicos) y estas son encontradas a partir de los nmeros de la
filas en donde se encuentran los elementos de mas bajo valor
obtenidos de la desigualdad. En donde el nmero de la fila
corresponde a la nj y el nmero de la columna corresponde a j
para j 1 , 2 , 3 ... q .
Para realizar la decodificacin del nmero 47, es necesario
partir de la segunda columna en donde hallamos dos filas en la cual
se halle el nmero 47.
En la columna 2 el nmero 47 esta contenido en los nmeros de
las filas 11 y 12 por lo tanto tomamos n j 11 y j 2 :
47 45 2
En la columna 1
n j 11 y j 2
Lo que nos permite encontrar la secuencia original:
0 0 1 0 0 0 0 0 0 0 1 0 0 0 0 0
Para recuperar la secuencia original es necesario conocer
cuantos 0 se coloca despus del ltimo 1 y adems en que columna
se empieza el proceso de decodificacin.
El nmero T es nico para cada secuencia de q muestras no
redundantes distribuidas sobre N-1 posiciones, Generalmente N es fija
y es necesario enviar el valor de q conjuntamente con T para poder
ING. CARLOS EGAS
N 1
0 T q 1
enviar la informacin de
LD k q kT
Donde:
kq 1
N 2
kq
Y:
k q 1
N 1
k
q 2 q
K q log N log 17 5
K T logN 1 q log 16 2 log 120 7
Entonces la informacin completa LD a enviar es:
0 0 010
0 1 0 1111
q2
T 47
1
1001
1010
0000
0
.
.
.
pb j ai pij
Debe cumplirse que la suma de las probabilidades
debe ser igual a uno.
s
ij
de una fila
j=1
ai
b j
pb j ai
ai
b j
pai b j
Canal retrospectivo
canal
de
transmisin
definido
por
los
siguientes
Alfabeto de entrada A ai i 1 , 2 , r
Alfabeto de salida B b j j 1 , 2 , s
Y una matriz:
p1,1 p1, 2 p1, s
p 2,1 p 2, 2 p 2, s
p r ,1 p r , 2 p r , s
Con pb j ai pij .
La extensin de orden n del canal tiene un alfabeto de entrada
A i i 1 , 2 , r n , y un alfabeto de salida B n j i 1 , 2 , s n y una
matriz con probabilidades.
n
1,1 1, 2 1, s
2,1 2, 2 2, s
donde
,1
,2
r n , s n
i ai1 , ai 2 , ain
i b j1 , b j 2 , b jn
p j i pb j1 ai1 , pb j 2 ai 2 , pb jn ain
pai , pa 2 , par
p 21 p 22 p 2 s
p r1 p r 2 p rs
Teorema de Bayes
pa , b pa
s
j=1
1
pai
H ( A) 0
H ( A) log q , donde q es el nmero de smbolos de entrada.
H ( A) log q , cuando los smbolos de entrada son equiprobables.
La entropa aposteriori de A cuando se ha recibido b j es:
H ( A b j ) p ai b j log
1
p ai b j
H A B pa, b log
AB
1
pa b
INFORMACIN MUTUA
b j
pai b j
ai
de
bj
pai b j
1
1
log r
log r
pai
pai b j
pai
I A : B H A H A B
ING. CARLOS EGAS
I A : B H B H A B
H A pa log
1
pa
A
1
H A B = pab log
pa b
AB
1
1
I A : B pa log
pab log
pa AB
pa b
A
1
H A log
pab
pa AB
A
1
1
I A : B pab log
pab log
pa AB
pa b
AB
pa b
= pab log
pa
AB
pab
I A : B pab log
pa pb
AB
Se puede decir que la informacin mutua es el nmero medio de
bits necesarios para determinar un smbolo de entrada antes de conocer
un smbolo a la salida, menos el nmero medio de bits necesarios para
especificar un smbolo de entrada despus de conocer el smbolo de
salida.
Otra manera de interpretar a I A : B , indica que la informacin
mutua, es parte de la cantidad de informacin total que tengo a la
entrada, que consigue llegar a la salida del canal.
Propiedades de la informacin mutua
a)
I A : B 0
La informacin mutua
no puede ser negativa, ya que esto
significara que el canal estara generando informacin.
Para que la informacin mutua sea igual a cero debe cumplirse
que los smbolos de entrada y de salida sean estadsticamente
independientes, o que los smbolos que tengo a la salida no tengan
ninguna relacin con los smbolos a la entrada.
Si pab pa pb , entonces se cumple que I A : B 0
I A : B 0 H A H B A
H A H B A
Cuando la informacin mutua es igual a cero, significa que la
ING. CARLOS EGAS
I A : B I B : A
I A n : B n nI B : A
pa1 w y pa 2 w
I A : B H B H B A
s
H B pbi log
i=1
1
pbi
w p 1 wp wp w p log wp 1 w p
H B H w p wp H wp w p
w p w p log
H B A pab log
AB
H B A w p log
1
1
pa pb a log
pb a AB
pb a
1
1
1
1
wp log w p log w p log
p
p
p
p
1
1
1
1
w p log p log w p log p log
p
p
p
p
1
1
w w p log p log
p
p
H B A H p
ING. CARLOS EGAS
I A : B H w p wp H p
ENTROPIA AFIN
Mide la incertidumbre de un suceso simultneo
a , b
i
el cual
H A, B pai , b j log
H B : A pab log
AB
pab log
AB
pab log
AB
1
pab
1
pab
pa pb
pa pb pab
pa pb
1
pab log
pab
pa pb
AB
H A : B I A : B pab log
AB
1
1
pab log
pa AB
pb
H A : B H A H B I A : B
I A : B H A H A B
H A : B H A B H B A I A : B
Adems tenemos que:
H A, B H A H B A
H A, B H B H A B
H A B 0
Y por lo tanto I A : B H A .
Un ejemplo de canal sin ruido es el siguiente:
0.6 0.4 0
0
0 1
0
0
0
0
0
0 0.5 0.5
CANAL DETERMINANTE
Un canal definido por una matriz con un elemento y solo uno
distinto de cero en cada fila recibe el nombre de canal determinante.
En un canal determinante se cumple que pbi a j = 0 1 y H A B 0 ,
por lo que I A : B H B .
1 0 0 0
0 1 0 0
0 1 0 0
0 0 0 1
0 0 1 0
Cbsc
1 0
0 1
CANALES EN SERIE
Al conectar dos canales en serie los smbolos de salida del primer
canal se convierten en los smbolos de entrada del segundo canal por
lo que debe cumplirse que el nmero de smbolos de salida sea igual
que el nmero de smbolos de entrada.
pb j ai
pck b j
Canal 1
a1 , a2 , ar
smbolos de entrada
ING. CARLOS EGAS
b1 , b2 , bs
smbolos de salida
H A C H A B 0
H A C H A B
I A : B I A : C
Demostracin:
H A C H A B pac log
AC
1
1
pab log
pac AB
pa b
ABC
ABC
pa b
pabc log pa c si pa b pa bc
ABC
pa bc
pabc log pa c
ABC
pabc pa bc pbc
H A C H
pbc pa bc log
ABC
pa bc
ac
H A C H A B pbc pa bc log
BC
pa bc
pa bc log pa c
pa bc
0
pa c
H A C H A B 0
H A H A B H A H A C
I A : B I A : C
p c k ai
ck
ai
p 2,1 p 2, 2 p 2,m
p 2,1 p 2, 2 p 2,t
p r ,1 p r , 2 p r ,m
p r ,1 p r , 2 p r ,t
p 2 p 2
2 pp
2 pp
p 2 p 2
p
p1
p
p
p
expresin p p
en donde n represente el nmero de canales a ser
conectados en serie, para luego realizar la siguiente asignacin:
p es igual a la suma de todos los trminos en donde p tiene como
potencia un nmero par.
p es igual a la suma de todos los trminos en donde p tiene como
potencia un nmero impar.
CANALES REDUCIDOS
P.
pr
0.9 0.1
0.05 0.95
C max I A : B
bits inf .
simb.
C r max I A : B
bits inf .
seg.
pa1 w
pa1 w
Con p + p* = 1 y w = w* = 1
La cantidad de informacin media a la entrada del BSC es:
H A w log
1
1
w log
w
w
H B H wp w p
H B wp w p log
1
1
wp w p log
wp w p
wp w p
Calculando H A B :
H A B pa pb a log
AB
H A B wp log
1
p
wp log
1
pb a
1
1
1
w p log w p log
p
p
p
1
1
1
1
w p log p log w p log p log
p
p
p
p
1
1
w w p log p log
p
p
H A B H p
La informacin mutua es igual a:
ING. CARLOS EGAS
I A : B H B H B A
I A : B H wp w p H p
En un canal binario simtrico, el mximo valor de la informacin
mutua ocurre cuando los smbolos de entrada son equiprobables, por
lo que la capacidad de dicho canal es:
C bsc 1 H p
bits simb.
1
log
T
bits inf .
seg.
1
log 2 rt r
T
simb. seg.
Cr
simb. seg.
1
1
r 1 p log
p
1 p
Re rp log
C 1 p log p 1 p log 1 p
Este resultado coincide con el calculado a partir de maximizacin
de la informacin mutua.
Capacidad de un canal uniforme
Un canal uniforme es la generalizacin del canal binario
simtrico BSC, ya que se lo considera como un canal simtrico r-ario
rSC que posee r smbolos de entrada y r smbolos de salida y esta
definido por la siguiente matriz:
p
r 1
p
p
1
P r
p
r 1
La matriz de un
siguiente:
p
r 1
p
p
r 1
r 1
p
p
r 1
r 1
r 1
p 0.4 sera el
C log r p log r H p
bits inf .
simb.
Demostracin:
I A : B H B H B A
Desarrollando H B A :
I A : B H B pa b a log
1
pb a
pai
1
r
I A : B H B pb a log
B
1
pb a
H B log r
Desarrollando el sumatorio de H B A se tiene que:
H B A p log
1
p
r 1
p
r 1
log
log
p r 1
p
r 1
p
H B A p log
H B A p log
1
p
r 1
r 1
log
p
r 1
p
1
1
p log r 1 p log
p
p
H B A H p p log r 1
Reemplazando en I A : B se tiene que:
I A : B log r H p p log r 1
1
log
T
bits inf .
seg.
C r log
Este nmero de estados , se lo puede interpretar como el nmero
de niveles de cuantizacin utilizados para digitalizar una seal
anloga, los cuales a su vez se los representa por una serie de dgitos.
Si se transmite a r simb. seg. (baudios), en nuestro caso un smbolo
equivale a una muestra cuantizada, y adems se sabe que la velocidad
de muestreo necesaria para poder recuperar la seal digitalizada est
dada por el teorema de Nyquist y es f 2B , entonces la velocidad mnima
con la que se enva cada muestra es:
r 2B
muestras seg.
SN
N
1 S N 2
1
C B log 1 S N
por el canal con una ocurrencia de errores tan pequea como se quiera.
Determina que la probabilidad de interpretar mal una palabra,
enviada a travs de un canal con ruido, puede hacerse tan pequea
como se quiera si R < C:
P(E) 2-nEb(R)
Donde:
K b (R) lim
n
1
log P E R, n
n
salida de canal
000
111
000
001
010
011
100
101
110
111
probabilidades de ocurrencia
ningn error en la T
1
2
un error
dos errores
tres errores
3pq
2
3p q
3
p
PE p2 3 - 2p 3 p2
Si la probabilidad de error del BSC es p 10 3 el riesgo inicial
se ha reducido a 3.10-6 transmitiendo tres smbolos idnticos y
adoptando como regla de decisin una eleccin mayoritaria, en vez
de enviar un dgito por mensaje.
La probabilidad de error se puede disminuir aumentando el nmero
de repeticiones, es decir trabajando con una extensin de orden
superior del alfabeto cdigo.
orden de la extencin
P E
p 10 3
1
2
5
7
9
11
P
2
3p
3
10p
4
35p
5
126p
6
426p
10
-6
3.10
-8
10
-11
4.10
-13
10
-16
5.10
-3
salida de canal
000
110
101
011
000
001
010
011
100
101
110
111
PE 1 q2 1 1 p 2p
2
salida de canal
000
001
010
011
100
101
110
111
000
001
010
011
100
101
110
111
PE 1 q3 1 1 p 3p
3
nmero N de secuencias
de entrada
P E
2
4
8
3.10
-3
2.10
-3
3.10
-6
si se
transmite
1/3
2/3
1
log N
bits de informacin
mensaje
log N
n
bits de informacin
dgito transmitido
bits de informacin
segundo
F C es decir
C log N
N 2nC
El objetivo es, disminuir N a un valor suficientemente pequeo
1
sin que la relacin log N tome un valor demasiado pequeo.
n
Shannon demuestra en el segundo teorema, que la probabilidad
de error PE puede hacerse tan pequea como se quiera, con tal que
N permanezca inferior a 2 nC .
1
En el lmite, es decir cuando C log N , se tiene la tasa de
n
transmisin mxima sin error de las secuencias de entrada.
H S
C
n
Codificacin de la informacin
a)
H A B
r H A B R C
O
r H A B r H A C
Donde es arbitrariamente pequeo y positivo.
tal que:
r H A B R C
El teorema fundamental de la codificacin determina la existencia
de cdigos especiales con los cuales la probabilidad de error del
canal puede hacerse tan pequea como se quiera.
Por lo tanto la codificacin consistir en expresar de la mejor
forma posible, es decir con valores de muy pequeos, cada smbolo
de la fuente con la ayuda de las palabras cdigo provenientes del
alfabeto cdigo.
b)
C max I A: B
Y para un canal binario simtrico con una probabilidad de error
ING. CARLOS EGAS
C 1 H p
Segn el teorema de Shannon se tiene que:
1
F max H A log N C
n
C 1
bit de informacin
smbolo
Cr rC
bits de informacin
smbolo
Si
la
fuente
de
informacin
posee
una
entropa
H A bits de informacin mensaje de la fuente , se podrn transmitir mensajes
por el canal a una velocidad R tan prxima a:
C
H
mensajes segundo
Rc C I A : B
El rendimiento del canal viene definido como la relacin entre
la informacin transmitida y la capacidad del canal.
I A : B
C
REGLA DE DESICION
Consideremos un canal con un alfabeto de entrada A ai , para
i 1, 2, 3, r y un alfabeto de salida B b j para j 1, 2, 3, s . Se
p E b j p a b j 1
que:
p a b j
pa I b j
p a b j pb j
pa
pa1 b j pb j
p a
p b j a
pa1 b j pb j
pa b pb pa
pb a
pa pa
pb a pa
pb a
pa
p a
p b j a pb j a1
pa
r
ai a
bj
p E
pa
r
ai a ,b j
b j pb j
pa
r
p E
ai a ,b j
bj
p E
pb
r
ai a ,b j
ai pai
1
r
p b a
B , A a
d b1 a 2
d b2 a1
d b3 a3
La probabilidad de error viene dada por:
bj
P E 1 P b a
LMITE DE FANO
Establece una relacin entre la probabilidad de error y los
conceptos de entropa e informacin mutua y tiene validez cualquiera
sea la regla de decisin aplicada.
H A B PE log r 1 H P E
CONTROL DE ERRORES
El problema del control de errores es el de disear e implementar
sistemas codificadores y decodificadores que cumplan con las siguientes caractersticas
-La informacin debe ser transmitida o grabada en un ambiente ruidoso
de la manera mas rpida posible, conservando de esta forma la
velocidad de transmisin de los mensajes.
-Se debe recuperar la informacin a la salida del canal decodificador
de una manera confiable.
-Los costos del codificador y decodificador deben estar dentro de
lmites aceptables y sean fcilmente implementados.
-Debe disminuir la probabilidad de error efectiva del canal
MEDIO DE TRANSMISION
El control de errores es aplicable a todo tipo de medio de
transmisin tales como la lnea telefnica, enlaces de radio, enlaces
telemtricos, enlaces satelitales
MEDIOS DE ALMACENAMIENTO
Cuando se almacena informacin, muchas veces el tiempo de
almacenamiento, puede ser causa de que el momento en que se quiera
recuperar la informacin, esta haya sufrido variaciones mientras
estuvo
almacenada
por
distintas
causas
en
memorias
semiconductoras,magnticas y pticas, discos flexibles.
TIPOS DE ERRORES
CLASIFICACION
Cdigos
Bloque
DE
LOS
CODIGOS
PARA
CONTROL
DE
ERRORES
Relacin constante
Ortogonales
Especiales S-arios.Canales
asimtricos
Control de Hamming
paridad
Geomtricos
Cclicos BCH Goppa
Golay
Reed-Solomon
Cdigos
Paridad deslizante
no bloque
o recurrentes
Convolucionales
y espera un acuse de
SISTEMAS HIBRIDOS
Comparando los dos sistemas , se puede determinar que el ARQ
es simple y provee una alta confiabilidad del sistema, sin embargo
tienen una gran desventaja, su eficiencia del cdigo utilizado, R
= n/k , cae rpidamente conforme aumenta la taza de error del canal.
Los sistemas que usan FEC mantienen constante la eficiencia.
Los sistemas FEC tienen dos desventajas.
La primera, cuando
en una secuencia de dgitos se detecta un error, es necesario
decodificar la secuencia aceptando el resultado ,el cual tiene una
probabilidad de ser incorrecto, conociendo que la probabilidad de
corregir el error es mucho mas grande que la de no poderlo detectar.
Segundo, para obtener un sistema de alta confiabilidad, es
ING. CARLOS EGAS
u v r u*
fuen codi canal deco des.
ruido
u/r)
p(u/r) =
p(r/u)p(u)
p(r)
Rd =
H(S) max - I
H(S) max
donde 0 Rd 1
Cdigo Bloque
ING. CARLOS EGAS
palabra cdigo
10101
110101
palabra cdigo
0
1
00000
11111
bloque
lineal
(7,4)
tiene
las
siguientes
Mensaje
Palabra cdigo
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
1
0
1
0
1
0
1
0
0
1
0
1
0
0
1
1
0
0
1
1
0
0
1
1
0
0
1
1
0
0
0
0
1
1
1
1
0
0
0
0
1
1
1
1
0
0
0
0
0
0
0
0
1
1
1
1
1
1
1
1
0
1
1
0
1
0
0
1
0
1
1
0
1
0
0
1
0
0
1
1
1
1
0
0
1
1
0
0
0
0
1
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
0
1
1
0
0
1
1
0
0
1
1
0
0
1
1
0
0
0
0
1
1
1
1
0
0
0
0
1
1
1
1
0
0
0
0
0
0
0
0
1
1
1
1
1
1
1
1
v = (0,0,1,0,1,1,1)
g0,0
g1,0
g0,1
g1,1
g0,2
g0,2
........
........
g0,n-1
g1,n-1
G =
gi=
(gi,0
.
.
.
.
gk-1
.
= .
.
.
gk-1,0
gi,1
gi,2
1
.
.
.
gk-1,1 gk-1,2
........
.
........gk-1,n-1
0 i k
gi,n-1)
representa al mensaje
v = u . G
g0
g1
g2
.
.
.
gk-1
1
0
1
1
1
1
1
0
0
1
1
1
1
0
0
0
0
1
0
0
0
0
1
0
0
0
0
1
bits introducidos en
bits de la informacin
la codificacin.
que se codific
n-k dgitos
k dgitos
Cuando la palabra cdigo posee esta estructura, al cdigo se
lo llama cdigo lineal sistemtico. Esta estructura facilita los
proceso de codificacin ya que en lugar de calcular los n dgitos
de la palabra cdigo, el codificador, solo debe calcular n-k dgitos
denominados bits de control
La matriz generadora de un cdigo con estructura sistemtica
tiene la siguiente forma.
p0,0
p1,0
.
.
.
pk-1,0
G =
p0,1
p1,1
........
........
.
pk-1,1
p0,n-k-1 | 1 0 0
p1,n-k-1 | 0 1 0
|
.
|
.
|
.
|
.
........pk-1,n-k-1 | 0 0 0
.. 0
.. 0
.. 1
G = P Ik
Al hacer la multiplicacin
v = u . G
se tienen las siguientes ecuaciones, las cuales nos permitirn
encontrar los bits de control
vn-k-i = ui
para 0 i < k
vj = u0 p0,j + u1
para 0 j < n - k
Para el cdigo (7,4) las ecuaciones son las siguientes
v0
v1
v2
v3
v4
v5
=
=
=
=
=
=
u0
u1
u2
u3
u1 + u2 + u3
u0 + u1 + u2
ING. CARLOS EGAS
v6
u0 + u2 + u3
u0 u1
.......
uk-1
v0 v1
.......
vn-k-1
salida
v(x)
mux
H =
1 0 0 ... 0
0 1 0 ... 0
.
.
.
.
0 0 0 ... 1
p0,0
p0,1
p1,0
p1,1
....... pk-1,0
........ pk-1,0
.
H = In-k PT
La matriz H puede ser utilizada como matriz generadora, por lo
ING. CARLOS EGAS
1
0
0
0
1
0
0
0
1
1
1
0
0
1
1
1
1
1
1
0
1
Palabras cdigo
0
1
0
0
1
1
0
1
0
1
0
0
1
1
0
1
0
0
1
0
1
0
1
1
0
0
0
1
0
1
1
1
0
0
1
0
1
0
1
1
0
0
0
1
0
1
1
1
0
1
1
0
0
1
1
0
0
0
1
1
1
1
0
0
0
1
1
1
0
0
0
1
0
1
0
1
1
0
1
0
s0 =
r0 + rn-k p0,0 + rn-k+1 p1,0 ...
rn-1 pk-1,0
s1 =
r1 + rn-k p0,1 + rn-k+1 p1,1
.. rn-1 pk-1,1
.
.
.
sn-k-1 =
rn-k-1 + rn-k p0,n-k-1 + rn-k+1 p1,n-k-1 ... rn-1 pk-1,n-k-1
.
.
.
El echo vital acerca del sndrome es que depende solo del tipo
de error introducido durante la transmisin y no del bloque transmitido
v. Es por esta razn que cada valor que puede tomar el sndrome es
asociado a uno y solo un tipo de error el cual es representado por
e.
r = e + v
con e = ( e0 , e1 , e2 ,........, en-1 )
ei son los elementos del tipo de error o errores
S = e . HT
Esta expresin nos permite obtener un total de n - k ecuaciones
en las cuales los elementos del tipo de error son las variables cuyo
valor debemos encontrar y de esta manera poder conocer el tipo de
error introducido en la transmisin y por lo tanto realizar la
correccin del bloque recibido.
s0 =
s1 =
s2 =
..
..
..
sn-k-1 =
en-k-1
...
...
...
...
en-1 pk-1,0
en-1 pk-1,1
en-1 pk-1,2
en-1 pk-1,n-k-1
e0 + e3 + e5 + e6
e1 + e3 + e4 + e5
e2 + e4 + e5 + e6
(1,1,1) = (1,0,0,1,0,0,1).
1
0
0
1
0
1
1
0
1
0
1
1
1
0
0
0
1
0
1
1
1
e0 + e3 + e5 + e6
e1 + e3 + e4 + e5
e2 + e4 + e5 + e6
0
1
0
1
1
0
1
0
0
1
1
0
1
0
0
1
0
0
1
1
1
1
0
0
0
1
0
1
0
1
0
1
0
0
1
1
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
)
)
)
)
)
)
)
)
(
(
(
(
(
(
(
(
1
0
1
0
0
1
0
1
0
1
1
0
1
0
0
1
1
1
0
0
0
0
1
1
0
1
0
1
0
1
0
1
0
0
1
1
0
0
1
1
1
1
1
1
0
0
0
0
1
1
1
1
1
1
1
1
)
)
)
)
)
)
)
)
ING. CARLOS EGAS
s1
s2
e0
e1
e2
e3
e4
e5
e6
0
1
0
0
1
0
1
1
0
0
1
0
1
1
1
0
0
0
0
1
0
1
1
1
0
1
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
1
As tenemos que un cdigo bloque con distancia mnima dmin garantiza corregir todos los tipos de errores con t errores o menos.
t = (dmin - 1) / 2
Puede detectar todos los tipos de errores con hasta dmin - 1
errores.
Cada cdigo bloque con una distancia mnima dmin garantiza
detectar todos los tipos de errores con dmin - 1 errores o menos, sin
embargo puede darse la posibilidad de que pueda detectar algunos
con dmin o mas errores. Aquel cdigo que garantiza corregir todos los
tipos de errores con dmin - 1 errores o menos
y ningn tipo de error con mas errores se denomina cdigo perfecto.
La distancia mnima del cdigo (7,4) es igual a tres, lo que
significa entre otras cosas, que para transformar una palabra cdigo
en otra palabra cdigo es necesario modificar dicha palabra, en por
lo menos tres lugares
En general un cdigo bloque lineal (n,k) es capaz detectar 2n
- 2
secuencias errneas de longitud n, denominados errores
detectables.
k
CIRCUITO DE DEDODIFICACION
r
r0 r1 . . . . .
rn-1
s0 s1 . . . . . sn-k-1
un S con un e
e0
e1
en-1
r0 r1
. . . . rn-1
v0
v1
vn-1
Figura N.- 2Bloques que conforman un circuito decodificador
El circuito que calcula el sndrome es lo obtiene a partir de
las ecuaciones que provienen de desarrollar s = r.HT
El circuito conbinacional que me proporciona el tipo de error
introducido en la transmisin, basicamente es un circuito cuya tabla
de verdad contiene como elementos de entrada a todas las combinaciones
posibles de sndromes y como salidas al tipo de error asociado a su
correspondiente sndrome.
CDIGOS HAMMING
Este tipo de cdigos son ampliamente usados debido a la facilidad
de implementacin de los circuitos codificadores y decodificadores
para el control de errores y su caracterstica principal es que pueden
detectar tipos de errores con un mximo de dos errores y pueden corregir
tipos de errores con un error
Para cualquier valor de m 3 existe un cdigo bloque lineal
con los siguientes parmetros
n = 2m
k = 2m
n- k =
t = 1
- 1
- m - 1
m
dmin = 3
Pu(E) = Ai pi (1 - p )n-i
i=1
-(n-k)
CODIGOS CICLICOS
Los cdigos cclicos son una clase muy importante de los cdigos
bloque lineales ya que la implementacin de los circuitos codificadores y decodificadores resulta ser mucho menos complicada y esto
se debe a la propiedad cclica que presentan.
En este cdigo se cumple que cualquier desplazamiento de una
palabra cdigo se transforma en otra palabra cdigo. Es decir si
v = (v0 , v1 , ......., vn-1) es una palabra cdigo, el vector resultante
de desplazar ciclicamente i veces este vector es tambin una palabra
cdigo.
v
(i)
= (vn-i , vn-i+1 ,
....vn-1 , v0 , ...vn-i1)
factor de
Xn+1,
X2 : (cuociente)
---------------------:
X3 +X +1
X5
+X3
5
X
+X3 +X2
----------------X2
(residuo)
por tanto b(X)=X2, el polinomio de cdigo es:
v(X)= b(X)+X3 u(X)
= X2 +X3 +X5
el vector de cdigo resultante es: v=(0011010), donde los cuatro
ltimos dgitos corresponden a los del mensaje.
los vectores cdigo y polinomios de cdigo para el cdigo cclico
(7,4) en forma sistemtica, generado por el polinomio g(X)=1+X+X3
se presentan en la siguiente tabla.
Cdigo Cclico (7,4)
g(X)= 1+X+X3
Mensaje
0000
1000
0100
1100
0010
1010
0110
1110
0001
1001
Vect.de Cdigo
0000000
1101000
0110100
1011100
1110010
0011010
1000110
0101110
1010001
0111001
Polinomio de Cdigo
0
1+X+X3
X+X2+X4
1+X2+X3+X4
1+X+X2+X5
X2+X3+X5
1+X4+X5
X+X3+X4+X5
1+X2+X6
X+X2+X3+X6
ING. CARLOS EGAS
0101
1101
0011
1011
0111
1111
1
1+X+X4+X6
X3+X4+X6
X+X5+X6
1+X3+X5+X6
X2+X4+X5+X6
1+X+X2+X3+X4+X5+X6
1100101
0001101
0100011
1001011
0010111
1111111
En forma no sistemtica
G =
g0
0
..
..
g1
g0
.
........ gn-k
0
........ bn-k-1 gn-k
0
0
0 ......
0
....
g0
g1
........
0
0
gn-k-1
G =
b)
1
0
0
0
1
1
0
0
0
1
1
0
1
0
1
1
0
1
0
1
0
0
1
0
0
0
0
1
En forma sistemtica
G =
b0,0
b0,1
b1,0
b1,1
.
.
bk-1,0 bk-1,1
........
........
b0,n-k-1 | 1 0 0 .. 0
b1,n-k-1 | 0 1 0 .. 0
........bk-1,n-k-1| 0 0 0 .. 1
=
=
=
=
g(X) + (1+X)
Xg(X) + (X+X2)
(X2+1)g(X) + (1+X+X2)
(X3+X+1)g(X) + (1+X2)
= 1 +X
=
X +X2
= 1 +X +X2
= 1
+X2
+X3
+X4
+X5
+X6
0
ING. CARLOS EGAS
G =
0
1
1
1
1
1
0
1
1
1
0
0
0
1
0
0
0
1
0
0
0
1
mux
g1
g2
gn-k-1
b0b1b3 . . bn-k-1
Xn-ku(x)
v(x)
Figura N 3
de k
hk-1
hk-2
h0
h1
mux
u(x)
mux . .
v(x)
Figura N 4Circuito codificador en base a h(x)
mux
g1
g2
gn-k-1
.....
r(x)
Figura N 5Circuito para calcular el sndrome con entrada de derecha
a izquierda.
mux
g1
g2
gn-k-1
r(x)
s0s1s3 ... sn-k-1
entrada
salida
r(x)
ri
v(x)
mux
registro de r(x)
mux
mux
registro de s(x)
s0 s1
sn-k
detector de e(x)
mux
CODIGOS BCH
3 1 + X + X3
41 + X + X4
51 + X2 + X5
61 + X + X6
71 + X3 + X7
81 + X2 + X3 + X4 + X8
= 91 + X4 + X9
= 101 + X3 + X10
0
0
.....
j veces
representacinrepresentacinrepresentacin
exponencialpolinomialbinaria
11
1
0
0
0
0
1
0
0
2
2
0
0
3
3
0
0
41 +
1
1
0
5
+ 2
0
1
1
6
2 + 3 0
0
1
71 +
+ 3
1
1
81 + 2
1
0
1
0
9
+ 3
0
10
2
1 + +
1
1
1
11
+ 2 + 3
12
a 1 + + 2 + 3
1
1
131
+ 2 + 3
1
0
141
3 1
0
0
1
0
0
1
1
0
0
1
1
1
0
1
1
0
0
1
1
1
1
(x) = (x + 2i)
i=0
son:
elementospolinomio mnimo
1X + 1
,2,4,8X4 + X + 1
3,6,9,12X4 + X3 + X2 + X + 1
5,10X2 + X + 1
ING. CARLOS EGAS
Estos
7,11,13,14X4 + X3 + 1
Todas estas propiedades que han sido resumidas anteriormente,
las cuales rigen el comportamiento de los campos GF(2m) , son
importantes para el diseo e implementacin de los codificadores y
decodificadores de los cdigos BCH, ya que la construccin de campos
GF(2m) y la utilizacin de sus propiedades simplifica mucho la elaboracin de estos cdigos.
Cdigos
BCH
para
1 i 2t
2i
(n-1)i
S1 =
S2 =
S3 =
.
.
.
S2t =
j1
+ j2
+ ............ + jz
j1 2
j2 2
( )
+ ( )
+ ............+ (jz)2
j1 3
j2 3
( )
+ ( )
+ ............+ (jz)3
.
(j1)2t + (j2)2t + ............+ (jz)2t
.
.
.
.
S1 = 1 + 2 +............z
S2 = 12 + 22 +............z2
(2)
0 = 1
1 = 1 + 2 + ......
+ z
2 = 12 + 23 + ......
.
.
.
z = 123 .....z
+z-1z
(3)
........ +luuXlu
(4)
u(x)dulu2u - lu
-1/2110-1
01S100
1---.
.
.
t----
1
0
H =1
0
1
1
1
1
1
1
1
1
0
1
0
0
1
1
0
1
1
0
0
1
1
1
1
1
0
0
0
1
1
1
0
0
0
1
1
1
1
1
0
1
1
0
0
1
0
1
1
1
0
0
0
0
0
1
0
0
0
0
0
1
0
0
0
0
0
1
0
0
0
0
0
1
por lo tanto t = 3
+ (d2/d1)S1X3
con d1= S3 + S2 S1
d2= S5 + 21 S4 + 22 S3 + 23 S2
0 = 1
ING. CARLOS EGAS
1= S1
2= (d1/S1 + d2/d1 )
4= (d2/d1)S1
Las races de (x) se encuentran evaluando este polinomio
con todos los elementos de GF(24) de tal forma que i es raiz si (i)
= 0
Hay
muchas
maneras
de
implementar
los
circuitos
decodificadores, una es la de implementar circuitos combinacionales
que realicen las operaciones aritmticas pero usando integracin en
gran escala debido a la gran cantidad de compuertas que se necesitan.
Esto lo hacen los fabricantes que disean chips especializados
para la correccin y deteccin de errores.
Otra manera es la de utilizar un microprocesador que nos ayude a
realizar estas operaciones y algoritmos mediante programas.
La decodificacion de codigos BCH requiere de calculos que
utilizan la aritmtica de los campos de Galois los cuales pueden ser
implementados por hardware o por software.
La ventaja de la
implementacin por hardware es una mayor velocidad en la realizacin
de los calculos, sin embargo una implementacin por software es mas
barata.
A continuacin se presenta una tabla de cdigos lineales (n,k)
con una capacidad de correccin de t errores.
n
7
15
31
63
127
n
255
4 11
11 1
7 2
5 3
26 1
21 2
16 3
11 5
57 1
51 2
45 3
16 11
7 15
120 1
113
k t
106
64
22
8
247
239
231
179
10
23
31
1
2
3
10
2
3
511
1023
99 23
9 63
502 1
493 2
484 3
421 10
313 23
10 121
1013 1
1003 2
993 3
923 10
798 23
11 255
CODIGOS CONVOLUCIONALES
G =
g0,0(x)
g0,1(x)
g0,2(x)
g1,0(x)
g1,1(x)
g0,2(x)
.
.
.
gk-1,0(x) gk-1,1(x) gk-1,2(x)
........
........
g0,n-1(x)
g1,n-1(x)
.
........
gk-1,n-1(x)
G =gi,j(x)
gi,j(x)=
........
gijsXs
M + 1
Eficiencia
R = k/n
Los bits de informacin pueden ser representados por los
coeficientes de los k polinomios que conforman el vector I
I = (I0(x),I1(x) ....
,Ik-1(x))
para 0 j k - 1
,Cn-1(x))
,Cn-1(x))
G.
Asi la L-sima truncacin de un cdigo convolucional (n,k) puede
ser vista como un cdigo bloque lineal (n(M+L),kL),
La eficiencia de un cdigo truncado est dado por
RL = kL/n(M+L)
ING. CARLOS EGAS
1
= R(1-M/M+L)
I0(x)
siguiente
g0,0(x)
I1(x)
C0(x)
.
g1,0(x)
XOR
.
Ik-1(x)
gk-1,0(x)
g0,1(x)
C1(x)
g1,1(x)
XOR
.
.
.
gk-1,1(x)
.
.
.
.
.
.
.
.
.
g0,n-1(x)
Cn-1(x)
g1,n-1(x)
XOR
gk-1,n-1(x)
I(x)
g(X)
1
Lmin Hr ( S ) Pi log
Pi
L P ( Si )li
i 1
# cod r (r 1)
V rxl
H r (S )
H (S )
H ( S )max log q
n r
i 1
q li
r
i 1
r li 1
i 1
li n
ni r 1 1
nl
i 1
H ( S ) Pi log 2
i 1
1
Pi
I ( E ) log 2
H (S )max log q
H r (S ) L
l i log r Pi
1
P( E )
L pi li
i 1
i 1
i 1
pi li pi log
nc
1
pi
H r (S )
L
Re dundancia 1 n
1
li log r
Pi
H ( B) I ( A; B)
C 1 H ( p)
H (B / A) H (B) I ( A; B)
1
H ( A) Pa log
Pa
I ( A; B) H ( A) H ( A / B)
H ( A / B) P(ab) log
AB
P(ai / b j )
P(b / a
i
) P(ai )
p(b j )
1
1
P(ab) P(b) log
P(a / b) AB
P(a / b)
1
1
P(a2 / b1) P(b1) log
.......... ........
P(a1 / b1)
P(a2 / b1)
bits inf
bits inf
C I ( A; B)max
simb
bits inf
C r.I ( A; B)max
seg
P(a1) w
P(a2) w
P(b1) wp w p
P(b1) wp w p
H ( B) log r
I ( A; C) H (C) H (C / A)
H ( B) wp w p log
1
1
wp w p log
wp w p
wp w p
H ( B) H wp w p H wp w p
H ( B / A) p log
1
1
p log(r 1) p log
p
p
r 1
1
p log
p
p
i 1
i 1
1 q
1
xi log
i i 1
yi
x log x
i 1
xi log
i 1
H (C / A) H (C) I ( A : C)
ln
xi log
i 1
1
1 x
x
q
yi
yi
1 q
1
x
ln
H
(
S
)
Pi log
i
xi ln 2 i 1
xi
Pi
i 1
H S n nH (S ) m
log q H ( S ) log e Pi 1
i 1
qPi
q
1 q P
log e Pi i
q i 1 Pi
i 1
P(b) P( E / b)
BA a*
ln x x 1
xi yi 1
P( E )
simb
H ( B / A) H ( p) p log(r 1)
C rI A; B max
I ( A : B) H wp w p H ( p)
1
1 1
p
1
H ( B / A) r p log (r 1)
log
p
p r
(r 1)
r
r 1
H ( B / A) p log
H S n H ( S n ) nH ( S )
yi
1 q yi
x1 1
xi ln 2 i 1 xi
q
q
1
y i xi
ln 2 i 1
i 1
i 1
1
Pi
Pi log qPi
i 1
log e Pi ln qPi
1
q
H ( S ) Pi log r Pi log r j
i 1
i 1
j 1
q
q
l
log r Pi li log r j
i 1
j 1
Sn
q
i1
i2
i1
Sn
i2
i1 1
in 1
1
Pi1
Pi1 log
1
Pi1
Sn
P i log
Sn
1
Pi1
Pi1 log
i1 1
H ( S n ) P i log
in
i2 1
i1
Pi1 log
in 1
i1 1
log
1
Pi1
i2 1
in 1
1
Pi1 Pi2 ........ Pii
1
1
1
P i log
...... P i log
Pi1 S n
Pi2
Pin
Sn
I ( si / s j1 , s j2 ,..., s jm ) log
1
P( si / s j1 , s j2 ,..., s jm )
H Sn
H (S )
n
n
lim
H ( S ) P ( s j1 , s j2 ,..., s jm )H ( S / s j1 , s j2 ,..., s jm )
j1
P( s
j1
, s j2 ,..., s jm , si )x log
S m 1
P( s
S m 1
H Sn H S n
Sm
Sm
l j
1
P log P P P ..... P
in
q
i1 1 i2 1
j 1
P P P ..... P
i
li
L log r log r
i 1
1
P( si / s j1 , s j2 ,..., s jm )
1
P( si / s j1 , s j2 ,..., s jm )
1
P( si / s j1 , s j2 ,..., s jm )
H S n P j , i log
Sn
Sn
Ps
/ s j P si2 / si1
H S n P j , i log
S 2n
H ( S n ) P j , i log
1
P i / j
..... Ps
in
S 2n
/ sin 1
P si1 , si2 ,..., sin P si1 P si2 / si1 ....P sin / sin 1
H S n P i log
S
S 2n
Sn
, i log
H S n nH S
H ( S ) Pi log Pi
P i
i 1
H Sn
H (S ) m
n
n
1
1
...... P j , i log
P si1 / s j
P sin / sin 1
S 2n
1
P i / j
1
1
P s j , s i log
P si / s j S 2
P si1 / s j
Pi log
i 1
1 q
1
Pi log
Pi i 1
Qi
H (S )
nH S
H S
1
1
1
H ( S n ) P si1 , si2 ,..., sin log
log
... log
P si1
P s i2 / s in
P sin / sin 1
S
H ( S ) (n 1) H ( S )
nH ( S ) H ( S ) H ( S )
q
H ( S ) Pi log Qi
i 1
Qi
H ( S ) L log r
r li
q
H (S )
L
log r
H r (S ) L
li
i 1
pP
pP
H A, B P(a, b) log
A, B
1
P ( a, b )
1
P11 P12 ...... P1s
P P ..... P
2s
P 21 22
.......... ..........
p
p
II 11 II 12 ...... II 1s n
II 21 II 22 ..... II 2 s n
II
.......... ..........
II r1 II r 2 ..... II rs n
p2
pp
II
pp
2
p
H A, B Pa, b log
A, B
pp
p2
p2
pp
p2
pp
pp
p 2
Pa Pb
1
Pa, b log
Pa, b
Pa Pb
A, B
I A; B Pa, b log
A, B
I A; B Pa log
A
pp
p2
p2
pp
1
1
Pa, b log
Pa A, B
Pb
1
1
Pb log
Pa B
Pb
H A H B I A; B
PROBLEMAS PROPUESTOS
=
=
=
=
0.5p(0/11)
0.5p(1/11)
0.3p(0/10)
0.7p(1/10)
=
=
=
=
0.3
0.7
0.6
0.4
Calcular
ING. CARLOS EGAS
-la
-la
-la
-la
_
p
_
2 p
_
p
0.2
00
0.8
0.5
01
0.5
0.5
0.4
11
0.6
0.5
10
0.1
00
0.9
0.6
01
0.4
0.1
0.4
11
0.6
0.9
10
S ....
s1 s2 s3 s4 s5 s6 s7 s8 s9 s10
P(si)0.20.180.120.10.10.080.060.060.070.03
Calcule la longitud media para cada cdigo
Se considerarn cdigos diferentes solamente aquellos que estn
formados con palabras cdigo de longitudes diferentes
16.-Un fuente binaria de memoria nula tiene las probabilidades P(0)
= 0.2 y P(1) = 0.8
Calcular H(S)
-Calcular la longitud media de las palabras de un cdigo compacto
de S cuando X = (0,1)
-Calcular Ln/n para n = 2,3,4, y n -> al codificar Sn en un cdigo
compacto, siempre con X = (0,1)
17.-Encontrar un cdigo compacto binario para la fuente de la siguiente
tabla;
S ....
s1 s2 s3 s4 s5 s6 s7 s8 s9 s10
P(si)0.20.190.110.10.10.080.070.020.070.04
-Calcule la longitud media del cada cdigo
-Calcule la cantidad de informacin media que proporciona la fuente
sin codificar, y la fuente codificada.
1/4
1/4
1/4
1/8
1/16
1/16
00
01
10
101
1110
11110
secuencia
de
datos
con
un
000100000000001000000000100
ING. CARLOS EGAS
codigo
0.2
00
0.8
0.5
01
0.5
0.3
0.6
11
0.4
0.7
10
C1=
31.-Determinar el
informacin
canal
1
retrospectivo
del
siguiente
canal
de
0.3 b10.8
a1. ..
c1
0.7 0.2
0.4 b2 0.5
a2...
c2
0.6 0.5
0.5 b3 0.5
a3...
c3
0.50.5
p(a1) = 0.2
p(a2) = 0.3
p(a3) = 0.5
=
1/3 1/3 1/3
1
0
1/2 1/2C2 =
0
0
0
1
p(a1) = 0.2
p(a2) = 0.8
0
1/2
1/2
33.-Reducir el canal P1, tal que P(b=1/a=0), para que pueda ser
conectado en serie con P2 . Calcular I (A:C) si las entradas
son equiprobables
0.5 0.0 0.5
0.7 0.2 0.1
P1 =
0.2 0.2 0.6 P2 = 0.5 0.4 0.1
34.-Calcular la probabilidad de error de un canal binario simtrico
si se enva 6 veces el mismo mensaje para saber si hay errores
en la transmisin , si p = 10 -7.
p
p
0
0
p
p
0
0
0
0
p
p
0
0
p
p
0.4
0.2
0.4
0.3
0.6
0.1
cdigo
0
1
1
1
0
1
0
0
1
0
1
1
0
0
1
0
1
1
0
0
0
1
1
0
1
0
1
0
0
1
0
1
0
0
1
1
0
0
1
1
0
1
0
0
0
1
1
1
v0
v1
v2
v3
=
=
=
=
u1
u0
u0
u0
+
+
+
+
u2
u1
u1
u2
+
+
+
+
u3
u2
u3
u3
0
=
1
1
1 1 1 1 0 0 0
1 1 1 0 0 1 0 0
1 0 1 0 0 1 0
0 1 1 0 0 0 1
1
INFORMACION