Вы находитесь на странице: 1из 18

REPÚBLICA BOLIVARIANA DE VENEZUELA

MINISTERIOS DE PODER POPULAR PARA LA


EDUCACIÓN SUPERIOR UNIVERSITARIA,
CIENCIA Y TECNOLOGÍA
INSTITUTO UNIVERSITARIO POLITÉCNICO
“SANTIAGO MARIÑO”
EXTENSIÓN MATURÍN

Teoría de la Información.

Autor: Edgar Colmenares


C.I:16174544

Maturín, Septiembre de 2018


Introducción

La necesidad de una base teórica para la tecnología de la comunicación surgió del


aumento de la complejidad y de la masificación de las vías de comunicación, tales como el
teléfono, las redes de teletipo y los sistemas de comunicación por radio. La teoría de la
información también abarca todas las restantes formas de transmisión y almacenamiento de
información, incluyendo la televisión y los impulsos eléctricos que se transmiten en las
computadoras y en la grabación óptica de datos e imágenes. El término información se
refiere a los mensajes transmitidos: voz o música transmitida por teléfono o radio, imágenes
transmitidas por sistemas de televisión, información digital en sistemas y redes de
computadoras, e incluso a los impulsos nerviosos en organismos vivientes. De forma más
general, la teoría de la información ha sido aplicada en campos tan diversos como la
cibernética, la criptografía, la lingüística, la psicología y la estadística.

La Teoría de la Información se encuentra aún hoy en día en relación con una de las
tecnologías en boga, Internet. Desde el punto de vista social, Internet representa unos
significativos beneficios potenciales, ya que ofrece oportunidades sin precedentes para dar
poder a los individuos y conectarlos con fuentes cada vez más ricas de información digital.

En este contexto, el estudio y debate en torno a los fundamentos de la Teoría de la


Información de Shannon puede ser de gran ayuda para entender los problemas y los
desafíos que plantean los posibles desarrollos tecnológicos basados en la teoría cuántica.

Para el desarrollo de este trabajo el estudio lo concentraremos en la Cantidad de


información, Canales de comunicación, Capacidad de canal, Relación entre ancho de
banda, capacidad de canal y la relación señal - a – ruido, Codificación. PCM, Códigos
detectores y correctores de errores, Ejemplos de aplicación de la teoría de la información.
Teoría de la información.

Es la teoría relacionada con las leyes matemáticas que rige la transmisión y el


procesamiento de la información. Más concretamente, la teoría de la información se ocupa
de la medición de la información y de la representación de la misma (como, por ejemplo, su
codificación) y de la capacidad de los sistemas de comunicación para transmitir y procesar
información.

La codificación puede referirse tanto a la transformación de voz o imagen en señales


eléctricas o electromagnéticas, como al cifrado de mensajes para asegurar su privacidad. La
teoría de la información fue desarrollada inicialmente, en 1948, por el ingeniero electrónico
estadounidense Claude E. Shannon, en su artículo, A Mathematical Theory of
Communication (Teoría matemática de la comunicación).

Cantidad de Información.

Un concepto fundamental en la teoría de la información es que la cantidad de


información contenida en un mensaje es un valor matemático bien definido y medible. El
término cantidad no se refiere a la cuantía de datos, sino a la probabilidad de que un
mensaje, dentro de un conjunto de mensajes posibles, sea recibido. En lo que se refiere a la
cantidad de información, el valor más alto se le asigna al mensaje que menos
probabilidades tiene de ser recibido. Si se sabe con certeza que un mensaje va a ser
recibido, su cantidad de información es 0. Si, por ejemplo, se lanza una moneda al aire, el
mensaje conjunto cara o cruz que describe el resultado, no tiene cantidad de información.
Sin embargo, los dos mensajes por separado cara o cruz tienen probabilidades iguales de
valor un medio. Para relacionar la cantidad de información (I) con la probabilidad, Shannon
presentó la siguiente fórmula:

I = log21/p

Donde p es la probabilidad del mensaje que se transmite y log2 es el logaritmo


de 1/p en base 2. (log2 de un número dado X es el exponente Y al que tiene que ser elevado
el número 2 para obtener dicho número X. Por ejemplo, log2 de 8 = 3, porque 23 = 8).
Utilizando esta fórmula, obtenemos que los mensajes cara y cruz tienen una cantidad de
información de log22 = 1.

La cantidad de información de un mensaje puede ser entendida como el número de


símbolos posibles que representan el mensaje. En el ejemplo anterior, si cruz está
representado por un 0 y cara por un 1, sólo hay una forma de representar el
mensaje: 0 o 1. El 0 y el 1 son los dígitos del sistema binario, y la elección entre estos dos
símbolos corresponde a la llamada unidad de información binaria o bit. Si se lanza una
moneda tres veces seguidas, los ocho resultados (o mensajes) igualmente probables pueden
ser representados como 000,001,010,011,100,101,110 o 111. Estos mensajes corresponden
a los números 0,1,...7 escritos en notación binaria. La probabilidad de cada mensaje es de
un octavo, y su cantidad de información es log21 ˆ = 3, que es el número de bits que se
necesitan para representar cada mensaje.

En la mayoría de las aplicaciones prácticas, hay que elegir entre mensajes


que tienen diferentes probabilidades de ser enviados. El término entropía ha sido tomado
prestado de la termodinámica, para designar la cantidad de información media de estos
mensajes. La entropía puede ser intuitivamente entendida como el grado de desorden en un
sistema. En la teoría de la información la entropía de un mensaje es igual a su cantidad de
información media. Si en un conjunto de mensajes, sus probabilidades son iguales, la
fórmula para calcular la entropía total sería: H = log2N, donde N es el número de mensajes
posibles en el conjunto.

Si se transmiten mensajes que están formados por combinaciones aleatorias


de las 26 letras del alfabeto inglés, el espacio en blanco y cinco signos de puntuación, y si
suponemos que la probabilidad de cada mensaje es la misma, la entropía
sería: H = log232 = 5. Esto significa que se necesitan 5 bits para codificar cada carácter o
mensaje: 00000, 00001, 00010, 11111. Una transmisión y almacenamiento eficiente de la
información exige la reducción del número de bits utilizados en su codificación. Esto es
posible cuando se codifican textos en español, porque la colocación de las letras no es
aleatoria. Así, por ejemplo, la probabilidad de que la letra que suceda a la
secuencia información sea una n es muy alta.
Se puede demostrar que la entropía del español normal escrito es aproximadamente de un
bit por palabra. Esto demuestra que la lengua española (como cualquier otra) tiene una gran
cantidad de redundancia incorporada, que se denomina redundancia natural. Esta
redundancia permite, por ejemplo, a una persona entender mensajes en los cuales faltan
vocales, así como descifrar escritura poco legible. En los sistemas de comunicación
modernos, se añade redundancia artificial a la codificación de mensajes, para reducir
errores en la transmisión de los mismos.

Canales de Comunicación.

Un canal es el medio de transmisión por el que viajan las señales portadoras


de información entre emisor y receptor, Normalmente el canal es el aire en la transmisión
oral y el papel en la escrita. Es frecuente identificarlo también como canal de datos.

Al igual que todos los tipos de comunicación, mantener un diálogo con otro
sistema necesita un medio físico para transmitir los datos. En el caso de la Arquitectura de
Redes, a ese medio se le denomina canal.

La X representa el espacio entre las señales que puede ser transmitida y la Y el espacio de
señales recibidas, durante un bloque de tiempo sobre el canal.

Tipos de canales.

A continuación veremos los diferentes canales que existen:

 Canal ideal: debería tener una entrada y una salida. Sin embargo, nunca está
aislado totalmente del exterior y siempre se acaban introduciendo señales no
deseadas que alteran en mayor o menor medida los datos que queremos enviar a
través de él. Por lo tanto, esa única entrada puede producir varias salidas, y distintas
entradas pueden terminar en la misma salida.
 Canal discreto sin memoria: con entrada y salida discreta. Ofrecen una salida que
depende exclusivamente del símbolo de entrada actual, independientemente de sus
valores anteriores. Es un modelo estadístico, con una entrada X, y una salida Y.
durante cada unidad de tiempo, o intervalos de señalización, el canal acepta un
símbolo de entrada de X, y en respuesta genera un símbolo de salida de Y. el canal
es discreto, cuando los alfabetos X, Y, son finitos.

La figura muestra un canal DMC, con 2 entradas y 2 salidas

La entrada X, consiste de los símbolos de entrada X1, X2. Sus probabilidades a


priori se conocen: P(𝑋𝑖 ). La salida Y, consiste de los símbolos Y1, Y2. Cada posible
trayectoria de entrada-salida, se expresa con una probabilidad condicional P (yi/xj), donde
P (xi/yj) P (y1/x1), es la probabilidad condicional de obtener la salida yj, dada la entrada
xi, y es la llamada probabilidad de transición del canal.

 Canal binario simétrico: canal binario que puede transmitir uno de dos símbolos
posibles (0 y 1). La transmisión no es perfecta, y ocasionalmente el receptor recibe
el bit equivocado.

Esquema de un canal simétrico binario


Capacidad de Canal.

La capacidad de canal es la cantidad de información que puede ser relativamente


transmitida sobre canales de comunicación. En Teoría de la Información, la capacidad de
un canal de comunicación es la cantidad máxima de información que puede transportar
dicho canal de forma fiable, es decir, con una probabilidad de error tan pequeña como se
quiera. Normalmente se expresa en bits/s (bps).

Relación entre ancho de banda, capacidad de canal y la relación señal - a – ruido

La capacidad del canal se mide en bits por segundo (bps) y depende de su ancho de
banda y de la relación S/N (Relación señal/ruido). La capacidad del canal limita la cantidad
de información (se denomina régimen binario y se mide en bits por segundo, bps) que
puede trasmitir la señal que se envía a través de él.

La capacidad máxima de un canal viene dada por la fórmula:

𝑆
𝑐 = 𝐵 log 2 (1 + 𝑅) 𝑏𝑝𝑠

El régimen binario de una señal que se propaga por un canal no puede ser mayor
que la capacidad del canal y depende del número de niveles o estados que se usan para
codificar la información.

Régimen binario de la señal = 𝑛𝑉𝑡(𝑏𝑎𝑢𝑑𝑖𝑜𝑠) = 2𝐵𝑛 = 2𝐵 log 2 𝑚 = 𝐶(𝑏𝑝𝑠)

Donde:

 n es el número de bits por cada elemento de la señal.


 m es el conjunto de elementos diferentes que puede adoptar la señal.
 C es la capacidad del canal según el teorema de Nyquist.

La capacidad del canal depende de la naturaleza del soporta, es decir, de los


portadores canales de gran ancho de banda, como la fibra óptica, su capacidad siempre
tiene un límite. Nyquist demostró la existencia de ese límite cuando se envían señales
digitales por canales analógicos.
La teoría de la información, desarrollada por Claude E. Shannon durante la Segunda
Guerra Mundial, define la noción de la capacidad del canal y provee un modelo matemático
con el que se puede calcular. La cifra que resulta del estado de capacidad del canal, se
define como la máxima de la información mutua entre la entrada y la salida del canal.
Donde el punto máximo se encuentra en la entrada de la distribución.

Modulación por impulsos codificados PCM

La modulación por impulsos codificados (MIC o PCM por sus siglas inglesas de
Pulse Code Modulation) es un procedimiento de modulación utilizado para transformar
una señal analógica en una secuencia de bits (señal digital), este método fue inventado por
Alec Reevesen 1937. Una trama o stream PCM es una representación digital de una señal
analógica en donde la magnitud de la onda analógica es tomada en intervalos uniformes
(muestras), cada muestra puede tomar un conjunto finito de valores, los cuales se
encuentran codificados.

Muestreo y cuantificación de una onda senoidal (roja)en código PCM de 4-bits

En la figura observamos que una onda senoidal está siendo muestreada y


cuantificada en PCM. Se toman las muestras a intervalos de tiempo regulares (mostrados
como segmentos sobre el eje X). De cada muestra existen una serie de posibles
valores(marcas sobre el eje Y). A través del proceso de muestreo la onda se transforma en
código binario (representado por la altura de las barras grises), el cual puede ser fácilmente
manipulado y almacenado.
En la Figura 1 se muestra la disposición de los elementos que componen un sistema
que utiliza la modulación por impulsos codificados. Por razones de simplificación, sólo se
representan los elementos para la transmisión de tres canales.

Figura 1.-Disposición de elementos en un sistema PCM

Modulación por Codificación de Pulsos, muestrea, cuantifica y codifica;La señal


PCM se genera por medio de tres operaciones básicas: La operación de muestreo genera
una señal PAM de cresta plana, señal analógica que puede ser cualquier número infinito de
niveles. Cuantización es usar valores finitos que se aproximen al valor muestreados de la
onda analógica, el valor permitido reemplaza a la muestra, donde existen M valores
permitidos. Codificar es asignar una palabra de código a cada valor permitido.

Códigos Detectores y Correctores de Errores.

En matemáticas, computación y teoría de la información, la detección y corrección


de errores es una importante práctica para el mantenimiento e integridad de los datos a
través de diferentes procedimientos y dispositivos como medios de almacenamiento
confiables. Se considera como precursor de este tipo de tecnologías el Acme Comodity and
Phrase Code usado en los telegramas. Los códigos detectores y correctores de error se
refieren a los errores de transmisión en las líneas. Se deben a diversos factores, como
el ruido térmico, ruido impulsivo y ruido de intermodulación. Dependiendo del medio de
transmisión y del tipo de codificación empleado, se pueden presentar otros tipos de
anomalías como ruido de redondeo y atenuación, así como cruce de líneas y eco durante la
transmisión.

La comunicación entre varias computadoras produce continuamente un movimiento


de datos, generalmente por canales no diseñados para este propósito (línea telefónica), y
que introducen un ruido externo que produce errores en la transmisión.

Por lo tanto, debemos asegurarnos que si dicho movimiento causa errores, éstos
puedan ser detectados. El método para detectar y corregir errores es incluir en los bloques
de datos transmitidos bits adicionales denominados redundancia.

Se han desarrollado dos estrategias básicas para manejar los errores:

 Incluir suficiente información redundante en cada bloque de datos para que se puedan
detectar y corregir los bits erróneos. Se utilizan códigos de corrección de errores.

 Incluir sólo la información redundante necesaria en cada bloque de datos para detectar
los errores. En este caso el número de bits de redundancia es menor. Se utilizan códigos
de detección de errores.

Si consideramos un bloque de datos formado por m bits de datos y r de redundancia, la


longitud final del bloque será n, donde n = m + r.

Tipo de códigos detectores

 Paridad simple (paridad horizontal)

Consiste en añadir un bit de más a la cadena que queremos enviar, y que nos indicará si el
número de unos (bits puestos a 1) es par o es impar. Si es par incluiremos este bit con el
valor = 0, y si no es así, lo incluiremos con valor = 1.
Ejemplo de generación de un bit de paridad simple:

Queremos enviar la cadena “1110100”:


1º Contamos la cantidad de unos que hay: 4 unos
2º El número de unos es par por tanto añadimos un bit con valor = 0
3º La cadena enviada es 11101000

El receptor ahora, repite la operación de contar la cantidad de “unos” que hay (menos el
último bit) y si coincide, es que no ha habido error

 Suma de comprobación

Es un método sencillo pero eficiente sólo con cadenas de palabras de una longitud
pequeña, es por esto que se suele utilizar en cabeceras de tramas importantes u otras
cadenas importantes y en combinación con otros métodos.

Funcionalidad: consiste en agrupar el mensaje a transmitir en cadenas de una longitud


determinada L no muy grande, de por ejemplo 16 bits. Considerando a cada cadena como
un número entero numerado según el sistema de numeración . A continuación se suma el
valor de todas las palabras en las que se divide el mensaje, y se añade el resultado al
mensaje a transmitir, pero cambiado de signo.Con esto, el receptor lo único que tiene que
hacer es sumar todas las cadenas, y si el resultado es 0 no hay errores.

Ejemplo:

Mensaje 101001110101

1º Acordar la longitud de cada cadena: 3

2º Acordar el sistema de numeración:

3º Dividir el mensaje: 101 001 110 101

4º Asociar cada cadena con un entero: 5 1 6 5

5º Sumar todos los valores y añadir el número cambiado de signo: -17


6º Enviar 5 1 6 5 -17 codificado en binario
El receptor:

1º Suma todos los valores; si la suma es 0, procesa el mensaje; si no, se ha


producido un error.

Este método al ser más sencillo es óptimo para ser implementado en software ya
que se puede alcanzar velocidades de cálculo similares a la implementación en hardware.

 Distancia de Hamming basada en comprobación,

Si queremos detectar d bit erróneos en una palabra de n bits, podemos añadir a cada
palabra de n bits d+1 bits predeterminados al final, de forma que quede una palabra de
n+d+1 bits con una distancia mínima de Hamming de d+1. De esta manera, si uno recibe
una palabra de n+d+1 bits que no encaja con ninguna palabra del código (con una distancia
de Hamming x <= d+1 la palabra no pertenece al código) detecta correctamente si es una
palabra errónea. Aún más, d o menos errores nunca se convertirán en una palabra válida
debido a que la distancia de Hamming entre cada palabra válida es de al menos d+1, y tales
errores conducen solamente a las palabras inválidas que se detectan correctamente.

Dado un conjunto de m*n bits, podemos detectar x <= d bits errores correctamente
usando el mismo método en todas las palabras de n bits. De hecho, podemos detectar un
máximo de m*d errores si todas las palabras de n bits son transmitidas con un máximo de d
errores.

Ejemplo
Palabras a enviar:

1. 000001
2. 000001
3. 000010
Codificadas con distancia mínima de Hamming = 2
000001 0000
000001 0011
000010 1100
Si las palabras recibidas tienen una distancia de Hamming < 2, son palabras incorrectas.

Hipercubo binario de dimensión cuatro.

Corrección de errores

Códigos de corrección de errores Reed-Solomon.

 Propiedades de los códigos Reed-Solomon.

Un código Reed-Solomon se especifica como RS(n,k) con símbolos de s bits. Lo


anterior significa que el codificador toma k símbolos de los s bit y añade símbolos de
paridad para hacer una palabra de código de n símbolos. Existen n-k símbolos de paridad de
s bits cada uno. Un decodificador puede corregir hasta t símbolos que contienen errores en
una palabra de código, donde 2t=n-k.

El siguiente diagrama muestra una típica palabra de código Reed-Solomon (este se


conoce como un código sistemático puesto que los datos se dejan inalterados y los símbolos
de paridad se anexan):

Ejemplo: Un código popular Reed-Solomon es RS (255,223) con símbolos de 8 bits. Cada


palabra de código contiene 255 bytes de palabra de código, de los cuales 223 bytes son
datos y 32 bytes son paridad. Para este código se tiene:

 N=255, k=223, s=8


 2t=32, t=16

El decodificador puede corregir cualquier error de 16 símbolos en la palabra de código,


es decir, errores de hasta 16 bytes en cualquier lugar de la palabra pueden ser
automáticamente corregidos.
Dado un tamaño de símbolo s, la máxima longitud de la palabra de código (n) para un
código Reed-Solomon es n=. Por ejemplo, la máxima longitud de un código con símbolos
de 8 bits (s=8) es de 255 bytes. Los códigos Reed-Solomon pueden ser acortados haciendo
un número de símbolos de datos igual a cero en el codificador, no transmitiendo estos, y
reinsertando éstos en el decodificador.

 Errores de Símbolo.

Un error de símbolo ocurre cuando al menos un bit de un símbolo es erróneo.

Ejemplo:

RS (255,223) pude corregir 16 errores de símbolos. En el peor caso, errores de 16


bits pueden ocurrir, cada uno en un símbolo distinto (byte) de forma que el decodificador
corrige errores de 16 bits. En el mejor caso, 16 errores de byte completos ocurren de tal
forma que el decodificador corrige 16x8 errores de bit.

Los códigos Reed-Solomon son particularmente útiles para corregir burst error
(cuando una serie de bits en el código de palabra se reciben con error).

 Decodificación.

Los procedimientos algebraicos de decodificación de Reed-Solomon pueden corregir


errores y datos perdidos. Un "borrado" ocurre cuando la posición de un símbolo errado es
conocido. Un decodificador puede corregir hasta t errores o hasta 2t "borrados".
Información sobre los "borrados" puede ser frecuentemente otorgada por el demodulador
en un sistema de comunicación digital, es decir, el demodulador "marca" los símbolos
recibidos que con probabilidad contienen errores.

Cuando una palabra de código es decodificada, existen tres posibilidades:


1. Si 2𝑠 + 𝑟 < 2𝑡(s errores, r "borrados") entonces la palabra de código original
transmitida puede ser siempre recuperada.
2. El decodificador detectará que no puede recuperar la palabra de código original e
indicará este hecho.
3. El decodificador decodificará erróneamente y recuperará una palabra de código
incorrecta sin indicación.

La probabilidad de ocurrencia de cada una de las tres posibilidades anteriores depende del
código Reed-Solomon en particular y en el número y la distribución de errores.

Ganancia de Codificación

La ventaja de utilizar códigos Reed-Solomon es que la probabilidad de que quede


un error en los datos decodificados es, usualmente, mucho menor que la probabilidad de
ocurrencia de un error si Reed-Solomon no es utilizado. Esto se conoce usualmente como
ganancia de codificación.

Ejemplo: Un sistema digital de comunicaciones se diseña para operar a un BER de


10e-9, es decir, no más de uno en 10e9 bits (1000 millones de bits) se recibe con error. Esto
puede ser obtenido aumentando la potencia del transmisor o añadiendo códigos correctores
de errores. Reed-Solomon permite al sistema obtener este BER con una potencia de salida
menor del transmisor. El "ahorro" de potencia dado por el código Reed-Solomon (en
decibeles) es la ganancia de código.

Ejemplos de aplicación de la teoría de la información.

 Una de las aplicaciones de la teoría de la información son los archivos ZIP,


documentos que se comprimen para su transmisión a través de correo electrónico o
como parte de los procedimientos de almacenamiento de datos. La compresión de
los datos hace posible completar la transmisión en menos tiempo. En el extremo
receptor, un software se utiliza para la liberación o descompresión del archivo,
restaurando los documentos contenidos en el archivo ZIP a su formato original.
 La teoría de la información también entra en uso con otros tipos de archivos; por
ejemplo, los archivos de audio y video que se reproducen en un reproductor de MP3
se comprimen para una fácil descarga y almacenamiento en el dispositivo. Cuando
se accede a los archivos se amplían para que estén inmediatamente disponibles para
su uso.

 Un ejemplo de esto es el de la seguridad informática y el desarrollo de


la criptografía cuántica. Esta disciplina se basa en el hecho de que no es posible
observar a un sistema cuántico sin perturbarlo, para desarrollar protocolos de
generación de llaves secretas extremadamente seguros (Nielsen y Chuang 2010). En
Criptografía Shannon describió la equivocación de la llave H (K | C) el cual mide la
incertidumbre promedio de una llave K cuando un criptograma C ha sido
interceptado.

 En general la Teoría de la Información pueden ser usadas para detectar patrones


estadísticos en muchos tipos de secuencias, imágenes u otras formas de
información.

 En la mayoría de los problemas en ingeniería es importante saber la distribución


entre múltiples variables aleatorias. Esto puede ser para por ejemplo saber el
comportamiento de un sistema con inputs (X) y outputs (Y). Para estudiar esto se
formaliza la idea de una distribución discreta multivariable.

 Probabilidad condicional; Muchas veces es importante saber la probabilidad de un


evento (A) basado en información previa sobre otro evento o variable, este otro
evento o variable determina el espacio de muestreo (S) que se está usando y por
ende el valor de la probabilidad de A dado S se escribe: P(A | S},Las probabilidades
nos dan una manera de determinar cuantitativamente las características que
queremos estudiar en los sistemas (ej. la distribución de la información de un
origen, la confiabilidad de un canal, la relación entre el origen y el destino de la
información entre otras).
Conclusiones

 Claude Shannon demostró que la información puede ser transmitida con fiabilidad
hasta el ritmo permitido por la capacidad del canal C. Esta fiabilidad era
independiente del ritmo de la transmisión siempre que fuera menor que C.

 El teorema de codificación de canales de Shannon prometió la existencia de códigos


que permitirían la transmisión de información a velocidades más rápidas. Algunos
códigos que usaron estas ideas son los códigos de Hamming y Reed-Solomon.

 la teoría de la información es una serie de las leyes para relacionar determinado


orden de fenómenos relacionados con la comunicación de la información entre su
origen y su destino a través de un canal.

 la teoría de la información ha alcanzado ya una mayoría de edad que hace que


ciertas de sus ramas intervengan como herramientas valiosas en otras ramas de la
matemática pura y aplicada como por ejemplo la teoría de retículos, geometrías
finitas, formas modulares, geometría algebraica.

 La detección y corrección de errores es una importante práctica para el


mantenimiento e integridad de los datos a través de diferentes procedimientos y
dispositivos como medios de almacenamiento confiables.

 La ventaja de utilizar códigos Reed-Solomon es que la probabilidad de que quede


un error en los datos decodificados es, usualmente, mucho menor que la
probabilidad de ocurrencia de un error si Reed-Solomon no es utilizado.

 El método para detectar y corregir errores es incluir en los bloques de datos


transmitidos bits adicionales denominados redundancia.
Bibliografías.

 Reza, F., An Introduction to Information Theory, Dover Publications, 1994

 L. Brillouin, Science and Information Theory, Academic.

 H.G. Harris, Introduction to Modern Theoretical Physics, vol. 2; y libro de Gopal.

 B. P; Lathi (1976). Introducción a la Teoría y Sistemas de Comunicación (1 Era


ed.). Limusa.

 Tomasi (2003). Sistemas de Comunicaciones Electrónicas (Cuarta


Edición).Pearson.

 Simon, H. (1994). Communication Systems (3ra Ed). Wiley & Sons, New York.

 Cover, T., Elements of Information Theory, Wiley, 1991

 en.wikipedia.org

Вам также может понравиться