Вы находитесь на странице: 1из 4

1.

Teorema de Shannon-Hartley
En teoría de la información, el teorema de Shannon-Hartley es una aplicación del teorema de
codificación para canales con ruido. Un caso muy frecuente es el de un canal de
comunicación analógico continuo en el tiempo que presenta un ruido gaussiano.

El teorema establece la capacidad del canal de Shannon, una cota superior que establece la
máxima cantidad de datos digitales que pueden ser transmitidos sin error (esto es, información)
sobre dicho enlace de comunicaciones con un ancho de banda específico y que está sometido a
la presencia de la interferencia del ruido.

En las hipótesis de partida, para la correcta aplicación del teorema, se asume una limitación en
la potencia de la señal y, además, que el proceso del ruido gaussiano es caracterizado por una
potencia conocida o una densidad espectral de potencia.

La ley debe su nombre a Claude Shannon y Ralph Hartley.

La Teoría de la Información de Claude E. Shannon, es sin duda uno de los avances científicos más
importantes del siglo XX. El principal objetivo de esta teoría es el de proporcionar una definición
rigurosa de la noción de información que permita cuantificarla. Fue desarrollada con el objetivo
de encontrar límites fundamentales en las operaciones de procesamiento de señales tales como
compresión de datos, almacenamiento y comunicación. Sus aplicaciones se extienden a campos
diversos, entre ellos la física, la química, la biología, la inferencia estadística, la robótica, la
criptografía, la computación, la lingüística, el reconocimiento de patrones y la teoría de la
comunicación

Declaración del teorema


Considerando todas las posibles técnicas de codificación de niveles múltiples y polifásicas, el
teorema de Shannon-Hartley indica que la capacidad del canal C es:

2. Entropía (información)
En el ámbito de la teoría de la información la entropía, también llamada entropía de la
información y entropía de Shannon (en honor a Claude E. Shannon), mide la incertidumbre de
una fuente de información.

La entropía también se puede considerar como la cantidad de información promedio que


contienen los símbolos usados. Los símbolos con menor probabilidad son los que aportan mayor
información; por ejemplo, si se considera como sistema de símbolos a las palabras en un texto,
palabras frecuentes como «que», «el», «a» aportan poca información, mientras que palabras
menos frecuentes como «corren», «niño», «perro» aportan más información. Si de un texto
dado borramos un «que», seguramente no afectará a la comprensión y se sobreentenderá, no
siendo así si borramos la palabra «niño» del mismo texto original. Cuando todos los símbolos
son igualmente probables (distribución de probabilidad plana), todos aportan información
relevante y la entropía es máxima.

El concepto entropía es usado en termodinámica, mecánica estadística y teoría de la


información. En todos los casos la entropía se concibe como una «medida del desorden» o la
«peculiaridad de ciertas combinaciones». La entropía puede ser considerada como una medida
de la incertidumbre y de la información necesaria para, en cualquier proceso, poder acotar,
reducir o eliminar la incertidumbre. Resulta que el concepto de información y el de entropía
están básicamente relacionados entre sí, aunque se necesitaron años de desarrollo de
la mecánica estadística y de la teoría de la información antes de que esto fuera percibido.

3. TASA DE INFORMACION

Ancho de banda (informática)


En computación de redes y en biotecnologia, ancho de banda digital, ancho de banda de red o
simplemente ancho de banda es la medida de datos y recursos de comunicación disponible o
consumida expresados en bit/s o múltiplos de él como serían los Kbit/s,Mbit/s y Gigabit/s.

Ancho de banda puede referirse a la capacidad de ancho de banda o ancho de banda


disponible en bit/s, lo cual típicamente significa el rango neto de bits o la máxima salida de una
huella de comunicación lógico o físico en un sistema de comunicación digital. La razón de este
uso es que de acuerdo a la Ley de Hartley, el rango máximo de tranferencia de datos de un
enlace físico de comunicación es proporcional a su ancho de banda (procesamiento de
señal)|ancho de banda en hertz, la cual es a veces llamada "ancho de banda análogo" en la
literatura de la especialidad.

4. BIT Y BINIT
Bit
Bit es el acrónimo de Binary digit. (dígito binario). Un bit es un dígito del sistema de
numeración binario.

Se puede imaginar un bit, como una bombilla que puede estar en uno de los siguientes dos
estados:

apagada o encendida

Es la unidad mínima de información empleada en informática, en cualquier dispositivo digital, o


en la teoría de la información. Con él, podemos representar dos valores cuales quiera, como
verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, masculino o femenino, rojo o
azul, etc. Basta con asignar uno de esos valores al estado de “apagado” (0), y el otro al estado
de “encendido” (1).

BINIT
Un BINIT es un dígito binari pero a diferencia de un Bit (unidad básica de información),
representarla puede llevar más de un bit de información. Todo depende de la probabilidad de
ocurrencia: la información que representa un BINIT está asociada a la probabilidad de que un
símbolo ocurra en un sistema de información.

La teoría de la información establece que la cantidad de información que lleva un símbolo es


inversamente proporcional a la probabilidad de que ocurra.

La idea es que el bit es una unidad de información y no de almacenamiento. La unidad de


almacenamiento es el binit. Es un hueco donde poder guardar un uno o un cero. Si siempre se
guarda un cero o siempre se guarda un uno la información es nula y por tanto ese binit guarda
cero bits de información.

Hoy por hoy el concepto de binit se ha fusionado con el concepto de bit y hablamos de megabits
por segundo en vez de megabinits por segundo lo cual permite a algunos hacer trampa y
"comprimir la información" como si eso fuera posible. En todo caso comprimes la
representación de la información. Los binits, no los bits. Pero eso ya son otras divagaciones de
las que no vamos a hablar hoy.

5. CAPACIDAD DEL CANAL:


Puede definirse al canal ideal de comunicación como aquel que teniendo a la entrada un
conjunto m de símbolos, a su salida reproduce exactamente los mismos símbolos. (En el canal
ideal no se consideran ruido ni distorsión) Definimos como Capacidad de un Canal a la capacidad
de transportar información y se la mide en bits/seg.

Вам также может понравиться