Академический Документы
Профессиональный Документы
Культура Документы
Teorema de Shannon-Hartley
En teoría de la información, el teorema de Shannon-Hartley es una aplicación del teorema de
codificación para canales con ruido. Un caso muy frecuente es el de un canal de
comunicación analógico continuo en el tiempo que presenta un ruido gaussiano.
El teorema establece la capacidad del canal de Shannon, una cota superior que establece la
máxima cantidad de datos digitales que pueden ser transmitidos sin error (esto es, información)
sobre dicho enlace de comunicaciones con un ancho de banda específico y que está sometido a
la presencia de la interferencia del ruido.
En las hipótesis de partida, para la correcta aplicación del teorema, se asume una limitación en
la potencia de la señal y, además, que el proceso del ruido gaussiano es caracterizado por una
potencia conocida o una densidad espectral de potencia.
La Teoría de la Información de Claude E. Shannon, es sin duda uno de los avances científicos más
importantes del siglo XX. El principal objetivo de esta teoría es el de proporcionar una definición
rigurosa de la noción de información que permita cuantificarla. Fue desarrollada con el objetivo
de encontrar límites fundamentales en las operaciones de procesamiento de señales tales como
compresión de datos, almacenamiento y comunicación. Sus aplicaciones se extienden a campos
diversos, entre ellos la física, la química, la biología, la inferencia estadística, la robótica, la
criptografía, la computación, la lingüística, el reconocimiento de patrones y la teoría de la
comunicación
2. Entropía (información)
En el ámbito de la teoría de la información la entropía, también llamada entropía de la
información y entropía de Shannon (en honor a Claude E. Shannon), mide la incertidumbre de
una fuente de información.
3. TASA DE INFORMACION
4. BIT Y BINIT
Bit
Bit es el acrónimo de Binary digit. (dígito binario). Un bit es un dígito del sistema de
numeración binario.
Se puede imaginar un bit, como una bombilla que puede estar en uno de los siguientes dos
estados:
apagada o encendida
BINIT
Un BINIT es un dígito binari pero a diferencia de un Bit (unidad básica de información),
representarla puede llevar más de un bit de información. Todo depende de la probabilidad de
ocurrencia: la información que representa un BINIT está asociada a la probabilidad de que un
símbolo ocurra en un sistema de información.
Hoy por hoy el concepto de binit se ha fusionado con el concepto de bit y hablamos de megabits
por segundo en vez de megabinits por segundo lo cual permite a algunos hacer trampa y
"comprimir la información" como si eso fuera posible. En todo caso comprimes la
representación de la información. Los binits, no los bits. Pero eso ya son otras divagaciones de
las que no vamos a hablar hoy.