Академический Документы
Профессиональный Документы
Культура Документы
Entropa de la informacin
Entropa es un concepto usado originalmente en termodinmica, mecnica
estadstica y luego en teora de la informacin. Se concibe como una medida del
desorden o una medida de la incertidumbre, aunado a ello, la informacin tiene
que ver con cualquier proceso que permite acotar, reducir o eliminar la
incertidumbre; resulta que el concepto de informacin y el de entropa estn
ampliamente relacionados entre s, aunque se tard aos en el desarrollo de la
mecnica estadstica y la teora de la informacin para hacer esto aparente.
El punto de vista que se explica aqu data como una formulacin que hace la
teora de la informacin. Por ello la entropa se llama frecuentemente entropa de
Shannon, en honor a Claude E. Shannon.
La entropa asociada a la variable aleatoria X es un nmero que depende
directamente de la distribucin de probabilidad de X e indica como es de
predictible el resultado del proceso sujeto a incertidumbre o experimento. Desde
un punto de vista matemtico cuanto ms plana sea la distribucin de probabilidad
ms difcil ser acertar cul de las posibilidades se dar en cada instancia. Una
distribucin es plana (tiene alta entropa) cuando todos los valores de X tienen
probabilidades similares, mientras que es poco plana cuando algunos valores de X
son mucho ms probables que otros.
En una distribucin de probabilidad plana (con alta entropa) es difcil poder
predecir cul es el prximo valor de X que va a presentarse, ya que todos los
valores de X son igualmente probables.
Shannon ofrece una definicin de entropa que satisface las siguientes
afirmaciones:
La medida de informacin debe ser proporcional (continua). Es decir, el cambio
pequeo en una de las probabilidades de aparicin de uno de los elementos de la
seal debe cambiar poco la entropa.
Si todos los elementos de la seal son igualmente probables a la hora de
aparecer, entonces la entropa ser mxima.
La informacin que aporta un determinado valor (smbolo), xi, de una variable
aleatoria discreta X, se define como:
negativo en la ltima expresin, la informacin tiene siempre signo positivo (lo cual
queda ms claro en la primera expresin).
La entropa determina el lmite mximo al que se puede comprimir un mensaje
usando un enfoque smbolo a smbolo sin ninguna prdida de informacin
(demostrado analticamente por Shannon), el lmite de compresin (en bits) es
igual a la entropa multiplicada por el largo del mensaje. Tambin es una medida
de la informacin promedio contenida en cada smbolo del mensaje. Su clculo se
realiza a partir de su distribucin de probabilidad p(x) mediante la siguiente
frmula:
Propiedades de la entropa
0 <= H <= loga (m). Es decir, la entropa H est acotada superiormente (cuando es
mxima) y no supone perdida de informacin.
Dado un procesos con posibles resultados {A1,.., An} con probabilidades relativas
p1,. . ., pn, la funcin H (p1,. . ., pn), es mxima en el caso de que p1 = = pn =
1/n,
Dado un procesos con posibles resultados {A1,.., An} con probabilidades relativas
p1,. . ., pn, la funcin H (p1,. . ., pn), es nula en el caso de que pi = 0 para
cualquier i.
Capacidad de un canal
Se llama capacidad de un canal a la velocidad, expresada en bps (bits por
segundo), a la que se pueden transmitir los datos en un canal o ruta de
comunicacin
Las limitaciones en el ancho de banda surgen de las propiedades fsicas de los
medios de transmisin o por limitaciones que se imponen deliberadamente en el
transmisor para prevenir interferencia con otras fuentes que comparten el mismo
medio.
Cuanto mayor es el ancho de banda mayor el costo del canal.
Lo deseable es conseguir la mayor velocidad posible dado un ancho de banda
limitado, no superando la tasa de errores permitida.
El Mayor inconveniente para conseguir esto es el RUIDO.
Ancho de banda de NYQUIST
(1+251)= 8 Mbps