Академический Документы
Профессиональный Документы
Культура Документы
sistema aislado, la interaccin entre las partculas tiende a aumentar su dispersin, afectando sus posiciones y
sus velocidades, lo que causa que la entropa de la distribucin aumente con el tiempo hasta llegar a un cierto
mximo (cuando el mismo sistema es lo ms homogneo
y desorganizado posible); lo que es denominado segunda
ley de la termodinmica. La diferencia entre la cantidad
de entropa que tiene un sistema y el mximo que puede
llegar a tener se denomina neguentropa, y representa la
cantidad de organizacin interna que tiene el sistema. A
partir de esta ltima se puede denir la energa libre de
Gibbs, que indica la energa que puede liberar el sistema al aumentar la entropa hasta su mximo y puede ser
transformada en trabajo (energa mecnica til) usando
una mquina ideal de Carnot. Cuando un sistema recibe
un ujo de calor, las velocidades de las partculas aumentan, lo que dispersa la distribucin y hace aumentar la entropa. As, el ujo de calor produce un ujo de entropa
en la misma direccin.
La entropa tambin se puede considerar como la cantidad de informacin promedio que contienen los smbolos
usados. Los smbolos con menor probabilidad son los que
aportan mayor informacin; por ejemplo, si se considera como sistema de smbolos a las palabras en un texto,
palabras frecuentes como que, el, a aportan poca
informacin, mientras que palabras menos frecuentes como corren, nio, perro aportan ms informacin.
Si de un texto dado borramos un que, seguramente no
afectar a la comprensin y se sobreentender, no siendo
as si borramos la palabra nio del mismo texto original. Cuando todos los smbolos son igualmente probables
(distribucin de probabilidad plana), todos aportan informacin relevante y la entropa es mxima.
El concepto entropa es usado en termodinmica,
mecnica estadstica y teora de la informacin. En todos
los casos la entropa se concibe como una medida del
desorden o la peculiaridad de ciertas combinaciones.
La entropa puede ser considerada como una medida de
la incertidumbre y de la informacin necesarias para, en
cualquier proceso, poder acotar, reducir o eliminar la incertidumbre. Resulta que el concepto de informacin y el
de entropa estn bsicamente relacionados entre s, aunque se necesitaron aos de desarrollo de la mecnica estadstica y de la teora de la informacin antes de que esto
fuera percibido.
2 Concepto intuitivo
H(X)
0.5
0.5
Pr(X = 1)
Entropa de la informacin en un ensayo de Bernoulli X (experimento aleatorio en que X puede tomar los valores 0 o 1). La
entropa depende de la probabilidad P(X=1) de que X tome el
valor 1. Cuando P(X=1)=0.5, todos los resultados posibles son
igualmente probables, por lo que el resultado es poco predecible
y la entropa es mxima.
3 DEFINICIN FORMAL
cin tiene mucho que ver con la incertidumbre que existe Si ahora cada uno de los k estados tiene una probabilidad
en cualquier experimento o seal aleatoria. Es tambin la pi , entonces la entropa vendr dada por la suma pondecantidad de ruido o desorden que contiene o libera rada de la cantidad de informacin:[1]
un sistema. De esta forma, podremos hablar de la cantidad de informacin que lleva una seal.
H = p1 log2 (p1 ) p2 log2 (p2 ) ....
k
Como ejemplo, consideremos algn texto escrito en
pk log2 (pk ) = i=1 pi log2 (pi )
espaol, codicado como una cadena de letras, espacios
y signos de puntuacin (nuestra seal ser una cadena de
Por lo tanto, la entropa de un mensaje X , denotado por
caracteres). Ya que, estadsticamente, algunos caracteres
H(X) , es el valor medio ponderado de la cantidad de
no son muy comunes (por ejemplo, w), mientras otros
informacin de los diversos estados del mensaje:
s lo son (como la a), la cadena de caracteres no ser tan aleatoria como podra llegar a ser. Obviamente,
Ejemplos
Denicin formal
5.1
Ejemplo
Propiedades
Codicador ptimo
3
Podemos construir un codicador ptimo basndonos en
la entropa de una variable aleatoria de informacin X.
En efecto, la entropa nos da el nmero medio de bits (si
usamos logaritmos de base 2) necesarios para codicar el
mensaje a travs de un codicador ptimo y por tanto
nos determina el lmite mximo al que se puede comprimir un mensaje usando un enfoque smbolo a smbolo
sin ninguna prdida de informacin (demostrado analticamente por Shannon), el lmite de compresin (en bits)
es igual a la entropa multiplicada por el largo del mensaje. Reescribiendo la ecuacin de clculo de la entropa
llegamos a que:
H(X) =
1
p(xi )
= log2 p(xi )
Esta expresin representa el nmero necesario de bits para codicar el mensaje x en el codicador ptimo y por
tanto la entropa tambin se puede considerar como una
medida de la informacin promedio contenida en cada
smbolo del mensaje.
5.1 Ejemplo
p(xi )[log
Entropa condicional
Supongamos que en vez de tener una nica variable aleatoria X, existe otra variable Y dependientes entre s, es
decir el conocimiento de una (por ejemplo, Y) entrega informacin sobre la otra (por ejemplo, X). Desde el punto
de vista de la entropa de la informacin podemos decir
que la informacin de Y disminuir la incertidumbre de
X. Por tanto, podemos decir que la entropa de X ser
condicional a Y, y por tanto:
H(X, Y ) =
x,y
HC (M ) =
)
H(X|Y
p(y)
x p(x|y) log2 p(x|y)
y
P (E, M ) logPE (M ) =
E,M
P (E)
6.2 Ejemplo
6.1
Aplicacin en criptoanlisis
son x1 , x2 , x3 , x4
Un mensaje M1 es sometido a un proceso de cifrado
usando la clave K1 obteniendo E(K1 ,M1 )=C1 .
H(X/Y ) = 1, 5
En este caso el conocimiento de la dependencia de X res Podemos calcular la entropa del conocimiento de la pecto Y reduce la entropa de X de 2 a 1,5.
clave una vez conocido el texto cifrado, y por tanto
medir la equivocacin del mensaje (en ingls, message equivocation), HC (K) , tambin denotada por
7 Entropa de un proceso estocstiH(K|C) , mediante la frmula:
co
HC (K) =
E,K
P (E)
PE (M ) logPE
5
probabilidad de cierto conjunto de valores se suele adoptar el siguiente convenio:
9 Vase tambin
Entropa cruzada
sAn
7.1
Referencias
[1] Cuevas Agustn, Gonzalo, Teora de la informacin, codicacin y lenguajes, Ed. SEPA (Sociedad para Estudios Pedaggicos Argentinos), Serie Informtica 1986
[2] Dan C. Marinescu, Gabriela M. Marinescu, Classical and
Quantum Information,Academic Press 2012
[3] Human, D., A method for the Construction of
Minimum-Redundancy Codes, Proc. IRE, Vol 40 1952
[4] Applied cryptology, cryptographic protocols and computer security models, Richard A. DeMillo et al. American
Mathematical Society 1983
[5] Thomas M. Cover, Joy A. Thomas,"Elements of Information Theory, John Wiley & Sons. Second Edition 2006
[6] Thomas M. Cover, Joy A. Thomas,"Elements of Information Theory, John Wiley & Sons. Second Edition 2006
8.1
10 Enlaces externos
Ratio de entropa
H(X) = limn
Capacidad de canal
Bibliografa
gls)
Calculadora de la entropa de Shannon (en ingls)
11
11.1
Entropa (informacin) Fuente: https://es.wikipedia.org/wiki/Entrop%C3%ADa_(informaci%C3%B3n)?oldid=90938411 Colaboradores: Loqu, Robbot, Tano4595, Barcex, Ploncomi, AlfonsoERomero, RobotQuistnix, Chobot, Pabloab, Yrbot, GermanX, Wewe, Jesuja,
Fercufer, Gizmo II, CEM-bot, Javg, M1ss1ontomars2k4, Davius, Thijs!bot, Bryant1410, Clementito, Dogor, CommonsDelinker, TXiKiBoT, Humberto, Idioma-bot, Plux, Yaselc, Stardust, VolkovBot, Jose gueredo, House, Muro Bot, J.M.Domingo, Alicia M. Canto,
Srbanana, Dortegaparrilla, Correogsk, Tirithel, Nicop, Juan Mayordomo, VanBot, UA31, AVBOT, David0811, Ezarate, MelancholieBot,
Saloca, Luckas-bot, Elchureee, Yuri Grille Orce, ArthurBot, MartinDM, GiL87, SuperBraulio13, Almabot, Xqbot, Jkbw, Botarel, RedBot, Humbefa, Jorge c2010, Foundling, HRoestBot, Allforrous, Sergio Andres Segovia, Grillitus, ChuispastonBot, Albertojuanse, Earnaor,
Wiki-luismex, AvicBot, BeatLeoTB, Acratta, Elvisor, RosenJax, Rafag, Addbot, JacobRodrigues y Annimos: 86
11.2
Imgenes
11.3