Академический Документы
Профессиональный Документы
Культура Документы
• Tipo de Fuentes
Existen varios tipos de fuentes. Para la teoría de la información interesan las fuentes
aleatorias y estructuradas.
Una fuente es aleatoria cuando no es posible predecir cual es el próximo mensaje a emitir
por la misma.
Una fuente es estructurada cuando posee un cierto nivel de redundancia, una fuente no
estructurada o de información pura es aquella en que todos los mensajes son
absolutamente aleatorios sin relación alguna ni sentido aparente.
Elementos de la Teoría
• Mensaje
Un mensaje es un conjunto de ceros y unos. Un archivo, un paquete de datos que viaja por una
red y cualquier cosa que tenga una representación binaria puede considerarse un mensaje.
El concepto de mensaje se aplica también a alfabetos de más de dos símbolos, pero debido a que
tratamos con información digital nos referiremos casi siempre a mensajes binarios.
• Código
Un código es un conjunto de unos y ceros que se usan para representar a un cierto mensaje de
acuerdo a reglas o convenciones preestablecidas.
Por ejemplo al mensaje 0010 lo podemos representar con el código 1101 usando para codificar la
función (NOT). La forma en la cual codificamos es arbitraria. Un mensaje puede, en algunos casos
representarse con un código de menor longitud que el mensaje original.
Supongamos que a cualquier mensaje S lo codificamos usando un cierto algoritmo de forma tal
que cada S es codificado en L(S) bits, definimos entonces a la información contenida en el mensaje
S como la cantidad mínima de bits necesarios para codificar un mensaje.
Elementos de la Teoría
Información
• La información contenida en un mensaje es proporcional a la cantidad de
bits que se requieren como mínimo para representar al mensaje.
• El concepto de información puede entenderse más fácilmente si
consideramos un ejemplo. Supongamos que estamos leyendo un mensaje y
hemos leído "string of ch", la probabilidad de que el mensaje continúe con
"aracters" es muy alta por lo tanto cuando realmente leemos "aracters" del
archivo la cantidad de información que recibimos es muy baja pues
estabamos en condiciones de predecir que era lo que iba a ocurrir.
• La ocurrencia de mensajes de alta probabilidad de aparición aporta menos
información que la ocurrencia de mensajes menos probables. Si luego de
"string of ch" leemos "imichurri" la cantidad de información que recibimos
es mucho mayor.
Entropía
Equiprobables???
Si la moneda está trucada, 0,60 cara y 0,4 sello….
H?
Si p = 0,60 moneda trucada al aire H(X) = − 0,6 log 2 0,6 − 0,4 log 2 0,4 =
0,97
Una urna con 9 bolas negras y 1 bola blanca. Se
efectúan extracciones sin reemplazamiento
….H(x)?