Академический Документы
Профессиональный Документы
Культура Документы
TABLA DE CONTENIDO
PG.
1.
2.
3.
4.
5.
6.
INTRODUCCIN
PROCESOS ESTOCSTICOS
PROCESOS DE MARKOV
CADENAS DE MARKOV
CONCLUSIONES
REFERENCIAS
8
9
1. INTRODUCCIN
2. FUENTES DE INFORMACIN
2.1. DEFINICIN:
Fuente de informacin:
Una fuente de informacin es un objeto que a su salida produce un evento, en la
comunicacin es el elemento que origina mensajes, una fuente de informacin
discreta es aquella que produce mensajes con un nmero finito y fijo de smbolos.
Las fuentes de informacin, a dems de dividirse en discretas y continuas tambin
se seccionan en fuentes con memoria y fuentes sin memoria. Las sin memoria,
tambin llamadas de memoria nula son fuentes en las que la probabilidad de
ocurrencia de un smbolo no depende del smbolo precedente, en las fuentes con
memoria, la probabilidad de ocurrencia de un smbolo est ligada con el o los
smbolos anteriores.
2.2. FUENTE DISCRETA DE INFORMACIN CON MEMORIA NULA.
Shannon consider una fuente discreta sin memoria a una fuente en la que los
smbolos son producidos de acuerdo con una distribucin de probabilidad, es decir
que no son necesariamente equiprobables, segn Shannon, cada smbolo tiene una
probabilidad propia de ocurrencia y la sumatoria de la probabilidad de ocurrencia de
todos los smbolos es igual a 1. Puede considerarse una fuente de tipo discreto con
memoria nula, como sigue:
)
( )
CONTINUIDAD
I(xi) deber estar denida y ser continua para todo valor de P(xi), xi. Dado
que la probabilidad de cada smbolo vara en forma continua dentro del [0,1],
se pretende que la I(xi) lo haga del mismo modo.
NO NEGATIVIDAD
I(xi) deber ser positiva o nula. No tiene sentido pensar en valores de I(xi)
negativos. Toda emisin de un nuevo smbolo aporta al entorno un
conocimiento que, como mnimo, podr ser nulo. En el otro extremo no se
reconoce lmite, es decir se acepta que I(xi) puede alcanzar valores
arbitrariamente grandes xi.
RELACION INVERSA
I(xi) deber crecer a medida que decrece la probabilidad del smbolo
correspondiente y viceversa.
ADITIVIDAD
I(xi) deber ser tal que la I(xi) correspondiente a dos smbolos
estadsticamente independientes se sume. Tomando en cuenta que la
probabilidad conjunta de dos smbolos estadsticamente independientes, es
decir la probabilidad de que dos smbolos, no necesariamente distintos, sean
emitidos (ambos) por la fuente, desde luego en distintos espacios de tiempo,
es igual al producto de las probabilidades individuales: P(xi, xj) = P(xi) P(xj),
se pretende que la I(xi) aportada por los dos smbolos se pueda sumar, es
decir: I(xi, xj) = I(xi) + I(xj)
.
La probabilidad de que aparezca es precisamente P(xi), de modo que la cantidad
media de informacin por smbolo de la fuente, es:
( ) ( )
En donde S indica la suma extendida a los n smbolos de la fuente S. sa
magnitud, cantidad media de informacin por smbolo de la fuente recibe el nombre
de entropa de la fuente de memoria nula, y se representa por H(S).
( )
( )
)
( )
En donde
( )
( )
( )
) (
). Calculando la entropa:
( )
( )
) (
) (
) (
) (
Puesto que
( )
, la probabilidad de que el mensaje i, posicin j, haya uno
de los n smbolos del alfabeto es la unidad.
Entonces:
(
( )
( )
( )
( )
Pero
( )
(
)
)
(
(
) (
) (
) (
)
(
(
)
(
(
)
( )
Ya que las diferentes sumatorias valen 1, segn se haba visto arriba, y como hay m
trminos semejantes, j=1 a m.
(
( )
CONCLUSIONES.
7
4. REFERENCIAS
8