Академический Документы
Профессиональный Документы
Культура Документы
Communication
Cese
na Smith Gustavo
Docente: Dr. Jaime Sanchez
Introducci
on
El problema fundamental de la comunicacion es reproducir un mensaje
en un punto exactamente igual o muy similar en otro punto. Frecuentemente el mensaje tienen significado; es decir, que se refieren a un sistema
con ciertas entidades fsicas o conceptuales. Estos aspectos semanticos de
las comunicaciones son irrelevantes a los problemas de ingeniera. El aspecto significante es que el mensaje actual es seleccionado de un conjunto
de posibles mensajes.
Si el n
umero de mensajes en un conjunto es finito, entonces ese n
umero o
cualquier funci
on mono-t
onica de este n
umero puede ser considerado como
una medici
on de la informacion producida cuando un mensaje es elegido de
un conjunto. Como fue mencionado por Hartley, la eleccion mas natural es la
funci
on logartmica. A pesar que esta definicion debe ser considerablemente
generalizada cuando consideramos la unfluencia de la estadistica del mensaje
y cuando tenemos un rango continuo de mensajes, usaremos en todos los
casos una medici
on logartmica.
La medici
on logartmica es mas conveniente por varias razones:
1. Es pr
acticamente m
as u
til. Parametros de gran importancia para la ingeniera como tiempo, ancho de banda, n
umero de relays, etc. tienden
a variar linealmente con el logaritmo de un n
umero de posibilidades.
2. Es m
as cercano a nuestro sentimiento intuitivo como la propia medicion.
Esto est
a relacionado al punto anterior desde que se mide intuitivamente entidades por comparacion lineal como estandares comunes.
3. Es matem
aticamente mas ajustable. Muchas de las operaciones son
simples en terminos del logaritmo, pero requerira otra expresion en
terminos del n
umero de posibilidades.
Part I
logN (T )
T
donde N(T) es el n
umero permitido de se
nales con duracion T.
Suponga que todas las secuencias de los smbolos S1 , ..., Sn son permitidas y esos smbolos tiene duracion t1 , ..., tn . Cual es la capacidad del canal?
si N(t) representa el n
umero de secuencias de duracion t tenemos
N (t) = N (t t1 ) + N (t t2 ) + ... + N (t tn ).
El n
umero total es igual a la suma de los n
umeros de la secuencia terminal
en S1 , S2 , ..., Sn y esas son N (tt1 ), N (tt2 ), ..., N (ttn ), respectivamente.
Acordando un resultado en diferencia finita, N (t) es asintotico para largos
valores de t a X0t donde X0 es la mas grande solucion real de la ecuacion
caracterstica:
X t1 + X t2 + ... + X tn = 1
y por lo tanto
C = logX0
.
Un tipo muy general de restriccion la cual puede ser establecida sobre
una secuencia permitida es la siguiente: Imaginemos un n
umero de posibles
3
estados a1 , a2 , ..., am . Para cada estado solo algunos smbolos del conjunto
S1 , ..., Sn pueden ser transmitidos. Cuando uno de esos ha sido transmitido
el estado cambia a uno nuevo, dependiendo ambos de el estado anterior y del
smbolo particular transmitido. El telegrafo es un simple ejemplo de esto.
Hay dos estados dependientes donde si o no un espacio fue el u
ltimo smbolo
transmitido. Si es as, luego un u
nico punto o espacio puede ser enviado y el
estado siempre cambia. Si no, cualquier smbolo pueden ser transmitido y el
estado cambia si el espacio, de otra manera, permanece igual. La condicion
se puede indicar en una gr
afica lineal mostrada en la figura 2.
W bi j ij = 0
La fuente de informaci
on discreta
ser:
DAB EE A BEBE DEEB DEB ADEE ADEE EE DEB BEBE
BEBE BEBE ADEE BED DEED DEED CEED ADEE A DEED
DEED BEBE CABED BEBE BED DAB DEEB ADEB.
Si todas las palabras son de longitud finita este proceso es equivalente a una de tipo anterior, pero la descripcion puede ser mas
simple en terminos de la estructura de la palabra y la probabilidad.
Para dar una idea visual de como estas series se aproximan al lenguaje,
tpicamente secuencias en la aproximacion al Ingles ha estado construido y
est
an dadas abajo. en todos los siguientes casos se asumen 27 smbolos, el
alfabeto, son 26 letras y el espacio.
1. Aproximaci
on por orden cero.
Representaci
on Gr
afica de un Proceso Markoff
Procesos estoc
asticos de tipo descritos arriba son matematicamente conocidos como proceso de Markos discreto y han sido extensamente estudiados en
la literatura. El caso general puede ser descrito como lo siguiente: Existe un
n
umero finito de posibles estados de un sistema; S1 , S2 , ..., Sn . En adicion
hay un conjunto de probabilidades de transicion; pi (j) la probabilidad que
si el sistema est
a en estado Si ira al siguiente estado Sj . Para hacer este
proceso de Markoff dentro de una fuente de informacion se necesita unicamente asumir que una letra es producida por cada transicion de un estado
a otro.
La situaci
on puede ser representada graficamente como se muestra en la
Figura 3.
Los estados son los puntos de union en la grafica y las probabilidades y
letras producidas por una transicion estan dadas junto a su correspondiente
linea.
Como se ha indicado anteriormente, una fuente discreta para nuestro proposito puede ser considerado por un proceso de Markoff. Entre los posibles
procesos de Markoff discretos hay un grupo con propiedades especiales de
importancia para la teora de comunicaciones. Esta clase especial consiste
de el proceso erg
odico y se debe llamar la correspondiente fuente ergodica.
A pesar de que una rigurosa definicion de un proceso ergodico esta envuelto,
la idea general es simple. Es un proceso ergodico cada secuencia producida
por el proceso de la misma propiedad estadstica. As las frecuencias de
las letras, frecuencias de diagramas, etc., se obtienen de secuencias particulares, como las longitudes de las secuencias incrementan, acercarse a los
limites independientes definidos de una particular secuencia. Actualmente
esto no es verdad para todas las secuencias pero el conjunto por el cual es
falso tiene probabilidad cero. Rigurosamente la propiedad ergodica significa
homogeneidad estadstica.
Todos los ejemplos de lenguajes artificiales dados son ergodicos. Esta
propiedad es comentada en la estructura de la correspondiente grafica. Si la
gr
afica tiene las siguientes dos propiedades el proceso correspondiente sera
erg
odico:
1. La gr
afica no consiste en dos partes separadas A y B, tales que es
imposible ir de un punto unido en la parte A a un punto unido en la
parte B a traves de lineas de la grafica en direccion de las flechas y
tambien es imposible de ir desde una union de un punto en la parte
de B haca otro punto de union en la parte A.
2. Una serie cerrada de lineas en la grafica con todas sus flechas en las
8
n
umero de puros componentes. Los componentes corresponden a varios
subgrupos. if L1 , L2 , L3 , ... son fuentes componentes se puede escribir
L = p1 L1 + p2 L2 + p3 L3 + ...
donde pi es la probabilidad de la fuente componente Li .
Fsicamente la situaci
on representa: Hay unas fuentes severamente diferentes L1 , L2 , L3 , ... las cuales son cada estructura estadstica homogenea. No
se sabe a priori cual es utilizada, pero una vez que la secuencia inicia en
una componente pura dada Li , continua indefinidamente acordando a la
estructura estadstica de ese componente.
Excepto cuando el contrario es fijado se asumira que una fuente es
erg
odica. Esta suposici
on permite identificar promedios a lo largo de una
secuencia con promedios sobre un conjunto de posibles secuencias.
Si Pi es la probabilidad de estado i y Pj (j) la probabilidad de transmision
al estado j, entonces para que el proceso sea estacionario esta claro que Pi
debe satisfacer la condici
on de equilibrio:
Pj =
Pi pi (j)
En el caso erg
odico se puede demostrar que con alguna condicion de inicia
la probabilidad Pj (N ) de empezar en un estado j despues de N smbolos, el
valor de equilibrio se aproxima a N
10
1
2
Teorema 2: La u
nica H que satisface las tres suposiciones de arriba es de la
forma:
n
H = K
pi log pi
i=1
Pn
i=1 pi log pi
11
teora de la informaci
on como medicion de la informacion, eleccion e incertidumbre. La cantidad de H tiene un n
umero de propiedades interesantes
las cuales son mediciones razonables de una eleccion o informacion.
1. H=0 si y solo si todos los valores pi pero uno son ceros, este uno tiene
el valor de la unidad
2. Para una n dada, H es un maximo e igual a log n cuando todos los pi
son iguales.
3. Suponga dos eventos, x y y, en cuestion con m posibilidades para
los primeros y n para los segundos. Dejemos p(i, j) ser la probabilidad
de unirse de i para el primero y j para el segundo. La entropa del
evento es
X
H(x, y) =
p(i, j) log p)i, j)
i,j
mientras
H(x) =
p(i, j) log
i,j
H(y) =
p(i, j)
p(i, j) log
i,j
p(i, j)
Es f
acilmente ver que
H(x, y) H(x) + H(y)
con igualidad solamente si los eventos son independientes. La incertidumbre de unir un evento es menor que o igual a la suma de la
incertidumbres individuales.
4. Cualquier cambio hacia la igualacion de la probabilidad p1 , p2 , ..., pn
incrementa H. As si p1 < p2 y nosotros incrementamos p1 , p2 decrece
a una cantidad igual que p1 y p2 son mas parecidos, entonces H incrementa. M
as general, si desarrollamos cualquier operacion de promedio
en pi de la forma
X
pti =
aij pj
j
donde
i aij
12
i,j
Considere una fuente discreta de tipo estado finito considerado arriba. Para
cada posible estado i habr
a un conjunto de probabilidades pi (j) de producir
varios smbolos posibles j. As hay una entropa Hi para cada estado. La
entropa de la fuente ser
a definida como el promedio de ese Hi ponderado
de acuerdo con la probabilidad de ocurrencia del estado en cuestion:
H=
X
i
13
Pi Hi
i,j
log p1
N
muy cercano a
Teorema 4:
lim
log n(q)
=H
N
cuando q no es igual a 0 o 1.
Podemos interpretar log n(q) como el n
umero de bits requeridos para
especificar la secuencia cuando solo se considera la secuencia mas probable
con una probabilidad total q. Luego logNn(q) es el n
umero de bits por smbolo
por la especificaci
on.
Los siguientes dos teoremas muestran que H y H 0 pueden ser determinadas limitando la operacion directamente de la secuencia del mensaje
estadstica, sin referencia del estado y la probabilidad de transmision entre
estados.
14
1 X
p(Bi ) log p(Bi )
N i
i,j
N
1 X
FN 1
=
N n=1
FN G N
y el limN FN = H.
Aqu se mostr
o que una serie de aproximacion de H puede ser obtenido
considerando solamente la estructura estadstica de las secuencias extendidas
sobre 1, 2, ..., N smbolos.
Representaci
on de las Operaciones de Codificaci
on y Decodificaci
on
A
un tenemos que representar matematicamente las operaciones desarrolladas por el transmisor y el receptor en codificar y decodificar la informacion.
A esta operaci
on la llamaremos transductor discreto. El transductor puede
tener una memoria interna en la que su salida depende no solamente de
la presencia de la entrada, tambien del valor anterior. Asumiremos que la
memoria interna es finita, existe un n
umero finito de m posibles estados de
15
pij =
(s)
Bj lij
W
Bi
(s)
(s)
Bj W lij
s,j
Part II
Representaci
on de un Canal de Ruido Discreto
11
Equivocaci
on y la Capacidad del Canal
que es perdida en la se
nal recibida, o alternativamente la incertidumbre
cuando hemos recibido una se
nal de que hemos enviado.
El siguiente teorema nos da una interpretacion de la equivocacion y
tambien sirve para justificar como la unica medicion apropiada. Consideremos un sistema de comunicaciones y un observador quien puede ver ambos
lados, el que enva y el que recibe. Este observador se da cuenta de los
errores en el mensaje recuperado y los datos transmitido hacie el punto de
recepci
on sobre un canal de correccion el cual permita al receptor corregir
error. Esta situaci
on se expresa en la Figura 6.
12
18
no debera de ser una capacidad bien definida, pero solamente una capacidad
por una frecuencia dada de errores, o una equivocacion dada, la capacidad
disminuye como el requerimiento de error es hecho mas riguroso. Actualmente la capacidad C definida arriba tiene un significado muy definido. Es
posible enviar informaci
on a una tasa C a traves del canal con una frecuencia
de error peque
na o equivalente a la deseada por el propio codificador. Este
tratado no es real para cualquier valor mayor a C. Si un intento es hecho
para transmitir a una tasa mayor que C, digamos C + R1 , entonces sera
necesariamente una equivocacion igual o mas grandeque el exceso R1 . La
naturaleza toma pago por el requerimiento solo que mas incierto, entonces
no estamos teniendo nada mas que C atraves de la correccion.
Teorema 11: Dejemos que un canal discreto tenga la capacidad C y
una fuente discreta la entropa por seugndo H. Si H C existe un sistema
de codificaci
on tal que la salida de la fuente puede ser transmitida sobre el
canal con una frecuencia peque
na arbitraria de errores.
13
Discusi
on
La demostraci
on del Teorema 11, mientra no es una prueba pura existente,
tiene alguno de las deficiencias de cada prueba. Un intento de obtener
una buena aproximaci
on al codigo idea siguiendo el metodo de prueba es
generalmente impr
actico.
Una aproximaci
on a esta idea podra tener la propiedad que si la se
nal
es alterada en un camino razonable por le ruido, la original puede ser recuperada. En otras palabras la alteracion no traera de manera cerrada a
otra razonable se
nal que la original. Eso esta acompa
nado en el costo de
cierta cantidad de redundancia en el codigo. La redundancia puede ser introducida con el proposito de combatir la estructura del ruido particular
envuelto. En particular, si la fuente tiene una cierta redundancia y no se
ha hecho un intento por eliminarlo en la union del canal, esta redundancia
ayudar
a a combatir el ruido. El contenido del teorema 11 y su prueba puede
ser formulada en un camino diferente el cual expone la conexion con el caso
sin ruido m
as claro. Considere la posible se
nal de duracion T y suponga
un subconjunto seleccionado para ser usado. Deje en ese subconjunto que
todos ser
an usados con una probabilidad igual, y suponga que el receptor es
construido para seleccionar, como la se
nal original, el caso mas probable de
un conjunto, cuando una se
nal perturbada es recibida.
Teorema 12: limT log NT(T,q) = C, donde C es la capacidad del canal,
q es diferente de 0 o 1.
19
Part III
Preliminares matem
aticos
En esta parte final del documento vamos a considerar el caso donde la se
nal
o el mensaje, o ambos son variables continuas, en contrario con la naturaleza
discreta que se haba asumido. Para considerar el grado de caso continuo
este puede ser obtenido a traves de un proceso limitante de un caso discreto
por la divisi
on de mensajes continuas y se
nales dentro de un largo pero finito
n
umero de peque
nas regiones y calculando los parametros envueltos en la
base discreta. C
omo el tama
no de la region es decreciente, estos parametros
en general se aproximan como limites para el caso continuo. Hay, como sea,
un n
umero de efectos nuevos que aparecen y tambien un cambio general
de enfasis en la direcci
on de especializacion de los resultados generales para
casos particulares.
No intentaremos, en el caso continua, obtener nuestros resultados con
grandes generarlidad, o con el rigor extremo de matematicas puras, ya que
esto implicara un gran n
umero de mediciones abstractas y pudiera obscurecer el principal objetivo del analisis.
14
Conjunto de Funciones
Un conjunto de funciones f (t) es estacionaria si el mismo conjunto resulta cuando todas las funciones son cambiadas y arregladas en el tiempo.
El conjunto
f = sin (t + )
es estacionario si es distribuida uniformemente desde 0 hasta 2. Si sustituimos cada funci
on por t1 obtenemos
f (t + t1 ) = sin (t + t1 + )
f (t + t1 ) = sin (t + )
con distribuida uniformemente desde 0 hasta 2.
Un conjunto es erg
odico si es estacionario, y no hay un subconjunto de
las funciones en el conjunto con una probabilidad diferente de 0 y 1 cuando
es estacionaria. El conjunto
sin (t + )
es erg
odico. No hay subconjunto de esas funcion de probabilidad 6= 0, 1 es
transformado dentro de si mismo bajo las traslaciones en todo momento.
En la otra mano tenemos el conjunto
a sin (t + )
con a distribuida normalmente y uniforme es estacionaria pero no ergodica.
El subconjunto de estas funciones con a entre 0 y 1 por ejemplo, es estacionaria.
15
Si una funci
on del tiempof (t) esta limitada en banda desde 0 hasta W ciclos
por segundo es completamente determinada dada su ordenada en una serie
1
de puntos discretos espaciados 2W
segundos de la manera indicada en el
siguiente resultado.
Teorema 13: Sea f (t) que no contiene frecuencias sobre W. Entonces
f (t) =
Xn
sin (2W t n)
(2W t n)
donde
n
)
2W
En esta expansi
on f (t) esta representado como la suma de las funciones
ortogonales. Los coeficientes Xn de varios terminos puede ser considerados
como coordinados en una dimension infinite espacio funcion. En este
espacio cada funci
on corresponde a un punto y cada punto a una funcion.
Xn = f (
21
16
...
Z Z
y
Hx (y) =
Hy (x) =
p(x, y) log
p(x, y)
dxdy
p(x)
p(x, y) log
p(x, y)
dxdy
p(y)
Z Z
Z Z
donde
p(x) =
p(x, y)dy
Z
p(y) =
p(x, y)dx
17
1
W
Z
W
22
log |Y (f )|2 df
La operaci
on del filtro es esencialmente una transformacion lineal de coordenadas. Si pensamos en diferentes componentes frecuenciales como el
sistema de coordenadas originales, las nuevas componentes frecuenciales son
muy parecidas a las anteriores multiplicadas por un factor. La transformaci
on matricial es entonces esencialmente diagonalizada en terminos de
esas coordenadas.
La potencia final de la entropa es la potencia inicial multiplicada por
la media geometrica del filtro. Si la ganancia es medida en db, entonces la
potencia de salida ser
a incrementada por la media aritmetica.
Part IV
El Canal Continuo
18
19
Una simplificaci
on del Teorema 16 es el caso cuando el ruido es un ruido
blanco termico y la se
nal transmitida esta limitada a cierta potencia promedio P . Entonces se tiene lo siguiente Teorema 17: La capacidad del canal
de banda W perturbada por la potencia de ruido blanco termico N cuando
la potencia promedio transmitida esta limitada por P esta dada por
C = W log
P +N
N
24
P + N1
P +N
C W log
N1
N1
donde
P = P otencia promedio de transmision
N = P otencia promedio del ruido
N1 = P otencia entropia del ruido
Part V
En el caso de una fuente discreta de informacion nosotros pudimos determinar una rasa definida de generacion de informacion, sabiendo la entropa del
proceso estoc
astico. Con una fuente continua la situacion es considerablemente m
as envuelta. En primer lugar una cantidad variable continua puede
asumir un infinito n
umero de valores, por lo tanto, un infinito n
umero de
dgitos binarios. Esto significa que para transmitir la salida de una fuente
continua con una recuperacion exacta en el punto de recepcion requiere, en
general, un canal de capacidad infinita. Desde que el canal tiene cierta cantidad de ruido, y por lo tanto una capacidad finita, la transmision exacta es
posible.
Esto, como sea, evade el problema principal. Practicamente, no estamos
interesado en la transmisi
on exacta cuando tenemos una fuente continua,
pero solamente en la transmision dentro de cierta toletencia. La pregunta
es, podemos asignar definidas tasas cuando quererimos solamente cierta
fidelidad de recuperaci
on?, medida de una manera comoda. Por supuesto,
como el requerimento de la fidelidad esta incrementando la tasa tambien aumentar
a. Esto demuestra que podemos, en un caso muy general, definir cada
tasa, teniendo la propiedad que es posible, por la propiedad codificadora de
la informaci
on, para transmitir sobre el canal en el cual la capacidad es igual
a la tasa en cuesti
on, y satisface los requerimientos de fidelidad.
25
21
Calculando la Tasa
La definici
on de la tasa es similar en muchos aspectos a la definicion de la
capacidad del canal. En la forma
Z Z
R = min
P (x, y) log
Px (y)
con P (x) y v1 =
RR
P (x, y)
dxdy
P (x)P (y)
C = max
P (x)
P (x, y) log
P (x, y)
dxdy
P (x)P (y)
Q
N
Q1
Q
R W1 log
N
N
26