Вы находитесь на странице: 1из 50

CAPITULO 3

Demodulación y Detección de Banda Base

En el caso de señales de Bandabase siempre se transmite formas de ondas tipo pulsos. Por que es
necesario un demodulador para recobrar la forma de onda del pulso? Pero en el receptor debido a
los filtros del transmisor y la característica del canal se reciben secuencias de señales que no son
precisamente pulsos. Estas señales contaminadas con ruido y con ISI no pueden ser directamente
muestreadas y detectadas. Se debe incorporar un filtro en el receptor que tiene como objetivo
recuperar el pulso transmitido lo mejor posible (con mejor relación SNR y libre de ISI).
Para sistemas lineales, las matemáticas utilizadas no son afectadas por las traslaciones en
frecuencia, entonces se puede enunciar un teorema de equivalencia entre los sistemas banda base y
pasa banda. Lo que posibilita la aplicación de las técnicas que se verán en este capitulo a sistemas
pasa banda (Capítulo 4).

3.1 Señales y Ruido

3.1.1 Degradación de la performance del error en sistemas de comunicación

La tarea del detector es recuperar desde las formas de ondas recibidas una corriente de bits libre de
error (lo mas posible), no obstante el deterioro a la cual la señal estará sujeta. Hay dos causas
primarias para la degradación de la performance del error. Las primera es el efecto del filtrado en el
transmisor, en el canal y en el receptor (discutido en la sección 3.3). Como se describe aquí, una
función de transferencia no ideal causa una interferencia ínter símbolo (ISI).
Otra causa de la degradación de la performance del error es el ruido eléctrico e interferencia
producida por varias fuentes, tales como ruido galáctico y atmosférico, conmutación transitoria,
ruido de ínter modulación además de señales interferentes de otras fuentes. Con precaución, mucho
de los ruidos e interferencias entrantes al receptor pueden ser reducidas en intensidad o incluso
eliminadas. Sin embargo, hay una fuente de ruido que no puede ser eliminado y que es el ruido
causado por movimiento térmico de electrones en algún medio conductor. Este movimiento produce
ruido térmico en amplificadores y circuitos, y corrompe la señal en forma aditiva. Las estadísticas
de ruido térmico tienen buen desarrollo usando mecánica quantum, y son bien conocidas.
La característica primaria del ruido térmico es que su amplitud esta distribuida acorde a una
distribución normal o Gaussiana, y se muestran en la figura 1.7.
En esta figura se puede ver que la mayoría de las amplitudes probables de ruido son las que tienen
pequeños valores positivos o negativos. En teoría el ruido puede ser infinitamente grande, pero
amplitudes de ruido muy grandes son raras.
La característica espectrales primarias del ruido térmico en sistemas de comunicación, es que su
densidad espectral de potencia a ambos lados Gn(f)=No/2 es constante para todas las frecuencias de
interés. En otras palabras el ruido térmico, en la media, tiene mucha potencia por hertz en las
fluctuaciones de las frecuencias altas y bajas (a una frecuencia de aproximadamente 1012 hertz).
Cuando la potencia de ruido es caracterizada por una densidad espectral de potencia constante, nos
referiremos a el cómo ruido blanco. Entonces el ruido térmico esta presente en todos los sistemas de
comunicación y es la fuente de ruido predominante para muchos sistemas, las características del
ruido térmico (Aditivo Blanco y Gaussiano AWGN) son las mas usadas para modelar el ruido en
los procesos de detección y en la designación de receptores. Cuando un canal es designado como un
canal AWGN (sin otro deterioro especifico) nosotros estamos en efecto diciendo que su deterioro
esta limitado a la degradación causada por sus inevitables ruidos térmicos.
3.1.2 Demodulación y detección

Durante el proceso de transmisión en un sistema Bandabase binario se puede estar transmitiendo


una de dos formas de ondas posibles, denotadas como g1(t) y g2(t). Similarmente un sistema binario
pasa banda deberá transmitir una de dos formas de ondas, denotadas s1(t) y s2(t). Entonces el
tratamiento general para la demodulación y detección son los mismos ya sea para banda pasante o
banda base. Nosotros usaremos si(t) como una designación genérica para formas de ondas
transmitidas si el sistema es banda base o banda pasante. Esto permite un tratamiento de
demodulacion/detección en este capítulo similar a las descripciones de banda pasante en el capitulo
4. Entonces para cualquier canal binario, la señal transmitida bajo un intervalo de símbolo (0,T) es
representada por:

 S1 (t ) 0≤t ≤T para el 1 binario


S i (t ) = 
S 2 (t ) 0≤t ≤T para el 0 binario

La señal recibida r(t) degradada por ruido n(t) posiblemente degradada por la respuesta al impulso
del canal hc(t) fue descripta en la ecuación (1.1) y reescrita como:

r (t ) = Si (t )* hc (t ) + n(t ) i = 1, ......, M (3.1)

Donde n(t) se asume como un proceso AWGN con media cero. Para una transmisión binaria sobre
un canal sin distorsión, donde la convolución con hc(t) no produce degradación (entonces para el
caso ideal hc(t) es una función impulso), la representación r(t) puede ser simplificada a:

r (t ) = S i (t ) + n(t ) i = 1,2 0≤t≤T (3.2)

La figura 3.1 muestra las funciones típicas de un demodulador y detección de un receptor digital.
Definiremos como demodulación a recobrar la forma de onda y como detección al proceso de tomar
una decisión sobre una u otra forma de onda. Si el código de corrección de error no esta presente, la
salida del detector consiste en estimar el mensaje símbolo (o bits), m̂i (también llamado decisión
hard). Si el código de corrección de errores es usado, la salida del detector consiste de una
estimación de los símbolos del canal (o bits codificados) û i , el cual se puede hacer con una
decisión hard o soft (ver sección 7.3.2). A la brevedad el termino detección es ocasionalmente
usado para abarcar todos los pasos del procesamiento de la señal en el receptor. El bloque frequency
down-conversion, mostrado en la figura 3.1 realiza la traslación de frecuencia para señales de banda
pasante operando a la misma radio frecuencia (RF). Esta función puede ser configurada de barias
formas. Esta debe estar en el frente del receptor con el demodulador.
En el bloque demodulate y sample de la figura 3.1 esta el receiving filter (esencialmente el
demodulador), el cual recobra la forma de onda preparándola para el paso de detección. El filtrado
en el transmisor y un canal típico causan que la secuencia de pulsos recibidos sufran ISI, por lo
tanto esto no es suficiente para la etapa de muestreo y detección. El objetivo del filtro receptor es
recobrar un pulso de banda base con la mejor relación posible de señal a ruido, libre de ISI. El filtro
receptor optimo para acoplar esto es llamado filtro acoplado o correlador descrito en la sección
3.2.2 y 3.2.3. Un filtro de ecualización opcional sigue al filtro receptor, esto es solamente necesario
para algunos sistemas donde el ISI inducido por el canal puede distorsionar la señal. El filtro
receptor y el filtro ecualizador son mostrado en bloques separados de manera de enfatizar por
separado sus funciones. En muchos casos cuando un ecualizados es usado, un único filtro debe ser
designado para incorporar ambas funciones y de esta forma compensar las distorsiones causadas por
el transmisor y el canal. Esta composición de filtro es a veces referida como un simple filtro
ecualizador o un filtro ecualizador y receptor.
La figura 3.1 resalta dos pasos en el proceso de demodulación/detección. Paso uno: la
transformación de la forma de onda a muestras es realizada del modulador seguido por un
muestreador. Al final de cada duración de símbolo (T), la salida del muestreador (el punto de
predicción) produce una muestra z(T), algunas veces llamadas test estadístico. z(T) tiene un valor
de voltaje directamente proporcional a la energía del símbolo recibido e inversamente proporcional
al ruido. En el paso dos, una decisión (detección) es hecha con respecto al significado digital de la
muestra. Asumiremos que el ruido de entrada es un proceso Gaussiano aleatorio y que el filtro
receptor en el demodulador es lineal. Una operación lineal realizada sobre un proceso aleatorio
Gaussiano deberá producir un segundo proceso aleatorio Gaussiano. Por lo tanto, el ruido a la salida
del filtro es Gaussiano. La salida del paso uno producirá el test estadístico:

z (T ) = ai (T ) + n0 (T ) = señal y ruido en el instante T i = 1,2 (3.3)

Donde ai (T ) es la componente de señal deseada y n0 (T ) es la componente de ruido. Para


simplificar la notación expresaremos la ecuación 3.3 como z = ai + no . La componente de ruido
no es una variable aleatoria Gaussiana con media cero y por lo tanto z(T) es una variable aleatoria
Gaussiana con una media de a1 o a 2 dependiendo se envió un 1 o un 0 binario. Como describimos
en la sección 1.5.5 la función de densidad de probabilidad del ruido aleatorio Gaussiano puede ser
expresada como:

1  1  n 2 
p(n0 ) = exp −  0   (3.4)
σ 0 2π  2  σ 0  

Donde σ 02 es la varianza del ruido. De las ecuaciones 3.3 y 3.4 podemos expresar a las PDF
condicionales como:

1  1  z − a 2 
p ( z S1 ) = exp −  1
  (3.5)
σ 0 2π  2 σ
 0  

1  1  z − a 2 
p (z S 2 ) = exp −  2
  (3.6)
σ0 2π 2 σ
  0  

Estas PDFs condicionales son ilustradas en la figura 3.2. La PDF de la derecha, p (z | s1 ) , llamada
probabilidad de s1 , ilustra la función de densidad de probabilidad de la variable aleatoria z(T), dado
que el símbolo s1 fue transmitido. Similarmente la PDF de la izquierda, p ( z | s 2 ) , llamada
probabilidad de s2, ilustra la función de densidad de probabilidad de la variable aleatoria z(T), dado
que el símbolo s2 fue transmitido. La absisa, z(T), representa el rango máximo de posibles muestras
de salidas del paso uno de la figura 3.1.

Después de haber recibido la forma de onda, la misma se transforma a una muestra, la forma de
onda actual no es muy importante; todos los tipos de forma de onda que son transformados al
mismo valor de z(T) son idénticos para la detección. Luego se mostrara que un filtro receptor
optimo (filtro acoplado) en el paso uno de la figura 3.1 mapea todas las señales de igual energía en
el mismo punto z(T). Por lo tanto, la energía de la señal recibida es un parámetro importante en el
proceso de detección. Esto es por que el análisis de detección de señales en banda base es el mismo
que para señales en banda pasante. Ya que z(T) es una señal de voltaje que es proporcional a la
energía del símbolo recibido, el valor de la magnitud z(T), el proceso de decisión debe estar libre de
error. En el paso dos la detección es realizada por elección de la hipótesis que resulta de un umbral
de decisión:
H1
Z (T ) >
< γ (3.7)
H2
Donde H1 y H2 son las dos posibles hipótesis. La relación de desigualdad indica que la hipótesis H1
se elige si z(T) es mayor que γ , y la hipótesis H2 es elegida si z(T) es menor que γ . Si z(T) es
igual a γ la decisión puede ser uno u otro. El elegir a H1 es equivalente a decidir que la señal
enviada fue s1(t) y entonces un 1 es detectado. Similarmente al elegir H2 equivale a decidir que la
señal enviada fue s2(t) por lo tanto un 0 binario se detecta.

3.1.3 Representación vectorial de la señal y el ruido

A continuación se presenta una representación vectorial de las formas de ondas mas usadas para
señales de banda pasante y banda base. Definiremos un espacio vectorial de N dimensiones como
un espacio caracterizado por un conjunto de N funciones linealmente independientes φ j (t ) , { }
llamadas funciones base. Algunas funciones arbitrarias en el espacio pueden ser generadas con una
combinación lineal de estas funciones base. Las funciones base deben satisfacer:

∫ ψ (t ).ψ (t )dt = K δ
j k j jk para 0 ≤ t ≤ T j,k = 1,.........., N (3.8a)

Donde el operador

1 para j = k
δ jk =  (3.8b)
0 para el resto

es llamado función delta Kronecker y es definido por la ecuación 3.8b. Cuando la constante Kj es
distinta de cero, el espacio de la señal es llamado ortogonal. Cuando las funciones base son
normalizadas de manera que cada Kj = 1, el espacio es llamado ortonormal. El principal
requerimiento para ortogonalidad se define a continuación: cada función ψ j (t ) del conjunto de
funciones básicas debe ser independiente de las otras funciones del conjunto en el proceso de
detección. Desde el punto de vista geométrico, cada ψ j (t ) es mutuamente perpendicular a cada
otro ψ k (t ) para j ≠ k . Un ejemplo similar a un espacio con N=3 es mostrado en la figura 3.3,
donde los ejes mutuamente perpendiculares son designados ψ 1 (t ) , ψ 2 (t ) y ψ 3 (t ) . Si ψ j (t )
corresponde a una componente de forma de onda de valor real de voltaje o corriente, asociada con
una resistencia de 1 Ω, entonces usando las ecuaciones 1.5 y 3.8, la energía normalizada en joule
disipada en la carga en T seg., debido al ψ j , es

T
E j = ∫ ψ 2j dt = K j (3.9)
0
La razón de nuestro enfoque en un espacio de señales ortogonales es que la medida de la distancia
Euclidiana es fundamental para los procesos de detección, son fácilmente formuladas en espacios
semejantes. Sin embargo, si la forma de onda de la señal no forman un conjunto ortogonal
semejante, ellas pueden ser transformadas en combinaciones lineales de formas de onda
ortogonales. Cualquier conjunto finito arbitrario de forma de ondas {s i (t )} (i = 1, ...., M), donde
cada miembro del conjunto es físicamente realizable y de duración T, puede ser expresado como
una combinación lineal de N formas de ondas ortogonales ψ 1 (t ) , ψ 2 (t ) , ........, ψ N (t ) , donde
N≤M, dado que:

s1 (t ) = a11ψ 1 (t ) + a12ψ 2 (t ) + ....... + a1Nψ N (t )


s 2 (t ) = a 21ψ 1 (t ) + a 22ψ 2 (t ) + ....... + a 2 Nψ N (t )
.
.
s M (t ) = a M 1ψ 1 (t ) + a M 2ψ 2 (t ) + ....... + a MNψ N (t )

estas relaciones son expresadas en forma compacta como:


N
S i (t ) = ∑ a ijψ j (t ) (3.10)
j =1
donde:

1 T i = 1,........., M 0 ≤ t ≤ T
S i (t ).ψ j (t )dt
K j ∫o
aij = (3.11)
j = 1,........., N

el coeficiente aij es el valor de la componente ψ j (t ) de la señal s i (t ) . La forma ψ j (t ) no esta { }


especificada; esta es elegida por conveniencia y dependerá de la forma de onda de la señal. El
conjunto de señales, {si (t )}, puede ser visto como un conjunto de vectores,
{si } = {ai1 , ai 2 ,...., aiN }.
Si para el ejemplo de N=3 nosotros podemos plotear el vector sm
correspondiente a la forma de onda:
s m (t ) = a m1ψ 1 (t ) + a m 2ψ 2 (t ) + a m3ψ 3 (t )

como un punto en tres dimensiones de un espacio Euclidiano con coordenadas (a m1 , a m 2 , a m 3 ) ,


como se muestra en la figura 3.3. La orientación entre los vectores de la señal describen la relación
de la señal hacia otra (con respecto a fase o frecuencia), y la amplitud de cada vector en el conjunto
{si } es una medida de la energía de la señal transmitida durante una duración de símbolo. En
general, cuando un conjunto de N funciones ortogonales a sido adoptado, cada señal transmitida
{si (t )}, es completamente determinada por el vector de sus coeficientes:
s i = (a i1 , a i 2 ,......, a iN ) ⋅ ⋅i = 1,......, M (3.12)

debemos emplear la notación de señal vectorial, {s}, o señales de formas de onda, {s (t )}, como
mejor se adapte a la discusión. Un problema de detección típico esta ilustrado en la figura 3.4. Los
vectores sj y sk representan señales prototipo o referencia pertenecientes al conjunto de M formas de
onda, {s i (t )}. El receptor conoce a priori la localización en el espacio de señales de cada vector
prototipo perteneciente al conjunto M-ary. Durante la transmisión de alguna señal, la señal es
perturbada por ruido de manera que el vector resultante que es actualmente recibido es una versión
perturbada de la original (ejemplo sj+n o sk+n) donde n representa un vector de ruido.

Figura 3.4
El ruido es aditivo y tiene distribución Gaussiana; por lo tanto la distribución resultante de posibles
señales recibidas es un cluster de puntos alrededor de sj y sk. El cluster es denso en el centro y se
esparce con el incremento de la distancia del prototipo. La flecha que marca r representa un vector
de señal que puede arribar al receptor durante un intervalo de símbolo. La tarea del receptor es
decidir si r esta mas cercano al prototipo sj o al sk, o de lo contrario se encuentre mas cercano a
alguna otra señal prototipo en el conjunto M-ary. El receptor o detector debe decidir cual de los
prototipos con el espacio de la señal tiene una distancia mas corta al vector recibido r. El análisis de
la demodulación o detección envuelve el concepto de distancia entre una forma de onda recibida y
un conjunto de posibles formas de ondas transmitidas.

3.1.3.1 Energía de las formas de onda

Usando las ecuaciones 1.5, 3.10 y 3.8, la energía Ei normalizada, asociada con la forma de onda si(t)
sobre un intervalo T puede ser expresada en términos de las componentes ortogonales de si(t) de la
siguiente manera:
2
 
Ei = ∫ s (t )dt = ∫ ∑ a ijψ j (t ) dt
T T
2
i (3.13)
0 0
 j 

∑ a ψ (t )∑ a ψ (t )dt
T
=∫ ij j ik k (3.14)
0
j k

= ∑ ∑ aij aik ∫ ψ j (t )ψ k (t )dt


T

0
(3.15)
j k

= ∑∑ aij aik K j δ jk (3.16)


j k
N
= ∑ aij2 K j ⋅ ⋅ ⋅ ⋅ ⋅ i = 1,...., M (3.17)
j =1

La ecuación 3.17 es un caso especial del teorema de Parseval que relaciona la integral de la señal al
cuadrado con la suma de los coeficientes de la serie ortogonales al cuadrado.
Si las funciones ortonormales son usadas (Kj=1), la energía normalizada sobre un periodo de
símbolo T se escribe de la siguiente forma:
N
Ei = ∫ Si2 (t )dr = ∑ aij2
T
(3.18)
0
j =1

Si hay igual energía E en cada forma de onda si(t), podemos escribir la ecuación 3.18 como:

N
E = ∑ a ij2 (3.19)
j =1

3.1.3.2 Transformada de Fourier Generalizada

La transformación descripta por las ecuaciones 3.8, 3.10 y 3.11, son referidas a las transformaciones
generalizadas de Fourier. En el caso de las transformadas ordinarias de Fourier, el conjunto de
{ }
ψ j (t ) comprenden funciones armónicas senos y cosenos. Pero en el caso de las transformadas
generalizadas de Fourier, el conjunto de {ψ (t )}j no contiene alguna forma especifica: debe
solamente satisfacer la ortogonalidad de la ecuación 3.8. Algún conjunto de formas de onda
integrables, además del ruido, se puede representar como una combinación lineal de formas de
ondas ortogonales a través de la transformada generalizada de Fourier. Por consiguiente, en un
espacio ortogonal, justificamos el uso de la distancia Euclediana como un criterio de decisión para
la detección de alguna señal en la presencia del ruido AWGN. La aplicación mas importante de esta
transformación ortogonal tiene que ver con la manera en que las señales son actualmente
transmitidas y recibidas.

Ejemplo 3.1 Representación ortogonal de formas de onda

La figura 3.5 ilustra lo expresado anteriormente de que algún conjunto de formas de


onda arbitrarias e integrables puede ser representada como una combinación lineal de formas de
onda ortogonales. La figura 3.5a muestra un conjunto de tres formas de onda.
(a) Demuestre que estas tres formas de ondas no forman un set ortogonal.
(b) La figura 3.5b muestra un set de dos formas de ondas ψ 1 (t ) y ψ 2 (t ) . Verifique
que estas formas de onda formen un set ortogonal.
(c) Muestre como el set de formas de ondas no ortogonales en la parte (a) puede ser
expresado como una combinación lineal de un set ortogonal en la parte (b).
(d) La figura 3.5c ilustra otro set ortogonal de dos formas de ondas, ψ 1' (t ) y
ψ 2' (t ) . Muestre como el set no ortogonal en la figura 3.5a puede ser expresado
como una combinación lineal del set en la figura 3.5c.

Figura 3.5
Del libro
Solución
(a) s1(t), s2(t) y s3(t) son claramente no ortogonales, entonces ellas reúnen los
requerimientos de la ecuación 3.8; que es, el valor integrado en el tiempo del
producto cruzado de algunas dos de las tres formas de onda sea distinto de cero.
Verificaremos esto para s1(t) y s2(t):

s1 (t )s 2 (t )dt = ∫ s1 (t )s 2 (t )dt + ∫ s1 (t )s 2 (t )dt


T T /2 T
∫0 0 T /2

(− 1)(2)dt + ∫T / 2 (− 3)(0)dt = −T
T /2 T
=∫
0
Similarmente la integral sobre el intervalo T de cada uno de los productos cruzados
s1(t) s3(t) y s2(t) s3(t) también da un valor distinto de cero. Entonces el set de formas
de ondas en la figura 3.5a es un set no ortogonal.

(b) Usando la ecuación 3.8, verificamos que ψ 1 (t ) y ψ 2 (t ) forman un set


ortogonal:

∫ ψ (t )ψ (t )dt = ∫ (1)(1)dt + ∫ (− 1)(1)dt = 0


T T /2 T
1 2
0 0 T /2

(c) Usando la ecuación 3.11 con Kj=T podemos expresar el set no ortogonal s1(t),
s2(t) y s3(t) como una combinación lineal de las bases ortogonales de las formas
{ }
de ondas ψ j (t ) ( j = 1,2 ) :

s1 (t ) = ψ 1 (t ) − 2ψ 2 (t )
s 2 (t ) = ψ 1 (t ) + ψ 2 (t )
s 3 (t ) = 2ψ 1 (t ) − ψ 2 (t )

(d) similar a la parte (c), el set no ortogonal {si (t )}(i = 1,2,3) , pueden ser
expresado en termino de un simple set ortogonal básico {ψ j (t )}( j = 1,2 ) en la
figura 3.5c, como sigue:
s1 (t ) = −ψ 1 (t ) − 3ψ 2 (t )
s 2 (t ) = 2ψ 1 (t )
s 3 (t ) = ψ 1 (t ) − 3ψ 2 (t )

estas relaciones ilustrada como un set de formas de onda arbitrarias {si (t )} pueden
{ }
ser expresadas como una combinación lineal de un set ortogonal ψ j (t ) , como fue
descrito en la ecuación 3.10 y 3.11.

3.1.3.3 Representación del Ruido Blanco en Formas de Onda ortogonal

AWGN puede ser expresado como una combinación lineal de formas de onda ortogonales de la
misma forma como las señales. Para el problema de detección de señales el ruido puede ser
particionado en dos componentes:

n(t ) = nˆ (t ) + n~ (t ) (3.20)
donde

N
nˆ (t ) = ∑ n jψ j (t ) (3.21)
J =1

se toma para ser el ruido dentro del espacio de la señal, o la proyección de las componentes del
ruido sobre las coordenadas de la señal ψ 1 (t ) ,.....ψ N (t ) , y

n~ (t ) = n(t ) − nˆ (t ) (3.22)

~ (t ) es el ruido que
es definido como el ruido fuera del espacio de la señal. En otras palabras, n
queda efectivamente fuera del detector. El símbolo n̂(t ) representa el ruido que será parte del
proceso de detección. Podemos expresar a n(t ) como:

N
n(t ) = ∑ n jψ j (t ) + n~ (t ) (3.23)
j =1

donde
1
∫ n(t ).ψ (t )dt ⋅ ⋅ ⋅ ∀j
T
nj = j
(3.24)
Kj 0

y
T
∫ nˆ (t ).ψ
0
j (t )dt = 0 para todo j (3.25)
la porción interferente del ruido, n̂(t ) , expresada en la ecuación 3.21 será de aquí en adelante para
mayor simplicidad llamada como n(t ) . Podemos expresar a n(t ) como un vector de sus
coeficientes similar al mostrado para la señal de la ecuación 3.12.

n = (n1,n2,......,nN) (3.26)

donde n es un vector aleatorio con media cero y distribución Gaussiana, y donde las componentes
del ruido ni son independientes.

3.1.3.4 Varianza del Ruido Blanco

El ruido blanco es un proceso idealizado con densidad espectral de potencia igual a ambos lados,
con un valor de N0/2, para todas las frecuencias desde -∞ a +∞. Entonces, la varianza del ruido
(potencia media del ruido, dado que el ruido tiene media cero) es:

N
σ 2 = var [n(t )] = ∫  0 df = ∞

(3.27)
−∞
 2 

De esta manera la varianza para AWGN es infinita, la varianza para AWGN filtrado es finita. Por
ejemplo, si AWGN es correlacionado con una función de un set de funciones ortonormales ψ j (t ) ,
la varianza en la salida del correlador esta dada por:

[

T

0
]
σ 2 = var [n j ] = E  ∫ n(t )ψ j (t )  = 0
2

 2
N
(3.28)

Entonces debemos asumir que el ruido de interés en el proceso de detección es el ruido que sale del
correlador o filtro acoplado con varianza igual a N0/2, como se expreso en la ecuación 3.28.

3.1.4 El Parámetro Básico SNR para Sistemas de Comunicación Digital

Cualquiera que haya estudiado comunicaciones analógicas esta familiarizado con la figura de
merito, razón potencia media de la señal con potencia media del ruido (S/N o SNR). En
comunicaciones digitales, a menudo usamos Eb/N0, una versión normalizada de SNR, como una
figura de merito. Eb es la energía de bit y puede ser descripta como una señal de potencia S en el
tiempo del bit Tb. N0 es la densidad espectral de potencia del ruido, y puede ser como la potencia de
ruido N dividido por el ancho de banda W. Ya que el tiempo del bit y la tasa de bit Rb son
recíprocos, podemos reemplazar Tb con 1/Rb y escribir:

S
E b S .Tb Rb
= = (3.29)
N0 N N
W W

la tasa de datos es uno de los parámetros mas recurrentes en las comunicaciones digitales. Por lo
tanto simplificamos la notación a lo largo del libro por R en lugar de Rb para representar bits/seg, y
rescribimos la ecuación (3.29) para enfatizar que Eb/N0 es una versión normalizada de S/N por
ancho de banda y tasa de bit, de la siguiente forma :

Eb S  W 
=   (3.30)
N 0 N  Rb 

Una de los mas importantes parámetro de performance en sistemas de comunicación digital es un


plot de la probabilidad de error de bit PB versus Eb/N0.
La figura 3.6 ilustra la forma de cascada de las diferentes curvas. Para Eb/No ≥ x0, PB ≤ P0. El valor
de menor dimensión de Eb/N0 es una medida estándar de calidad para la performance de sistemas
digitales. Por lo tanto, un requerido Eb/N0 puede ser considerado un parámetro que caracterice la
performance de un sistema versus otro sistema; el mas pequeño Eb/No requerido es el mas eficiente
en el proceso de detección para una probabilidad de error dada.

Figura 3.6

3.1.5 Porque Eb/N0 es una Figura de Merito

Una reciente introducción en las comunicaciones digitales puede cuestionar la utilidad del
parámetro Eb/N0. después de todo, S/N es una figura de merito útil para comunicaciones analógicas
(el numerador representa una medida de la potencia de la señal que nosotros deseamos para lograr
una transmisión, y el denominador representa la degradación eléctrica del ruido). Mas aun, S/N es
intuitivamente aceptable como una métrica de virtud. Entonces, porque nosotros no podemos
continuar con el uso de S/N como una figura de merito para comunicaciones digitales? Porque
surge una diferente métrica para sistemas digitales (la relación energía de bit sobre densidad
espectral de potencia de ruido)?
En la sección 1.2.4, una señal de potencia fue definida como una señal que tiene una potencia media
finita y una energía infinita. Una señal de energía fue definida como una señal que tiene potencia
media cero y energía finita. Estas clasificaciones son útiles para comparar formas de ondas
analógicas y digitales. Porque clasificamos una forma de onda analógica como una señal de
potencia? Nosotros podemos pensar una forma de onda analógica con una duración infinita que no
necesita ser particionada o ventaneada en el tiempo. Una infinitamente larga forma de onda
eléctrica tiene una infinita cantidad de energía; entonces, la energía no es un camino útil para
caracterizar esta forma de onda. La potencia (o tasa de llevar la energía) es un parámetro mas útil
para señales analógicas.
Sin embargo, en sistemas de comunicación digitales transmitimos (o recibimos) símbolos para
transmitir formas de onda en una ventana de tiempo, el tiempo del símbolo Ts.
Enfocándonos sobre un símbolo, podemos ver que la potencia (promediada sobre todo el tiempo) se
va a cero.
Entonces, la potencia no es un camino útil para caracterizar una forma de onda digital. En otras
palabra la energía del símbolo (potencia integrada en un periodo Ts) es un parámetro mas útil para
caracterizar formas de onda digitales.
El hecho que una señal digital este mejor caracterizada por su energía recibida no nos dice ahora el
enigma de porque Eb/N0 es una métrica natural para sistemas digitales.
La forma de onda digital es un vehículo que representa un mensaje digital. El mensaje puede
contener 1 bit (binario), 2 bits (4-ary)........, 10 bits (1024-ary). En un sistema analógico, no hay
nada semejante a tal estructura de mensaje. Una fuente de información analógica es una onda
continua cuantizada infinitamente. Para sistemas digitales, una figura de merito debe permitirnos
comparar un sistema con otro por medio del nivel del bit. Por lo tanto, una descripción de una forma
de onda digital en términos de S/N es virtualmente útil, entonces la forma de onda debe tener
significado a 1 bit, 2 bits, ....., 10 bits. Por ejemplo, supóngase que para una probabilidad de error
dada, el requerimiento de S/N para una forma de onda digital es 20 unidades. Tomando el caso de
que la forma de onda binario tiene un significado de un bit por símbolo, entonces el requisito de
S/N por bit es igual a las mismas 20 unidades. Sin embargo, suponer que la forma de onda es 1024-
ary, con las misma 20 unidades requeridas de S/N. Ahora, entonces la forma de onda tiene 10 bits,
el requerimiento de S/N por bits es de solamente 2 unidades. ¿Por qué nosotros debemos tener que
pasar por las tales manipulaciones computacional para encontrar una métrico que represente la
figura de mérito? ¿Por qué no describimos inmediatamente la métrica en términos de que
necesitamos relacionado con parámetros tales como nivel del bit, Eb/N0? Así como S/N es una
relación adimensional, también lo es Eb/N0. Para verificar esto, considere las siguientes unidades de
medida:

 
Eb
=
energía del bit en T segundos
=
Joules  =  Watt − s 
N 0 Densidad espectral de Potencia del Ruido  Watt   Watt − s 
 Hertz 

3.2 Detección de Señales Binarias en Ruido Gaussiano

3.2.1 Estructura de Máxima Probabilidad en el Receptor

El criterio de realizar la decisión mostrado en el paso 2 de la figura 3.1 fue descrito por la ecuación
3.7 de la siguiente forma:

H1
Z (T ) >
< γ
H 2

Un criterio popular para elegir el nivel del umbral γ para la decisión binaria en la ecuación 3.7 esta
basado en la minimización de la probabilidad de error. El calculo para este valor de mínimo error de
γ=γ0 comienza con formar una expresión de desigualdad entre la relación de la función de densidad
de probabilidad condicional y la probabilidad a priori de la señal. Puesto que la función de densidad
( )
condicional p z s i es también llamada probabilidad de si, la formulación:
H
p( z s1 ) > 1 p (s 2 )
(3.31)
p( z s 2 ) H p (s1 )
<
2
es llamada likelihood ratio test.
En esta desigualdad, p(s1) y p(s2) son las probabilidades a priori que s1(t) y s2(t), respectivamente,
sean transmitidas, y H1 y H2 son las dos posibles hipótesis. La regla para minimizar los estados de
probabilidad de error es que nosotros debemos escoger la hipótesis H1 si la relación de probabilidad
es mayor que la relación de probabilidad a priori, como la muestra en ecuación 3.31. Se demuestra
en la sección B.3.1 que si ( )
p(s1)= p(s2) y si las probabilidades p z si (i=1,2) son simétricas,
podemos introducir las ecuaciones 3.5 y la 3.6 en la 3.31 y obtener:

H1
a1 + a2
z >
< =γ0 (3.32)
H2 2

donde a1 es la componente de señal de z(t) cuando s1(t) es transmitido, y a 2 es la componente de


la señal de z(t) cuando se transmitió s2(t).
El nivel del umbral γ0, representado por (a1 + a 2 ) 2 , es el umbral optimo para minimizar la
probabilidad de hacer una decisión incorrecta para este importante caso. Esta estrategia es conocida
como el criterio de mínimo error.
Para señales con igual probabilidad, el umbral optimo γ0 pasa a través de la intersección de las
funciones de probabilidad, como se muestra en la figura 3.2. De esta manera siguiendo ecuación
3.32, la etapa de decisión selecciona eficazmente la hipótesis que corresponde a la señal con mayor
probabilidad. Por ejemplo, dado un valor arbitrario a la salida del detector za(t) para el cual hay una
probabilidad distinta de cero de que za(t) pertenezca a una de las señales s1(t) o s2(t), uno puede
pensar en el test de probabilidad como la comparación de los valores probabilidad p z a s1 y ( )
p (z a s 2 ) . La señal correspondiente a la máxima pdf es elegida como la mejor opción que fue
transmitida. En otra palabras, el detector elige s1(t) si:

p (z a s1 ) > p (z a s 2 ) (3.33)

Caso contrario, el detector elige s2(t). Un detector que minimice la probabilidad de error (para el
caso de que las señales son igualmente probables) es también conocido como un detector de
máxima probabilidad.
La figura 3.2 ilustra que la ecuación 3.33 es simplemente "sentido común" el camino para tomar
una decisión cuando existe conocimiento estadístico de los tipos de señal. Dado el valor za(t) a la
salida del detector, vemos en la figura 3.2 que za(t) intercepta a la curva de probabilidad de s1(t) en
un valor l1 e intercepta a la curva de probabilidad de s2(t) en un valor l2. ¿Qué decisión mas
razonable debe hacer el detector? Para este ejemplo, elegir la señal s1(t) es la elección mas acertada
dado que tiene una probabilidad mayor. Si este fuera ahora un M-ary en lugar de un ejemplo
binario, habría un total de M funciones de probabilidad representando las M tipos de señales.
La decisión de máxima probabilidad debe ser el tipo de señal que tiene la mayor probabilidad de
tolas las M probabilidades. (Referirse al apéndice B para una mirada de la teoría fundamental de
decisión).
3.2.1.1 Probabilidad de Error

Para realizar la decisión binaria descripta en la figura 3.2, hay dos tipos de errores que pueden
ocurrir. Un error e ocurrirá cuando s1(t) es enviado, y el ruido en el canal provoca que la señal de
salida z(t) en el receptor sea menor que γ0. La probabilidad de este suceso es:

γ0
P (e s 1 ) = P (H 2 s 1 ) = ∫ p ( z s 1 )dz (3.34)
−∞

Esto es mostrado por la parte sombreado a la derecha de γ0 en la figura 3.2. Similarmente, un error
ocurre cuando s2(t) es enviado, y el ruido en el canal provoca que la señal de salida z(t) en el
receptor sea mayor que γ0. La probabilidad de este suceso es:


P (e s 2 ) = P (H 1 s 2 ) = ∫γ p (z s 2 )dz (3.35)
0

La probabilidad de un error es la suma de las probabilidades de todos los posibles errores que
puedan ocurrir. Para el caso binario podemos expresar la probabilidad de error de un bit como:

2 2
PB = ∑ P(e, s i ) = ∑ P(e s i )P(si ) (3.36)
i =1 i =1

Combinando las ecuaciones 3.34 a 3.36 podemos escribir:

PB = P (e s1 )P(s1 ) + P (e s 2 )P(s 2 ) (3.37-a)


o equivalentemente:

PB = P(H 2 s1 ).P(s1 ) + P(H1 s2 ).P(s2 ) (3.37-b)

Esto es, dado que la señal s1(t) fue transmitida, un error ocurre si la hipótesis H2 es elegida; o dado
que la señal s2(t) fue transmitida, un error ocurre si la hipótesis H1 es elegida. Para el caso donde las
probabilidades a priori son iguales [que es P(s1)= P(s2)=1/2]:

1 1
PB = P(H 2 s1 ) + P(H1 s2 ) (3.38)
2 2

y debido a la simetría de las funciones de densidad de probabilidad:

PB = P(H 2 s1 ) = P(H1 s2 ) (3.39)

La probabilidad de errar un bit, PB, es numéricamente igual al área bajo la cola de la función de
( ) ( )
densidad de probabilidad, p z s1 o p z s 2 , descendiendo sobre el lado incorrecto del umbral.
( )
Podemos por consiguiente computar la PB, integrando p z s1 entre los limites - ∞ y γ0, integrando
p (z s 2 ) entre los limites γ0 y + ∞ :

PB = ∫ p ( z s2 )dz (3.40)
γ 0 =( a1 + a2 ) / 2

Aquí, γ 0 = (a1 + a 2 ) / 2 es el umbral optimo de la ecuación 3.32. Reemplazando la probabilidad


p (z s 2 ) con su equivalente Gaussiano de la ecuación 3.6, tenemos:


1  1 z−a 
2

PB = ∫σ exp−    dz (3.41)
2

γ0 0 2π  2  σ 0  

donde σ02 es la varianza del ruido a la salida del correlador.


Llamaremos u = ( z − a 2 ) / σ 0 .
Entonces σ0*du=dz y:

1  u2   a − a2 
PB =
γ
∫ 2π
exp−  du = Q 1
 2  2σ 0


(3.42)
0

donde Q(x), llamada función de error complementaria o función co-error, es la comúnmente usada
simbología para la probabilidad de error bajo la cola de la pdf Gaussiana, y esta definida como:


1  u2 
Q( x) ≈ ∫  − 2 du
2π x
exp (3.43)

Note que la función co-error esta definida por varias formas (vea apéndice B); como siempre todas
las definiciones son igualmente útiles para determinar la probabilidad de error en ruido Gaussiano.
Q(x) no puede ser evaluada en forma cerrada. Esto se presenta tabulado en la tabla B.1. Buenas
aproximaciones a Q(x) por funciones más simples pueden encontrarse en la referencia [5]. Una
aproximación valida para x>3 es:

1  x2 
Q( x) ≈ exp −  (3.44)
2π  2 

Ahora tenemos optimizado el nivel del umbral γ, pero no tenemos optimizado el filtro receptor en el
bloque 1 de la figura 3.1. A continuación consideraremos optimizar este filtro para maximizar el
argumento de Q(x) en la ecuación 3.42.

3.2.2 Filtro Acoplado

Un filtro acoplado es un filtro lineal designado para proveer la máxima relación señal-ruido a su
salida (salida del filtro) para una dado símbolo de forma de onda transmitida. Considerar que una
conocida señal s(t) mas un ruido n(t) AWGN es la entrada de un filtro lineal e invariante en el
tiempo, seguido por un muestreador, como se muestra en la figura 3.1. En el tiempo t=T, la salida
z(T) del muestreador consiste de una componente de la señal ai y una componente del ruido n0. La
varianza del ruido (potencia promedio de ruido) a la salida esta denotada por σ02, de manera que la
relación de potencia de la señal instantánea a potencia promedia de ruido, (S/N)T, en el tiempo t=T,
salida del muestreador en el paso 1, es:
S ai2
  = (3.45)
 N T σ 0
2

deseamos ahora poder encontrar la función de transferencia H0(f) que maximice la ecuación 3.45.
Podemos expresar la señal ai(t) a la salida del filtro en términos de la función de transferencia del
filtro H(f) y la transformada de Fourier de la señal de entrada es:


ai (t ) = ∫ H ( f ).S ( f )e j 2πft df (3.46)
−∞

donde S(f) es la transformada de Fourier de la señal de entrada, s(t). Si ambos lados del espectro la
densidad espectral de potencia del ruido de entrada es N0/2 watts/hertz, entonces, usando la
ecuación 1.19 y 1.53, podemos expresar la potencia del ruido a la salida como:

N0 ∞
∫ H ( f ) df
2
σ 02 = (3.47)
2 −∞

Combinando las ecuaciones 3.45 a 3.47 podemos expresar la (S/N)T de la siguiente manera:

∞ 2

∫ H ( f ). S ( f )e j 2 π ft
df
 S  −∞
  = (3.48)
 N T N0 ∞
∫ H (f ) 2
df
2 −∞

A continuación encontraremos que valor de H(f)=H0(f) para el cual se logra alcanzar la máxima
(S/N)T, usando la desigualdad de Schwrz. Una forma de plantear la desigualdad puede estar dada
como:

∞ 2 ∞ ∞

∫ ∫ f 1 ( x) dx ∫ f 2 ( x) dx
2 2
f1 ( x) f 2 ( x)dx ≤ (3.49)
−∞ −∞ ∞

La igualdad se sostiene si f1(x)=kf*2(x), donde k es una constante arbitraria y * indica el complejo


conjugado. Si identificamos H(f) con f1(x), y S(f)ej2πfT con f2(x), podemos escribir:

∞ 2 ∞ ∞
∫ H( f ).S( f )e j 2πfT df ≤ ∫ H ( f ).2df ∫ S( f ).2df (3.50)
−∞ −∞ −∞

Sustituyendo en la ecuación 3.48 obtenemos:


S 2
∫ S( f )
2
  ≤ df (3.51)
 N T N 0 −∞

o
S 2E
max  = (3.52)
 N T N 0
donde la energía E de la señal de entrada s(t) es:

∫ S( f )
2
E= df (3.53)
−∞

De esta manera, la salida máxima de (S/N)T depende de la energía de la señal y de la densidad


espectral de potencia del ruido, no de la forma particular de la forma de onda que se use. La
igualdad en la ecuación 3.52 se sostiene solo si la función de transferencia del filtro optimo se
desarrolla de la siguiente manera:

H ( f ) = H0 ( f ) = KS * ( f )e− j 2πfT (3.54)

Aplicando transformada inversa de Fourier:

h (t ) = F −1
{K .S * ( f )e − j 2πfT
} (3.55)

Ya que s(t) es una señal de valor real, podemos escribir de las ecuaciones A.29 y A.31 que:

 ks(T − t ) 0≤t ≤T
h(t ) =  (3.56)
0 para otro tiempo

De esta manera, la respuesta al impulso de un filtro que produce la máxima relación señal ruido a la
salida es la imagen espejo de la señal mensaje s(t), retrazada una duración de símbolo T. Note que
el retardo de T segundos hace causal la ecuación 3.56; lo que es lo mismo decir que el retardo de T
segundos hace a h(t) una función de tiempo positiva en el intervalo 0 ≤ t ≤ T. Sin el retardo de T
segundos la respuesta s(-t) es irrealizable debido a que ella describe una repuesta impulsional de
tiempo negativo.

3.2.3 Realización de la Correlación del Filtro Acoplado

La ecuación 3.56 y la figura 3.7a ilustra las propiedades básicas del filtro acoplado: la respuesta al
impulso del filtro es una versión desplazada de una imagen especular de la señal (rotada sobre el eje
t=0). Por lo tanto, si la señal es s(t), esta imagen especular será s(-t), y la imagen especular
desplazada T segundos es s(T-t). La salida z(t) del filtro causal puede ser descripta en el dominio
del tiempo como la convolución de una señal de entrada r(t) con la respuesta al impulso del filtro
(ver sección A.5):

z (t ) = r (t ) * h(t ) = ∫ r (τ )h(t − τ )dτ


t
(3.57)
0

sustituyendo h(t) de la ecuación 3.56 en h(t-τ) de la ecuación 3.57 y arbitrariamente seteando la


constante k igual a la unidad, obtenemos:

z (t ) = ∫ r (τ )s[T − (t + τ )]dτ
t

0
(3.58)
= ∫ r (τ )s (T − t + τ )dτ
t

0
Cuando t=T. Podemos escribir la ecuación 3.58 como:

z (t ) = ∫ r (τ )s (τ )dτ
T
(3.59)
0

La operación de la ecuación 3.59, la integración del producto de la señal recibida r(t) con una
replica de la señal transmitida s(t) sobre un intervalo de símbolo se conoce como la correlación de
r(t) con s(t). Considere que una señal recibida r(t) es correlacionada con cada prototipo de señal si(t)
(i=1, ......, M), usando un banco de M correladores. La señal si(t) la cual produce la correlación con
r(t) que permite la máxima salida zi(t) es la señal que acopla mejor a r(t) que todas las otras sj(t) para
los j≠i. Por lo tanto podemos utilizar esta correlación característica para optimizar la detección de
la señal.

Figura 3. 7

3.2.3.1 Comparación de la Convolución y la Correlación

La operación matemática del filtro acoplado (MF) es la convolución; una señal es convolucionada
con la respuesta al impulso del filtro. La operación matemática de un correlador es la correlación;
una señal es correlacionada con una replica de si misma. El termino “filtro acoplado” es usado
frecuentemente como sinónimo de “correlador”. Como es posible que sus operaciones matemáticas
sean diferentes? Recordar que el proceso de convolución de dos señales es invertir una de ellas en el
tiempo. También, la respuesta al impulso de un filtro acoplado es definida en términos de una señal
que es invertida en el tiempo. Por eso, la convolución en el filtro acoplado con una función
invertida en el tiempo resulta en una segunda inversión en el tiempo, haciendo aparecer a la salida
el resultado de una señal que a sido correlacionada con su replica. Por consiguiente, esto es valido
para implementarlo en el filtro receptor en la figura 3.1 como un filtro acoplado o como un
correlador. Es importante notar que la salida del filtro acoplado y la salida del correlador son las
mismas solo en el tiempo t=T. Para una señal de entrada senoidal, la salida del correlador, z(t), es
aproximadamente una rampa lineal durante el intervalo 0≤t≤T. Sin embargo, la salida del filtro
acoplado es aproximadamente una señal senoidal con su amplitud modulada por una rampa lineal
con duración en el mismo tiempo de intervalo. La comparación es mostrada en la figura 3.7b. Las
funciones del filtro acoplado y del correlador son mostradas en la figura 3.8 que son a menudo
usadas en forma intercambiadas.
Figura 3.8

3.2.3.2 Dilema En La Representación Temporal Del Primer Evento y el Ultimo

Existen serios dilemas en la representación de los eventos en el tiempo. Este dilema es


indudablemente la causa de errores mas frecuentes en ingeniería eléctrica, confundiendo el bit mas
significativo (MSB) con el bit menos significativo (LSB). La figura 3.9a muestra como una función
del tiempo es típicamente dibujada; el primer evento aparece más a la izquierda, y el último evento
más a la derecha. Considere la figura 3.9b, donde los pulsos que se muestran entran a una red o
circuito. Aquí, el primer evento esta mostrado mas a la derecha y el ultimo esta mas a la izquierda.
De la figura, debe quedar claro que al denotar los eventos de tiempo, hay una inferencia que
podemos seguir una de dos formas descriptas aquí.

Figura 3. 9

3.2.4 Optimización de la performance del error

Para optimizar la PB en el contextos de un canal AWGN y un receptor mostrado en la figura 3.1,


necesitaremos seleccionar un filtro receptor óptimo en el paso 1 y un umbral de decisión óptimo en
el paso 2. Para el caso binario, el umbral de decisión óptimo ya ha sido elegido en la ecuación
(3.32), y mostrado en la ecuación (3.42) que este umbral resulta en PB=Q[(a1-a2)/2σ0]. A
continuación, para minimización de PB, es necesario elegir un filtro que maximice el argumento de
Q(x). Así, necesitamos determinar qué filtro lineal maximiza (a1-a2)/2σ0, o equivalentemente, que
maximice

(a1 − a2 )2 (3.60)
σ 02
donde (a1-a2) es la diferencia de la componente de la señal deseada de la salida del filtro al tiempo
t=T, y el cuadrado de estas señal diferencia es la potencia instantánea de la señal diferencia. En la
selección 3.2.2, un filtro acoplado fue descrito como uno que maximiza la relación señal a ruido
(SNR) de salida para una señal conocida. Aquí, seguiremos este desarrollo para señales binarias,
donde vemos que el filtro óptimos es aquel que maximiza la diferencia entre dos posible señales de
salida. Comenzando con la ecuación (3.45) y (3.47), esto se mostró en la ecuación (3.52) que un
filtro acoplado logra la máxima salida posible de SNR igual a 2E/N0. Considerar que el filtro es
acoplado a la diferencia de las señales de entrada [s1(t)-s2(t)]; así, podemos escribir la SNR de salida
al tiempo t=T como

S (a − a ) 2 E 2

  = 1 22 = d (3.61)
 N T σ0 N0

donde N0/2 es la densidad espectral de potencia del ruido a la entrada del filtro y

0
[ ]
E d = ∫ s1 (t ) − s 2 (t ) dt
2
(3.62)

Es la energía de la diferencia de la señales a la entrada del filtro. Note que la ecuación (3.61) no
representa la SNR para alguna señal transmitida, s1(t) o s2(t). Esta SNR produce la métrica de una
señal diferencia para la salida del filtro. Para maximizar la SNR de salida de la ecuación (3.61), el
filtro acoplado provee la máxima distancia entre las dos candidatos de salida, señal a1 y señal a2.
A continuación, combinando las ecuaciones (3.42) y (3.61) tenemos

 Ed 
PB = Q 
 (3.63)
 2N 0 

Para el filtro acoplado, la ecuación (3.63) es un resultado importante en términos de la energía de la


señal diferencia a la entrada del filtro. De esta ecuación, una relación mas general en términos de la
energía del bit recibido puede ser desarrollada. Podemos seguir definiendo un coeficiente de
correlación cruzada para medir la similitud entre las dos señales, s1(t) y s2(t). Obteniendo

1
∫ s (t )s (t )dt
T
ρ= 1 2 (3.64a)
Ed 0

ρ = cosθ (3.64b)

donde –1≤ρ≤1. la ecuación (3.64a) es la expresión matemática clásica para la correlación. Si


embargo, cuando s1(t) y s2(t) son expresadas como dos vectores de señal, s1 y s2, respectivamente,
luego ρ es expresado convenientemente por la ecuación (3.64b). Este vector provee una
representación útil. Los vectores s1 y s2 están separados por el ángulo θ. Para un pequeño ángulo de
separación, los vectores son bastante similar (alta correlación) uno de otro, y para una separación
angular grande, estos son bastante diferentes. El coseno de este ángulo nos da la misma métrica
normalizada de correlación como la ecuación (3.64a).
Expandiendo la ecuación (3.62) obtenemos:
E d = ∫ s12 (t )dt + ∫ s 22 (t )dt − 2 ∫ s1 (t )s 2 (t )dt
T T T
(3.65)
0 0 0

Los dos primeros términos en la ecuación (3.65) representan la energía asociada con un bit, Eb; que
es :

Eb = ∫ s12 (t )dt = ∫ s 22 (t )dt


T T
(3.66)
0 0

Sustituyendo las ecuaciones (3.64a) y (3.66) en la ecuación (3.65) obtenemos:

E d = Eb + Eb − 2 ρEb = 2 Eb (1 − ρ ) (3.67)

Sustituyendo la ecuación (3.67) en la (3.63) obtenemos:

 Eb (1 − ρ ) 
PB = Q 
 (3.68)
 N0 

Considerar el caso de ρ=1 correspondiente a señales que son perfectamente correlacionadas en un


intervalo de símbolo. Se podría usar cualquier tipo de forma de onda para señales digitales?. Por
supuesto que no, debido a que la s señales de comunicación necesitan estar separadas unas de otras
lo mas posible de manera que ellas sean fácilmente distinguibles (detectadas). Estamos simplemente
catalogando los posibles valores del parámetro ρ. Considerar el caso de ρ=-1 correspondiente a s1(t)
y s2(t) que son anticorrelacionadas en un intervalo de símbolo. En otras palabras el ángulo entre los
vectores señales es 180°. En tal caso, donde los vectores son imágenes espejo, las señales son
llamadas antipodales, como se muestra en la figura 3.10a. También considerar el caso para ρ=0
correspondiente a cero correlación entre las señales (el ángulo entre los vectores es 90°).
Llamaremos a tales señales como ortogonales, las cuales se muestran en la figura 3.10b. Para que
dos formas de ondas sean ortogonales, deben ser no correlacionadas en un intervalo de símbolo; lo
cual es:

∫ s (t )s (t )dt = 0
T
1 2 (3.69)
0

El propósito de ortogonalidad fue tratado anteriormente en la sección 3.1.3. Para el caso de detectar
señales antipodales (ρ=-1) con un filtro acoplado, la ecuación (3.68) se puede escribir como:

 2 Eb 
PB = Q 
 (3.70)
 N0 

Figura 3.10

Similarmente para el caso de detección de señales ortogonales (que es ρ=0) con un filtro acoplado,
ecuación (3.68), puede ser escrito de la siguiente forma:
 Eb 
PB = Q  (3.71)
 N 
 0 

En la figura 3.10, las magnitudes de la señal son iguales ( E b ), esto ayuda a ilustrar que la
performance de error descripta por las ecuaciones (3.70) y (3.71) es una función de la distancia
entre s1 y s2. Cuando las señales son antipodales, como se muestra en la figura 3.10a, la distancia
entre ellas es 2 E b , y la energía Ed asociada con la distancia es caracterizada por la distancia al
cuadrado o 4Eb. Cuando sustituimos Ed = 4Eb en la ecuación (3.63), la distancia entre ellas es
2 Eb y entonces Ed = 2Eb. Cuando sustituimos Ed = 2Eb en la ecuación (3.63), el resultado es la
ecuación (3.71)

Ejemplo 3.2 Filtro acoplado, detección de señales antipodales

Considere un sistema de comunicación binario que recibe las señales s1(t) y s2(t) con igual
probabilidad mas ruido. Mire la figura 3.11. Asuma que el filtro receptor es un filtro acoplado (MF),
y que la densidad espectral de potencia del ruido N0 es igual a 10-12 watt/hz. use los valores de
voltaje de señal recibido y mire el tiempo en la figura 3.11 para computar la probabilidad de error
de bit.
Solución:
Podemos determinar gráficamente la energía de la señal por bit de el dibujo de s1(t) o
s2(t) mostrados en la figura 3.11 por integración. Realizándolo en partes, obtenemos:

3
( ) (
2
) ( ) (
2
) ( ) (
2
Eb = ∫ v 2 (t )dt = 10 −3 v × 10 −6 s + 2 × 10 −3 v × 10 −6 s + 10 −3 v × 10 −6 s )
0

Eb = 6 × 10 −12 joules

Ya que las formas de onda dibujadas en la figura 3.11 son antipodales, y son detectadas con filtros
acopladas, usaremos la ecuación (3.70) para encontrar la probabilidad de error de bit de la siguiente
manera:

 E b (1 − ρ )   Eb 2   
( )
−12
PB = Q   = Q  = Q  12 x10  = Q 12 = Q (3.46 ) = 2.9 x10 − 4
N0   N   10 −12 
   0   
De la tabla B.1, encontramos que PB = 3x10-4. O ya que el argumento de Q(x) es mayor que 3,
podemos también usar la aproximación de la ecuación (3.44) la cual nos da un PB =
2.9x10-4.
Debido a que las señales recibidas son antipodales y son recibidas con un MF, estos son requisitos
previos suficientes para que podamos obtener por medio de la ecuación (3.70) la probabilidad de
error de bit. Las onda s1(t) y s2(t) pueden ser dibujadas de una forma mucho mas rara, pero con tal
de que ellas sean antipodales y detectadas por un MF se podrán hacer los cómputos de PB,
independientemente de cómo sea la forma que se le da a la onda.

3.2.5 Performance de Probabilidad de Error de Señales Binarias

3.2.5.1 Señales Unipolares

La figura 3.12a ilustra un ejemplo de señales ortogonales de banda base, llamadas señales
unipolares, donde:
s1(t)= A 0≤t≤T para 1 binario
s2(t)= 0 0≤t≤T para 0 binario (3.72)

donde A>0 es la amplitud del símbolo s1(t). La definición de señales ortogonales descriptas por la
ecuación (3.69) requiere que s1(t) y s2(t) tengan una correlación de cero en cada duración del
símbolo. Debido a que en la ecuación (3.72), s2(t) es igual a cero durante la duración de un símbolo,
este set de pulsos unipolares claramente cumple la condición mostrada en la ecuación (3.69), y
entonces, ellos forman un conjunto de señales ortogonales.

Figura 3.12

Considerar que las señales unipolares ilustradas en la figura 3.12a y el correlador mostrado en la
figura 3.12b, el cual puede ser usado para detectar tales pulsos. El correlador multiplica e integra la
señal entrante r(t) con la diferencia de las señales prototipo [s1(t)-s2(t)] = A. Después de una
duración de símbolo T, el muestreador produce un test estadístico z(T), el cual es comparado con el
umbral γ0. Para el caso de ser recibido s1(t) mas ruido AWGN (que es cuando r(t)= s1(t)+n(t)) la
componente de señal de z(t) es hallada usando la ecuación (3.59) de la siguiente forma:

{ }
a1 (T ) = E{z (T ) s1 (t )} = E ∫ A 2 + An(t )dt = A 2T
T

0
{ }
donde E z (T ) s1 (t ) es el valor esperado de z(T), dado que s1(t) fue enviado. Esto se da ya que
E{n(t )} = 0 . Similarmente cuando r(t)= s2(t)+n(t), entonces a2(T) = 0. De esta manera, el umbral
de decisión optimo, dado por la ecuación (3.32), es de la forma:

γ 0 = (a1 + a 2 ) 2 = 12 A 2T

Si el test estadístico z(T) es mayor que γ0, la señal es declarada para ser s1(t); caso contrario la señal
recibida será s2(t).
La diferencia de energía de las señales, de la ecuación (3.62), es dada por Ed = A2T. Entonces la
performance de error de bit a la salida es obtenida de la ecuación (3.63) de la siguiente forma:

 Ed   2   
PB = Q  = Q A T  = Q E b  (3.73)
  2N 0   N 
 2N0     0 

donde, para el caso de señales con igual probabilidad, la energía promedio por bit es Eb = A2T/2. La
ecuación (3.73) corrobora la ecuación (3.71) donde la relación fue establecida para señales
ortogonales en mas de una forma.
Note que la unidad de salida del circuito multiplicador de la figura 3.12b son volts. Por lo tanto,
para una señal de voltaje cada dos entradas, la función de transferencia del multiplicador debe tener
las unidades de 1/volts y las unidades de r(t) y si(t) a la salida del multiplicador son volt/volt-
cuadrado. Similarmente las unidades de salida del circuito integrador también son volt. Por lo tanto
para una señal de voltaje en el integrador, la función de transferencia del integrador debe tener
unidades de 1/segundos y la función de transferencia total (producto + integrador) tiene unidades de
1/volt-segundos. Por lo tanto, para una señal en el producto integrador la misma tiene unidades de
volt-cuadrado-segundos (una medida de energía); podemos representar la salida z(T) como una
señal de voltaje que es proporcional a la energía de la señal recibida (volt/joule).

3.2.5.2 Señales bipolares

La figura 3.13a ilustra un ejemplo de señales antipodales en banda base, donde

S1 (t ) = + A 0 ≤ t ≤ T para 1 binario
y (3.74)
S 2 (t ) = − A 0 ≤ t ≤ T para 0 binario
Como definimos anteriormente, el término “antipodal” se refiere a señales binarias que son
imágenes especulares una de la otra; esto es, S1(t) = - S2(t). Un receptor correlador para cada forma
de onda antipodal puede ser configurado como lo muestra la figura 3.13b. El primer correlador
multiplica e integra la señal entrante r(t) con la señal prototipo S1(t); el segundo correlador
multiplica e integra r(t) con S2(t).
La figura 3.13b captura la esencia de la función principal de un receptor digital. Esto es, durante
cada intervalo de símbolo, una misma señal de entrada con ruido es enviada a los múltiples
correladores en un esfuerzo de correlacionar esta con cada uno de los candidatos posibles. Para
realizar la detección el receptor busca el mayor voltaje de salida. Para el ejemplo binario, hay solo
dos posibles candidatos. Para el ejemplo 4-aria habría cuatro candidatos, y así. El la figura 3.13b, la
salida de los correladores son designados como zi(T) ( i =1,2 ). El test estadístico, formado de la
diferencia de la salida del correlador, es

z (T ) = z1 (T ) − z 2 (T ) (3.75)

y la decisión se realiza usando el umbral mostrado en la ecuación 3.32. para señales antipodales, a1
= - a2 ; por esto, γo = 0. Entonces, si el test estadístico z(T) es positivo, la señal es declarada como
S1(T); y si esta es negativa, es declarada como S2(T).
De la ecuación 3.62, la señal de diferencia de energía es Ed = (2 A)2 T. Entonces, la performance de
error de bit de la salida puede ser obtenida de la ecuación 3.63 como

 Ed   2   
PB = Q  = Q 2 A T  = Q 2 E b  (3.76)
 2N   N0   N 
 0     0 

donde la energía promedio por bit está dada por Ed = A2 T. La ecuación 3.76 corrobora la ecuación
3.70 donde esta relación fue establecida para señales antipodales de una forma general.
3.2.5.3 Señales descritas con funciones bases

En lugar de designar Si(t) como las señales de referencia en el correlador de la figura 3.13b,
podemos usar el concepto de funciones bases descritas en la sección 3.1.3. Las señales binarias con
pulsos bipolares o unipolares proveen ejemplos particularmente simples para hacer esto, debido a
que el espacio completo de las señales puede ser descrito por solo una función base. Si
normalizamos el espacio haciendo Kj = 1en la ecuación 3.9, entonces debería ser claro que la
función base Ψ1(t) debe ser igual a 1 / T .
Para señales de pulso unipolar, podemos escribir

 1
s1 (t ) = a11ψ 1 (t ) = A T x = A

 T
y
 1
s 2 (t ) = a 21ψ 1 (t ) = 0 x =0

 T 

donde los coeficientes a11 y a21 son iguales a A T y 0 respectivamente.


Para señales de pulso bipolar podemos escribir

 1
s1 (t ) = a11ψ 1 (t ) = A T x = A

 T 
y
 1
s 2 (t ) = a 21ψ 1 (t ) = − A T x  = −A

 T

donde los coeficientes a11 y a21 son iguales a A T y − A T respectivamente. Para el caso de
pulsos antipodales, podemos imaginar el correlador receptor tomando la forma de la figura 3.12b
con la señal de referencia igual a 1 / T . Entonces para el caso de que se envíe S1(T) = A,
podemos escribir

 T A n(t ) 
a1 (t ) = E{z (T ) s1 (t )} = E ∫ + dt  = A T
0 T T 

esto es debido a E{n(t )} = 0 , y ya que, para señales antipodales, Eb = A 2T , esto permite que
a1 (T ) = Eb . Similarmente, para una señal recibida r (T ) = s 2 (t ) + n(t ) , esto permite
a 2 (T ) = − Eb . Donde las señales de referencia son tratadas en esta forma, entonces el valor
esperado de z (T ) tiene una magnitud de Eb , el cual tiene unidades de volts normalizados
proporcionales a la energía recibida. Este tratamiento de funciones base del correlador produce un
valor conveniente de z (T ) que es consistente con unidades de volts fuera de los multiplicadores e
integradores. Por esto repetimos un punto importante: en la salida del muestreador (el punto de
predicción), el test estadístico z (T ) es una señal de voltaje proporcional a la energía de la señal
recibida.
La figura 3.14 ilustra las curvas de PB versus E b N 0 para señales bipolares y unipolares. Hay solo
dos maneras de comparar tales curvas. Mediante el trazado de una línea vertical para un
Eb N 0 dado, digamos, 10 dB, vemos que las señales unipolares producen PB en el orden de 10-3,
pero que las señales bipolares producen PB en el orden de 10-6. La curva inferior es de una mejor
performance. También, por el trazado de una línea horizontal para algún requerimiento de PB ,
digamos, 10-5, vemos que con las señales unipolares cada bit recibido requerirá un
Eb N 0 alrededor de 12,5 dB, pero con las señales bipolares solo se necesita un relación Eb N 0 de
solo 9,5 dB para cada bit recibido. Por supuesto, un menor requerimiento de E b N 0 es mejor
(usando menos potencia, requerimos menos baterías). En general, las curvas de mejor performance
están cercanas a los ejes inferior e izquierdo. Examinando las dos curvas en la figura 3.14 podemos
ver un mejoramiento de la performance de error de 3 dB señales bipolares comparadas con señales
unipolares.

Esta diferencia podría haber sido predicha por el factor de 2 en el coeficiente de E b N 0 en la


ecuación 3.70 comparada con la ecuación 3.71. En el capítulo 4, se muestra que, con la detección
MF, señales antipodales pasa banda (ej. PSK binaria) tiene la misma performance de PB como las
señales antipodales de banda base (ej. pulsos bipolares). Esto también muestra que, con la detección
MF, señales ortogonales pasa banda (ej. FSK ortogonales) tienen la misma performance como las
señales ortogonales pasa banda (ej. pulsos unipolares).

3.3 Interferencia intersímbolo

La figura 3.15a muestra los aspectos del filtrado de un típico sistema de comunicación digital. Hay
varios filtros (elementos de circuitos reactivos tales como inductancias y capacitores) a lo largo del
sistema, esto es, en el transmisor, en el receptor y en el canal. En el transmisor, la información de
símbolo, caracterizada como impulsos o niveles de voltaje, modula los pulsos que luego son
filtrados para cumplir un cierto requerimiento de ancho de banda. Para sistemas de banda base, el
canal (cable) tiene reactancias distribuidas que distorsionan los pulsos. Algunas sistemas pasa
banda, tales como sistemas wireless, son caracterizados por canales con fading (capitulo 15), este
comportamiento no deseado se manifiesta en la distorsión de la señal. Cuando el filtro receptor es
configurado para compensar las distorsiones causadas por el medio de transmisión y el canal, es con
frecuencia llamado filtro de ecualización o filtro de recepción/ecualización. La figura 3.15b
muestra un modelo conveniente para el sistema, agrupando el efecto de todos los filtros en una solo
sistema equivalente con la siguiente función de transferencia

H ( f ) = H t ( f ) H c ( f )H r ( f ) (3.77)

donde H t ( f ) caracteriza el filtro del transmisor, H c ( f ) al filtro del canal y H r ( f ) el filtro


receptor/ecualizador. Las características de H ( f ) representan la composición de la función de
transferencia del sistema debido a todos los filtros en las varias localizaciones a lo largo de la
cadena transmisor/canal/receptor. En un sistema binario como una forma de onda PCM común, tal
como un NRZ-L, el detector toma una decisión de un símbolo por comparación de la muestra del
pulso recibido con un umbral; por ejemplo, el detector en la figura 3.15 decide que un uno binario
fue enviado si el pulso recibido es positivo, y que un cero binario fue enviado, si el pulso recibido
es negativo. Debido a los efectos de filtrado del sistema, los pulsos recibidos pueden solaparse unos
con otros como se muestra en la figura 3.15b. La cola de un pulso puede “manchar” dentro del
intervalo del símbolo adyacente, por esto interfiere en el proceso de detección y degradación de la
performance de error, tal interferencia es llamada interferencia intersímbolo (ISI). Aun en la
ausencia de ruido, el efecto de filtrado y distorsión introducida en el canal lleva a la aparición de
ISI. Algunas veces H c ( f ) es especificado, y el problema es determinar H t ( f ) y H r ( f ) , para
que el ISI sea minimizado en salida de H r ( f ) .
Nyquist investigó el problema de especificar la forma del pulso recibido para que no ocurra ISI en
el detector. Él demostró que el ancho de banda del sistema mínimo teórico necesario para lograr
detectar Rs símbolos/s, sin ISI, es Rs/2 Hertz. Esto ocurre cuando la función de transferencia del
sistema H ( f ) es rectangular, como lo muestran figura 3.16a. Para sistemas de banda base, cuando
H ( f ) es un filtro con ancho de banda único de 1 2T ( el filtro de Nyquist ideal) , su respuesta al
impulso, la inversa de la transformada de Fourier de H ( f ) es de la forma h(t) = sinc (t/T),
mostrada en la figura 3.16b. Este pulso con forma de sinc (t/T) es llamado pulso de Nyquist ideal;
sus múltiples lóbulos comprenden un lóbulo principal y lóbulos laterales llamados cola anterior y
posterior del lóbulo principal que son de una longitud infinita. Nyquist estableció que si un pulso
de una secuencia recibida es la forma sinc (t/T), los pulsos pueden ser detectados sin ISI. La figura
3.16b ilustra como el ISI es eliminado. Hay dos pulsos sucesivos, h(t) y h(t-T). Aunque h(t) tiene
una largas colas, la figura muestra una cola pasando a través de un valor de amplitud cero en el
instante (t = T) cuando h(t-T) es muestreada, de la misma manera todas las colas pasan a través de
un valor de amplitud cero cuando cualquier otro pulso de la secuencia h(t-kT), k = ± 1, ± 2, ... es
muestreado. Por esto, asumiendo que la temporización del muestreo es perfecta, no habrá
degradación introducida por ISI. Para sistema de banda base, el ancho banda requerido para detectar
1 T pulsos (símbolos) por segundo es igual a 1 2T ; en otras palabras, un sistema con ancho de
banda W = 1 2T = Rs 2 hertz puede soportar una razón de transmisión máxima de
2W = 1 T = Rs símbolos/s sin ISI. Por esto, para el filtrado de Nyquist ideal (y cero ISI), la
máxima razón de transmisión de símbolos por segundo posible, llamada empaquetamiento de
razón-símbolo, es 2 símbolos/s/Hz. Debería ser claro que de la función de transferencia de forma
rectangular del filtro de Nyquist ideal y de la longitud infinita de sus correspondientes pulsos, que
tales filtros ideales no son realizables; ellos solo pueden ser realizados en forma aproximada.
Los nombres "filtro de Nyquist" y "pulso de Nyquist" son con frecuencia usados para describir la
clase general de filtrado y forma de pulso que satisfacen la condición de cero ISI en los puntos de
muestreo. Un filtro de Nyquist es aquel cuya función de transferencia de frecuencia puede ser
representada por la convulsión de una función rectangular con cualquier función par en la
frecuencia. Un pulso de Nyquist es aquel que puede ser representado por una función sinc (t/T)
multiplicada por otra función del tiempo. Debido esto hay un incontable número de filtros de
Nyquist y sus correspondientes formas de pulso. Entre la clase de filtros de Nyquist, los más
populares son los de coseno alzado y raíz cuadrada de coseno alzado, tratados abajo.
Un parámetro fundamental para los sistemas de comunicación es la eficiencia del ancho de banda,
R W , cuyas unidades son bits/s/Hz. Como las unidades implican, R W representan una medida
del throughput de datos por hertz de ancho banda y por esto mide por el recientemente cualquier
técnica de señal utiliza el recurso del ancho de banda. Desde que el ancho de banda de Nyquist
(constraint) dicta que el empaquetamiento razón símbolo máximo teórico sin ISI es 2
símbolos/s/Hz, podríamos preguntarnos que se dice acerca del número máximo de bist/s/Hz. No se
dice nada acerca de bits, directamente; Nyquist trata solamente con pulsos o símbolos, y la
habilidad para detectar sus valores de amplitudes sin distorsión de otros pulsos. Para encontrar
R W para cualquier esquema de señales, uno debería conocer cuántos bits representa cada
símbolo, lo cual es un problema separado. Considerar un set de señales PAM M-ario. Cada símbolo
(que comprende k bits) está representado por una de las amplitudes de los M-pulsos. Para K = 6 bits
por símbolo, el tamaño del set de símbolos es M = 2k = 64 amplitudes. Por esto con PAM 64-ario, la
eficiencia de ancho de banda máxima teórica que es posible sin ISI es 12 bits/s/Hz. (La eficiencia
del ancho de banda es tratado en mayor detalle en el capítulo 9).

3.3.1 Formato de pulsos para reducir ISI

3.3.1.1 objetivos y Trade-off

Mientras más compacto hagamos el espectro de la señal, más grandes será la razón de datos que se
puede transmitir o más grande es el número de usuarios que pueden ser atendidos simultáneamente.
Esto tiene implicaciones importantes para los proveedores de servicios de comunicación, ya que la
mayor utilización del ancho de banda disponible se traduce en mayores ganancias. Programa sobre
los sistemas de comunicación (con excepción de sistema de spread spectrum), nuestro objetivo es
reducir el ancho de banda requerido por el sistema tanto como sea posible. Nyquist nos ha mostrado
una limitación básica para la reducción del ancho de banda. Que pasaría si tratamos de forzar a
nuestro sistema a operar a menores anchos de banda que el mínimo establecido por Nyquist? Los
pulsos podrían expandirse en el tiempo, lo cual podría degradar la performance de error del sistema
incrementando el ISI. Un objetivo prudente sería comprimir el ancho de banda de los impulsos de
datos a algún ancho de banda razonablemente pequeño pero más grande que el ancho de banda
mínimo de Nyquist. Esto se logra por el formato o conformación de los pulsos con un filtro de
Nyquist. Si la transición del filtro se próxima al rectángulo en la figura 3.16a, entonces el espectro
de señal puede hacerse más compacto. Sin embargo, un filtro tiene una respuesta al impulso de
duración aproximadamente infinita, como se indica en la figura 3.16b. Cada pulsos se extiende
dentro de muchos otros pulsos en la secuencia entera. Respuestas de larga duración exhiben colas
de gran magnitud cerca del lóbulo principal de cada pulso. Tales colas son indeseables debido a,
como se muestra en la figura 3.16b, que ellas contribuyen con ISI cero solamente cuando el
muestreo es ejecutado a exactamente el tiempo de muestreo correcto; cuando las colas son largas,
errores de temporización pequeños resultarán en ISI. Por esto, aún con espectro compacto provee
una utilización óptima del ancho de banda, es muy susceptible a la degradación por ISI inducida por
errores de temporización.

3.3.1.2 filtro coseno alzado

Anteriormente fue establecido que el filtro receptor es frecuentemente referido como filtros
ecualizador, cuando este es configurado para compensar la distorsión por el transmisor y el canal.
En otras palabras, la configuración de este filtro es elegido para optimizar la función de
transferencia de frecuencia del sistema compuesto H ( f ) , mostrado en la ecuación (3.77). Una
función de transferencia frecuentemente usada H ( f ) perteneciente a la clase de Nyquist (cero ISI
en los tiempos de muestreo) es llamado filtro coseno alzado. Que puede ser expresado como

 1 para f < 2W − W0
  π f + W − 2W0 

H ( f ) =  cos 2  
 para 2W − W0 < f < W
  4 W − W0 
 0 para f > W

Donde W es el ancho banda absoluto y Wo = 1 / 2T representa el mínimo ancho de banda de


Nyquist para el espectro rectangular y los –6 dB de ancho de banda (o punto de amplitud media)
para el espectro de coseno alzado. La diferencia W - Wo indica el ancho de banda en exceso, lo cual
significa ancho banda adicional basada del mínimo de Nyquist (por ejemplo para un espectro
rectangular, W es igual a Wo). El factor de roll-off es definido como r = W − W0 W0 ,
donde 0 ≤ r ≤ 1 . Esto representa el exceso de ancho de banda dividido por el ancho de banda del
filtro a – 6dB (el ancho de banda de exceso fraccional). Para un Wo dado, el roll-off r específica el
ancho de banda de exceso requerido como una fracción de Wo y caracteriza la pendiente del filtro.
Las características de coseno alzado son mostradas en la figura 3.17 para valores de roll-off de r =
0, r = 0,5 y r = 1. Para r = 0 ese caso del mínimo ancho de banda de Nyquist. Notar que cuando r =
1 el ancho banda requerido en exceso es del 100%, y las colas son bastante pequeñas. Un sistema
con tal característica espectral puede proveer una razón de símbolo de Rs símbolos/s usando el
ancho de banda de Rs hertz (dos veces el ancho de banda mínimo de Nyquist), esto produce un
empaquetamiento de razón de símbolo de 1 símbolo/s/Hz. La correspondiente respuesta al impulso
para H ( f ) de la ecuación 3.78 es
cos[2π (W − W0 )t ]
h(t ) = 2.W0 (sin c 2W0 t ) (3.79)
1 − [4(W − W0 )t ]
2

Y es dibujado en la figura 3.17b para r = 0, r = 0,5 y r = 1. Las colas tienen un valor de cero en cada
tiempo de muestreo del pulso, sin importar el valor de roll-off.
Sólo se puede implementar aproximadamente el filtro descrito por la ecuación 3.79, ya que,
estrictamente hablando, el espectro coseno alzado no es físicamente realizable (por la misma razón
que el filtro de Nyquist ideal es no realizable). Un filtro realizable debe tener una respuesta al
impulso de duración finita y exhibir un valor de cero para tiempos anteriores a la excitación, las
cuales no son características del caso de la familia de coseno alzado. Éstos filtros no realizables son
no causales (la respuesta al impulso tiene duración infinita, y el pulsos dictado comienza en un
tiempo t = - ∞). Un filtro conformado de pulso debería satisfacer los requerimientos. Debería
proveer el roll-off deseado, y debería ser realizable (la respuesta al impulso necesita ser truncada a
una longitud finita).
Comenzando con el ancho de banda de Nyquist en el que el ancho de banda del sistema mínimo
requerido es W para una razón de símbolo de Rs símbolos/s sin ISI es Rs / 2 hertz, una relación más
general entre el ancho de banda requerido y de razón de transmisión de símbolo involucra el factor
de roll-off y puede ser establecido como

1
W = (1 + r )Rs (3.80)
2

Por esto, con r = 0, la ecuación 3.80 describe el mínimo ancho de banda requerido para el filtrado de
Nyquist ideal. Para r > 0, hay una expansión del ancho de banda más allá del mínimo de Nyquist;
debido esto, para este caso, Rs es ahora menos que dos veces el ancho de banda. Si el demodulador
saca una muestra por símbolo, entonces el teorema de Nyquist ha sido violado, ya que hemos
dejado muy pocas muestras para reconstruir la forma de onda analógica sin ambigüedad (se produce
aliasing). Sin embargo, para un sistema de comunicación digital, no nos interesa la reconstrucción
de la forma de onda analógica. Ya que la familia de filtros coseno alzado se caracteriza por cero ISI
en los tiempos en que los símbolos son muestreados, aún podemos lograr una detección sin
ambigüedad. Las señales pasa banda-moduladas (ver capítulo 4), como ASK (amplitude shift
keying) PSK ( phase shift keying), requieren dos veces el ancho de banda de transmisión que las
señales equivalentes en banda base. Tales señales trasladadas en frecuencia, que ocupan dos veces
el ancho de banda que ocuparían en banda base, son consecuencias llamadas señales de doble banda
lateral (DSB double sideband). Por esto, para señales moduladas en ASK y PSK, la relación entre el
ancho de banda requerido WDSB y la razón de transmisión de símbolo Rs es

WDSB = (1 + r )Rs

Recordar que la función de transferencia en frecuencia del coseno alzado describe la H ( f )


compuesta que representa el viaje completo desde el comienzo del mensaje (como un impulso) en el
transmisor, su paso por el canal, y el filtro del receptor. El filtrado en el receptor realiza la parte de
compensación, de la función de transferencia global, para alcanzar cero ISI, como lo hace el coseno
alzado. Con frecuencia se elige el filtro del transmisor y el filtro del receptor de forma tal que sean
la raíz cuadrada del coseno alzado (SQRC). Siempre que un filtro ecualizador separado se introduce
disminuir los efectos del ISI introducido por el canal, el filtro receptor y el filtro ecualizador debería
ser configurados en forma conjunta para compensar la distorsión causada por el transmisor y el
canal, y así producir una función de transferencia del sistema global caracterizada por cero ISI.
Mientras más grande sea el factor de roll-off, más pequeñas en amplitud serán las colas de los
pulsos. Las amplitudes más pequeñas de las colas implican menor sensibilidad a los errores de
temporización y por esto reducen la degradación por ISI. Notar en la figura 3.17b, para r = 1, los
errores de temporización puedan resultar aún en alguna degradación por ISI. Sin embargo, el
problema no es tan serio como puede ser caso del cual r = 0, porque las colas de la forma de onda
de h(t) son mucho más pequeñas en amplitud para r=1 que las para r = 0. El costo es mayor ancho
de banda en exceso. Por otro lado, mientras más pequeño sea el valor de roll-off del filtro, menor
será el ancho de banda en exceso, esto nos permitirá incrementar la razón de señal (velocidad de
transmisión) o bien el número de usuarios que pueden utilizar simultáneamente sistema. El costo
son colas de los pulsos de mayor longitud y amplitud, y debido esto, mayor sensibilidad a los
errores de temporización.

3.3.2 Dos tipos de degradación de la performance del error

Los efectos de la degradación en la performance del error en las comunicaciones digitales pueden
ser separadas en dos categorías. La primera se refiere a la degradación en la potencia de la señal
recibida o incremento la potencia del ruido interferente, produciendo una disminución en la relación
señal a ruido o E b N 0 . El segundo tipo distorsión es causada por la interferencia intersímbolo
(ISI). A continuación mostraremos cuan diferentes son los efectos de estos dos tipos de
degradación.
Suponemos que se requiere un sistema de comunicación con una probabilidad de error PB versus
Eb N 0 característica que se corresponde con la línea sólida dibujada en la figura 3.18a. Suponer
que el sistema después de ser configurado y medido no sigue la curva teórica, sino que sigue la
curva de línea de puntos. Una pérdida en la relación E b N 0 viene dada por alguna pérdida en la
señal o incremento en el nivel del ruido o interferencia. Para una probabilidad de error de bit
deseada de 10-5 , lo teóricamente requerido es 10 dB en la relación E b N 0 . Ya que la performance
de nuestro sistema cae un poco de nuestro objetivo, podemos ver de la curva de línea de puntos que,
para la misma probabilidad de error de 10-5, la relación E b N 0 requerida es ahora de 12 dB. Sino
hubiera forma de remediar este problema, que relación E b N 0 se debería tener para lograr cumplir
los requerimientos de la probabilidad de error de bit? La respuesta es 2 dB, por supuesto. Esto
podría ser un problema serio, especialmente si el sistema es limitado en potencia, y hay dificultad
en lograr los 2 dB adicionales. Sin embargo esta pérdida en la relación E b N 0 no es tan terrible
cuando se compara con los posibles efectos de la degradación causada por un mecanismo de
distorsión.
En la figura 3.18b, imaginamos que nuevamente no se cumple con la performance deseada de la
curva de línea sólida. Pero en cambio de sufrir una pérdida en la razón E b N 0 hay una
degradación producida por ISI (dibujada con línea de puntos). Sino hubiera manera de remediar este
problema cuanto más relación E b N 0 se requiere para alcanzar la probabilidad de error de bit
deseada? Podría requerirse una cantidad infinita de E b N 0 , o en otras palabras, no haber una
relación de E b N 0 que pudiera mejorar esta situación. Más E b N 0 no puede ayudarnos cuando
la curva manifiesta una PB irreducible.
Mayor E b N 0 no puede ayudar al problema del ISI. Esto se pude veo observando el solapamiento
de los pulsos en la figura 3.15b; si nosotros incrementamos E b N 0 el porcentaje de solapamiento
no cambia. Los pulsos son sujetos a la misma distorsión. ¿cuál es la solución mas usual para los
efectos de la degradación por ISI?. La solución se encuentra en la técnica llamada ecualización.
Entonces los efectos de distorsión causados por ISI son debido a filtrado en el transmisor y en el
canal; la ecualización puede ser capaz de revertir tales efectos de filtrado no optimo.

Ejemplo 3.3 Requerimiento de Ancho de Banda:

(a) Calcular el mínimo requerimiento de ancho de banda para un canal en banda base de cuatro
niveles de PAM con una tasa de R = 2400 bit si la característica del canal es un coseno alzado
seg
con un exceso de ancho de banda del 100% ( r = 1 )

M = 2k M =4 → k=2

R 2400
Rs = = = 1200 simbolos seg
k 2

El mínimo ancho de banda:

1 1
W = (1 + r )Rs = (2).1200 = 1200 Hz
2 2
Al analizar el mismo caso pero con una propuesta de transmisión en banda pasante, la única
diferencia es haber realizado un traslado en frecuencia.

W = (1 + r )Rs = (2).1200 = 2400 Hz

Ejemplo 3.4 Circuito de Telefonía Digital:

Comparar el ancho de banda de canal telefónico analógico con uno digital. Para el canal telefónico
analógico se asigna un ancho de bada de 3 KHz. En el caso digital la voz es formateada en PCM
con un conversor que toma 8000 muestras por segundo y cada muestra es cuantificada en 256
niveles. La secuencia de bits es transmitida en PCM y recibida con cero ISI.

Solución
El resultado de los proceso de muestreo y cuantización producen palabras PCM tal que cada palabra
(representa una muestra) tiene uno de L=256 niveles diferentes. Si cada muestra fue enviada como
un pulso PAM 256-ary, entonces de la ecuación 3.80 pódemos escribir que el ancho de banda
requerido (sin ISI) para enviar Rs símbolos/seg. sera:

Rs
W≥ Hertz
2

donde el signo igual será cierto solo para el caso de filtros ideales de Nyquist. Como el sistema
telefónico digital usa formas de ondas PCM (binario), cada palabra PCM es convertida a l=log2
L=log2 256=8 bits. Por lo tan to el ancho de banda del sistema requerido para transmitir voz usando
PCM es

WPCM ≥
Rs
2
R
( )
= (Log 2 L ) s = 12 8 bit simbolo (8000 simbolos ) = 32 KHz
2

Los 3 KHz del canal de voz analógico generalmente requieren 4KHz de ancho de banda, incluyendo
la banda de guarda. Por lo tanto el formato PCM, usando cuantizacion de 8 bits y señales binarias
con formas de ondas PCM, requiere por lo menos 8 veces el ancho de banda de un sistema
analógico.

3.3.3 Demodulación y detección de pulsos

3.3.3.1 Filtro acoplado versus filtro convencional

Los filtro convencionales dejan afuera las componentes espectrales no deseadas de las señales
recibidas mientras mantienen alguna medida de fidelidad para señales ocupando un selecto espacio
del espectro, llamado banda pasante. Estos filtros son designados para proveer ganancia uniforme,
una característica de frecuencia versus fase lineal sobre la banda de paso, y una atenuación mínima
sobre el espectro sobrante llamado banda no pasante (stop-band). Un filtro acoplado tiene una
diferente asignación de prioridad, maximiza la SNR de una señal conocida en presencia de AWGN.
Los filtros convencionales son aplicados a señales aleatorias definidas solo por su ancho de banda,
mientras que los filtros acoplados son aplicados a señales conocidas con parámetros aleatorios (tales
como amplitud y tiempo de arribo). El filtro acoplado puede ser considerado como un patrón que es
acoplado a la forma conocida de la señal durante el proceso. Un filtro convencional intenta
preservar la estructura espectral de la señal de interés. En cambio un filtro acoplado modifica
significativamente la estructura temporal por aumento de la energía de la señal acoplada a su patrón.
En general, en un sistema de comunicación digital se utilizan los dos tipos de filtrado en el receptor,
el convencional para proveer aislamiento y alta fidelidad y el acoplado para aumentar la energía a la
señal recibida.

3.3.3.2 Pulso de Nyquist y raiz cuadrada del pulso de Nyquist

Considere una secuencia de impulsos de datos a la entrada del transmisor comparada con la
secuencia resultante de pulsos a la salida de un filtro acoplado coseno alzado. La figura 3.21 los
datos transmitidos son representados por impulsos que ocurren en los tiempos τ0, τ1, ...... El filtrado
ensancha la forma de onda de entrada y retarda las muestras en tiempo. Nosotros usamos la
notación t0, t1, ....., para representar el tiempo en que se reciben las señales. El impulso que fue
transmitido en el tiempo τ0 arribará al receptor en el tiempo t0, correspondiente al comienzo del
pulso de salida. La cola anterior al lóbulo principal del pulso demodulado se refiere a su precursor.
Para un sistema real con una referencia de tiempo fija en el sistema, la causalidad dice que t0≥τ0, y la
diferencia en tiempo entre t0 y τ0 corresponde al retardo de propagación en el sistema. En este
ejemplo el tiempo de duración desde que comienza la demodulación del pulso precursor, es decir en
el momento en que aparece el lóbulo principal o la amplitud pico del pulso demodulado hay un
retardo de 3T (duración de tres tiempos de pulso). Cada pulso de salida en la secuencia es
superpuesto con otros pulsos; cada pulso tiene un efecto sobre el lóbulo principal de tres pulsos
posteriores y tres anteriores. Cuando un pulso es filtrado, dado que este ocupa mas de un tiempo de
símbolo, definiremos el tiempo de soporte del pulso como el numero total de intervalos de símbolos
sobre el cual el pulso persiste. En la figura 3.21, el tiempo de soporte del pulso consiste de seis
intervalos de símbolo.
La respuesta al impulso de un filtro raíz de coseno alzado, se muestra en la figura 3.22a
(normalizada a un valor pico de la unidad, con un rolloff igual a 0.5)

La respuesta impulsional del filtro coseno alzado, llamado pulso Nyquist es mostrado en la figura
3.22b (con la misma normalización y rolloff). Inspeccionando estas dos figuras de pulso, vemos que
ellas tienen una apariencia similar, pero la raíz cuadrada del pulso de Nyquist hace transiciones
ligeramente mas rápido, por lo tanto su espectro (raíz del coseno alzado) entonces su espectro no
decae tan rápidamente como el espectro del pulso de Nyquist (coseno alzado). Otra diferencia es
que el pulso raíz cuadrada de Nyquist no tiene cero ISI (podemos verificar que la cola del pulso en
la figura 3.22a no pasan por cero en los tiempos de muestra).
Sin embargo si el filtro raíz coseno alzado se usa tanto en receptor como en el transmisor, el
producto de estas funciones de transferencias dará el filtro coseno alzado, teniendo una salida de
cero ISI.
Es interesante ver como la raíz cuadrada del pulso de Nyquist aparece a la salida del transmisor y
como el aparece después de la demodulación con un filtro acoplado de raíz de coseno alzado.

La figura 3.23a ilustra un ejemplo de una secuencia enviada de símbolos (+1 +1 –1 +3 +1 +3) de un
set de 4-ary, donde los miembros del alfabeto del set son (±1, ±3). Considerar que la modulación
del pulso es 4-ary PAM, y que los pulsos son realizados con un filtro raíz de coseno alzado,
teniendo un rolloff de 0.5. La forma de onda analógica en esta figura representa la salida
transmitida. Como la forma de onda a la salida de cualquier filtro es retrasada e el tiempo, entonces
en la figura 2.23a, el símbolo de entrada se retarda la misma cantidad que la forma de onda de
salida de forma de alinear la secuencia de mensaje con su correspondiente forma de onda filtrada.
Esto es una vicion conveniente de manera que el lector pueda compara la entrada del filtro con su
salida. Esto es, por supuesto, solo la salida de la forma de onda analógica que es transmitida (o
modulada) sobre un carrier.

La figura 3.23b muestra el mismo retardo de las muestras del mensaje superpuestas con las formas
de onda de salida del filtro acoplado raiz de coseno alzado, produciendo una funcion de
transferencia coseno alzado para todo el sistema.

Permítanos describir un simple test para determinar si la salida filtrada contiene ISI (asumiendo
que no hay ruido). Esto es solo necesario para mostrar la forma de onda filtrada en los tiempos
correspondientes de las muestras originales de entrada; si el valor de la muestra resultante no
cambia con respecto a las del mensaje original, entonces a la salida del filtro no presenta ISI (en los
tiempo de muestra). Cuando las figuras 3.23a y 3.23b se compara con respecto al ISI esta puede
aparentar que la muestra de la forma de onda de la raíz cuadrada de Nyquist de la figura 3.23ª
(salida del transmisor) no producirá las muestras originales exactas; sin embargo, las muestras de la
forma de onda de Nyquist en la figura 3.23b (salida del MF) producirá las muestras originales
exactas. Esto confirma que el filtro de Nyquist produce cero ISI en los puntos de muestra, mientras
que cualquier otro filtro no lo hace.

3.4 ecualización

3.4.1 Caracterización del canal

Muchos canales de comunicaciones (ejemplo:telefono, wireless) pueden ser caracterizados como


filtros lineales limitados en banda con una respuesta al impulso hc(t) y una respuesta en frecuencia:

H c ( f ) = H c ( f ) e jθ c ( f ) (3.82)

donde hc(t) y Hc(f) son el par de transformada de Fourier, |Hc(f)| es la respuesta en amplitud del
canal y θc(f) es la respuesta en fase del canal. En orden para conseguir características de transmisión
ideal (sin distorsión) sobre un canal, esto se mostró en la sección 1.6.3, que con un ancho de banda
W de la señal, |Hc(f)| debe ser constante. También θc(f) debe ser una función lineal de la frecuencia,
lo cual es equivalente a decir que el retardo debe ser constante para todas las componentes
espectrales de la señal. Si |Hc(f)| no es constante con W, entonces el efecto es una distorsión en
amplitud. Si θc(f) no es una función lineal de la frecuencia, con W, entonces el efecto es una
distorsión en la fase. Para muchos canales que exhiben distorsión de este tipo, tales como canales
atenuados, las distorsiones en amplitud y fase por lo general ocurren al mismo tiempo. Para una
secuencia de pulsos transmitidos, tal distorsión se manifiesta como una dispersión o “smearing”, de
modo que un pulso recibida de la secuencia recibida en el demodulador no esta bien definido. El
solapamiento o smearing, conocido como ISI, descrito en la sección 3.3, surge en la mayoría de los
sistemas de comunicación: es uno de los mayores obstáculos para realizar transmisiones de datos a
alta velocidad en canales de banda limitada. En un sentido amplio, el nombre “ecualización” se
refiere a un proceso de la señal o a una técnica de filtrado que es designada para eliminar o reducir
el ISI.
En la figura 2.1, la ecualización esta particionada en dos categorías amplias. La primer categoría,
estimación de la secuencia con máxima probabilidad (MLSE), vincula las dimensiones de hc(t) y
entonces provee recursos para ajustar el receptor al medio de transmisión. La meta de tales ajustes
es para permitir al detector hacer buenas estimaciones de las secuencias demodulada de pulsos
distorsionadas. Con un receptor MLSE, las muestras distorsionadas no son reformadas o
compensadas directamente en un solo paso; por lo tanto, la técnica con la que mitiga el receptor
MLSE es la de ajustarse a si mismo en tal forma que pueda tratar mejor las muestras deformadas
(un ejemplo de este método conocido como ecualización de Viterbi es tratado en la sección 15.7.1).
la segunda categoría, ecualización con filtros, usan filtros para compensar los pulsos deformados.
En esta segunda categoría, el detector es presentado con una secuencia de muestras demoduladas
que el ecualizador modificara o limpiara de ISI.
Una ecualización con filtros es la mas popular y la que se describe en esta sección, para permitir
desmembrarla mas adelante. Los filtros pueden ser descriptos como si ellos fueran dispositivos
lineales que contienen solo elementos con realimentación forward (ecualizadores transversales), o
como si ellos fueran dispositivos no lineales que contienen ambos elementos de realimentación
forward (hacia adelante) y back (hacia atrás) (ecualizadores de decisión feedback). Ellos pueden ser
agrupados de acuerdo a la naturaleza automática de sus operaciones, las cuales pueden ser preset o
adaptive. Ellos también pueden ser agrupados de acuerdo a la resolución del filtro o velocidad de
actualización. ¿Sólo se proporcionan las muestras predetectadas en el limite del símbolo, es decir,
una muestra por el símbolo? Si, la condición es conocida como symbol spaced. ¿Son provistas las
muestras múltiples por cada símbolo? Si, esta condición es conocida como fractionally spaced.
Ahora modificamos la ecuación (3.77) para permitir al filtro receptor/ecualizador ser reemplazado
por un filtro receptor y un filtro ecualizador por separado, definidos por Hr(f) y He(f) como sus
funciones de transferencia respectivamente. Llamaremos a la función de transferencia total como
H(f) la cual pertenece a un filtro coseno alzado, designado como HRC(f). De esta forma
escribiremos:

H RC ( f ) = H t ( f )H c ( f )H r ( f )H e ( f ) (3.83)

H RC ( f ) = Transferencia coseno alzado (Raised Cosine)

En sistemas prácticos, la función de transferencia de canal Hc(f) y su respuesta al impulso hc(t) no


son conocidas con suficiente precisión para permitir al receptor poder designar cero ISI en todo
tiempo. Usualmente, los filtros transmisor y receptor son elegidos para que estén acoplados, de
forma que:

HRC(f) = Ht(f) Hr(f) (3.84)

En esta forma, Ht(f) y Hr(f) tienen funciones de transferencia que son la raíz cuadrada del coseno
alzado. Entonces la función de transferencia del ecualizador necesaria para compensar la distorsión
introducida por el canal es simplemente la inversa de la función de transferencia del canal:

1 1
He( f ) = = . e − jθ c ( f ) (3.85)
Hc ( f ) Hc( f )

Algunas veces se elige en forma intencional una función de transferencia del sistema que manifiesta
ISI en los puntos de muestra. El motivo de esto es para mejorar la eficiencia del ancho de banda,
comparada con el uso de un filtro coseno alzado. Cuando tal designación se hace, la función del
filtro de ecualización no es solo para compensar el ISI introducido por el canal sino que también
para compensar el ISI de los filtros del transmisor y receptor.

3.4.2 Patrón de Ojo

Un patrón de ojo es la imagen que resulta de mediciones de la respuesta de un sistema para señales
de banda base en una determinada forma. En la placa vertical de un osciloscopio conectamos la
respuesta del receptor para una secuencia aleatoria de pulsos. Sobre la placa horizontal conectamos
una onda diente de sierra a la frecuencia de la señal.
En otras palabras, la base de tiempo horizontal del osciloscopio es seteada igual que la duración de
un símbolo (pulso). Este set de formas de ondas superpuestas dentro de cada intervalo de señal se
traduce en una familia de trazas en un intervalo (0, T). La figura 3.24 muestra un patrón de ojo que
resulta de una señal binaria antipodal (pulso bipolar). Debido a que los símbolos de una fuente
aleatoria son algunas veces positivo y otros negativos, y la persistencia de lo mostrado por el tubo
de rayos catódicos nos permite ver el patrón resultante como un ojo. El ancho de la apertura indica
el tiempo sobre el cual la muestra es detectada para ser graficada. Por supuesto, el optimo tiempo de
muestreo corresponde a la máxima apertura de ojo, produciendo la mayor protección contra el
ruido. Si el sistema no fue filtrado (el ancho de banda correspondiente a la transmisión de estos
pulsos de datos es infinito) entonces la respuesta del sistema deberá producir un pulso de rectángulo
ideal. En este caso el patrón de ojo tiende a la forma de una caja. En la figura 3.24, el rango de
diferencia de amplitudes llamado DA es una medida de la distorsión causada por ISI, y el rango de
las diferencias de tiempo de los cruces por cero llamado JT, es una medida del Timing Jitter. La
medida del margen de ruido MN y el error de sensibilidad del Timing ST también son mostrados en
la figura. En general, el uso mas frecuente del patrón de ojo es para medir cualitativamente la
extensión del ISI. Con el ojo cerrado el ISI es incrementado; con el ojo cerrado el ISI es
decrementado.

3.4.3 Tipos de filtros de ecualización

3.4.3.1 Ecualización transversal

Una secuencia usada para ecualizar es con frecuencia elegida para ser una secuencia de ruido, rica
en contenido espectral, la cual es necesaria para estimar la respuesta en frecuencia del canal. En
sentido simple, el entrenamiento puede consistir en enviar un simple pulso angosto
(aproximadamente un impulso ideal) y por consiguiente saber la respuesta al impulso del canal. En
la practica , una señal de pseudo ruido (PN) es preferida en vez de una señal de pulso para la
secuencia entrenada dado que la señal PN tiene una potencia promedio grande y una SNR grande
para la misma potencia pico transmitida. Para describir el filtro transversal, considerar que una señal
de pulso a sido transmitida sobre un sistema designado que tiene una función de transferencia
coseno alzado H RC ( f ) = H t ( f )H r ( f ) . Considerar también que el canal induce ISI, así que el
receptor demodula el pulso distorsionado, como muestra la figura 3.25, tal que los lóbulos laterales
del pulso no pasan por cero en los tiempos de muestra adyacentes al lóbulo principal. La distorsión
puede ser vista como repeticiones positivas y negativas que ocurren antes y después del lóbulo
principal. Para lograr la deseada función de transferencia coseno alzada, el filtro ecualizador deberá
tener una respuesta en frecuencia He(f), como se muestra en la ecuación (3.85), tal que la respuesta
del canal actual multiplicada por He(f) produzca HRC(f). En otras palabras, el filtro ecualizador
podría generar un set de cancelaciones de eco. Dado que estamos interesados en ecualizar las
muestras de la forma de onda en solo unos pocos tiempos de muestras predeterminados, la
designación de un filtro ecualizador puede ser una tarea sencilla.
El filtro transversal, descrito en la figura 3.26, es el mas popular por ser un filtro ecualizador
fácilmente ajustable el cual consiste de un retardo lineal de T segundos por taps (donde T es la
duración del símbolos). En un ecualizador, los valore actuales y pasados de una señal recibida son
linealmente afectados por los coeficientes del ecualizador {cn} y son sumados para producir la
salida. La contribución principal esta dada por el tap central, con la contribución de eco de los otros
taps de la señal principal en cada intervalo de símbolo sobre cambos lados de la señal principal. Es
posible para el filtro tener un numero infinito de taps, entonces los pesos de los tap pueden ser
elegidos para forzar la respuesta al impulso del sistema a ser cero para todos los tiempos de
muestras excepto una, de esta manera hacemos corresponder a He(f) a la inversa de la función de
transferencia del canal en la ecuación (3.85). Dado que una longitud infinita del filtro no es
realizable, uno puede aun especificar prácticamente a un filtro que se aproxime al caso ideal.
En la figura 3.26, la salida de los pesos de los taps son amplificados, sumados y llevados al
dispositivo de decisión. Los pesos de los tap {cn} necesitan ser elegidos para sustraer los efectos de
interferencias de los símbolos adyacentes en el tiempo del símbolo deseado. Considerar que hay
(2N+1) taps con pesos c-N, c–N+1, ..........., cN. Las salidas muestreadas {z(k)} del ecualizador son
entonces halladas por la convolución de las entradas muestreadas {x(k)} con los pesos de los taps
{c(k)} como sigue:

N
z (k ) = ∑ x(k − n)c n k = −2 N ,.........,2 N n = − N ,....., N (3.86)
n=− N

donde k=0, ±1, ±2,...... es un índice de tiempo mostrado entre paréntesis. (el tiempo se puede tomar
sobre algún intervalo de valores). El subíndice n se usa de dos maneras- como un tiempo offset, y
como un identificador de los coeficientes del filtro (el cual es agregado al filtro).
Definimos los vector z y c y la matriz x como:

 z (− 2 N ) c − N 
 #   # 
   
z =  z (0 )  c =  c0  (3.87)
   
 #   # 
 z (2 N )   c N 

 x(− N ) 0 0 " 0 0 
 x(− N + 1) x(− N ) 0 " " " 

 # # # 
 
x =  x(N ) x(N − 1) x(N − 2) " x(− N + 1) x(− N )  (3.88)
 # # # 
 
 0 0 0 " x(N ) x(N − 1)

 0 0 0 " 0 x( N ) 

Podemos describir la relación entre z(k), x(k) y cn en una forma mas compacta:

z = x. c (3.89a)

Y siempre y cuando la matriz x sea cuadrada, con sus columnas y filas de la misma dimensión con
un numero de elementos en c, podemos encontrar c de la siguiente manera:

c = x −1 .z (3.89b)

Adviértanse que el tamaño del vector z y el numero de filas en la matriz x deben ser elegidos para
algún valor, de manera de poder interesarnos en el ISI de los puntos muestreados para removerlo
desde el lóbulo principal del pulso en cuestión. En las ecuaciones 3.86 a la 3.88, el índice k fue
arbitrariamente elegido para permitir 4N+1 puntos de muestras. Los vectores z y c tienen
dimensiones 4N+1 y 2N+1 respectivamente, y la matriz x es no cuadrada con dimensiones 4N+1
por 2N+1. Tales las ecuaciones son referidas para un set ya determinado (ejemplo hay mucho mas
ecuaciones desconocidas). Uno podría resolver un problema en un camino deterministico
conociendo la solución forzada a cero, o en un camino estadística conociendo el mínimo error
cuadrático medio.

Solución forzada a cero. La solución comienza por la disposición de N columnas hacia


arriba y N hacia abajo de la matriz x en la ecuación 3.88, así transformar a x en una matriz
cuadrada de 2N+1 por 2N+1, transformando a z en un vector de dimensiones 2N+1 y produciendo
en la ecuación 3.89a, un set deterministico de 2N+1 de ecuaciones simultaneas. La solución forzada
a cero minimiza la distorsión pico del ISI por selección de los pesos cn de manera que la salida del
ecualizador sea forzada a cero en los puntos de muestras N a cada lado del pulso. En otras palabras,
los pesos son elegidos para que:

1 para k = 0

z(k) =  (3.90)
0 para k = ±1,±2,±3,.......,±N,

La ecuación 3.89 es usada para resolver las 2N+1 ecuaciones simultaneas por el set de 2N+1 pesos
(cn). La longitud requerida del filtro (números de tap) es una función de cuanta interferencia puede
introducir el canal. Para un ecualizador con una longitud infinita, la distorsión pico esta garantizada
para ser minimizada solo si el patrón de ojo esta inicialmente abierto. Sin embargo, para
velocidades de transmisión altas y canales que introducen mucho ISI, el patrón de ojo esta cerrado
después de la ecualización. Como el forzado a cero que produce el ecualizador deja de lado el
efecto del ruido, esta no es la mejor solución.

Ejemplo 3.5 Un ecualizador forzado a cero de 3-taps.

Se supone en la etapa de ajuste se transmite un pulso simple y se utilizan tres retardadores (tap). La
distorsión es la mostrada en la figura:

Fig. 3.25

De modo que los errores son 0.0 , 0.2 , 0.9 , -0.3 , 0.1 , se debe buscar los coeficientes de modo que
los errores se anulen. Las muestras ecualizadas serán:

{z(− 1) = 0 z (0) = 1 z (1) = 0}

z = x.c
0  x(0) x(− 1) x(− 2) c−1   0.9 0.2 0  c−1 
1 =  x(1) x(0) x(− 1)   c  = − 0.3 0.9 0.2  c 
    0    0 
0  x(2) x(1) x(0)   c1   0.1 − 0.3 0.9  c1 

Resolviendo:

c −1  − 0.2140
 c  =  0.9631 
 0  
 c1   0.3448 
Los valores ecualizados del pulso corresponde a k = −3, − 2, − 1, 0, 1, 2, 3
Y usando la ecuación z = x.c que da:

0.0000, -0.0428, 0.0000, 1.0000, 0.0000, -0.0071, 0.0345

La mayor contribución al ISI es 0.0428 que puede ser reducido utilizando mayor número de
retardadores. La suma de todas las magnitudes de ISI es 0.0844.

Solución de mínimo MSE. Un ecualizador mas robusto es obtenido si los pesos de los cn
taps se eligen para minimizar el error cuadrático medio (MSE) de todos los términos de ISI que
suman potencia de ruido a las salidas del ecualizador. El MSE se define como los valores esperados
de la diferencia cuadrática entre el símbolo deseado y el símbolo estimado. Podemos usar el set de
ecuaciones pre-determinadas para obtener una solución MSE por multiplicar ambos lados de la
ecuación 3.89a por xT, la cual producirá:

x T z = x T xc (3.91a)

(3.91b)
R xz = R xx c

donde de Rxz es llamada vector de correlación cruzada y Rxx es llamada matriz de auto correlación
de la señal y ruido a la entrada. En la practica Rxz y Rxx son desconocidas a priori, pero pueden ser
aproximadas por la transmisión de un señal de prueba sobre el canal y usando las estimaciones de
los tiempos promedios para resolver los pesos de los taps de la ecuación (3.91), como sigue:

c = R −xx1 R xz (3.92)

En el caso de soluciones deterministicas forzadas a cero, la matriz x debe ser cuadrada. Pero para
lograr la solución mínima MSE (estadística) uno comienza con un set de ecuaciones
predeterminadas y un matriz x no cuadrada, la cual transformamos a una matriz de auto correlación
cuadrada Rxx, produciendo un set de 2N+1 ecuaciones simultaneas, las cuales conducen a la
obtención de los pesos que minimizan los MSE. El tamaño del vector c y el numero de columnas de
la matriz x corresponden al numero de taps en el filtro ecualizador. Los MODEM de líneas
telefónicas de muy alta velocidad utilizan el criterio de los pesos de MSE, debido a que este es
superior al criterio de la solución forzada a cero; el MSE es mas robusto ante la presencia de ruido y
grandes ISI.

Ejemplo 3.6 Un ecualizador con criterio de mínimo MSE 7-tap

Se supone haber recibido un set de pulsos distorsionados {x(k)} cuyas muestras son:

0.0108, -0.0558, 0.1617, 1.0000, -0.1749, 0.0227, 0.0110

Los instantes de muestra son:

{k = 0, ± 1, ± 2, ± 3, ± 4, ± 5, ± 6}
cual es la muestra de mayor magnitud que contribuye con ISI y cual es la suma de todas las
magnitudes con ISI.
Para siete retardadores (N=3) se puede formar la matriz x de la ecuación 3.88 con dimensiones
4N+1 por 2N+1 igual a 13x7:

Calculando la auto correlación y la correlación cruzada definidas en la ecuación 3.91, se pueden


computar los pesos buscados que son:

-0.0116, 0.0108, 0.1659, 0.9495, -0.1318, 0.0670, -0.0269

Usando estos pesos en la ecuación 3.89 podemos calcular para las 13 muestras ecualizadas z(k) en
los tiempos k=-6, -5, ........, 5, 6. De modo que las muestras ecualizadas serán:

0.0001, -0.0001, 0.0041, 0.0007, 0.0000, -0.0000, 1.0000, 0.0003,- 0.0007, 0.0015, -0.0095,
0.0022, -0.0003

Donde la mayor contribución al ISI es 0.0095 y la suma de todas las magnitudes es igual a 0.0195.

3.4.3.2 Ecualizador de Decisión Feedback

La limitación básica de un ecualizador lineal, tal como el filtro transversal, es su baja performance
sobre canales que tienen un espectro nulo [11]. Tales canales se encuentran frecuentemente en
aplicaciones de radio móvil. Un ecualizador con decisión feedback (DFE) es un ecualizador no
lineal que usa decisiones previas en el detector para eliminar el ISI de los pulsos que son
demodulados. El ISI removido fue causado por la cola de los pulsos previos; en efecto la distorsión
sobre un pulso que fue causado sobre un pulso previo es eliminada.
La figura 3.27 muestra un diagrama en bloques simplificado de un DFE donde el filtro forward y un
filtro feedback pueden hacer el filtro lineal, tal como el filtro transversal.
La figura también ilustra como los pesos del filtro son actualizados adaptivamente. La no linealidad
del DFE proviene de las características no lineales del detector que provee las entradas al filtro
feedback. La idea básica de un DFE es que si el valor del símbolo previamente detectado son
conocidos (las decisiones pasadas se asumen correctas), entonces la contribución del ISI por estos
símbolos puede ser eliminadas a la salida del filtro forward por medio de la resta del símbolo
pasado con apropiado peso. Los pesos tap de forward y feedback pueden ser ajustados
simultáneamente para cumplir un criterio tal que minimice la MSE.
Cuando solamente un filtro forward es usado, la salida del filtro contiene contribución de ruido del
canal de cada muestra en el filtro. La ventaja de una implementación DFE es que el filtro feedback,
el cual trabaja para remover el ISI, opera sobre niveles de cuantizacion sin ruido, y entonces su
salida es libre de ruido del canal.

3.4.4 ecualización preset y adaptiva.

En canales cuyas respuestas en frecuencia son conocidos y la invarianza en el tiempo, las


características de los canales pueden ser medidos y los pesos de los taps del filtro ajustados
acordadamente. Si los pesos permaneces fijos durante la transmisión de los datos, la ecualización se
llama “ecualización preset”; un método muy simple de esta ecualización consiste del seteo de los
pesos de los tap cn acordando algún promedio conocido del canal.
Este fue usado para transmisión de datos sobre líneas telefónicas óbice-grade a menos que 2400
bit/s. Otro método preset consiste en la transmisión de una secuencia generada localmente. La
diferencia entre las dos secuencias se usan en el set cn. El aspecto relevante de este tipo de
ecualización es que esto se hace una vez en el comienzo de la transición o de vez en cuando
(cuando la transmisión es irregular y necesita ser reestablecida).
Otro tipo de ecualización , capaz de seguir las variaciones en el tiempo de una respuesta de canal, es
conocido como ecualización adaptiva. Esta se puede implementar para realizar los pesos de los taps
ajustándolos periódicamente o continuamente. Los ajustes periódicos se hacen por la transmisión
periódica de un preámbulo o una secuencia corta de datos digítales que son conocidos de antemano
por el receptor. El receptor también utiliza el preámbulo para detectar el comienzo de la
transmisión, para setear el nivel del AGC; y alinear los clock internos y osciladores locales con la
señal recibida. Los continuos ajustes son hechos para reemplazar la secuencia conocida con una
secuencia de símbolos de datos estimados desde la salida del ecualizador y tratados como datos
conocidos. Cuando lo realizamos continuamente y automáticamente, el procesó adaptivo (el mas
popular) se refiere a una “decisión directa”, no se la debe confundir con la decisión feedback
(DFE). La decisión directa solo es direccionada para ajustar los pesos de los tap del filtro. Esto se
hace con la ayuda de una señal desde el detector.
El DFE, sin embargo, se refiere a la existencia de un filtro adicional que opera en la salida del
detector y retroalimenta recursivamente una señal a la entrada del detector. También, con el DFE
hay dos filtros, uno feed-forward y otro feedback que procesa el dato y ayuda a tratar el ISI.
Una desventaja del ecualizador preset es que este requiere de un periodo de prueba inicial que debe
ser invocado al comienzo de cualquier nueva transmisión. También un canal de tiempo variable
puede degradar la performance del sistema debido al ISI, dado que los pesos de los tap son fijos. Un
ecualizador adaptivo, particularmente hace una ecualización adptiva con decisión directa, tratando
con éxito la cancelación del ISI cuando la PB debido al error excede el uno por ciento (regla de
thumb). Si la probabilidad de error excede el uno por ciento, el ecualizador de decisión directa no
puede converger. Una solución común a este problema, es inicializar al ecualizador con un proceso
alternativo, tal como un preámbulo para proveer una buena performance de error en el canal y
entonces intercambiar al modo de decisión directa. Para evitar el overhead producido por este
preámbulo, muchos sistemas designados para operar en un continuo modo broascast usan
algoritmos de ecualizacion blind para formar estimaciones iniciales del canal. Estos algoritmos
ajustan los coeficientes del filtro en respuestas a las muestras estadísticas en lugar de respuestas a
decisiones de muestras.
Los ecualizadores automáticos usan técnicas iterativas para estimar los óptimos coeficientes.
Simultáneamente la ecuación descripta en la 3.89 no incluye los efectos de ruido del canal. Para
obtener una solución estable para los pesos del filtro, es necesario que los datos sea promediados
para obtener una señal estadística estable, o la solución ruidosa obtenida de los datos ruidosos
debido al promediado. Consideraciones de algoritmos complejos y mayores estabilidades numéricas
llevan mas frecuentemente a soluciones que promedian el ruido. El mas robusto de esta clase de
algoritmos es el least-mean-square (LMS). Cada iteración de estos algoritmos usan estimaciones
ruidosas del gradiente del error para ajustar los pesos en la dirección de reducir el promedio del
error cuadrático medio. El gradiente del ruido es simplemente el producto e(k) rx de un error
escalar e(k) y el vector de dato rx. El vector rx es el vector de muestras del canal corrompido con
ruido residiendo en el filtro ecualizador en los tiempos k. Antes, un impulso fue transmitido y el
filtro ecualizador opera sobre una secuencias de muestra (un vector) que representa una respuesta al
impulso del canal.
Visualizamos estas muestras recibidas (en forma de tiempo desplazado) como la matriz x.
Considerar que el dato es enviado y de esta manera el vector de muestras recibidas rx a la entrada
del filtro (Figura 3.27) representa la respuesta al dato del canal. El error esta formado de la
diferencia entre la señal deseada a la salida y la señal a la salida del filtro, dada por:

e(k ) = z (k ) − zˆ (k ) (3.93)

donde z(k) es la señal deseada a la salida (una muestra libre de ISI) y ẑ (k ) que es una estimación de
z(k) en los tiempos k a la salida del filtro (en el ecualizador de la figura 3.27), la cual se obtiene
como sigue:
N
zˆ (k ) = cT rx = ∑
n=− N
x(k − n)cn (3.94)

En la ecuación (3.94), la sumatoria representa una convolución de las muestras de los datos de
entrada con los pesos de los taps {cn}, donde cn se refiere a los pesos de los tap nth en los tiempos, y
cT es la respuesta del vector de los pesos en los tiempos k. Seguidamente se muestra el proceso
iterativo que actualiza el set de los pesos en cada tiempo k como:

c(k + 1) = c( K ) + ∆e(k )rx (3.95)


donde c(k) es el vector de los pesos del filtro en los tiempos k, y ∆ es un termino pequeño que limita
el tamaño del paso de los coeficientes y además controla la velocidad de convergencia del algoritmo
así como la varianza de la solución estable. Esta simple relación es una consecuencia del principio
de ortogonalidad, que dice que el error formado por una solución optima es ortogonal al dato
procesado. Como este es un algoritmo recursivo (en los pesos), se debe tener cuidado para asegurar
la estabilidad del algoritmo. La estabilidad se asegura si el parámetro ∆ es mas pequeño que la
reciproca de la energía del dato en el filtro. Cuando es estable, este algoritmo converge en la media
para la solución optima pero posee una varianza proporcional al parámetro ∆. Así, mientras
necesitamos la convergencia del parámetro ∆ para aumentar la velocidad de convergencia pero no
tanto como para desestabilizarlo, también necesitamos que este sea lo bastante pequeño como para
que la varianza sea chica. El parámetro ∆ es usualmente seteado como una cantidad fija y chica para
obtener una solución de los pesos con baja varianza y a su vez estable. Existen esquemas que
permite un ∆ que cambia de valores grandes durante la adquisición inicial, a valores mas pequeños
para la solución estable.
Notar que la ecuación (3.93) a través de la (3.95) se muestran en el contexto de señales reales.
Cuando el receptor es implementado en cuadratura, tal que las señales aparezcan como pares
ordenados, parte real y parte imaginaria ( o en fase y cuadratura), entonces cada línea en la figura
3.27 consistirán de dos líneas, y la ecuación (3.93) a través de la (3.95) necesitaran ser expresadas
con notación compleja. (esta implementación en cuadratura se mostrara con mas detalle en las
secciones 4.2.1 y 4.6).

3.4.5 Velocidad de Adaptación de los Filtro

Los filtros ecualizadores son clasificados por la tasa a la cual la señal de entrada es muestreada. Un
filtro transversal con taps espaciados cada T segundos, donde T es el tiempo de duración del
símbolo, es llamado ecualizador de símbolo espaciado. El proceso de muestrear la salida del
ecualizador a la tasa 1/T causa aliasing si la señal no es estrictamente limitada en banda a 1/T hertz.
La versión con aliasing de la señal puede exhibir espectro nulo [8]. Un filtro update que es mayor
que la tasa de símbolo ayuda a mitigar esta dificultad.
Los ecualizadores que usan esta técnica son llamados ecualizadores fractionally-spaced. Con un
ecualizador de este tipo. Los taps del filtro son espaciados a :

T
T/ ≤ (3.96)
(1 + r )
Donde r denota el exceso de ancho de banda. En otras palabras, el ancho de banda de la señal
recibida es:

W≤
(1 + r ) (3.97)
T

El objetivo es escoger T´ de modo que la función de transferencia del ecualizador Hc(f) quede lo
suficientemente amplia como para que entre todo el espectro de la señal. Note que la señal a la
salida del ecualizador es muestreada a una razón 1/T, pero como los pesos de los taps del
ecualizador están espaciados T´ segundos (la señal de entrada del ecualizador esta muestreada a una
razón de 1/T´), la acción de la ecualización opera sobre la señal recibida antes que estas
componentes de frecuencia sean corrompidas con aliasing.

CONCLUSION

En este capitulo describimos la detección de señales binarias con el agregado de ruido Gaussiano en
términos de dos pasos básicos. En el primer paso la forma de onda recibida es reducida a un simple
numero z(T) y en el segundo paso se hace la decisión de cual señal fue transmitida, sobre la base de
la comparación de z(T) con un umbral. Discutimos cual es la mejor elección de ese umbral.
También vimos que un filtro lineal conocido como filtro acoplado o correlador es la mejor elección
para maximizar la relación señal-ruido y además minimizar la Pe.
Definimos la interferencia ínter símbolo ISI y explicamos la importancia de trabajar con Nyquist
para establecer un ancho de banda mínimo teórico para la detección de símbolos sin ISI.
Particionamos la degradación de la performance de error en dos tipos. El primero es una simple
perdida en la relación señal-ruido. La segunda, resultado de la distorsión, se basa fuera de la curva
de probabilidad de error versus Eb/N0.
Finalmente describimos las técnicas de ecualización que pueden ser usadas para mitigar los efectos
del ISI.

Вам также может понравиться