Вы находитесь на странице: 1из 120

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA

UNAD Escuela de Ciencias Básicas Tecnología e Ingeniería

Procesamiento de Señales Análogas

Indira Cassaleth Garrido

TABLA DE CONTENIDO

UNIDAD 1
Función Par e impar CAPITULO 1. Introducción y términos básicos

Introducción.

Sistemas Lineales Definición de señales y sistemas


Invariantes en el
tiempo Clasificación de señales analógicas

Funciones fundamentales en el procesamiento analógico de señales


Funciones complejas y sinusoides
Funciones singulares
Función impulso
Función Delta
Función escalón Unitario
Función Rampa

Funciones periódicas y no periódica

Transformaciones de escalamiento y desplazamiento en l tiempo

CAPITULO 2. Propiedades de los sistemas

Sistemas lineales

Principio de superposición

Linealidad

Sistemas invariantes en el tiempo

Sistemas lineales invariantes en el tiempo

Homogeneidad

Sistemas series

Sistemas paralelos

CAPITULO 3. Sistemas Lineales

Caracterización
2

Respuesta al impulso

Función de transferencia

UNIDAD 2
CAPITULO 4. Muestreo
Muestreo,
Introducción.
cuantificación y
Análisis de Fourier Muestreo de señales
para señales en
tiempo continuo Aliasing

Frecuencia de Nyquist

Recuperación de una señal muestreada

CAPITULO 5. Cuantificación

Uniforme

No uniforme

Cuantificadores óptimos

CAPITULO 6. Análisis de Fourier para señales en tiempo continuo

Serie de Fourier en tiempo continuo

Convolución y sus propiedades

Ejercicio conceptual
3

UNIDAD 1
CAPITULO 1. Introducción y términos básicos

Introducción.

Cada vez tiene mayor importancia el tratamiento de la señal a nivel de


ingenierías, dado a que el mundo está sumergido en señales. Los seres vivos
producen y procesan señales desde el proceso de producción e interpretación
del habla y, en general, de muchos sonidos, hasta la captura y proceso de las
señales luminosas con nuestro sentido de la vista y nuestro sistema nervioso.

Por otra parte, en la era moderna, el hombre se ha dedicado, con intensidad


exponencial, a construir nuevas señales, procesándolas, almacenándolas o
transmitiéndolas, buscando, por ejemplo, mecanismos para la detección de
fenómenos a distancia.

Este curso tiene como objetivo que los estudiantes manejen los conceptos
básicos y herramientas matemáticas fundamentales para el análisis y síntesis
de sistemas lineales, con enfoque especial de sistemas de comunicación. El
curso está basado en dos unidades fundamentales en donde se tratan los
temas fundamentales para el tratamiento de señales, los cuales serán
fundamentales para el análisis de señales en tiempo discreto; las definiciones,
clasificaciones y formas de representación de las señales en función de sus
variables. Los estudiantes de este curso realizan ejercicios relacionados fuera
de clase, así como trabajos prácticos; algunos de sus trabajos serán realizados
por la herramienta computacional MATLAB.

Definición de señales y sistemas

Una señal se define como una cantidad física que varia con el tiempo, el
espacio o cualquier otra variable o variables independientes; las cuales se
4

pretenden utilizar para transmitir información. Por ejemplo, la voz humana, un


electrocardiograma, un electroencefalograma, etc.. Por ejemplo, las funciones

a. x(t )  3t
b. x(t )  25t
c. x( z, p)  3z  4 zp  5 p

En el inciso a. La señal varia con la variable independiente t (Tiempo) y en b,


varia cuadráticamente con t y en la c se observa una señal que depende de
dos variables independientes z y p. (Unidimensional y multidimensional)

Por ejemplo: A continuación se observa algunos ejemplos de procesamiento


de señales aplicados a la las comunicaciones, procesamiento digital de
imágenes, procesamiento de señales de voz, etc, a través del software MatLab.

5
Original

-5
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7
0
0.067404
0.13481
Modulated

0.20221
0.26961
0.33702
0.40442
0.47183

0 0.01 0.02 0.03 0.04 0.05 0.06


2
Demodulated

-2
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7
Time (Seconds)
Figura 1. Modulación de una señal
Toolboxes de MatLab
5

Figura 2. Procesamiento de imagen


Toolboxes de MatLab

13129 Samples
1

0.8

0.6

0.4

0.2

-0.2

-0.4

-0.6

-0.8

-1
0 0.5 1 1.5 2
Time in seconds

Figura 3. Procesamiento de señales de voz


Toolboxes de MatLab
6

1400

Volume (shares, 10000s) 1200

1000

800

600

400

200

0
04/08 04/13 04/18 04/23 04/28 05/03 05/08 05/13 05/18

Figura 4. Estadísticas del volumen de un taque de aromáticos


Toolboxes de MatLab

Las señales se procesan u operan por medio de sistemas. Cuando una o más
señales de excitación se aplican a una o más entradas del sistema, este
produce una o más señales de respuesta en sus salidas. A continuación se
describe el diagrama de bloques de un sistema simple, en donde se relaciona
la excitación a la entrada del sistema y la respuesta como la salida del mismo.

Excitación Respuesta

Entrada SISTEMA Salida

Figura 5. Esquema de un sistema simple

Un ejemplo del sistema descrito anteriormente es el sistema de


comunicaciones, el transmisor es un dispositivo que produce una señal y el
7

receptor es un dispositivo que adquiere una señal, el canal es la trayectoria que


la señal y/o el ruido toman desde el transmisor y/o fuente de ruido hasta el
receptor.

Señal de
Información
Transmiso Canal Receptor
r

Señal de
información
con ruido

Figura 6. Esquema de un sistema transmisor_receptor

Clasificación de señales analógicas

La primera clasificación que se realizara son las señales en tiempo continuo y


en tiempo discreto. Una señal x(t) es una señal continua si está definida para
todo el tiempo t. Una señal discreta es una secuencia de números, denotada
comúnmente como x[n], donde n es un número entero. Una señal discreta se
puede obtener al muestrear una señal continua.

Clasificación de las señales de acuerdo a su variable independiente y depende


de las características del tiempo que puede ser valor continuo o discreto. Es
continuo si la variable independiente de una señal es continua y es la variable
del tiempo por tanto es una variable de tiempo continua, definida para valores
continuos de la variable independiente.

Es importante recalcar que una señal de tiempo continuo no necesariamente


esta discreta por una función matemática continua ( es decir que representa
una forma de onda continua)

A continuación se describen algunos ejemplos de señales continuas


8

Señaloidal en tiempo continuo


1

0.8

0.6

0.4

0.2
y(t)
0

-0.2

-0.4

-0.6

-0.8

-1
0 2 4 6 8 10 12
t, tiempo

Figura 7. Señal senoidal en tiempo continuo

Señaloidal en tiempo discreto


1

0.8

0.6

0.4

0.2
y(t)

-0.2

-0.4

-0.6

-0.8

-1
0 20 40 60 80 100 120 140
t, tiempo

Figura 8. Señal senoidal en tiempo discreto

Estos dos tipos de señales son muy importantes dentro del procesamiento de
la información; en estos momentos nos centraremos en las funciones de
señales de tiempo continuo.
9

FUNCIONES FUNAMENTALES EN EL PROCESAMIENTO ANALÓGICO DE


LA SEÑAL

Estas funciones tienen la características de ser el pilar fundamental para el


procesamiento de señales., ya que sus conceptos están inmersos dentro de los
teoremas fundamentales del procesamiento de señales.

FUNCIONES COMPLEJAS Y SENOIDES

Las funciones matemáticas se usan para describir señales, por ejemplo


señales senoidales en tiempo continuo están descritas por:

2t
G (t )  A cos( )
T0

El periodo fundamental To y la frecuencia cíclica fundamental fo son reciprocos


simples uno del otro

Funciones de Singularidad

Las funciones de singularidad son un grupo de funciones que están


relacionadas con la función impulso. Aparte de la función impulso están la
función escalón y la función rampa

Función Impulso

La función impulso es más un concepto matemático que una función, que se


define de la siguiente manera:

Infinito , t  0
 (t )  
0, t0
10

0

  (t )dt  1
0

La función es cero para cualquier valor de t, excepto cero.


Cuando la t es cero el valor de la función es infinito
Por definición el área de esta función es igual a uno

Figura 8. Representación gráfica de la función impulso

Función Delta

La función impulso posee algunas propiedades que pueden resultar útiles.

 (t   )  0, t  

También es importante para posteriores desarrollos la propiedad de


desplazamiento o corrimiento.
11

  (t   ) f (t )dt  f

  

  (t   ) f (t )dt    (t   ) f ( )dt  f ( )   (t   )dt  f ( )


  

Función Escalón Unitario

La función escalón unitario se define como la integral de la función impulso


desde el infinito negativo hasta el tiempo. la integral de la función impulso es 0
si el tiempo t es menor que 0, y 1 si el tiempo t es mayor que se define
exactamente el escalón unitario.

0, Para t  0
u (t )  
1, Para t  0

El tipo de escalón unitario corresponde a una salida. El valor de la función en


t = 0, es indefinido. Otros textos lo pueden definir como 1 ó 0. El escalón
unitario está asociado a la gráfica que se describe a continuación.

Figura 9. Representación gráfica de la función Escalón Unitario


12

Función Rampa

La función rampa es la integral de la función escalón. Si se considera que se


está sumando toda el área bajo la función escalón a hasta un tiempo t.

Si t < 0 (cero), el valor de la integral será 0 (cero). Si es mayor que 0 (cero),


entonces el valor será igual a la integral de 1 desde el tiempo 0 hasta el tiempo
t, la cual también tiene el valor t, es decir:

0, Para t  0
ramp(t )  
t , Para t  0

Figura 10. Representación gráfica de la función rampa

Relación Impulso / Escalón

Tal como se puede fácilmente demostrar, la función escalón y la función


impulso están relacionados de la siguiente manera:

t
u (t )    ( )d

y
d
 (t )  u (t )
dt
13

Relación Escalón / Rampa

Análogamente igualmente se demuestra que

t
ramp(t )   u ( )d

y
d
u (t )  ramp(t )
dt

FUNCIONES EXPONENCIALES

Dada la importancia de las funciones exponenciales en el tratamiento de


señales. Dividiremos su estudio en exponenciales continuas y exponenciales
discretas. Y realizaremos ejercicios para observar los diferentes casos que
encontramos dentro del estudio de las mismas.

Señales Exponenciales Continuas

La señales exponenciales continuas están definidas de la siguiente forma

x(t )  Ae ( a jb)t
donde A es la amplitud de la señal exponencial , a componente real y b
componente imaginario. Existen diferentes señales según los valores de a y b,
diferenciándose básicamente tres casos:
14

a. Señales Exponenciales Reales

Para ellas se tiene en cuenta que A Real, a ≠ 0, b = 0. Si a es positiva,


entonces conforme t se incrementa x(t) es una exponencial creciente. Si a es
negativa, entonces x(t) es una exponencial decreciente. Observemos el
comportamiento de la exponencial para los siguientes ejemplos:

Ejemplo: A = 3, a = 0.5, b = 0.

x(t)=A*exp(a*t)
40

35

30

25 Señal Continua: A=3, a=0.5, b=0


x(t)

20

15

10

0
-5 -4 -3 -2 -1 0 1 2 3 4 5
Tiempo (seg)
Figura 11. Señal exponencial creciente

Ejemplo: A = 3, a =- 0.5, b = 0.
15

x(t)=A*exp(-a*t)
40

35

30

25 Señal Continua: A=3, a= -0.5, b=0


x(t)

20

15

10

0
-5 -4 -3 -2 -1 0 1 2 3 4 5
Tiempo (seg)
Figura 12. Señal exponencial decreciente

Ejemplo: A = - 3, a = 0.5, b = 0.

x(t)= -A*exp(a*t)
0

-5

-10

-15
x(t)

-20

-25 Señal Continua: A= -3, a=0.5, b=0


-30

-35

-40
-5 -4 -3 -2 -1 0 1 2 3 4 5
Tiempo (seg)
Figura 11. Señal exponencial creciente, con valores A negativos y a positivo
16

Ejemplo: A =- 3, a = - 0.5, b = 0.

x(t)=-A*exp(-a*t)
0

-5

-10

-15
x(t)

-20

-25 Señal Continua: A= -3, a=-0.5, b=0


-30

-35

-40
-5 -4 -3 -2 -1 0 1 2 3 4 5
Tiempo (seg)
Figura 12. Señal exponencial creciente, con valores A y a negativos

b. Señales Exponenciales Complejas:

Para este tipo de señales se tiene la ecuación x(t )  Ae ( a jb)t , en donde A


como Real y a = 0, b ≠ 0

Esta señal, es muy usada para describir muchos procesos físicos, es periódica
2
con período T  . Usando la relación de Euler se puede escribir en términos
b
de señales senoidales

x(t) = ACos( b t ) + j ASen( b t )


17

Ejemplo: A = - 3, a = 0, b = 0.3

Parte real
3

1
Real x(t)

0 Señal Continua: A=3, a=0, b=0.3

-1

-2

-3
0 20 40 60 80 100 120
Tiempo (seg)

Parte imaginaria
3

1
Imaginaria x(t)

0 Señal Continua: A=3, a=0, b=0.3

-1

-2

-3
0 20 40 60 80 100 120
Tiempo (seg)
Figura 13. Señal exponencial componente par e impar. Para b=0, a: negartivo
18

c. Señales Exponenciales Generales

Para este caso se tiene que A es Real, a ≠ 0, b ≠ 0.


El caso más general de una exponencial compleja.
Si a >0, x(t) corresponde a senoidales multiplicadas por una exponencial
creciente. Si a <0, x(t) corresponde a senoidales multiplicadas por una
exponencial decreciente. Para ello, se utiliza relación de Euler de la siguiente
forma:

x(t)  A * eat [Cos( b t )  j Sen( b t )]

Ejemplo: A = 3, a = 1, b = 4

x 10
20 Parte real
1.5

0.5
Real x(t)

Señal Continua: A=3, a=1, b=4


-0.5

-1
0 100 200 300 400 500 600
Tiempo (seg)
19

x 10
19 Parte imaginaria
8

4 Señal Continua: A=3, a=1, b=4


2
Imaginaria x(t)

-2

-4

-6

-8

-10
0 100 200 300 400 500 600
Tiempo (seg)
Figura 14. Señal senoidales multiplicadas por una exponencial creciente

Ejemplo: Graficar la señal con las siguientes condiciones A = 3, a =- 1, b = 4


20

x 10
-17 Parte real
2

1.5

1
Real x(t)

Señal Continua: A=3, a= -1, b=4


0.5

-0.5

-1
0 100 200 300 400 500 600
Tiempo (seg)

x 10
-17 Parte imaginaria
2

1.5

1
Imaginaria x(t)

Señal Continua: A=3, a= -1, b=4


0.5

-0.5

-1
0 100 200 300 400 500 600
Tiempo (seg)
Figura 15. Señal senoidales multiplicadas por una exponencial decreciente
21

Señales Exponenciales Discretas

Las señales exponenciales discretas se representan matemáticamente como:

xn  Ae ( a  jb ) n

Igualmente, según los valores de a y b, pueden diferenciarse básicamente tres


casos:

Señales Exponenciales Reales: Haciendo la asociación con el ejemplo en


exponenciales continuas y conservando las mismos valores, observaremos los
diferentes casos de las exponenciales

A Real, a ≠ 0, b = 0
Una expresión más general de x[n] sería x[n] = cn , donde c = (e a)

Si a > 0 (c > 1), entonces x[n] es una exponencial creciente.


Si a < 0 (c < 1), entonces x[n] es una exponencial decreciente.
22

x(n)=A*exp(a*n)
40

35

30

x(n) 25 Señal Continua: A=3, a=0.5, b=0


20

15

10

0
-5 -4 -3 -2 -1 0 1 2 3 4 5
Muestra (n)
Figura a.

x(n)=A*exp(-a*n)
40

35

30

25 Señal Continua: A=3, a= -0.5, b=0


x(n)

20

15

10

0
-5 -4 -3 -2 -1 0 1 2 3 4 5
Muestra (n)

Figura b.
23

x(n)= -A*exp(a*n)
0

-5

-10

-15
x(n)

-20

-25 Señal Continua: A= -3, a=0.5, b=0


-30

-35

-40
-5 -4 -3 -2 -1 0 1 2 3 4 5
Muestra (n)

Figura c.
x(n)=-A*exp(-a*n)
0

-5

-10

-15
x(n)

-20

-25 Señal Continua: A= -3, a=-0.5, b=0


-30

-35

-40
-5 -4 -3 -2 -1 0 1 2 3 4 5
Muestra (n)

Figura d.
Figura 15. Señal exponenciales: a. Exponencial creciente, b: exponencial
decreciente, c: exponencial valores A(negativo) , a(positivo), d: exponencial
valores A(negativo) , a(negativo),
24

Señales Exponenciales Complejas

Se partirá de A Real, a = 0, b ≠ 0. Esta señal, es periódica con período N si


Nb= 2m, siendo N y m enteros, en caso contrario la señal es aperiódica.
Usando la relación de Euler se puede escribir en términos de señales
senoidales:

x[n] = ACos( b n ) + j ASen( b n )

Señales Exponenciales Generales

la forma general de una exponencial está dada por A Real, a ≠ 0, b ≠ 0


Utilizando la relación de Euler se puede escribir:

x[n] = Acn [ Cos( b n ) + j Sen( b n )]

Si a > 0 (c > 1), entonces x[n] es una senoidal creciente.


Si a < 0 (c < 1), entonces x[n] es una senoidal decreciente.

Ejemplo: Señal discreta teniendo valores de A = 3, a = 0, b = 0.3


Parte real
3

1
Real x(n)

0 Señal Continua: A=3, a=0, b=0.3

-1

-2

-3
1 2 3 4 5 6 7 8 9 10 11
Muestra (n)
25

Parte imaginaria
3

1
Imaginaria x(n)

0 Señal Continua: A=3, a=0, b=0.3

-1

-2

-3
1 2 3 4 5 6 7 8 9 10 11
Muestra (n)

Figura 16. Señal exponenciales discreta de la forma x[n] = Acn [ Cos( b n ) + j


Sen( b n )]: Para valores de A = 3, a = 0, b = 0.3

Ejemplo: Graficar la señal exponencial discreta para los siguientes valores de


A = 3, a = -1, b = 4.

Observe que a diferencia del ejemplo anterior a presenta un valor diferente de


cero. A continuación se describe los resultados de esta graficación, la cual se
debe comprobar.
26

x 10
-17 Parte real
1.4

1.2

1
Real x(n)

0.8

0.6

0.4

0.2

0
1 1.5 2 2.5 3 3.5 4 4.5 5 5.5 6
Muestra (n)

x 10
-31 Parte imaginaria
0.5

-0.5
Imaginaria x(n)

-1

-1.5

-2

-2.5

-3
1 1.5 2 2.5 3 3.5 4 4.5 5 5.5 6
Muestra (n)
27

x 10
19 Parte real
12

10

8
Real x(n)

0
1 1.5 2 2.5 3 3.5 4 4.5 5 5.5 6
Muestra (n)

x 10
6 Parte imaginaria
0.5

-0.5
Imaginaria x(n)

-1

-1.5

-2

-2.5

-3

-3.5
1 1.5 2 2.5 3 3.5 4 4.5 5 5.5 6
Muestra (n)
28

SEÑALES PERIÓDICAS Y NO PERIÓDICAS

Una señal continua es periódica con periodo T si existe un valor positivo T tal
que

x(t + T) = x(t), para todo t

Cualquier señal que no sea periódica se llama no periódica o aperiódica. El


valor más pequeño de T que satisface esta ecuación se llama periodo
fundamental.

El recíproco del periodo fundamental es la frecuencia fundamental, se mide en


Hertz (ciclos por segundo) y describe qué tan seguido la señal periódica se
repite.

1
F
T

La frecuencia angular, medida en radianes por segundo, se define como

2

N

Una señal discreta x[n] es periódica si satisface la condición:

x[n] = x[n + N] para todos los enteros n

donde N es un número entero. El valor más pequeño de N que satisface esta


ecuación se llama periodo fundamental.
29

Señales Pares e Impares

Una señal es par si se cumple que x(-t) = x(t) para todo t. Es impar si x(-t) = -
x(t) para todo t. Cualquier señal puede ser expresada como una suma de dos
señales, una de las cuales es par y la otra impar:

x(t )  xe (t )  xo (t )
donde

xe (t ) 
1
x(t )  x(t )
2
xo (t )  x(t )  x(t )
1
2

Generalmente cuando se tienen varias señales multiplicándose se puede


seguir cuatro sencillas reglas, tal como se realiza al multiplicar números con
signo distinto:

a. Par * par = par


b. Par * impar = impar
c. Impar * par = impar
d. Impar * impar = par

TRANSFORMACIONES DE ESCALAMIENTO Y DESPLAZAMIENTO EN EL


TIEMPO

Escalamiento en amplitud

El escalamiento en el tiempo es la transformación funcional mas sencilla, Esta


transformación presenta la siguiente notación:
30

y(t) = A*x(t)

para cualquier valor de t, la transformación multiplica el valor producido de x(t)


por A. La figura17 indica algunos ejemplos de escalamiento en amplitud, en la
figura a se encuentra la señal original x(t), en la b) se encuentra la señal
original multiplicada por una constante con valor de 3, en c) se encuentra la
señal original escalada por un valor –3 y en la d) se muestra la señal original
escalada por el valor de - 1/3. Por tanto el escalamiento en amplitud es una

transformación de la variable dependiente y.

Funcion original, x(t)


2.5

1.5

1
amplitud (cm)

0.5

-0.5

-1

-1.5
-5 -4 -3 -2 -1 0 1 2 3 4 5
tiempo, t

a) Señal Original, x(t)


31

Funcion original, y(t)=3*x(t)


8
7
6
5
4
3
amplitud (cm) 2
1
0
-1
-2
-3
-4
-5
-6
-5 -4 -3 -2 -1 0 1 2 3 4 5
tiempo, t

b) señal y(t) = 3*x(t)

Funcion original, y(t)=--3*x(t)


6

2
amplitud (cm)

-2

-4

-6

-8
-5 -4 -3 -2 -1 0 1 2 3 4 5
tiempo, t

c) señal y(t) = -- 3*x(t)


32

Funcion original, y(t)=--(1/3)*x(t)


0.5

amplitud (cm) 0

-0.5

-1
-5 -4 -3 -2 -1 0 1 2 3 4 5
tiempo, t

d) señal y(t) = -(1/3)*x(t)


Figura 17. Grafica de escalamiento en amplitud

Desplazamiento en el tiempo

El desplazamiento en el tiempo atiende a la una de las transformaciones:

a. tt  to
b. tt + to

en donde to es una constante arbitraria. En el caso del inciso a, tiene el efecto


de desplazar la señal original to unidades a la derecha, en el caso del inciso b,
tiene el efecto de desplazar la señal original to unidades a la izquierda.

En el siguiente figura se ilustra una función y(t) desplazada en el tiempo.


33

Funcion original, y(t)


20
Amplitud

10

-10
-8 -6 -4Funcion
-2 desplazada,
0 2 y(t+1)4 6 8
20 Tiempo, t
Amplitud

10

-10
-8 -6 -4Funcion
-2 desplazada,
0 2 y(t-1)4 6 8
20 Tiempo, t
Amplitud

10

-10
-8 -6 -4 -2 0 2 4 6 8
Tiempo, t
Figura 18. Grafica de desplazamiento en el tiempo

Escalamiento en el tiempo

El escalamiento en el tiempo atiende a la transformación funcional t t/a. Esta


transformación expande la función original horizontalmente (en t) por un factor
a. Si tenemos la transformación funcional t a.t, contrae la función original
horizontalmente (en t) en un factor a. Si a<0, la función también se invertirá en
34

el tiempo. La figura muestra una señal original x(t), y se pide obtener x(t/2) y
x(2t).

Funcion original, y(t)


14

12

10

6
Amplitud

-2

-4

-6
-15 -10 -5 0 5 10 15
Tiempo, t

Funcion escalada (t/2), y(t/2)


14

12

10

6
Amplitud

-2

-4

-6
-15 -10 -5 0 5 10 15
Tiempo, t
35

Funcion escalada (2*t), y(2*t)


14

12

10

6
Amplitud

-2

-4

-6
-15 -10 -5 0 5 10 15
Tiempo, t

Figura 18. Grafica de escalamiento en el tiempo

CAPITULO 2. PROPIEDADES DE LOS SISTEMAS

Sistemas Lineales (SL)

Un sistema es lineal se obtiene cuando la entrada de un sistema dado es


escaldado por un valor, la salida del sistema es escalado por la misma
cantidad. La entrada del sistema lineal, X, produce una salida, Y. Si se escala
en amplitud la señal X por un valor α y es pasada a través del mismo sistema,
la salida también será escalada por el mismo valor α. Como se ilustra a
continuación.
36

Entrada Salida

X S.L Y

αX S.L αY

Figura 19. Grafica de escalamiento en sistemas lineales

Un sistema lineal es aquel que satisface el principio de superposición. El


principio de superposición exige que si dos entradas son sumadas juntas y
pasadas a través del sistema lineal, la salida será equivalente a la suma de las
dos entradas evaluadas individualmente.

Entrada Salida

X1 S.L Y1

X2 S.L Y2

Por medio del principio de superposición se muestra:

X1+Y1 S.L X2+Y2

Figura 20. Principio de superposición

Si esta afirmación se cumple se dice que el sistema es lineal.

La propiedad de escalamiento en amplitud también es válida para el principio


de superposición. Por lo tanto, si las entradas x y y son escaladas por factores
37

α y β, respectivamente, entonces la suma de estas entradas escaladas dará la


suma de las salidas escaladas individualmente.

Entrada Salida

α X1 S.L α Y1

β X2 S.L β Y2

α X1+X2 S.L α Y1+Y2

Figura 21. Grafica de escalamiento en amplitud en el principio de superposición

Sistemas Lineales Invariantes en el Tiempo (SIT)

Un sistema invariante en el tiempo (SIT) tiene la propiedad de que cierta


entrada siempre dará la misma salida, sin consideración alguna a cuando la
entrada fue aplicada al sistema.

Entrada Salida

X(t) SIT Y(t)

X(t-to) SIT Y(t-to)

Figura 22. Grafica de sistemas invariantes en el tiempo

En esta figura, x(t) y x(t−t0) son pasadas a través del sistema TI. Ya que el
sistema TI es invariante en el tiempo, las entradas x(t) y x(t−t0) producen la
misma salida. La única diferencia es que la salida debida a x(t−t0) es cambiada
por el tiempo t0.
38

Si un sistema es invariante en el tiempo o de tiempo variado puede ser visto en


la ecuación diferencial (o ecuación en diferencia) descrita. Los sistemas
invariantes en el tiempo son modelados con ecuaciones de coeficientes
constantes. Una ecuación diferencial (o en diferencia) de coeficientes
constantes significa que los parámetros del sistema no van cambiando a través
del tiempo y que la entrada nos dará el mismo resultado ahora, así como
después.

Sistemas Lineales Invariantes en el Tiempo (LTI)

A los sistemas que son lineales y al mismo tiempo invariantes en el tiempo nos
referiremos a ellos como sistemas LTI . Como se muestra a continuación la
señal de salida es una versión escalada y desplazada en el tiempo de la señal
de entrada.

Entrada Salida

X(t) LTI Y(t)

X(t-to) LTI Y(t-to)

Figura 23. Sistemas LTI

Los sistemas LTI son subconjuntos de los sistemas lineales, estos obedecen al
principio de superposición. En la siguiente figura se puede observar el efecto
de aplicar el tiempo invariante a la definición de sistema lineal del sistema
anterior.

Entrada Salida

X1(t) LTI Y1(t)

X2(t) LTI Y2(t)


39

Aplicando el principio de superposición se tiene:

Entrada Salida

X1(t-t1)+  X2(t-t2) LTI Y1(t-t1)+  Y2(t-t2)

Los Sistemas LTI pueden trabajar en Serie o Paralelo. Si dos o mas sistemas
están en serie uno con otro, el orden puede ser intercambiado sin que se vea
afectada la salida del sistema. Los sistemas en series también son llamados
como sistemas en cascada.

H1 H2

Figura 24. Sistema LTI en Cascada

Si dos o mas sistemas LTI están en paralelo con otro, un sistema equivalente
es aquel que esta definido como la suma de estos sistemas individuales.

H1

H2

H1 + H2

Figura 25. Sistema LTI en paralelo


40

CAPITULO 3. SISTEMAS LINEALES

Función Delta de Dirac

La Función Delta de Dirac, conocida también como el impulso unitario o función


delta es una función infinítamente angosta, infinítamente alta, cuya integral
tiene un valor unitario. Tal vez la manera mas simple de visualizar esto es usar
un pulso rectangular que va de a-(/2) a a+(/2) con una altura de (1/) .
Como se observa a continuación.

(1/)

-/2 /2

Figura 26. Función delta de Dirac

Al momento de tomar su límite, lim0, se puede observar que su ancho tiende a


ser cero y su altura tiende a infinito conforme su área total permanece
constante con un valor de uno. La función del impulso usualmente se escribe
como:

∫−∞∞δ(t) dt=1

por tanto la función se puede representar como:


41

En primera instancia se observara el comportamiento de la función Delta


multiplicada por otra función

f(t) δ(t) =f(0) δ(t)

Esta función es cero en todas partes excepto en el origen, así que básicamente
estamos eliminando el valor de la función de multiplicación al evaluarla en cero.
A primera vista esto no parece tener mayor importancia, porque ya sabemos
que el impulso evaluado en cero es infinito, y todo lo multiplicado por infinito da
un resultado infinito. Pero, ¿qué pasa si integramos el resultado de la
multiplicación?

Propiedad de Desplazamiento

∫−∞∞f(t) δ(t) dt=∫ −∞∞f(0) δ(t) dt= f(0) ∫ −∞∞δ(t) dt= f(0)

Lo que se obtiene es una función evaluada en cero. Si hubiéramos usado


δ(t−T) en vez de δ(t), podríamos haber desplazado f(T). A esto es lo que
llamaremos la propiedad de desplazamiento de la función de Dirac, el cual se
usa frecuentemente para definir el impulso unitario.
42

Esta propiedad es muy útil al momento de desarrollar la idea de convolución la


cual es una de los fundamentos principales para el procesamiento de señales.
Al usar convolución y esta propiedad podemos representar una aproximación a
cualquier resultado de un sistema si se conoce la respuesta al impulso del
sistema y su señal de entrada..

Propiedades de Impulso Unitario

El impulso unitario se puede definir en forma funcional como

δ[t] = 1, si t = 0
0 en otro caso

Las propiedades del impulso unitario son:

1
 ( t)   (t)

 (t)   (-t)
d
 (t)  u (t)
dt
donde u(t) es el escalón unitario.

Impulso de tiempo-discreto (muestreo unitario)

La extensión de la función impulso unitario al tiempo-discreto se convierte en


una trivialidad. Todo lo que realmente necesitamos es darnos cuenta que la
integración en tiempo-continuo equivale a una sumatoria en tiempo-discreto.
Por lo tanto buscaremos una señal que al sumarla sea cero y al mismo tiempo
sea cero en todas partes excepto en el origen.

Impulso de Tiempo-Discreto
43

Se define de la siguiente forma

δ[n] = 1, si n = 0
0 en otro caso

Figura 27. Impulso de Tiempo-Discreto

Al analizar una gráfica de tiempo-discreto de cualquier señal discreta, uno


puede notar que todas las señales discretas están compuestas de un conjunto
de muestras unitarias que están escalados y desplazados en el tiempo. Si
dejamos que el valor de una secuencia en cada entero k sea descrita por s[k] y
la muestra unitaria retrasado que ocurre en k sea escrito como δ[n−k], se
puede escribir cualquier señal como la suma de impulsos unitarios retrasados
que son escalados por un valor de la señal, o por coeficientes de escalamiento.

s[n] = ∑∞ k=−∞… s[k] δ[n−k]

Esta ecuación es una propiedad que solo se aplica a señales de tiempo-


discreto y resulta ser una propiedad muy útil para estas señales.
.
La Respuesta de Impulso

La respuesta de impulso es exactamente lo que su nombre implica- la


respuesta de un sistema LTI, como por ejemplo un filtro, cuando la señal de
44

entrada del sistema es un impulso unitario (o muestra unitaria). Un sistema


puede ser completamente descrito por su respuesta al impulso por las razones
explicadas previamente, ya que todas las señales pueden ser representadas
por una superposición de señales. Una respuesta al impulso da una
descripción equivalente a la dada por una función de transferencia, ya que
existen Transformadas de Laplace para cada una.
.

Función de transferencia

En un sistema lineal e invariante en el tiempo (LTI), se definie la función de


transferencia como la transformada de Laplace de la salida dividida en la
transformada de Laplace de la entrada, bajo condiciones iniciales nulas.

Entrada Salida

X(t) L.T.I Y(t)

La función de transferencia se expresa como

H(s)=Y(s) / X(s)

Si la función de entrada es una función impulsional; es decir,

X(t)=  (t)  X(s)= 1 y H(s)=Y(s)

Las raíces del numerador de H(s) se conoce como ceros y las raíces del
denominador se conoce como polos de la FT. La representación grafica de una
función de transferencia en el plano complejo s se le conoce como diagramas
de polos y ceros.
45

UNIDAD 2

CAPITULO 4. Muestreo

Introducción.

Muchos equipos y dispositivos modernos requieren procesar la señales


analógicas que reciben y convertirlas en señales digitales para poder funcionar.
Harry Nyquist propuso un teorema que ha tenido efectos profundos en la teoría
de información así como el diseño práctico de técnicas de comunicaciones de
datos que implican la digitalización de señales análogas. Nyquist fue un de los
pioneros más importantes de la teoría de comunicación. En 1924, Nyquist
publicó el artículo " Certain Factors Affecting Telegraph Speed." Él observó que
la velocidad de una transmisión en el cable era proporcional a la anchura de las
frecuencias usadas, hoy conocida como la ancho de banda del circuito. En
1928 Nyquist publicó uno segundo artículo importante “Certain Topics in
Telegraph Transmisión Theory”. En ello, Nyquist postuló un teorema que
propuso que muestras tomadas dos veces el valor de la frecuencia mayor de la
señal puede representar la señal perfectamente. El teorema está basado sobre
la asunción que la transmisión es en uno canal sin ruido. Este es un concepto
muy importante, y utilizado en el campo de ingeniería de telecomunicaciones.

Muestreo de señales

Para convertir una señal analógica en digital, se debe realizar una serie de
pasos. Es necesario primero realizar un muestreo o sampling de la señal, es
decir, tomar diferentes muestras de tensiones o voltajes en diferentes puntos
de la onda senoidal. La frecuencia a la que se realiza el muestreo se denomina
razón, tasa o también frecuencia de muestreo y se mide en kilohertz (kHz).
Durante el proceso de muestreo se asignan valores numéricos equivalentes a
46

la tensión o voltaje existente en diferentes puntos de la sinusoide, con la


finalidad de realizar a continuación el proceso de cuantización.

Figura 28. representación física de un sistema de muestreo

En la siguiente figura se ofrece las formas de las tres señales principales:

S(t): Señal a muestrear

: Señal muestreadora

Sd(t): Señal muestreada

Figura 29. Muestreo de señales


47

Teorema del muestreo (Teorema de Nyquist-Shannon)

El muestreo periódico de una señal analógica se realiza cuando tomamos


mediciones de la misma a intervalos iguales. Por ejemplo cuando se graba una
señal de audio a la PC mediante una placa de sonido, el conversor A/D de la
PC estará digitalizando la señal a una cierta frecuencia tal como 11, 22, ó 44
kHz, denominada frecuencia de muestreo. Si la frecuencia de muestreo es muy
baja, es decir mediciones demasiado espaciadas, se perderán “detalles” de la
señal original. Mediante una simple demostración gráfica se puede ver. En las
figuras A-B-C-D hemos representado cuatros señales distintas (en línea azul)
muestreadas periódicamente a igual frecuencia (los círculos rojos denotan las
“muestras”). En A y B las señales aparecen correctamente representadas por
las muestras, en C la velocidad de muestreo parece insuficiente, y en D las
muestras representan una señal como la de B, es decir la señal de D es un
“alias” de la señal de B. Este efecto se denomina en inglés “aliasing”.

A.

B.

C.

D.

Figura 30. Teorema de Nyquist-Shannon


48

El Teorema del Muestreo, o Teorema de Nyquist-Shannon, establece que la


frecuencia mínima de muestreo necesaria para evitar el “aliasing” debe ser.

fs > 2.BW

con fs: frecuencia de muestreo, BW: ancho de banda de la señal a muestrear


BW = fmax - fmin

Para señales con fmin = 0, se puede expresar como


fs > 2 .fmax

Para demostrar el teorema se recurre a los conceptos básicos de series de


Fourier y trigonometría.

Conceptos básicos de Series de Fourier

Una función s(t) periódica en el tiempo, con período T, puede ser representada
por una sumatoria de funciones senoidales del tipo

S (t )  C0  C1 cos(2  f t  1 )  C2 cos(2  2 f t  2 )  C3 cos(2  3 f t  3 )  ... 


Cn cos(2  n f t  1N )
  Ck cos(2  k f t  k1 )

Para k = 0, 1, 2,...,n

Es decir una serie de componentes cosenoidales de amplitud Ck, fase k y


frecuencia fk = k.f múltiplo de la frecuencia fundamental f=1/T (la de la función
representada). Es la conocida serie de Fourier.

La representación de estas amplitudes C k sobre un diagrama Amplitud vs


frecuencia es lo que denominamos diagrama espectral o espectro de
frecuencia de la señal. La componente c 0 es la componente de frecuencia 0
49

(componente de continua). Se puede hablar así de una función S(f), con


dominio 0, f, 2f, 3f...nf e imagen c0, c1, c2, c3... cn.

La señal analógica, que se quiere muestrear, en caso de ser periódica tendrá


un espectro que será una suma de componentes senoidales de frecuencias
espaciadas a intervalos f=1/T o una integral de componentes senoidales de
frecuencias infinitamente próximas entre sí. Por ejemplo, el espectro de
amplitud de una señal s(t) cuadrada sigue una ley S(f)=1/f (pero con las
componentes pares c2, c4, c6... nulas). Este espectro es teóricamente infinito
(ancho de banda infinito). Las señales reales ocupan un ancho de banda finito.
Por ejemplo una señal de audio ocupa un rango de frecuencias entre unos
20Hz y 15 kHz.

Si una señal no es periódica, en vez de una sumatoria de componentes


espaciadas a intervalos 1/T, se tiene una integral (no periódica es período T
infinito, espaciamiento 1/T nulo). La forma de calcular la S(f) de una función no
periódica en el tiempo es mediante la Transformada de Fourier.

Aún así, si una señal es no periódica, sus componentes ocuparán una cierta
banda de frecuencias. Lo que realmente interesa es el espectro de la función
impulso repetitivo, ya que la señal obtenida como muestreo periódico de una
señal analógica equivale al producto de dicha señal analógica por la función
impulso repetitivo.

La función impulso (no repetitivo) d(t1) es aquella que vale 1 en t = t1 y 0 en t 


t1.
La función impulso repetitivo es dr(t)=d(0)+d(T)+d(2.T)+ d(3.T) .... es decir
impulsos espaciados T segundos en el tiempo, o lo que es lo mismo con
frecuencia de repetición f = 1/T.

Esta señal tiene un espectro

Dr(f) = k.[d(0) + d(f) + d(2.f) + d(3.f)+.....], con k cte.


50

Es decir (sin considerar la fase) dr(t)=k.(1+ cos(2..f.t)+ cos(2.2.f.t)+


cos(2.3.f.t)+.... [Ecuación 2]

En las gráficas siguientes se representan en el dominio del tiempo (izquierda)


funciones impulso repetitivo de 10 y 20 Hz y sus espectros correspondientes
(derecha).

Figura 31. Señales en el dominio del tiempo y sus correspondientes espectros

Ya se tienen los elementos para la demostración:

Por trigonometría se tienen que:

cos(a).cos(b) = ½ [cos (a+b) + cos(a-b)] [Ecuación. 3]

Por ejemplo, al multiplicar una señal cosenoidal de amplitud 1 y 5 kHz por una
señal cosenoidal de amplitud 1 y 50kHz resultan dos componentes
cosenoidales de amplitud 0,5 y 45kHz y 0,5 y 55kHz.
51

Figura 32. Señales señoidales a diferentes frecuencias con sus espectros.

Al muestrear la señal analógica s(t) obtenemos una señal s*(t) que equivale al
producto de la señal original por la función impulso repetitivo dr(t) .

s*(t)=s(t).dr(t) [Ecuación 4].

Reemplazando en la Ecuación 4 s(t) por Ecuación 1 y dr(t) por Ecuación 2


(sin considerar la fase ni el factor k en la Ecuación 2) se obtiene

s*(t)=s(t).dr(t)=[c0+c1.cos(2..fa.t)+ c2.cos(2..2.fa.t)+...+
cn.cos(2..n.fa.t)].[k.(1+ cos(2..fs.t)+ cos(2..2.fs.t)+ cos(2..3.fs.t)+....]

con fa frecuencia de la señal analógica y fs frecuencia de muestreo.

aplicando distributiva y la identidad trigonométrica de la Ecuación. 3 se obtiene


una serie de componentes cosenoidales cuyas frecuencias serán

fs fa, fs2.fa, fs 3.fa.....2.fs fa, 2.fs 2.fa, 2.fs 3.fa, ... 3.fs fa, 3.fs 2.fa,
3.fs3.fa...
52

Agrupadas de la siguiente manera

(fs fa, fs2.fa, fs3.fa...)(2.fsfa, 2.fs2.fa, 2.fs3.fa, ...)( 3.fsfa, 3.fs2.fa,


3.fs3.fa...)...

Cada grupo reproduce el espectro de la señal s(t) y su “reflejo” sobre las


componentes fs, 2fs, 3fs.

El mismo análisis es válido para una señal no periódica.

En las gráficas siguientes se ilustra la señal a muestrear y su espectro, la señal


muestreada a una frecuencia f s > fmax, y finalmente la señal muestreada a f s <
fmax, resultando el efecto de “aliasing”.
53

file:///C:/WINDOWS/Archivos temporales de
Internet/Content.IE5/W5MRGDI3/TMuestreo[1].doc
http://www.elprisma.com/apuntes/curso.asp?id=11349

Una de las aplicaciones donde se puede apreciar más el concepto de aliasing


es en el procesamiento de imágenes. El aliasing ocurre cuando se intenta
representar una imagen pero que debido a la resolución resulta que éste sea
incapaz de representar la curva como tal, y por tanto dichas curvas se
54

muestran en pantalla dentadas al estar compuestas por cuadros menudos (los


pixeles). Como se puede observar en las siguientes imágenes

Sin Aliasing Con aliasing

Figura 33. Imágenes con y sin aliasing.

CAPITULO 5. Cuantificación

Introducción

Una vez realizado el muestreo de la señal, se continua con la cuantización


(quantization) de la señal analógica. Para esta parte del proceso los valores
continuos de la sinusoide se convierten en series de valores numéricos
decimales discretos correspondientes a los diferentes niveles o variaciones de
voltajes que contiene la señal analógica origina.

Por tanto, la cuantización representa el componente de muestreo de las


variaciones de valores de tensiones o voltajes tomados en diferentes puntos de
la onda sinusoidal, que permite medirlos y asignarles sus correspondientes
valores en el sistema numérico decimal, antes de convertir esos valores en
sistema numérico binario. Como muestra la siguiente figura 34.
55

Figura 34. Grafica de cuantización de señales

Sin embargo, en esta parte se realizará énfasis en el proceso de cuantificación


de la señal.

Cuantificación

La cuantificación es la conversión de una señal discreta en el tiempo evaluada


de forma continua a una señal discreta en el tiempo discretamente evaluada. El
valor de cada muestra de la señal se representa como un valor elegido de entre
un conjunto finito de posibles valores.

Se conoce como error de cuantificación (o ruido), a la diferencia entre la señal


de entrada (sin cuantificar) y la señal de salida (ya cuantificada), interesa que el
ruido sea lo más bajo posible. Para conseguir esto, se pueden usar distintas
técnicas de cuantificación
56

Cuantificación uniforme

En los cuantificadores uniformes (o lineales) la distancia entre los niveles de


reconstrucción es siempre la misma, como se observa en la siguiente figura:
No hacen ninguna suposición acerca de la naturaleza de la señal a cuantificar,
de ahí que no proporcionen los mejores resultados. Sin embargo, tienen como
ventaja que son los más fáciles y menos costosos de implementar. En la
siguiente figura se ve un ejemplo de cuantificación uniforme:

Figura 35. Grafica de cuantización uniforme

Cuantificación logarítmica

Las señales de voz pueden tener un rango dinámico superior a los 60 dB, por
lo que para conseguir una alta calidad de voz se deben usar un elevado
número de niveles de reconstrucción. Sin embargo, interesa que la resolución
del cuantificador sea mayor en las partes de la señal de menor amplitud que en
las de mayor amplitud. Por tanto, en la cuantificación lineal se desperdician
niveles de reconstrucción y, consecuentemente, ancho de banda. Esto se
puede mejorar incrementando la distancia entre los niveles de reconstrucción
conforme aumenta la amplitud de la señal.
57

Un método sencillo para conseguir esto es haciendo pasar la señal por un


compresor logarítmico antes de la cuantificación. Esta señal comprimida puede
ser cuantificada uniformemente. A la salida del sistema, la señal pasa por un
expansor, que realiza la función inversa al compresor. A esta técnica se le
llama compresión. Su principal ventaja es que es muy fácil de implementar y
funciona razonáblemente bien con señales distintas a la de la voz. Para llevar a
cabo la compresión existen dos funciones muy utilizadas: Ley-A (utilizada
principalmente en Europa) y ley-µ(utilizada en EEUU).

Ley-A :

 Ax x 1
 sgn( x ) si 0  
1  log e A xmax A

c( x)  
 1  log e ( A x / xmax ) x
 xmax 1
sgn( x) si  1
 1  log e A A xmax

Ley-µ :

log e (1   x / xmax )
c( x)  xmax sgn( x)
log e (1   )

En la mayoría de los sistemas telefónicos, A se fija a 87.56 y µ a 255.


La siguiente figura muestra la gráfica de la ley-µ para distintos valores de µ:
58

Figura 36. Grafica de cuantización logarítmica

Cuantificación no uniforme

El problema de la cuantificación uniforme es que conforme aumenta la amplitud


de la señal, también aumenta el error. Este problema lo resuelve el
cuantificador logarítmico de forma parcial. Sin embargo, si se conoce la
función de la distribución de probabilidad, podemos ajustar los niveles de
recontrucción a la distribución de forma que se minimice el error cuadrático
medio. Esto significa que la mayoría de los niveles de reconstrucción se den en
la vecindad de las entradas más frecuentes y, consecuentemente, se minimice
el error (ruido).

La siguiente figura representa la cuantificación no uniforme

Figura 37. Grafica de cuantización no uniforme


59

En la práctica, se puede usar una estimación de la distribución para diseñar los


cuantificadores. Esta estimación se puede obtener a partir de los datos a
cuantificar de forma iterativa.

Cuantificación vectorial

En los métodos anteriores, cada muestra se cuantificaba independientemente a


las muestras vecinas. Sin embargo, la teoría demuestra que ésta no es la mejor
forma de cuantificar los datos de entrada. Resulta más eficiente cuantificar los
datos en bloques de N muestras. El proceso es sencillamente una extensión de
los anteriores métodos escalares descritos anteriormente. En este tipo de
cuantificación, el bloque de N muestras se trata como un vector N-dimensional.
En la siguiente figura se observa un ejemplo de cuantificación vectorial (VQ) en
dos dimensiones:

Figura 38. Grafica de cuantización vectorial

El plano XY está dividido en seis regiones distintas. El vector de entrada (con


dos componentes) se reemplaza se reemplaza por el centroide i (representa
60

todos los vectores de una determinada región i) de la región a la que


pertenece.

La cuantificación vectorial ofrece mejores resultados que la cuantificación


escalar, sin embargo, es más sensible a los errores de transmisión y lleva
consigo una mayor complejidad computacional.

Ruido de cuantificación

Figura 39. Procesos de la conversión A/D.

Se define como error de cuantificación o ruido de cuantificación a la señal en


tiempo discreto y amplitud continua introducida por el proceso de cuantificación
y que resulta de igualar los niveles de las muestras de amplitud continua a los
niveles de cuantificación más próximos. Una vez cuantificadas las muestras
podrán ser codificadas ya que siempre se podrá establecer una
correspondencia biunívoca entre cada nivel de cuantificación y en número
entero. Para el caso del cuantificador ideal se trata del único error que
introduce el proceso.
61

Figura 40. Proceso de cuantificación


http://es.wikipedia.org/wiki/Imagen:FuncionTransferenciaCuantificador.svg

Función de transferencia del proceso de cuantificación. Un intervalo de valores


de entrada (escalón de cuantificación) se corresponde con un único valor de
salida. Así, por cada valor de entrada se obtiene un valor de salida y un error
que, si se resta al de salida, devolvería el valor de entrada. El error es máximo
cuando el valor de entrada es equidistante a sus dos niveles de cuantificación
más próximos (se dice entonces que se encuentra sobre el nivel de decisión).
El error es cero cuando el valor de entrada equivale a un nivel de cuantificación
y, por tanto, al nivel de salida. Se puede observar que la amplitud máxima del
error es de medio escalón de cuantificación (Δ = Escalón de cuantificación)
mientras la señal de entrada se encuentra dentro del rango de cuantificación.

El proceso de convertir una señal en tiempo discreto de amplitud continua (esto


es, en el proceso de muestreo la señal se ha dividido en el tiempo en un
número finito de muestras pero el valor de estas aún no ha sido limitado en
precisión) en una señal discreta en tiempo y amplitud (sus dos dimensiones),
expresando cada muestra por medio de una precisión finita y conocida (en
contraposición a una precisión infinita -en matemática- o indeterminada -en
física-) consecuencia del ajuste a un número finito y determinado de niveles, se
denomina cuantificación. La diferencia que resulta de restar la señal de entrada
a la de salida es el error de cuantificación, esto es, la medida en la que ha sido
necesario cambiar el valor de una muestra para igualarlo a su nivel de
62

cuantificación más próximo. Esta diferencia, entendida como una secuencia de


muestras de tiempo discreto pero de amplitud continua (al igual que la señal de
entrada), puede ser interpretado en la práctica como una señal indeseada
añadida a la señal original (motivo por el que se denomina ruido, aunque no
siempre cumpla con todos los criterios necesarios para ser considerado así y
no distorsión), de modo que se cumple:

Figura 41. Modelo matemático del ruido de cuantificación.

De esta representación se puede extraer

e (n)  x (n)  x(n)


q q
donde

x(n) representa a la secuencia de muestras de amplitud continua a la entrada


del cuantificador
63

xq (n) Es la secuencia de muestras de amplitud discreta (cuantificadas) a la


salida del cuantificador

eq (n) representa a la secuencia de muestras de amplitud continua del error de


cuantificación.

El receptor/lector de x (n) (o de su versión codificada posterior) no tiene la


q
información necesaria para identificar el componente de error eq (n) que

incluye y poder recuperar x(n) . Es decir, la reconstrucción de las muestras


originales de amplitud continua (sin cuantificar) no es posible sólo a partir de
las muestras cuantificadas: falta la información necesaria para distinguir el error
de la señal una vez estos se suman en la cuantificación.

En la Figura 42 es posible verificar que el error de cuantificación eq (n) está


siempre en el rango -Δ/2 a Δ/2 mientras la señal analógica de entrada se
encuentre dentro del rango del cuantificador:

 
  e ( n) 
2 q 2

donde es el tamaño del escalón de cuantificación que viene dado por:

R

L

donde es el rango del cuantificador y el número de niveles de


cuantificación.
64

Figura 42: Grafica de cuantificación de un senoide

La línea roja en la figura 42 corresponde con las muestras (2000 en este


ejemplo para el ciclo completo por lo que produce la ilusión de ser continua) sin
cuantificar (muestras de entrada al cuantificador) de una señal original
sinusoidal sin dither, la verde representa esas mismas muestras de entrada
cuantificadas (salida del cuantificador ideal) y la azul muestra el error de
cuantificación que resulta del proceso de cuantificación.

La relación señal a ruido de cuantificación (SQNR) es para este caso de sólo


24,74 dB con objeto de resaltar el error de cuantificación y su forma. Dicho de
otro modo, la amplitud de la sinusoidal original de entrada (línea roja) es de 7,5
niveles de cuantificación (la máxima amplitud de una sinusoidal que puede
cuantificar un cuantificador por redondeo de 4 bits ya que el nivel de
cuantificación de valor 0 no puede estar centrado al haber un número par de
niveles totales).
65

Con objeto de poner de manifiesto el ruido de cuantificación, a la señal de


entrada sinusoidal de este ejemplo no se le ha añadido Dither (un ruido
analógico que se añade intencionadamente a la señal de entrada antes de la
conversión A/D). En la práctica, y como consecuencia de la lógica y habitual
práctica de añadir dither (véase Ruido o distorsión: la necesidad de añadir
dither), la figura notablemente escalonada de una señal cuantificada como la
ilustrada aquí adquiere el aspecto de la Figura 42 color verde.


En el caso de que el error está limitado en magnitud [es decir, eq (n)  ], el
2
error resultante se denomina ruido granular. Cuando la entrada cae fuera del

rango de cuantificación (recorte), eq (n) es ilimitado y resulta en ruido de

sobrecarga.

Teóricamente, la cuantificación de las señales analógicas resulta siempre en


una pérdida de información (incluso en su caso ideal). Éste es el resultado de
la ambigüedad introducida por la cuantificación. De hecho, la cuantificación es
un proceso no reversible, dado que a todas las muestras a un intervalo inferior
a Δ/2 de un determinado nivel se les asignan el mismo valor. Sin embargo,
discretizar una señal en su otra dimensión (el tiempo) mediante el proceso de
muestreo, no es irreversible tal y como demuestra el teorema de muestreo y si
se cumplen los criterios que impone el propio teorema debido a la naturaleza
periódica y, por tanto, determinista de las señales que se someten a este
proceso y a la limitación del ancho de banda (límite superior a la frecuencia de
los componentes que componen la señal periódica).

Es decir, una onda periódica muestreada cumpliendo los criterios de Nyquist


sólo puede comportarse de un único modo entre dos muestras contiguas y este
comportamiento es totalmente deducible a partir de la serie completa de
muestras de amplitud continua de la señal. La discretización de la dimensión
amplitud (la cuantificación), es, por tanto, el único proceso que introduce un
error teórico (en procesos ideales) sobre la señal original en todo el
procedimiento completo de digitalización de una señal.
66

Espectro y distribución de probabilidad de la amplitud del error de


cuantificación

El ruido de cuantificación es aproximadamente de distribución uniforme en


amplitud y de densidad espectral más o menos constante sobre toda la banda
de Nyquist (hasta la frecuencia crítica) en el supuesto de que el error de
cuantificación no está correlacionado con la señal ni presente periodicidad. En
este caso es posible referirse al error de cuantificación como un ruido blanco
uniforme.

Bajo ciertas condiciones donde la tasa de muestreo y la señal están


relacionados armónicamente, esto es, que alguno de sus componentes
armónicos sea de una frecuencia submúltiplo par de la de muestreo, el error de
cuantificación queda correlacionado y la energía se concentra en los armónicos
de la señal (si bien la potencia del error es, en general, la misma que para el
caso no correlacionado). En este caso, cuando la señal no deseada es función
de la señal de entrada, el error no es un ruido y debe ser descrito como
distorsión.

Cálculo de la relación señal-ruido de cuantificación (SQNR)

Si se cumplen las siguientes suposiciones sobre las propiedades estadísticas

de eq (n) :

1. El error eq (n) se distribuye uniformemente sobre el rango


 
  e q ( n) 
2 2

2. La secuencia de error eq (n) es una secuencia estacionaria de ruido blanco.

En otras palabras, el error eq (n) y el error eq (m) para están

incorrelados.
67

3. La secuencia de error eq (n) está incorrelada con la secuencia x(n) .

4. La secuencia x(n) tiene media cero y es estacionaria.

el efecto del ruido aditivo eq (n) en la señal deseada se puede cuantificar

evaluando la relación (potencia) señal a ruido de cuantificación (SQNR), que se


puede expresar en escala logarítmica (en decibelios o dB) como

Px
SQNR  10 log 10
Pn

donde Px es la potencia de la señal y Pn es la potencia del ruido de

cuantificación.

En adelante y para el resto de los cálculos sobre la potencia promedio del error
de cuantificación, se aceptará que el error cumple con las propiedades
estadísticas descritas. No obstante, en general, estas suposiciones no se
mantienen, por lo que los cálculos que siguen no se entenderán de aplicación
universal. Sin embargo, se mantienen cuando el tamaño del escalón de
cuantificación es pequeño en relación con la señal y la secuencia

x(n) atraviesa varios niveles de cuantificación entre dos muestras sucesivas.

Potencia del error de cuantificación


68

Figura 43: Función de densidad de probabilidad

Función de densidad de probabilidad de los valores del error de cuantificación.


Se trata de una distribución uniforme continua en el rango (-Δ/2, Δ/2). Como se
observa en la figura 43. Su varianza es de Δ²/12 y su desviación estándar (σ e)
está marcada en rojo.

Si el error de cuantificación se mantiene uniforme en el rango (-Δ/2, Δ/2)


(Figura 6), el valor medio del error es, por tanto, cero y la potencia del ruido en
toda la banda de Nyquist con relación al escalón de cuantificación es la

varizanza  2e de esta distribución uniforme:

 
2
1 2 2 1  3   2
Pn   2 e   e p(e)de   e de    
2

 2
  2  12  12

Este resultado coincide con la potencia promedio de una onda triangular o en

dientes de sierra de amplitud máxima (amplitud de pico o cresta) : una

señal en dientes de sierra e(t ) de esta amplitud de pico en el intervalo


correspondiente a un semiciclo (0, π) se puede describir:
69


e(t )  t, para 0  t  
2

Por tanto, la potencia de la señal en dientes de sierra es:


  
1 1 2 1 2 1  2  2 2
Pn   e (t )dt   2 t dt   2  t dt 
2

0  0 4   4  0 12

que coincide con el análisis por la varianza del primer cálculo.

Es importante notar que estos cálculos se refieren a la potencia total del ruido
de cuantificación distribuido en todo el intervalo de frecuencias desde corriente
continua hasta la frecuencia de Nyquist (la mitad de la tasa de muestreo), es
decir, no contempla la reducción de la potencia consecuencia del uso de un
filtro por sobremuestreo en la conversión A/D.

Potencia de una señal armónica (sinusoidal)

Para una señal armónica (sinusoidal) x(t ) de amplitud de pico


2b
A    2b1  , es decir, de máxima amplitud para el rango de
2
convertidor de un bits, la potencia Px , se obtiene:

2 2
1 1
Px  0   (2b1 ) 2 sen 2 (t   )dt 
2
x (t ) dt
2 2 0
2
 1  4b  2
0 sen (t   )dt   8
b1
 ( 2 )  2 2

 2 
70

Conocida la potencia p n del error de cuantificación en función del escalón de

cuantificación y la potencia p x de una señal sinusoidal de amplitud máxima

para un convertidor de rango 2b  siendo el número de bits que


caracteriza al cuantificador, se puede sustituir en la ecuación antes
mencionada del cálculo de la relación SNQR (resultado expresado en dB):

4b  2
P 8 4b12 3
SQNR  10 log x  10 log  10 log  10 log( 4b )
Pn  2
8 2
12
  3   3
 10 log( 4b )  log    10 b log( 4)  10 log    6.0206b  1.7609
  2  2

En ocasiones se describe esta relación sin la constante "1,761". Esto es debido


a que no se ha tenido en cuenta que la relación señal a ruido no es una simple
relación entre amplitudes de pico: se relacionan las potencias de dos señales y
éstas, en relación a su amplitud de pico, dependen de su forma de onda. En el
caso de la aproximación descrita con la constante "1,761", lo que se relaciona
es una sinusoidal pura máxima con un ruido cuya amplitud en las muestras
cumple una densidad de probabilidad uniforme. La necesidad de añadir una
constante resulta del hecho de que la potencia de una sinusoidal es un 50%
mayor que la del ruido de distribución uniforme de idéntica amplitud de pico
[10·log (1,5) ≈ 1,761]. Si la señal de referencia (máxima) no fuera una
sinusoidal pura, este valor sólo sería una aproximación. El uso de una
sinusoidal pura como referencia resulta, por tanto, de una convención.

Es necesario recordar que aunque la aproximación SQNR ≈ 6,0206b + 1,7609


se emplea casi universalmente para la determinación de la relación señal a
ruido de cuantificación máxima teórica de un cuantificador, ésta sólo es un
cálculo preciso para una señal de entrada sinusoidal de máxima amplitud (que
71

cubre todo el rango del cuantificador) y cuyo error de cuantificación cumple las
suposiciones estadísticas descritas en el cálculo de la potencia del error (véase
Ruido o Distorsión).

La relación SQNR aquí mostrada contempla un ruido que se extiende por toda
la banda de Nyquist. Si parte de esta banda se filtra se deberá añadir una
constante para la banda restante.

Valor eficaz (RMS) del error de cuantificación

Si el error de cuantificación se mantiene uniforme en el rango (-Δ/2, Δ/2), el


valor medio del error es, por tanto, cero y el valor eficaz (raíz cuadrática
media o RMS del inglés Root Mean Square) del ruido expresado en escalones
de cuantificación es igual a la desviación estándar de esta distribución
uniforme:

 
2
1 2 2 1 3  3
 e   e p(e)de 
 
2
e de  ( )  

 12 2 3 6
2 2

Es importante recalcar que estos cálculos se refieren al valor eficaz del ruido de
cuantificación distribuido en todo el intervalo de frecuencias desde CC hasta la
frecuencia de Nyquist (la mitad de la tasa de muestreo), es decir, no contempla
la reducción del valor eficaz consecuencia del uso de un filtro por
sobremuestreo en la conversión A/D.

Valor eficaz (RMS) de una señal armónica (sinusoidal)


72

Para una señal armónica (sinusoidal) x(t ) de amplitud de pico

2b
A    2b1 .
2

Es decir, de máxima amplitud para el rango de convertidor de un bits, el valor


eficaz en escalones de cuantificación , se obtiene:

2 2
1 1
x  0   (2b1 ) 2 sen 2 (t   )dt
2
x (t ) dt
2 2 0
 1 2  2b1  2 ( 2b  )
 ( 2 )  0 sen (t   )dt   2 
b1 2

 2 
4

Claro esta, que también es posible deducir la relación señal a ruido de


cuantificación (SQNR) a partir de los valores eficaces del ruido y la señal
sinusoidal máxima para un número determinado de bits mediante:

2 ( 2b )
x 4 3 2
SQNR  20 log  20 log  20 log( 2b )
n 3 ( ) 2
6
  6   6
 20 log( 2b )  20 log    20 b log( 2)  20 log 


 2   6.0206b  1.7609
  2   

La relación SQNR aquí mostrada contempla un ruido que se extiende por toda
la banda de Nyquist. Si parte de esta banda se filtra se deberá añadir una
constante para la banda restante.
73

Ruido o Distorsión

El error de cuantificación no siempre cumple, ni por aproximación, con las


propiedades estadísticas que caracterizan a una señal aleatoria, esto es, no
siempre puede ser descrito como un ruido. Un ruido blanco de espectro
uniforme debe mostrar, al menos, una buena aproximación a las siguientes
propiedades estadísticas:

1. El error eq (n) se distribuye uniformemente sobre el rango

 
  eq (n) 
2 2

2. La secuencia del error eq (n) es una secuencia estacionaria de ruido

blanco. Dicho de otro modo, el error eq (n) y el error eq (m) para m  nno no
muestra correlación. Es decir, no hay periodicidad.

3. La secuencia del error eq (n) no muestra correlación con la secuencia x(n) ,


es decir, con la analógica de entrada al cuantificador.

Figura 44: Ruido de cuantificación

En la figura 44 se muestra ejemplos de ruido de cuantificación de distinta


relación señal-ruido de cuantificación (SQNR) de un único ciclo de 2000
74

muestras correspondientes a una señal armónica (sinusoidal). De arriba a


abajo: 1) Línea negra: error resultante de cuantificación sobre señal original de
amplitud 1,5 escalones de cuantificación (SQNR: 10,18 dB). 2) Línea roja: error
resultante de cuantificación sobre señal original de amplitud 7,5 escalones de
cuantificación (SQNR: 24,74 dB). 3) Línea azul: error resultante de
cuantificación sobre señal original de amplitud 127,5 escalones de
cuantificación (SQNR: 49,77 dB). Línea verde: error resultante de cuantificación
sobre señal original de amplitud 32767,5 escalones de cuantificación (SQNR:
98,19 dB). En todos los casos, la amplitud máxima del error equivale a la mitad
de un escalón de cuantificación y en las cuatro muestras de esta figura el
escalón de cuantificación se muestra con idéntica amplitud.

Cuando el error de cuantificación ni siquiera se aproxima a estos supuestos


estadísticos, el error no debe ser considerado ruido, sino distorsión. Esto es
especialmente notable cuando se cumple al menos una de las tres condiciones
relativas a la señal y su relación con el muestreo y la cuantificación:

1. La relación señal a ruido de cuantificación es baja, es decir, cuando la


amplitud de la señal a cuantificar cubre un rango de pocas decenas de
escalones de cuantificación.

2. Con tasas de muestreo altas en relación con los componentes de frecuencia


más alta de la señal, la secuencia original de muestras a cuantificar se
mantienen dentro del mismo escalón de cuantificación entre dos muestras
consecutivas.

3. Cuando existen componentes cuya frecuencia son submúltiplos enteros de la


tasa de muestreo.

Cuando se da alguna de estas condiciones, si bien no se alteran los valores


generales de potencia del error en todo su espectro (y, por tanto, de la relación
total SQNR), ésta se concentra en armónicos cuya intensidad excede
ampliamente el nivel del ruido cuando éste puede ser considerado como tal.
75

La distorsión, en general, es una propiedad menos tolerable que el ruido. La


energía se acumula en frecuencias determinadas del espectro y la relación de
esta energía con la de la señal de entrada puede ser significativa. En
aplicaciones de audio y vídeo, el fenómeno de la distorsión es mucho más
perceptible que el del ruido.

Existe un modo de asegurar que el error de cuantificación se pueda considerar


siempre un ruido blanco, es decir, que cumpla una buena aproximación a los
tres supuestos estadísticos antes mencionados que caracterizan a este tipo de
ruido: sacrificar relación señal a ruido total (SNR) añadiendo ruido analógico a
la señal analógica antes del proceso de conversión A/D.

Este ruido analógico que se añade intencionadamente antes del proceso de


conversión A/D se denomina Dither (que podría ser traducido al español como
"temblor") y, siendo del correcto tipo y amplitud, asegura que en todas las
circunstancias de muestreo y cuantificación, el error de cuantificación muestre
una densidad espectral de potencia (DEP) compatible con la naturaleza
aleatoria de un ruido.

La necesidad de añadir "dither"

Figura 45: Función densidad de probabilidad de un dither triangular. La


varianza es de Δ²/6 y su desviación estándar (σv) está marcada en rojo.

El dither sacrifica relación señal a ruido total (SNR) a cambio de impedir que la
señal cuantificada pueda mostrar características propias de una distorsión, esto
es, alejarse del ideal de una señal aleatoria como ruido. La reducción teórica de
76

la relación señal a ruido total como consecuencia de la adición correcta de


dither triangular de rango (-Δ, Δ) (Figura 45) a la señal analógica de entrada al
convertidor A/D es de, aproximadamente, 4,77 dB (el equivalente a multiplicar
por tres la potencia del ruido, esto es, 10· log(3) ≈ 4,77), de modo que un
cuantificador de 16 bits, por ejemplo, cuya relación señal sinusoidal máxima a
ruido de cuantificación (SQNR) es de, aproximadamente, 98,09 dB, en la
práctica no puede presentar relaciones señal a ruido (SNR) superiores a los
93,32 dB sólo como consecuencia del uso de dither. Naturalmente, en la
práctica la reducción será aún mayor. Para muchas aplicaciones este sacrificio
debe ser considerado un mal necesario.

Es necesario tener presente que en muchos casos se hace innecesario añadir


dither artificialmente toda vez que la señal a convertir ya incluye un ruido cuya
potencia es suficiente para evitar la necesidad de añadir más, esto es, cuando

la potencia del ruido de la señal iguala o supera la potencia que


resultaría del escalón de cuantificación del cuantificador que se pretende
emplear. Esto es especialmente frecuente en los procesos de cuantificación de
más de 16 bits, donde es habitual que la señal analógica a cuantificar presente
un ruido de potencia o valor eficaz comparable o superior al del hipotético ruido
que resultaría de ese mismo proceso de cuantificación realizado sin añadir
dither. Toda atenuación digital de una señal debe compensar la inevitable
atenuación del dither original añadiendo el perdido en la atenuación. Esto es un
procedimiento habitual en los procesadores digitales de señal (DSP).

Son varios los tipos de dither empleados en la conversión A/D de señales. Si


bien en todos los casos se trata de un ruido de densidad espectral de potencia
(DEP) esencialmente constante en todo el espectro (es decir, blanco), tanto la
distribución estadística de la amplitud que pueden mostrar las muestras de
entrada al cuantificador como la amplitud de pico del dither a añadir puede ser
variable

- Función densidad de probabilidad (FDP) uniforme (RPDF) y amplitud de pico


77

 2
(potencia = ).
2 12
2
- FDP uniforme (RPDF) y amplitud de pico (potencia = ).
3
2
- FDP triangular (TPDF) y amplitud de pico (potencia = ).
6
 2
- FDP gausiana y   (potencia = ).
2 4
Para el cálculo de la potencia del ruido total (dither más el error de
2
cuantificación) tras el proceso de cuantificación, basta añadir a la potencia
12
del dither.

El sobremuestreo en conversión A/D y su relación con el error de


cuantificación

El sobremuestreo en la conversión A/D (que no debe ser confundido con el


sobremuestreo en conversión D/A) consiste en realizar el proceso de muestreo
a una tasa superior a la estrictamente necesaria para la reconstrucción de la
señal a registrar. Esta tasa estrictamente necesaria viene determinada, de
acuerdo con el teorema de muestreo de Nyquist-Shannon, por la frecuencia
límite que se desea registrar en la señal de interés: sólo se podrán registrar
frecuencias por debajo de la mitad de la tasa de muestreo.

En la práctica, y como consecuencia de las limitaciones prácticas de los filtros


analógicos reales, siempre es necesario realizar sobremuestreo en alguna
medida. Por ejemplo, en aplicaciones de audiofrecuencia como el CD de audio,
donde la señal de interés se limita componentes de frecuencias de hasta 20
kHz, se aplica un sobremuestreo de un 10% (k=1,1), aproximadamente,
resultando en una frecuencia límite de 22,05 kHz (tasa de muestreo de 44100
muestras por segundo). Pero este sobremuestreo del 10% sólo tiene por objeto
contemplar las limitaciones prácticas que resultan de una implantación real.
78

En otros diseños, un sobremuestreo aún mayor permite implantaciones


prácticas que minimizan o eliminan la necesidad de filtros antialiasing
analógicos complejos y costosos, esto es, permiten filtros con pendientes de
atenuación suaves y de fase lineal en la banda pasante (ventajas prácticas
que, en algunos casos, se pueden lograr también aplicando técnicas de
sobremuestreo con filtrado digital en la conversión D/A).

http://es.wikipedia.org/wiki/Imagen:DEP_RuidoCuantificacion.svg

Figura 46: Densidad Espectral de Potencia (DEP)

En la figura 46 se muestra Densidad Espectral de Potencia del ruido de

cuantificación (no se muestra señal) para dos tasas de muestreo fs2=2fs1. Es

importante notar que el eje de las ordenadas no representa potencia, sino


potencia por unidad de frecuencia. La potencia en este diagrama es siempre un
área (en verde). La potencia total (área verde) es la misma en los dos casos a y
b (A²/12) por lo que se demuestra que es independiente de la frecuencia de
muestreo, pero la que resulta de una tasa de muestreo doble (b con tasa fs2) se
extiende por un intervalo espectral superior con una densidad de potencia que
es la mitad del caso a.
79

Sin embargo, el sobremuestreo también puede ser empleado para lograr una
mayor relación señal a ruido de cuantificación máxima a la posible para un
número determinado de niveles de cuantificación sin sobremuestro. Esto es así
porque las ecuaciones que se detallan en este artículo se refieren a señales
(sus potencias y valores eficaces) que cubren toda la banda de Nyquist o, dicho
de otro modo, presuponen que todas las posibles frecuencias de la señal
cuantificada son de interés hasta el límite de Nyquist. Si hay sobremuestreo y
los intervalos excedentes del espectro (donde no existen frecuencias de
interés) se eliminan -filtran-, se reducirá la potencia total del ruido de
cuantificación y, consecuentemente, aumentará la relación señal a ruido de
cuantificación (SQNR) máxima en la banda de interés (que con sobremuestreo
sólo es un subconjunto de toda la banda de Nyquist). Para este caso
(sobremuestreo más filtro), las ecuaciones de este artículo para el cálculo de la
potencia (o del valor eficaz) del ruido de cuantificación y de la relación señal a
ruido de cuantificación sobre sinusoidal máxima deberán contemplar como
variable al cociente (k) resultante de dividir la frecuencia crítica (frecuencia de
Nyquist) que resulta de la tasa de muestreo empleada entre el ancho de banda
de interés.

Figura 47: Grafica de análisis de potencia restante y potencia eliminada de una


señal

Si se emplea una tasa de muestreo fs y sólo se tiene interés por registrar


señales con frecuencias hasta fs/4, se estará empleando un factor de
80

sobremuestreo k=2. Si se elimina el ruido correspondiente al espectro que no


es de interés (de fs/4 a fs/2 en este ejemplo y cuya potencia está representada
por el área roja) mediante un filtro pasa-bajo ideal se estará dividiendo la
potencia total del ruido en un factor que será el mismo que el de sobremuestreo
(k), en este caso, la potencia pasaría de Δ²/12 a Δ²/24. La relación señal a ruido
de cuantificación máxima teórica se incrementará en este caso en
10·log(k)=10·log(2)≈3,0103 dB.

Sea igual al ancho de banda (Hz) de la señal de interés (si se trata de una
señal en banda base, la frecuencia más alta de interés que ésta puede

contener) y la tasa (muestras por segundo) de muestreo empleada, el factor


de sobremuestreo se define como:

fs
k
2B
2
La potencia del ruido de cuantificación Pn pasa de para toda la banda de
12
2
Nyquist a tras aplicar el filtro y sólo para la banda de interés.
12k

En el cálculo de la relación señal a ruido de cuantificación máxima, es


necesario añadir una constante ( g, conocida como ganancia del proceso) que
depende del factor k empleado:

g  10 log K

SQNR  6.0206 b  1.7609  g


81

El equivalente en bits bg de esta ganancia de proceso es:

log k
bg  log 4 K   1.661 log k
log 4

De modo que SQNR también se puede expresar:

SQNR  6.0206(b  bg )  1.7609

Así, mediante este procedimiento, es necesario multiplicar por 4 la tasa de


muestreo cada vez que se desea añadir, aproximadamente, 6,0206 dB a la
relación señal a ruido de cuantificación máxima teórica de un cuantificador
determinado. Por ejemplo; si para una señal de 30 kHz de ancho de banda B =
30000 se emplea una tasa de muestreo de 65 millones de muestras por
segundo fs = 65000000 con una cuantificación de 10 bits (SQNR máxima
teórica de 61,967 dB sin sobremuestreo), tendrá una relación señal a ruido de
cuantificación de 92,31 dB para sinusoidal máxima sobre la banda de 30 kHz
exclusivamente, esto es, una ganancia de proceso de 30,35 dB (k ≈ 1083; bg ≈
5).

Por sí solo, el sobremuestreo más el filtrado no es un proceso eficiente para


incrementar la SQNR máxima de un sistema o formato, dado que multiplicar
por 4 la tasa de muestreo equivale a un incremento de la SQNR que se
corresponde con doblar el número de niveles de cuantificación, esto es,
emplear un bit más en la codificación (+6,0206 dB aprox.). Sin compresión de
datos, un CD-Audio genera, para su transmisión o almacenamiento, un caudal
de datos netos de 1,41 Mbps. Un sistema con una cuantificación de 131072
niveles (codificación de 17 bits) en lugar de los 65536 (16 bits) que emplea el
CD-Audio generaría un flujo de datos sólo un 6,25% superior, esto es, de 1,5
82

Mbps. Sin embargo, si se pretende la misma SQNR sólo mediante


sobremuestreo y filtro, será necesario multiplicar por 4 la tasa de muestreo y,
en el mismo factor, el flujo de datos que genera (pasando de 1,41 Mbps a 5,64
Mbps).

Sin embargo, sí existen modelos teóricos que explotan notablemente mejor el


principio del sobremuestreo gracias al uso de técnicas adicionales que
redistribuyen el ruido de cuantificación en el espectro, aumentando la densidad
espectral de potencia en la banda a eliminar y disminuyendo la que
corresponde a la banda de interés: la modulación denominada Sigma-Delta, de
aplicación extendida para señales de ancho de banda bajo o medio-bajo.

Modulación Sigma-Delta

Figura 48: Modulación Delta y sus dos tipos de errores de cuantificación (en
azul).
83

Basado en el principio de sobremuestreo existe un tipo de conversor A/D y D/A


caracterizado por el uso de un tipo de codificación de forma de onda
denominado modulación sigma delta (o modulación ). Estos conversores
explotan eficientemente el principio de sobremuestreo empleando técnicas de
modelado de ruido (del inglés Noise Shaping), y filtrado digital.

Mediante el proceso de diezmado (también descrito como submuestreo o, del


inglés, downsampling), consistente en dividir la tasa de muestreo de una señal
en tiempo discreto por un divisor entero (cualquier valor entero, no
necesariamente diez como se podría pensar por el significado habitual del
verbo diezmar), esto es,

xd n  xnM 

se puede deshacer el sobremuestreo sin pérdida alguna de información


(siempre que sólo se elimine el sobremuestreo en hasta su factor , es decir,
y se haga uso previamente del correspondiente filtrado antialiasing).
Una buena proporción de convertidores A/D hacen uso de modelos de
codificación por modulación para después proceder a la conversión a
modulación por impulsos codificados (PCM).
84

CAPITULO 6. Análisis de Fourier para señales en tiempo


continuo

Serie de Fourier en tiempo continuo

Las técnicas de análisis de Fourier de tiempo continuo son ampliamente útiles


para analizar y conocer las propiedades de la señales y sistemas de tiempo
continuo. Por otro lado, las técnicas del análisis de Fourier de tiempo discreto
son de igual manera útiles en el estudio de señales y sistemas de tiempo
discreto. El origen del análisis de tiempo continuo se atribuye a las
investigaciones realizadas sobre los problemas de la física matemática en el
siglo XVIII, mientras que las herramientas para analizar señales de tiempo
discreto tienen raíces diferentes. Esto proporcionó un segundo entorno en el
cual se realizó gran parte del trabajo inicial sobre señales y sistemas de tiempo
discreto.

En los años 40 y 50 se obtuvo un gran desarrollo en las técnicas de tiempo


discreto y en particular en el uso de las herramientas del análisis de Fourier.
Este impulso se debió al incremento en el uso y en la capacidad de las
computadoras digitales y el desarrollo de métodos de diseño de sistemas de
datos muestreados. Estos sistemas en general requieren del calculo de
numerosas transformadas de Fourier. Por último, en los años 60 se desarrolló
un algoritmo mejor conocido como la transformada rápida de Fourier o FFT, el
cual demostró ser totalmente adecuado para una implementación digital
eficiente y redujo considerablemente el tiempo de computación para las
transformadas. Con esta herramienta muchas ideas interesantes pero poco
prácticas se convirtieron en aplicaciones reales.

Existen varias similitudes entre las técnicas del análisis de Fourier de tiempo
discreto y de tiempo continuo, por ejemplo, las razones básicas de la utilidad de
representar señales en términos de exponenciales complejas son las mismas
para ambos análisis. En particular, si la entrada y la salida de un sistema
linealmente invariable en el tiempo de tiempo discreto son expresadas como
85

combinaciones lineales de exponenciales compleja, entonces los coeficientes


de la representación de la salida pueden ser expresados en términos de los
coeficientes de la combinación lineal que representa la entrada.

Por otro lado existen cierta diferencias, la representación en serie de Fourier de


una señal periódica de tiempo discreto es una serie finita. De hecho, la FFT
depende de manera intrínseca de esta finitud y por consecuencia es un
concepto de tiempo discreto.

Consideraciones Teóricas para la FFT.

El algoritmo para la FFT explota las propiedades de simetría de la exponencial


compleja discreta en el tiempo para reducir el número de multiplicaciones. Para
evaluar una transformada discreta de Fourier con N muestras el algoritmo de la
FFT encuentra su eficiencia cuando N es una potencia de 2. Esta restricción no
afecta el uso práctico de la FFT ya que la longitud de h(n) puede ser
incrementada a la siguiente potencia de 2 aumentando el número adecuado de
ceros.

Debido a la naturaleza discreta del índice de tiempo para señales de tiempo


discreto, el escalamiento en tiempo y en frecuencia asume una forma diferente
con respecto a la de tiempo continuo. Sea x(n) una señal con espectro X().
Consideremos la transformada Y() de y(n).

 
Y ( )   y ( n) e
n  
 j n
  x (  n) e
n  
 j n

1
Sustituyendo m = -n en la ecuación se obtiene:


Y ( )   x(m) e
n  
 j (  ) m
 X ( ) 2
86

Esto es, aplicando la transformada de Fourier.

x(n)  X ( )

Aunque esta última ecuación es similar al caso de tiempo continuo, la


deferencias surgen cuando tratamos de escalar en tiempo y en frecuencia en
lugar de invertir el eje de tiempo.

El resultado que puede ser paralelo a la ecuación correspondiente al análisis


de tiempo continuo es el que se desarrolla a continuación:

xk (n)  x( n k ) Si n es múltiplo de k
xk (n)  0 Si n no es múltiplo de k

Sea k un entero positivo.

En 1807, Fourier, establece en los trabajos presentados en el instituto de


Francia que: cualquier señal periódica puede ser representada por una serie de
sumas trigonométricas en senos y cosenos relacionadas armónicamente.
Los argumentos establecidos por Fourier eran imprecisos y en 1829 Dirichlet
proporcionó las condiciones precisas para que una señal periódica pueda ser
representada por una serie de Fourier.

Fourier obtuvo además, una representación para señales no periódicas, no


como suma de senoides relacionadas armónicamente, sino como integrales de
senoides, las cuales no todas están relacionadas armónicamente. Al igual que
las series de Fourier, la integral de Fourier, llamada Transformada de Fourier,
es una de las herramientas más poderosas para el análisis de sistemas LTI
(Sistema Lineal Invariante en el Tiempo).
87

Representación de una señal periódica

Una señal es periódica si para algún valor positivo T, diferente de cero, se


verifica que:

x(t) = x ( t + T ) para toda t.

Para que una señal periódica pueda representarse por una serie de Fourier,
debe respetar las condiciones de Dirichlet:

 Que tenga un número finito de discontinuidades en el periodo T, en caso


de ser discontinua.
 El valor medio en el periodo T, sea finito.
 Que tenga un número finito de máximos positivos y negativos.
 Si se satisfacen estas condiciones, existe la serie de Fourier y puede
escribirse en la forma trigonométrica como:

x(t )  a0  2(a1 cos  t  a2 cos 2 t  a3 cos 3 t  ...b1 sen t 


b2 sen2 t  b3 sen3 t  ...)

Representándolo en términos de sumatoria:



x(t )  a0  2 ak . cos(k t ) bk .sen(k t )
k 1

Los coeficientes ak y bk, se obtienen mediante el siguiente cálculo integral:

1
ak  
T T
x(t ) cos(k  t )dt
88

1
bk  
T T
x(t ) sen(k  t )dt

CONVOLUCIÓN Y SUS PROPIEDADES

Convolución de Señales


y(t )  x(t ) * h(t )   x( )h(t   )d


Esta operación es muy usada en comunicaciones, análisis armónico, etc.,


permitiendo encontrar fácilmente muchos resultados importantes.

La integral del lado derecho, es decir la integral de convolución, se puede


interpretar como el área bajo la curva resultante del producto entre las
funciones x( ) y h( t - ).

Para esta integral, se han realizado los siguientes cambios de variable:


Para x( t ) se hace el cambio de variable independiente, t = . Para h( t ) se
hace el cambio de variable independiente, t = , además se refleja y se
desplaza la señal t unidades.

El cálculo de la integral se puede realizar de dos maneras, analíticamente


(resolviendo las integrales planteadas) o gráficamente (calculando las áreas
respectivas a partir de los gráficos realizados para las señales).
89

La convolución con (t) se calcula valiéndose de la propiedad de separación


de la función (t), que permite escribir la función x(t) como la suma de infinitos
pulso:


y(t )  x(t ) *  (t )   x(t ) (t   )d  x( )


Además se puede verificar que:

f (t ) *  (t  T )  f (t  T )
f (t  T1 ) *  (t  T2 )  f (t  T1  T2 )
 (t  T1 ) *  (t  T2 )   (t  T1  T2 )
f (t ) *  (t  T )   (t  T )  f (t  T )  f (t  T )

Ejemplo de cálculo de convolución en tiempo continuo

Primero se definirá las señales x ( t ) y h ( t )


t , 0  t  4 
h(t )   
0, En otro caso
y
1,  1  t  1 
x(t )   
0, En otro caso

A continuación se grafican las señales


90

h(t)=t, para 0<=t<=4)


4

3.5

2.5
h(t)

1.5

0.5

0
-5 -4 -3 -2 -1 0 1 2 3 4 5
Tiempo (seg)

x(t)=1, para -1<=t<=1


1

0.9

0.8

0.7

0.6
x(t)

0.5

0.4

0.3

0.2

0.1

0
-5 -4 -3 -2 -1 0 1 2 3 4 5
Tiempo (seg)
91

ahora se observan las dos graficas en el mimo plano, tratando de conservar el


rojo para h(t) y el color azul para x(t).

Funciones
4

3.5

2.5
Amplitud(t)

1.5

0.5

0
-5 -4 -3 -2 -1 0 1 2 3 4 5
Tiempo (seg)

Se cambia la variable t por y se refleja h ( t ); es decir, obtener h(-t)


92

h(-t))
4

3.5

2.5
h(-t)

1.5

0.5

0
-5 -4 -3 -2 -1 0 1 2 3 4 5
Tiempo (seg)
Por tanto graficando las dos funciones en una sola grafica tendríamos

Funciones x(t) y h(-t)


4

3.5

2.5
Amplitud)

1.5

0.5

0
-5 -4 -3 -2 -1 0 1 2 3 4 5
Tiempo (seg)
93

Ahora se desplaza h ( - ), t unidades, consiguiendo h ( t - ) , o lo que es lo


mismo h ( - ( -t)):

Luego se deben tomar en cuenta los diferentes intervalos de t para los cuales
cambia la expresión de x ( t ) · h ( t - ), resolviendo la integral de convolución
para cada intervalo.

Primero se considerará el intervalo entre - < t < -1, en el cual se tiene, para
cualquier valor de t:

Funciones x(t) y h(t+2)


4

3.5

2.5
Amplitud(t)

1.5

0.5

0
-8 -6 -4 -2 0 2 4 6 8
Tiempo (seg)

Resolviendo la integral se tendría

X ( )h(t   )  0
t
Y (t )  X (t ) * h(t )   X ( )h(t   )d  0


Y (t )  0 Para    t  1
94

El segundo intervalo a considerar será - 1 < t < 1, en el cual se tiene, para


cualquier valor de t

Funciones x(t) y h(t+0.5)


4

3.5

2.5
Amplitud(t)

1.5

0.5

0
-8 -6 -4 -2 0 2 4 6 8
Tiempo (seg)

Funciones x(t) y h(-t)


4

3.5

2.5
Amplitud(t)

2
Resultado
1.5

0.5

0
-8 -6 -4 -2 0 2 4 6 8
Tiempo (seg)
95

Funciones x(t) y h(t-0.5)


4

3.5

2.5

Amplitud(t)
2

1.5

0.5

0
-8 -6 -4 -2 0 2 4 6 8
Tiempo (seg)

t   para  1    t
X ( )h(t   )  
0 para valor
t t2 1
Y (t )  X (t ) * h(t )   (t   )d   t 
1 2 2
(t  1) 2
Y (t )  Para  1  t  1
2

El siguiente intervalo a considerar sería 1 < t < 2, en donde:

Funciones x(t) y h(t-t) para 1<t<2


4

3.5

2.5
Amplitud(t)

1.5

0.5

0
-8 -6 -4 -2 0 2 4 6 8
Tiempo (seg)
96

Funciones x(t) y h(t-t) para 1<t<2


4

3.5

2.5
Amplitud(t)

Resultado
2

1.5

0.5

0
-8 -6 -4 -2 0 2 4 6 8
Tiempo (seg)

Como se puede observar la zona verde es el resultado de la operación.

t   para  1    1
X ( )h(t   )  
0 para valor
1
Y (t )  X (t ) * h(t )   (t   )d  2t
1

Y (t )  2t Para 1  t  2

El cuarto intervalo a considerar sería 2 < t < 4, en el cual, para cualquier valor
de t:
97

Funciones x(t) y h(t-t) para 2<t<4


4

3.5

2.5
Amplitud(t)

1.5

0.5

0
-8 -6 -4 -2 0 2 4 6 8
Tiempo (seg)

Funciones x(t) y h(t-t) para 2<t<4


4

3.5

Resultado
3

2.5
Amplitud(t)

1.5

0.5

0
-8 -6 -4 -2 0 2 4 6 8
Tiempo (seg)
98

t   para t  4    1
X ( )h(t   )  
0 para valor
1 t2
Y (t )  X (t ) * h(t )   (t   )d  4  t 
t 4 2
2
t
Y (t )  4  t  Para 2  t  4
2

El último intervalo será 4< t < , en el cual se obtiene para cualquier valor de t

Funciones x(t) y h(t-t) para 4<t<8


4

3.5

2.5
Amplitud(t)

1.5

0.5

0
-8 -6 -4 -2 0 2 4 6 8
Tiempo (seg)
99

X ( )h(t   )  0

Y (t )  X (t ) * h(t )   X ( )h(t   )d  0
t 4

Y (t )  0 Para 4  t  

Finalmente, resumiendo el resultado de x ( t ) * h ( t ) en un gráfico, se obtiene:

Resultado de la convolución de las Funciones x(t) y h(t) para todo t


4.5

3.5

3
Amplitud(t)

2.5

1.5

0.5

0
-6 -4 -2 0 2 4 6 8
Tiempo (seg)

Ahora se describirá la convolución para señales discretas.


100

CONVOLUCION DE SEÑALES DISCRETAS

El concepto de la convolución discreta es la misma que la de


convolución continua. Hay que tener en cuenta que la convolución es
un instrumento poderoso al determinar el resultado de un sistema
después de saber la una entrada arbitraria y la respuesta al impulso
del sistema. Puede muy práctico el calcular la convolución en forma
gráfica para reforzar los conceptos.

Suma De Convolución

La suma de convolución provee una manera matemáticamante


concisa para expresar el resultado de un sistema LTI, basado en una
entrada arbitraria para una señal discreta y saber la respuesta del
sistema. La suma de convolución es expresada de la siguiente forma


yn   xk  hn  k 

Como en el tiempo continuo la convolución es representado por el
símbolo *, y puede ser escrita como:

yn  xn* hn


Realizando una transformación de variables en la suma de
convolución, k=n−k, se puede demostrar fácilmente que la
convolución es conmutativa

xn* hn  hn* xn


La segunda propiedad de la convolución es que es asociativa:

xn* hn* zn  xn* hn* zn


Y por ultimo, la convolución es distributiva
101

xn  hn* zn  xn* zn  hn* zn


El calculo de la convolución entre x(k) y h(k) supone la realización de
los siguientes pasos
a. Reflexión. Se refleja h(k) respecto de K00 para producir h(-k).
b. Desplazamiento. Se desplaza h(-k), n hacia la derecha(izquierda)
si n es positivo (negativo), para obtener h(n-k).
c. Multiplicación. Multiplicamos x(k) por h(n-k) para obtener la
secuencia producto.
d. Suma. Se suman todos los valores de la secuencia, es decir,
todas las respuestas impulsionales del sistema para obtener la
respuesta en el punto indicado.
Ejemplo
Sea la señal la respuesta impulsional de un sistema lineal e invariante
en el tiempo dada por:
h(n)={ -1, 2, 1,-1}

Determine la respuesta al sistema si se tiene una señal de entrada x(n):


x(n)={1, 2, 0,1}

Solución:

Se empieza graficando las señales h(n) y x(n)


102

Señal x(n)
2

1
x[n]

-1

-2
-3 -2 -1 0 1 2 3 4 5 6 7 8 9 10
n
Señal h(n)
2

1
h[n]

-1

-2
-3 -2 -1 0 1 2 3 4 5 6 7 8 9 10
n

Ahora se empezará a calcular. Para n=0, y(0), recuerde los pasos


mencionados anteriormente (reflejar, multiplicar y sumar). Observe que
103

en la siguiente gráfica los valores que tienen contribución es en cero y


uno, ya que al multiplicar los otros valores se encontrará con ceros a
ambos lados.

Señal x(n)
2

1
x[n]

-1

-2
-2 0 2 4 6 8 10
n h(-k)
Señal
2

1
h[n]

-1

-2
-2 0 2 4 6 8 10
n
Por tanto
y[0]=[(1*2) +(2*-1)] = 0;

Ahora se empezará a realizar los desplazamientos de la señal h.


104

Señal x(n)
2

x[n] 1

-1

-2
-5 0 5 10

Señalnh(-2-k)
2

1
h[n]

-1

-2
-5 0 5 10
n
y[-2]=0, debido a que no coinciden ninguna de las componentes de las
dos señales.

Señal x(n)
2

1
x[n]

-1

-2
-2 0 2 4 6 8 10

Señalnh(-1-k)
2

1
h[n]

-1

-2
-2 0 2 4 6 8 10
n
y[-1]=1*-1 = -1;
105

Señal x(n)
2

x[n] 1

-1

-2
-2 0 2 4 6 8 10

Señalnh(1-k)
2

1
h[n]

-1

-2
-2 0 2 4 6 8 10
n
y[1]=[(1*1) +(2*2)+ (0*-1)] = 5;
Señal x(n)
2

1
x[n]

-1

-2
-2 0 2 4 6 8 10

Señalnh(2-k)
2

1
h[n]

-1

-2
-2 0 2 4 6 8 10
n
y[2]=[(1*-1) +(2*1)+ (0*2)+( 1*-1)] = 0;
106

Señal x(n)
2

x[n] 1

-1

-2
-2 0 2 4 6 8 10

Señalnh(3-k)
2

1
h[n]

-1

-2
-2 0 2 4 6 8 10
n
y[3]=[(1*0) +(2*-1)+ (0*1)+( 1*2) +( 0*-1)] = 0;
Señal x(n)
2

1
x[n]

-1

-2
-2 0 2 4 6 8 10

Señalnh(4-k)
2

1
h[n]

-1

-2
-2 0 2 4 6 8 10
n
y[4]=[(1*0) +(2*0)+ (0*-1)+( 1*1) +( 0*2)+..] = 1;
107

Señal x(n)
2

x[n] 1

-1

-2
-2 0 2 4 6 8 10

Señalnh(5-k)
2

1
h[n]

-1

-2
-2 0 2 4 6 8 10
n
y[5]=[(1*0) +(2*0)+ (0*0)+( 1*-1) +( 0*1)+..] = -1;
Señal x(n)
2

1
x[n]

-1

-2
-2 0 2 4 6 8 10

Señalnh(6-k)
2

1
h[n]

-1

-2
-2 0 2 4 6 8 10
n
y[6]=[(1*0) +(2*0)+ (0*0)+( 1*0) +( 0*2)+..] = 0;
108

Desde este punto todas las contribuciones son ceros. Ahora


representemos cada respuesta impulsional y organicemos la ecuación
final y[n]:

Señal y(n)
6

3
y[n]

-1

-2
-6 -5 -4 -3 -2 -1 0 1 2 3 4 5 6 7 8 9 10 11 12
n

Ejercicio: Analice y verifique que y(n)=x(n)*h(n)


109

1.8

1.6

1.4

1.2
x[n]

0.8

0.6

0.4

0.2

0
-5 0 5 10 15 20 25
n

1.8

1.6

1.4

1.2
h[n]

0.8

0.6

0.4

0.2

0
-5 0 5 10 15 20 25
n
110

5
y[n]

0
-5 0 5 10 15 20 25
n

Derivación de Señales

Esta operación, muy usada en el modelado de sistemas, la podemos interpretar


como la velocidad de cambio de la señal. Gráficamente representa su
pendiente.

dx(t )
y (t ) 
dt

Para el modelado de muchos sistemas se usan ecuaciones diferenciales,


definidas como:

N
d k y (t ) M d k x(t )

k 0
ak
dt k
  bk
k 0 dt k
111

Algunos ejemplos de su utilización serían:


- Respuesta de un circuito RC.
- Movimiento de un vehículo sujeto a entradas de aceleración y fuerzas de
fricción.

A partir de una expresión para x(t) en función de señales elementales se puede


obtener su derivada mediante el uso de las siguientes relaciones:

d ramp(t )
u (t ) 
dt

Señal ramp[t]
8

6
ramp[t]

-1 0 1 2 3 4 5 6 7 8 9 10
t
Señal dramp[t]/dt
8

4
u[t]

-1 0 1 2 3 4 5 6 7 8 9 10
t

d u (t )
 (t ) 
dt
112

Señal u[t]
2

1
u[t]

-1
-1 -0.5 0 0.5 1 1.5 2 2.5 3

Señal td u[t]/dt
2

1
d[t]

-1
-1 -0.5 0 0.5 1 1.5 2 2.5 3
t

Ejemplo: Sea la señal x1 (t) como se define a continuación.

x1 (t )  ramp(t )  ramp(t  1)
113

Señal ramp[t]
2

ramp[t] 1

-1
-1 0 1 2 3Señal
4 5 6
ramp[t-1] 7 8 9 10
2 t
ramp[t-1]

-1
-1 0 1 2 Señal
3 ramp[t]-ramp[t-1]
4 5 6 7 8 9 10
2 t
1
x1[t]

-1
-1 0 1 2 3 4 5 6 7 8 9 10
t

Obtenga x2(t). Calculada como:

d x1 (t )
x2 (t ) 
dt

x2 (t )  u(t )  u(t  1)
114

Señal u[t]
2

u[t] 1

-1
-1 0 1 2 3 4
Señal 5
u[t-1] 6 7 8 9 10
2 t
1
u[t-1]

-1
-1 0 1 2 3Señal
4 u[t]-u[t-1]
5 6 7 8 9 10
2 t
1
x2[t]

-1
-1 0 1 2 3 4 5 6 7 8 9 10
t

En el caso de los sistemas discretos estas ecuaciones se conocen como


ecuaciones de diferencias, definidas como:

N M

 a yn  k    b xn  k 
k 0
k
k 0
k

Igualmente las señales elementales discretas están relacionadas mediante las


siguientes ecuaciones de diferencias:

un  rampn  rampn  1


 n  un  un  1
115

Ejemplo:

x2 n  x1n  x1n  1

Señal x1[n]
2
x1[n]

-2
-2 0 2 Señal 4x1[n-1]) 6 8 10
2 n
x1[n-1]

-2
-2 0 2 Señal4 x2[n]) 6 8 10
2 n
x2[n]

-2
-2 0 2 4 6 8 10
n

Integración de Señales

t
y (t )   x( )d


La integración de señales es una operación muy usada en comunicaciones,


análisis espectral, etc., representando gráficamente el área acumulada bajo la
curva que define la señal.
116

Las señales fundamentales, rampa y escalón, están relacionadas por medio de


las siguientes integrales:

t
ramp(t )   u ( )d


Señal u[t]
2

1
u[t]

-1
-1 -0.5 0 0.5 1 1.5 2 2.5 3

Señal tramp(t)
2

1
ramp[t]

-1
-1 -0.5 0 0.5 1 1.5 2 2.5 3
t
t
u (t )    ( )d

117

Señal d[t]
2

1
d[t]

-1
-1 -0.5 0 0.5 1 1.5 2 2.5 3
t u[t]
Señal
2

1
u[t]

-1
-1 -0.5 0 0.5 1 1.5 2 2.5 3
t

Ejemplo: La función x1(t) está definida por:

0, para t  0
2t , para 0  t  3

x1 (t )   2
t , para 3  t  5
2, para 5  t  8
Encuentre x(t) dado por
t
x(t )   x ( )d

1

Integrando por intervalos tenemos:


118

0, para t  0
2
t , para 0  t  3
x(t )   t 3
 , para 3  t  5
3
2t , para 5  t  8

A continuación se puede observar su respuesta gráfica

Señal x1[t]
25

20

15
x1[t]

10

0
-2 0 2 4 6 8 10
t
Señal Resultante
40

30
x[t]

20

10

0
-2 0 2 4 6 8 10
t

Para las señales discretas, la integración no es más que una sumatoria:

n
yn   xk 
k  
119

Igualmente las señales elementales discretas están relacionadas mediante las


siguientes sumatorias:

n
un    k 
k  
n
rampn   uk 
k  

Ejemplo: La señal x2 está expresada por:


n
x2 n   x k  1
k  

Señal x1[n]
2

1
x1[n]

-1

-2
-2 0 2 4 6 8 10

Señaln x2[n])
16
14
12
10
x2[n]

8
6
4
2
0
-2 -1 0 1 2 3 4 5 6 7 8 9 10
n
120

Вам также может понравиться