Вы находитесь на странице: 1из 8

CAPITULO 1 Historia

1.1. HISTORIA DEL PROCESADO DIGITAL DE SEÑALES (DSP)

En este capítulo deseamos explicar cómo el desarrollo de las técnicas matemáticas y la tecnología
informática nos permiten procesar señales del mundo real mediante el uso de sistemas digitales. Esta
perspectiva histórica nos proveerá de la información necesaria para entender el estado actual de la elevada
capacidad de las técnicas del Procesamiento Digital de Señales ( Digital Signal Processing - DSP - ).

Normalmente no se tiene en cuenta que el desarrollo del procesamiento digital de señales comenzó
a causa del deseo de los diseñadores de sistemas analógicos de simular el comportamiento de éstos antes de
llevar a cabo la construcción de costosos prototipos. La herramienta para realizar la simulación era, por
supuesto, el ordenador y fue de esta manera como se inició el desarrollo del procesado digital de señales. Es
gracioso pensar que aquellos pioneros que trabajaron entre la década de los 50 y los primeros años de la de los
60 no tenían mucha idea de que su trabajo se expandiría hacia un área mucho mayor en la tecnología de la
electrónica digital durante los años 80 y posteriores.

El procesamiento digital de las señales dependía de los procesadores digitales y de la mayor parte de
las matemáticas o algoritmos que habían sido desarrollados desde los años 50. Una vez que los algoritmos
estaban establecidos, los diseñadores comenzaron a buscar la arquitectura de procesador más eficaz para
implementarlos. La primera meta fue conseguir simulaciones que se ejecutasen en un tiempo aceptable. No
está claro cuando surgió la idea de utilizar computadores digitales para procesar señales reales, pero una vez
hecho, los objetivos cambiaron súbitamente. La meta final es el procesamiento digital de las señales en tiempo
real, esto es, realizar los cálculos en el instante mismo en que la señal llega al sistema. Los antiguos sistemas
tan sólo eran capaces de almacenar la onda en memoria y procesarla más tarde. Naturalmente, estos sistemas
no podían tomar ningún tipo de decisión basada en los datos en el instante que estos cambiaban, de ahí el

1.1.1 ALGORITMOS PARA DSP

El modelo matemático básico para las señales continuas está basado en las transformadas de Fourier
y Laplace, las cuales fueron desarrolladas durante el siglo 19.

Jean Baptiste Joseph, Baron de Fourier sirvió como Gobernador del bajo Egipto bajo el gobierno de
Napoleon, pero en 1801 volvió a Francia y continuó con sus investigaciones científicas. En 1822 publicó un
monumental estudio sobre el flujo calorífico en el cual desarrolló las series de Fourier. Desde entonces, las
series han sido aplicadas a diversas ramas de la ciencia y son una de las principales herramientas para el
análisis de las señales. La transformada de Fourier (o integral de Fourier) es una simple extensión de las series

Página 1
CAPITULO 1 Historia

de Fourier. Las series de Fourier básicas se aplican a las señales periódicas (repetitivas) y la transformada de
Fourier a las aperiódicas (no repetitivas).

Pierre Simon, Marqués de Laplace fue un gran astrónomo teórico, quizá el más grande desde
Newton. Nació unos 20 años antes que Fourier, su matemática se aplicó al estudio y conocimiento del
movimiento de los planetas, pero como en el caso de las series de Fourier, la transformada de Laplace ha
encontrado una gran aplicación en otros campos. Nosotros estamos particularmente interesados con su
modificación y aplicación a las señales digitales. Por simple extensión y conveniente interpretación la
transformada de Laplace da lugar a la transformada Z. Las técnicas de la transformada Z no son nuevas y ya
fueron tratadas allá por el 1730, cuando De Moivre introdujo el concepto de "función generatriz" en la teoría
de la probabilidad. El advenimiento de los computadores digitales en los años 40 trajo consigo un incremento
en el uso y aplicación de la transformada Z, la cual forma el pilar básico para la construcción de los filtros
digitales.

Al igual que la transformada de Laplace, la transformada de Fourier también tiene una forma
equivalente para las señales digitales. La transformada discreta de Fourier se popularizó durante los años 40 y
50 al tiempo que se desarrollaron los ordenadores, pero fue por necesidades computacionales. En 1965 Cooley
y Tukey publican un artículo poco prometedor titulado "Un algoritmo de las series complejas de Fourier para
máquinas computadoras" o de forma más refinada DFT. En él se explotan algunas propiedades especiales y
proporciona un nuevo algoritmo conocido como la Transformada Rápida de Fourier (Fast Fourier Transform o
FFT) el cual reduce de forma espectacular el número de multiplicaciones requeridas para el cálculo. Como se
verá, la multiplicación representa un importante cuello de botella en los cálculos de la mayor parte de los
algoritmos de DSP. Reduciendo el número requerido en un factor de 100 para grandes (1024 puntos)
transformadas discretas de Fourier, la FFT representó todo un hito en el desarrollo del procesamiento digital de
las señales. La fuente original de esta técnica parece haber estado en el matemático alemán Runge en 1903,
pero fueron Cooley y Tukey los que hicieron popular el uso de la FFT.

Recientes refinamientos en la teoría del DSP han sido por supuesto menos dramáticos, aunque la
investigación continúa incansablemente en desarrollos como los algoritmos difusos (
neuronales, etc.

Página 2
CAPITULO 1 Historia

1.1.2 ARQUITECTURAS PARA PROCESADORES DE DSP

Cuando vemos el desarrollo que han sufrido históricamente los procesadores monocircuito
especiales que existen ahora para realizar funciones de DSP, deberíamos considerar la arquitectura y la
tecnología de éstos de forma separada. Así ocurre a menudo con los dispositivos semiconductores, las
estructuras básicas fueron ideadas antes de que la tecnología para soportarlas estuviera disponible. Veamos
primero el desarrollo de la arquitectura de los dispositivos para DSP.

Las arquitecturas para procesadores y microprocesadores monopastilla se puede dividir en dos


categorías. La arquitectura del primer computador electromecánico tenía espacios separados de memoria para
datos y programa, de modo que ambos podían ser accedidos de forma simultánea. Esta es la arquitectura tipo
Harvard, pues fue desarrollada a finales de los años 30 por Howard Aiken, físico de la Universidad de Harvard.
El ordenador Harvard Mark 1 comenzó a funcionar en 1944.

Tal vez fue el ENIAC (Electronic Numerical Integrator and Calculator) el primer ordenador
electrónico de propósito general, que fue construido desde 1943 a 1946 en la Universidad de Pennsylvania. La
arquitectura era similar a la del Harvard Mark 1, con memorias separadas para datos y programa. Esta
arquitectura se muestra claramente en el diagrama de bloques de la figura 1.1.

Debido a la complejidad de los dos sistemas de memoria separados, la arquitectura Harvard no se


hizo muy popular en los diseños de ordenadores y microordenadores de propósito general.

Uno de los consejeros del proyecto ENIAC fue John von Neumann, matemático Húngaro. El es
ampliamente reconocido como el creador de una arquitectura diferente y muy significativa, la cual fue
publicada por Burks, Goldstine y von Neumann en 1946. La así llamada arquitectura von Neumann marca el
estándar para los desarrollos de procesadores durante los siguientes cuarenta años y más. La idea fue muy
simple y basada en dos premisas principales: que no hay una diferencia intrínseca entre instrucciones y datos y
que las instrucciones pueden subdividirse en dos campos principales conteniendo el comando de operación
(OPCODE, código de operación) y la dirección del operando (dato con el que se va a operar). Existe por tanto
un sólo espacio de memoria para instrucciones y datos.

En la figura 1.2 se muestra la estructura de un ordenador construido en el Instituto para Estudios


Avanzados en Princenton en 1951, conocido como el ordenador IAS.

Página 3
CAPITULO 1 Historia

Figura 1.1 - Arquitectura del ENIAC

Página 4
CAPITULO 1 Historia

Figura 1.2 - Arquitectura del IAS

La nueva arquitectura simplificaba el diseño del computador, pero tenía el inconveniente de que la
máquina solo podía acceder o a la instrucción o al dato en un instante dado. La historia ha demostrado que esta
no es una seria limitación para computadoras de propósito general.

Microprocesadores de propósito general como la familia del Motorola 68000 y la del Intel i86
comparten la que se conoce ahora como arquitectura von Neumann. Estos y otros microprocesadores de
propósito general también tienen otras características típicas de la mayoría de los ordenadores de los pasados
cuarenta años. El bloque básico de cálculo está constituido por una Unidad
registro de desplazamiento. Operaciones como la suma, el movimiento de datos y la resta son fácilmente
realizadas en unos pocos ciclos de reloj. Instrucciones complejas como la multiplicación y la división son
realizadas mediante una serie de simples operaciones de desplazamiento, suma o diferencia. Los dispositivos
de este tipo son conocidos como procesadores CISC o Complex Instruction Set Computers (Procesadores con
Conjunto de Instrucciones Completo). Los dispositivos CISC tienen una instrucción de multiplicación, pero
ésta simplemente ejecuta una serie de instrucciones de microcódigo las cuales están codificadas en la propia
microcódigo consume sin embargo varios ciclos de reloj.

Página 5
CAPITULO 1 Historia

Por razones que ya aclararemos, el procesamiento digital de las señales supone cálculos de la forma:

×C + D
A = B×

Esta pequeña y simple ecuación supone una operación de multiplicación y otra de adición. A causa
de la baja velocidad en la ejecución de la instrucción de multiplicación, un procesador CISC no es muy
eficiente resolviéndola. Lo que necesitamos es una máquina que pueda realizar la multiplicación y la suma en
un solo ciclo de reloj. Para ello necesitamos una aproximación diferente de la arquitectura de un procesador.
En otras palabras, necesitamos una arquitectura adecuada a nuestra aplicación.

El principal objetivo en el proceso de señales en tiempo real es completar la cantidad de operaciones


que se deben realizar antes de que un nuevo dato a procesar llegue. Los antiguos sistemas de DSP eran
construidos utilizando componentes estándar para implementar los registros de desplazamiento, sumadores y
multiplicadores. Se vio rápidamente que la operación de multiplicación era el factor que limitaba el
rendimiento de estos computadores. El diseño de los multiplicadores avanzó mediante el uso de técnicas de
pipeline) y el primer multiplicador de un solo ciclo fue implementado a principio de los años 70
con componentes estándar de alta velocidad con tecnología ECL (Emitter-coupled logic).

La institución líder en la investigación del DSP durante este periodo fueron los Laboratorios
Lincoln. El FDP (Fast Digital Processor) de Lincoln se completó en 1971 y hacía una multiplicación en unos
600ns., ¡pero se usaron unos 10.000 circuitos integrados independientes!. El circuito era muy complicado al
tratar de realizar operaciones en paralelo utilizando la arquitectura secuencial de von Newmann. El LSP/2 de
Lincoln se construyó a partir de las lecciones aprendidas con el FDP y utilizaba una arquitectura similar en
principio a la del Harvard 1 de los años 40. Utilizando una arquitectura paralela, se consiguió un computador
DSP cuatro veces más rápido que el FDP con una tercera parte de circuitos integrados.

Hacia mediados de los años 70, otra institución líder en la investigación también desarrolló
computadores para proceso digital de señales con tiempos de multiplicación que oscilaban alrededor de los
200ns. Estas máquinas eran realmente capaces de procesar señales en tiempo real, pero eran tan voluminosas y
caras que no fueron viables comercialmente. La estructura básica de un procesador de DSP había sido creada,
pero debía esperar la llegada de la tecnología de semiconductores para ponerse al día. Si un procesador DSP
hubiera podido implementarse con unos pocos circuitos integrados, o incluso en un solo dispositivo, se
hubieran abierto otras vías para el comercio.

1.1.3 CI’s PARA PROCESADO DIGITAL DE SEÑALES.

Durante los años 70 la tecnología de los circuitos integrados se hizo más compleja. La demanda de
una maquinaria militar potencialmente consumidora de esta tecnología en los EEUU y la aparición gradual de
la electrónica en productos de consumo supuso un gran incentivo para reducir los tamaños, aumentar la

Página 6
CAPITULO 1 Historia

velocidad de los dispositivos y mejorar los procesos tecnológicos. El proceso tecnológico elegido a finales de
los 70 fue el N-MOS (canal N Metal Oxido Semiconductor), el cual trabajaba con una simple fuente de

100.000 transistores por dispositivo.

En los dos primeros años de la década de los 80, se presentaron cuatro procesadores digitales de
monocircuito. El mérito al primer DSP en un solo circuito se le acredita a la empresa American
Microsystems Inc. (AMI) S2811. El Intel 2920 y el NEC mPD7720 estuvieron también disponibles por la
misma época. Un poco más tarde, en 1982, Texas Instruments introdujo el TMS32010 y con él llego
realmente el DSP monopastilla.

Los primeros dispositivos DSP usan la arquitectura Harvard para separar la memoria de datos y la
memoria de programa. Esto permite el acceso simultáneo a instrucciones de programa y datos. En el proceso
entrada-salida del procesador es crítico. Utilizar la arquitectura
Harvard significa que el flujo de datos no necesita interrumpirse a causa de la lectura de instrucciones. El
diagrama de bloques del TMS32010 en la figura 1.3 muestra la separación de las memorias de datos y
programa y una modificación que permite un camino entre los dos espacios de memoria. Por esto se dice que el
TMS32010 tiene una arquitectura Harvard modificada.

El TMS32010 tiene un lenguaje ensamblador, herramientas de evaluación y un emulador similar al


de otros microprocesadores. Con el posterior desarrollo de simuladores, depuradores, compiladores C, etc. más
rápidos y capaces de soportar un mayor número de dispositivos, los DSP se han introducido en la corriente
principal del diseño de sistemas basados en microprocesador. La diferencia está en los algoritmos y en la
arquitectura de los dispositivos.

Por supuesto, la historia no acaba aquí. El florecimiento de los computadores y la industria del
ordenador personal (PC) ha provocado una demanda cada vez mayor de memoria. Esto ha llevado a reducir la
geometría en todos los circuitos integrados y a aumentar la densidad de transistores en un mismo dispositivo.
Los procesos tecnológicos se han mejorado significativamente con la introducción y desarrollo de la tecnología
CMOS, llegando a ser las geometrías de 0.6 micras (y menos) las más comunes. Esto no sólo permite mayores
densidades de transistores y puertas, sino que lleva consigo una reducción de los tiempos de conmutación y
propagación por cada puerta y consecuentemente mayores velocidades de reloj y mayores potencias de proceso.
Actualmente, esto significa que podemos obtener DSPs con más de 2.000.000 de transistores, y tiempos de
multiplicación de palabras de 32 bits en coma flotante inferiores a 40ns.

Página 7
CAPITULO 1 Historia

Figura 1.3 - Diagrama de bloques del TMS32010

Página 8

Вам также может понравиться