Вы находитесь на странице: 1из 495

ANÁLISIS DE SISTEMAS

LINEALES
Ricardo A. Rojas
Mario E. Salgado
Juan I. Yuz1

ESTE ES UN BORRADOR SUJETO A NEGOCIACIÓN EDITORIAL. SU RE-


PRODUCCIÓN SÓLO PUEDE SER AUTORIZADA POR LOS TRES AU-
TORES.
Versión 11 de septiembre de 2003.

Valparaı́so, Marzo 2002

1 Departamento de Electrónica

Universidad Técnica Federico Santa Marı́a


Valparaı́so, CHILE
ii
sistema|textbf
Kalman
Routh
Bode
Nyquist

Prefacio

La noción de sistema resulta sumamente poderosa para la descripción, anal-


isis y diseño tanto en ingenierı́a como en otras áreas, principalmente porque
permite describir en forma abstracta un fenómeno en base al objetivo que el
observador/ingeniero en requiera en cada caso particular.
En este texto abordamos el análisis de un tipo particular de sistemas, aque-
llos llamados lineales. Esta propiedad, si bien no es común en sistemas fı́sicos
reales, permite hacer uso de una gran gama de herramientas de análisis matemático,
que han demostrado ser de gran utilidad, a pesar de las simplificaciones inher-
entes involucradas en la representacion lineal de los sistemas.
La teorı́a de los sistemas lineales tuvo un rápido crecimiento y sostenida con-
solidación desde mediados del siglo veinte. Este desarrollo fue sustentado por
el trabajo pionero de Bode, Routh, Nyquist, Kalman y muchos otros investi-
gadores. Ellos construyeron, a su vez, sobre la teorı́a matemática existente de
los siglos pasados en áreas tan diversas como, por ejemplo, el cálculo diferencial
e integral de Newton, las ecuaciones diferenciales y la teorı́a de funciones de
variables complejas.
Más adelante, el desarrollo y expansión de la tecnologı́a digital ampliaron el
campo de los sistemas lineales hacia los sistemas que operan en tiempo discreto.
Nuevas herramientas matemáticas debieron entonces incorporarse al estudio de
los sistemas lineales.
Un aspecto de especial relevancia es no perder de vista que el interés de
la Ingenierı́a en los sistemas lineales está ligado a la posibilidad de emplearlos
como modelos suficientemente precisos para describir sistemas reales. El estu-
diante debe ser advertido al inicio del curso sobre el problema subyacente de
fidelidad de la representación final, y el tema debe ser reiterado a lo largo del
mismo. También es necesario enfatizar que los sistemas reales no son lineales y
que la pérdida de precisión al modelarlos como sistemas lineales es usualmente
compensada por el traslado del problema a un campo dotado de herramien-
tas matemáticas. Por otro lado, es conveniente enfatizar que existen sistemas
reales, incluso muy básicos como aquellos con dispositivos de conmutación, que
simplemente no pueden ser modelados como sistemas lineales.
Si bien la teorı́a de los sistemas lineales tiene un interés en si misma como
objeto de estudio matemático, en este libro el enfoque es distinto, más orientado
al estudiante de ingenierá: se trata de estudiar esta teorı́a como un sostén para
el análisis, la sı́ntesis y el diseño de sistemas de procesamiento de señales, de

iii
iv

sistemas de control automático, sistemas económicos, entre otros. El propósito


es que el lector, sin abandonar ni menospreciar el rigor requerido por esta teorı́a,
la conciba como una herramienta para entender, analizar y resolver problemas
asociados a fenómenos y sistemas en ingenierı́. Esto nos parece necesario con el
fin de evitar la frecuente confusión entre los estudiantes de ingenierı́a, que lleva
a subvertir los roles del problema y la herramienta, y centrar su atención en el
rigor matemático más que en los conceptos y la interpretación de los resultados
de la teorı́a de los sistemas lineales.
Pensamos también que este énfasis en los conceptos más que en la utilerı́a
matemática debe reflejarse en el esfuerzo que se pide a los estudiantes que estu-
dien el tema. Con este objeto, nos parece fundamental el uso extensivo de paque-
tes de software para simulación, tales como Simulink de Matlab y Simnon
. También encontramos de especial utilidad el uso de software de matemática
simbólica, como Maple y Mathematica . El libro supone que los estudiantes
tienen acceso a este tipo de herramientas. También suponemos que nuestros
lectores tiene una formación matemática básica previa que incluye conceptos
de Cálculo Diferencial, Integral, Ecuaciones Diferenciales Ordinarias y Álgebra
Lineal.
La dificultad en enseñar una visión conceptual de los sistemas lineales se
refleja en la diversidad de formas y estructuras de los programas de las asig-
naturas relacionadas, en distintas instituciones en Chile y en el extranjero. En
la mayorı́a de los casos se separa completamente el estudio de sistemas lineales
en tiempo continuo y en tiempo discreto. Aunque esto tiene ciertas ventajas,
se desprovecha la oportunidad de dar una visión unificada de conceptos tales
como estabilidad, velocidad, transientes, y estado, entre otros. Con este fin, el
texto ha sido organizado de manera que el lector pueda optar entre un enfoque
simultáneo o separado de ambos tipos de sistema, sin perjuicio de lo cual se
ha incluido un breve capitulo referido a sistemas hibridos en que se establece
claramente una relacion entre ambos.
Las consideraciones anteriores han sido los elementos orientadores para este
libro. La calidad del resultado de este esfuerzo será juzgada por los lectores.

Ricardo A. Rojas
Mario E. Salgado
Juan I. Yuz

Valparaı́so, Agosto de 2000


Índice general

Prefacio III

1. Aspectos fundamentales 1
1.1. Sistemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Modelos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3. Sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4. Invarianza en el tiempo . . . . . . . . . . . . . . . . . . . . . . . 8
1.5. Linealización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.5.1. Sistema no lineal de tiempo continuo . . . . . . . . . . . . 9
1.5.2. Sistema no lineal de tiempo discreto . . . . . . . . . . . . 12
1.6. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . . 18

2. Señales 21
2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2. Señales de tiempo continuo . . . . . . . . . . . . . . . . . . . . . 21
2.2.1. Escalón unitario (función de Heaviside) . . . . . . . . . . 21
2.2.2. Impulso unitario o delta de Dirac . . . . . . . . . . . . . . 21
2.2.3. Rampa unitaria . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2.4. Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2.5. Señales sinusoidales . . . . . . . . . . . . . . . . . . . . . 25
2.2.6. Sinusoidales con amplitud exponencial . . . . . . . . . . . 26
2.3. Señales de tiempo discreto . . . . . . . . . . . . . . . . . . . . . . 27
2.3.1. Escalón unitario de tiempo discreto . . . . . . . . . . . . 27
2.3.2. Impulso unitario discreto o delta de Kronecker . . . . . . 27
2.3.3. Rampa unitaria de tiempo discreto . . . . . . . . . . . . . 28
2.3.4. Exponencial de tiempo discreto . . . . . . . . . . . . . . . 29
2.3.5. Señales sinusoidales de tiempo discreto . . . . . . . . . . . 30
2.3.6. Sinusoidales con amplitud exponencial . . . . . . . . . . . 31
2.4. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . . 32

3. Análisis en tiempo continuo 35


3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2. Ecuación diferencial del sistema (EDS) . . . . . . . . . . . . . . . 35
3.3. La respuesta del sistema . . . . . . . . . . . . . . . . . . . . . . . 38

v
vi ÍNDICE GENERAL

3.3.1. Componente homogénea y componente particular . . . . . 38


3.3.2. Frecuencias y modos naturales . . . . . . . . . . . . . . . 40
3.3.3. Modos forzantes y modos forzados . . . . . . . . . . . . . 40
3.3.4. Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.3.5. Velocidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3.6. Respuesta a estado inicial y respuesta a entrada . . . . . 45
3.4. Respuesta a señales de prueba . . . . . . . . . . . . . . . . . . . . 50
3.4.1. Respuesta a escalón unitario . . . . . . . . . . . . . . . . 50
3.4.2. Respuesta a impulso unitario . . . . . . . . . . . . . . . . 52
3.5. Cálculo de la respuesta vı́a convolución . . . . . . . . . . . . . . . 53
3.6. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . . 57

4. Análisis en tiempo discreto 61


4.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.2. Ecuación de recursión del sistema (ERS) . . . . . . . . . . . . . . 61
4.3. La respuesta del sistema . . . . . . . . . . . . . . . . . . . . . . . 64
4.3.1. Componente homogénea y componente particular . . . . . 65
4.3.2. Frecuencias y modos naturales . . . . . . . . . . . . . . . 66
4.3.3. Modos forzantes y modos forzados . . . . . . . . . . . . . 68
4.3.4. Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.3.5. Velocidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.3.6. Respuesta a estado inicial y respuesta a entrada . . . . . 73
4.4. Respuesta a señales de prueba . . . . . . . . . . . . . . . . . . . . 76
4.4.1. Respuesta a escalón unitario . . . . . . . . . . . . . . . . 76
4.4.2. Respuesta a impulso unitario . . . . . . . . . . . . . . . . 78
4.5. Cálculo de la respuesta via convolución . . . . . . . . . . . . . . . 79
4.6. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . . 84

5. Análisis bajo excitaciones periódicas 87


5.1. Señales Periódicas . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.2. Respuesta a entrada sinusoidal. El caso de tiempo continuo . . . 88
5.3. Series de Fourier para señales de tiempo continuo . . . . . . . . . 92
5.3.1. Serie de Fourier trigonométrica . . . . . . . . . . . . . . . 92
5.3.2. Serie de Fourier exponencial . . . . . . . . . . . . . . . . . 100
5.3.3. Parseval y la energı́a de las señales periódicas . . . . . . . 102
5.4. Respuesta a entradas sinusoidales. El caso de tiempo discreto . . 103
5.5. Serie de Fourier de tiempo discreto . . . . . . . . . . . . . . . . . 106
5.6. Aplicación de las series de Fourier al análisis de sistemas lineales 110
5.7. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . . 111

6. Análisis bajo excitaciones arbitrarias. La transformada de Fouri-


er 117
6.1. La limitación de las series de Fourier . . . . . . . . . . . . . . . . 117
6.2. La Transformación de Fourier. El caso del tiempo continuo . . . 117
6.2.1. Parseval y la energı́a de las señales aperiódicas en tiempo
continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
ÍNDICE GENERAL vii

6.2.2. Aplicación a sistemas lineales . . . . . . . . . . . . . . . . 124


6.2.3. La función de transferencia y la respuesta en frecuencia . 129
6.2.4. Filtraje . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
6.2.5. Caso singular en la función de transferencia. . . . . . . . . 137
6.3. La Transformación de Fourier. El caso de tiempo discreto . . . . 139
6.3.1. Parseval y las señales aperiódicas de tiempo discreto . . . 143
6.3.2. Aplicación a sistemas lineales . . . . . . . . . . . . . . . . 144
6.3.3. La función de transferencia y la respuesta en frecuencia . 148
6.3.4. Filtraje . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
6.3.5. Caso singular en la función de transferencia. El caso de
los sistemas discretos . . . . . . . . . . . . . . . . . . . . . 150
6.4. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . . 152

7. Análisis bajo excitaciones arbitrarias. La transformada de Laplace


155
7.1. Definición de la transformada . . . . . . . . . . . . . . . . . . . . 155
7.2. Aplicación a sistemas lineales: la función de transferencia . . . . 156
7.2.1. Función de transferencia en dominios de Laplace y Fourier 160
7.3. Respuesta a impulso y respuesta a escalón. . . . . . . . . . . . . 161
7.4. Respuesta a condiciones iniciales y señales arbitrarias. . . . . . . 166
7.5. Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
7.5.1. Análisis de polinomios . . . . . . . . . . . . . . . . . . . . 173
7.6. Polos, ceros y la respuesta temporal . . . . . . . . . . . . . . . . 177
7.6.1. Polos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
7.6.2. Ceros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
7.6.3. Respuesta inversa o contrarespuesta (undershoot) . . . . . 182
7.6.4. Sistema canónico de segundo orden . . . . . . . . . . . . . 183
7.7. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . . 186

8. Análisis bajo excitaciones arbitrarias. La transformada Zeta 191


8.1. Definición de la transformada . . . . . . . . . . . . . . . . . . . . 191
8.2. Aplicación a sistemas lineales: la función de transferencia . . . . 192
8.2.1. Función de transferencia en dominios de Fourier y Zeta . 198
8.3. Respuesta a impulso y respuesta a escalón. . . . . . . . . . . . . 200
8.4. Respuesta a condiciones iniciales y excitaciones arbitrarias. . . . 203
8.5. Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
8.5.1. Análisis de polinomios . . . . . . . . . . . . . . . . . . . . 206
8.6. Polos, ceros y la respuesta temporal . . . . . . . . . . . . . . . . 210
8.6.1. Polos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
8.6.2. Ceros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
8.6.3. Respuesta inversa o contrarespuesta (undershoot) . . . . . 215
8.7. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . . 217
viii ÍNDICE GENERAL

9. Representación de sistemas lineales 219


9.1. Ideas generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
9.2. Diagramas de Bode . . . . . . . . . . . . . . . . . . . . . . . . . . 220
9.2.1. Tiempo continuo . . . . . . . . . . . . . . . . . . . . . . . 220
9.2.2. Tiempo discreto . . . . . . . . . . . . . . . . . . . . . . . 231
9.3. Diagramas polares . . . . . . . . . . . . . . . . . . . . . . . . . . 233
9.3.1. Tiempo continuo . . . . . . . . . . . . . . . . . . . . . . . 233
9.3.2. Tiempo discreto . . . . . . . . . . . . . . . . . . . . . . . 244
9.4. Diagramas de bloques . . . . . . . . . . . . . . . . . . . . . . . . 246
9.5. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . . 250

10.Representación en variables de estado. 253


10.1. Conceptos fundamentales sobre modelos de sistemas. . . . . . . . 253
10.2. Conceptos fundamentales . . . . . . . . . . . . . . . . . . . . . . 254
10.2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . 254
10.2.2. Modelos básicos en variables de estado . . . . . . . . . . . 255
10.2.3. Señales descritas en espacio de estado . . . . . . . . . . . 256
10.3. Modelos de estado para sistemas continuos . . . . . . . . . . . . 257
10.3.1. Linealización . . . . . . . . . . . . . . . . . . . . . . . . . 258
10.3.2. Modelos lineales en el espacio de estado . . . . . . . . . . 261
10.3.3. Transformaciones de similaridad . . . . . . . . . . . . . . 267
10.3.4. Espacio de estado y funciones de transferencia . . . . . . 270
10.4. Modelos de estado para sistemas discretos y muestreados . . . . 273
10.4.1. Linealización de sistemas discretos . . . . . . . . . . . . . 274
10.4.2. Sistemas muestreados . . . . . . . . . . . . . . . . . . . . 274
10.4.3. Modelos de estado lineales . . . . . . . . . . . . . . . . . . 277
10.4.4. Transformaciones de similaridad . . . . . . . . . . . . . . 286
10.4.5. Espacio de estado y funciones de transferencia . . . . . . 286
10.5. Modelos de estado para sistemas interconectados . . . . . . . . . 287
10.6. Propiedades de los sistemas . . . . . . . . . . . . . . . . . . . . . 290
10.6.1. Controlabilidad, Alcanzabilidad y Estabilizabilidad . . . . 290
10.6.2. Observabilidad, Reconstructibilidad y Detectabilidad . . . 299
10.6.3. Descomposición Canónica . . . . . . . . . . . . . . . . . . 307
10.7. Observadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 309
10.7.1. Dinámica del observador . . . . . . . . . . . . . . . . . . . 310
10.7.2. Observadores y ruido de medición. . . . . . . . . . . . . . 314

11.Sistemas hı́bridos 317


11.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317
11.2. Muestreo de señales. . . . . . . . . . . . . . . . . . . . . . . . . . 318
11.3. Análisis en frecuencia de señales muestreadas . . . . . . . . . . . 320
ÍNDICE GENERAL ix

12.Modelos 323
12.1. Ideas generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323
12.2. Modelado de sistemas de tiempo continuo. Teorı́a básica. . . . . . 324
12.3. Modelado de sistemas de tiempo continuo. Modelos lineales. . . . 329
12.4. Modelado de sistemas de tiempo discreto. Teorı́a básica. . . . . . 332
12.5. Modelado de sistemas de tiempo discreto. Modelos lineales. . . . 336

A. Series de Taylor 339


A.1. Serie de Taylor en una variable . . . . . . . . . . . . . . . . . . . 339
A.2. Serie de Taylor en dos variables . . . . . . . . . . . . . . . . . . . 340
A.3. El caso general . . . . . . . . . . . . . . . . . . . . . . . . . . . . 341
A.4. Algunas reglas prácticas para la expansión en serie . . . . . . . . 341

B. Bases matemáticas para las Series de Fourier 343


B.1. Espacios vectoriales y bases ortogonales . . . . . . . . . . . . . . 343
B.2. Convergencia de las Series de Fourier . . . . . . . . . . . . . . . . 347
B.2.1. Convergencia de sucesiones y series . . . . . . . . . . . . . 347
B.2.2. Convergencia de las Series de Fourier . . . . . . . . . . . . 349
Demostración . . . . . . . . . . . . . . . . . . . . . . . . . 357

C. La transformación de Fourier 359


C.1. Transformación de Fourier en tiempo continuo . . . . . . . . . . 359
C.1.1. Definición de la Transformada . . . . . . . . . . . . . . . . 359
C.1.2. Propiedades de la Transformada de Fourier . . . . . . . . 361
C.2. Transformada de Fourier en tiempo discreto . . . . . . . . . . . . 374
C.2.1. Definición de la transformada . . . . . . . . . . . . . . . . 374
C.2.2. Propiedades de la transformada de Fourier discreta . . . . 376
Demostración . . . . . . . . . . . . . . . . . . . . . . . . . 380
Demostración . . . . . . . . . . . . . . . . . . . . . . . . . 383
C.2.3. Aspecto práctico: la transformada rápida de Fourier . . . 392

D. La transformada de Laplace 399


D.1. Transformada de Laplace . . . . . . . . . . . . . . . . . . . . . . 399
D.1.1. Definición de la Transformada . . . . . . . . . . . . . . . . 399
D.1.2. Propiedades de la Transformada de Laplace . . . . . . . . 401
Demostración . . . . . . . . . . . . . . . . . . . . . . . . . 407
Demostración . . . . . . . . . . . . . . . . . . . . . . . . . 408
Demostración . . . . . . . . . . . . . . . . . . . . . . . . . 408
D.1.3. Descomposición en fracciones parciales . . . . . . . . . . . 416

E. La Transformación Zeta 423


E.1. Definición de la Transformación . . . . . . . . . . . . . . . . . . . 423
E.2. Propiedades de la Transformada Zeta . . . . . . . . . . . . . . . 425
Demostración . . . . . . . . . . . . . . . . . . . . . . . . . 429
Demostración . . . . . . . . . . . . . . . . . . . . . . . . . 430
x ÍNDICE GENERAL

F. Matrices. Definiciones y Propiedades 435


F.1. Conceptos Básicos . . . . . . . . . . . . . . . . . . . . . . . . . . 435
F.2. Determinante de una matriz . . . . . . . . . . . . . . . . . . . . . 438
F.3. Operaciones con matrices . . . . . . . . . . . . . . . . . . . . . . 441
F.4. Inversa de una matriz . . . . . . . . . . . . . . . . . . . . . . . . 443
F.5. Autovalores y autovectores . . . . . . . . . . . . . . . . . . . . . 448
F.6. Normas de vectores y matrices . . . . . . . . . . . . . . . . . . . 457
F.7. Tipos especiales de matrices . . . . . . . . . . . . . . . . . . . . . 460
F.8. Valores singulares . . . . . . . . . . . . . . . . . . . . . . . . . . . 466

Índice alfabético 471


Índice de figuras

1.1. Sistema eléctrico . . . . . . . . . . . . . . . . . . . . . . . . . . . 2


1.2. Representación compacta de un sistema . . . . . . . . . . . . . . 3
1.3. Propiedad de invarianza en el tiempo . . . . . . . . . . . . . . . . 8
1.4. Diagrama Simulink para simulación de un sistema no lineal. . . 16
1.5. Salida del sistema no lineal (linea sólida) y salida del sistema lin-
ealizado (lı́nea segmentada) para una onda cuadrada de amplitud
creciente en la entrada (lı́nea punteada) . . . . . . . . . . . . . . 16
1.6. Ganancia no lineal para el Problema 1.8 . . . . . . . . . . . . . . 19

2.1. Escalón unitario o función de Heaviside. . . . . . . . . . . . . . . 22


2.2. Impulso unitario o delta de Dirac. . . . . . . . . . . . . . . . . . 22
2.3. Aproximaciones al delta de Dirac . . . . . . . . . . . . . . . . . . 22
2.4. Rampa unitaria. . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.5. Exponenciales creciente (izquierda) y decreciente (derecha) . . . 25
2.6. Exponenciales de diferentes velocidades de decaimiento . . . . . . 25
2.7. Propiedad de la constante de tiempo . . . . . . . . . . . . . . . . 26
2.8. Señales sinusoidales con amplitud disminuyendo exponencialmente
(izq.) y creciendo exponencialmente (der.) . . . . . . . . . . . . . 27
2.9. Escalón unitario de tiempo discreto . . . . . . . . . . . . . . . . . 27
2.10. Impulso unitario discreto o delta de Kronecker . . . . . . . . . . 28
2.11. Rampa unitaria de tiempo discreto . . . . . . . . . . . . . . . . . 29
2.12. Exponenciales de tiempo discreto, decreciente (izquierda) y cre-
ciente (derecha), λ ∈ R+ . . . . . . . . . . . . . . . . . . . . . . . 29
2.13. Exponenciales de tiempo discreto, decreciente (izquierda) y cre-
ciente (derecha), λ ∈ R− . . . . . . . . . . . . . . . . . . . . . . . 30
2.14. Señales sinusoidales de tiempo discreto con amplitud variando
exponencialmente . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.15. Señales compuestas . . . . . . . . . . . . . . . . . . . . . . . . . . 33

3.1. Red RLC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36


3.2. Relación entre la ubicación de las frecuencias naturales (de mul-
tiplicidad uno) y los modos naturales . . . . . . . . . . . . . . . . 41
3.3. Red lineal con condiciones iniciales . . . . . . . . . . . . . . . . . 47
3.4. Efectos de la invarianza en el tiempo . . . . . . . . . . . . . . . . 52

xi
xii ÍNDICE DE FIGURAS

3.5. Ejemplo de descripción gráfica de la convolución . . . . . . . . . 55


3.6. Respuesta a escalón unitario . . . . . . . . . . . . . . . . . . . . . 58
3.7. Configuración de frecuencias naturales de dos sistemas . . . . . . 58
3.8. Red eléctrica con amplificador operacional . . . . . . . . . . . . . 59

4.1. Relación entre la ubicación de las frecuencias naturales (de mul-


tiplicidad uno) y los modos naturales (caso decreciente). . . . . . 69
4.2. Relación entre la ubicación de las frecuencias naturales (de mul-
tiplicidad uno) y los modos naturales (caso no decreciente). . . . 70
4.3. Respuesta a escalón unitario . . . . . . . . . . . . . . . . . . . . . 85
4.4. Red resistiva. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86

5.1. Señales de entrada y salida en el Ejemplo 5.1 . . . . . . . . . . . 91


5.2. Respuesta en frecuencia de un sistema de segundo orden de tiem-
po continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.3. Señal cuadrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
5.4. Espectro de lı́nea de una señal cuadrada. . . . . . . . . . . . . . . 95
5.5. Señal a la salida de rectificador controlado por tristores . . . . . 96
5.6. Aproximación de la señal triangular con la primera y tercera
armónica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5.7. Espectro de lı́nea de una señal triangular . . . . . . . . . . . . . 98
5.8. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.9. Respuesta en frecuencia de un sistema de segundo orden de tiem-
po discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.10. Respuesta en frecuencia de un sistema de tercer orden de tiempo
continuo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
5.11. Comportamiento de un sistema con una excitación periódica. . . 112
5.12. Tren de pulsos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113

6.1. Señales arbitrarias . . . . . . . . . . . . . . . . . . . . . . . . . . 118


6.2. La función restringida a [a, b] y su reconstrucción usando la serie
de Fourier. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
6.3. Viga cargada con arena . . . . . . . . . . . . . . . . . . . . . . . 123
6.4. Circuito RC como sistema de primer orden. . . . . . . . . . . . . 126
6.5. Magnitud y ángulo de H( ω) en el ejemplo (α = 100). . . . . . . 132
6.6. Sistemas pasa bajos (izquierda) y pasa altos (derecha) . . . . . . 134
6.7. Respuesta a escalones de un sistema pasa bajos y un sistema pasa
altos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
6.8. Sistemas pasa banda y elimina banda. . . . . . . . . . . . . . . . 135
6.9. Respuesta a escalones de un sistema pasa banda y un sistema
elimina banda. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
6.10. Delta de Kronecker y su transformada de Fourier . . . . . . . . . 141
6.11. Señal y[t] = (0,8)t µ[t] y la magnitud de Y (ejθ ). . . . . . . . . . . 142
6.12. Señal y[t] y su transformada discreta Y (ejθ ). . . . . . . . . . . . 143
6.13. Respuesta a impulso y a escalón del ejemplo 6.14 . . . . . . . . . 147
ÍNDICE DE FIGURAS xiii

6.14. Respuesta en frecuencia (magnitud) de un sistema de tiempo dis-


creto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149

7.1. Respuestas a impulso y a escalón en Ejemplo 7.3 . . . . . . . . . 164


7.2. Índices definidos en la respuesta a escalon . . . . . . . . . . . . . 165
7.3. Respuesta a condiciones iniciales para el ejemplo 7.4 . . . . . . . 167
7.4. Circuito RC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
7.5. Pulso de entrada y respuesta del sistema del ejemplo 7.6. . . . . 170
7.6. Magnitud y fase de la respuesta en frecuencia del sistema en
Ejemplo 7.7. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
7.7. Respuesta a impulso de diferentes sistemas de acuerdo a la ubi-
cación de sus polos en el plano complejo . . . . . . . . . . . . . . 179
7.8. Sistema con interacción aditiva entre dos estados . . . . . . . . . 180
7.9. Efecto de la ubicación de los ceros sobre la respuesta a escalón . 182
7.10. Distintas formas de respuesta inversa . . . . . . . . . . . . . . . . 183
7.11. Localización de los polos y respuesta a escalón unitario de un
sistema canónico de segundo orden. . . . . . . . . . . . . . . . . . 184
7.12. Circuito RLC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187

8.1. Salida y[t] para el Ejemplo 8.1. . . . . . . . . . . . . . . . . . . . 195


8.2. Relaciones entre ERS, función de transferencia y respuestas a
delta y a escalón. . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
8.3. Respuesta a delta Kronecker y a escalón unitario para el Ejemplo
8.6. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
8.4. Relación entre la ubicación de los polos (de multiplicidad uno) y
los modos naturales (caso decreciente). . . . . . . . . . . . . . . . 212
8.5. Relación entre la ubicación de los polos (de multiplicidad uno) y
los modos naturales (caso no decreciente). . . . . . . . . . . . . . 213
8.6. Sistema discreto con interacción aditiva entre dos estados. . . . . 214
8.7. Ejemplos de distintas formas de respuesta inversa en sistemas
discretos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216

9.1. Diagrama de Bode de magnitud para una función tipo [B2], con
q = −1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
9.2. Diagrama de Bode de fase para una función tipo [B2], con q = −1 223
9.3. Diagrama de Bode de magnitud para una función tipo [B4], con
q = −1 y dos valores de ξ. . . . . . . . . . . . . . . . . . . . . . . 224
9.4. Diagrama de Bode de fase para una función tipo [B4], con q = −1 226
9.5. Diagrama de Bode de fase para una función tipo [B5] . . . . . . . 227
9.6. Diagramas de Bode de magnitud y fase para la respuesta en fre-
cuencia del Ejemplo 9.2 . . . . . . . . . . . . . . . . . . . . . . . 231
9.7. Diagrama de Bode en tiempo discreto (Ejemplo 9.3). . . . . . . . 233
9.8. Diagrama polar. Coordenadas cartesianas (Ejemplo 9.4). . . . . . 235
9.9. Diagrama polar. Coordenadas polar (Ejemplo 9.4). . . . . . . . . 236
9.10. Diagramas polares para el caso [P1]. . . . . . . . . . . . . . . . . 237
9.11. Diagrama polar de una función tipo [P4] para distintos valores de ξ 238
xiv ÍNDICE DE FIGURAS

9.12. Diagrama polar de una función tipo [P6] con T = 1 . . . . . . . . 240


9.13. a) Diagrama polar de una función tipo [P7] (T = 1 y τ = 2), y
b) detalle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
9.14. Diagrama polar de H( ω) para el Ejemplo 9.5. . . . . . . . . . . 242
9.15. a) Diagrama polar de H( ω) para el Ejemplo 9.6, y b) detalle. . 243
9.16. Interpretación gráfica de la respuesta en frecuencia (ejθ − po )−1 . 244
9.17. Interpretación gráfica de la respuesta en frecuencia de 1 − zo e−jt . 245
9.18. Diagrama polar para el Ejemplo 9.7. . . . . . . . . . . . . . . . . 246
9.19. Sistemas a interconectar. Caracterización independiente . . . . . 247
9.20. Sistemas interconectados . . . . . . . . . . . . . . . . . . . . . . . 247
9.21. Diagramas de Bode de H(s) . . . . . . . . . . . . . . . . . . . . . 251
9.22. Diagramas de Bode de G(s) . . . . . . . . . . . . . . . . . . . . . 251
9.23. Diagramas de Bode de G(s) . . . . . . . . . . . . . . . . . . . . . 252

10.1. Sistema masa-resorte. . . . . . . . . . . . . . . . . . . . . . . . . 256


10.2. Levitador electromagnético. . . . . . . . . . . . . . . . . . . . . . 259
10.3. Respuesta homogénea del sistema masa-resorte-roce. . . . . . . . 264
10.4. Trayectorias en el espacio de estado del sistema masa-resorte-roce. 265
10.5. Resonancia en el sistema masa-resorte. . . . . . . . . . . . . . . . 268
10.6. Red eléctrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269
10.7. Esquema de un sistema muestreado . . . . . . . . . . . . . . . . . 275
10.8. Respuesta a escalón del sistema para diferentes autovalores. . . . 282
10.9. Resonancia en la salida del sistema. . . . . . . . . . . . . . . . . 283
10.10.Efecto del muestreo en los modos naturales . . . . . . . . . . . . 284
10.11.Sistema térmico con retardo. . . . . . . . . . . . . . . . . . . . . 285
10.12.Conexión de sistemas en serie . . . . . . . . . . . . . . . . . . . . 288
10.13.Conexión de sistemas en paralelo . . . . . . . . . . . . . . . . . . 289
10.14.Conexión de sistemas en realimentación (feedback ) . . . . . . . . 289
10.15.Circuito electrónico para el Ejemplo 10.19. . . . . . . . . . . . . . 293
10.16.Circuito electrónico. . . . . . . . . . . . . . . . . . . . . . . . . . 302
10.17.Estructura de un sistema de acuerdo a su controlabilidad y ob-
servabilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
10.18.Observador del estado clásico . . . . . . . . . . . . . . . . . . . . 310
10.19.Error de estimación del estado . . . . . . . . . . . . . . . . . . . 312
10.20.Sistema rotacional . . . . . . . . . . . . . . . . . . . . . . . . . . 312
10.21.Caracterı́stica de filtraje de los observadores . . . . . . . . . . . . 315

11.1. Proceso de muestreo y cuantización . . . . . . . . . . . . . . . . . 318


11.2. Muestreo a diferentes frecuencias . . . . . . . . . . . . . . . . . . 319
11.3. Error de reconstrucción usando interpolación cúbica. . . . . . . . 320

12.1. Estimación por mı́nimos cuadráticos . . . . . . . . . . . . . . . . 326


12.2. Estimación por mı́nimos cuadráticos . . . . . . . . . . . . . . . . 333

A.1. Aproximación de primer orden para función no lineal de una va-


riable. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340
ÍNDICE DE FIGURAS xv

C.1. Pulso y su transformada para ∆ = 1, 41 , 16 1


. . . . . . . . . . . . . 360
C.2. Espectro de una señal de frecuencias audible y espectro de la
señal modulada. . . . . . . . . . . . . . . . . . . . . . . . . . . . 364
C.3. Tren de pulsos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 365
C.4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366
C.5. Señal cosenoidal y[k] y su transformada discreta. . . . . . . . . . 379
C.6. Secuencia y[k] = k(0,8)k µ[k] y la magnitud de su TFD. . . . . . . 384
C.7. Comparación N 2 (x) y N log2 N (’*’) . . . . . . . . . . . . . . . 395
C.8. Primera etapa de la FFT para N = 8 . . . . . . . . . . . . . . . . 396
C.9. Primera y segunda etapa de la FFT para N = 8 . . . . . . . . . 397
C.10.Las tres etapas de la FFT para N = 8 . . . . . . . . . . . . . . . 398

D.1. Circuito RC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412


xvi ÍNDICE DE FIGURAS
Índice de cuadros

3.1. Presencia de modos en descomposiciones de la respuesta . . . . . 45


3.2. Presencia de modos en descomposiciones de la respuesta del Ejem-
plo 3.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

4.1. Presencia de modos en descomposiciones de la respuesta . . . . . 73


4.2. Presencia de modos en descomposiciones de la respuesta del ejemplo 75

5.1. Amplitud y fase de las armónicas en el Ejemplo 5.8. . . . . . . . 111

7.1. Índices de la respuesta a escalón . . . . . . . . . . . . . . . . . . 166


7.2. Arreglo de Routh . . . . . . . . . . . . . . . . . . . . . . . . . . . 175

8.1. Arreglo de Jury . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208


8.2. Arreglo de Jury. Ejemplo 8.10 . . . . . . . . . . . . . . . . . . . . 210
8.3. Arreglo de Jury. Ejemplo 8.11 . . . . . . . . . . . . . . . . . . . . 210

9.1. Aproximaciones asintóticas de magnitud de factores básicos . . . 228


9.2. Aproximaciones asintóticas de fase de factores básicos . . . . . . 229
9.3. Contribución de pendientes entre puntos de quiebre. Diagrama
de magnitud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
9.4. Contribución de pendientes entre puntos de quiebre. Diagrama
de fase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
9.5. Diagramas de bloques y transferencias equivalentes . . . . . . . . 249

C.1. Propiedades de la transformada de Fourier. . . . . . . . . . . . . 388


C.2. Tabla de tranformadas de Fourier . . . . . . . . . . . . . . . . . 389
C.3. Propiedades de la transformada de Fourier discreta. . . . . . . . 390
C.4. Tabla de tranformadas de Fourier discretas . . . . . . . . . . . . 391

D.1. Propiedades de la transformada de Laplace . . . . . . . . . . . . 414


D.2. Transformadas de Laplace de algunas funciones simples . . . . . 415
D.3. Transformadas inversas de Laplace útiles . . . . . . . . . . . . . . 421

E.1. Propiedades de la transformada Zeta . . . . . . . . . . . . . . . . 433


E.2. Transformada Zeta de algunas funciones simples . . . . . . . . . 434

xvii
xviii ÍNDICE DE CUADROS
sistema
entrada
condiciones iniciales

Capı́tulo 1

Aspectos fundamentales

1.1. Sistemas
La entidad básica considerada a lo largo del texto es el sistema. Como una
forma de uniformar el lenguaje a utilizar, usaremos la siguiente definición:

Definición 1.1. Un sistema es un ente organizado, resultante de la inter-


conexión de elementos básicos, que según el juicio de un observador tiene una
finalidad y carácter determinado.

222
Esta definición es vaga a propósito, de modo que ella permita describir situa-
ciones tan disı́miles como sea posible. Es ası́ como la definición de arriba incluye
casos como los de una red eléctrica, un motor hidráulico, un organismo vivo, la
economı́a de un paı́s, etc. También es relevante destacar que un mismo sistema
fı́sico puede tener interés diferente para distintos observadores; por ejemplo, un
amplificador electrónico puede ser estudiado como un sistema eléctrico o co-
mo un sistema térmico. De esta forma la nocion de sistema resulta un tanto
abstracta, pero por lo mismo sumamente poderosa.
Nuestra tarea guarda relación con el comportamiento de los sistemas en el
tiempo, el cual depende de:
y este comportamiento no sólo depende , sino que también de:

los elementos que lo forman y su interconexión, descritos mediante un


modelo matemático;

los estı́mulos, entradas o excitaciones aplicados al sistema;

la historia del sistema, condensada en un conjunto de condiciones ini-


ciales;

la variable independiente tiempo (cuando los elementos del sistema y/o


la interconexión de ellos cambian a medida que el tiempo transcurre).

1
2 CAPÍTULO 1. ASPECTOS FUNDAMENTALES

se~
nales Las entradas al sistema son señales o funciones temporales a través de las
respuestas
sistema!dinámico cuales el sistema recibe información y/o energı́a. Estos estı́mulos contribuyen a
generar cambios en algunas o en todas las variables del proceso; estas últimas
también son señales puesto que pueden ser descritas como funciones del tiempo.
Las señales del proceso elegidas para observar el comportamiento del sistema se
conocen como respuestas.
Las respuestas de un sistema pueden depender también de la información
y/o energı́a existentes (almacenadas) en el sistema en el instante en que el com-
portamiento del sistema empieza a ser observado. Los sistemas con esta carac-
terı́stica inercial se denominan genéricamente sistemas dinámicos. Ejemplos
de mecanismos inerciales en sistemas son:

la velocidad inicial de un motor


el valor inicial de una variable en un computador
la temperatura inicial de una masa
la tensión inicial en un condensador.

Supongamos que deseamos conocer las respuestas en un sistema dado, a


partir de un instante inicial to . Entonces será suficiente conocer ciertas variables
(estado) del sistema en t = t0 , y las excitaciones ∀t ≥ to .
Para ilustrar estas ideas analizaremos el siguiente ejemplo.
Ejemplo 1.1. Consideremos la red eléctrica de la Figura 1.1.
R

+
vf (t) C vc (t)
i(t)

Figura 1.1: Sistema eléctrico

Esta red es un sistema eléctrico formado por la interconexión de un resistor


y un condensador (los elementos). Hay una entrada al sistema determinada por
la tensión aplicada a través de la fuente independiente de tensión. Como salida
se puede elegir cualquier señal eléctrica, como por ejemplo, la potencia disipada
en el resistor, la corriente en el circuito, la tensión en el condensador, etc.
En la Figura 1.1 se han indicado dos señales, i(t) y vc (t), que han sido
elegidas como respuestas del sistema. Para determinar el valor de estas señales
∀t ≥ 0, necesitamos conocer vf (t) ∀t ≥ to y vc (0).
222
Para representar un sistema en forma compacta usaremos el diagrama de la
Figura 1.2. En esa figura se ha usado la siguiente notación:
1.1. SISTEMAS 3

u(t) ∈ Rm : vector que reúne todas las excitaciones del sistema, operador
estado inicial
x(to ) ∈ Rn : vector que describe el estado del sistema al tiempo to ,
y(t) ∈ Rp : vector que reúne las señales escogidas como salidas.

u(t) y(t)
S

x(to )

Figura 1.2: Representación compacta de un sistema

Para representar genéricamente al sistema usaremos la notación:

y(t) = Thhx(to ), u(t)ii ∀t ≥ to (1.1)

En (1.1), Thh◦, ◦ii es un operador que describe formalmente la dependencia


que la salida y(t) tiene del estado inicial, x(to ), y de la entrada u(t). Este
operador puede ser variante en el tiempo.

Ejemplo 1.2. En el Ejemplo 1.1 se tiene que:

dvc (t)
vf (t) = RC + vc (t) (1.2)
dt
cuya solución es1 :
Z t t−η
t−to e− RC
vc (t) = vc (to )e− RC + vf (η)dη (1.3)
to RC

Entonces, si hacemos la asociación y(t) = vc (t), u(t) = vf (t) y x(to ) =


vc (to ), la ecuación (1.3) puede ser identificada con (1.1), es decir,

vc (t) = Thhvc (to ), vf (t)ii ∀t ≥ to (1.4)

222
Las definiciones precedentes se aplican también a los sistemas de tiempo
discreto, es decir, cuando el tiempo toma valores en un conjunto enumerable
(t0 , t1 , t2 , . . .). En este tipo de sistemas, la variable independiente temporal se
suele denominar t, y para enfatizar la naturaleza distinta de las señales de tiem-
po discreto, usaremos paréntesis cuadrados, es decir, f [t] describirá una señal
función de la variable temporal discreta.
Para ilustrar este tipo de sistemas consideremos el siguiente ejemplo.
1 Tal como se demostrará en el Capı́tulo 3.
4 CAPÍTULO 1. ASPECTOS FUNDAMENTALES

sistema!algebraico Ejemplo 1.3. Una cuenta de ahorro tiene un saldo inicial s[t0 ] = so , y recibe
modelo
modelo un interés igual a ρ % mensual. Si en el mes t-ésimo (t = t0 , t0 + 1, . . .) se hace
un depósito igual a d[t], entonces el saldo s[t] puede ser descrito por:
 ρ 
s[t] = s[t − 1] 1 + + d[t] ∀t ≥ t0 (1.5)
100
y sujeto a s[t0 ] = so . En este sistema, la entrada es d[t], la salida es s[t], y el
estado inicial es s[t0 ]. La ecuación (1.5) tiene como solución:
t
X
s[t] = so αt−t0 + αt−` d[`] ∀t > t0 (1.6)
`=t0 +1

La ecuación (1.6) puede ser asociada con una estructura análoga a la de


(1.1), es decir:

y[t] = Thhx[t0 ], u[t]ii ∀t ≥ t0 (1.7)


222

Existe una clase de sistemas en los cuales no hay elementos almacenadores de


energı́a. Estos sistemas se conocen como sistemas algebraicos o instantáneos. Ejem-
plos clásicos de estos sistemas son las redes eléctricas resistivas. Para ellos la
representación (1.1) se reduce a:

y(t) = Thhu(t)ii o y[t] = Thhu[t]ii (1.8)


En estricto rigor, todos los sistemas reales son sistemas dinámicos. Sin em-
bargo, puede ocurrir que para un observador, la escala de tiempo es tal que,
desde el punto de vista práctico, los fenómenos ocurren en forma instantánea.
En esos casos, para efectos prácticos, el sistema se representa a través de un
modelo algebraico.

1.2. Modelos
Cuando se enfrenta el problema de analizar un sistema, naturalmente no tra-
bajamos con el sistema real, sino que con una representación de ese sistema. Esa
representación o modelo, captura aspectos esenciales del sistema. Por defini-
ción, un modelo es una representación aproximada de la realidad, y su grado
de fidelidad depende de muchos factores, siendo uno de ellos el propósito del
modelo.
La construcción de modelos a partir de sistemas reales es un proceso complejo
que involucra la fenomenologı́a del sistema, mediciones, procesos de ajuste, etc.
La obtencion de modelos es, por si sola, una disciplina rica en conceptos y
técnicas, sobre las cuales se entregan mas antecedentes en el Capı́tulo 12.
A lo largo del texto, supondremos que ya se cuenta con un modelo que
describe el sistema y, en consecuencia, la teorı́a que aquı́ se desarrolla se aplica
al modelo del sistema bajo estudio. El que las conclusiones que ası́ se deriven
1.3. SISTEMAS LINEALES 5

sean válidas para el sistema mismo dependerá de la fidelidad con que el modelo sistemas lineales
superposici\’on
representa a ese sistema. En muchos casos hablaremos del modelo y del sistema homogeneidad
como sinónimos, en otros será necesario hacer la diferencia.

1.3. Sistemas lineales


Los sistemas lineales son un subconjunto del universo de los sistemas. Su
importancia radica en la conjunción de dos elementos:
muchos sistemas pueden representarse por modelos lineales de razonable
fidelidad; y
existen poderosas herramientas para analizar y sintetizar este tipo de sis-
temas.
La naturaleza de esta conjunción se irá apreciando a medida que progresemos
en el tema. No obstante ello, una visión temprana de estas razones se puede
apreciar de inmediato en las definiciones que siguen.
Definición 1.2. Consideremos un sistema S, como se describe en la Figura 1.2
y la ecuación (1.1). Supongamos además que el sistema cumple con:

y1x (t) = Thhx1 (to ), 0 i ∀t ≥ to (1.9)


y1u (t) = Thh0, u1 (t)ii ∀t ≥ to (1.10)
y2x (t) = Thhx2 (to ), 0 i ∀t ≥ to (1.11)
y2u (t) = Thh0, u2 (t)ii ∀t ≥ to (1.12)

donde x1 (to ) y x2 (to ), son dos vectores de estado inicial arbitrarios,y u1 (t) y
u2 (t) son dos vectores de entrada arbitrarios.
Entonces el sistema es lineal si y sólo si:

y(t) = Thhα1 x1 (to ) + α2 x2 (to ), β1 u1 (t) + β2 u2 (t)ii ∀t ≥ to (1.13)


= α1 Thhx1 (to ), 0 i + α2 Thhx2 (to ), 0 i + β1 Thh0, u1 (t)ii + β2 Thh0, u2 (t)ii (1.14)
= α1 y1x (t) + α2 y2x (t) + β1 y1u (t) + β2 y2u (t) (1.15)

para cualquier conjunto de constantes α1 , α2 , β1 y β2 .


222
En la definición precedente se han combinado las dos propiedades claves que
definen los sistemas lineales: superposición y homogeneidad.
La propiedad de superposición encierra la idea que la salida del sistema se
puede calcular separando los efectos de componentes del estado y/o componentes
de la salida, y luego sumando (superponiendo) las respuestas a cada uno de
esos componentes. Note que existen tres formas en que se puede presentar la
superposición:
6 CAPÍTULO 1. ASPECTOS FUNDAMENTALES

sistema!algebraico superposición de la entrada y el estado inicial, es decir

Thhx(to ), u(t)ii = Thhx(to ), 0 i + Thh0, u(t)ii (1.16)

superposición de componentes del estado inicial, es decir

Thhx1 (to ) + x2 (to ), 0 i = Thhx1 (to ), 0 i + Thhx2 (to ), 0 i (1.17)

superposición de componentes de la entrada, es decir

Thh0, u1 (t) + u2 (t)ii = Thh0, u1 (t)ii + Thh0, u2 (t)ii (1.18)

Por su parte, la idea de homogeneidad se expresa en que, en los sistemas


lineales, la proporcionalidad en la entrada y/o el estado se propaga a la salida
sin alteración, es decir

Thhαxo , 0 i = αThhxo , 0ii (1.19)


Thh0, βu(t)ii = βThh0, u(t)ii (1.20)

La ecuación (1.19) describe la homogeneidad respecto del estado inicial,


mientras que la ecuación (1.20) describe la homogeneidad respecto de la en-
trada.
Para los sistemas algebraicos las propiedades de homogeneidad y superposi-
ción se aplican sólo a la entrada del sistema, es decir

y(t) = Thhβ1 u1 (t) + β2 u2 (t)ii = β1 Thhu1 (t)ii + β2 Thhhu2 (t)ii (1.21)

En resumen, podemos afirmar que la propiedad de linealidad nos permite


descomponer el efecto de una combinacion lineal de entradas y condiciones
iniciales como la combinacion lineal de sus efectos individuales.

Para ilustrar las definiciones anteriores consideramos a continuacion algunos


ejemplos.
Ejemplo 1.4. Considere un sistema algebraico cuya relación entrada-salida
está dada por:

y(t) = Thhu(t)ii = 2|u(t)| (1.22)


El sistema es lineal si y sólo si la condición (1.21) se cumple para toda
elección de las constantes β1 y β2 . Es fácil observar que si, por ejemplo, elegimos
β1 = −1 y β2 = 0, tal condición no se cumple, ya que:

y(t) = Thh−u1 (t)ii = 2|u1 (t)| 6= −2|u1 (t)| = −Thhu1 (t)ii (1.23)

En consecuencia, el sistema (1.22) no es lineal.


222
1.3. SISTEMAS LINEALES 7

Ejemplo 1.5. Sea un sistema cuya relación entrada-salida está descrita por: integrador

dy(t) n
= (u(t)) sujeto a y(to ) = xo (1.24)
dt
Entonces, el estado inicial x(to ) es xo y la respuesta resulta:
Z t
n
y(t) = Thhxo , u(t)ii = xo + (u(η)) dη ∀t ≥ to (1.25)
to

Note que, de la ecuación (1.25), se ve que el efecto de la entrada y el efecto


de la condición inicial se pueden superponer, ya que:

( Rt n
yx (t) = Thh0, u(t)ii = to (u(η)) dη
y(t) = yx (t) + yu (t) (1.26)
yu (t) = Thhxo , 0 i = xo

Consideremos ahora el caso del estado inicial x(to ) = xo = α1 x1 (to ) +


α2 x2 (to ), con u(t) = 0; entonces la respuesta y(t) = yx (t) está dada por:

y(t) = α1 x1 (to ) + α2 x2 (to ) = α1 Thhx1 (to ), 0 i + α2 Thhx2 (to ), 0 i (1.27)

De la ecuación (1.27) se comprueba que el sistema tiene la propiedad de


superposición de las componentes del estado. Naturalmente que tiene además la
propiedad de homogeneidad del estado.
Finalmente analizamos el caso donde x1 (to ) = x2 (to ) = y(to ) = 0, y u(t) =
β1 u1 (t) + β2 u2 (t), la respuesta y(t) = yu (t) está entonces dada por:
Z t
n
y(t) = (β1 u1 (η) + β2 u2 (η)) dη ∀t ≥ to (1.28)
to

De esta ecuación se puede ver que la propiedad de superposición de las com-


ponentes de la entrada se cumple si y sólo si n = 1. Igual condición, necesaria
y suficiente, se aplica para la homogeneidad de la entrada.
Resumiendo, el sistema del ejemplo tiene las siguientes caracterı́sticas:
tiene la propiedad de superposición del estado y de la entrada;
tiene la propiedad de superposición y homogeneidad del estado;
tiene la propiedad de superposición y homogeneidad de la entrada si y
sólo si n = 1.
En consecuencia, el sistema del ejemplo es lineal si y sólo si n = 1.
222
El lector debe tener claro que la propiedad de linealidad (o no linealidad) de
un sistema dado no es necesariamente una propiedad intrı́nseca de ese sistema,
sino que puede depender de la elección de la variable de salida, y/o de la variable
8 CAPÍTULO 1. ASPECTOS FUNDAMENTALES

de entrada. Para visualizar esto, supongamos que en la ecuación (1.24) definimos


4 n
como entrada la señal ũ(t) = (u(t)) . Entonces es fácil demostrar que el sistema
con entrada ũ(t) y salida y(t) es lineal.
Se puede construir un segundo ejemplo a partir de la red eléctrica de la
Figura 1.1 en la página 2. Supongamos que escogemos como salida la potencia
p(t) disipada en el resistor. Entonces, el modelo de entrada-salida resulta dado
por:
Z r
p 1 t p(τ )
vf (t) = p(t)R + dτ (1.29)
C −∞ R
donde hemos usado la ley de Joule p(t) = R(i(t))2 .
La discusión precedente nos motiva a introducir una nota de cautela en esta
materia

La linealidad o no linealidad de un sistema debe entenderse como la lineali-


dad o no linealidad del modelo especı́fico que relaciona la entrada y la salida
particulares elegidas en el sistema.

1.4. Invarianza en el tiempo


Otra propiedad de interés es la de invarianza en el tiempo. Un sistema es
invariante en el tiempo cuando las propiedades del sistema no cambian en el
tiempo, es decir, cuando se cumple la situación de la Figura 1.3, para cualquier
valor del desplazamiento τ .

u(t) y(t) u(t − τ ) y(t − τ )


S S
invarianza
x(0) = xo en tiempo x(τ ) = xo

Figura 1.3: Propiedad de invarianza en el tiempo

En palabras, la Figura 1.3 dice que si retardamos la entrada (y las condiciones


iniciales) la respuesta es la misma que antes, retardada en la misma cantidad.
En rigor, no existen los sistemas invariantes en el tiempo, excepto en su
expresión matemática pura. Sin embargo, es frecuente que la variación que ex-
perimenta un sistema dado con el transcurso del tiempo sea tan lenta, que se
considera despreciable para todo efecto práctico.
Otro aspecto a observar es que la invarianza en el tiempo (al igual que
la linealidad) no es necesariamente una propiedad intrı́nseca de un sistema.
Consideremos el caso de un sistema con entrada u(t) ∈ R y salida y(t) ∈ R,
1.5. LINEALIZACIÓN 9

donde y(t) = 4u(t) − f (t), donde f (t) es una función (no constante) del tiempo. linealización|textbf
punto de operación
Entonces este sistema es variante en t. Sin embargo, si redefinimos el mismo modelo!linealizado
sistema de modo que la entrada es ahora el vector ũ(t) ∈ R2 , dado por ũ(t) =
˜ donde α es
[u(t) f (t)]T y mantenemos la salida y(t) ∈ R, entonces y(t) = αu(t),
un vector fila constante dado por α = [4 − 1]. El sistema ası́ definido es ahora
invariante en t.

La propiedad de invarianza en el tiempo, en conjunto con la propiedad de


linealidad, son las que permiten aplicar una serie de potentes herramientas
de análisis, sı́ntesis y diseño de sistemas.

1.5. Linealización
Como hemos mencionado ya, casi todos los sistemas reales incluyen carac-
terı́sticas no lineales. Sin embargo, muchos de ellos pueden ser descritos con
razonable precisión por modelos lineales, al menos dentro de ciertos rangos en
que el sistema funciona, lo cual permite aplicar una amplia gama de herramien-
tas matemáticas.
Del punto de vista práctico, para obtener estos modelos lineales es común
comenzar con un modelo no lineal y, a partir de éste construir una aproxima-
cion lineal en la vecindad de un punto de operación elegido. Este enfoque
constituye una herramienta clave para el modelado lineal en diversos campos,
por ejemplo, en la Electrónica analógica y en el Control Automático.
La estrategia de linealización puede ser aplicada de igual forma a modelos
de tiempo continuo y a modelos de tiempo discreto, a modelos en variables
de estado (Capı́tulo 10) y a modelos de entrada-salida (ecuaciones recursivas y
ecuaciones diferenciales de orden superior).
Antes de intentar la formulación de un procedimiento general de lineal-
ización, motivaremos el tema con el estudio de dos casos. Ambos casos se
frasearán de idéntica forma, con las obvias adaptaciones, para que el lector
pueda apreciar que el tema de linealización trasciende la naturaleza de la de-
scripción temporal.

1.5.1. Sistema no lineal de tiempo continuo


Considere un sistema con entrada u(t) y salida y(t), donde el modelo de
entrada-salida está dado por:

 3
d 2 y(t) d y(t) 3 d u(t)
+ (0, 2 + y(t)) + (y(t)) = 2 + u(t) (1.30)
dt 2 dt dt

La idea es construir un modelo (ecuación diferencial) lineal en que las señales


involucradas sean:
10 CAPÍTULO 1. ASPECTOS FUNDAMENTALES

4
∆u(t) = u(t) − uQ (1.31)
4
∆y(t) = y(t) − yQ (1.32)

en que la entrada incremental ∆u(t) y la salida incremental ∆y(t) representan


las variaciones de las señales u(t) e y(t) en torno al punto de operacion (u Q , yQ ).
La ecuación (1.30) puede re-escribirse, miembro a miembro, como:

ga (x1 (t), x2 (t), x3 (t)) = gb (x4 (t), x5 (t)) (1.33)


donde x1 (t) = y(t), x2 (t) = ẏ(t), x3 (t) = ÿ(t), x4 (t) = u(t) y x5 (t) = u̇(t). De
esta forma:

3
ga (x1 (t), x2 (t), x3 (t)) = x3 (t) + (0, 2 + x1 (t))x2 (t) + (x1 (t)) (1.34)
3
gb (x4 (t), x5 (t)) = (2x5 (t) + x4 (t)) (1.35)

Luego hacemos la expansión en serie de Taylor (ver Apéndice A) de ga


y gb para, finalmente, igualar las aproximaciones de primer orden de ambas
funciones. Esto lleva a:

2
ga (x1Q , x2Q , x3Q ) + (3 (x1Q ) + x2Q )(x1 (t) − x1Q )
+ (0, 2 + x1Q )(x2 (t) − x2Q ) + (x3 (t) − x3Q )
2
= gb (x4Q , x5Q ) + 3 (2x5Q + x4Q ) (x4 (t) − x4Q )
2
+ 6 (2x5Q + x4Q ) (x5 (t) − x5Q ) (1.36)

Usando las definiciones anteriores tenemos que:

x1 (t) − x1Q = ∆y(t) (1.37)


d ∆y(t)
x2 (t) − x2Q = ∆ẏ(t) = − x2Q (1.38)
dt
d 2 ∆y(t)
x3 (t) − x3Q = ∆ÿ(t) = − x3Q (1.39)
dt 2
x4 (t) − x4Q = ∆u(t) (1.40)
d ∆u(t)
x5 (t) − x5Q = ∆u̇(t) = − x5Q (1.41)
dt
Para lograr el objetivo deseado, es decir, una ecuación diferencial en ∆u(t)
y ∆xi (t), es necesario que el conjunto de valores (x1Q , x2Q , . . . , x5Q ) que define
el punto de operación satisfaga:
ga (x1Q , x2Q , x3Q ) = gb (x4Q , x5Q ) (1.42)
1.5. LINEALIZACIÓN 11

con lo cual, ga (x1Q , x2Q , x3Q ) y gb (x4Q , x5Q ) se compensan en la ecuación (1.36). punto de equilibrio
En esta etapa de nuestro análisis es oportuno hacer las siguientes observa-
ciones:

(i) Cada derivada debe ser asociada a una variable xi .


(ii) El punto de operación es arbitrario; pero para llegar a un modelo lineal-
izado, debe satisfacer la ecuación no lineal original. Para este caso, un
ejemplo de punto de operación es x1Q = 2, x2Q = 1, x3Q = −9, 2, x4Q = 3
y x5Q = −1.
(iii) Es necesario elegir un punto de operación para el que las derivadas de y(t)
y de u(t), respecto del tiempo, sean iguales a cero. Este punto de operación
se conoce como punto de operación en equilibrio o, más brevemente, punto
de equilibrio. La idea es que si un sistema está en un punto de equilibrio,
el sistema se mantiene operando en ese punto ya que las derivadas de y(t) y
de u(t) son cero. La elección del punto de equilibrio se hace considerando
el punto en que el sistema a analizar estará operando. Para este caso,
existen infinitos puntos de equilibrio y todos ellos satisfacen x1Q = x4Q ,
x2Q = 0,x3Q = 0 y x5Q = 0. Con esto, las ecuaciones (1.37)-(1.41) se
transforman en:

x1 (t) − x1Q = ∆y(t) (1.43)


d ∆y(t)
x2 (t) − x2Q = ∆ẏ(t) = (1.44)
dt
d 2 ∆y(t)
x3 (t) − x3Q = ∆ÿ(t) = (1.45)
dt 2
x4 (t) − x4Q = ∆u(t) (1.46)
d ∆u(t)
x5 (t) − x5Q = ∆u̇(t) = (1.47)
dt
El modelo lineal para el caso estudiado tiene entonces la forma:

d 2 ∆y(t) d ∆y(t) d ∆u(t)


+ a1 + a0 ∆y(t) = b1 + b0 ∆u(t) (1.48)
dt 2 dt dt
(iv) Cuando el modelo no lineal está descrito por dos o más ecuaciones, las
coordenadas del punto de operación deben satisfacer al conjunto de ecua-
ciones simultáneas.
(v) Un punto de operación en equilibrio se calcula a partir del modelo alge-
braico (tal vez no lineal) que resulta de hacer cero todas las derivadas en
el modelo dinámico no lineal.
4
(vi) La linealización puede hacerse sobre la función compuesta g = ga −gb = 0.

222
12 CAPÍTULO 1. ASPECTOS FUNDAMENTALES

1.5.2. Sistema no lineal de tiempo discreto


Considere un sistema de tiempo discreto con entrada u[t] y salida y[t], donde
el modelo de entrada-salida es la ecuación recursiva:

y[t] + 0, 5y[t − 1]y[t − 2] + 0, 1u[t](y[t − 2])2 = (u[t − 1])3 (1.49)


La idea es construir un modelo (ecuación recursiva) lineal en que las señales
involucradas sean:

4
∆u[t] = u[t] − uQ (1.50)
4
∆y[t] = y[t] − yQ (1.51)

en que la entrada incremental ∆u[t] y la salida incremental ∆y[t] representan las


variaciones de las variables u[t] e y[t] en torno al punto de operación (uQ , yQ ).
La ecuación (1.30) puede re-escribirse, miembro a miembro, como:

gc (x1 [t], x2 [t], x3 [t], x4 [t]) = gd (x5 [t]) (1.52)


donde x1 [t] = y[t], x2 [t] = y[t − 1], x3 [t] = y[t − 2], x4 [t] = u[t] y x5 [t] = u[t − 1].
Ası́:

2
gc (x1 [t], x2 [t], x3 [t], x4 [t]) = x1 [t] + 0, 5x2 [t]x3 [t] + 0, 1x4 [t] (x3 [t]) (1.53)
3
gd (x5 [t]) = (x5 [t]) (1.54)

Luego hacemos la expansión en serie de Taylor (ver Apéndice A) de gc y


gd para, finalmente, igualar las aproximaciones de primer orden de ambas fun-
ciones. Esto lleva a:

gc (x1Q , x2Q , x3Q , x4Q ) + (x1 [t] − x1Q )


+ 0, 5x2Q (x3 [t] − x3Q ) + 0, 5x3Q (x2 [t] − x2Q )
2
+ 0, 2x4Q x3Q (x3 [t] − x3Q ) + 0, 1 (x3Q ) (x4 [t] − x4Q )
2
= gd (x5Q ) + 3 (x5Q ) (x5 [t] − x5Q ) (1.55)

Usando las definiciones anteriores y la notación ∆y[t − `] = y[t − `] − x 1Q y


∆u[t − j] = u[t − j] − x4Q , tenemos que:

x1 [t] − x1Q = ∆y[t] (1.56)


x2 [t] − x2Q = ∆y[t − 1] + x1Q − x2Q (1.57)
x3 [t] − x3Q = ∆y[t − 2] + x1Q − x3Q (1.58)
x4 [t] − x4Q = ∆u[t] (1.59)
x5 [t] − x5Q = ∆u[t − 1] + x4Q − x5Q (1.60)
1.5. LINEALIZACIÓN 13

Para lograr el objetivo deseado, es decir, una ecuación recursiva en ∆u[t] y punto de equilibrio
∆y[t], es necesario que el punto de operación (x1Q , x2Q , . . . , x5Q ) satisfaga:

gc (x1Q , x2Q , x3Q , x4Q ) = gd (x5Q ) (1.61)


con lo cual, gc (x1Q , x2Q , x3Q , x4Q ) y gd (x5Q ) se compensan en (1.55).
En esta etapa de nuestro análisis es oportuno hacer las siguientes observa-
ciones:

(i) Cada señal retardada debe ser asociada a una variable xi .

(ii) El punto de operación es arbitrario; pero para llegar a un modelo lineal-


izado, debe satisfacer la ecuación no lineal original. Para este caso, un
ejemplo de punto de operación es x1Q = −2, x2Q = 1, x3Q = 2, x4Q = 5
y x5Q = 1.

(iii) Es necesario elegir un punto de operación en que las señales son constantes,
es decir, u[t] = uQ e y[t] = yQ , para todo instante t, lo cual implica también
que todas las diferencias son cero. Este punto de operación se conoce como
punto de operación en equilibrio o, más brevemente, punto de equilibrio.
La idea es que si un sistema está en un punto de equilibrio, el sistema se
mantiene operando en ese punto ya que las diferencias de y[t] y de u[t] son
cero. La elección del punto de equilibrio se hace considerando el punto en
que el sistema a analizar estará operando. Para este caso, existen infinitos
puntos de equilibrio y todos ellos satisfacen x1Q = x2Q = x3Q = yQ ,
x4Q = x5Q = uQ , e

2 2
yQ + 0, 5yQ + 0, 1uQ yQ = u3Q (1.62)

El modelo lineal tiene entonces la forma

∆y[t] + c1 ∆y[t − 1] + c0 ∆y[t − 2] = d1 ∆u[t] + d0 ∆u[t − 1] (1.63)

(iv) Cuando el modelo no lineal está descrito por dos o más ecuaciones, las
coordenadas del punto de operación deben satisfacer al conjunto de ecua-
ciones simultáneas.

(v) Un punto de operación en equilibrio se calcula a partir del modelo alge-


braico que resulta de hacer cero todas las diferencias en el modelo dinámico
no lineal, es decir, cada una de las señales involucradas es reemplazada por
una constante a calcular, con independencia del retardo que ella exhiba.
4
(vi) La linealización puede hacerse sobre la función compuesta g = gc −gd = 0.

222
El análisis de los casos precedentes muestra que, con independencia de la
naturaleza temporal de los sistemas (continuo o discreto), la linealización de
14 CAPÍTULO 1. ASPECTOS FUNDAMENTALES

punto de operación sus modelos no lineales tiene ciertos pasos básicos. En primer lugar, restringire-
se~
nal incremental
modelo!peque~
na se~ nal mos la linealización a la construcción de modelos lineales en torno a puntos
de equilibrio. Observamos que cuando trabajamos en un punto de equilibrio,
todos los valores de ese punto x1Q , x2Q , . . . , se pueden expresar en función del
par (uQ , yQ ); por ello diremos que el punto de operación en equilibrio queda
definido por ese par.
Supongamos que el sistema con entrada u(◦) y salida y(◦) es descrito por:

f hu(◦), y(◦)i = 0 (1.64)


donde f h ◦ i es un operador no lineal y, posiblemente, dinámico.
También suponemos que:

(i) existe, al menos un par de valores constantes reales (uQ , yQ ) tales que,

f huQ , yQ i = 0 (1.65)

Cada uno de estos pares define un punto de operación en equilibrio.


(ii) f hu(◦), y(◦)i es infinitamente diferenciable, con respecto a u, con respecto
a y, y con respecto a las derivadas (o valores retardados) de ambos, en el
punto de operación de interés.

Si expresamos u(◦) y y(◦) como

u(◦) = uQ + ∆u(◦) (1.66)


y(◦) = yQ + ∆y(◦) (1.67)

entonces podemos expandir el lado izquierdo de la ecuación (1.64) en una serie


de Taylor, en torno al punto de operación (uQ , yQ ). Si en esa expansión tomamos
sólo los términos de primer orden, entonces el resultado es un modelo lineal, una
ecuación diferencial o una ecuación recursiva, en las variables ∆u(◦) y ∆y(◦).
Nota 1.1. El procedimiento de linealización en el caso de un sistema discreto se
desarrolla sin dificultad porque las derivadas parciales de la expansión en serie
de Taylor se realizan con respecto a las variables de entrada y de salida y no
con respecto de la variable tiempo (discreto).
Nota 1.2. El procedimiento de linealización presentado anteriormente genera
un modelo que es lineal en las componentes incrementales de las entradas y
las salidas en torno a un punto de operación elegido (i.e. se trata de un modelo
a pequeña señal).
Ilustramos esto a través de algunos ejemplos.
Ejemplo 1.6. Considere un sistema de tiempo continuo descrito por el modelo
2
dy(t) p (u(t))
f hu(t), y(t)i = + y(t) − =0 (1.68)
dt 3
1.5. LINEALIZACIÓN 15

Suponga que la entrada u(t) varı́a alrededor de u = 2. Encuentre un punto


de operación con uQ = 2 y un modelo linealizado en torno a él.
Solución
dy(t)
(i) El punto de operación es calculado de (1.68) con uQ = 2 y tomando dt =
0. Esto lleva a

2
√ (uQ ) 16
yQ − =0 =⇒ yQ = (1.69)
3 9
(ii) El modelo linealizado es entonces obtenido a través de la expansión de
(1.68) en serie de Taylor para obtener:

d∆y(t) 1 2uQ
+ √ ∆y(t) − ∆u(t) = 0 (1.70)
dt 2 yQ 3

Cuando se usan valores numéricos para el punto de operación, se obtiene


el siguiente modelo linealizado:

d∆y(t) 3 4
+ ∆y(t) − ∆u(t) = 0 (1.71)
dt 8 3
222
La idea fundamental que se deduce del proceso de linealización es que: las
propiedades del modelo lineal para valores pequeños de sus variables incremen-
tales, permiten inferir el comportamiento del sistema original en las cercanı́as
del punto de operación.
Para comparar efectivamente la calidad de la aproximación que provee un
modelo linealizado, es necesario poder simular ambos modelos, el original (no-
lineal) y el obtenido (lineal). Para ello, herramientas como Simulink o Simnon
son extraordinariamente poderosas. A modo de ejemplo, se incluye en la Figura
1.4 un esquema Simulink para simular el modelo no lineal del Ejemplo 1.6,
dado por:
2
dy p (u(t))
+ y(t) = (1.72)
dt 3
o, en forma más conveniente para armar el esquema Simulink :
2
dy p (u(t))
= − y(t) + (1.73)
dt 3
Para apreciar la calidad de la aproximación consideramos el sistema original
y su modelo linealizado y corremos una simulación donde la entrada a ambos
sistemas es una constante igual a 2 más una secuencia de pulsos de amplitud
creciente. Los resultados se muestran en la Figura 1.5. Podemos ver ahı́ que el
error de linealización crece a medida que el sistema es llevado lejos del punto de
operación, en torno al cual se calculó el modelo linealizado.
16 CAPÍTULO 1. ASPECTOS FUNDAMENTALES

1/3 |u|2 In1 Out1


u(t) y(t)

Gain Math
Function Integrador

sqrt

Raiz
Cuadrada

Figura 1.4: Diagrama Simulink para simulación de un sistema no lineal.

2.8

2.6

2.4

2.2

1.8

1.6

1.4
0 1 2 3 4 5 6 7 8 9 10
Tiempo [s]

Figura 1.5: Salida del sistema no lineal (linea sólida) y salida del sistema lin-
ealizado (lı́nea segmentada) para una onda cuadrada de amplitud
creciente en la entrada (lı́nea punteada)

Ejemplo 1.7. Las caracterı́sticas de un sistema no lineal de tiempo discreto,


con entrada u[t] y salida y[t], son descritas exactamente por

f hu[t], y[t]i = y[t] − 0,7y[t − 1] + 0,12(1 + 0,1u[t])y[t − 2] − 2 + sen (u[t − 1]) = 0


(1.74)
Construya un modelo linealizado en torno al punto de operación definido por
uQ = 0.
Solución

(i) Para calcular yQ aplicamos (1.65), de donde se obtiene

yQ − 0,7yQ + 0,12yQ = 2 =⇒ yQ = 4,762 (1.75)

(ii) El modelo linealizado es ahora construido de (1.74), llevando a


1.5. LINEALIZACIÓN 17

∆y[t] − 0,7∆y[t − 1] + 0,12(1 + 0,1uQ )∆y[t − 2]+


0,12yQ (∆u[t])) + cos (uQ ) ∆u[t − 1] = 0 (1.76)

Entonces, usando los valores numéricos para el punto de operación, se


obtiene el siguiente modelo linealizado:

∆y[t] − 0,7∆y[t − 1] + 0,12∆y[t − 2] = −0,571∆u[t] + ∆u[t − 1] (1.77)

222

Nota 1.3. Los paquetes computacionales modernos incluyen comandos espe-


ciales para calcular modelos linealizados en torno a puntos de operación definidos
por el usuario (pre-calculados). En el caso de Simulink , los comandos apropi-
ados son linmod (para sistemas de tiempo continuo) y dlinmod (para sistemas
de tiempo discreto e hı́bridos).

Nota 1.4. Como hemos mencionado, los modelos linealizados son sólo modelos
aproximados y, por tanto, deben ser considerados con la precaución apropia-
da (como deberı́an serlo en realidad todos los modelos). Cuando se realiza la
linealizacion de un modelo, el siguiente término de la expansión en serie de
Taylor puede ser utilizado frecuentemente como una medida del error asociado
al modelado.

Los modelos lineales pueden ser obtenidos linealizando un modelo no lineal


en torno a un punto de operación. En muchas aplicaciones, los modelos
lineales proveen suficiente información para estudiar la operación del sistema
(no lineal) original y para sintetizar sistemas con suficiente precisión. Sin
embargo, se requiere desarrollar una metodologı́a para tratar los inevitables
errores de modelado que resultan de la linealización.

Una observación más general sobre el tema de la linealización se relaciona


con el hecho que este concepto se puede extender, de modo que la linealización
se hace, no en torno a un punto de operación, sino que a una trayectoria de
operación, es decir, en torno a una solución de interés (uQ (t), yQ (t)) del modelo
no lineal.
18 CAPÍTULO 1. ASPECTOS FUNDAMENTALES

1.6. Problemas para el lector


Problema 1.1. Considere un sistema cuyo modelo de comportamiento está da-
do por

y(t) = mu(t) + b (1.78)


Determine las condiciones que deben satisfacer las contantes m y b de modo
que el sistema sea lineal

Problema 1.2. El área de un rectángulo es A = xy, donde x e y representan


las longitudes de sus lados.

1.2.1 Obtenga una expresión linealizada para A en torno al punto de operación


xQ = 2, yQ = 5.

1.2.2 Obtenga y describa geométricamente el error cometido al usar el modelo


lineal para calcular el área de un rectángulo con lados x = 3 e y = 6.

Problema 1.3. Sea un sistema lineal algebraico de dimensión 2×2, es decir,


con dos entradas y dos salidas. Se realizan algunos experimentos y se llega a:

y(t) = [2 − 1]T = Thh[1 − 1]T i (1.79)


y(t) = [3 4]T = Thh[1 − 2]T i (1.80)

Determine la respuesta del sistema cuando la entrada es u(t) = [1 1]T

Problema 1.4. Considere un sistema con entrada u(t) y salida y(t), rela-
cionados por la ecuación diferencial

dy(t)  2

+ 2 + 0,1 (y(t)) y(t) = 2u(t) (1.81)
dt
1.4.1 Determine los modelos linealizados para un punto de operación definido
por yQ = 0,1.

1.4.2 Repita el punto anterior para yQ = 3. Compare con el resultado anterior.

Problema 1.5. En un sistema con entrada u(t) y salida y(t), la relación


entrada-salida está dada por

d y(t) 2 1
y(t) + 3 (y(t)) = 2 (u(t)) 3 (1.82)
dt
Redefina, si es posible, la entrada y/o la salida de modo que el modelo en las
salidas redefinidas sea lineal.
1.6. PROBLEMAS PARA EL LECTOR 19

Problema 1.6. Considere la función no lineal dada por


(
u(t) ∀|u(t)| ≤ 1
y(t) = (1.83)
signo{u(t)} ∀|u(t)| > 1

Discuta la linealización de esta función en distintos punto de operación.

Problema 1.7. En los sistemas tributarios modernos existe un tasa progresiva,


es ası́ como a mayor ingreso, más alto es el porcentaje de impuesto a pagar.
Analice el sistema desde el punto de vista de la linealidad

Problema 1.8. Un sistema no lineal tiene un modelo dado por

d y(t)
+ f (y)y(t) = 2u(t) (1.84)
dt
Donde la función f (y) aparece en la Figura 1.6.

1.5

0.5
f(y)

−0.5

−1

−1.5
−4 −3 −2 −1 0 1 2 3 4
y

Figura 1.6: Ganancia no lineal para el Problema 1.8

Construya modelos linealizados para los puntos de operación determinados


por yQ = −3, yQ = 0 e yQ = 1.

Problema 1.9. Determine si el siguiente sistema es o no lineal

d y(t)
+ 2ty(t) = 2u(t) (1.85)
dt

Problema 1.10. Construya, si es posible, modelos lineales para los sistemas no


lineales cuyos modelos se indican, con las condiciones de operación especificadas
(en todos los puntos de operación resultantes)

y[t] − 0,5(y[t − 1])3 = u[t − 5] yQ = 2 (1.86)


u[t − 1]
y[t] − 0,2y[t − 1]y[t − 2] + 0,4y[t − 3] = uQ = 1 (1.87)
1 + 0,2(u[t − 2])2
20 CAPÍTULO 1. ASPECTOS FUNDAMENTALES

Problema 1.11. Considere el siguiente modelo no lineal

ẋ1 (t) = −2x1 (t) + 0,1x1 (t)x2 (t) + u(t) (1.88)


2
ẋ2 (t) = −x1 (t) − 2x2 (t) (x1 (t)) (1.89)
2
y(t) = x1 (t) + (1 + x2 (t)) (1.90)

Construya un modelo lineal en torno al punto de operación definido por


uQ = 1.

Problema 1.12. . Sistema predador-presa (Lotka-Volterra).


Considere el sistema de ecuaciones diferenciales no-lineales, que describe la
dinamica de una poblacion de conejos (c(t) > 0) y de zorros (z(t) > 0):

dc
= αc(t) + βc(t)z(t) (1.91)
dt
dz
= −γz(t) + δc(t)z(t) (1.92)
dt
en que los parámetros α, β, γ, δ son positivos.

1.12.1 Determine todos los puntos de equilibrio del sistema de ecuaciones.

1.12.2 Obtenga el sistema linealizado en torno a cada uno de los puntos de


equilibrio anteriores.

1.12.3 Estudie y compare el tipo de soluciones del sistema linealizado en cada


uno de los puntos de equilibrio.

1.12.4 Elija algun valor para los parámetros, y simule el sistema original y el
linealizado en torno a cada punto de equilibrio, representando la solucion
en el plano (c(t), z(t)).
se~
nales|textbf
se~
nales!de prueba
escalón unitario
Heaviside
impulso unitario
delta de Dirac|textbf
Dirac

Capı́tulo 2

Señales

2.1. Introducción
El comportamiento de los sistemas puede evaluarse observando las señales
correspondientes a las variables de entrada del sistema, variables de salida e
incluso a variables intermedias del mismo. Más aún, el comportamiento de los
sistemas puede estudiarse, y ası́ suele hacerse, observando su respuesta cuando
se inyectan al sistema determinadas señales de prueba.
El análisis de señales es un aspecto esencial de la teorı́a de sistemas lineales,
no sólo por su valor experimental, sino que por la propiedad de linealidad, la
cual permite construir modelos en base a la respuesta del sistema ante ciertas
señales de prueba.

2.2. Señales de tiempo continuo


En el caso de los sistemas de tiempo continuo, existen varias señales que
juegan un rol fundamental en la teorı́a de los sistemas lineales. Ellas y sus
propiedades de mayor interés se presentan a continuación.

2.2.1. Escalón unitario (función de Heaviside)


El escalón unitario en el instante to se define como
(
4 1 ∀t ≥ to
µ(t − to ) = (2.1)
0 ∀t < to

y se representa en la Figura 2.1.

2.2.2. Impulso unitario o delta de Dirac

21
22 CAPÍTULO 2. SEÑALES

µ(t − to )

0 to t

Figura 2.1: Escalón unitario o función de Heaviside.

δ(t − to )

0 to t

Figura 2.2: Impulso unitario o delta de Dirac.

El impulso unitario o delta de Dirac es una señal peculiar. En estricto rigor


no es una función temporal, sino que es lo que se conoce en Matemática como
distribución o función generalizada. Se define como la función δ(◦) que satisface:
Z ∞
δ(t − to ) = 0 ∀t 6= to con δ(t − to )dt = 1 (2.2)
−∞

y se representa gráficamente como muestra la Figura 2.2.


Como se puede observar, esta señal no es fı́sicamente realizable, y se debe
entender como una idealización de determinadas situaciones. Algunas de ellas
se pueden apreciar en la Figura 2.3.

f1 (t) f2 (t)
1

1
2

to −  to to +  t to −  t o to +  t

Figura 2.3: Aproximaciones al delta de Dirac


2.2. SEÑALES DE TIEMPO CONTINUO 23

La funciones f1 (t) y f2 (t) de la Figura 2.3 cumplen con: funci\’on muestreo


rampa unitaria
Z ∞ Z ∞
f1 (t)dt = f2 (t)dt = 1 ∀ (2.3)
−∞ −∞

Además,

lı́m f1 (t) = lı́m f2 (t) = 0 ∀t 6= to (2.4)


→0 →0

Otra función de importancia que tiene la misma propiedad que f1 (t) y f2 (t)
es:
 
1 sen t−t

o

f3 (t) = (2.5)
π t − to
Esta función, conocida como la función muestreo, juega un papel muy im-
portante en la relación entre señales de tiempo continuo y de tiempo discreto
(ver Capı́tulo 11). Se puede demostrar que:

lı́m f3 (t) = δ(t − to ) (2.6)


→0

Una propiedad clave del delta de Dirac está descrita en el siguiente lema.

Lema 2.1. Considere una función cualquiera f (t), entonces


Z ∞
f (t) = f (τ )δ(t − τ )dτ (2.7)
−∞

222
El Lema 2.1 establece que toda señal puede ser expresada como una op-
eración lineal sobre el impulso δ(t − τ ) para −∞ < τ < ∞. Veremos más
adelante que esta propiedad será la base para calcular la respuesta de un sis-
tema lineal ante cualquier señal, a partir de la respuesta de ese sistema a un
impulso unitario.

2.2.3. Rampa unitaria


La rampa unitaria se define como:
(
t − to ∀t ≥ to
r(t − to ) = (2.8)
0 ∀t < to
y se muestra en la Figura 2.4.
El delta de Dirac, el escalón unitario y la rampa unitaria pertenecen a una
secuencia de funciones, donde cada una se puede obtener como la derivada de
la siguiente, es decir:

dµ(t − to ) d2 r(t − to )
δ(t − to ) = = (2.9)
dt dt2
24 CAPÍTULO 2. SEÑALES

exponencial r(t − to )
exponencial!creciente
constante de tiempo

0 to to + 1 t

Figura 2.4: Rampa unitaria.

o, equivalentemente, a través de la integral de la anterior, es decir:


Z t Z t Z τ
r(t − to ) = µ(τ − to ) dτ = δ(ν − to ) dν dτ (2.10)
−∞ −∞ −∞

Observe que hemos interpretado el impulso como la derivada del escalón, lo


cual implica dar un significado a la derivada de una función en un punto de
discontinuidad. Esto tiene sentido sólo si esa discontinuidad es finita. En todo
caso estas operaciones deben manejarse con precaución si se desea mantener el
rigor matemático.

2.2.4. Exponencial
La función exponencial es definida genéricamente como

f (t) = eαt (2.11)

donde α = σ + jω, σ, ω ∈ R. Sin embargo, cuando ω 6= 0, la exponencial no


es una señal real, y sólo tiene sentido fı́sico cuando se combina con su señal

compleja conjugada, f (t)∗ = eα t , en cuyo caso se obtiene una sinusoide de
amplitud modulada exponencialmente, situación que se analiza por separado
más adelante.
Para el caso α ∈ R distinguimos dos casos, como se ilustra en la Figura 2.5.
Cuando α > 0 tenemos una exponencial creciente. Esta señal está asociada a
los sistemas inestables, como es explicará más adelante. Cuando α < 0, esta-
mos en presencia de una exponencial decreciente. Esta forma exponencial es de
enorme importancia en la teorı́a de sistemas, ya que aparece con frecuencia en la
descripción de una amplia gama de fenómenos, por ejemplo, la descarga de un
condensador a través de un resistor y el decaimiento de sustancias radiactivas,
entre otros.
Naturalmente que el caso especial α = 0 corresponde a la función constante.
Para las exponenciales decrecientes se suele definir un parámetro adicional:
la constante de tiempo, definida como:
2.2. SEÑALES DE TIEMPO CONTINUO 25

8 1 sinusoide
7
0.8 α<0
6 α>0

5 0.6

4 0.4
3
0.2
2

1 0
0 1 2 3 4 0 1 2 3 4
Tiempo [s] Tiempo [s]

Figura 2.5: Exponenciales creciente (izquierda) y decreciente (derecha)

1
τ= (2.12)
|σ|

La constante de tiempo es una medida de la velocidad de decaimiento


de la exponencial, tal como se ilustra en la Figura 2.6.

0.8 τ >τ >τ


1 2 3

0.6 τ=τ
1

0.4 τ=τ
2

0.2 τ=τ
3

0
0 0.5 1 1.5 2 2.5 3 3.5 4
Tiempo [s]

Figura 2.6: Exponenciales de diferentes velocidades de decaimiento

Una propiedad interesante de la exponencial se muestra en la Figura 2.7,


donde se observa que la tangente a la curva, trazada en t = 0 intersecta la
ası́ntota de la exponencial (el eje temporal) exactamente en t = τ , lo cual puede
ser verificado analı́ticamente por el lector.

2.2.5. Señales sinusoidales


La señal fundamental en todo tipo de oscilaciones periódicas es la función
sinusoidal, que se describe en forma genérica por:

f (t) = A sen(ωt + β) (2.13)


26 CAPÍTULO 2. SEÑALES

sinusoide!amplitud 1
sinusoide!frecuencia angular
sinusoide!desfase 0.8
sinusoide!perı́odo
sinusoide!frecuencia 0.6
Euler
sinusoide!fórmula de Euler 0.4
exponencial imaginaria
sinusoide!amortiguada 0.2

0
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
Tiempo normalizado t/τ

Figura 2.7: Propiedad de la constante de tiempo

donde A es la amplitud, ω es la frecuencia angular (en [rad/s]) y β es el ángulo


de fase, o desfase.
El perı́odo, T [s], y la frecuencia, f [Hz], de la sinusoide están dados por:
1 2π
T = = (2.14)
f ω
Un representación equivalente para las señales sinusoidales se puede obtener
a partir de la fórmula de Euler

ej(ωt+β) − e−j(ωt+β)
A sen(ωt + β) = A (2.15)
2j
De esta ecuación se puede apreciar la interpretación que usualmente se da a
la exponencial imaginaria ejωt , ya que1

sen(ωt) = ={ejωt } (2.16)

2.2.6. Sinusoidales con amplitud exponencial


Otra de las señales que aparece frecuentemente en la descripción del com-
portamiento natural de los sistemas son las sinusoides cuya amplitud varı́an
exponencialmente en el tiempo, es decir, de la forma:

f (t) = Aeσt sen(ωt + β) (2.17)


Naturalmente, cuando σ = 0, la señal se reduce a una sinusoide pura. Los
casos σ < 0 (sinusoide amortiguada exponencialmente) y σ > 0 (sinusoide
creciente exponencialmente) se muestran en la Figura 2.8.
Para estas funciones, la relación de Euler lleva a:

e(σ+jω)t+jβ − e(σ−jω)t−jβ
Aeσt sen(ωt + β) = A (2.18)
2j
1 La notación ={ } siginifica parte imaginaria de ...
2.3. SEÑALES DE TIEMPO DISCRETO 27

1 500 se~
nales!de tiempo discreto
escalón unitario
impulso unitario
0.5
delta de Kronecker|textbf

0 0

−0.5

−1 −500
0 1 2 3 0 1 2 3
tiempo normalizado t/T tiempo normalizado t/T

Figura 2.8: Señales sinusoidales con amplitud disminuyendo exponencialmente


(izq.) y creciendo exponencialmente (der.)

µ[t − to ]

0 to t

Figura 2.9: Escalón unitario de tiempo discreto

2.3. Señales de tiempo discreto


En el caso de las señales de tiempo discreto, existen contrapartes directas de
las señales para tiempo continuo, con algunas sutiles, pero significativas diferen-
cias. La primera diferencia obvia es que la variable independiente está definida
sobre el conjunto de los números enteros, Z. Otras aparecerán en cada oportu-
nidad.

2.3.1. Escalón unitario de tiempo discreto


El escalón unitario en el instante to se define como:
(
4 1 ∀t ≥ to
µ[t − to ] = (2.19)
0 ∀t < to
y se representa en la Figura 2.9.

2.3.2. Impulso unitario discreto o delta de Kronecker


28 CAPÍTULO 2. SEÑALES

rampa unitaria δ[t − to ]

0 to t

Figura 2.10: Impulso unitario discreto o delta de Kronecker

El impulso unitario discreto o delta de Kronecker se define como:


(
4 0 ∀t 6= to
δ[t − to ] = (2.20)
1 t = to
y se representa en la Figura 2.10.
Una propiedad clave del delta de Kronecker, análoga a la del delta de Dirac
(lema 2.1) está descrita en el siguiente lema.
Lema 2.2. Considere una función cualquiera f [t], entonces

X
f [t] = f [i]δ[t − i] (2.21)
i=−∞
222
El lema 2.2 establece que toda señal puede ser expresada como una operación
lineal sobre un tren de deltas de Kronecker. Veremos más adelante que esta
propiedad será la base para calcular la respuesta de un sistema lineal de tiempo
discreto a partir de su respuesta a un impulso unitario.

2.3.3. Rampa unitaria de tiempo discreto


La rampa unitaria se define como:
(
4 t − to ∀t ≥ to
r[t − t0 ] = (2.22)
0 ∀t < to
y se representa en la Figura 2.11.
De manera similar a las señales de tiempo continuo, el delta de Kronecker,
el escalón unitario y la rampa unitaria pertenecen a una secuencia de funciones,
donde cada una se puede obtener como la primera diferencia del miembro que
le sigue, es decir:

δ[t − to ] = µ[t − to ] − µ[t − to − 1]; µ[t − to ] = r[t − to + 1] − r[t − to ] (2.23)


2.3. SEÑALES DE TIEMPO DISCRETO 29

r[t − to ] exponencial

0 to t

Figura 2.11: Rampa unitaria de tiempo discreto

o a través de la acumulación de la que precede, es decir



X ∞
X
r[t − to ] = µ[t − i]; µ[t − to ] = δ[t − i] (2.24)
i=to +1 i=to

2.3.4. Exponencial de tiempo discreto


La función exponencial es definida genéricamente como

f [t] = λt (2.25)
donde λ es, en general, un número complejo. Sin embargo, cuando ={λ} 6=
0, la exponencial no es una señal real, y sólo tiene sentido fı́sico cuando se
combina con (λ∗ )t , en cuyo caso se llega a una sinusoide de amplitud modulada
exponencialmente, situación que se analiza por separado más adelante.
Si λ ∈ R distinguimos cuatro casos, como se ilustra en la Figuras 2.12 y 2.13.

1.2 5

1 0<λ< 1 1<λ
4
0.8
3
0.6
2
0.4

0.2 1

0 0
0 2 4 6 8 0 2 4 6 8

Figura 2.12: Exponenciales de tiempo discreto, decreciente (izquierda) y cre-


ciente (derecha), λ ∈ R+

En la Figura 2.12, se observa el caso cuando λ es positivo, a la izquierda


aparece un ejemplo para 0 < λ < 1 y a la derecha, aparece un ejemplo para λ >
30 CAPÍTULO 2. SEÑALES

exponencial!creciente 1. Cuando λ > 1 tenemos una exponencial creciente. Esta señal aparece asociada
sinusoide!discreta
sinuosoide!aperiódica a los sistemas inestables de tiempo discreto, como es explicará más adelante.
Por su parte, cuando 0 < λ < 1, estamos en presencia de una exponencial
decreciente. Esta forma exponencial es de enorme importancia en la teorı́a de
sistemas, ya que interviene con frecuencia en la descripción del comportamiento
natural de una amplia gama de sistemas.
En la Figura 2.13, se observa el caso cuando λ es negativo, a la izquierda
aparece el sub-caso 0 > λ > −1 y a la derecha, aparece el sub-caso λ < −1.

6
1
0>λ>− 1 4 λ<− 1
0.5
2

0
0

−0.5 −2

−1 −4
0 2 4 6 8 0 2 4 6 8

Figura 2.13: Exponenciales de tiempo discreto, decreciente (izquierda) y cre-


ciente (derecha), λ ∈ R−

Naturalmente que el caso especial λ = 1 corresponde a la función constante,


y el caso λ = −1 puede identificarse como una señal sinusoidal, las cuales se
revisan a continuación.

2.3.5. Señales sinusoidales de tiempo discreto


Al igual que en el caso de tiempo continuo, en sistemas discretos la señal fun-
damental en oscilaciones periódicas es la función sinusoidal, cuya forma genérica
es:

f [t] = A sen(θt + β) (2.26)


donde A es la amplitud, θ es la frecuencia angular normalizada (en [rad]) y β
es el ángulo de fase, o desfase. Note que la unidad de la frecuencia es [rad], y en
el Capı́tulo 11 veremos la relación entre esta y la frecuencia angular en tiempo
continuo, con unidades [rad/s].
Una importante diferencia con las sinusoides de tiempo continuo, es que una
sinusoide de tiempo discreto puede ser aperiódica en t.

Lema 2.3. Una sinusoide de tiempo discreto es periódica si sólo si existen


números naturales p y N , tales que:
p
θ = 2π (2.27)
N
2.3. SEÑALES DE TIEMPO DISCRETO 31

Demostración Euler
sinusoide!discreta!amortiguada
Una sinusoide discreta sen(θt) es periódica si y sólo si existe un número
natural N tal que, para todo t ∈ N,

sen(θt) = sen(θ(t + N )) = sen(θt) cos(θN ) + cos(θt) sen(θN ) (2.28)

Para que esta igualdad se cumpla para todo t ∈ N, es necesario y suficiente


que cos(θN ) = 1 ( ⇐⇒ sen(θN ) = 0). Esto se cumple si y sólo si existe p ∈ N
tal que se cumple (2.27).

222
De acuerdo a este lema, las sinusoidales de tiempo discreto: sen(t/7), cos(2t),
sen(e t) son todas señales aperiódicas.
Un representación equivalente para las señales sinusoidales se puede obtener
a partir de la fórmula de Euler:

ej(θt+β) − e−j(θt+β)
A sen(θt + β) = A (2.29)
2j

2.3.6. Sinusoidales con amplitud exponencial


La sinusoide con amplitud modulada exponencialmente interviene frecuente-
mente describiendo el comportamiento natural de los sistemas de tiempo dis-
creto. Esta señal aparece cuando λ ∈ C, lo cual significa que podemos expresar
λ en la forma polar:

λ = ρ ej θ = |λ| ej∠λ (2.30)


y, de esta forma, tenemos que:

λt = ρt ej θt = ρt cos(t θ) + jρt sen(t θ) (2.31)


Consideremos entonces la señal:

f [t] = Aρt sen(θt + β) (2.32)


Naturalmente, cuando ρ = 1, la señal se reduce a una sinusoide pura. Los
casos 0 < ρ < 1 (sinusoide amortiguada exponencialmente) y ρ > 1 (sinusoide
creciente exponencialmente) se muestran en la Figura 2.14.
32 CAPÍTULO 2. SEÑALES

0<ρ <1 ρ >1


0.8 3

0.6 2

0.4 1

0.2 0

0 −1

−0.2 −2

−0.4 −3
0 5 10 15 20 0 5 10 15 20

Figura 2.14: Señales sinusoidales de tiempo discreto con amplitud variando ex-
ponencialmente

2.4. Problemas para el lector


Problema 2.1. Dibuje los gráficos de las siguientes señales:

f1 (t) = | sen(2t)|; f2 (t) = µ(−3t + 2) (2.33)


sen(2t)
f3 (t) = ; f4 (t) = r(−4t − 2) (2.34)
t

Problema 2.2 (Señal de amplitud modulada). Suponga que la señal


f (t) = cos(10πt) es multiplicada por otra señal g(t). Dibuje el gráfico del produc-
to f (t)g(t), para dos casos distintos: g(t) = 0,2 sen(πt) y g(t) = signo(sen(πt))

Problema 2.3 (Pulsos de ancho modulado). Supongamos se tiene la se-


cuencia de pulsos:

X
f (t) = (µ(t − 3i) − µ(t − 1 − g(t) − 3i)) (2.35)
i=0

Construya un gráfico de la señal f (t) para g(t) = 0, 5 sen(0, 1πt).

Problema 2.4. Considere la función:

1 sen(α(t − 2))
f (t) = (2.36)
π t−2
Dibuje f (t) (use Matlab ) para diferentes valores de α. Comente sus resul-
tados

Problema 2.5. Determine una expresión analı́tica para la derivada de las


siguientes funciones y grafı́quelas:
2.4. PROBLEMAS PARA EL LECTOR 33

 π π
f1 (t) = 2µ(t − 2) − µ(t − 4); f2 (t) = sen 3t − µ(t − ) (2.37)
  3 2
2t − 4
f3 (t) = r ; f4 (t) = (r(t) − 2r(t − 2)) µ(−t + 4) (2.38)
3

Problema 2.6. Considere los gráficos de la Figura 2.15.

f1 (t) f2 (t)

t t
1 2 3 4 1 2 3
Figura 2.15: Señales compuestas

Para cada señal:

2.6.1 Encuentre la expresión analı́tica para cada una de las señales.

2.6.2 Determine una expresión analı́tica para la integral en el intervalo [0, t].

Problema 2.7. Grafique las siguientes señales de tiempo discreto:

f1 [t] = µ[t − 2] − 3µ[t − 5] (2.39)


t
f2 [t] = (0,8) cos(0,25t) (2.40)
f3 [t] = 1 − sen(tπ/8) (2.41)

Problema 2.8. Suponga que la señal de tiempo continuo f (t) = 4 cos(πt) es


muestreada cada ∆ [s]. Dibuje la señal de tiempo discreto f˜[t] = f (t∆) para tres
valores diferentes de ∆: 0, 1; 1 y 2.

Problema 2.9. Considere la secuencia de números {2; 1; 2; 1; 2; 1; 2; 1; 2; 1, . . .}.


Si asocia esa secuencia al tiempo discreto, encuentre una expresión analı́tica que
describa la secuencia.
34 CAPÍTULO 2. SEÑALES
ecuación diferencial del sistema|text

Capı́tulo 3

Análisis en tiempo continuo

3.1. Introducción
La herramienta fundamental para describir los cambios de una variable en
el dominio del tiempo continuo es la derivada, por tanto, el modelo matemático
central para los sistemas en tiempo continuo es la ecuación diferencial del sis-
tema, EDS, la cual relaciona la entrada del sistema, u(t), con la salida, y(t). En
el caso de modelos linealizados (Capı́tulo 1), debe entenderse que nos referimos
a la entrada incremental ∆u(t) y salida incremental ∆y(t).
Como ya hemos destacado, cuando se dispone de un buen modelo lineal para
un sistema, se puede utilizar numerosas y poderosas herramientas de análisis,
sı́ntesis y diseño. Por ejemplo, para resolver una EDS respecto de una entrada
particular y condiciones iniciales especı́ficas, los métodos operacionalmente más
eficientes pertenecen probablemente al dominio del tiempo. Aprovechando tales
métodos de resolución en el tiempo presentaremos en este capı́tulo las soluciones
generales para tiempo continuo, suponiendo que el lector tiene la preparación
previa necesaria para utilizar esos métodos de resolución sin necesidad de de-
mostración.
El estudio de las propiedades de las soluciones de una EDS nos permitirá in-
troducir indicadores de propiedades fundamentales para los sistemas dinámicos
lineales tales como su comportamiento natural, estabilidad, velocidad relativa,
ganancia y otras. Estos indicadores permitirán establecer relaciones estrechas
entre sus propiedades cuantitativas y cualitativas. La aplicación de los indi-
cadores descritos en este capı́tulo y en el siguiente, para el caso de sistemas de
tiempo discreto, es más eficiente en el dominio de la frecuencia, sin embargo, este
tópico se aborda en los capı́tulos posteriores a través de las transformaciones de
Fourier, de Laplace y Zeta.

3.2. Ecuación diferencial del sistema (EDS)


La forma general de la EDS es:

35
36 CAPÍTULO 3. ANÁLISIS EN TIEMPO CONTINUO

Heaviside!operador
Heaviside

dn y(t) dn−1 y(t)


n
+ an−1 + . . . + a0 y(t)
dt dtn−1
dn−1 dn−2
= bn−1 n−1 u(t) + bn−2 n−2 u(t) + . . . + b0 u(t) (3.1)
dt dt
La solución a esta ecuación debe cumplir además con las restricciones que
imponen las condiciones o estado inicial.
En algunos casos, conviene usar una notación compacta, tipo operador, para
denotar la operación derivada. Por esa razón, introducimos el operador de Heav-
iside, ρ h◦i definido por

d f (t)
ρ hf (t)i = ρ f (t) , (3.2)
dt

dn f (t)
ρ n hf (t)i = ρ n f (t) = ρ ρ n−1 hf (t)i = (3.3)
dtn
El operador de Heaviside representa la derivada de una función y, natural-
mente, tiene un inverso asociado definido por la integral:
Z t
−1
ρ hf (t)i = f (τ )d τ (3.4)
−∞

Usando este operador, el modelo (3.1) puede ser escrito como

ρ n y(t) + an−1 ρ n−1 y(t) + . . . + a0 y(t) = bn ρ n u(t) + bn−1 ρ n−1 u(t) + . . . + b0 u(t)
(3.5)
Para ilustrar la forma en que se llega a la EDS desarrollamos el siguiente
ejemplo.

Ejemplo 3.1. Considere la red eléctrica de la Figura 3.1, donde todos los com-
ponentes son lineales.

i(t) R1

iL (t)
+
L C R2 v(t)
vf (t)

Figura 3.1: Red RLC


3.2. ECUACIÓN DIFERENCIAL DEL SISTEMA (EDS) 37

Aplicando las leyes de Kirchoff y las relaciones terminales de las compo-


nentes eléctricas se llega a:

vf (t) = R1 i(t) + v(t) (3.6)


Z
1 t dv(t) v(t)
i(t) = v(τ )dτ + C + (3.7)
L −∞ dt R2

Derivando ambos miembros de las ecuaciones (3.6) y (3.7) se obtiene:

dvf (t) di(t) dv(t)


= R1 + (3.8)
dt dt dt
di(t) 1 d2 v(t) 1 dv(t)
= v(t) + C 2
+ (3.9)
dt L dt R2 dt

Combinando las ecuaciones (3.8) y (3.9) se llega finalmente a:

d2 v(t) R1 + R2 dv(t) 1 1 dvf (t)


+ + v(t) = (3.10)
dt2 R1 R2 C dt LC R1 C dt
Este modelo tiene la estructura de la ecuación (3.1), en que u(t) = vf (t),
y(t) = v(t), n = 2, y los valores de los parámetros son:

R1 + R 2 1 1
a1 = ; a0 = ; b2 = 0; b1 = ; b0 = 0 (3.11)
R1 R2 C LC R1 C

Es importante además hacer notar que la solución v(t) debe ser tal que sat-
isfaga las condiciones iniciales impuestas por la tensión inicial en el conden-
sador, y la corriente inicial en el inductor.

222
En resumen, podemos afirmar que:

La EDS es un modelo dinámico que establece una restricción fundamental


sobre ciertas combinaciones de la entrada, la salida y algunas derivadas de
ambas señales.

Para ser más especı́fico, consideremos una ecuación diferencial de primer


orden

dy
+ y(t) = u(t) (3.12)
dt
Observamos en (3.12) que la salida y(t) no puede variar arbitrariamente, sino
que existe una restricción. Esa restricción dice que en un instante arbitrario,
t = t1 , la suma de la salida y su primera derivada debe ser igual al valor que
38 CAPÍTULO 3. ANÁLISIS EN TIEMPO CONTINUO

equilibrio estable tiene la entrada u(t1 ). Por ejemplo si u(t) = 2, ∀t ≥ 0, e y(0) = −1, entonces
sistema! inestable
necesariamente ẏ(0) = 3, es decir, ẏ(0) > 0, por lo cual en t = 0 la salida
y, está aumentando. Por otro lado, a medida que y(t) aumenta y se acerca a
2, entonces ẏ(t) sigue siendo positiva, pero disminuye consistentemente. En el
lı́mite, cuando y(t) = 2, su derivada de y es cero, lo cual indica que en ese
instante y(t) ya no cambia, es decir, se alcanza un punto de equilibrio estable.
Introduzcamos ahora una variante en (3.12):

dy
− y(t) = u(t) (3.13)
dt
Si nuevamente u(t) = 2, ∀t ≥ 0, e y(0) = −1, entonces ẏ(0) = 1, lo cual
implica que en t = 0 la salida y está aumentando. Sin embargo, a diferencia del
caso anterior, a medida que y aumenta, acercándose a 2, su derivada crece, es
decir, y(t) aumenta. Cuando y(t) = 2, se tiene que ẏ(t) = 4, y subiendo. En
consecuencia, y(t) sigue creciendo monotónicamente, pero siempre la velocidad
de cambio, ẏ(t), debe cumplir con ẏ(t) = u(t) + y(t). Es decir, no se alcanza
un punto de equilibrio y, más adelante, definimos este tipo de sistemas como
inestable.
Ambos casos pueden ser representados por la forma general de una EDS de
primer orden:

dy
+ ay(t) − bu(t) = 0 (3.14)
dt
La forma (3.14) deja en evidencia el significado de restricción que tiene la
EDS.
El análisis precedente se puede aplicar a EDS más complejas, pero en esos
casos se pierde la visión intuitiva, por ello nos conviene trasladarnos a un ámbito
más general, que es lo que hacemos a continuación.

3.3. La respuesta del sistema


La solución de la EDS condensa aspectos fundamentales su comportamiento
en el tiempo. Una aproximación intuitiva a esta conexión indica que es esperable
que la excitación no sólo fuerce determinada conducta en la respuesta, sino
que en ese proceso revele aspectos claves de la naturaleza del sistema. Esta
percepción justifica el observar con detención la solución de la EDS y algunas
formas en que ella puede ser descompuesta para su mejor comprensión.

3.3.1. Componente homogénea y componente particular


Una primera forma de estudiar la respuesta del sistema es descomponerla de
modo de identificar aquella parte que captura la naturaleza del sistema, com-
ponente natural u homogénea, y la otra, que refleja la naturaleza especı́fica
de la excitación, componente particular o forzada.
3.3. LA RESPUESTA DEL SISTEMA 39

La componente homogénea, yh (t), satisface la ecuación diferencial homogénea respuesta homogénea


solución homogénea
asociada a (3.1), es decir: respuesta particular
solución particular
ρ n yh (t) + an−1 ρ n−1 yh (t) + . . . + a0 yh (t) = 0 (3.15)

Note que esta ecuación tiene infinitas soluciones, las que pueden describirse
genéricamente como una familia. Los miembros de esta familia se diferencian
por los valores numéricos especı́ficos que se pueden escoger para un conjunto de
n constantes indeterminadas.
Por su parte, la componente o solución particular, yp (t), es una función
especı́fica del tiempo, independiente de las condiciones iniciales, que satisface la
ecuación (3.1).
La solución completa y(t) = yh (t) + yp (t) queda totalmente determinada al
usar las condiciones iniciales, aplicadas a la respuesta completa, y(t), para
calcular las constantes indeterminadas presentes en yh (t).
Antes de proseguir con el análisis consideraremos un ejemplo.

Ejemplo 3.2. Suponga que la EDS de un sistema está dada por:

dy(t)
+ 2y(t) = 4u(t) (3.16)
dt
y que la respuesta y(t) debe satisfacer la condición inicial y(0) = −0, 5. Se desea
calcular la respuesta del sistema para t ≥ 0 cuando u(t) = 1.
yh (t)
La componente homogénea debe cumplir con:

dyh (t)
+ 2yh (t) = 0 (3.17)
dt

Esta ecuación es satisfecha por yh (t) = Ce−2t , para cualquier valor de la


constante C.
yp (t)
La componente particular yp (t) es una función, independiente de las condi-
ciones iniciales, que debe satisfacer (3.16) con u(t) = 1. Una solución simple es
yp (t) = 2, ∀t ≥ 0.
De esta forma, la solución completa es:

y(t) = yh (t) + yp (t) = Ce−2t + 2 (3.18)

y la constante C se calcula de modo que y(0) satisfaga la condición inicial y(0) =


−0, 5. Por lo tanto, se obtiene C = −2,5 e y(t) = −2,5e−2t + 2

222
40 CAPÍTULO 3. ANÁLISIS EN TIEMPO CONTINUO

ecuación caracterı́stica 3.3.2. Frecuencias y modos naturales


constantes indeterminadas
autovalores La componente natural u homogénea, yh (t) depende sólo de la ecuación
valores propios
valores caracterı́sticos caracterı́stica asociada a (3.1), dada por:
frecuencias naturales
modos naturales λn + an−1 λn−1 + . . . + a1 λ + a0 = 0 (3.19)
modo forzante
Si las soluciones de (3.19) son λ1 , λ2 , . . . λp con multiplicidad n1 , n2 , . . . , np
respectivamente, tal que n1 + n2 + . . . + np = n, entonces la forma general de
yh (t) es:
p X
X nk
yh (t) = Cki ti−1 eλk t (3.20)
k=1 i=1

donde los Cki son constantes arbitrarias (constantes indeterminadas) que gener-
an los grados de libertad necesarios para que la respuesta completa satisfaga
las condiciones iniciales.
Los valores de λ que satisfacen (3.19) son conocidos como autovalores, valores
propios1 , valores caracterı́sticos o frecuencias naturales del sistema. Dado que
los coeficientes de la ecuación caracterı́stica asociada a la EDS son reales, todas
sus raı́ces son reales, o bien aparecen en pares complejos conjugados.
A su vez, cada una de las funciones temporales, asociadas a λk , de la forma:

ti−1 eλk t (3.21)


que aparecen en (3.20) se denomina modo natural del sistema.
Los modos naturales se asocian unı́vocamente a las frecuencias naturales, y
la forma temporal de los primeros depende de la multiplicidad y la ubicación de
los segundos en el plano complejo. Un mapa general, asumiendo multiplicidad
uno para cada frecuencia natural, se aprecia en la Figura 3.2. En esa figura se
asocia una señal (modo natural) a cada frecuencia natural, excepto en el caso
de frecuencias complejas, en que se considera el par de complejos conjugados.

3.3.3. Modos forzantes y modos forzados


La componente particular de la respuesta, yp (t), es una función estrechamente
ligada a la entrada, u(t). Un caso simple, en que podemos apreciar esta relación,
es cuando u(t) puede describirse como una combinación lineal de funciones de
la forma eβi t , es decir:


u(t) = B i eβ i t (3.22)
i=1

donde los βi0 s son distintos y ninguno de ellos coincide con alguna frecuencia
natural. Cada una de las funciones eβi t recibe el nombre de modo forzante.
1 Esta denominación resultará natural para modelos en variables de estado (Capı́tulo 10)
3.3. LA RESPUESTA DEL SISTEMA 41

Eje
Imaginario λ

λ2 λ1 λ0 λ3 λ4 Eje
Real

Figura 3.2: Relación entre la ubicación de las frecuencias naturales (de multi-
plicidad uno) y los modos naturales
42 CAPÍTULO 3. ANÁLISIS EN TIEMPO CONTINUO

modo forzante!ganancia a Se puede verificar, usando la linealidad del sistema, que la solución particu-
ganancia! a modo forzante
modo forzado lar, yp (t), está dada por:
ganancia
ganancia! a continua

yp (t) = ypi (t) , en que ypi (t) = Ki Bi eβi t (3.23)
i=1

y donde cada uno de los coeficientes es:


Pn−1
bk (βi )k
Ki = Pk=0
n l
(3.24)
l=0 al (βi )

La respuesta yp (t) contiene modos forzados. Bajo la suposición anterior,


relativa a que ningún βi0 s coincide con las frecuencias naturales, cada uno de los
modos forzados coincide con uno de los modos forzantes.
Observe que podemos identificar a Ki con una ganancia asociada al modo
forzante i-ésimo. Cuando el modo forzante es una constante, es decir, e βt = 1,
se habla de la ganancia a continua.
Para facilitar la comprensión del concepto de ganancia a modos, considere-
mos un ejemplo.

Ejemplo 3.3. La EDS de un sistema lineal es:

dy
+ 3y(t) = 2u(t); entonces a1 = 1; a0 = 3; b0 = 2 (3.25)
dt
Supongamos que la entrada es u(t) = 5 + 4 cos(πt + π/4), entonces podemos
expresarla como:
3
X π π
u(t) = Bi eβi t = 5eβ1 t + 2ej 4 eβ2 t + 2e−j 4 eβ3 t (3.26)
i=1

donde β1 = 0, β2 = jπ y β3 = −jπ, es decir, hay tres modos forzantes presentes.


Las ganancias están dadas por (3.24), y para este caso particular:

b0 2
K1 = = (3.27)
β1 + a 0 3
b0 2
K2 = = = 0,3180 − j0,3330 = 0,4604e−j0,8084 (3.28)
β2 + a 0 jπ + 3
b0 2
K3 = = = 0,3180 + j0,3330 = 0,4604ej0,8084 (3.29)
β3 + a 0 −jπ + 3
222
El tratamiento general de la solución particular será pospuesto para capı́tulos
futuros; pero en el intertanto podemos establecer un hecho trascendente
3.3. LA RESPUESTA DEL SISTEMA 43

estabilidad

Los sistemas lineales exhiben ganancias distintas para modos forzantes dis-
tintos, y esta capacidad de discriminación es la base para el análisis y diseño
de sistemas de procesamiento de señales y para otras aplicaciones.

3.3.4. Estabilidad
Como ya hemos mencionado, los modos naturales describen aspectos es-
enciales de un sistema lineal. En primer lugar, los modos naturales guardan
estrecha relación con la idea de estabilidad. Intuitivamente podemos definir
un sistema lineal (o, mejor dicho, un modelo lineal) como estable si todas las
variables (señales) del sistema permanecen acotadas ante cualquier excitación
acotada o estado inicial acotado. Si consideramos sólo el efecto de condiciones
iniciales, resulta que la estabilidad requiere que los modos naturales sean todos
acotados. Sin embargo, veremos que la estabilidad de un sistema requiere que
todos los modos naturales decaigan en el tiempo.
Como cada modo natural depende de una frecuencia natural, son éstas, es
decir, las raı́ces de la ecuación caracterı́stica del sistema, las que determinan la
estabilidad del sistema. Consideremos el caso de un modo natural de la forma
genérica:

yh1 (t) = Ceλt ; λ∈C (3.30)


Sea λ = σ + jωo , entonces

yh1 (t) = Ceλt = Ceσt ejωo t = Ceσt (cos(ωo t) + j sen(ωo t)) (3.31)
De la expresión anterior se observa que yh1 (t) decae a medida que el tiempo
transcurre si y sólo si eλt decae, y esto ocurre si y sólo si σ < 0. Dicho de otra
forma, si y sólo si λ está en el semi plano izquierdo abierto del plano complejo.
Esto se ve reflejado claramente en la Figura 3.2.
En resumen, tenemos la siguiente definición de estabilidad, conocida como
estabilidad asintótica:

Diremos que un modelo lineal e invariante en el tiempo es estable si y sólo


si todos sus modos naturales decaen asintóticamente a cero, es decir, si y
sólo si todas sus frecuencias naturales tienen parte real estrictamente menor
que cero. Si una o más de las frecuencias naturales del modelo tienen parte
real mayor o igual que cero, diremos que el modelo es inestable.

Definimos, en consecuencia, la región de estabilidad en el plano comple-


jo, para sistemas continuos en el tiempo, como el semiplano izquierdo (SPI)
abierto, es decir excluyendo el eje imaginario. La necesidad de esta exclusión
se demostrará más adelante. Sin embargo, el ejemplo siguiente permite apre-
ciar el origen de las dificultades cuando una frecuencia natural está en el eje
imaginario.
44 CAPÍTULO 3. ANÁLISIS EN TIEMPO CONTINUO

velocidad Ejemplo 3.4. Sea un sistema cuya EDS está dada por:
frecuencia natural!dominante
modo natural!dominante
dy
= 2u(t) (3.32)
dt
Entonces el sistema tiene sólo una frecuencia natural, y ella está ubicada
en λ = 0, esto significa que el modo natural que aparecerá en la respuesta del
sistema es eλt = 1. Ası́, la respuesta homogénea es yh (t) = C1 . Supongamos que
la entrada es una constante ∀t ≥ 0, digamos u(t) = Uo , entonces la componente
particular de la respuesta es yp (t) = Uo t. De esa forma la respuesta completa es
y(t) = C1 + Uo t donde C1 debe calcularse para satisfacer la condición inicial.
Debemos notar que este ejemplo pone en evidencia que, aunque la entrada
es una simple constante, la salida del sistema crece en forma ilimitada a medida
que transcurre el tiempo. El sistema es, por tanto, inestable.

222

3.3.5. Velocidad
Un segundo aspecto de interés en relación con las frecuencias y modos nat-
urales guarda relación con la velocidad con que evolucionan las variables de los
sistemas.
Dentro de la clase de sistemas estables, podemos distinguir diferencias no-
tables, no sólo por la distinta naturaleza de los valores propios, sino por las
velocidades relativas con que decaen sus modos naturales. Por ejemplo, con-
sideremos dos sistemas con las componentes homogénas que se indican:

Sistema 1 yh1 (t) = C11 e−2t + C12 e−5t (3.33)


−3t −7t
Sistema 2 yh2 (t) = C21 e + C22 e (3.34)

Vemos que yh1 (t) está dominada por el modo natural e−2t porque esta señal
decae más lentamente que el otro modo natural e−5t . Por su parte, yh2 (t)
está dominada por el modo natural e−3t , el que decae más lentamente que
el modo e−7t . Ası́ diremos que el Sistema 1 tiene una frecuencia natural
dominante igual a −2, con un modo natural dominante e−2t . A su vez,
el Sistema 2 tiene una frecuencia natural dominante igual a −3, con un mo-
do natural dominante e−3t . Al comparar ambos sistemas podemos concluir, en
primera aproximación, que el Sistema 1 es más lento que el Sistema 2, porque
su modo dominante decae más lentamente.
En general, si λ = −|σ| + jωo , el modo natural tiene la forma:

eλt = e−|σ|t (cos(ωo t) + j sen(ωo t)) (3.35)


De esta ecuación se observa que este modo decae más rápidamente cuanto
más grande es |σ|. Ası́, los sistemas son más rápidos cuanto más alejados del eje
imaginario están sus frecuencias naturales dominantes.
3.3. LA RESPUESTA DEL SISTEMA 45

3.3.6. Respuesta a estado inicial y respuesta a entrada


Una forma alternativa de descomponer la respuesta de un sistema es con-
siderar por separado la componente de la respuesta debida a las condiciones
iniciales o estado inicial, yx (t), y la componente de la respuesta debida a la
entrada, yu (t), es decir:

y(t) = Thhxo , u(t)ii = Thhxo , 0ii + Thh0, u(t)ii (3.36)


| {z } | {z }
yx (t) yu (t)

En consecuencia, yx (t) satisface:

ρ n yx (t) + an−1 ρ n−1 yx (t) + . . . + a0 yx (t) = 0 (3.37)


sujeta a las condiciones iniciales definidas en el vector xo . Esto sig-
nifica que yx (t) es una combinación lineal de modos naturales, en donde las
constantes dependen de las condiciones iniciales (las que deben ser satisfechas
por la solución completa de la EDS).
A su vez, la respuesta a entrada, yu (t), es una solución de la EDS con condi-
ciones iniciales iguales a cero, es decir, satisface:

dn yu (t) dn−1 yu (t)


+ a n−1 + . . . + a0 yu (t)
dtn dtn−1
dn−1 dn−2
= bn−1 n−1 u(t) + bn−2 n−2 u(t) + . . . + b0 u(t) (3.38)
dt dt
sujeta a condiciones iniciales cero. Para poder cumplir con esta restricción,
yu (t) debe contener, además de los modos forzados, una combinación lineal de
modos naturales cuyas constantes son calculadas de modo que se cumpla aquella
restricción.
En resumen, una comparación de los diferentes modos presentes en cada
una de las componentes de la respuesta de un sistema hasta ahora definidas
(homogénea-particular y estado inicial-entrada) se muestra en la Tabla 3.1.

yh (t) yp (t) yx (t) yu (t)


√ √ √
modos naturales
√ √
modos forzados

Cuadro 3.1: Presencia de modos en descomposiciones de la respuesta

Es además importante el notar que:

y(t) = yh (t) + yp (t) = yx (t) + yu (t) (3.39)


Sin embargo, por lo general, yh (t) 6= yx (t) e yp (t) 6= yu (t).
46 CAPÍTULO 3. ANÁLISIS EN TIEMPO CONTINUO

Afianzamos estas ideas retomando el Ejemplo 3.2, en el que ilustramos la


descomposición de la respuesta del sistema en sus componente homogénea y
particular.

Ejemplo 3.5. Suponga que la EDS está dada por:

dy(t)
+ 2y(t) = 4u(t) (3.40)
dt
y que la respuesta y(t) debe satisfacer la condición inicial y(0) = −0, 5.
Se desea calcular la respuesta del sistema para u(t) = 1 para t ≥ 0.
yx (t)
La respuesta a estado inicial debe cumplir con:

dyx (t)
+ 2yx (t) = 0 (3.41)
dt
y con yx (0) = −0, 5 Esta ecuación es satisfecha por yx (t) = Ce−2t , con C =
−0,5
yu (t)
La respuesta a entrada, yu (t), es una solución para (3.40) con u(t) = 1, y
sujeta a yu (0) = 0.
De esta forma, la solución completa es:

yu (t) = yuh (t) + yup (t) (3.42)


donde yuh (t) es una solución de la ecuación homogénea, es decir yuh (t) =
Cu e−2t , e yup (t) es la solución particular yup (t) = 2. Cu se calcula de modo
de obtener yu (0) = 0, lo cual conduce a Cu = −2.
Finalmente

yx (t) = −0, 5e−2t (3.43)


−2t
yu (t) = −2e +2 (3.44)
−2t
y(t) = yx (t) + yu (t) = −2,5e +2 (3.45)

De esta forma, podemos ahora completar la Tabla 3.1 para el caso de las
soluciones obtenidas para este ejemplo. Esto se muestra en la Tabla 3.2.

yh (t) yp (t) yx (t) yu (t)


modos naturales −2, 5e−2t −0, 5e−2t −2e−2t
modos forzados 2 2

Cuadro 3.2: Presencia de modos en descomposiciones de la respuesta del Ejemplo


3.5
3.3. LA RESPUESTA DEL SISTEMA 47

222
Las dos descomposiciones de la respuesta del sistema obtenidas permiten
observar dicha respuesta desde dos perspectivas diferentes:
En la descomposición componente homogénea – componente particular se
observa la estructura de la respuesta. En efecto, en esa partición queda en
evidencia la presencia de dos tipos de modos: modos naturales (incluidos en
la componente homogénea) y modos forzados (incluidos en la componente
particular).
En la descomposición respuesta a estado inicial – respuesta a entrada
se separan los efectos de las dos causantes de que el sistema tenga una
respuesta: las condiciones iniciales y las excitaciones o entradas aplicadas.
Note que aunque las condiciones iniciales sean iguales a cero, aún ası́, los
modos naturales se encuentran presente en la respuesta (en este caso sólo aparece
la componente debida a la entrada, yu (t)).
Para cerrar esta sección consideraremos un ejemplo donde estos conceptos
adquieren un significado más concreto.
Ejemplo 3.6. En el circuito de la Figura 3.3 las componentes (escaladas, por
simplicidad) tienen los siguientes valores:

R1 = 2[Ω]; R2 = 1[Ω]; L = 1[H]; C = 0, 5[F ] (3.46)

iL (t) L R1 A

+
iα (t) iβ (t) vc (t)
vf (t) C R2

Figura 3.3: Red lineal con condiciones iniciales

En esta red, la entrada es vf (t), la salida ha sido elegida como vc (t) y el


estado inicial es descrito por xo = [iL (0) vc (0)]T . Entonces usando el operador
de Heaviside (y su inverso) tenemos que las ecuaciones de mallas llevan a:
Z ·I =E (3.47)
donde:
     
1 1 −1
R + Lρ + ρ −1
4  1
− ρ  i (t)
4  α
v (t)
4  f
Z= C C ; I= ; E= 
1 1 −1     
− ρ −1 ρ + R2 iβ (t) 0
C C
(3.48)

Esto se puede resolver usando el siguiente código:


48 CAPÍTULO 3. ANÁLISIS EN TIEMPO CONTINUO

Maple

>with(linalg);
>Z:=array(1..2,1..2,[[2+rho+2/rho,-2/rho],[-2/rho,2/rho+1]]);
>Zi:=inverse(Z);

De donde resulta:
 
−1 1 2+ρ 2
Z = 2 (3.49)
ρ + 4ρ + 6 2 ρ 2 + 2ρ + 2
Resolviendo para iβ (t) se obtiene:

(ρ 2 + 4ρ + 6)iβ (t) = (ρ + 2)vf (t) (3.50)


Dado que vc (t) = 1 · iβ (t), la EDS es:

d 2 vc (t) d vc (t) d vf (t)


+4 + 6vc (t) = + 2vf (t) (3.51)
dt 2 dt dt
Supongamos que las condiciones iniciales son vc (0) = 5 [V ], iL (0) = 3 [A]
y que vf (t) = 10 [V ]. Primero notamos que, al aplicar LCK en el nodo A, se
tiene que:
 
1 vc (0)
v̇c (0) = iL (0) − = −4 [V ] (3.52)
C R2
La solución total se puede calcular usando el siguiente código:

Maple

>v_f(t):=10:
>eds:=diff(v_c(t),t,t)+4*diff(v_c(t),t)+6*v_c(t)-diff(v_f(t),t)
-2*v_f(t)=0;
>dsolve({eds,v_c(0)=5,D(v_c)(0)=-4},v_c(t));

que entrega como resultado:


10 5 −2t √ 1 √ −2t √
vc (t) = + e cos( 2t) − 2e sen( 2t) (3.53)
3 3 3
Entonces las distintas componentes de la respuesta vc (t) tiene los siguientes
valores e interpretaciones:
(a) La componente particular, vcp (t) es aquella componente de vf (t) que con-
tiene sólo los modos forzados por la excitación constante, es decir, es la
componente continua de vc (t), en este caso vcp (t) = 10/3[V ]. Note que
esta componente se puede calcular usando un divisor de tensiones, y que
la ganancia a modo constante de la red es igual a 1/3.
3.3. LA RESPUESTA DEL SISTEMA 49

(b) La componente homogénea, vch (t), es la parte de la respuesta que contiene respuesta transitoria
respuesta estacionaria
todos los modos naturales, en este caso:
5 −2t √ 1 √ −2t √
vch (t) = e cos( 2t) − 2e sen( 2t) (3.54)
3 3

(c) La componente a estado inicial, vch (t), corresponde al valor que tendrı́a
vc (t) debido sólo a la corriente inicial en el inductor y a la tensión inicial
en el condensador, es decir con la fuente de tensión cortocircuitada. Esta
componente se puede calcular con el siguiente código:

Maple

>v_f(t):=0:
>eds:=diff(v_c(t),t,t)+4*diff(v_c(t),t)+6*v_c(t)-diff(v_f(t),t)
-2*v_f(t)=0;
>dsolve({eds,v_c(0)=5,D(v_c)(0)=-4},v_c(t));

que entrega como resultado:


√ √ √
vcx = 5e−2t cos( 2t) + 3 2e−2t sen( 2t) (3.55)

(d) La componente a entrada, vcu (t), corresponde a la tensión en el conden-


sador cuando se aplica la fuente de tensión a la red inicialmente rela-
jada. Esta componente se puede calcular con el siguiente código:

Maple

>v_f(t):=10:
>eds:=diff(v_c(t),t,t)+4*diff(v_c(t),t)+6*v_c(t)-diff(v_f(t),t)
-2*v_f(t)=0;
>dsolve({eds,v_c(0)=0,D(v_c)(0)=0},v_c(t));

de donde se obtiene:

10 10 −2t √ 10 √ −2t √
vcu (t) = − e cos( 2t) − 2e sen( 2t) (3.56)
3 3 3
222
Un comentario final sobre la respuesta del sistema es que es usual hablar de
respuesta transitoria (o transiente) y respuesta estacionaria (o en estado
estacionario). La respuesta estacionaria corresponde a la respuesta del sistema
cuando ha transcurrido mucho tiempo desde el instante inicial. Por su parte
50 CAPÍTULO 3. ANÁLISIS EN TIEMPO CONTINUO

respuesta! a $\mu (t)$ la respuesta transiente es aquella parte de la respuesta que se extingue con el
respuesta! a escalón
tiempo.
En el Ejemplo 3.6 en la página 47, la respuesta estacionaria está dada por
el modo forzado constante, mientras que la respuesta transitoria está formada
por los modos naturales (sinusoidales amortiguadas).
La separación en componentes estacionaria y transitoria es transversal a la
idea de modos naturales y modos forzados, es decir, no ocurrirá siempre que la
respuesta estacionaria incluya sólo modos forzados, e incluso es posible que la
respuesta estacionaria esté formada exclusivamente por modos naturales. Por
ejemplo, el lector puede verificar que si un sistema tiene modos naturales si-
nusoidales y la entrada es una exponencial decreciente, entonces la respuesta
estacionaria contendrá los modos naturales sinusoidales y la respuesta transito-
ria incluirá el modo forzado por la exponencial.

3.4. Respuesta a señales de prueba


Una forma de estudiar, y comparar en forma estandarizada el comportamien-
to de un sistema es determinar su respuesta para excitaciones de prueba. Entre
esas señales de prueba se consideran usualmente: el escalón unitario, el impulso
unitario y la señal sinusoidal. En esta sección nos concentraremos en las dos
primeras, pues la respuesta ante señales sinuosidales será materia de estudio en
el Capı́tulo 5).

3.4.1. Respuesta a escalón unitario


Considere la ecuación (3.1) en la página 36. Entonces la respuesta, g(t), a
un escalón unitario y condiciones iniciales iguales a cero, se puede obtener
de la siguiente forma:
Paso 1 Determine la solución general de la ecuación:

dn go (t) dn−1 go (t)


n
+ an−1 + . . . + a0 go (t) = 1 (3.57)
dt dtn−1
Note que go (t) contiene una parte natural u homogénea (combinación
lineal de modos naturales de la forma (3.20)) y una componente particular
o forzada. Para el caso a0 6= 0, go (t) tiene la forma:

p k n
1 XX
go (t) = + Cki ti−1 eλk t ∀t ≥ 0 (3.58)
a0 i=1
k=1

En el caso más general, si a0 = a1 = . . . = ap−1 = 0, ap 6= 0 entonces go (t)


tiene la forma:

kp n
1 p XX
go (t) = t + Cki ti−1 eλk t ∀t ≥ 0 (3.59)
p!ap i=1
k=1
3.4. RESPUESTA A SEÑALES DE PRUEBA 51

Paso 2 Calcule las constantes Cki usando la restricción de las condiciones ini-
ciales iguales a cero, es decir, usando el hecho que:

ρ ` hgo (t)i t=0 = 0 ` = 0, 1, . . . , n − 1 (3.60)

Paso 3 Calcule las primeras n − 1 derivadas de go (t). Note que, como las condi-
ciones iniciales son cero, esas derivadas son continuas en t = 0.
Paso 4 Usando las propiedades de linealidad obtenga g(t) de acuerdo a:
n−1
X
g(t) = bi ρ i hgo (t)iµ(t) (3.61)
i=0

El procedimiento anterior es ilustrado con el siguiente ejemplo.


Ejemplo 3.7. Consideremos un sistema con la EDS:

ρ 2 y(t) + 5ρ y(t) + 4y(t) = −ρ u(t) + 2u(t) (3.62)


2
Entonces las frecuencias naturales son soluciones de λ + 5λ + 4 = 0, es
decir λ1 = −4 y λ2 = −1. Luego seguimos los pasos bosquejados previamente:

Paso 1 Calculamos la solución general de:

ρ 2 go (t) + 5ρ go (t) + 4go (t) = 1 (3.63)

que resulta ser go (t) = 14 +C1 e−4t +C2 e−t . Este resultado se puede obtener
con el siguiente código:

Maple

>eds:=Diff(Diff(go(t),t),t)+ 5*Diff(go(t),t)+4*go(t)-1;
>dsolve(eds);

Paso 2 Para este ejemplo, ya que n = 1, se necesita calcular sólo la primera


derivada de go (t), la que está dada por:

ρ hgo (t)i = −4C1 e−4t − C2 e−t (3.64)

Paso 3 Las constantes C1 y C2 se calculan a partir de las condiciones iniciales


(iguales a cero), es decir:

1
go (0) = 0 = + C1 + C2 (3.65)
4
ρ hgo (t)i|t=0 = 0 = −4C1 − C2 (3.66)
52 CAPÍTULO 3. ANÁLISIS EN TIEMPO CONTINUO

1
respuesta a $\delta (t)$ de donde C1 = 12 y C2 = − 13 . Nuevamente, este resultado se puede obten-
respuesta! a impulso
er a través del siguiente código:

Maple

>eds:=Diff(Diff(go(t),t),t)+ 5*Diff(go(t),t)+4*go(t)-1;
>dsolve({eds, go(0)=0,D(go)(0)=0},go(t));

Paso 4 La respuesta a escalón unitario está entonces dada por:

1 1 −4t
g(t) = 2go (t) − ρ hgo (t)i = + e − e−t (3.67)
2 2
222

3.4.2. Respuesta a impulso unitario


Considere la ecuación (3.1) en la página (3.1). Entonces la respuesta a un
impulso unitario, δ(t), y condiciones iniciales iguales a cero, se puede obtener
a partir de la respuesta a escalón unitario. Esta estrategia se basa en que el
sistema representado por la EDS (3.1) es lineal e invariante en el tiempo, pues
sus coeficientes son constantes y el argumento de las funciones es t. De esta
forma se tiene la situación descrita en la figura 3.4.

µ(t) g(t) µ(t − ∆) g(t − ∆)


S S
invarianza en
x(0) = 0 tiempo x(∆) = 0

Figura 3.4: Efectos de la invarianza en el tiempo

Por lo tanto, usando linealidad:

dg(t) g(t) − g(t − ∆) Thh0, µ(t)ii − Thh0, µ(t − ∆)ii


= lı́m = lı́m
dt ∆→0 ∆ ∆→0 ∆
µ(t) − µ(t − ∆)
= lı́m Thh0, i = Thh0, δD (t)ii = h(t) (3.68)
∆→0 ∆

Entonces, h(t) = dg(t)


dt es la respuesta del sistema a un impulso unitario con
condiciones iniciales iguales a cero.
Aunque en algunos textos se propone calcular h(t) usando una estrategia
similar a la seguida para el cálculo de la respuesta a escalón unitario, en general
3.5. CÁLCULO DE LA RESPUESTA VÍA CONVOLUCIÓN 53

ello no es aconsejable dada la especial naturaleza del delta Dirac. En efecto, ésta convolución
se~
nal causal
no es, en rigor, una función y no es diferenciable, por lo cual ocurren situaciones
paradójicas. Por último, desde el punto de vista meramente instrumental es
mucho más simple calcular la respuesta a impulso usando la transformación de
Laplace, como se verá en el Capitulo 7.

Ejemplo 3.8. Consideremos el mismo sistema descrito por (3.62), entonces


podemos calcular h(t) derivando la respuesta a escalón unitario en (3.67). Ası́ se
obtiene

dg(t)
h(t) = = −2e−4t + e−t ∀t ≥ 0 (3.69)
dt
222
Es importante anotar que las condiciones iniciales de un sistema son valores
conocidos para t = t−
o , pero las señales pueden ser discontinuas en t = t o . Esto
es lo que ocurre en el Ejemplo 3.8, donde:

lı́m h(t) = 0 6= lı́m+ h(t) = −1 (3.70)


t→0− t→0

En una perspectiva más general, podemos observar que dada la relación entre
la respuesta a impulso y la respuesta a escalón, y considerando que esta última
contiene una combinación lineal de los modos naturales del sistema y una con-
stante, entonces h(t) contiene sólo modos naturales. Conceptualmente, es
ésta la caracterı́stica que confiere especial importancia a las respuestas a escalón
e impulso. En rigor, la respuesta a excitaciones más complejas también contiene
una combinación de modos naturales (a través de la componente homogénea de
la respuesta), sin embargo, la presencia de estos modos se ve oscurecida por la
componente particular o forzada de la respuesta.
Veremos, en la siguiente sección una utilidad inmediata de estas considera-
ciones.

3.5. Cálculo de la respuesta vı́a convolución


Supongamos que se conoce la respuesta a impulso, h(t), de un sistema lineal
e invariante en el tiempo, con condiciones iniciales iguales a cero, entonces el
siguiente lema nos proporciona un resultado crucial en la teorı́a de los sistemas
lineales.

Lema 3.1. Considere un sistema lineal e invariante en el tiempo. Sea además


h(t) la respuesta de ese sistema a un impulso unitario en la entrada, con condi-
ciones iniciales iguales a cero. Entonces, la respuesta y(t) del mismo sistema a
una excitación causal2 arbitaria, f (t), con condiciones iniciales iguales a cero,
está dada por:
2 Una señal f (t) es causal si f (t) = 0 ∀t < 0
54 CAPÍTULO 3. ANÁLISIS EN TIEMPO CONTINUO

Z t
y(t) = f (τ )h(t − τ ) dτ ∀t ≥ 0 (3.71)
0
Demostración
Sea i ∈ N y sea ∆ un incremento temporal, entonces, usando la propiedad
de invarianza en el tiempo, tenemos que:

h(t − i∆) = Thh0, δ(t − i∆)ii (3.72)


Luego, usando homogeneidad,

f (i∆)h(t − i∆)∆ = Thh0, f (i∆)δ(t − i∆)∆ii (3.73)


Aplicando ahora superposición (i = 0, 1, . . .) y haciendo ∆ → 0, i∆ se con-
vierte en una variable continua τ , ası́ se llega a:
Z ∞ Z ∞
f (τ )h(t − τ )dτ = Thh0, f (τ )δ(t − τ )dτii (3.74)
0 0
Finalmente, usando el Lema 2.1 y el hecho que h(t − τ ) = 0 ∀τ > t (por
causalidad), se obtiene:
Z t
y(t) = Thh0, f (t)ii = f (τ )h(t − τ )dτ (3.75)
0
222
Observando la ecuación (3.75), y(t) se puede interpretar como una suma
ponderada (por f (τ )) de respuestas a impulso h(t − τ ). Note además que dado
que f (t) y h(t) son causales, entonces, la ecuación (3.71) también se puede
escribir como:

Z ∞ Z ∞
y(t) = f (τ )h(t − τ ) dτ = f (t − τ )h(τ ) dτ ∀t ≥ 0 (3.76)
−∞ −∞

Las integrales que aparecen en la ecuación (3.76) son una expresión de la


convolución de dos funciones temporales. La definición genérica es:

Z ∞ Z ∞
f1 (t) ∗ f2 (t) = f1 (τ )f2 (t − τ ) dτ = f1 (t − τ )f2 (τ ) dτ (3.77)
−∞ −∞

Además de la propiedad de conmutatividad en (3.77), la convolución tiene


la propiedad de distributividad, es decir:

f1 ∗ (f2 (t) + f3 (t)) = f1 (t) ∗ f2 (t) + f1 (t) ∗ f3 (t) (3.78)


El uso de convolución para la determinación de la respuesta de un sistema
lineal tiene importancia conceptual y numérica, sin embargo, no es, en general,
un procedimiento analı́ticamente simple. Para apreciar esto último, veremos un
ejemplo.
3.5. CÁLCULO DE LA RESPUESTA VÍA CONVOLUCIÓN 55

Ejemplo 3.9. Un sistema lineal tiene una respuesta a impulso unitario, con transformada de Fourier
transformada de Laplace
condiciones iguales a cero, dada por h(t) = e−2t µ(t). Determine, usando con-
volución la respuesta a la señal u(t) = µ(t) − µ(t − 1).
Solución
La respuesta está dada por:

Z t
y(t) = u(t) ∗ h(t) = h(τ )u(t − τ )dτ
−∞
Z t
= e−2τ µ(τ )(µ(t − τ ) − µ(t − 1 − τ )dτ (3.79)
−∞

La integración se puede separar en tres intervalos, que a su vez se muestran


en la Figura 3.5:

Z 0

 u(τ )h(t − τ )dτ = 0 t<0


Z−∞

 t
1
u(t) ∗ h(t) = u(τ )h(t − τ )dτ = (1 − e−2t ) 0≤t<1 (3.80)
 2

 Z0 1

 1

 u(τ )h(t − τ )dτ = (e−2(t−1) − e−2t ) 1≤t
0 2

u(τ) u(τ) u(τ)

h(t−τ) h(t−τ) h(t−τ)


τ τ τ
t t t

Figura 3.5: Ejemplo de descripción gráfica de la convolución

222
Como se puede apreciar, el cálculo mismo de la convolución es complejo. En
realidad la importancia de ella se debe a que, por un lado, condensa la esencia
de la linealidad de los sistemas lineales (e invariantes en el tiempo), y por otro,
establece un nexo fundamental con el análisis mediante las transformadas de
Fourier y de Laplace (Capı́tulos 6 y 7, respectivamente).
De igual forma, la respuesta de un sistema lineal e invariante en el tiempo
se puede calcular a partir de la respuesta a escalón, como se demuestra en el
siguiente lema.
56 CAPÍTULO 3. ANÁLISIS EN TIEMPO CONTINUO

Lema 3.2. Sea una sistema lineal e invariante en el tiempo. Suponga que la
respuesta de ese sistema a un escalón unitario de entrada, con condiciones ini-
ciales iguales a cero, es g(t). Entonces la respuesta del sistema, bajo condiciones
iniciales iguales a cero, a una excitación u(t) está dada por:

du(t)
y(t) = g(t) ∗ (3.81)
dt
Demostración
La demostración sigue la misma lı́nea que el lema anterior. En primer lugar,
tenemos que la señal de entrada u(t) puede ser expresada aproximadamente
como la suma de escalones de altura diferencial, es decir3 :

X u((i + 1)∆) − u(i∆)
ũ(t) = µ(t − i∆)∆ (3.82)
i=−∞

donde ũ(t) tiende a u(t) cuando ∆ tiende a cero. Por otro lado:

g(t − i∆) = Thh0, µ(t − i∆)ii (3.83)


Ası́, si el sistema es excitado con ũ(t) entonces, por linealidad e invarianza,
se obtiene que la respuesta, ỹ(t), está dada por:

X u((i + 1)∆) − u(i∆)
ỹ(t) ≈ g(t − i∆)∆ (3.84)
i=−∞

Si finalmente hacemos tender ∆ a cero, el producto i∆ se convierte en una


variable continua τ y tenemos que:
Z ∞
du(τ )
y(t) = lı́m ỹ(t) = g(t − τ )dτ (3.85)
∆→0 −∞ dτ

Esta ecuación corresponde al resultado deseado. Note que el lı́mite superior


puede ser reducido a τ = t, ya que suponemos que el sistema es causal, por lo
cual g(t − τ ) es cero ∀τ > t. También, si u(t) es causal, el lı́mite inferior puede
ser reemplazado por cero.

222

3 Note que el lı́mite superior de la suma es ∞ aunque los sumandos para i > t/∆ son cero,

debido a la presencia del escalón µ(t − i∆).


3.6. PROBLEMAS PARA EL LECTOR 57

3.6. Problemas para el lector


Problema 3.1. Resuelva las siguientes ecuaciones diferenciales con las condi-
ciones iniciales que se indican
dy
+ 2y(t) = 0 y(0) = −1 (3.86)
dt
d 2y dy
+7 + 10y(t) = 0 y(0) = −1; ẏ(0) = 2 (3.87)
dt 2 dt
d 2y
+ 4y(t) = 0 y(0) = 0; ẏ(0) = 1 (3.88)
dt 2

Problema 3.2. La respuesta de un sistema lineal e invariante en el tiempo a


un escalón unitario (con condiciones iguales a cero) está dada por

g(t) = 1 − e−t + te−t ∀t ≥ 0 (3.89)

3.2.1 Determine la EDS.


3.2.2 Calcule la respuesta del mismo sistema a un impulso unitario.

Problema 3.3. Determine los modos asociados a las siguientes conjuntos de


frecuencias naturales
Sistema 1 λ1 = −2 λ2 = −2 λ3 = −2
Sistema 2 λ1 = 3 λ2 = 0 λ3 = 0
Sistema 3 λ1 = −1 λ2 = −1 + j2 λ3 = −1 − j2

Problema 3.4. La respuesta de un sistema lineal e invariante en el tiempo a


un impulso unitario es h(t) = e−2t µ(t). Usando convolución calcule la respuesta
del sistema a una entrada u(t) = e−3t µ(t)

Problema 3.5. La ecuación caracterı́stica de un sistema está dada por

λ2 + aλ + 4 = 0 (3.90)

3.5.1 Determine el rango de valores de a que hacen estable al sistema.


3.5.2 Dentro de ese rango determine el valor de a de modo que el sistema sea
lo más rápido posible.

Problema 3.6. Suponga que la respuesta de un sistema lineal a un escalón


unitario con condiciones iniciales iguales a cero es una señal g(t), que se muestra
en la Figura 3.6.

3.6.1 ¿Es el sistema estable ?


3.6.2 Estime los modos naturales del sistema
58 CAPÍTULO 3. ANÁLISIS EN TIEMPO CONTINUO

0.7

0.6

0.5

0.4

g(t)
0.3

0.2

0.1

0
0 5 10 15
Tiempo [s]

Figura 3.6: Respuesta a escalón unitario

Sistema 1 Sistema 2
2 4

1.5 3

1 2
Eje imaginario

Eje imaginario
0.5 1

0 0

−0.5 −1

−1 −2

−1.5 −3

−2 −4
−2 −1.5 −1 −0.5 0 0.5 1 −3 −2 −1 0 1
Eje real Eje real

Figura 3.7: Configuración de frecuencias naturales de dos sistemas

3.6.3 Estime la ganancia al modo forzante constante

Problema 3.7. Se calculan los valores caracterı́sticos de dos sistemas y se


dibujan en el plano complejo, como se muestra en la Figura 3.7.

3.7.1 Determine los modos naturales de cada sistema.

3.7.2 ¿Cuáles son las frecuencias dominantes en cada caso?

3.7.3 ¿Cuál de los dos sistemas es más rápido?

Problema 3.8. Considere la red eléctrica de la Figura 3.8, en donde se ha


agregado el modelo de red para el amplificador operacional.

3.8.1 Determine la ecuación diferencial que relaciona la entrada v f (t) con la


salida vo (t).

3.8.2 Si A  1, ¿es el sistema estable?


3.6. PROBLEMAS PARA EL LECTOR 59

1
3

C 2
R1 4
1
1 3
3
2 vc (t) +
+
R2 vo (t) 2 Avc (t)
vf (t) 4

Figura 3.8: Red eléctrica con amplificador operacional

3.8.3 Repita si A  −1 (o, lo que es lo mismo, si se intercambian los terminales


1 y 2).

Problema 3.9. La ecuación diferencial de un sistema es:

d 2 y(t) d y(t) d u(t)


2
+7 + 12y(t) = − + 2u(t) (3.91)
dt dt dt
Calcule la ganancia del sistema para los siguientes modos: u1 (t) = e−2t ,
u2 (t) = 1 y u3 (t) = cos(3t).

Problema 3.10. En un sistema lineal e invariante en el tiempo se sabe que


la ganancia al modo ej2t es 0, 3 + j0, 4, y que las frecuencias naturales están
ubicadas en λ = −1 y λ = 0.
Calcule,
√ si es posible, la respuesta y(t) del sistema cuando la entrada es
u(t) = 2 sen(2t + π/4) y las condiciones iniciales son y(0) = 0 e ẏ(0) = 2.
60 CAPÍTULO 3. ANÁLISIS EN TIEMPO CONTINUO
ecuación de recursión|textbf

Capı́tulo 4

Análisis en tiempo discreto

4.1. Introducción
Para variables definidas solo en instantes discretos de tiempo, no es posible
definir la derivada, por tanto, la herramienta para describir sus variaciones en
el tiempo es la diferencia entre instantes sucesivos. De esta forma. Para los
sistemas de tiempo discreto el modelo matemático central es la ecuación de
recursión del sistema, ERS, la cual relaciona la entrada del sistema, u[t], con la
salida, y[t]. Para el caso de modelos linealizados, la entrada y salida son ∆u[t]
y ∆y[t], respectivamente.
La ERS es una descripción cuantitativa del sistema especialmente útil para
el análisis numérico del mismo. Esto guarda relación con la naturaleza de los
algoritmos computacionales, en los que una iteración se basa en los resultados
de la iteración anterior. Por otro lado, una ERS surge también cuando se dis-
cretiza el modelo para un sistema lineal de tiempo continuo. El estudio de las
propiedades de la solución que realizaremos en este capı́tulo será complementa-
do cuando, en capı́tulos posteriores, se usen la transformada de Fourier discreta,
y la transformada Zeta.
En este capı́tulo, análogamente a lo que se hizo en el capı́tulo precedente,
se desarrollan herramientas de análisis que establecen relaciones estrechas entre
propiedades cuantitativas y cualitativas de los sistemas lineales (de tiempo dis-
creto). En particular, interesa cuantificar y construir indicadores de propiedades
relevantes tales como comportamiento natural, estabilidad, velocidad relativa y
ganancia.

4.2. Ecuación de recursión del sistema (ERS)


La forma general de la ERS es

y[t] + an−1 y[t − 1] + . . . + a1 y[t − n + 1] + a0 y[t − n] =


bm u[t] + bm−1 u[t − 1] + . . . + b1 u[t − m + 1] + b0 u[t − m] (4.1)

61
62 CAPÍTULO 4. ANÁLISIS EN TIEMPO DISCRETO

causalidad Esta forma de la ERS es una forma en la que la causalidad se cumple sin
condiciones iniciales
operador adelanto condiciones para cualquier par de enteros positivos n y m. Esto se aprecia por
promedio móvil el hecho que la salida y[t] no depende de valores futuros de la entrada, aunque
sı́ podrı́a depender de valores presentes de la entrada.
Cuando la salida depende sólo de valores pasados de la entrada (bm = 0), se
habla de sistemas estrictamente causales.
La solución a esta ecuación debe cumplir además con las restricciones que
imponen las condiciones o estado inicial. Estas condiciones iniciales se refieren
usualmente a un conjunto de n valores y[i ], y[i − 1], . . ., y[i − n + 1], donde
i = −1 o, alternativamente1 i = n − 1. Note que estas alternativas no encierran
aspectos conceptuales, sino que reflejan el hecho que la elección del instante
inicial es arbitraria. Una generalización más amplia dice que la ecuación (4.1)
puede ser resuelta si conocemos, aparte de la entrada u[t], un conjunto de valores
de la salida y[t] en cualquier conjunto de n instantes.
Ası́ como ocurre con los sistemas de tiempo continuo, conviene usar una
notación compacta, tipo operador, para denotar la operación corrimiento tem-
poral. Por esa razón, introducimos el operador adelanto temporal, q definido
por

4
qhf [t]i = qf [t] = f [t + 1] (4.2)
q hf [t]i = q n f [t] = f [t + n]
n
(4.3)
q −` hf [t]i = q −` f [t] = f [t − `] (4.4)

Usando este operador, el modelo (4.1) puede ser escrito como

y[t] + an−1 q −1 y[t] + . . . + a1 q −n+1 y[t] + a0 q −n y[t] =


bm u[t] + bm−1 q −1 u[t − 1] + . . . + b1 q −m+1 u[t] + b0 q −m u[t] (4.5)

La ERS puede aparecer como modelo de situaciones muy diferentes. Consi-


deraremos varios casos a modo de ilustración.
Ejemplo 4.1 (Promedio móvil). En estadı́sticas económicas se suele calcu-
lar indicadores que resultan de promediar el valor de ciertas variables durante
un número de perı́odos consecutivos 2 . Suponga que nos interesa la variable de-
sempleo, y que definimos el ı́ndice de desempleo trimestral calculado como el
promedio de los porcentajes de desempleos de los tres últimos meses. Entonces
la ecuación de recursión es
1
y[t] = (u[t] + u[t − 1] + u[t − 2]) (4.6)
3
222
1 El
comando rsolve de Maple puede usar ambas opciones.
2 Esto
se hace para disminuir el efecto de fenómenos ocasionales, propios de sólo parte del
perı́odo bajo análisis (fenómenos estacionales)
4.2. ECUACIÓN DE RECURSIÓN DEL SISTEMA (ERS) 63

Ejemplo 4.2 (Discretización de ecuaciones diferenciales). Considere la discretización


ecuación diferencial de primer orden

ρy(t) + αy(t) = βu(t) (4.7)

Entonces, si usamos la discretización de Euler3 para la primera derivada y


consideramos el tiempo discreto t = 0, ∆, . . . `∆ se llega a

y((` + 1)∆) − y(`∆)


+ αy(`∆) = βu(`∆) (4.8)

Lo cual lleva a

y[t] + (∆α − 1)y[t − 1] = ∆βu[t − 1] (4.9)

donde y[t] = y((` + 1)∆), y[t − 1] = y(`∆), u[t − 1] = u(`∆).


222
Ejemplo 4.3 (Algoritmo computacional). Considere el siguiente código de
programa
input N u1=0 y1=0 y2=0 For t=1,N
input u
y=0,7*y1-0,12*y2+0,2*u1
output y
u1=u
y2=y1
y1=y
end
Entonces podemos hacer la siguiente asociación de variables: u[t] = u, u[t −
1] = u1, y[t] = y, y[t − 1] = y1 e y[t − 2] = y2. Por lo tanto en la iteración
t-ésima tenemos que

y[t] = 0, 7y[t − 1] − 0, 12y[t − 2] + 0, 2u[t − 1] (4.10)

222

La ERS es un modelo dinámico que establece una restricción fundamen-


tal sobre ciertas combinaciones de la entrada, la salida y algunas versiones
retrasadas de ambas señales.

Para ser más especı́ficos, consideremos una ecuación de recursión de primer


orden

y[t] − 0, 5y[t − 1] = u[t − 1] (4.11)


3 Aproximación de la derivada como una diferencia hacia adelante.
64 CAPÍTULO 4. ANÁLISIS EN TIEMPO DISCRETO

equilibrio estable Observamos en (4.11) que la salida y[t] no puede variar arbitrariamente, sino
sistema! inestable
que existe una restricción. Esa restricción dice que en un instante arbitrario,
t = t1 , la salida menos la mitad de la salida en un instante anterior debe ser
igual al valor que tenı́a la entrada un instante anterior, u[t1 −1]. Para estudiar la
evolución de la salida del sistema conviene re-escribir (4.11) en la forma siguiente

y[t] − y[t − 1] = −0, 5y[t − 1] + u[t − 1] (4.12)


Supongamos ahora que u[−1] = 0, u[t] = 2, ∀t ≥ 0, e y[−1] = −2, entonces
necesariamente y[1] − y[0] = 2, 5, es decir, y[1] − y[0] > 0 por lo cual, en t = 0, la
salida y, está aumentando. Por otro lado, a medida que y[t] aumenta y se acerca
a 4, entonces y[t]−y[t−1] sigue siendo positiva, pero disminuye consistentemente
ya que −0, 5y[t − 1] + u[t − 1] se acerca a 0. En el lı́mite, cuando y[t] = 4, la
diferencia y[t]−y[t−1] es cero, lo cual dice que en ese instante y[t] ya no cambia,
es decir, se alcanza un punto de equilibrio estable.
Introduzcamos ahora una variante en (4.11) :

y[t] − 1, 5y[t − 1] = u[t − 1] =⇒ y[t] − y[t − 1] = 0, 5y[t − 1] + u[t − 1] (4.13)


Si nuevamente u[t] = 2, ∀t ≥ 0, e y[−1] = −2, entonces y[1]−y[0] = 1, lo cual
implica que en t = 0 la salida y está aumentando. Sin embargo, a diferencia del
caso anterior, a medida que y aumenta, acercándose a 2, su primera diferencia
crece, es decir, y[t] aumenta. Cuando y[t] = 2, se tiene que y[t] − y[t − 1] = 4, y
subiendo. En consecuencia, y sigue creciendo monotónicamente, pero siempre la
diferencia, y[t] − y[t − 1], debe cumplir con y[t] − y[t − 1] = 0, 5y[t − 1] + u[t − 1].
Es decir, no se alcanza un punto de equilibrio y, más adelante, definimos este
tipo de sistemas como inestable.
Ambos casos pueden ser representados por la forma general de una ERS de
primer orden

y[t] + ay[t − 1] − bu[t] = 0 (4.14)


La forma (4.14) deja en evidencia el significado de restricción que tiene la
ERS.
El análisis precedente se puede aplicar a ERS más complejas, pero en esos
casos se pierde la visión intuitiva, por ello nos conviene trasladarnos a un ámbito
más general, que es lo que hacemos a continuación.

4.3. La respuesta del sistema


La solución de la ERS condensa aspectos fundamentales del comportamiento
del sistema. Una aproximación intuitiva a esta conexión indica que es esperable
que la excitación no sólo fuerce determinada conducta en la respuesta, sino
que en ese proceso revele aspectos claves de la naturaleza del sistema. Esta
percepción justifica el observar con detención la solución de la ERS y algunas
formas en que ella puede ser descompuesta para su mejor comprensión. Note
que no analizaremos el problema de existencia y unicidad de la solución de (4.1).
4.3. LA RESPUESTA DEL SISTEMA 65

4.3.1. Componente homogénea y componente particular respuesta homogénea


solución homogénea
Una primera forma de escudriñar la respuesta del sistema es descomponerla
de modo de identificar aquella parte que captura la naturaleza del sistema, com-
ponente natural u homogénea, y la otra, que refleja la naturaleza especı́fica
de la excitación, componente particular o forzada.
La componente homogénea, yh [t], satisface la ecuación homogénea asociada
a (4.1), es decir:

yh [t] + an−1 q −1 yh [t] + . . . + a0 q −n yh [t] = 0 (4.15)


Antes de proseguir con el análisis consideraremos un ejemplo.
Ejemplo 4.4. Suponga que la ERS está dada por:

y[t] − 0, 5y[t − 1] = u[t − 1] (4.16)


y que la respuesta y[t] debe satisfacer la condición inicial y[0] = −1. Se desea
calcular la respuesta del sistema cuando u[t] = 1 para t ≥ 0.
yh [t]
La componente homogénea debe cumplir con:

y[t] − 0, 5y[t − 1] = 0 (4.17)


Esta ecuación es satisfecha por yh [t] = C(0, 5)t , para cualquier valor de la
constante C. Esto se verifica reemplazando yh [t] en: (4.17)

C(0, 5)t − 0, 5C(0, 5)t−1 = C (0, 5)t − (0, 5)t = 0 (4.18)

yp [t]
La componente particular yp [t] es una función, independiente de las condi-
ciones iniciales, que debe satisfacer (3.16) con u[t] = 1. Como la entrada es una
constante, una solución tentativa es suponer que la solución particular también
es constante, digamos yp [t] = Co . Si esta suposición es correcta, entonces existe
Co constante que satisface (4.16) y puede ser calculada reemplazando yp [t] = Co
y u[t] = 1 en (4.16):

Co − 0, 5Co = 1 =⇒ Co = 2 (4.19)
Entonces la solución completa es y[t] = yh [t] + yp [t] = 2 + C(0, 5)t . La
constante C se calcula de modo que y[−1] = −1:
3
y[−1] = −1 = 2 + C(0, 5)−1 =⇒ C = − (4.20)
2
Por lo tanto la solución completa está dada por:

3
y[t] = 2 − (0, 5)t (4.21)
2
222
66 CAPÍTULO 4. ANÁLISIS EN TIEMPO DISCRETO

ecuación caracterı́stica 4.3.2. Frecuencias y modos naturales


polinomio caracterı́stico
Volvamos ahora al problema general de calcular la componente homogénea
de la respuesta del sistema. Para ello repetimos la ecuación homogénea (4.15):

yh [t] + an−1 q −1 yh [t] + . . . + a0 q −n yh [t] = 0 (4.22)


La solución para (4.22) puede ser construida en torno al siguiente lema.

Lema 4.1. La función f [t] = Cλto (λo 6= 0) satisface (4.22) para cualquier
constante C ∈ C si y sólo si λo ∈ C satisface la ecuación caracterı́stica
asociada a la ecuación homogénea:
4
pq (λ) = λn + an−1 λn−1 + . . . + a1 λ + a0 = 0 (4.23)
donde:
X
pq (λ) = a` λ` con an = 1 (4.24)
`=0

es conocido como el polinomio caracterı́stico asociado a la ERS.


Demostración
Reemplazando f [t] en (4.22) se obtiene:

Cλt−n
o λno + an−1 λon−1 + . . . + a1 λo + a0 = 0 (4.25)

Por un lado (suficiencia) se ve que si λo satisface (4.23), entonces f [t] sat-


isface la ecuación homogénea.
Por otro lado (necesidad), si f [t] satisface la ecuación homogénea, entonces
(4.25) debe cumplirse ∀t y dado que λo 6= 0, entonces pq (λo ) = 0.

222
Supongamos que las n raı́ces de pq (λ) son distintas, entonces la solución
homogénea tiene la forma:
n
X
yh [t] = Ci λti (4.26)
i=1

Un caso más complejo ocurre cuando algunas raı́ces de pq (λ) son repetidas.
El lema que sigue se refiere al caso de raı́ces dobles.

Lema 4.2. Si el polinomio caracterı́stico pq (λ) tiene una raı́z doble, digamos
en λ = λ1 , entonces la función f2 [t] = Ctλt1 satisface la ecuación homogénea
(4.22).
Demostración
Primero notamos que si pq (λ) tiene una raı́z doble en λ = λ1 , entonces:
n
d pq (λ) X
= a` `λ`1 = 0; con an = 1 (4.27)
dλ λ=λ1
`=0
4.3. LA RESPUESTA DEL SISTEMA 67

Luego, reemplazamos yh [t] por f2 [t] en el lado izquierdo de (4.22), para de- respuesta particular
solución particular
mostrar que es igual a cero. constantes indeterminadas

n
X n
X
a` yh [t − n + `] = a` (t − n + `)λt−n+`
1 (4.28)
`=0 `=0
n
X n
X
= (t − n)λt−n
1 a` λ`1 + λ1t−n+1 a` `λ`−1
1 (4.29)
`=0 `=0

d pq (λ)
= (t − n)λt−n
1 pq (λ1 ) +λ1t−n+1 (4.30)
| {z } dλ λ=λ1
0 | {z }
0

Con lo cual el lema queda demostrado.

222
El lector es invitado a demostrar el siguiente lema.

Lema 4.3. Si el polinomio caracterı́stico pq (λ) tiene una raı́z de multiplicidad


n1 en λ = λ1 , entonces la función fn [t] = Cti λt1 satisface la ecuación homogénea
(4.22) para i = 0, 1, . . . , n1 − 1

222
De los resultados precedentes se puede ver que la ecuación homogénea tiene
infinitas soluciones, las que pueden describirse genéricamente como una familia.
Los miembros de esta familia se diferencian por los valores numéricos especı́ficos
que se pueden escoger para un conjunto de n constantes indeterminadas. De
la ecuación (4.22) se observa que podemos escoger libremente un conjunto de
valores arbitrarios para y[−1], y[−2], . . ., y[−n]. Por cada conjunto elegido hay
una solución distinta.
Por su parte, la componente o solución particular es una función del tiempo
completamente determinada, es decir, independiente de las condiciones iniciales,
y que satisface la ecuación (3.1). La solución completa y[t] = yh [t] + yp [t] queda
totalmente determinada al usar las condiciones iniciales, aplicadas a la res-
puesta completa, y[t], para calcular las constantes indeterminadas presentes
en yh [t].
Si las soluciones de (4.23) son λ1 , λ2 , . . . λp con multiplicidad n1 , n2 , . . . ,
np respectivamente, tal que n1 + n2 + . . . + np = n, entonces la forma general
de yh [t] es:
p X
X nt
yh [t] = C`i ti−1 λt` (4.31)
`=1 i=1

donde los C`i son constantes arbitrarias (constantes indeterminadas) que gener-
an los grados de libertad necesarios para que la respuesta completa satisfaga
las condiciones iniciales.
68 CAPÍTULO 4. ANÁLISIS EN TIEMPO DISCRETO

frecuencias naturales Los valores de λ que satisfacen (4.23) son conocidos como autovalores, valores
modos naturales
modo forzante propios o frecuencias naturales del sistema. Como la ecuación caracterı́stica
modo forzante!ganancia a de la ERS tiene coeficientes reales, cuando las soluciones son complejas, siempre
ganancia! a modo forzante ocurren en pares conjugados.
modo forzado
A su vez, la funciones temporales de la forma:

ti−1 λt` (4.32)


que aparecen en (4.31) se denominan modos naturales del sistema.
Los modos naturales se asocian unı́vocamente a las frecuencias naturales, y
la forma temporal de los primeros depende de la ubicación de los segundos en
el plano complejo. Un mapa general se aprecia combinando las Figuras 4.1 y
4.2 . En ambos gráficos se ha dibujado la circunferencia de radio unitario con
centro en el origen. La separación se ha hecho sólo para una mayor claridad.
En esas figuras se asocia una señal (modo natural) a cada frecuencia natural
de multiplicidad uno, excepto en el caso de frecuencias complejas, en que se
considera el par complejo conjugado.

4.3.3. Modos forzantes y modos forzados


La componente particular de la respuesta, yp [t], es una función estrechamente
ligada a la entrada, u[t]. Un caso simple, en que podemos apreciar esta relación,
es cuando u[t] puede describirse como una combinación lineal de funciones de
la forma βit , es decir:


u[t] = Bi βit (4.33)
i=1

donde los βi0 s son distintos enter sı́ y ninguno de ellos coincide con alguna
frecuencia natural. Cada una de las funciones βit recibe el nombre de modo
forzante.
Se puede verificar, usando la linealidad del sistema, que la solución particu-
lar, yp [t], está dada por:


yp [t] = ypi [t]; con ypi [t] = Ki Bi βit (4.34)
i=1

y donde cada uno de los coeficentes es:


Pm
bm−` (βi )−`
Ki = P`=0
n −l
; con an = 1 (4.35)
l=0 an−l (βi )

La respuesta yp [t] contiene modos forzados. Bajo la suposición anterior,


relativos a que los βi0 s son distintos de las frecuencias naturales, todos los modos
forzados coinciden con modos forzantes.
4.3. LA RESPUESTA DEL SISTEMA 69

ganancia
z ganancia! a continua

Figura 4.1: Relación entre la ubicación de las frecuencias naturales (de multi-
plicidad uno) y los modos naturales (caso decreciente).

Observe que podemos identificar a Ki con una ganancia asociada al modo


forzante i-ésimo. Cuando el modo forzante es una constante, es decir, β t = 1t ,
se habla de la ganancia a continua o ganancia a frecuencia cero.
Para facilitar la comprensión del concepto de ganancia a modos, considere-
mos un ejemplo.
Ejemplo 4.5. Considere la ERS lineal
y[t]−0, 5y[t−1] = 2u[t−1]; entonces
n = m = 1; a1 = 1; a0 = −0, 5; b0 = 2
(4.36)
Supongamos que la entrada es u[t] = 5+4 cos(πt/4+π/7), entonces podemos
expresarla como:
3
X π π
u[t] = Bi eβi t = 5β1t + 2ej 7 β2t + 2e−j 7 β3t (4.37)
i=1
70 CAPÍTULO 4. ANÁLISIS EN TIEMPO DISCRETO

Figura 4.2: Relación entre la ubicación de las frecuencias naturales (de multi-
plicidad uno) y los modos naturales (caso no decreciente).

π π
donde β1 = 1, β2 = ej 4 y β3 = e−j 4 , es decir, hay tres modos forzantes
presentes. Las ganancias están dadas por (4.35), y para este caso particular:

b0 2
K1 = = =4 (4.38)
β1 + a 0 0, 5
b0 β2−1
K2 = = 0, 7630 − j2, 605 = 2, 7144e−j1,286 (4.39)
1 + a0 β2−1
b0 β2−1
K3 = = 0, 7630 + j2, 605 = 2, 7144ej1,286 (4.40)
1 + a0 β2−1
222
El tratamiento general de la solución particular será pospuesto para capı́tulos
futuros; pero en el intertanto podemos establecer un hecho trascendente
4.3. LA RESPUESTA DEL SISTEMA 71

estabilidad
Los sistemas lineales exhiben ganancias distintas para modos forzantes dis- cı́rculo unitario
tintos, y esta capacidad de discriminación es la base para el análisis y diseño disco unitario
de sistemas de procesamiento de señales y para otras aplicaciones.

4.3.4. Estabilidad
Como ya hemos mencionado, los modos naturales describen aspectos es-
enciales de un sistema lineal. En primer lugar, los modos naturales guardan
estrecha relación con la idea de estabilidad. Intuitivamente podemos definir
un sistema lineal (o, mejor dicho, un modelo lineal) como estable si todas las
variables (señales) del sistema permanecen acotadas ante cualquier excitación
acotada o estado inicial acotado. Si consideramos sólo el efecto de condiciones
iniciales, resulta que la estabilidad requiere que los modos naturales sean todos
acotados. Sin embargo, veremos que la estabilidad de un sistema requiere que
todos los modos naturales decaigan en el tiempo.
Como cada modo natural depende de una frecuencia natural, son éstas, es
decir, las raı́ces de la ecuación caracterı́stica, las que determinan la estabilidad
del sistema. Consideremos el caso de un modo de la forma genérica:

yh1 [t] = Cλt ; λ∈C (4.41)


Sea λ = ηejθ , entonces:

yh1 [t] = Cλt = Cη t ejθt = Cη t (cos(θt) + j sen(θt)) (4.42)


De la expresión anterior se observa que yh1 [t] decae a medida que el tiempo
transcurre si y sólo si λt decae, y esto ocurre si y sólo si |λ| = η < 1. Dicho de
otra forma, si y sólo si λ está al interior del cı́rculo o disco unitario (excluyen-
do su borde). Esto se refleja los modos que aparecen en la Figura 4.1 y, por
contradicción, en la Figura 4.2.
En resumen, tenemos la siguiente definición de estabilidad, conocida como
estabilidad asintótica:

Diremos que un modelo lineal e invariante en el tiempo (discreto) es estable


si y sólo si todos sus modos naturales decaen asintóticamente a cero, es decir,
si y sólo si todas sus frecuencias naturales tienen magnitud estrictamente
menor que uno. Si una o más de las frecuencias naturales del modelo tienen
magnitud mayor o igual que uno, diremos que el modelo es inestable.

Definimos, en consecuencia, la región de estabilidad en el plano com-


plejo, para sistemas de tiempo discreto, como el cı́rculo unitario abierto, es
decir excluyendo la circunferencia unitaria. La necesidad de esta exclusión se
demostrará más adelante. Sin embargo, el ejemplo siguiente permite apreciar el
origen de las dificultades cuando una frecuencia natural está en la circunferencia
unitaria.
72 CAPÍTULO 4. ANÁLISIS EN TIEMPO DISCRETO

velocidad Ejemplo 4.6. Sea un sistema cuya ERS está dada por:
frecuencia natural!dominante
modo natural!dominante
y[t] − y[t − 1] = 2u[t − 1] (4.43)
Entonces el sistema tiene sólo una frecuencia natural, y ella está ubicada
en λ = 1, esto significa que el modo natural que aparecerá en la respuesta del
sistema es λt = 1. Ası́, la respuesta homogénea es yh [t] = C1 . Supongamos que
la entrada es una constante ∀t ≥ 0, digamos u[t] = Uo , entonces la componente
particular de la respuesta es yp [t] = 2Uo t. De esa forma la respuesta completa es
y[t] = C1 + 2Uo t donde C1 debe calcularse para satisfacer la condición inicial.
En todo caso, lo relevante de este ejemplo es que aunque la entrada es una
simple constante, la salida crece en forma no acotada a medida que el tiempo
evoluciona. El sistema es, entonces, inestable.
Podemos apreciar mejor la naturaleza de este sistema, si (4.43) es escrita
como:

y[t] = y[t − 1] + 2u[t − 1] (4.44)


Esta ecuación puede ser asociada con el cáculo de una integral por aproxi-
mación rectangular cuando el ancho de los rectángulos es 2. Al final, el resultado
del ejemplo muestra que la integral de un escalón es una rampa.
222

4.3.5. Velocidad
Un segundo aspecto de interés en relación con las frecuencias y modos nat-
urales guarda relación con la velocidad con que evolucionan las variables de un
sistema.
Dentro de la clase de sistemas estables, podemos distinguir diferencias no-
tables, no sólo por la distinta naturaleza de los valores propios, sino por las
velocidades comparativas a las que decaen las componente homogéneas de la
respuesta de los distintos sistemas. Por ejemplo, consideremos dos sistemas con
las componentes homogénas que se indican:

Sistema 1 yh1 [t] = C11 0, 9t + C12 0, 5t (4.45)


t t
Sistema 2 yh2 [t] = C21 0, 2 + C22 0, 7 (4.46)

Vemos que yh1 [t] está dominada por el modo natural 0, 9t , pues esta señal de-
cae más lentamente que el otro modo natural 0, 5t . Por su parte, yh2 [t] está dom-
inada por el modo natural 0, 7t , el que decae más lentamente que el modo 0, 2t .
Ası́ diremos que el Sistema 1 tiene una frecuencia natural dominante igual
a 0, 9, con un modo natural dominante 0, 9t . A su vez, el Sistema 2 tiene una
frecuencia natural dominante igual a 0, 7, con un modo natural dominante 0, 7 t .
Al comparar ambos sistemas podemos concluir, en primera aproximación, que
el Sistema 1 es más lento que el Sistema 2, porque su modo dominante decae
más lentamente.
4.3. LA RESPUESTA DEL SISTEMA 73

En general, si λ = ηejθ , con 0 ≤ η < 1, el modo natural tiene la forma:

λt = η t (cos(θt) + j sen(θt)) (4.47)


De esta ecuación se observa que este modo decae más rápidamente cuanto
más pequeño es η. Ası́, los sistemas estables son más rápidos cuanto más cercanos
al origen del plano complejo están sus frecuencias naturales dominantes.

4.3.6. Respuesta a estado inicial y respuesta a entrada


Una forma alternativa de descomponer la respuesta de un sistema es consid-
erar por separado la componente de la respuesta debida al estado inicial, y x [t],
y la componente de la respuesta debida a la entrada, yu [t], es decir:

y[t] = Thhxo , u[t]ii = Thhxo , 0ii + Thh0, u[t]ii (4.48)


| {z } | {z }
yx [t] yu [t]

En consecuencia, yx [t] satisface:

yx [t] + an−1 q −1 yx [t] + . . . + a0 q −n yx [t] = 0 (4.49)


sujeta a las condiciones iniciales definidas en un vector xo . Esto sig-
nifica que yx [t] es una combinación lineal de modos naturales, en donde las
constantes dependen de las condiciones iniciales (las que deben ser satisfechas
por la solución completa de la ERS).
A su vez, la respuesta a entrada, yu [t], es una solución de la ERS con condi-
ciones iniciales iguales a cero, es decir, satisface:

yu [t] + an−1 q −1 yu [t] + . . . + a0 q −n yu [t]


= bm u[t] + bm−1 q −1 u[t] + . . . + b0 q −m u[t] (4.50)

sujeta a condiciones iniciales cero. Para poder cumplir la restricción que


imponen estas condiciones, yu [t] debe contener, además de los modos forzados,
una combinación lineal de modos naturales cuyas constantes son calculadas de
modo que se cumpla aquella restricción.
La Tabla 4.1 muestra una comparación de los modos presentes en las de-
scomposiciones descritas de la respuesta de un sistema.

yh [t] yp [t] yx [t] yu [t]


√ √ √
modos naturales
√ √
modos forzados

Cuadro 4.1: Presencia de modos en descomposiciones de la respuesta

Es además importante el notar que:


74 CAPÍTULO 4. ANÁLISIS EN TIEMPO DISCRETO

y[t] = yh [t] + yp [t] = yx [t] + yu [t] (4.51)


No obstante, en general, yh [t] 6= yx [t] e yp [t] 6= yu [t].
Afianzaremos estas ideas a través del ejemplo 4.4 en que se muestra la de-
scomposición en componente homogénea y particular, para un caso particular.
Ejemplo 4.7. Suponga que la ERS está dada por:

y[t] − 0, 5y[t − 1] = u[t − 1] (4.52)


y que la respuesta y[t] debe satisfacer la condición inicial y[−1] = −1. Se desea
calcular la respuesta del sistema si u[t] = 1 para t ≥ −1.
yx [t]
La respuesta a estado inicial debe cumplir con:

yx [t] − 0, 5yx [t − 1] = 0 (4.53)


y con yx [−1] = −1. Esta ecuación es satisfecha por yx [t] = C(0, 5)t , con C =
−0, 5, es decir:

yx [t] = −0, 5(0, 5)t (4.54)

yu [t]
La respuesta a entrada, yu [t], es una solución para (4.52) con u[t] = 1, y
sujeta a yu [−1] = 0.
De esta forma, la solución completa es

yu [t] = yuh [t] + yup [t] (4.55)


donde yuh [t] es una solución de la ecuación homogénea, es decir yuh [t] = Cu (0, 5)t ,
e yup [t] es la solución particular4 yup [t] = 2. Cu se calcula de modo de obtener
yu [−1] = 0, lo cual conduce a Cu = −1.
Finalmente:

yx [t] = −0, 5(0, 5)t (4.56)


t
yu [t] = −(0, 5) + 2 (4.57)
t
y[t] = yx [t] + yu [t] = −1, 5(0, 5) + 2 (4.58)

Este resultado también puede ser obtenido directamente con el código:

Maple

>rsolve({y(n)=0.5*y(n-1)+1, y(-1)=-1},y(t));

4 Esta solución particular se puede calcular usando la ganancia al modo 1 t .


4.3. LA RESPUESTA DEL SISTEMA 75

De esta forma, podemos ahora completar la Tabla 4.1 para el caso de las respuesta transitoria
respuesta estacionaria
soluciones obtenidas para este ejemplo. Esto se muestra en la Tabla 4.2.

yh [t] yp [t] yx [t] yu [t]


t t
modos naturales −1, 5(0, 5) −0, 5(0, 5) −(0, 5)t
modos forzados 2 2

Cuadro 4.2: Presencia de modos en descomposiciones de la respuesta del ejemplo

222
Las dos descomposiciones de la respuesta del sistema que se han desarrollado
permiten observar esa respuesta desde dos perspectivas diferentes

En la descomposición componente homogénea – componente particular se


observa la estructura de la respuesta. En efecto, en esa partición queda en
evidencia la presencia de dos tipos de modos: modos naturales (incluidos en
la componente homogénea) y modos forzados (incluidos en la componente
particular).

En la descomposición respuesta a estado inicial – respuesta a entrada se


separan los efectos de las dos causas de que el sistema tenga una respuesta:
las condiciones iniciales y las excitaciones o entradas aplicadas.

Note que aunque las condiciones iniciales sean cero, los modos naturales
igual se encuentran presentes en la respuesta del sistema a través de la respuesta
debida a la entrada, yu [t].
Un comentario final sobre la respuesta del sistema es que es usual hablar de
respuesta transitoria y respuesta estacionaria. La respuesta estacionaria
corresponde a la respuesta del sistema cuando ha transcurrido mucho tiempo
desde el instante inicial. Por su parte la respuesta transiente es aquella parte de
la respuesta que se extingue con el tiempo.
En el ejemplo 3.6 en la página 47, la respuesta estacionaria está dada por el
modo forzado constante, mientras que la respuesta transitoria está formada por
los modos naturales (sinusoidales amortiguadas).
La separación en componentes estacionaria y transitoria es transversal a
la idea de modos naturales y modos forzados. La respuesta estacionaria puede
existir incluso si la entrada es cero. En ese caso está formada exclusivamente por
modos naturales. Por ejemplo, si un sistema tiene modos naturales sinusoidales
y la entrada es una exponencial decreciente, entonces la respuesta estacionaria
contendrá los modos naturales sinusoidales y la respuesta transitoria incluirá el
modo forzado por la exponencial.
Por otro lado, si el sistema tiene ganancia cero a un modo forzante, el cor-
respondiente modo forzado no aparecerá en la respuesta estacionaria.
76 CAPÍTULO 4. ANÁLISIS EN TIEMPO DISCRETO

respuesta! a $\mu [t]$


respuesta! a escalón
4.4. Respuesta a señales de prueba
Una forma de estudiar, y comparar en forma estandarizada el comportamien-
to de un sistema es determinar su respuesta para excitaciones de prueba. Entre
esas señales de prueba se consideran usualmente: el escalón unitario, el impulso
unitario y la señal sinusoidal. En esta sección nos concentraremos en las dos
primeras, pues la respuesta ante señales sinuosidales será materia de estudio en
el Capı́tulo 5).

4.4.1. Respuesta a escalón unitario


Considere la ecuación (4.1) en la página 61. Entonces la respuesta, g[t], a un
escalón unitario y condiciones iniciales iguales a cero5 , se puede obtener
de la siguiente forma:

Paso 1 Determine la solución general de la ecuación:

go [t] + an−1 q −1 go [t] + . . . + a0 q −n go [t] = 1 (4.59)

Note que go [t] contiene una parte natural u homogénea (combinación lineal
de modos naturales de la forma (4.31)) y una componente particular o
forzada. Cuando el sistema no tiene frequencias naturales en λ = 1, go [t]
tiene la forma:

p X̀
X n
go [t] = Ko + C`i ti−1 λt` ∀t ≥ −n (4.60)
`=1 i=1

donde Ko es la ganancia del sistema con ERS (4.59) al modo constante


1t , es decir:

1
Ko = Pn ; con an = 1 (4.61)
i=0 ai

En el caso general en que el sistema tiene una frequencia natural en λ = 1,


con multiplicidad p, go [t] tiene la forma:

p X̀
X n
go [t] = Kp tp−1 + C`i ti−1 λt` ∀t ≥ −n (4.62)
`=1 i=1

Hemos anotado que esta expresión para go [t] es válida ∀t ≥ −n ya que


satisface las condiciones iniciales.

Paso 2 Calcule la señales retardadas q −` go [t], para ` = 1, 2, . . ., n.


5 Elegimos, por simplicidad, g[−1] = g[−2] = . . . = g[−n] = 0
4.4. RESPUESTA A SEÑALES DE PRUEBA 77

Paso 3 Calcule las constantes C`i usando la restricción de las condiciones ini-
ciales iguales a cero, es decir, usando el hecho que:

q −` go [t]|t=0 = 0 ` = 0, 1, . . . , n − 1 (4.63)

Paso 4 Usando las propiedades de linealidad e invarianza, obtenga g[t] de


acuerdo a:

m
X
g[t] = bm go [t] + bm−i q −i go [t]µ[t − i ] (4.64)
i=1

El procedimiento anterior es ilustrado con el siguiente ejemplo.

Ejemplo 4.8. Consideremos la ERS:

y[t] − 0, 9q −1 y[t] + 0, 2q −2 y[t] = 2u[t] + q −1 u[t] (4.65)


Entonces las frecuencias naturales son soluciones de λ2 − 0, 9λ + 0, 2 = 0, es
decir λ1 = 0, 5 y λ2 = 0, 4.
Luego, seguimos los pasos bosquejados previamente:

Paso 1 Calculamos la solución general de:

go [t] − 0, 9q −1 go [t] + 0, 2q −2 go [t] = 1 (4.66)

que resulta ser go [t] = 10 t t


3 + C1 (0, 5) + C2 (0, 4) . Note que el término
10
3
corresponde a la ganancia a continua, es decir, al modo forzante 1t .

Paso 2 Para este ejemplo, ya que n = 2, se necesita calcular go [t−1] y go [t−2]:

10 10
go [t − 1] = + C1 (0, 5)t−1 + C2 (0, 4)t−1 = + 2C1 (0, 5)t + 2, 5C2 (0, 4)t
3 3
(4.67)
10 10
go [t − 2] = + C1 (0, 5)t−2 + C2 (0, 4)t−2 = + 4C1 (0, 5)t + 6, 25C2 (0, 4)t
3 3
(4.68)

Paso 3 Las constantes C1 y C2 se calculan a partir de las condiciones iniciales


(iguales a cero), es decir:

10
go [−1] = 0 = + 2C1 + 2, 5C2 (4.69)
3
10
go [−2] = 0 = + 4C1 + 6, 25C2 (4.70)
3
78 CAPÍTULO 4. ANÁLISIS EN TIEMPO DISCRETO

respuesta! a $\delta [t]$ de donde C1 = −5 y C2 = 38 . Lo cual conduce a:


respuesta! a impulso

10 8
go [t] = − 5(0, 5)t + (0, 4)t ∀t ≥ −2 (4.71)
3 3

Este resultado se puede obtener a través del siguiente código:

Maple

>ers:=go(n)-0.9*go(n-1)+0.2*go(n-2)-1;
>rsolve({ers,go(-1)=0,go(-2)=0},go(t));

Paso 4 La respuesta a escalón unitario está entonces dada por:

g[t] = 2go [t] − go [t − 1]µ[t − 1] (4.72)


 
20 16 10 8
= − 10(0, 5)t + (0, 4)t + − 5(0, 5)t−1 + (0, 4)t−1 µ[t − 1] ∀t ≥ −2
3 3 3 3
(4.73)
 
20 16 10 20
= − 10(0, 5)t + (0, 4)t + − 10(0, 5)t + (0, 4)t µ[t − 1] ∀t ≥ −2
3 3 3 3
(4.74)

Note que go [t − 1]µ[t − 1] = go [t − 1]µ[t], ya que go [t − 1]µ[t]|t=0 = 0.


Ası́ tenemos que6

g[t] = 10 − 20(0, 5)t + 12(0, 4)t ∀t ≥ 0 (4.75)

222

4.4.2. Respuesta a impulso unitario


Considere la ecuación (4.1) en la página 61. Entonces la respuesta a un
impulso unitario, δ[t], y condiciones iniciales iguales a cero, se puede obtener a
partir de la respuesta a escalón unitario.Esta estrategia se basa en que el sistema
representado por la ERS (4.1) es lineal e invariante en el tiempo.
Recordemos que:

δ[t] = µ[t] − µ[t − 1] (4.76)


Entonces, la respuesta h[t], a un impulso unitario está dada por:
6 Note que esta expresión no es válida para t = −1 y t = −2
4.5. CÁLCULO DE LA RESPUESTA VIA CONVOLUCIÓN 79

convolución

h[t] = g[t] − g[t − 1]µ[t − 1] ∀t ≥ −n (4.77)


Como las condiciones iniciales son cero, g[t − 1]µ[t − 1] = g[t − 1]µ[t], ya
que g[t − 1]µ[t]|t=0 = 0. Ası́ la respuesta a un impulso unitario con condiciones
iniciales iguales a cero está dada por:

h[t] = g[t] − g[t − 1] ∀t ≥ 0 (4.78)

Aunque en algunos textos se propone calcular h[t] usando una estrategia


similar a la seguida para el cálculo de la respuesta a escalón unitario, en general
desde el punto de vista meramente instrumental es mucho más simple calcular
la respuesta a impulso usando la transformada Zeta, como se verá en el Capı́tulo
8.

Ejemplo 4.9. Consideremos el mismo sistema descrito por (4.65), entonces


podemos calcular h[t] construyendo la primera diferencia de la respuesta a es-
calón unitario en (4.72). Ası́ se obtiene:

h[t] = 10 − 20(0, 5)t + 12(0, 4)t − 10 + 20(0, 5)t−1 − 12(0, 4)t−1 (4.79)
t t
= 20(0, 5) − 18(0, 4) ∀t ≥ 0 (4.80)

222
En una perspectiva general, podemos observar que dada la relación entre la
respuesta a impulso y la respuesta a escalón, y considerando que esta última
contiene una combinación lineal de los modos naturales del sistema y una con-
stante, entonces h[t] contiene sólo modos naturales. Conceptualmente, es
ésta la caracterı́stica que confiere especial importancia a las respuestas a escalón
e impulso. En rigor, la respuesta a excitaciones más complejas también contiene
una combinación de modos naturales (a través de la componente homogénea de
la respuesta), sin embargo, la presencia de estos modos se ve oscurecida por la
componente particular o forzada de la respuesta.
Veremos, en la siguiente sección una utilidad inmediata de estas considera-
ciones.

4.5. Cálculo de la respuesta via convolución


Supongamos que se conoce la respuesta a impulso, h[t], de un sistema lineal
e invariante en el tiempo, con condiciones iniciales iguales a cero, entonces, el
siguiente lema nos proporciona un resultado crucial en la teorı́a de los sistemas
lineales de tiempo discreto.

Lema 4.4. Considere un sistema lineal e invariante en el tiempo. Sea además


h[t] la respuesta de ese sistema a un impulso unitario en la entrada, con condi-
ciones iniciales iguales a cero. Entonces, la respuesta y[t] del mismo sistema a
80 CAPÍTULO 4. ANÁLISIS EN TIEMPO DISCRETO

se~
nal causal una excitación causal7 arbitaria, u[t], con condiciones iniciales iguales a cero,
está dada por:
t
X
y[t] = u[`]h(t − `) ∀t ≥ 0 (4.81)
`=0

Demostración
Recordemos que toda señal u[t] puede expresarse por:

X
u[t] = u[`]δ[t − `] (4.82)
`=0

Por otro lado, dada la invarianza del sistema tenemos que:

h[t − `] = Thh0, δ[t − `]ii (4.83)


Luego, usando homogeneidad:

u[`]h[t − `] = Thh0, u[`]δ[t − `]ii (4.84)


Aplicando ahora superposición se llega a:

X ∞
X
u[`]h[t − `] = Thh0, u[`]δ[t − `]ii (4.85)
`=0 `=0

Finalmente, usando (4.82) y el hecho que h[t−`] = 0 ∀` > t (por causalidad),


se obtiene:
t
X
y[t] = Thh0, u[t]ii = u[`]h[t − `] ∀t ≥ 0 (4.86)
`=0

222
En la ecuación (4.86) y[t] se puede interpretar como una suma ponderada
(por u[`]) de respuestas a impulso h[t − `].
Note que dado que u[t] y h[t] son causales, entonces, la ecuación (4.81)
también se puede escribir como:

X ∞
X
y[t] = u[`]h[t − `] = u[t − `]h[`] ∀t ≥ 0 (4.87)
`=−∞ `=−∞

Las sumas que aparecen en la ecuación (4.87) son una expresión de la con-
volución de dos funciones temporales. La definición genérica es:

X ∞
X
f1 [t] ∗ f2 [t] = f1 [`]f2 [t − `] = f1 [t − `]f2 [`] (4.88)
`=−∞ `=−∞

7 Una señal u[t] es causal si u[t] = 0 ∀t < 0


4.5. CÁLCULO DE LA RESPUESTA VIA CONVOLUCIÓN 81

Aparte de la propiedad de commutatividad que aparece en (4.88), la con-


volución tiene la propiedad de distributividad, esto es:

f1 ∗ (f2 [t] + f3 [t]) = f1 [t] ∗ f2 [t] + f1 [t] ∗ f3 [t] (4.89)


Otra propiedad fundamental de la convolución está dada por el siguiente
lema.
Lema 4.5. La convolución de un señal con un impulso de Kronecker en el
origen, δ[t], es la señal misma, es decir:

u[t] ∗ δ[t − to ] = u[t − to ] (4.90)


Demostración


X ∞
X
u[t]∗δ[t−to ] = u[`]δ[t−to −`] = u[t−to ]δ[t−to −`] = u[t−to ] (4.91)
`=−∞ `=−∞

Note que el último paso de la demostración se basa en que una función de


tiempo discreto es un tren de impulsos de Kronecker cuya amplitud es el valor
instantáneo de la señal.
222
El uso de convolución para la determinación de la respuesta de un sistema
lineal tiene importancia conceptual y numérica, sin embargo, no es, en general,
un procedimiento analı́ticamente simple. Es interesante observar que el cálculo
de la convolución entre dos señales discretas se puede ilustrar de manera muy
simple: si consideramos dos tiras de papel, en una de las cuales se anotan los
valores de la primera señal y, en la otra los de la segunda, entonces la convolución
se realiza invirtiendo una de las tiras y retrocediéndola sobre la otra. Para cada
retroceso, la convolución corresponde a multiplicar los valores coincidentes y
sumar los productos resultantes. Esto se muestra en el siguiente ejemplo.
Ejemplo 4.10. Un sistema lineal tiene una respuesta a impulso unitario, con
condiciones iguales a cero, dada por h[t] = (0, 5)t µ[t]. Determine, usando con-
volución la respuesta a la señal u[t] = µ[t] − µ[t − 3].
Solución
La respuesta está dada por

t
X
y[t] = u[t] ∗ h[t] = u[`]h[t − `]
`−∞
t
X
= (0, 5)t−` µ[t − `](µ[`] − µ[` − 3]) (4.92)
`−∞

La suma o acumulación se puede segmentar en tres intervalos:


82 CAPÍTULO 4. ANÁLISIS EN TIEMPO DISCRETO

transformada de Fourier
transformada Zeta  −1
 X



 u[`]h[t − `]d` = 0 t<0

 `=−∞


X t
u[t] ∗ h[t] = u[`]h[t − `]d` = 2 − (0, 5)t 0≤t<3 (4.93)


 `=0


 2
X


 u[`]h[t − `]d` = 7(0, 5)t t≥3
`=0

Una resolución compacta se puede desarrollar usando el hecho que la entrada


se puede expresar como la suma de tres impulsos unitarios, es decir:

u[t] = µ[t] − µ[t − 3] = δ[t] + δ[t − 1] + δ[t − 2] (4.94)


De esta forma podemos calcular la respuesta usando la propiedad de distribu-
tividad de la convolución, seguida por la aplicación del Lema 4.5:

y[t] = h[t] ∗ u[t] = h(t) ∗ (δ[t] + δ[t − 1] + δ[t − 2])


= (0, 5)t µ[t] + (0, 5)t−1 µ[t − 1] + (0, 5)t−2 µ[t − 2] (4.95)

222
Como se puede apreciar, el cálculo mismo de la convolución es complejo. En
realidad la importancia de ella se debe a que, por un lado, condensa la esencia
de la linealidad de los sistemas lineales (e invariantes en el tiempo), y por otro,
es un nexo de conexión con el análisis en el dominio de las transformadas de
Fourier discreta y Zeta (Capı́tulos 6 y 8, respectivamente).
La convolución en tiempo discreto es ampliamente usada para construir la
respuesta de sistemas lineales, invariantes en el tiempo y causales, cuando se
conoce la respuesta a un impulso unitario. Esto se debe a la simplicidad de las
expresiones del Lema 4.4.
La respuesta de un sistema lineal e invariante en el tiempo se puede calcular
a partir de la respuesta a escalón, como se muestra en el el siguiente lema.
Lema 4.6. Sea un sistema lineal e invariante en el tiempo. Suponga que la
respuesta de ese sistema a un escalón unitario de entrada, con condiciones ini-
ciales iguales a cero, es g[t]. Entonces la respuesta del sistema, bajo condiciones
iniciales iguales a cero, a una excitación u[t] está dada por:

y[t] = u[t] ∗ (g[t] − g[t − 1]) = g[t] ∗ (u[t] − u[t − 1]) (4.96)
Demostración
Dado que δ[t] = µ[t] − µ[t − 1], entonces, por linealidad e invarianza, la
respuesta h[t], a un impulso unitario puede expresarse como:

h[t] = g[t] − g[t − 1] (4.97)


Esto lleva inmediatamente al primer resultado, dado que:
4.5. CÁLCULO DE LA RESPUESTA VIA CONVOLUCIÓN 83

y[t] = u[t] ∗ h[t] = u[t] ∗ (g[t] − g[t − 1]) (4.98)


Para demostrar la segunda parte del resultado, notamos que la señal de en-
trada, u[t] puede expresarse como la suma de escalones incrementales, es decir:

X
u[t] = (u[`] − u[` − 1])µ[t − `] (4.99)
`=−∞

Luego, usando la linealidad y la invarianza vemos que:



X
y[t] = Thh0, u[t]ii = (u[`] − u[` − 1])g[t − `] (4.100)
`=−∞

Y, finalmente, reconocemos en la sumatoria la forma de la convolución, es


decir:

X
(u[`] − u[` − 1])g[t − `] = g[t] ∗ (u[t] − u[t − 1]) (4.101)
`=−∞

222
84 CAPÍTULO 4. ANÁLISIS EN TIEMPO DISCRETO

4.6. Problemas para el lector


Problema 4.1. Resuelva las siguientes ecuaciones de recursión con las condi-
ciones iniciales que se indican:

y[t] − 0, 2y[t − 2] = 0 y[−1] = 1; y[−2] = −1 (4.102)


y[t] − 0, 6y[t − 1] + 0, 09y[t − 2] = 0 y[−1] = 2; y[1] = 1 (4.103)
y[t + 1] − 1, 3y[t] + 0, 4y[t − 1] = 0 y[0] = 0; y[5] = 0 (4.104)
y[t] − 4y[t − 1] + 9y[t − 2] = 0 y[−1] = 0; y[−2] = 1 (4.105)
y[t] − y[t − 10] = 0 y[−1] = 1; y[−i] = 0 ∀i > 1
(4.106)

Verifique con Maple .

Problema 4.2. Calcule la respuesta a escalón unitario, con condiciones iguales


a cero para cada una de las ERS:

y[t] − 0, 2y[t − 2] = u[t] (4.107)


y[t] − 0, 6y[t − 1] + 0, 09y[t − 2] = u[t − 1] − u[t − 2] (4.108)
y[t] − 1, 3y[t − 1] + 0, 4y[t − 2] = 0, 2u[t − 10] (4.109)
y[t] − 2y[t − 1] + y[t − 2] = u[t] (4.110)

Verifique con Maple .

Problema 4.3. Considere la señal:

f [t] = 2(0, 6)t − 2(0, 2)t (4.111)

4.3.1 Proponga una ERS de modo que f [t] corresponda (∀t ≥ 0) a la respuesta
del sistema a impulso con condiciones iniciales iguales a cero.

4.3.2 Proponga una ecuación de recursión homogénea, de modo que f [t]


corresponda a la respuesta a estado inicial. Especifique ese estado inicial.

Problema 4.4. La respuesta de un sistema lineal e invariante en el tiempo a


un escalón unitario y condiciones inciales iguales a cero está dada por:

g[t] = (1 − (0, 5)t + t(0, 5)t )µ[t] (4.112)

4.4.1 Determine la ERS.

4.4.2 Calcule la respuesta del mismo sistema a un impulso unitario.


4.6. PROBLEMAS PARA EL LECTOR 85

Problema 4.5. Determine los modos asociados a las siguientes conjuntos de


frecuencias naturales:
Sistema 1 λ1 = −0, 2 λ2 = −0, 2 λ3 = −0, 2
Sistema 2 λ1 = −0, 3 λ2 = 0, 3 λ3 = −2
Sistema 3 λ1 = −1 λ2 = −0, 1 + j0, 2 λ3 = −0, 1 − j0, 2

Problema 4.6. La respuesta de un sistema lineal e invariante en el tiempo


a un delta de Kronecker es h[t] = (0, 7)t µ[t]. Usando convolución calcule la
respuesta del sistema a una entrada u[t] = (0, 3)t µ[t].

Problema 4.7. La ecuación caracterı́stica de un sistema está dada por:

λ2 + aλ + b = 0 (4.113)

4.7.1 Suponga que b = 0, 8; determine el rango de valores de a que hacen estable


al sistema.
4.7.2 Dentro de ese rango determine el valor de a de modo que el sistema sea
lo más rápido posible.
4.7.3 Suponga ahora que b = 1, 2, repita 4.7.1.

Problema 4.8. Suponga que la respuesta de un sistema lineal a un escalón


unitario con condiciones iniciales iguales a cero es una señal g[t], que se muestra
en la Figura 4.3.

4.8.1 ¿Es el sistema estable ?


4.8.2 Estime los modos naturales del sistema
4.8.3 Estime la ganancia al modo forzante constante

1.5

1
g[k]

0.5

0
−1 0 1 2 3 4 5 6 7 8 9 10
Tiempo [s]

Figura 4.3: Respuesta a escalón unitario


86 CAPÍTULO 4. ANÁLISIS EN TIEMPO DISCRETO

Problema 4.9. Se contrae una deuda hipotecaria de 1000 [UF] a un interés


mensual de 0, 7 %. Si el plazo de la deuda es de 120 meses ¿Cuál debiera ser el
dividendo mensual, constante, en UF?

Problema 4.10 (Problema-desafı́o). En la red de la Figura 4.4 todas las


resistencias son iguales a R. Considere como variable independiente, no al tiem-
po discreto sino que al número de orden de la malla. Construya una ecuación
de recursión en las corrientes de mallas y especifique las condiciones (inicial y
final).

+
i0 i1 in−2 in−1 in
E

Figura 4.4: Red resistiva.


Fourier
serie de Fourier|textbf
sistema! no lineal

Capı́tulo 5

Análisis bajo excitaciones


periódicas

5.1. Señales Periódicas


En este capı́tulo se analiza el caso de sistemas lineales sujetos a excitaciones
periódicas en el tiempo. Las señales periódicas aparecen en muchas áreas de la
Ingenierı́a y en fenómenos naturales. Sin embargo, estas señales, en general, no
se presentan como oscilaciones puras de una frecuencia especı́fica que se puedan
describir exactamente por una sinusoide del tipo sen(ωt), sino que como señales
más arbitrarias, tales como señales triangulares, señales tipo dientes de sier-
ra, trenes de pulsos o sinusoidales rectificadas, entre otras, cuya caracterı́stica
fundamental es su periodicidad en el tiempo.
Es más, en algunas oportunidades señales periódicas no sinusoidales resultan
de efectos parásitos indeseables, de naturaleza no lineal, en sistemas reales. Por
ejemplo, considere el caso de un sistema amplificador con entrada u(t) y salida
y(t), cuya relación entrada-salida es:

2
y(t) = Au(t) +  (u(t)) (5.1)

donde  es mucho menor que la amplificación A. Entonces, si la entrada es


una señal de una frecuencia especı́fica u(t) = U cos(ωt), entonces la salida y(t)
está dada por:

y(t) = AU cos(ωt) +  U 2 (0, 5 + 0, 5 cos(2ωt)) (5.2)

De esta forma, podemos apreciar que la salida del sistema contiene tres
sinusoides de distinta frecuencia (0, ω y 2ω [rad/s]), que deben ser consideradas
cuando esta señal actúa como entrada de otro sistema.
Otros casos en que aparecen señales periódicas no sinusoidales incluyen el
corte de señales sinusoidales (cuando la amplitud de una sinusoide excede cierto

87
88 CAPÍTULO 5. ANÁLISIS BAJO EXCITACIONES PERIÓDICAS

serie de Fourier nivel prescrito), la rectificación de señales sinusoidales, la intrevención de zonas


ganancia! a modo forzante
sinusoidal muertas, histéresis, etc.
amplitud La idea fundamental en este capı́tulo será representar una función periódica
\’angulo! de desfase como combinación lineal de sinusoides de ciertas frecuencias, como es el caso de
fase la serie de Fourier, el análisis de los sistemas lineales se hace más fácil, dado que
perı́odo
frecuencia! angular podemos usar las propiedades de superposición y homogeneidad. El concepto
frecuencia clave subyacente a utilizar es el de ganancia a modo forzante, desarrollado
en el Capı́tulo 3, para sistemas de tiempo continuo, y en el Capı́tulo 4, para
sistemas de tiempo discreto.

5.2. Respuesta a entrada sinusoidal. El caso de


tiempo continuo
Hasta el momento hemos visto la respuesta de sistemas lineales a diferentes
tipos de entradas (modos forzantes), incluyendo el caso de exponenciales de ex-
ponente imaginario (las que combinadas dan origen a sinuosoides reales). En esta
sección nos detendremos en la caracterı́stica de ganancia que exhibe un sistema
lineal cuando la excitación es una sinuoside. Con ese propósito consideremos un
sistema lineal estable modelado por su EDS:

d n y(t) d n−1 y(t) d n−1 u(t)


+ a n−1 + . . . + a 0 y(t) = b n−1 + . . . + b0 u(t) (5.3)
dt n dt n−1 dt n−1
donde la entrada del sistema es una señal sinusoidal que puede escribirse de la
forma general:

u(t) = A cos(ωt + φ) (5.4)


en que (vea Capı́tulo 2):

A es la amplitud, cuyas unidades dependen del sistema en cuestión,


φ es el ángulo de desfase (o simplemente fase), medido en [rad], y
ω es la frecuencia angular, medida en [rad/seg]. Esta, a su vez, determina la
ω
frecuencia f = 2π [Hz] y el perı́odo T = f1 = 2π
ω [seg] de la sinusoide.

Aplicando la fórmula de Euler se tiene que:

ej(ωt+φ) + e−j(ωt+φ)
A cos(ωt + φ) = A = αejωt + α∗ e−jωt (5.5)
2
donde α ∈ C, α∗ es el complejo conjugado de α y
A jφ
e α= (5.6)
2
Por otra parte sabemos que si K(ω) ∈ C es la ganancia al modo forzante
ejωt , entonces, por linealidad:
5.2. RESPUESTA A ENTRADA SINUSOIDAL. EL CASO DE TIEMPO CONTINUO89

sistema! estable
modos naturales

Thhxo , A cos(ωt + φ)ii = K(ω)αejωt + (K(ω)) α∗ e−jωt + {modos naturales}
(5.7)
Donde K(ω) es la ganancia a modo forzante y dada por (3.24), con βi = jω.
Si expresamos K(ω) en su forma polar se llega a:

K(ω) = |K(ω)|ejφa (ω) (5.8)


Ası́, se obtiene:

Thhxo , A cos(ωt + φ)ii = |K(ω)|A cos(ωt + φ + φa (ω)) + {modos naturales} (5.9)

Como el sistema es estable, los modos naturales decaen a cero cuando t → ∞,


ası́, la respuesta estacionaria contiene sólo la componente particular, es decir,
contiene sólo los modos forzados y tiene la forma:

y(t) = As (ω) cos(ωt + φs (ω)) (5.10)


Esta forma puede ser directamente calculada reemplazando (5.10) en la EDS.

Cuando el modo forzante es una exponencial de la forma ejωt , o una si-


nusoidal cos(ωt), la ganancia a modo forzante, K(ω), caracteriza lo que se
denomina respuesta en frecuencia del sistema.

El desarrollo precedente es ilustrado a través de un ejemplo.


Ejemplo 5.1. Consideremos el sistema definido por su ecuación diferencial:

d 2 y(t) d y(t)
+4 + 13y(t) = 26u(t)
dt 2 dt
Supongamos que la entrada es u(t) = sen(ωt) y que todas las condiciones
iniciales son cero.
El sistema en primer lugar es estable, ya que sus frecuencias naturales se
encuentran ubicadas en λ1,2 = −2 ± j3. Con esto sabemos entonces que la
solución homogénea tiene la forma:

yh (t) = e−2t [B1 cos(3t) + B2 sen(3t)] (5.11)


Para obtener la solución particular reemplazamos la solución propuesta:

yp (t) = As (ω) sen(ωt + φs (ω)) (5.12)

que es equivalente a una expresión de la forma

yp (t) = C1 (ω) cos(ωt) + C2 (ω) sen(ωt) (5.13)


90 CAPÍTULO 5. ANÁLISIS BAJO EXCITACIONES PERIÓDICAS

respuesta en frecuencia Los coeficientes C1 (ω) y C2 (ω) se obtienen reemplazando la solución par-
ticular propuesta y la función de entrada en la ecuación diferencial original y
derivando:

− C1 (ω)ω 2 cos(ωt) − C2 (ω)ω 2 sen(ωt) + 4C2 (ω)ω cos(ωt) − 4C1 (ω)ω sen(ωt)
+ 13C1 (ω) cos(ωt) + 13C2 (ω) sen(ωt) = 26 sen(ωt) (5.14)

De aquı́, igualando los coeficientes de cos(ωt) y de sen(ωt) a ambos lados,


pueden obtenerse los coeficientes C1 y C2 :

−104ω
C1 (ω) = (5.15)
(13 − ω 2 )2 + (4ω)2
26(13 − ω 2 )
C2 (ω) = (5.16)
(13 − ω 2 )2 + (4ω)2

Si se supone ω = 10[rad/s] y se combinan la solución homogénea y la partic-


ular, pueden obtenerse los coeficientes por determinar de la solución homogénea
B1 y B2 . La solución final es:

y(t) = yh (t) + yp (t) = e−2t [0,113 cos(3t) + 0,899 sen(3t)]


− 0,113 cos(10t) − 0,247 sen(10t) (5.17)

Ésta se muestra en la Figura 5.1, donde se aprecia claramente la presen-


cia de una parte de la respuesta que es transiente, más lenta, que desaparece
manteniéndose sólo una oscilación sostenida de 10[rad/seg], pero de diferente
amplitud y fase que las de la señal original. Estos valores de As y φs , que de-
penden de la frecuencia ω, son en este caso:

p
As (10) = C1 (10)2 + C2 (10)2 = 0,272 (5.18)
o
φs (10) = ∠(C2 (10) + jC1 (10)) = −2, 7106 [rad] ≈ −155, 31 (5.19)

Una manera más directa para obtener una descripción genérica de los resul-
tados anteriores serı́a calcular la respuesta en frecuencia K(ω), la que, en este
caso particular, está dada por:
26
K(ω) = |K(ω)|ejφa (ω) = (5.20)
(jω)2 + 4jω + 13
La magnitud y fase de esta respuesta en frecuencia aparecen en la Figura
5.2. En esta figura los valores de magnitud y fase de K(10) se pueden calcular
usando el comando de Matlab ginput, el resultado es |K(10)| = 0, 2734 y
φa (10) = −2, 7188 [rad] (note que, en este ejemplo, A = 1).
222
5.2. RESPUESTA A ENTRADA SINUSOIDAL. EL CASO DE TIEMPO CONTINUO91

0.5

−0.5

−1
0 1 2 3 4 5 6

Figura 5.1: Señales de entrada y salida en el Ejemplo 5.1

2.5 0

2 −0.5

−1
1.5
|K(ω)|

φa(ω)

−1.5
1
−2
0.5 −2.5

0 −3
0 5 10 15 20 0 5 10 15 20
Frecuencia [rad/s] Frecuencia [rad/s]

Figura 5.2: Respuesta en frecuencia de un sistema de segundo orden de tiempo


continuo

Es necesario tener presente que en ciertos sistemas, a pesar de tener todas


sus frecuencias naturales en el interior de la zona de estabilidad, la respues-
ta a sinusoides de baja amplitud, incluye componentes sinuosidales de altı́sima
amplitud. Esto sucede en situaciones en que el sistema es excitado con una sinu-
soide de frecuencia muy cercana a una frecuencia natural próxima al lı́mite de
estabilidad (el eje imaginario). En este caso, dependiendo del amortiguamien-
to del sistema, la salida puede alcanzar el estado estacionario sólo después de
mucho tiempo, y aunque analı́ticamente la oscilación en la salida permanece
acotada, puede alcanzar magnitudes insostenibles para el sistema real 1 . Para
esto recomendamos al lector analizar en detalle el Problema 5.4.
Ejemplo 5.2. El fenómeno de respuestas inusualmente altas se origina en sis-
temas que exhiben altas ganancias a un modo forzante de la forma ejωt . Con-
sidere, por ejemplo, el sistema con EDS:

d 2 y(t) d y(t)
+ 0, 01 + 4y(t) = 4y(t) (5.21)
dt 2 dt
1 Un caso tradicionalmente analizado en la fı́sica de las oscilaciones es el colapso del Puente

Tacoma en EE.UU.
92 CAPÍTULO 5. ANÁLISIS BAJO EXCITACIONES PERIÓDICAS

resonancia En este ejemplo, que corresponde a un sistema estable, la ganancia a con-


tinua es igual a 1, sin embargo la ganancia a modo forzante ej2t está dada por:
4
K(ω) = = −j200 (5.22)
(j2)2 + 0, 01 ∗ (j2) + 4
Esto significa que una excitación sinuosidal de amplitud unitaria y frecuencia
2 [rad/s] genera una respuesta forzada de amplitud igual a 200. En casos
como éste, se dice que, para esta excitación, el sistema entra en resonancia.
La idea de resonancia en un sistema se refiere a la facilidad con que ese
sistema responde a determinadas frecuencias. Por ejemplo, todos conocemos la
facilidad con que se amplifica la oscilación de un columpio cuando se lo empuja
con la frecuencia adecuada.
En términos de la respuesta en frecuencia, el fenómeno descrito se refleja
en que la función |K(ω)| tiene uno o más picos muy pronunciados.

222
Finalmente, cuando las frecuencias naturales del sistema se encuentran fuera
de la zona de estabilidad, la componente natural de la respuesta es no acotada.
Sin embargo, la componente forzada sigue siendo una oscilación de la misma
frecuencia que la sinusoide en la entrada. Para apreciar esto se recomienda al
lector analizar el Problema 5.5.

5.3. Series de Fourier para señales de tiempo


continuo
La idea central tras las series de Fourier, sean ellas de tiempo continuo o de
tiempo discreto, es la representación de una función periódica usando una base
ortogonal de funciones.
La idea de ortogonalidad adquiere su sentido más básico considerando con el
sistema cartesiano de coordenadas en R2 o R2 . Sin embargo, la diferencia basica
en el caso de las series de Fourier es que la dimensión de la base es infinita,
hecho usual en espacios de funciones [12].
Antes de analizar de lleno la representacion de funciones periódicas en for-
ma de una serie de Fourier, sugerimos al lector revisar el Apéndice B para
familiarizarse con la notación y el vocabulario empleado de aquı́ en adelante.

5.3.1. Serie de Fourier trigonométrica


Consideremos el espacio vectorial de todas las funciones seccionalmente con-
tinuas en un intervalo2 [− T2 , T2 ], y en él, el conjunto de vectores (funciones):

B = { 1 , cos(nω0 t) , sen(nω0 t) }n=1,2,... ; ω0 = (5.23)
T
2 En términos generales el intervalo a considerar es [t , t + T ]. Por simplicidad hemos
o o
escogido to = −T /2
5.3. SERIES DE FOURIER PARA SEÑALES DE TIEMPO CONTINUO 93

El conjunto definido en (5.23) resulta ser análogo al conjunto de funciones independencia lineal
ortogonalidad
considerados en el Lema B.1 en la página 346, dado que son linealmente in- Serie de Fourier
dependientes , pues ninguna de las sinusoides (o la constante) del conjunto frecuencia fundamental
puede describirse como una combinación lineal de las demás. Además definimos
el producto interno en este espacio de funciones como la integral:
Z T
2
hf (t), g(t)i = f (t)∗ g(t)dt f (t), g(t) ∈ B (5.24)
− T2

Entonces el conjunto (5.23) resulta ser ortogonal , es decir, si tomamos dos


elementos ym (t) e yn (t) pertenecientes al conjunto B definido en (5.23):
Z T2 (
0 ; n 6= m
hyn (t), ym (t)i = yn (t)ym (t)dt = (5.25)
− T2 κ > 0 ;n = m
En este caso la conjugación involucrada en el producto interno no afecta a
las funciones del conjunto B, pues éstas son todas reales.
Con esto podemos afirmar que una función y(t) seccionalmente continua
definida en el intervalo [− T2 , T2 ], puede representarse como una combinación
lineal de elementos de la base B, definida en (5.23), que en este caso tiene
dimensión infinita. Es decir, para y(t) tenemos una representación en serie de
Fourier de la forma:


X 2π
y(t) = A0 + [An cos(nω0 t) + Bn sen(nω0 t)] ; ω0 = (5.26)
n=1
T

En que cada uno de los coeficientes A0 , An , Bn se puede obtener como indica


el Lema B.1. Por esto invitamos al lector en este punto a resolver el Problema
5.6, con lo que además podrá comprobar que las expresiones para los coeficientes
de Fourier son:

Z T
1 2
A0 = y(t)dt
T − T2
Z T
2 2
An = y(t) cos(nω0 t)dt (5.27)
T − T2
Z T
2 2
Bn = y(t) sen(nω0 t)dt
T − T2

Nos interesa la representación en serie de Fourier conceptualmente y como


una herramienta para describir las funciones periódicas como una combinación
lineal de constantes, cosenos y senos, cuyas frecuencias son múltiplos enteros
de la frecuencia fundamental ω0 determinada por su perı́odo T . La repre-
sentación (5.26) puede reescribirse alternativamente en la forma:
94 CAPÍTULO 5. ANÁLISIS BAJO EXCITACIONES PERIÓDICAS

espectro! en frecuencia
armónicas ∞
X
desfase
y(t) = A0 + C̃n cos(nω0 t − φn ) (5.28)
ángulo! de desfase
espectro! de lı́nea n=1

en que:

p
C̃n = A2n + Bn2 (5.29)
 
Bn
φn = arctg (5.30)
An

En esta forma es más directo apreciar el contenido o espectro en fre-


cuencia de la señal y(t) a través de la amplitud de cada una de las sinusoides
de frecuencia ωn = nω0 , que llamaremos n-ésima armónica. Además, esta
representación permite apreciar el ángulo de desfase φn entre las diferentes
armónicas.
Si dibujamos en un gráfico las magnitudes de C̃n en función de n, obtenemos
lo que se conoce como un espectro de lı́nea. Este gráfico permite observar las
participaciones relativas de la armónicas en la composición de la señal.
Note que el cálculo directo de los coeficientes C̃n es más complicado que el
de los coeficientes An y Bn , ya que las sinusoides de la forma cos(nω0 t − φn ) no
son ortogonales entre sı́.
Para ilustrar el cálculo de los coeficientes de Fourier se presentan a contin-
uación algunos ejemplos. En primer lugar, desarrollamos un ejemplo calculando
analı́ticamente los coeficientes de la serie, para luego ilustrar el uso del soporte
computacional.

Ejemplo 5.3. Considere una onda cuadrada de amplitud 2 y perı́odo igual a 4


[s], tal como se ilustra en la Figura 5.3.

1
Señal y(t)

−1

−2

−6 −4 −2 0 2 4 6
Tiempo [s]

Figura 5.3: Señal cuadrada

La frecuencia fundamental es ωo = 2π/T = π/2 y los coeficientes de la serie


se pueden calcular como se indica
5.3. SERIES DE FOURIER PARA SEÑALES DE TIEMPO CONTINUO 95

serie de Fourier! senoidal


Z T
1 2
A0 = y(t) dt = 0 (5.31)
T − T2

Este resultado era previsible dada la simetrı́a de áreas sobre y bajo el eje de
abscisas.

Z T
2 2
An = y(t) cos(nωo t) dt
T − T2
Z 0 Z 2
1 1
=− 2 cos(0, 5nπt) dt + 2 cos(0, 5nπt) dt = 0 (5.32)
2 −2 2 0

La ausencia de componentes cosenoidales es también previsible, dado que la


señal y(t) es una función impar del tiempo. La función quedara representada
entonces como una serie senoidal de Fourier, en que:

Z T Z Z
0 2
2 2 1 1
Bn = y(t) sen(nωo t) dt = − 2 sen(0, 5nπt) dt+ 2 sen(0, 5nπt) dt
T − T2 2 −2 2 0
Z t
2
4 4
=2 sen(0, 5nπt) dt = − cos(0, 5nπt) = (1 − cos(nπ)) (5.33)
0 nπ nπ
0

De esta manera resulta:


(
8
nπ ∀n impar
Bn = (5.34)
0 ∀n par
La participación de las armónicas puede ser visualmente apreciada en la
Figura 5.4.

3
Amplitud de las armónicas

2.5

1.5

0.5

0
0 2 4 6 8 10 12
Frecuencia angular, en múltiplos de ωo

Figura 5.4: Espectro de lı́nea de una señal cuadrada.


96 CAPÍTULO 5. ANÁLISIS BAJO EXCITACIONES PERIÓDICAS

ángulo! de disparo 222


El ejemplo precedente sugiere que el cálculo manual de los coeficientes se
puede complicar notablemente para señales de mayor complejidad. Este proceso
puede ser enormemente facilitado usando, por ejemplo, Maple .

Ejemplo 5.4. Uno de los procesos en que se generan señales periódicas no


sinusoidales es en la rectificación. En realidad, para circuitos de potencia en
el control de motores, por ejemplo, en vez de diodos se utilizan tiristores, que
no son más que diodos en que el instante de conducción es controlado. Éstos
permiten recortar la señal rectificada, como se aprecia en la Figura 5.5 en que
los tiristores se disparan pasado un tercio del perı́odo de la señal rectificada. En
este caso se dice que el ángulo de disparo es α = π3 .

0.8

0.6

0.4

0.2

0
0 0.005 0.01 0.015 0.02 0.025 0.03
Time [s]

Figura 5.5: Señal a la salida de rectificador controlado por tristores

Claramente el rectificador de onda completa es un caso particular de este


rectificador controlado, cuando el ángulo de disparo es α = 0.
Con ayuda de Maple los coeficientes se pueden obtener fácilmente, ahorrándonos
buena parte del trabajo algebraico. En las lı́neas siguientes se muestran los co-
mandos necesarios, entre los cuales se debe indicar explı́citamente que 0 < α < π
y que n es un número entero. Se ha considerado, por simplicidad, que la fre-
cuencia original es 1[Hz] y la amplitud original es 1[V].

Maple

> assume(0<alpha,alpha<1):
> y(t):=(Heaviside(t-alpha)-Heaviside(t-Pi))*sin(t):
> A_0:=1/Pi*int(y(t),t=0..Pi);
> assume(n,integer):
> A(n):=2/Pi*int(y(t)*cos(2*n*t),t=0..Pi);
> B(n):=2/Pi*int(y(t)*sin(2*n*t),t=0..Pi);
5.3. SERIES DE FOURIER PARA SEÑALES DE TIEMPO CONTINUO 97

serie de Fourier! cosenoidal

1 + cos(α)
A0 =
π
2
1 + 2 cos(α) (cos(α n)) − cos(α) + 4 n sen(α) sen(α n) cos(α n)
An = −2
(1 + 2 n) π (−1 + 2 n)
2
− cos(α) sen(α n) cos(α n) + 2 n sen(α) (cos(α n)) − n sen(α)
Bn = 4
(1 + 2 n) π (−1 + 2 n)
222

Ejemplo 5.5. Consideremos la función periódica y(t), definida por tramos:



1 + t
 ; −2 < t ≤ 0
y(t) = 1 − t ;0 < t ≤ 2 (5.35)


y(t + 4) ; en todo otro caso
En Maple se puede definir y convertir de inmediato para que quede escrita
en términos de escalones (función de Heaviside):

Maple

> y(t):=convert(piecewise(t<-2,-t-3,t<0,t+1,t<2,-t+1,t-3),Heaviside);

y(t) = −3 − t − 4 Heaviside(t − 2) + 2 tHeaviside(t − 2) + 4 Heaviside(t + 2)


+ 2 tHeaviside(t + 2) − 2 tHeaviside(t)

Si se calculan los coeficientes según las expresiones (5.27), tenemos que el


valor medio A0 es cero y, como es par, los coeficientes Bn son todos iguales a
cero. Los coeficientes de los términos cosenos se calculan mediante:

Maple

> A(n):=1/2*int(y(t)*cos(n*Pi/2*t),t=-2..2);

Por tanto y(t) queda expresada en una serie cosenoidal de Fourier, de la


forma:
∞  2  nπ 
X
n 2
ys (t) = (1 − (−1) ) cos t (5.36)
n=1
nπ 2
98 CAPÍTULO 5. ANÁLISIS BAJO EXCITACIONES PERIÓDICAS

error En la Figura 5.6, podemos apreciar la aproximación de la función y(t) por


las primeras dos armónicas no nulas (n = 1, 3). En esta, se observa que las
dos primeras armónicas (con presencia no nula en la serie) describen bastante
bien la señal original. Ello puede ser entendido al calcular las amplitudes de las
primeras diez componentes de la serie. Ellas aparecen en el espectro de lı́neas
de la Figura 5.7, donde se aprecia claramente que la amplitud de las armónicas
superiores a la tercera es despreciable.

1
Señal y aproximación

0.5

−0.5

−1

−6 −4 −2 0 2 4 6
Tiempo [s]

Figura 5.6: Aproximación de la señal triangular con la primera y tercera


armónica

1
Amplitud de las armónicas

0.8

0.6

0.4

0.2

0
0 1 2 3 4 5 6 7 8 9
Frecuencia angular, en múltiplos de ωo

Figura 5.7: Espectro de lı́nea de una señal triangular

Finalment, en el gráfico de la Figura 5.8 (a) muestra el error que se comete


al representar la función por su serie truncada, en este caso hasta n = 3.
Podemos estudiar la fidelidad de la representación en serie de Fourier de una
señal analizando lo que pasa con el error eN (t) = y(t) − yN (t) que se comete
al representar una función y(t) por una combinación lineal finita o suma parcial
de las funciones de la base (5.23), hasta el término N -ésimo yN (t). Respecto a
este error eN (t) tenemos el siguiente lema.
Lema 5.1. La representación yN (t) es ortogonal al error eN (t), para todo N ,
es decir:
5.3. SERIES DE FOURIER PARA SEÑALES DE TIEMPO CONTINUO 99

0.1

0.05

y(t)
–4 –3 –2 –1 1 2
t
3 4 eN (t)

–0.05
yN (t)

–0.1

(a) Error e3 (t) = y(t) − y3 (t) . (b) Interpretación geométrica del error

Figura 5.8:

heN (t), yN (t)i = 0 ; ∀N (5.37)


Demostración
Si escribimos la suma parcial como:
N
X
yN (t) = αk fk (t) (5.38)
k=1

en que los fk (t) son vectores de la base B, el producto (5.37) puede escribirse y
desarrollarse como:

heN (t), yN (t)i = hy(t) − yN (t), yN (t)i = hy(t), yN (t)i − hyN (t), yN (t)i (5.39)
* N
+ *N N
+
X X X
= y(t), αk fk (t) − αk fk (t), αj fj (t) (5.40)
k=1 k=1 j=1
N N
* N
+
X X X
= αk hy(t), fk (t)i − αk fk (t), αj fj (t) (5.41)
k=1 k=1 j=1

Los vectores fk (t) son ortogonales, por tanto:

N
X N
X
heN (t), yN (t)i = αk hy(t), fk (t)i − αk2 hfk (t), fk (t)i (5.42)
k=1 k=1

Los coeficientes αk , en tanto, se calculan de la forma:

hy(t), fk (t)i
αk = (5.43)
hfk (t), fk (t)i
100 CAPÍTULO 5. ANÁLISIS BAJO EXCITACIONES PERIÓDICAS

Por lo tanto:

N N
X hy(t), fk (t)i X hy(t), fk (t)i2
heN (t), yN (t)i = hy(t), fk (t)i− hfk (t), fk (t)i
hfk (t), fk (t)i hfk (t), fk (t)i2
k=1 k=1
N 2 N X hy(t), fk (t)i2
X hy(t), fk (t)i
= − =0 (5.44)
hfk (t), fk (t)i hfk (t), fk (t)i
k=1 k=1

222
Este resultado permite apreciar que yN (t), con los coeficientes calculados
según (5.27), es la combinación lineal que mejor representa a y(t) (en el
sentido de la norma cuadrática), ya que, dada su ortogonalidad con el vector
de error eN (t), minimiza la distancia entre y(t) y el conjunto de funciones que
se generan por combinación lineal de los N elementos de la base. La Figura 5.8
(b) ilustra geométricamente la idea de ortogonalidad entre el error eN (t) y la
representación truncada yN (t).
Finalmente, es importante hacer notar que la representación obtenida en
(5.26), con los coeficientes explicitados en (5.27), representa a la función y(t),
dentro del intervalo [− T2 , T2 ] sea ésta periódica o no. En este último caso la
representación se debe entender válida sólo dentro del intervalo en que se ha
calculado. Sin embargo, dado que dentro del intervalo de longitud T todas las
sinusoides del conjunto B completan un número entero de perı́odos, la period-
icidad de los elementos de B se extiende a la representación de y(t), es decir,
se repite en todo intervalo de la forma [kT − T2 , kT + T2 ] con k ∈ Z. Además
por simple traslación del intervalo en que trabajamos, es decir, corriendo del eje
temporal, el cálculo de los coeficientes y la representación pueden tomarse en
cualquier intervalo arbitrario [to , to + T ]. En todo caso, el lector debe advertir
que si la señal bajo análisis no es periódica, la representación será distinta para
distintas elecciones de to .

5.3.2. Serie de Fourier exponencial


Si consideramos la representación en serie de Fourier obtenida para una
función seccionalmente continua y(t) obtenida en (5.26), podemos reescribirla
utilizando las expresiones para sen(ωt) y cos(ωt) en términos de exponenciales
complejas:


X
y(t) = A0 + [An cos(nω0 t) + Bn sen(nω0 t)]
n=1
∞  
j0ω0 t
X ejnω0 t + e−jnω0 t ejnω0 t − e−jnω0 t
= A0 e + An + Bn (5.45)
n=1
2 2j

que puede reagruparse como:


5.3. SERIES DE FOURIER PARA SEÑALES DE TIEMPO CONTINUO101

serie de Fourier!exponencial

∞  
j0ω0 t
X An − jBn jnω0 t An + jBn −jnω0 t
y(t) = A0 e + e + e (5.46)
n=1
2 2

Es decir, podemos reescribir una serie de Fourier trigonométrica como una


serie de Fourier exponencial de la forma:

X
y(t) = Cn ejnω0 t (5.47)
n=−∞

Una expresión para los coeficientes Cn se puede obtener a partir de los


coeficientes de la serie trigonométrica y la ecuación de Euler. Por ejemplo, para
n > 0:

" Z T Z T2 #
An − jBn 1 2 2 2
Cn = = y(t) cos(nω0 t)dt − j y(t) sen(nω0 t)dt
2 2 T − T2 T − T2
Z T2
1
= y(t)(cos(nω0 t) − j sen(nω0 t))dt (5.48)
T − T2

Por tanto, tenemos la expresión:


Z T
1 2
Cn = y(t)e−jnω0 t dt (5.49)
T − T2

Se deja al lector verificar que esta expresión también es válida para el resto
de los coeficientes Cn , cuando n ≤ 0. Si se presta atención a la forma de los coe-
ficientes en la ecuación (5.46), puede apreciarse que aparecen en pares complejos
conjugados, es decir, ∀n > 0:

An − jBn
Cn = = |Cn |ejθn (5.50)
2
An + jBn
C−n = = |Cn |e−jθn (5.51)
2
tal como también puede demostrarse a partir de la expresión general (5.49)
para los coeficientes de la serie compleja. Es decir, tenemos un nuevo conjunto
de funciones, complejas en este caso, de la forma:

{ejnω0 t }n∈Z ; ω0 = (5.52)
T
que constituye una base para el espacio de funciones seccionalmente continuas
en el intervalo [− T2 , T2 ]. Se deja al lector verificar que este conjunto también es
ortogonal bajo el producto interno antes definido, pero en que ahora la conju-
gación sı́ afecta a las funciones involucradas:
102 CAPÍTULO 5. ANÁLISIS BAJO EXCITACIONES PERIÓDICAS

Parseval
Parseval
Z T Z T
2 2
hfn (t), fm (t)i = fn (t)∗ fm (t)dt = e−jnω0 t ejmω0 t dt (5.53)
− T2 − T2

Que debe cumplir:


(
0 ; n 6= m
hfn (t), fm (t)i = (5.54)
κ>0 ;n=m

Es importante hacer notar que en la manipulación que se ha hecho en la


serie de Fourier trigonométrica para llegar a la serie exponencial, han aparecido
valores para n negativos y positivos. Esto en realidad debe interpretarse nada
más como lo que se ha mencionado: un producto de la manipulacioón algebraica
que permite obtener la representación en serie (5.47) más compacta y fácil de
manipular. Si se desea obtener la amplitud de la n-ésima armónica de la serie
deben considerarse ambos términos de la serie n y −n, es decir, usando las
ecuaciones (5.50) y (5.51):

Cn · e−jnω0 t + C−n · ejnω0 t = |Cn |ejθn · e−jnω0 t + |C−n |e−jθn · ejnω0 t


= |Cn | · e−j(nω0 t−θn ) + |C−n | · ej(nω0 t−θn )
= 2|Cn | cos(nω0 t − θn )

5.3.3. Parseval y la energı́a de las señales periódicas


Existe un conjunto de resultados, deducidos por Parseval, que relacionan
directamente caracterı́sticas de la señal periódica con los coeficientes de su Serie
de Fourier. En realidad, los resultados de Parseval se aplican a la expansión en
cualquier base ortogonal. Los detalles matemáticos pueden ser examinados en
el Apéndice B.
Supongamos que una señal y(t) periódica se expresa como serie en los ele-
mentos, f` (t), de una base ortogonal en el intervalo (−T /2, T /2). Entonces:

X
y(t) = α` f` (t) (5.55)
`=0
Esto significa que:
* ∞ ∞
+
X X
hy(t), y(t)i = α` f` (t), α` f` (t) (5.56)
`=0 `=0
Si a continuación usamos la propiedad de ortogonalidad de los elementos de
la base, tenemos que:

X
hy(t), y(t)i = |α` |2 hf` (t), f` (t)i (5.57)
`=0
5.4. RESPUESTA A ENTRADAS SINUSOIDALES. EL CASO DE TIEMPO DISCRETO103

Note que el lado izquierdo en (5.57) representa el cuadrado del valor efectivo sinusoidal
amplitud
de la señal periódica. \’angulo! de desfase
Para la serie de Fourier trigonométrica, usando la misma definición del pro- fase
ducto interno (5.24), la expresión (5.57) se reduce a: perı́odo
frecuencia! angular
Z T /2 ∞ frecuencia
1X 2
(y(t))2 dt = A2o + (A` + B`2 ) (5.58)
−T /2 2
`=0

En el caso exponencial, la expresión (5.57) está dada por:


Z T /2 ∞
X
(y(t))2 dt = C` 2 (5.59)
−T /2 `=−∞

En (5.58) y en (5.59), el lado izquierdo representa la energı́a de la señal


y(t) en un perı́odo. El lado derecho en ambas ecuaciones señala que esa energı́a
puede ser computada como la suma de similar energı́a de cada armónica.

5.4. Respuesta a entradas sinusoidales. El caso


de tiempo discreto
En esta sección nos detendremos en la caracterı́stica de ganancia que exhibe
un sistema lineal de tiempo discreto cuando la excitación es una sinuoside. Con
ese propósito consideremos un sistema lineal estable modelado por su ERS:

y[t] + an−1 y[t − 1] + . . . + a1 y[t − n + 1] + a0 y[t − n] =


bm u[t] + bm−1 u[t − 1] + . . . + b1 u[t − m + 1] + b0 u[t − m] (5.60)

Si la entrada del sistema es una señal sinusoidal de tiempo discreto de perı́odo


N ∈ Z que puede escribirse de la forma:


u[t] = A cos(θt + φ); con θ = (5.61)
N
en que (vea Capı́tulo 2):

A es la amplitud, cuyas unidades dependen del sistema en cuestión,

φ es el ángulo de desfase (o simplemente fase), medido en [rad], y

θ es la frecuencia angular discreta, medida en [rad]. Esta, a su vez, determina


la frecuencia discreta f = N1 [Hz] y el perı́odo T = N de la sinusoide.

Aplicando la fórmula de Euler se tiene que:

ej(θt+φ) + e−j(θt+φ)
A cos(θt + φ) = A = αejθt + α∗ e−jθt (5.62)
2
104 CAPÍTULO 5. ANÁLISIS BAJO EXCITACIONES PERIÓDICAS

sistema! estable donde α ∈ C, α∗ es el complejo conjugado de α y:


modos naturales
A jφ
e α= (5.63)
2
Por otra parte, sabemos que si K(θ) ∈ C es la ganancia al modo forzante
ejθt , entonces, por linealidad:


Thhxo , A cos(θt + φ)ii = K(θ)αejθt + (K(θ)) α∗ e−jθt + {modos naturales}
(5.64)
Donde K(θ) es la ganancia a modo forzante y está dada por (4.35), con
βi = ejθ . Si expresamos K(θ) en su forma polar se llega a:

K(θ) = |K(θ)|ejφa (θ) (5.65)


Ası́, se obtiene:

Thhxo , A cos(θt + φ)ii = |K(θ)|A cos(θt + φ + φa (θ)) + {modos naturales} (5.66)

Como el sistema es estable, los modos naturales decaen a cero cuando t → ∞,


ası́, la respuesta estacionaria contiene sólo la componente particular, es decir,
contiene sólo los modos forzados y tiene la forma:

y[t] = As (θ) cos(θt + φs (θ)) (5.67)


Esta forma puede ser directamente calculada reemplazando (5.67) en la ERS.

Cuando el modo forzante es una exponencial de la forma ejθt , la ganan-


cia a modo forzante, K(θ), caracteriza lo que se denomina respuesta en
frecuencia del sistema de tiempo discreto.

La teorı́a precedente es ilustrada a través de un ejemplo.

Ejemplo 5.6. Consideremos el sistema modelado por la ERS

y[t] − 0, 7y[t − 1] + 0, 12y[t − 2] = 1, 5u[t] (5.68)


Supongamos que la entrada es u[t] = sen(θt) y que todas las condiciones
iniciales son cero.
El sistema en primer lugar es estable, ya que sus frecuencias naturales se
encuentran ubicadas en λ1 = 0, 4 y λ1 = 0, 3, es decir, tienen magnitud menor
que 1. Con esto sabemos entonces que la solución homogénea tiene la forma:

yh [t] = B1 (0, 4)t + B2 (0, 3)t (5.69)


Para obtener la solución particular reemplazamos la solución propuesta
5.4. RESPUESTA A ENTRADAS SINUSOIDALES. EL CASO DE TIEMPO DISCRETO105

yp [t] = As (θ) sen(θt + φs (θ)) (5.70)

que es equivalente a una expresión de la forma

yp [t] = C1 (θ) cos(θt) + C2 (θ) sen(θt) (5.71)

Los coeficientes C1 (θ) y C2 (θ) se obtienen reemplazando la solución partic-


ular propuesta y la función de entrada en la ecuación de recursión original.
Siguiendo la discusión del Ejemplo 5.1 en la página 89, la modificación en
magnitud y fase que experimenta la sinuoside al pasar por el sistema, se puede
calcular de la respuesta en frecuencia del sistema. En este caso

1, 5e2jθ
K(θ) = (5.72)
e2jθ − 0, 7ejθ + 0, 12
Esta respuesta en frecuencia puede ser representada gráficamente, como se
muestra en la Figura 5.9

4 1

3.5
0.5
3

2.5
|K(ω)|

φ (ω)

0
a

1.5
−0.5
1

0.5 −1
0 2 4 6 8 0 2 4 6 8
Frecuencia angular discreta [rad] Frecuencia angular discreta [rad]

Figura 5.9: Respuesta en frecuencia de un sistema de segundo orden de tiempo


discreto

222
Análogamente a lo que ocurre en el caso de tiempo continuo, en ciertos
sistemas, a pesar de tener todas sus frecuencias naturales en el interior de la zona
de estabilidad, la respuesta a sinusoides de baja amplitud incluye componentes
sinuosidales de altı́sima amplitud. Esto sucede en situaciones en que el sistema
es excitado con una sinusoide de frecuencia muy cercana a frecuencias naturales
que se encuentran al interior del disco unitario, pero muy próximas al lı́mite de
estabilidad (en este caso, la circunferencia unitaria). En este caso, dependiendo
del amortiguamiento del sistema, la salida puede alcanzar el estado estacionario
sólo después de mucho tiempo, y aunque analı́ticamente la oscilación en la salida
permanece acotada, puede alcanzar magnitudes insostenibles para el sistema
real.
106 CAPÍTULO 5. ANÁLISIS BAJO EXCITACIONES PERIÓDICAS

resonancia Ejemplo 5.7. El fenómeno de respuestas inusualmente altas se origina en sis-


frecuencia!fundamental
armónicas temas que exhiben altas ganancias a un modo forzante de la forma ejθt . Con-
sidere, por ejemplo, el sistema:

y[t] − 1, 4128y[t − 1] + 0, 9980y[t − 2] = 0, 5851u[t] (5.73)


Observamos que es un sistema estable, con frecuencias naturales λ 1,2 =
±j pi
e 4 . Note que estas frecuencias naturales se encuentran muy cercanas a la
circunferencia unitaria. La ganancia a continua de este sistema es 1. Sin em-
bargo, la ganancia a una frecuencia θ = π4 tiene magnitud 414, 0. Esto implica
que si la excitación es una sinusoide de amplitud unitaria y frecuencia θ = π4 ,
la respuesta forzada será una sinuoside de amplitud 414, 0, es decir, para esta
excitación, el sistema entra en resonancia.

5.5. Serie de Fourier de tiempo discreto


Veamos ahora cómo pueden extenderse las ideas hasta aquı́ expuestas a la
representación de funciones definidas en instantes de tiempo discreto como suma
de sinusoides, también definidas en tiempo discreto.
Para sistemas de tiempo discreto, las series trigonométricas son poco us-
adas, prefiriéndose la forma exponencial. Veremos que ello se debe a que las
exponenciales periódicas involucradas tienen propiedades de simetrı́a que hacen
mucho más simple el cálculo de los coeficientes, en comparación al cálculo de los
coeficientes de la serie trigonométrica. Ası́, consideramos señales de la forma:

f [t] = ejθt ; t = 0, 1, 2, . . . (5.74)


Nuestro interés fundamental, al igual que para serie de Fourier trigonométri-
ca, es determinar cómo puede representarse una función periódica como suma
de un término constante y un conjunto de sinusoides de frecuencias múltiplos
de la frecuencia fundamental.
Consideremos, por ejemplo, una función y[t] definida para t = 0, 1, 2, . . . , de
perı́odo N , es decir:

y[t + N ] = y[t] ; ∀t (5.75)


La frecuencia fundamental se define análogamente al caso continuo:


θ0 = (5.76)
N
y las frecuencia armónicas corresponden a los múltiplos de la frecuencia fun-
damental θ0 . Sin embargo, si observamos con atención la forma que toman las
exponenciales imaginarias para cada armónica veremos que:
2π 2π 2π
ejθ0 (`+N )t = ej N (`+N )t = ej N `t ej2πt = ej N `t (5.77)
5.5. SERIE DE FOURIER DE TIEMPO DISCRETO 107

Es decir, tenemos periodicidad en la frecuencia, ya que el resultado


(5.77) nos indica que la armónica `-ésima es la misma que la (` + N )-ésima,
y la misma en realidad que cualquiera de las (` + mN )-ésimas, en que m es
cualquier número entero. Esto indica que el conjunto ortogonal es finito, con
sólo N componentes.
Por tanto para representar una función discreta y[t] de perı́odo N en serie
de Fourier nos basta simplemente una suma de las primeras N armónicas:
N −1
X 2π
y[t] = Cn ejθ0 nt ; θ0 = (5.78)
n=0
N
Desde el punto de vista del álgebra lineal queremos representar el vector y[t]
en términos de los vectores del conjunto:

Bd = {1, ejθ0 t , ej2θ0 t , . . . , ej(N −1)θ0 t } (5.79)


Si definimos un producto interno en este conjunto, análogo al definido en
(5.24), la integral (suma continua) en un periodo fundamental se transforma en
una sumatoria (suma discreta):
N
X −1
hf1 [t], f2 [t]i = f1∗ [t]f2 [t] (5.80)
t=0
Tendremos que para los vectores del conjunto Bd , si n1 6= n2 :

N
X −1
hejθ0 n1 t , ejθ0 n2 t i = (ejθ0 n1 t )∗ ejθ0 n2 t (5.81)
t=0
N
X −1
= ejθ0 (−n1 +n2 )t (5.82)
t=0

Que es una suma geométrica

1 − (ejθ0 (−n1 +n2 ) )N


hejθ0 n1 t , ejθ0 n2 t i = (5.83)
1 − ejθ0 (−n1 +n2 )

Pero según (5.76) tenemos que N θ0 = 2π, y n1 y n2 son números enteros, por
tanto, para n1 6= n2 , pues de otra forma el denominador se hace cero:

1 − ej2π(−n1 +n2 )t
hejθ0 n1 t , ejθ0 n2 t i = =0 (5.84)
1 − ejθ0 (−n1 +n2 )
y si n1 = n2 = n:

N
X −1 N
X −1
jθ0 nt jθ0 nt jθ0 nt 2 −jθ0 nt jθ0 nt
he ,e i = ke k = e e = 1=N (5.85)
t=0 t=0
108 CAPÍTULO 5. ANÁLISIS BAJO EXCITACIONES PERIÓDICAS

Es decir, el conjunto definido en (5.79) es ortogonal bajo el producto in-


terno (5.80). Por tant, los coeficientes de la representación (5.78) se pueden
calcular usando el Lema B.1 en la página 346, con lo que se obtiene la expresión
equivalente a (5.49), pero para las funciones discretas:

N −1
hejθ0 nt , y[t]i 1 X 2π
Cn = = y[t]e−jθ0 nt ; θ0 = (5.86)
hejθ0 nt , ejθ0 nt i N t=0 N

Es importante verificar que la expresión obtenida en (5.86) usada en la rep-


resentación (5.78) garantiza que la suma es en efecto una función real. Para la
serie de Fourier exponencial se verificó que la suma de las armónicas correspon-
dientes a los términos ± n es real pues estos términos resultan ser conjugados el
uno del otro. Para la serie de Fourier discreta, si observamos la expresión para
el coeficiente N − `, tenemos:

N −1 N −1
1 X 1 X
CN −` = y[t]e−jθ0 (N −`)t = y[t]e−jθ0 N t ejθ0 `t
N t=0 N t=0
N −1 N −1
1 X 1 X
= y[t]ejθ0 `t = (y[t]e−jθ0 `t )∗ = (C` )∗ (5.87)
N t=0 N t=0

Es decir, el coeficiente de la armónica N − ` es el complejo conjugado del


coeficiente de la correspondiente `-ésima armónica. O, en otras palabras, la
magnitud de los coeficientes C` tiene simetrı́a par respecto a N2 , mientras que
su fase (o ángulo) tiene simetrı́a impar con respecto a N2 . La armónica N − `
puede ser expresada como:

ejθ0 (N −`)t = ejθ0 N t e−jθ0 `t = e−jθ0 `t (5.88)

Es decir, ambas armónicas ` y N − ` correponden en realidad a una misma


frecuencia. Por tanto si sumamos los términos correspondientes a ellas en la
representación, escribiendo sus coeficientes en forma polar:

C` ejθ0 `t + CN −` ejθ0 (N −`)t = C` ejθ0 `t + (C` )∗ e−jθ0 `t


= |C` |ejθ` ejθ0 `t + |C` |e−jθ` e−jθ0 `t
= 2|C` | cos(θ0 `t + θ` ) (5.89)

En base a esto podemos concluir que al representar una señal periódica


de tiempo discreto en forma de una Serie de Fourier, en realidad, la estamos
describiendo en términos de N exponenciales periódicas de la base (5.79), en
que N es el perı́odo de la función discreta. Pero éstas corresponden en realidad
a un valor constante y k diferentes armónicas, en que k = N2 , si N es par, y
k = N 2−1 si es impar.
5.5. SERIE DE FOURIER DE TIEMPO DISCRETO 109

La serie de Fourier para una señal de tiempo discreto puede ser descrita en espectro de lı́nea
matriz! de Fourier
un gráfico en que aparece |C` | en función de ` ∈ Z. Este diagrama es conocido
como el espectro de lı́nea de la señal de tiempo discreto.
El problema de convergencia de la serie de Fourier para señales de tiempo
discreto tiene un tratamiento mucho más simple que en el caso de tiempo con-
tinuo. Esto se debe a que las amplitudes de las N armónicas se pueden calcular
a partir de un sistema de ecuaciones linealmente independientes de la forma:
   
y[0] C0

 y[1] 


 C1 


 y[2]  
 = WN  C2 
 (5.90)
 ..   .. 
 .   . 
y[N − 1] CN −1
donde el elemento (i, j) de la matriz WN está dado por:
(i−1)(j−1)
[WN ]i,j = ejθ0 (5.91)
Las ecuaciones precedentes permiten calcular los coeficientes que describen
exactamente la señal periódica y[t]. Note que la matriz WN tiene la forma
general:
 
1 1 1 ··· 1
1
 w w2 ··· wN −1 

WN = 1
 w2 w4 ··· wN −2 
 (5.92)
 .. .. .. .. .. 
. . . . . 
1 wN −1 wN −2 ··· w

donde w = ejθ0 . Esta matriz se denomina matriz de Fourier, y es no singular


(ver Apéndice F). De esta forma, el vector de la derecha en (5.90) puede ser
despejado al multiplicar por la inversa de WN .
Las ideas de Parseval también se aplican a señales de tiempo discreto, aunque
en este caso el concepto de energı́a no tiene la connotación fı́sica que tiene en
tiempo continuo.
De esta forma, si una señal periódica y[t] tiene la expansión en serie dada
por:

N
X −1
y[t] = α` f` [t] (5.93)
`=0

donde las funciones f` [t] son elementos de una base ortogonal, entonces:

N
X −1
hy[t], y[t]i = |α` |2 hf` [t], f` [t]i (5.94)
`=0
110 CAPÍTULO 5. ANÁLISIS BAJO EXCITACIONES PERIÓDICAS

sistema!lineal que es equivalente a:


ganancia! a modo forzante
respuesta en frecuencia
N
X −1 N
X −1
y[t]2 = N |α` |2 (5.95)
t=0 `=0

5.6. Aplicación de las series de Fourier al análi-


sis de sistemas lineales
Cuando un sistema estable es excitado por una señal periódica, su respuesta
en estado estacionario también es una señal periódica. Esta respuesta, en general
no tiene la misma forma que la señal de entrada, ya que el sistema amplifica y
desfasa cada componente armónica de la excitación, en general en forma distinta.
Para usar cuantitativamente las series de Fourier en el análisis de un sis-
tema lineal, debemos calcular la ganancia a modo forzante del sistema para la
frecuencia de cada una de las armónicas de interés, es decir, la respuesta en
frecuencia del sistema para cada una de esas armónicas.
Estos conceptos son comunes tanto a los sistemas de tiempo continuo como
a los sistemas de tiempo discreto. Para apreciar mejor su aplicación consider-
aremos un ejemplo.

Ejemplo 5.8. Un sistema de tiempo continuo, definido por su EDS:

ρ3 y(t) + 7ρ2 y(t) + 15ρy(t) + 54y(t) = 54u(t) (5.96)


es excitado con una señal periódica de frecuencia angular 1 [rad/s]. Entonces la
amplificación y desfase que experimentan la componente constante o continua y
las primeras nueve armónicas, al pasar a través del sistema, se pueden calcular
a partir de la expresión que define la respuesta en frecuencia del sistema:
54
K(ω) = (5.97)
(jω)3 + 7(jω)2 + 15(jω) + 54
donde ω = 0; 1; 2; 3; . . . ; 9 [rad/s].
La respuesta en frecuencia es mostrada en la Figura 5.10, donde se ha in-
dicado la magnitud y fase de la respuesta a continua y la respuesta para las
frecuencias de la fundamental y de las primeras nueve armónicas. Los valores
numéricos se muestran en la Tabla 5.1. Al observar los datos obtenidos se apre-
cia que el sistema privilegia, en amplificación, la tercera armónica.
Para ser más especı́ficos, supongamos que la excitación u(t) es una señal
cuadrada, con valor medio cero. Usando Matlab o Maple podemos calcular
entonces la respuesta, y(t). La entrada y la salida son mostradas en la Figura
5.11.
La fuerte presencia de la tercera armónica en la salida es claramente apre-
ciada, ası́ como también es fácilmente apreciable el que la forma de onda de la
salida es muy diferente a la de la entrada.
5.7. PROBLEMAS PARA EL LECTOR 111

3 0

2.5 −1
2
−2
|K(ω)|

φ (ω)
1.5

a
−3
1

0.5 −4

0 −5
0 2 4 6 8 10 0 2 4 6 8 10
Frecuencia [rad/s] Frecuencia [rad/s]

Figura 5.10: Respuesta en frecuencia de un sistema de tercer orden de tiempo


continuo.

Frecuencia [rad/s] Amplificación Desfase [rad]


0 1,0000 0,0000
1 1,1011 -0,2895
2 1,5855 -0,7023
3 2,6833 -2,0344
4 0,9288 -3,2104
5 0,4125 -3,5334
6 0,2301 -3,7083
7 0,1442 -3,8305
8 0,0972 -3,9244
9 0,0688 -4,0000

Cuadro 5.1: Amplitud y fase de las armónicas en el Ejemplo 5.8.

5.7. Problemas para el lector

Problema 5.1. Determine la serie de Fourier trigonométrica de las siguientes


funciones3 :

3 e.t.o.c. : En todo otro caso.


112 CAPÍTULO 5. ANÁLISIS BAJO EXCITACIONES PERIÓDICAS

3
y(t)
2

Entrada y respuesta
1

−1
u(t)
−2

−3
0 2 4 6 8 10 12 14 16 18 20
Tiempo [s]

Figura 5.11: Comportamiento de un sistema con una excitación periódica.


−1
 ; −π < t ≤ 0
(a) y(t) = +1 ;0 < t ≤ π


y(t + 2π) e.t.o.c.
(
t ; −1 < t ≤ 1
(b) y(t) =
y(t + 2) e.t.o.c.
(c) y(t) = |A cos(ωt)|
(d) y(t) = máx{0, A sen(ωt)}
(e) y(t) = 4 sen2 (t) (use identidades trigonometricas)
(f ) y(t) = sen(t) + 6 cos3 (t)(idem)

Para cado caso grafique el espectro de lı́nea (use |C̃n |).

Problema 5.2. Determine la serie de de Fourier exponencial que representa


a cada una de las siguientes funciones:

(a) y(t) = cos(2t) + sen(5t)


(
e−t 0≤t<1
(b) y(t) =
y(t + 1) e.t.o.c.

X
(c) y(t) = δ(t − nT )
n=−∞

(d) Todas las funciones del problema anterior.

Problema 5.3. Considere el sistema de primer orden:


5.7. PROBLEMAS PARA EL LECTOR 113

d y(t)
+ 10y(t) = 10u(t)
dt
Suponga que u(t) es la señal periódica de la Figura 5.12.

2.5
2
1.5
1
u(t)

0.5
0
−0.5
−1
−1.5
0 2 4 6 8 10 12
Tiempo [s]

Figura 5.12: Tren de pulsos

5.3.1 Determine las tres primeras armónicas (n = 1, 2, 3) del desarrollo en


serie de Fourier de u(t).

5.3.2 Determine la respuesta del sistema a la suma de esas tres armónicas


puesta en la entrada, es decir, a la serie de Fourier de u(t), pero truncada.

5.3.3 Grafique la salida y(t) obtenida, y compárela con la simulación en Mat-


lab del sistema sometido a la entrada original u(t). Comente.

Problema 5.4. Considere el sistema definido por su ecuación diferencial en


que ωn y ξ son positivos:

d 2 y(t) d y(t)
2
+ 2ξωn + ωn2 y(t) = ωn2 u(t)
dt dt
5.4.1 Determine la salida del sistema si la entrada es u(t) = A cos(ωn t).

5.4.2 Determine la relación de amplitudes entre la salida y la entrada en estado


estacionario cuando ωn = 10, y ξ = 0,1, 0,05, 0,01.

5.4.3 Simule y grafique para las condiciones anteriores, cuando A = 1.

Problema 5.5. Considere el sistema definido por su ecuación diferencial:

d y(t)
= y(t) + u(t)
dt
Si la entrada del sistema es una sinusoide u(t) = sen(10t)
114 CAPÍTULO 5. ANÁLISIS BAJO EXCITACIONES PERIÓDICAS

5.5.1 Determine la salida del sistema y(t), suponiendo condiciones iniciales


cero.
5.5.2 Grafique la parte homogénea de la solución correspondiente a los modos
naturales, la solución particular correspondiente a la sinusoide de entrada
y la solución total, suma de las dos primeras. Comente.

Problema 5.6. Considere el conjunto de funciones definidas en el intervalo


[− T2 , T2 ]:

B = { 1 , cos(nω0 t) , sen(nω0 t) }n=1,2,... ; ω0 =
T
Y el producto interno definido en él como:
Z T
2
hyn (t), ym (t)iT = yn∗ (t)ym (t)dt ; yn (t), ym (t) ∈ B
− T2

Demuestre que el conjunto B es ortogonal y encuentre todos los posibles


valores que toma el producto interno cuando se recorren los elementos de B.

Problema 5.7. Considere la siguiente función periódica f (t) definida como:



A
 ; |t| < τ /2
f (t) = 0 ; τ /2 ≤ |t| < T /2


f (t + T ) ; e.t.o.c.

5.7.1 Determine la serie de Fourier trigonometrica de la función f (t).


5.7.2 Grafique la amplitud de las armónicas en función de la frecuencia.
5.7.3 ¿ Cómo se ve afectado el gráfico a medida que crece el valor de T ? ¿
Qué pasa cuando T → ∞ ?

Problema 5.8. Modulación por ancho de pulso.


Considere la función v(t) definida como:

5
 ; 0 < t < τ < 0,001
v(t) = 0 ; τ < t < 0,001


v(t + 0,001) ; e.t.o.c.

5.8.1 Determine la serie de Fourier de v(t), indicando la amplitud de los coe-


ficientes en función del parámetro τ .
5.8.2 Si el parámetro τ varı́a lentamente con el tiempo, digamos τ (t) = sen(2πt)
¿ Qué se obtiene si se hace pasar v(t) por un sistema con una EDS dada
por

d y(t)
+ 100y(t) = 100u(t) ?
dt
5.7. PROBLEMAS PARA EL LECTOR 115

Problema 5.9. Considere la función y(t) = t2 , definida en el intervalo 0 ≤


t < T.

5.9.1 ¿Cómo podrı́a extenderse la función y(t) al intervalo [−T, T ] de manera


que su serie de Fourier sea de la forma:

X
y(t) = A0 + An cos(ωn t) ?
n=1

5.9.2 ¿ Cómo podrı́a extenderse al intervalo [−T, T ] de manera que su serie sea
de la forma:
X∞
y(t) = Bn sen(ωn t) ?
n=1

Problema 5.10. Determine la serie de Fourier discreta de las siguientes fun-


ciones:

π
(a) y[t] = sen t
( 3
sen 3t ; t = 0, . . . , 3
(b) y[t] =
y[t + 4] ; e.t.o.c.
(
λt ; λ 6= 1, t = 0, . . . , N − 1
(c) y[t] =
y[t + N ] ; e.t.o.c.
(d) y[t] = (−1)t

−1
 ; t = −2, . . . , 0
(e) y[t] = 1 ; t = 1, . . . , 3


y[t + 6] ; e.t.o.c.
(f ) y[t] = t mod N

Construya el espectro de lı́nea para cada caso.


116 CAPÍTULO 5. ANÁLISIS BAJO EXCITACIONES PERIÓDICAS
transformada de Fourier|textbf
Fourier
perı́odo!infinito
aperiódicas!se~
nales
transformada de Fourier

Capı́tulo 6

Análisis bajo excitaciones


arbitrarias. La
transformada de Fourier

6.1. La limitación de las series de Fourier


En el capı́tulo anterior se estudió la representación de señales en un intervalo
de tiempo finito, [to , to + T ], a través de una combinación lineal de un número
(posiblemente infinito) de sinusoides. Este análisis es muy útil para establecer
de una manera simple, el contenido frecuencial (espectro) de una señal periódi-
ca, identificando claramente la amplitud y fase de cada una de las armónicas
que la forman, tanto en tiempo discreto como en continuo. En este capı́tulo
presentamos la extensión para un periodo T → ∞, para estudiar el contenido
frecuencial de señales no periódicas (o de periodo infinito).
El resultado de esta extensión nos permitirá incorporar al análisis impor-
tantes señales tales como el impulso de Dirac, el escalón, la exponencial (real)
decreciente y otras señales arbitrarias como muestra la Figura 6.1. Una clase
adicional y experimentalmente muy importante a incluir ahora está compues-
ta por las señales conocidas en un intervalo de tiempo finito. Estas señales se
pueden calificar como periódicas o no, dependiendo de lo que ocurra fuera del
intervalo conocido. La transición hacia infinito, del periodo de conocimiento de
la señal que se incluye en la herramienta de análisis, es justamente el proceso que
permite desarrollar una herramienta que incorpore las funciones no periódicas
al análisis frecuencial.

6.2. La Transformación de Fourier. El caso del


tiempo continuo

117
118CAPÍTULO 6. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO

serie de Fourier

0 0 T

Figura 6.1: Señales arbitrarias

Si recordamos el Capı́tulo 5, una serie de Fourier es una representción de una


función f (t) mediante suma de sinusoides. Sin embargo, esta serie representa a
la función sólo dentro del intervalo sobre el cual se calculó, [to , to +T ). Si la señal
es periódica,y este intervalo corresponde a un número entero de perı́odos de la
función, entonces la serie también la representa en el resto del eje real. Esta idea
también se puede aplicar para obtener la serie de Fourier para una función no
periódica, siempre que la restrinjamos a un intervalo [a, b] de longitud T . Como
se mencionó antes, esta serie representa a la función dentro del intervalo, y fuera
de éste sólo replica periódicamente la representación lograda en [a, b]. Esto puede
apreciarse en la Figura 6.2.
La Figura 6.2, además, muestra que la longitud del intervalo T puede am-
pliarse, de manera de ir refinando la representación de la función a través de
la serie. Pues bien, lo que interesa en este punto es ver qué pasa con la rep-
resentación cuando el intervalo tiene longitud infinita. Es decir, queremos ver
qué pasa con la serie de Fourier cuando se utiliza para representar funciones de
perı́odo infinito o aperiódicas.

a 0 b a 0 b

a 0 b a 0 b

Figura 6.2: La función restringida a [a, b] y su reconstrucción usando la serie de


Fourier.

La serie de Fourier exponencial para una función periódica, de perı́odo T ,


6.2. LA TRANSFORMACIÓN DE FOURIER. EL CASO DEL TIEMPO CONTINUO119

tiene la forma:


X
f (t) = Cn ejωn t (6.1)
n=−∞

En que:
Z T /2
1
Cn = f (t)e−jωn t dt (6.2)
T −T /2

ωn = nω0 = n (6.3)
T
La ecuación (6.1) es la que describe la función f (t) dentro del interva-
lo [− T2 , T2 ] en términos de las exponenciales periódicas que representan las
diferentes armónicas ωn . Recordemos que la ecuación (6.3) explicita que las
armónicas no son nada más que múltiplos de la frecuencia fundamental ω 0 = 2π T .
Ahora bien, cada uno de los coeficientes definidos por la ecuación (6.2) define
a Cn como función de la frecuencia ωn , es decir:

Cn = Cn (ωn ) (6.4)
Consideremos ahora la función:

F (ω) = T · Cn (ωn ) (6.5)


Con esto la serie de Fourier exponencial (6.1) de f (t) puede reescribirse
como:
∞ ∞
1 X jωn t 1 X
f (t) = F (ωn )e = F (ωn )ejωn t ω0 (6.6)
T n=−∞ 2π n=−∞

pero si se observa que:

ω0 = ωn − ωn−1 = ∆ω (6.7)
la serie se reescribe como:

1 X
f (t) = F (ωn )ejωn t ∆ω (6.8)
2π n=−∞

Esta última expresión corresponde a una suma de Riemann [11], la que,


llevada al lı́mite cuando el perı́odo T crece hasta infinito, equivale a ∆ω → 0,
con lo que la serie se transforma en una integral:
Z ∞
1
f (t) = F (jω)ejωt dω (6.9)
2π −∞
120CAPÍTULO 6. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO

Transformada de Fourier El significado de esta última expresión es conceptualmente muy importante,


transformada de Fourier
transformada de ya que nos indica que a medida que el perı́odo de una función periódica aumenta,
Fourier! inversa la distancia ∆ω entre la lı́neas del espectro se reduce progresivamente, y en el
función! generalizada lı́mite, cuando la función tiene perı́odo infinito y ∆ω → 0, la representación en
delta de Dirac
frecuencia de f (t) en vez de ser discreta, pasa a ser una representación continua.
Ası́, en lugar de quedar expresada como una suma de sinusoides de frecuencias
múltiplos de una fundamental ω0 , queda representada por una integral en que
participa una función, F (jω) definida para ω en toda la recta real.
Esta función F (ω) es la transformada de Fourier de f (t) , y su expresión
se deduce utilizando (6.5), (6.4) y (6.2):
Z T /2
F (ω) = T · Cn = f (t)e−jωn t dt (6.10)
−T /2

la cual, cuando T → ∞ y considerando ω ∈ R, se convierte en:


Z ∞
F (ω) = f (t)e−jωt dt (6.11)
−∞
Dada la forma de la integral (6.11), puede apreciarse que F (ω) en general
será una función en la variable real ω pero con valores complejos, excepto en
algunos especiales (ver Problema 6.4). Para enfatizar la naturaleza compleja de
la transformada de Fourier F (ω) es una función compleja, se prefiere denotar-
la por F ( ω). Con esta última observación podemos establecer finalmente la
existencia del par transformada y transformada inversa de Fourier según

Z ∞
F {f (t)} = F ( ω) = f (t)e− ωt dt (6.12)
−∞
Z ∞
−1 1
F {F ( ω)} = f (t) = F ( ω)e ωt dω (6.13)
2π −∞

Para la existencia de la transformada de Fourier es suficiente que la función


f (t) sea absolutamente integrable[9] en ] − ∞, ∞[, es decir:
Z ∞
| f (t) | dt < ∞ (6.14)
−∞
Sin embargo, es posible obtener la transformada de Fourier de funciones que
no cumplen este requisito, por ejemplo, las funciones periódicas, con el uso de
funciones generalizadas, como el delta de Dirac.
1
El factor 2π que acompaña a la integral en (6.13), en algunos textos es repar-
tido equitativamente entre ambas integrales, como un factor √12π en la trans-
formada directa y en la inversa. Preferiremos las expresiones (6.12) y (6.13), ya
que esta última puede reescribirse de manera natural, reemplazando la frecuen-
cia angular ω en [rad/s] por la frecuencia f en [Hz], tal como se aprecia en la
siguiente ecuación
6.2. LA TRANSFORMACIÓN DE FOURIER. EL CASO DEL TIEMPO CONTINUO121

Z ∞
−1
F {F (j2πf )} = F (j2πf )ej2πf t df
−∞

El mismo análisis desarrollado con la serie de Fourier exponencial cuando el


perı́odo de la función tiende a infinito, puede repetirse de manera similar para
la serie de Fourier trigonométrica (ver Problema 6.3)

Ejemplo 6.1. Para ilustrar los resultados obtenidos veamos un ejemplo. Con-
sideremos la función f (t) definida en principio periódica en el intervalo [− T2 , T2 ]:
(
A ; |t| ≤ τ /2 < T /2
f (t) = (6.15)
0 ; τ /2 < |t| ≤ T /2
Esta corresponde a un pulso de alto A y ancho τ , centrado en cero, que se
repite en intervalos de longitud T .
Los coeficientes de la serie exponencial de Fourier se pueden obtener sin
problema:

Maple

> assume(T>0,A>0);
> assume(0<tau,tau<T);
> y(t,T) := A * ( Heaviside(t+tau/2) - Heaviside(t-tau/2) );
> C(0,T):=1/T*int(y(t,T),t=-T/2..T/2);
> C(n,T):=simplify(1/T*int(y(t,T)*exp(-I*2*Pi*n/T*t),
t=-T/2..T/2));


C0 = (6.16)
T  πnτ 
Aτ sen T
Cn = · πnτ ∀n 6= 0 (6.17)
T
T
La transformada de Fourier de y(t) resulta dada por la expresión:

Z ∞ Z τ /2
F ( ω) = y(t)e− ωt dt = Ae− ωt dt (6.18)
−∞ −τ /2
A τ /2 A τ τ
· e− ωt = − (e− ω 2 − e ω 2 )

= (6.19)
− ω −τ /2 ω
2A  ωτ 
= sen (6.20)
ω 2
122CAPÍTULO 6. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO

espectro! continuo que usualmente se escribe como:

ωτ

sen 2
F ( ω) = Aτ ωτ (6.21)
2

Si consideramos ahora la ecuación (6.17), podemos escribir:


ω τ 
n
sen
T Cn = Aτ 2 (6.22)
ωn τ
2
2nπ
donde ωn = T . De esta forma, observamos que:

lı́m T Cn = F ( ω) (6.23)
n→∞

222
A pesar de su conexión, existen varias diferencias conceptuales entre la serie
de Fourier y la transformada de Fourier. La primera diferencia importante es
que el espectro de lı́nea que aparece asociado a la serie de Fourier, se convierte,
en el caso de la Transformada de Fourier, en un espectro definido para toda
frecuencia. En forma compacta nos referiremos a este último como el espectro
continuo de la señal.
Una segunda diferencia es que la Serie de Fourier resulta descrita por un
conjunto de valores complejos asociados a un conjunto enumerable de frecuencias
(la frecuencia 0 y las frecuencias múltiplos de una frecuencia fundamental), esos
valores complejos determinan la amplitud y fase de las componentes armónicas.
Ese no es el caso de la Transformada de Fourier para señales de tiempo continuo,
ya que la transformada F ( ω) es una medida de densidad o más bien de
intensidad relativa (no absoluta) de la participación de las distintas frecuencias
en la representación de la función. Esta cantidad está definida para todo el eje
de los reales, es decir, para todo ω, ası́, la presencia de una frecuencia ω1 en una
señal f (t) está dada por:
Z ω1+
Y1 = F ( ω)e ωt dω (6.24)
ω1−

Esta integral es cero, a menos que F ( ω) contenga un impulso δ(ω − ω1 ). En


el Apéndice C se demuestra que este impulso acusa la presencia de una sinusoide
pura de frecuencia ω1 en f (t).

Ejemplo 6.2. Para apreciar desde un ángulo distinto las diferencias mencio-
nandas, consideremos la analogı́a de una viga empotrada, cargada con arena fina
y con tres fuerzas puntuales, como se muestra en la Figura 6.3.
La viga tiene un largo L y un ancho A. En la Figura 6.3 la coordenada x
es análoga a la frecuencia angular ω. En primer lugar se aprecian tres fuerzas
no nulas, que actúan en puntos especı́ficos de la viga. Ellas son análogas a los
coeficientes de una serie de Fourier. En segundo lugar se observa la carga de
6.2. LA TRANSFORMACIÓN DE FOURIER. EL CASO DEL TIEMPO CONTINUO123

Parseval
F1 F2 F3 Parseval

f(x)

Figura 6.3: Viga cargada con arena

arena, con una distribución f (x) [N/m]. Esta distribución captura la irregular-
idad de la distribucicón de la arena a lo largo y a lo ancho de la viga. Se puede
deducir que si f (x) es finita, entonces, esta carga de arena ejerce una fuerza
cero en cualquier punto de la viga. No obstante, es obvio que si la densidad de
la arena es ρ(x), entonces la fuerza total ejercida por la carga de arena es:
Z L
f (x)ρ(x)Adx (6.25)
0
La densidad de carga por metro lineal f (x) es entonces análoga a la trans-
formada de Fourier F ( ω), en el sentido que esta última corresponde a una
densidad espectral por ancho de banda.
222
La transformación de Fourier posee una serie de propiedades que resultan de
mucha utilidad para el cálculo de transformadas de funciones a partir de algunas
elementales, para la obtención de transformadas inversas sin tener que resolver la
integral (6.13), y para el análisis de sistemas, como se ve en la sección siguiente.
Estas propiedades se detallan en el Apéndice C. Algunas de esas propiedades
son de especial relevancia por sus aplicaciones al análisis de sistemas lineales.

6.2.1. Parseval y la energı́a de las señales aperiódicas en


tiempo continuo
Los resultados deducidos por Parseval permiten también relacionar directa-
mente las caracterı́sticas de una señal cualquiera con su transformada de Fourier.
Los detalles matemáticos pueden ser examinados en el Apéndice C.
Si la señal (real) f (t) tiene energı́a finita en el intervalo (−∞, ∞), y su
transformada de Fourier es F ( ω) entonces, aplicando el Teorema C.1, se tiene
que:

Z ∞ Z ∞ Z ∞
2 1 1
(f (t)) dt = |F ( ω)|2 dω = |F ( ω)|2 dω (6.26)
−∞ 2π −∞ π 0
124CAPÍTULO 6. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO

respuesta en frecuencia Observando el lado derecho de la ecuación, podemos calcular la fracción de


ancho de banda
la energı́a total que es aportada por cada intervalo del espectro (ωk , ωk+1 ). Para
apreciar esto consideremos el siguiente ejemplo.
Ejemplo 6.3. Sea la señal f (t) = e−at µ(t), donde a ∈ R+ . Entonces, su trans-
formada de Fourier es
1
F ( ω) = (6.27)
ω + a
y su energı́a total es
Z ∞ Z ∞
1 1 1
W = e−2at dt = dω = (6.28)
0 π 0 ω2 +a 2 2a
Usando Parseval podemos demostrar que la mitad de esa energı́a es aportada
por el espectro en el intervalo de frecuencia (−a, a), como se ve en
Z
1 a 1 1 ω a 1
W(−a,a) = dω = arctan = (6.29)
π 0 ω 2 + a2 πa a 0 4a

6.2.2. Aplicación a sistemas lineales


Nuestro interés en el estudio de la transformación de Fourier y sus propiedades,
se origina en su utilidad para analizar las caracterı́sticas de los sistemas lineales.
La definición hecha en la sección precedente de la transformada de Fourier resul-
ta como continuación natural de las series de Fourier, de esta forma la transfor-
mada constituye la prolongación natural del estudio de propiedades del sistema
como la respuesta en frecuencia, ancho de banda y filtraje, entre otras.
Para apreciar la utilidad del análisis mediante transformada de Fourier,
consideremos un sistema lineal de tiempo continuo, definido por su ecuación
diferencial (EDS), tal como se vio en el Capı́tulo 3:

d n y(t) d n−1 y(t)


+ a n−1 + . . . + a0 y(t)
dt n dt n−1
d m u(t) d m−1 u(t)
= bm m
+ bm−1 + . . . + b0 u(t) (6.30)
dt dt m−1
En que u(t) e y(t) representan respectivamente la señal de entrada y de
salida del sistema. Note que por generalidad hemos reemplazado n − 1 por m
en el lado derecho, aunque seguiremos suponiendo que el sistema es propio, es
decir, m ≤ n.
Si utilizamos la propiedad que permite obtener una expresión para la trans-
formada de Fourier de la derivada de una función, ecuación (C.9) en la pági-
na 367, a cada una de las derivadas de la entrada u(t) y la salida y(t) puede
aplicársele trasnformación de Fourier, utilizando:
 n 
d f (t)
F = ( ω)n F {f (t)} = ( ω)n F ( ω)
dt n
6.2. LA TRANSFORMACIÓN DE FOURIER. EL CASO DEL TIEMPO CONTINUO125

De esta forma, si se aplica transformación de Fourier a ambos lados de la función de transferencia


EDS (6.30) se obtiene:

( ω)n Y ( ω) + . . . + a0 Y ( ω) = bm ( ω)m U ( ω) + . . . + b0 U ( ω) (6.31)


luego:

bm ( ω)m + . . . + b0 B( ω)
Y ( ω) = n
U ( ω) = U ( ω) (6.32)
( ω) + . . . + a0 A( ω)
donde A( ω) y B( ω) son polinomios en  ω.
Si ahora definimos la función racional en  ω como

B( ω) bm ( ω)m + . . . + b0
H( ω) = = (6.33)
A( ω) ( ω)n + . . . + a0
entonces la salida del sistema lineal puede ser expresada como

Y ( ω) = H( ω)U ( ω) (6.34)


La función H( ω) que aparece en la expresión para la salida Y ( ω) es la
que caracteriza al sistema mismo, ya que depende sólo de los coeficientes de la
EDS (6.30), y no de la señal de entrada U ( ω). Esta función se conoce como
función de transferencia o transferencia de Fourier.
En general, H( ω) es una función racional en  ω. Sin embargo, existen casos
en que la entrada u(t) se aplica en forma retardada al sistema. En esos casos,
si el retardo es τ , la transformada de Fourier U ( ω) debe ser reemplazada por
U ( ω)e− ωτ (vea las propiedades en la Tabla C.1) y la función de transferencia
resulta:

B( ω) bm ( ω)m + . . . + b0 − ωτ
H( ω) = = e (6.35)
A( ω) ( ω)n + . . . + a0
Una discusión adicional sobre la naturaleza de H( ω), en particular, referida
a la estabilidad del sistema se desarrolla más adelante, en la Sección 6.2.5.
Una interpretación fundamental para la función de transferencia se puede
construir a partir del Lema 3.1 en la página 53. Allı́ se establece que la respuesta
de un sistema a una señal de entrada arbitraria u(t), puede obtenerse mediante
la convolución de ésta con la respuesta h(t) del sistema a un impulso unitario:
Z ∞
y(t) = u(t) ∗ h(t) = u(τ )h(t − τ )dτ (6.36)
−∞
Si aplicamos transformación de Fourier a esta relación, utilizando el resultado
(C.13) en la página 371 que establece la transformada de la convolución de
funciones, tenemos que:

F {y(t)} = F {u(t) ∗ h(t)} (6.37)


Y ( ω) = U ( ω)F {h(t)} (6.38)
126CAPÍTULO 6. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO

Podemos apreciar entonces que la función H( ω) en la ecuación (6.34) es


exactamente la transformada de Fourier de la respuesta h(t) del sistema
(6.30) a un impulso unitario en su entrada.

Dado que la EDS tiene sólo coeficientes reales, la función de transferencia



H( ω) cumple con H( ω) = (H(− ω)) , lo que implica que:

su magnitud es una función par en ω ⇒ |H( ω)| = |H(− ω)| (6.39)


su fase es una función impar en ω ⇒ ∠H( ω) = −∠H(− ω) (6.40)

Para ilustrar la derivación de la función de transferencia a partir de un


sistema fı́sico, examinemos el siguiente ejemplo.
Ejemplo 6.4. Consideremos el circuito de la Figura 6.4, que puede ser visto
como un sistema con entrada el voltaje de la fuente vf (t) y como salida el voltaje
en el condensador vc (t).

+
vf (t) C vc (t)
i(t)

Figura 6.4: Circuito RC como sistema de primer orden.

Usando leyes de Kirchoff y la ecuación para la corriente por el condensador,


podemos llegar a una EDS:

vR (t) + vC (t) = vf (t) (6.41)


d vC (t)
RC + vC (t) = vf (t) (6.42)
dt
d vC (t) 1 1
+ vC (t) = vf (t)di(t) (6.43)
dt RC RC
1
En estas ecuaciones se puede renombrar vc (t) = y(t) , vf (t) = u(t) , RC =α
, con lo que la EDS resulta:

d y(t)
+ αy(t) = αu(t) ; α ∈ R+ (6.44)
dt
A continuación calculamos la salida del sistema para diferentes funciones de
entrada u(t).
Si aplicamos transformación de Fourier a (6.44) tenemos:
6.2. LA TRANSFORMACIÓN DE FOURIER. EL CASO DEL TIEMPO CONTINUO127

Maple

>with(inttrans) : assume(alpha>0) :
>eds:= diff(y(t),t)+alpha*y(t)=alpha*u(t) ;
>eq1:=fourier(u(t),t,w)=U(jw) :
>eq2:=fourier(y(t),t,w)=Y(jw) :
>subs({eq1,eq2},fourier(eds,t,w)) ;
>Y(jw):=solve(%,Y(jw));

 ωY ( ω) + αY ( ω) = αU ( ω) (6.45)
α
Y ( ω) = U ( ω) (6.46)
ω + α
Con esta expresión se puede obtener la salida del sistema para diferentes
casos, con ayuda de las tranformadas en la Tabla C.2 en la página 389.
Entrada impulso unitario
En primer lugar, podemos calcular casi directamente la respuesta a impulso
del sistema, ya que si u(t) = δ(t), entonces U ( ω) = 1 y, por tanto:

Maple

>U(jw)= fourier(Dirac(t),t,w) :
>H(jw)=subs(%,Y(jw));

U ( ω) = 1
α
Y ( ω) = H( ω) =
ω + α
Donde se aplica transformación inversa

Maple

> h(t) = invfourier(H(jw),w,t);

 
1
h(t) = αF −1 (6.47)
ω + α
= αe−αt µ(t) (6.48)

Entrada escalón unitario


128CAPÍTULO 6. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO

fracciones parciales

Maple

>U(jw)= fourier(Heaviside(t),t,w) :
>Y(jw)=subs(%,Y(jw));

1
U ( ω) = πδ(ω) + (6.49)
ω
 
α 1
Y ( ω) = πδ(ω) + (6.50)
ω + α ω

Donde se desarrolla el producto y luego se buscan términos que correspondan


a transformadas conocidas, ya sea agrupando de manera conveniente o separan-
do en fracciones parciales (ver Apéndice D):

α α
Y ( ω) = πδ(ω) + (6.51)
ω + α  ω( ω + α)
1 1
= πδ(ω) + − (6.52)
ω ( ω + α)

Ya que, del término que multiplica al delta Dirac sólo interesa su valor en
ω = 0, y el otro se separa en fracciones parciales. De esta forma se puede
calcular la transformación inversa de Fourier:

Maple

> y(t) = invfourier(Y(jw),w,t);

   
−1 1 −1 1
y(t) = F πδ(ω) + −F (6.53)
ω ( ω + α)
= µ(t) − e−αt µ(t) (6.54)

Entrada exponencial periódica


Finalmente, examinemos la respuesta a una exponencial periódica u(t) =
e ωo t . Su transformada de Fourier de u(t) es:

U ( ω) = F e ωo t = 2πδ(ω − ωo ) (6.55)
Con lo que la salida será:
6.2. LA TRANSFORMACIÓN DE FOURIER. EL CASO DEL TIEMPO CONTINUO129

ganancia! a modo forzante

α α
Y ( ω) = 2πδ(ω − ωo ) = 2πδ(ω − ωo ) (6.56)
ω + α  ωo + α
α
⇒ y(t) = e ωo t = A(ωo )e ωo t+jφ(ωo ) (6.57)
 ωo + α
en que:

α = p α

A(ωo ) =
(6.58)
 ωo + α ωo2 + α2
ωo
φ(ωo ) = − arctan (6.59)
α
Lo anterior muestra que, al pasar a través del sistema, la exponencial periódi-
ca, experimenta un cambio en magnitud (en un factor A(ωo )) y en fase (una
adición igual a φ(ωo ).
222

6.2.3. La función de transferencia y la respuesta en fre-


cuencia
La última parte del Ejemplo 6.4, en la sección anterior, pone de manifiesto
la utilidad de conocer la transformada de Fourier de la respuesta a impulso de
un sistema, H( ω). Observe que:

Y ( ω) = H( ω)U ( ω) (6.60)

pero si u(t) = e ωo t , entonces

Y ( ω) = H( ω)2πδ(ω − ωo ) (6.61)


= H( ωo )2πδ(ω − ωo ) (6.62)

por tanto, la salida es:

y(t) = H( ωo )e ωo t (6.63)

Ası́ tenemos que H( ωo ) representa la ganancia al modo forzante e ωo t ,


definida en (3.24). Es más, dada la relación de las exponenciales periódicas con
las señales sinusoidales podemos establecer el siguiente lema.
Lema 6.1. Dado un sistema estable de tiempo continuo con entrada u(t) y
salida y(t). La respuesta del sistema a la entrada señal de entrada sinusoidal
u(t) = cos(ωo t), ∀t, es

y(t) = A(ωo ) cos(ωo t + φ(ωo )) (6.64)


130CAPÍTULO 6. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO

En que

A(ωo ) = |H( ωo )| (6.65)


φ(ωo ) = ∠H( ωo ) (6.66)

Donde H( ω) es la transformada de Fourier de la respuesta a impulso del


sistema h(t).
Demostración
La respuesta a la excitación cos(ωo t), puede ser calculada como la combi-
nación de las respuestas a un par de exponenciales periódicas. A partir de:

Y ( ω) = H( ω)U ( ω) (6.67)


tenemos que, si u(t) = 21 (e ωo t + e− ωo t ), entonces:

Y ( ω) = H( ω)π(δ(ω − ωo ) + δ(ω + ωo )) (6.68)


= πH( ωo )δ(ω − ωo ) + πH(− ωo )δ(ω + ωo ) (6.69)

y, por lo tanto, la salida es:

1 1
y(t) = H( ωo )e ωo t + H(− ωo )e− ωo t (6.70)
2 2
1  ωo t+j∠H( ωo ) 1
= |H( ωo )|e + |H( ωo )|e− ωo t−j∠H( ωo ) (6.71)
2 2
= |H( ωo )| cos(ωo t + ∠H( ωo )) (6.72)

222

Ejemplo 6.5. Para el mismo sistema del Ejemplo 6.4, descrito por la ecuación
diferencial:

d y(t)
+ αy(t) = αu(t) ; α ∈ R+ (6.73)
dt
Determinemos la solución si la señal de entrada es u(t) = cos(t).
Tal como se hizo antes, se aplica transformación de Fourier sobre la EDS,
donde se ha reemplazado la entrada u(t) con lo que se obtiene la transformada
de Fourier de la salida:

Maple

> U(jw)= fourier(cos(t),t,w) : eq3 ;


simplify(subs(eq3,Y(jw)));
6.2. LA TRANSFORMACIÓN DE FOURIER. EL CASO DEL TIEMPO CONTINUO131

U ( ω) = π(δ(ω + 1) + δ(ω − 1)) (6.74)


α
Y ( ω) = π(δ(ω + 1) + δ(ω − 1)) (6.75)
ω + α
donde, simplificando como antes, se obtiene la transformada inversa:

α α
Y ( ω) = πδ(ω + 1) + πδ(ω − 1) (6.76)
−j + α j+α
α(α + j) α(α − j)
= πδ(ω + 1) + 2 πδ(ω − 1) (6.77)
α2 + 1 α +1
= Aejφ πδ(ω + 1) + Ae−jφ πδ(ω − 1) (6.78)

en que:

α(α + j)
A = 2 = √ α (6.79)
α +1 α2 + 1
 
α(α + j) 1
φ=∠ 2
= arctan (6.80)
α +1 α

por lo tanto, la salida es:

y(t) = A cos(t − φ) (6.81)


 
α 1
=√ cos t − arctan (6.82)
α2 +1 α

Se deja al lector verificar el caso general, en que, cuando la entrada es una


sinusoide de frecuencia arbitraria, cos(ωo t), entonces la salida del sistema será:
α  ωo 
y(t) = p cos t − arctan (6.83)
α2 + ωo2 α
En la Figura 6.5 se muestra la magnitud A(ωo ) y ángulo de desfase φ(ωo )
de la salida cuando α = 10.
222
El ejemplo anterior pone en evidencia que la salida que se obtiene a través de
la transformada de Fourier corresponde a la parte estacionaria de la salida del
sistema, donde no aparecen modos naturales. Esto es coherente, ya que podemos
pensar una señal no causal como una que comenzó a actuar sobre el sistema en
t = −∞, y, por ende, el efecto de las condiciones iniciales ha desaparecido. Sin
embargo, debemos observar que el desarrollo realizado es análogo cuando α < 0.
Esto nos advierte que en el caso de sistemas inestables, es decir, con frecuen-
cias naturales fuera del semiplano izquierdo (que es la zona de estabilidad para
sistemas de tiempo continuo), la salida obtenida mediante la transformación de
132CAPÍTULO 6. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO

0.8
−0.5

0.6
A(ω)

φ(ω)
0.4 −1

0.2

−1.5
0
0 100 200 300 400 500 600 0 100 200 300 400 500 600
ω ω

(a) Magnitud (b) Ángulo

Figura 6.5: Magnitud y ángulo de H( ω) en el ejemplo (α = 100).

Fourier resulta ser acotada, mientras que la salida verdadera del sistema crece
hasta infinito. Es decir, la solución mediante Fourier para señales no causales
resulta ciega a la inestabilidad propia del sistema, pero nos permite obten-
er la componente particular de la señal de salida. Para ilustrar esto observe el
siguiente ejemplo, que sólo tiene sentido si el sistema bajo análisis es estable.

Ejemplo 6.6. Consideremos el caso en que la entrada al sistema es u(t) =


cos(t)µ(t). En este caso, tenemos que la transformada de Fourier de la entrada
y de la salida al sistema son respectivamente

Maple

>U(jw) = fourier(Heaviside(t)*cos(t),t,w);
>Y(jw) = subs (%,Y(jw));

π ω
U ( ω) = (δ(ω − 1) + δ(ω + 1)) + (6.84)
2 −ω 2 + 1
 
α π ω
Y ( ω) = (δ(ω − 1) + δ(ω + 1)) + (6.85)
ω + α 2 −ω 2 + 1

La salida Y ( ω) puede simplificarse con las mismas consideraciones anteri-


ores, es decir, evaluando los coeficientes que acompañan a los deltas de Dirac
en la frecuencia de interés, separando en fracciones parciales y agrupando con-
venientemente:
6.2. LA TRANSFORMACIÓN DE FOURIER. EL CASO DEL TIEMPO CONTINUO133

filtraje

α π α π α
Y ( ω) = δ(ω − 1) + δ(ω + 1) +
j+α 2 −j + α 2 ( ω + α)(−ω 2 + 1)
α(α − j) π α(α + j) π
= 2
δ(ω − 1) + δ(ω + 1)
α +1 2 −j + α 2
 
α(α ω + 1)) α2 1
+ 2 −
(α + 1)(−ω 2 + 1) α2 + 1  ω + α
α2 π  α jπ 
= 2 δ(ω + 1) + δ(ω − 1) + 2 δ(ω + 1) − δ(ω − 1)
α +1 2 α +1 2
 
α2 ω α 1 α2 1
+ 2 + −
(α + 1) (−ω 2 + 1) (α2 + 1) (−ω 2 + 1) α2 + 1  ω + α

Por tanto, con ayuda de la Tabla C.2 en la página 389, tenemos que la salida
es:

  
α −1 π  ω
y(t) = αF δ(ω + 1) + δ(ω − 1) +
α2 + 1 2 (−ω 2 + 1)
 
jπ  1
+ F −1 δ(ω + 1) − δ(ω − 1) +
2 (−ω 2 + 1)
 
1
− αF −1
ω + α
α  
y(t) = 2 α cos(t)µ(t) + sen(t)µ(t) − αe−αt µ(t)
α +1
En Maple los cálculos se pueden hacer mucho más rápido, y, dado que en la
transformación inversa aparecen exponenciales complejas, se utiliza la función
evalc, que permite expandir éstas mediante la relación de Euler, 1 :

Maple

>U(jw) = fourier(Heaviside(t)*cos(t),t,w);
>subs(%,Y(jw));
>y(t) = simplify( evalc( invfourier(%,w,t) ) );

222

6.2.4. Filtraje
Una generalización de los resultados precedentes se puede extraer examinan-
do la naturaleza de la función de transferencia y la forma en que evolucionan
1 ejθ = cos(θ) + j sen(θ)
134CAPÍTULO 6. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO

espectro su magnitud y su fase con la frecuencia ω. En estas caracterı́sticas, que definen


respuesta en frecuencia
sistema! estable la respuesta en frecuencia del sistema, se capturan efectos tales como su ve-
locidad y su capacidad de filtrar y discriminar señales de diferentes contenidos
espectral.
Es común que para clasificar las funciones de transferencia de sistemas es-
tables, se use su caracterı́stica filtrante. Ésta queda determinada por |H( ω)|.
Para ejemplificar esta descripción consideremos primero sistemas que discrimi-
nan entre frecuencias altas y bajas.

|H(jω)| |H(jω)|
A A

a a

ωc ω ωc ω

Figura 6.6: Sistemas pasa bajos (izquierda) y pasa altos (derecha)

En la Figura 6.6 se observan dos conductas distintas. El sistema descrito por


la caracterı́stica del lado izquierdo, deja pasar las bajas frecuencias y atenúa las
altas frecuencias. El sistema caracterizado por la función de transferencia del
lado derecho hace lo contrario: deja pasar las altas frecuencias y bloquea las bajas
frecuencias. Una forma de apreciar estos comportamientos distintos es aplicar
a ambos sistemas una misma secuencia de escalones temporales. La transición
brusca de un nivel a otro requiere la presencia de muy altas frecuencias, en
estricto sentido, de frecuencia infinita. Por otro lado, una vez que se ha llegado
a un nuevo nivel, predominan las frecuencias bajas, en rigor, la frecuencia cero.
Los escalones también tienen energı́a a frecuencias intermedias tal como lo revela
la transformada de Fourier del escalón unitario, estas frecuencias intermedias se
originan en el quiebre entre una pendiente infinita (inicio del escalón) y una
pendiente cero (resto del escalón).
Ejemplo 6.7. Considere los siguientes sistemas:

1
H1 ( ω) = Pasa bajos (6.86)
( ω + 1)2
( ω)2
H2 ( ω) = Pasa altos (6.87)
( ω + 1)2
Si a ambos sistemas se aplica una secuencia de escalones, se obtiene el re-
sultado de la Figura 6.7. En esta, se observa que la respuesta del filtro pasa
6.2. LA TRANSFORMACIÓN DE FOURIER. EL CASO DEL TIEMPO CONTINUO135

frecuencia! de corte
2 pasa banda
1.5 y (t) elimina banda
Respuesta a escalón

1
1

0.5

−0.5 y (t)
2
−1
0 5 10 15 20 25 30
Tiempo [s]

Figura 6.7: Respuesta a escalones de un sistema pasa bajos y un sistema pasa


altos.

bajos, y1 (t), no puede seguir las transiciones de los escalones, pero alcanza el
nivel constante de la entrada sin error (dado que la ganancia a continua es
uno). Por su parte, la respuesta del filtro pasa altos, y2 (t), es capaz de replicar
instantáneamente los cambios bruscos, sin embargo presenta respuesta nula una
vez que el escalón alcanza un nivel constante (dado que la ganancia a continua
es cero).

222
La transición entre una zona de paso y otra de rechazo (y viceversa) que
ocurre en |H( ω)| es siempre gradual. Una forma de cuantificar un lı́mite para
esa transición es lo que se define como frecuencia de corte. Esta definición,
aunque arbitraria es universalmente
√ aceptada. En la Figura 6.6, ωc es la fre-
cuencia de corte si a = A/ 2.
Aparte del comportamiento pasa bajos y pasa altos podemos reconocer las
caracterı́sticas pasa banda y elimina banda. Las caracterı́sticas generales de
ambos sistemas aparecen reflejadas en los gráficos de la Figura 6.8.

|H(jω)| |H(jω)|

A A

a a

ωc1 ωc2 ω ωc1 ωc2 ω

Figura 6.8: Sistemas pasa banda y elimina banda.


136CAPÍTULO 6. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO

frecuencias de corte El sistema descrito por la caracterı́stica del lado izquierdo en la Figura 6.8
bloquea las frecuencias bajas y las fecuencias altas, en cambio, deja pasar un
rango de frecuencias intermedias. Por su parte, el sistema descrito por la car-
acterı́stica del lado derecho en la Figura 6.8, bloquea un rango intermedio de
frecuencias y deja pasar tanto las altas como las bajas frecuencias. El compor-
tamiento de estos sistemas puede ser estudiado también usando una secuencia
de escalones. Para ilustrar las diferentes conductas desarrollamos un ejemplo.
Ejemplo 6.8. Considere los siguientes sistemas:

ω
H3 ( ω) = Pasa banda (6.88)
( ω + 1)2
( ω)2 + 1
H4 ( ω) = Elimina banda (6.89)
( ω + 1)2

1.5

1
Respuesta a escalón

y (t)
4
0.5

0
y3(t)
−0.5

−1

−1.5
0 5 10 15 20 25 30
Time [s]

Figura 6.9: Respuesta a escalones de un sistema pasa banda y un sistema elimi-


na banda.

Cuando a ambos sistemas se aplica una secuencia de escalones se obtiene el


resultado de la Figura 6.9. De la Figura 6.9 se observa que la respuesta del filtro
pasa banda, y3 (t), no puede seguir las transiciones de los escalones, y presenta
respuesta nula una vez que el escalón alcanza niveles constantes (tiene ganancia
a continua igual a cero). Por su parte, la respuesta del filtro elimina banda,
y4 (t), es capaz de replicar instantáneamente los cambios bruscos, y de alcanzar,
sin error, el valor constante de la entrada (tiene ganancia a continua igual a
uno). Sin embargo, y4 (t) presenta una anomalı́a justo después de la transición
brusca. Esta anomalı́a se debe a que el sistema bloquea un rango intermedio de
frecuencias.
222
En el caso de los sistemas pasa banda y sistemas elimina banda,
√ existen dos
frecuencias de corte, ωc1 y ωc2 (vea Figura 6.8), para a = A/ 2.
Cualquiera que sea la naturaleza filtrante del sistema, las frecuencias de corte
son las que delimitan la(s) banda(s) de paso y la(s) banda(s) de rechazo.
6.2. LA TRANSFORMACIÓN DE FOURIER. EL CASO DEL TIEMPO CONTINUO137

6.2.5. Caso singular en la función de transferencia. sistema! estable

En primer lugar, se debe enfatizar que:

La función de transferencia de un sistema lineal de tiempo continuo


está definida sólo si su respuesta a impulso tiene transformada de Fouri-
er. Esto es equivalente a exigir que el sistema tenga sólo frecuencias natu-
rales en el SPI cerrado, con la condición que si algunas de esas frecuencias
naturales están sobre el eje imaginario, ellas sean simples

Es muy importante notar que el Lemma 6.1 en la página 129, que iguala
H( ω) con la respuesta en frecuencia, está formulado para sistemas estables.
No podemos extender este resultado a sistemas que tienen frecuencias naturales
en el eje imaginario, aunque sean no repetidas. Veamos a través de un ejemplo,
los resultados erróneos que surgen si no somos cuidadosos.
Ejemplo 6.9. Un sistema con entrada u(t) y salida y(t), tiene una EDS:

dy(t)
= u(t) (6.90)
dt
Observamos que el sistema tiene sólo una frecuencia natural, y ella está ubi-
cada en λ = 0, es decir, se trata de una frecuencia natural no repetida en el eje
imaginario.
La respuesta en frecuencia, K(ω) está dada por la ganancia al modo forzante
e ωt , y ella resulta de aplicar (3.24) a este caso particular:
1
K(ω) = (6.91)
ω
Suponga que u(t) = e−at µ(t), a > 0 y si, erróneamente, hacemos H( ω) =
K(ω), entonces y(t) se puede calcular a partir de :

 
−1 −1 −1 1
y(t) = F {Y ( ω)} = F {H( ω)U ( ω)} = F (6.92)
 ω( ω + a)

Ası́ se obtiene:

Maple

>with(inttrans):
>assume(a>0);simplify(evalc((invfourier(1/(-w^2+I*a*w),w,t)));

signo (t) − 2e−at µ(t)


y(t) = (6.93)
2a
138CAPÍTULO 6. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO

dando origen a una respuesta no causal, ya que la función signo (t) tiene valor
−1, ∀t < 0.
Para obtener la respuesta correcta, recordemos que la función de transfer-
encia H( ω) es la transformada de Fourier de la respuesta del sistema a un
impulso unitario. Aplicando esta definición a nuestro sistema se llega a:
1
H( ω) = + πδ(ω) (6.94)
ω
Entonces
 
−1 1 π 1 − e−at µ(t)
y(t) = F + δ(ω) = µ(t) (6.95)
 ω( ω + a) a a
que es la respuesta correcta.
222
El ejemplo precedente ilustra y explica el problema. Cuando el sistema tiene
frecuencias naturales en el eje imaginario, los modos naturales asociados no
decaen, y la transformada de Fourier de cada uno de ellos sólo existe en el
lı́mite. Esta condición es acusada por la presencia de deltas de Dirac en ω. Ası́,
la función de transferencia es una función racional más uno o varios deltas de
Dirac en ω.
La última pregunta que debemos responder es por qué la determinación de
H( ω) usando (6.31) no da el resultado correcto. La respuesta está en que para
pasar de (6.31) a (6.33) se requiere dividir por un polinomio que se hace cero
para uno o más valores de ω, es decir, se realiza una división por cero a esas
frecuencias. Consideremos un ejemplo adicional.
Ejemplo 6.10. Sea un sistema con la EDS:

d 2 y(t)
+ 4y(t) = 3u(t) (6.96)
dt 2
Al aplicar transformación de Fourier se obtiene:

(( ω)2 + 4)Y ( ω) = 3U ( ω) (6.97)


Observamos que y(t) contiene dos modos naturales complejos, los que com-
binados generan una señal sinusoidal de frecuencia 2 [rad/s]. Esto implica que
Y ( ω) debe incluir dos impulsos: δ(ω − 2) y δ(ω + 2).
Cuando dividimos ambos lados de (6.97) por (( ω)2 + 4), estamos dividiendo
por cero cuando ω = ±2, exactamente donde ocurren los impulsos. Esta división
llevarı́a, erróneamente, a que la función de transferencia serı́a:
3
(6.98)
( ω)2 + 4
Sin embargo, la respuesta del sistema a u(t) = δ(t) está dada por:
3
h(t) = sen(2t)µ(t) (6.99)
2
6.3. LA TRANSFORMACIÓN DE FOURIER. EL CASO DE TIEMPO DISCRETO139

Ası́, el valor correcto de H( ω) es:

3 3
H( ω) = + j (δ(ω + 2) − δ(ω − 2)) (6.100)
( ω)2 + 4 2
222

6.3. La Transformación de Fourier. El caso de


tiempo discreto
Consideremos en esta sección el caso de las funciones no periódicas, definidas
en tiempo discreto, y cómo se pueden hacer un desarrollo análogo para éstas
que permita representar de alguna forma su contenido en frecuencia.
En primer lugar, recordemos las expresiones correspondientes a la repre-
sentación en serie de Fourier de una función periódica definida en tiempo dis-
creto, tal como se vió en el Capı́tulo 5. Sea y[t] una función periódica de perı́odo
N , entonces esta se puede representar mediante una serie de Fourier discreta
que no es más que una combinación lineal finita de N exponenciales complejas:

N −1
X 2π
y[t] = Cn ejθo nt ; donde θo =
n=0
N
N −1
1 X
Cn = y[t]e−jθo nt
N t=0

Consideremos ahora el caso en que el perı́odo N de la señal crece hasta


infinito, es decir, tenemos una señal que ya no es periódica. En este caso se puede
hacer el siguiente desarrollo, totalmente análogo al caso de la transformación de
Fourier para funciones de tiempo continuo, en la sección 6.2.
Llamemos θn = nθo y definamos la función:

Y (ejθn ) = N · Cn (6.101)
Reemplazando en la representación en serie anterior:

N −1
1 X
y[t] = Y (ejθn )ejθo nt (6.102)
N n=0
N −1
1 X
= Y (ejθn )ejθn t ∆θ (6.103)
2π n=0

Ya que la frecuencia fundamental en este caso es θo = θn+1 − θn = ∆θ, es


decir, la separación entre armónicas es igual a la frecuencia fundamental. La
sumatoria anterior corresponde a una suma de Riemann[11] que llevada al
140CAPÍTULO 6. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO

transformada de Fourier! discreta


lı́mite cuando N → ∞ se convierte en una integral en la variable θ, que pasa a
transformada de Fourier! discreta inversa
ser continua. Cabe observar que el lı́mite superior de la integral es:


θN −1 = · (N − 1) (6.104)
N
lı́m θN −1 = 2π (6.105)
N →∞

Por tanto, cuando el perı́odo de la función N → ∞ se tiene que:


Z 2π
1
y[t] = Y (ejθ )ejθt dθ (6.106)
2π 0

Cabe recordar que para el caso de las funciones de tiempo discreto existe
periodicidad en frecuencia, por tanto la función y[t] podrı́a representarse emple-
ando el intervalo [−π, π] o cualquier otro de longitud 2π.
La ecuación (6.106) nos dice que podemos representar la función de tiempo
discreto y[t] como una integral que involucra la función Y (ejθ ), que ahora pre-
senta valores en forma continua en el intervalo [0, 2π]. Veamos ahora cuál es la
expresión que permite obtener esta función. A partir de la definición hecha en
(6.101) tenemos:

N
X −1 N
X −1
Y (ejθn ) = N · Cn = y[t]e−jθo nt = y[t]e−jθn t (6.107)
t=0 t=0

Cuando N → ∞ aparece la variable continua θ y es necesario considerar


todos los valores de la función, es decir, el tiempo discreto barre todos los
enteros. Por tanto:

X
Y (ejθ ) = y[t]e−jθt (6.108)
t=−∞

Esta función es la transformada de Fourier discreta de la función y[t].


Mientras que la expresión (6.106) representa la transformación inversa de
Fourier discreta.


X
Fd {y[t]} = Y (ejθ ) = y[t]e−jθt (6.109)
t=−∞
Z 2π
 1
Fd −1 Y (ejθ ) = y[t] = Y (ejθ )ejθt dθ (6.110)
2π 0

A continuación, veamos un ejemplo para ilustrar lo anterior.


6.3. LA TRANSFORMACIÓN DE FOURIER. EL CASO DE TIEMPO DISCRETO141

Ejemplo 6.11. Consideremos como primera señal, un delta de Kronecker. Si


calculamos su transformada de Fourier discreta tenemos que ésta, se reduce a
un único término:


X
Y (ejθ ) = δ[t]e−jθt = δK [0]e−jθ0 = 1 (6.111)
t=−∞

es decir, se obtiene un espectro plano, en analogı́a al caso del espectro del delta
de Dirac en tiempo continuo. En la Figura 6.10 se muestra el delta de Kronecker
y la transformada de Fourier calculada, que en este caso resulta tener sólo parte
real.

1
1.5
0.8

0.6
Y(ejθ)
δk[t]

1
0.4

0.2
0.5
0

−0.2 0
−5 0 5 0 2 4 6
t θ

Figura 6.10: Delta de Kronecker y su transformada de Fourier

222

Ejemplo 6.12. Consideremos ahora la señal exponencial:

y[t] = αt µ[t] |α| < 1 (6.112)

Su transformada de Fourier discreta es:


X ∞
X ∞
X
Y (ejθ ) = y[t]e−jθt = αt e−jθt = (αe−jθ )t (6.113)
t=−∞ t=0 t=0

La expresión para Y (ejθ ) resulta ser una serie geométrica convergente ya


que |αe−jθ | < 1. Por tanto su suma es

1
Y (ejθ ) = (6.114)
1 − αe−jθ

La transformada Y (ejθ ) puede ser reescrita en forma polar (módulo y ángulo)


como:
142CAPÍTULO 6. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO

1
Y (ejθ ) = (6.115)
1 − α cos(θ) + jα sen(θ)
jθ 1 1
|Y (e )| = p =p (6.116)
2
(1 − α cos(θ)) + (α sen(θ)) 2 1 − 2α cos(θ) + α2
 
α sen(θ)
∠Y (ejθ ) = − arctan (6.117)
1 − α cos(θ)

1 5
0.8
4
0.6

|Y(ejθ)|
y[t]

3
0.4
2
0.2

0 1

−0.2 0
−2 0 2 4 6 8 10 0 2 4 6
t
θ

Figura 6.11: Señal y[t] = (0,8)t µ[t] y la magnitud de Y (ejθ ).

En la Figura 6.11 se muestra la señal en tiempo discreto y la magnitud de


su transformada de Fourier discreta cuando α = 0,8
222
Ejemplo 6.13. Consideremos ahora un pulso discreto definido según
(
1 ; |t| ≤ 5
y[t] = (6.118)
0 ; |t| > 5
Su transformada de Fourier discreta está dada por la expresión:
5
X
Y (ejθ ) = e−jθt (6.119)
t=−5

Se puede apreciar directamente que es una función real, ya que cada par de
exponenciales complejas conjugadas al sumarse se transforman en una función
coseno, es decir:
5
X
Y (ejθ ) = 1 + 2 cos(θt) (6.120)
t=1

Alternativamente, la transformada se puede calcular calculando la suma de


la progresión geométrica de exponenciales:
6.3. LA TRANSFORMACIÓN DE FOURIER. EL CASO DE TIEMPO DISCRETO143

Parseval
energı́a
5
X 1 − e−jθ(11) ejθ5 − e−jθ6
Y (ejθ ) = e−jθt = e−jθ(−5) −jθ
= (6.121)
t=−5
1−e 1 − e−jθ

Esta expresión, a priori, no parece ser real, pero si se reescribe conveniente-


mente tenemos que:

 θ 11 11
jθ ejθ5 − e−jθ6 · ej 2 ejθ 2 − e−jθ 2 sen(θ 11
2 )
Y (e ) = θ = θ θ = 1 (6.122)
(1 − e−jθ ) · ej 2 ej − e−j
2 2 sen(θ 2 )

Note que la ecuación (B.48) del Apéndice B, establece justamente la propiedad


que permite convertir la suma de cosenos en un cuociente de senos.

15

1
10
0.8

0.6
Y(e )

y[t]

5
0.4

0.2
0
0

−0.2 −5
−10 −5 0 5 10 0 2 4 6
t θ

Figura 6.12: Señal y[t] y su transformada discreta Y (ejθ ).

La Figura 6.12 se muestran los gráficos del pulso en tiempo discreto y de su


transformada de Fourier.
222

En el Apéndice C se incluyen las propiedades más importantes de la trans-


formación de Fourier en tiempo discreto (tabla C.3 en la página 390), además
de una lista de transformadas simples que se pueden utilizar para el cálculo de
otras más complejas (Tabla C.4 en la página 391).

6.3.1. Parseval y las señales aperiódicas de tiempo discre-


to
Los resultados deducidos por Parseval en el Apéndice C permiten también
relacionar directamente las caracterı́sticas de energı́a de una señal cualquiera con
su transformada de Fourier discreta. En el caso de señales de tiempo discreto, las
ideas de potencia y energı́a no tienen la connotación fı́sica que poseen cuando se
usan en el contexto de las señales de tiempo continuo. Sin embargo, son también
144CAPÍTULO 6. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO

concepto útiles, especialmente si la secuencia de tiempo discreto se origina en


el muestreo de una señal de tiempo continuo.
Para la señal real de tiempo discreto f [t] se define la energı́a como:

X 2
W = (f [t]) (6.123)
t=−∞

Si la señal f [t] tiene energı́a finita en el intervalo (−∞, ∞), y su transformada


de Fourier es F (ejω ) entonces, aplicando el Teorema C.2 en la página 386, se
tiene que:
∞ Z 2π
X 2 1
(f [t]) = |F (ejθ )|2 dθ (6.124)
t=−∞
2π 0

Observando el lado derecho de la ecuación, podemos calcular la fracción de


la energı́a total que es aportada por cada intervalo del espectro (θk , θk+1 ). En
comparación con el caso continuo, acá el cálculo es mucho más complicado.

6.3.2. Aplicación a sistemas lineales


Consideremos un sistema lineal de tiempo discreto definido por su ecuación
recursiva (ERS):

y[t] + an−1 y[t − 1] + . . . + a1 y[t − n + 1] + a0 y[t − n]


= bm u[t] + bm−1 u[t − 1] + . . . + b1 u[t − m + 1] + b0 u[t − m] (6.125)

En que m y n son enteros positivos cualesquiera. Si aplicamos transformada


de Fourier a ambos lados de la ecuación tenemos:

Y (ejθ )(1 + an−1 e−jθ + . . . + a1 e−jθ(n−1) + a0 e−jθn ) =


U (ejθ )(bm + bm−1 e−jθ + . . . + b1 e−jθ(m−1) + b0 e−jθ ) (6.126)

Si se factoriza y despeja la transformada de Fourier de la secuencia de salida


tenemos que esta resulta ser la transformada de la entrada U (ejθ ) multiplicada
por una función racional en la variable e−jθ :

bm + bm−1 e−jθ + . . . + b1 e−jθ(m−1) + b0 e−jθ


Y (ejθ ) = U (ejθ ) (6.127)
1 + an−1 e−jθ + . . . + a1 e−jθ(n−1) + a0 e−jθn
Justamente podemos apreciar que la función racional que aparece multipli-
cando la entrada depende sólo del sistema, ya que sólo depende de los coeficientes
de la ERS inicial. Con esta expresión podemos obtener la secuencia de salida
del sistema calculando la transformación de Fourier inversa.
En particular, cuando la entrada es un delta de Kronecker en el origen:
6.3. LA TRANSFORMACIÓN DE FOURIER. EL CASO DE TIEMPO DISCRETO145

u[t] = δK [t] ⇒ U (ejθ ) = 1 (6.128)


En este caso la salida del sistema es:

bm + bm−1 e−jθ + . . . + b1 e−jθ(m−1) + b0 e−jθ


Y (ejθ ) = = H(ejθ ) (6.129)
1 + an−1 e−jθ + . . . + a1 e−jθ(n−1) + a0 e−jθn

es decir, la función racional H(ejθ ) es exactamente la transformada de Fourier


de la respuesta del sistema a un delta de Kronecker en su entrada. De esta forma,
la respuesta a cualquier otra señal de entrada se obtiene usando la relación:

Y (ejθ ) = H(ejθ )U (ejθ ) (6.130)


Esta ecuación, corresponde, en el dominio de tiempo discreto, a la convolu-
ción de las secuencias temporales:

X
y[t] = h[t] ∗ u[t] = u[l]h[t − l] (6.131)
l=−∞

en que, tal como se vió al final del Capı́tulo 4, la secuencia h[t] es la respuesta
del sistema al delta Kronecker.

La función H(ejθ ) es la función de transferencia del sistema de tiem-


po discreto, y resulta igual a la ganancia al modo forzante ejθt , descrita
en (4.35). Esto dice que H(ejθ ) describe completamente la respuesta en
frecuencia del sistema de tiempo discreto (vea la Sección §5.4).

Ejemplo 6.14. Consideremos el sistema de tiempo discreto definido por su


ecuación recursiva:

y[t] − 1,6y[t − 1] + 0,63y[t − 2] = u[t] (6.132)


Si aplicamos transformación de Fourier discreta tenemos que:

Y (ejθ ) − 1,6e−jθ Y (ejθ ) + 0,63e−jθ2 Y (ejθ ) = U (ejθ ) (6.133)


jθ −jθ −jθ jθ
Y (e )(1 − 0,9e )(1 − 0,7e ) = U (e ) (6.134)

Ası́ la función de transferencia está dada por:

1
H(ejθ ) = (6.135)
(1 − 0,9e−jθ )(1 − 0,7e−jθ )
La transformada de la salida queda entonces dada por
146CAPÍTULO 6. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO

fracciones parciales

U (ejθ )
Y (ejθ ) = H(ejθ )U (ejθ ) = (6.136)
(1 − 0,9e−jθ )(1 − 0,7e−jθ )

Analizaremos a continuación el comportamiento del sistema para distintas


excitaciones.
Entrada delta de Kronecker
En este caso:

1
U (ejθ ) = 1 ⇒ Y (ejθ ) = (6.137)
(1 − 0,9e−jθ )(1 − 0,7e−jθ )

Donde la transformada de la salida se debe separar en fracciones parciales


para poder aplicar transformación inversa:

4,5 3,5
Y (ejθ ) = −jθ
− (6.138)
1 − 0,9e 1 − 0,7e−jθ

Por tanto, la salida del sistema es:

y[t] = (4,5(0,9)t − 3,5(0,7)t )µ[t] (6.139)

Note que para esta excitación (delta de Kronecker) y[t] = h[t].


Entrada escalón unitario
En este caso, u[t] = µ[t], por lo tanto:


jθ 1 X
U (e ) = +π δ(θ + 2`π) (6.140)
1 − e−jθ
`=−∞

!
jθ 1 1 X
Y (e ) = + π δ(θ + 2`π)
(1 − 0,9e−jθ )(1 − 0,7e−jθ ) 1 − e−jθ
`=−∞
(6.141)

La expresión de la tranformada de Fourier de la secuencia de salida puede


simplificarse separando en fracciones parciales y considerando el valor del térmi-
no que acompaña a la sumatoria de deltas de Dirac sólo en las frecuencias en
que éstos son distintos de cero, es decir, en θ = 2`π. Sin embargo, notamos que:

100
H(ejθ ) θ=2`π = H(1) = ; ∀` ∈ Z (6.142)
3

De esta forma:
6.3. LA TRANSFORMACIÓN DE FOURIER. EL CASO DE TIEMPO DISCRETO147

1
Y (ejθ ) =
(1 − 0,9e−jθ )(1 − 0,7e−jθ )(1 − e−jθ )

1 X
+ π δ(θ + 2`π) (6.143)
(1 − 0,9e−j0 )(1 − 0,7e−j0 )
`=−∞
100 ∞
−40,5 8,17 3 100 X
= + + + π δ(θ + 2`π)
1 − 0,9e−jθ 1 − 0,7e−jθ 1 − e−jθ 3
`=−∞
(6.144)

Por tanto la secuencia de salida es:

     100 
−1 −40,5 −1 8,17 −1 3 100
y[t] = Fd + Fd + Fd + πδ(θ)
1 − 0,9e−jθ 1 − 0,7e−jθ 1 − e−jθ 3
(6.145)
= (−40,5(0,9)t + 8,17(0,7)t + 33,3)µ[t] (6.146)

2.5 35

30
2

25

1.5
20

15
1

10

0.5

0 0
0 5 10 15 20 25 30 35 40 45 50 0 5 10 15 20 25 30 35 40 45 50
k k

Figura 6.13: Respuesta a impulso y a escalón del ejemplo 6.14

La Figura 6.13 muestra los gráficos de las secuencias de correspondientes a


la respuesta a impulso y a escalón unitario del sistema.
Entrada exponencial compleja
Ahora u[t] = ejθo t y, de la Tabla C.4 en la página 391, tenemos que su
transformada de Fourier es:


X
U (ejθ ) = 2π δ(θ − θo + 2`π) (6.147)
`=−∞

Por lo tanto la transformada de Fourier de la respuesta está dada por:


148CAPÍTULO 6. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO


X
jθ jθ jθ jθ
Y (e ) = H(e )U (e ) = H(e ) δ(θ − θo + 2`π)
`=−∞

X
= 2πH(ejθo ) δ(θ − θo + 2`π) (6.148)
`=−∞

Note que hemos usado la periodicidad en frecuencia de la función de trans-


ferencia, lo que implica:

H(ej(θo +2`π) ) = H(ejθo ) = |H(ejθo )|ej(φ(θo )) ∀` ∈ Z (6.149)


Ası́, aplicando la transformación inversa, se obtiene:

y[t] = |H(ejθo )| ej(θo t+φ(θo )) (6.150)

222

6.3.3. La función de transferencia y la respuesta en fre-


cuencia
La parte final del Ejemplo 6.14, en la sección precedente, muestra el vı́nculo
entre la función de transferencia y la respuesta en frecuencia de un sistema de
tiempo discreto. Este resultado se generaliza en el siguiente lema.

Lema 6.2. Dado un sistema estable de tiempo discreto con entrada u[t] y salida
y[t], la respuesta del sistema a la señal de entrada sinusoidal u[t] = cos(θ o t), ∀t,
es:

y[t] = A(θo ) cos(θo t + φ(θo )) (6.151)

en que:

A(θo ) = H(ejθo ) (6.152)
jθo
φ(θo ) = ∠H(e ) (6.153)

donde H(ejθ ) es la transformada de Fourier de la respuesta a impulso del sis-


tema h[t].
Demostración
La respuesta a la excitación cos(θo t), t ∈ Z, puede ser calculada como la
combinación de las respuestas a un par de exponenciales periódicas, usando la
relación:

Y (ejθ ) = H(ejθ )U (ejθ ) (6.154)


6.3. LA TRANSFORMACIÓN DE FOURIER. EL CASO DE TIEMPO DISCRETO149

Si consideramos la entrada u[t] = 21 (ejθo t + e−jθo t ), entonces: frecuencia! de corte


pasa bajos
pasa altos
pasa banda
Y (ejθ ) = H(ejθ )π(δ(θ − θo ) + δ(θ + θo )) (6.155) elimina banda
jθo −jθo
= πH(e )δ(θ − θo ) + πH(e )δ(θ + θo ) (6.156)

luego, la salida es:

1 1
y[t] = H(ejθo )e ωo t + H(e−jθo )e−jθo t (6.157)
2 2
1 jθo jθo t+j∠H(ejθo ) 1 jθo
= |H(e )|e + |H( ωo )|e−jθo t−j∠H(e ) (6.158)
2 2
= |H(ejθo )| cos(θo t + ∠H(ejθo )) (6.159)

222

6.3.4. Filtraje
La respuesta en frecuencia de los sistemas discretos puede ser caracterizada
a través de H(ejθ ). Se aplican en este caso las mismas definiciones que en el caso
de sistemas de tiempo continuo: frecuencias de corte, banda de paso, banda de
rechazo, etc. Existe sin embargo un elemento que agrega complejidad al análisis,
y él es la naturaleza perdiódica de H(ejθ ). Consideremos un sistema para el que
la magnitud de la respuesta en frecuencia aparece descrita en la Figura 6.14.

1.2

0.8
|F(ejθ)|

0.6

0.4

0.2

0
−10 −8 −6 −4 −2 0 2 4 6 8 10
Frecuencia θ

Figura 6.14: Respuesta en frecuencia (magnitud) de un sistema de tiempo dis-


creto.

El problema con el gráfico de la Figura 6.14 es que genera ambigüedades


respecto de si se trata de un sistema pasa bajos, pasa banda, etc. El problema
se resuelve si se considera que, cualquiera sea la señal procesada por el sistema,
ella también tiene un espectro periódico. En consecuencia, la naturaleza filtrante
se puede definir observando H(ejθ ) sólo en θ ∈ [0; π], tal como se ha remarcado
en la Figura 6.14 con un trazo más grueso.
150CAPÍTULO 6. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO

sistema!estable 6.3.5. Caso singular en la función de transferencia. El caso


de los sistemas discretos
Para el caso de los sistemas de tiempo discreto conviene recordar que

La función de transferencia de un sistema lineal de tiempo discreto


está definida sólo si su respuesta a un delta de Kronecker posee transformada
de Fourier. Esto es equivalente a exigir que el sistema tenga sólo frecuencias
naturales en el disco unitario cerrado, con la condición que si algunas de
esas frecuencias naturales están sobre la circunferencia unitaria, ellas sean
simples.

Es muy importante notar que el Lema 6.2 en la página 148, que iguala
H(ejθ ) con la respuesta en frecuencia, está formulado para sistemas estables.
No podemos extender este resultado a sistemas que tienen frecuencias naturales
sobre la circunferencia unitaria, aunque sean no repetidas. Veamos a través de
un ejemplo, los resultados erróneos que surgen si no somos cuidadosos.
Ejemplo 6.15. Un sistema con entrada u[t] y salida y[t], tiene una ERS:

y[t] − y[t − 1] = u[t] (6.160)


Observamos que el sistema tiene sólo una frecuencia natural, y ella está ubi-
cada en λ = 1, es decir, se trata de una frecuencia natural sobre la circunferencia
unitaria y de multiplicidad 1.
La respuesta en frecuencia, K(θ) está dada por la ganancia al modo forzante
ejθt , y ella resulta de aplicar (3.24) a este caso particular:

ejθ
K(θ) = (6.161)
1 − ejθ
Suponga que u[t] = at µ[t], 1 > a > 0 y si, erróneamente, hacemos H(ejθ ) =
K(θ), entonces y[t] se puede calcular a partir de:

ejθ
Y (ejθ ) = H(ejθ )U (ejθ ) = (6.162)
(ejθ − 1)(ejθ − a)
de donde se obtiene:

  jθ 
1 e ejθ 1  
y[t] = Fd −1 jθ
− jθ
= signo [t] − 2at µ[t]
1−a e −1 e −a 2(1 − a)
(6.163)
dando origen a una respuesta no causal, ya que la función signo [t] tiene valor
−1, ∀t < 0.
Para obtener la respuesta correcta, recordemos que la función de transferen-
cia H(ejθ ) es la transformada de Fourier de la respuesta del sistema a un delta
de Kronecker. Aplicando esta definición a nuestro sistema se llega a:
6.3. LA TRANSFORMACIÓN DE FOURIER. EL CASO DE TIEMPO DISCRETO151


ejθ X
H(ejθ ) = + π δ(θ − 2`π) (6.164)
ejθ − 1
`=−∞

y, usando la periodicidad de la función ejθ , se tiene que:

" ∞
#
jθ jθ
1 e e X
Y (ejθ ) = − +π δ(θ − 2`π) (6.165)
1 − a ejθ − 1 ejθ − a
`=−∞

Entonces, la salida se obtiene, por ejemplo, usando Maple :


 
−1 1 π 1 − at
y[t] = Fd + δ(θ) = µ[t] (6.166)
 ω( ω + a) a 1−a
que es la respuesta correcta.

222
El ejemplo precedente ilustra y explica el problema. Cuando el sistema tiene
frecuencias naturales sobre la circunferencia unitaria, los modos naturales aso-
ciados no decaen, y la transformada de Fourier de cada uno de ellos sólo existe
en el lı́mite. Esta condición es acusada por la presencia de deltas de Dirac en
el dominio de la frecuencia θ. Ası́, la función de transferencia es una función
racional más uno o varios deltas de Dirac en θ.
La explicación de esta situación es análoga a la del caso continuo.
152CAPÍTULO 6. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO

6.4. Problemas para el lector


Problema 6.1. Determine la transformada de Fourier de las siguientes fun-
ciones, ya sea mediante la defición o usando tablas y transformadas conocidas
(ver Apéndice C):

1. y(t) = [µ(t + T ) − µ(t − T )]t ;T > 0

2. y(t) = (1 − 2e−|t| )2
t
!2
Z ∞
1 −
2σ 2 √
3. y(t) = √ e (Recuerde que e−u du = π)
σ 2π −∞

Problema 6.2. Considere la función:



4t(t + 1)
 ; −1 < t < 0
y(t) = −4t(t − 1) ;0 < t < 1


0 ; |t| ≥ 1

6.2.1 Grafique la función.

6.2.2 Determine la transformada de Fourier Y ( ω) de la función y(t).

6.2.3 ¿Cuál es la serie de Fourier exponencial de y(t) considerándola solo en


el intervalo [-1,1]?

6.2.4 Grafique por separado la parte real e imaginaria de Y ( ω) y compare con


los coeficientes obtenidos para la serie de Fourier exponencial. Comente.

Problema 6.3. Demuestre que una función f (t) arbitraria (o de perı́odo in-
finito) puede expresarse en la forma de Integral de Fourier:

Z ∞
1
f (t) = [A(ω) cos(ωt) + B(ω) sen(ωt)] dω
π 0

en que:
Z ∞
A(ω) = f (t) cos(ωt)dt
−∞
Z ∞
B(ω) = f (t) sen(ωt)dt
−∞

¿Cómo se reducen las expresiones si f (t) es par o impar?

Problema 6.4. Usando la ecuación de Euler para exponenciales complejas:


6.4. PROBLEMAS PARA EL LECTOR 153

6.4.1 Demuestre que si y(t) es par, entonces su transformada de Fourier Y ( ω)


es real.

6.4.2 Análogamente, demuestre que si y(t) es impar, entonces su transformada


de Fourier Y ( ω) es imaginaria pura.

Problema 6.5. Considere el sistema de segundo orden definido por:

d 2 y(t)
+ 100y(t) = 100u(t)
dt 2
Encuentre la salida del sistema mediante la transformación de Fourier cuan-
do

6.5.1 u(t) = sen(ωo t)µ(t), con condiciones iniciales cero.

6.5.2 u(t) = sen(ωo t).

6.5.3 Grafique y compare las soluciones obtenidas en los puntos anteriores


cuando ωo 6= 10 y cuando ωo = 10 . Comente.

Problema 6.6. Suponga que se quiere diseñar un sistema cuya caracterı́stica


en frecuencia sea:
(
1 ; |ω| < ωc
H( ω) =
0 ; |ω| < 0

Es decir, este sistema actúa como filtro ideal ya que permite el paso de
sinusoides de frecuencias menores que ωc sin afectarlas, mientras que aquellas
de frecuencias mayores no aparecen en la salida.

6.6.1 Grafique H( ω)

6.6.2 Determine cuál debiera ser la respuesta a impulso del sistema.

6.6.3 ¿Qué puede comentar respecto del resultado obtenido?

Problema 6.7. Determine la transformada de Fourier discreta delas siguientes


funciones:

y[t] = (t + 1)αt µ[t] , con |α| < 1

2t + 3 t
y[t] = µ[t]
6t
y[t] = cos(θ1 t + φ) , con 0 < θ1 < 2π
154CAPÍTULO 6. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO

Problema 6.8. Considere un pulso de tiempo discreto de amplitud A > 0 y


centrado en t = 0, definido por:
(
A ; |t| ≤ N
y[t] = N ∈ Z+
0 : |t| > N

6.8.1 Grafique el pulso en tiempo discreto para algunos valores de A y N .

6.8.2 Determine la transformada de Fourier discreta de y[t] ( Sugerencia : use


la ecuación B.2.35).

6.8.3 Grafique la transformada de Fourier discreta para distintos valores de N .


6.8.4 Determine el valor de Y (ej0 ) en función de N .

6.8.5 Analice qué sucede para valores extremos de N , es decir, cuando N = 0


y cuando N → ∞.

Problema 6.9. Determine la respuesta a un delta de Kronecker y a un escalón


unitario de los sistemas de tiempo discreto dados por sus ERS:

6.9.1 y[t] − y[t − 1] = 2u[t − 7]; y[−1] = 1

6.9.2 y[t] = u[t − 1] − 0, 5u[t − 2] + 0, 2u[t − 3]

6.9.3 y[t] − 1, 1y[t − 1] + 0, 24y[t − 2] = u[t − 2]; y[−1] = −1; y[−2] = 1

Problema 6.10. Tenemos un sistema de tiempo discreto el queremos que su


respuesta en frecuencia sea igual a:
(
jθ 1 ; |θ| < θc
H(e ) =
0 ; θc < |θ| ≤ π

6.10.1 Determine su respuesta a un delta de Kronecker.

6.10.2 Determine, si es posible, su respuesta a un escalón de tiempo discreto.

Comente.
Laplace
transformada de
Laplace|textbf
sistema!dinámico
sistema!estable
sistema!inestable
se~
nal!no acotada
se~
nal! de tiempo continuo
Capı́tulo 7

Análisis bajo excitaciones


arbitrarias. La
transformada de Laplace

Entre los métodos disponibles para el estudio de los sistemas dinámicos,


lineales y de tiempo continuo, uno en particular resulta ser especialmente útil:
la transformada de Laplace. Las principales ventajas de este método se pueden
resumir en lo siguiente:

Permite el análisis de sistemas lineales estables e inestables.


Se puede aplicar a una vasta gamas de señales no acotadas.
Permite incluir las condiciones iniciales del sistema.
La EDS es transformada en una ecuación algebraica, que puede ser mane-
jada de manera más simple.

7.1. Definición de la transformada


Considere una señal de tiempo continuo y(t), definida para 0 ≤ t < ∞.
La transformada de Laplace asociada a y(t), y su transformada inversa están
definidas como:

Z ∞
L {y(t)} = Y (s) = e−st y(t)dt (7.1)
0−
Z σ+j∞
1
L−1 {Y (s)} = y(t) = est Y (s)ds (7.2)
2πj σ−j∞

155
156CAPÍTULO 7. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA

transformada de Laplace!definición Y (s) es la transformada de Laplace de y(t). El par transformada y su trans-


transformada de
Laplace!inversa formada inversa están están bien definidas si existe σ ∈ R, y una constante
transformada de positiva k < ∞ tales que:
Laplace!región de convergencia
fracciones parciales
función de transferencia |y(t)| < keσt ; ∀t ≥ 0 (7.3)
ecuación diferencial! del
sistema La región <{s} ≥ σ se conoce como la región de convergencia de la
EDS transformada.
Suponemos que el lector ha conocido estas ideas anteriormente en algún
curso de Matemáticas, a pesar de lo cual se presenta en el Apéndice D una
revisión de la transformada de Laplace, sus propiedades y las transformadas
de algunas funciones simples. También se incluye una revisión del método de
fracciones parciales, el cual resulta de utilidad para obtener transformadas de
Laplace inversas para funciones racionales.
En este capı́tulo nos concentraremos en esta transformada como herramienta
para el análisis de los sistemas lineales.

7.2. Aplicación a sistemas lineales: la función de


transferencia
Como ya hemos visto, una gran cantidad y variedad de sistemas de interés,
pueden ser representados mediante un modelo lineal. Como se vio en el Capı́tulo
1, esto se consigue linealizando la o las ecuaciones diferenciales que describen el
comportamiento del sistema en el tiempo en torno a un punto de equilibrio o,
más generalmente, en torno a un punto de operación. Para el caso de sistemas de
una entrada y una salida, el proceso de linealización desemboca en la obtención
de una ecuación diferencial del sistema (EDS), cuya forma general es:

dn y(t) dn−1 y(t) dm


+ a n−1 + . . . + a 0 y(t) = b m u(t) + . . . + b0 u(t) (7.4)
dtn dtn−1 dtm
Cuando se aplica transformada de Laplace a la EDS, usando una de la
propiedades vistas en el Apéndice D, la transformada de la derivada de una
función es:
 ` 
d y(t) ` `−1 − d n−1 y(0− )
L = s Y (s) − s y(0 ) − · · · − (7.5)
dt ` dt n−1
Por tanto, si aplicamos esto a la EDS (7.4) tenemos que:

sn Y (s) + an−1 sn−1 Y (s) + . . . + a0 Y (s)


= bm sm U (s) + . . . + b0 U (s) + f (s, xo ) (7.6)

donde f (s, xo ) es una función que depende de la variable s y de las n condiciones


iniciales de la salida y(t) y sus derivadas. Es importante destacar que:
7.2. APLICACIÓN A SISTEMAS LINEALES: LA FUNCIÓN DE TRANSFERENCIA157

condiciones iniciales
T función de transferencia
f (s, x0 ) = p(s) x0 (7.7) función!racional
función de
donde p(s) es un vector que contiene polinomios en s y x0 es un vector que transferencia!ceros
contiene las condiciones iniciales ya mencionadas. Esta estructura explicita la ceros
linealidad del sistema, puesto que la homogeneidad y superposición respecto de
las condiciones iniciales resulta evidente.
Ahora si suponemos condiciones iniciales iguales a cero, tenemos que:

Y (s) = H(s)U (s) (7.8)


donde se define la función:

B(s)
H(s) = (7.9)
A(s)
que se forma con los polinomios que contienen los coeficientes de la ecuación
(7.4) original:

A(s) = sn + an−1 sn−1 + . . . + a0 (7.10)


m m−1
B(s) = bm s + bm−1 s + . . . + b0 (7.11)

La función racional H(s) es la función de transferencia en el dominio


de Laplace. La representación (7.9) es muy útil para describir caracterı́sticas
y propiedades de un sistema tales como estabilidad y velocidad, además de
entregar información en el momento de diseñar sistemas de control, filtros u
otras aplicaciones.

Ejemplo 7.1. Consideremos un sistema descrito por la ecuación diferencial:

d 2y dy
2
+2 = u(t) (7.12)
dt dt
Su función de transferencia es:

1
H(s) = (7.13)
s2 + 2s
222

A continuación definiremos algunos conceptos que se encuentran fuertemente


ligados a la definición de la función de transferencia de un sistema. Para esto
consideremos su definición dada por las ecuaciones (7.9), (7.10) y (7.11). Por
simplicidad, asumiremos que los polinomios B(s) y A(s) no se hacen cero si-
multáneamente para algún valor de la variable compleja s. Ası́, definimos en-
tonces los siguientes términos:

(i) Las m raı́ces de la ecuación B(s) = 0 son los ceros del sistema. Ellos
hacen además que H(s) = 0.
158CAPÍTULO 7. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA

función de transferencia!polos (ii) Las n raı́ces de la ecuación A(s) = 0 son los polos del sistema. Ellos hacen
polos
función de además que H(s) → ∞.
transferencia!multiplicidad
multiplicidad (iii) Si A(s) = 0 tiene nk raı́ces en s = λk , decimos que el polo λk tiene
función de multiplicidad nk .
transferencia!grado relativo
grado relativo
(iv) Lapropia
función de transferencia!estrictamente diferencia de grado entre A(s) y B(s), es decir, m − n se denomina el
función de grado relativo del sistema.
transferencia!bipropia
función de transferencia!propia
función de
(v) Si m < n decimos que el modelo es estrictamente propio. Esto implica
transferencia!impropia que el grado relativo del sistema es positivo.
sistema! estable
entrada (vi) Si m = n decimos que el modelo es bipropio. Esto implica que el grado
salida
respuesta! a impulso
relativo del sistema es cero.
impulso! respuesta a
(vii) Si m ≤ n decimos que el modelo es propio.

(viii) Si m > n decimos que el modelo es impropio, o que tiene grado relativo
negativo.

Estas definiciones nos ayudarán a apreciar la forma en que se relaciona la


salida de un sistema con su entrada, tal como pone en evidencia la definición
(7.9), pero la simplicidad reside en que la relación se establece mediante la
función racional H(s), es decir, las derivadas han desaparecido. Si bien para
llegar a esta relación las condiciones iniciales se han supuesto cero, sabemos que
en caso de sistemas estables, el efecto de éstas desaparece después de un tiempo.

La función de transferencia de un sistema lineal describe en forma algebraica


sus propiedades de entrada-salida.

En forma similar a aquella que se utilizó en el análisis de Fourier, la función


de transferencia puede ser definida en base a la respuesta a impulso, con condi-
ciones iguales a cero. Si recordamos como se definió al función de transferencia
H(s) al aplicar transformada de Laplace a la EDS del sistema definido en (7.4),
podemos escribir la salida del sistema según la ecuación (7.8). Se puede apre-
ciar que si a ambos lados de esta expresión, se aplica transformada de Laplace
inversa, tenemos que (vea la Tabla D.1 en la página 414):

Y (s) = H(s)U (s) ⇐⇒ y(t) = h(t) ∗ u(t) (7.14)

En que:

h(t) = L−1 {H(s)} (7.15)


Por lo tanto, podemos afirmar que:
7.2. APLICACIÓN A SISTEMAS LINEALES: LA FUNCIÓN DE TRANSFERENCIA159

función de transferencia!con
retardo
La función de transferencia H(s) de un sistema de tiempo continuo, definida función!racional
en (7.9), es igual a la transformada de Laplace de la respuesta h(t) del retardo
sistema a un impulso (Delta de Dirac) en la entrada, cuando las condiciones
iniciales cero.

Aunque en la mayorı́a de los casos de interés, la función de transferencia es


una función racional en s. Sin embargo, cuando el sistema tiene un retardo τ ,
la expresión general para la función de transferencia es:

B(s) −sτ
H(s) = e (7.16)
A(s)

La funcion de tranferencia en Matlab puede definirse mediante vectores


con los coeficientes de los polinomios A(s) y B(s), y el comando tf :

Matlab

>> A=[1 3 2],B=[1 1]

A =
1 3 2

B =
1 1

>> H=tf(B,A)

Transfer function:
s + 1
-------------
s^2 + 3 s + 2

O bien, definiendo la variable s:


160CAPÍTULO 7. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA

delta de Dirac! en
frecuencia Matlab

>> s=tf([1 0],[1])

Transfer function:
s

>> H=(s+1)/(s^2+2*s+1)

Transfer function:
s + 1
-------------
s^2 + 2 s + 1

7.2.1. Función de transferencia en dominios de Laplace y


Fourier
Cuando el sistema tiene frecuencias naturales en el SPI cerrado, con la re-
stricción que aquellas frecuencias en el eje imaginario sean simples, las funciones
de transferencia en ambos dominios existen. El elemento común es conceptual:
en ambos casos, la función de transferencia corresponde a la respec-
tiva transformada de la respuesta a impulso con condiciones iniciales
iguales a cero.
La definición y la estructura de H(s) parecen ser idénticas a la definición y la
estructura de la función de transferencia en el dominio de Fourier, bastando hac-
er una simple sustitución de s por  ω. Sin embargo, esto no siempre es correcto.
La diferencia es que cuando el sistema tiene frecuencias naturales (simples) en
el eje imaginario, la función de transferencia en Fourier incluye deltas de Dirac
en frecuencia. Esto se origina en el hecho que la respuesta a impulso del sistema
contiene modos naturales que no decaen y para los cuales la transformada de
Fourier existe sólo en el lı́mite. En cambio, para el mismo sistema, la función de
transferencia en Laplace no contiene impulsos en frecuencia, debido a que esta
transformada está bien definida, bastando escoger <{s} > 0.

Ejemplo 7.2. Consideremos el sistema con la EDS:

d 2 y(t) d y(t)
+ a1 + y(t) = u(t) (7.17)
dt 2 dt
donde a1 ≥ 0.
La función de transferencia, en el dominio de Laplace, es:

1
HL (s) = ; ∀<{s} > 0 (7.18)
s2 + a 1 s + 1
En cambio, en el caso de Fourier, debemos distinguir dos casos.
7.3. RESPUESTA A IMPULSO Y RESPUESTA A ESCALÓN. 161

(i) Caso a1 > 0 : impulso!respuesta a


escalón!respuesta a
En este caso, las frecuencias naturales están en el SPI abierto, por lo respuesta!a impulso
tanto, los modos naturales son absolutamente integrables y la función de respuesta!a escalón
modos!naturales
transferencia en el dominio de la transformación de Fourier es:

1
HF ( ω) = (7.19)
( ω)2 + a1  ω + 1

En este caso:

HF ( ω) = HL (s)|s= ω (7.20)

(ii) Caso a1 = 0 :
En este caso, las frecuencias naturales están sobre el eje imaginario y los
modos naturales combinados corresponden a una sinusoide. Más especı́fi-
camente, la respuesta a impulso, con condiciones iniciales iguales a cero
es:

h(t) = sen(t)µ(t) (7.21)

En consecuencia (vea la Tabla C.2 en la página 389, con ωo = 1) la función


de transferencia en el dominio de la transformación de Fourier es:

jπ 1
HF ( ω) = (δ(ω + 1) − δ(ω − 1)) + (7.22)
2 ( ω)2 + 1

Se observa que, en este caso, no se cumple (7.20).

222

La relación entre transformada de Fourier y transformada de Laplace puede


ser resumida en la siguiente afirmación:

Las transformaciones de Laplace y Fourier son equivalentes, via la relación


s =  ω, en aquellos casos en que la transformada de Laplace existe para
<{s} > σ, donde σ < 0.

7.3. Respuesta a impulso y respuesta a escalón.


Como ya hemos visto, la función de transferencia está asociada a la respuesta
a impulso del sistema. Por otro lado sabemos que si se aplica un impulso a la
entrada, la respuesta contiene solamente los modos naturales del sistema; esto
nos permite estudiar su comportamiento natural, que es independiente de la
162CAPÍTULO 7. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA

valor final señal de entrada (caracterı́sticas del transiente, velocidad de respuesta, etc.), a
partir del análisis de la función H(s).
Debido a la idealización implı́cita en la definición de un impulso es mucho
más frecuente estudiar la dinámica natural de un sistema con la ayuda de la
respuesta a escalón, es decir, cuando U (s) = 1/s.
La definición (7.9) nos permite expresar la respuesta a escalón unitario
del sistema como:

1
Y (s) = H(s) (7.23)
s
Lo cual, suponiendo que el sistema no tiene polos en el origen,
corresponde a:

y(t) = y∞ + modos naturales del sistema (7.24)

donde y∞ = H(0), en virtud del Teorema del Valor Final (ver Teorema D.1 en
la página 410). Si el sistema es estable, entonces los modos naturales decaen
exponencialmente a cero. Luego, para sistemas estables, la respuesta en estado
estacionario está dada por la constante y∞ . Note que si H(s) tiene uno o más
ceros en s = 0, entonces y∞ = 0.

Ejemplo 7.3. Consideremos el sistema definido por su EDS:

d 2 y(t) d y(t)
+5 + 4y(t) = 2u(t) (7.25)
dt 2 dt
Si aplicamos transformada de Laplace a ambos lados, suponiendo condiciones
iniciales iguales a cero, podemos obtener la función de transferencia del sistema:

s2 Y (s) + 5sY (s) + 4Y (s) = 2U (s) (7.26)


Y (s) 2
⇒ H(s) = = 2 (7.27)
U (s) s + 5s + 4

La respuesta del sistema cuando u(t) es un Delta de Dirac se obtiene direc-


tamente de H(s)

2
U (s) = L {δ(t)} = 1 ⇒ Y (s) = H(s) = (7.28)
s2 + 5s + 4
Donde podemos aplicar transformada inversa separando en fracciones par-
ciales1 , o bien con ayuda de Maple :

1 Este método se detalla en el Apéndice D.


7.3. RESPUESTA A IMPULSO Y RESPUESTA A ESCALÓN. 163

Maple

>with(inttrans):
>U(s):=laplace(Dirac(t),t,s);
>Y(s):=2/(s^2+5*s+4)*U(s);
>Y(s):=convert(Y(s),parfrac,s);
>y(t):=invlaplace(Y(s),s,t);

U (s) = 1 (7.29)
2
Y (s) = (7.30)
s2 + 5s + 4
 
2 1 −1
Y (s) = + (7.31)
3 s+1 s+4
2 2
y(t) = e−t − e−4t (7.32)
3 3
La respuesta a escalón unitario se puede obtener de manera similar
1 2 1
U (s) = L {µ(t)} = ⇒ Y (s) = 2 · (7.33)
s s + 5s + 4 s
Donde se aplica transformada inversa:

Maple

>with(inttrans):
>U(s):=laplace(Heaviside(t),t,s);
>Y(s):=2/(s^2+5*s+4)*U(s);
>y(t):=invlaplace(Y(s),s,t);

1
U (s) = (7.34)
s
2
Y (s) = (7.35)
s(s + 1)(s + 4)
1 2 1
y(t) = − e−t + e−4t (7.36)
2 3 6
En la Figura 7.1 se puede apreciar tanto la respuesta a escalón recién obteni-
da ası́ como la respuesta impulso. Estas se generaron en Matlab, con los co-
mandos impulse y step, que usan como argumento el sistema definido mediante
su funcion de transferencia:
164CAPÍTULO 7. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA

Matlab

>>G=tf([2],[1 5 4]);
>>subplot(2,1,1),impulse(G);
>>subplot(2,1,2),step(G);

Impulse Response

0.4

0.3
Amplitude

0.2

0.1

0
0 1 2 3 4 5 6
Time (sec.)

Step Response

0.5

0.4
Amplitude

0.3

0.2

0.1

0
0 1 2 3 4 5 6
Time (sec.)

Figura 7.1: Respuestas a impulso y a escalón en Ejemplo 7.3

222
Es útil definir también un conjunto de parámetros que describen ciertas
propiedades de la dinámica del sistema. Para identificar estos parámetros a
definir consideremos la función de transferencia dada por:
−s + 1
G(s) = 9 (7.37)
s2 + 4s + 9
La respuesta a escalón del sistema se muestra en la Figura 7.2. Entonces
podemos definir los siguientes ı́ndices:

Respuesta estacionaria, y∞ : el valor final de la respuesta a escalón, siempre


y cuando el sistema tiene sus polos en el SPI abierto.
7.3. RESPUESTA A IMPULSO Y RESPUESTA A ESCALÓN. 165

y +M
∞ p

y∞+δ
y

k y y∞−δ
r ∞

−Mu

tu tr tp ts
Tiempo

Figura 7.2: Índices definidos en la respuesta a escalon

Tiempo de Subida (Rise time), tr : el instante de tiempo en que la res-


puesta a escalón alcanza por primera vez el valor de la respuesta esta-
cionaria y∞ .2

Sobre-respuesta (Overshoot), Mp : el valor máximo que alcanza la respues-


ta a escalón, usualmente expresado como el porcentaje en que se sobrepasa
la respuesta estacionaria y∞ .

Máxima contra-respuesta (Undershoot), Mu : el máximo (en valor abso-


luto) que la respuesta a escalón alcanza bajo el cero.

Tiempo de asentamiento (Settling time), ts : el tiempo luego del cual la


respuesta a escalón queda confinada a una banda de desviación ±δ, alrede-
dor del respuesta estacionaria. Esta deviación, δ, se define generalmente
como un porcentaje de y∞ , del 2 % o 5 %.

Para el ejemplo en particular, definido en la ecuación (7.37) y cuya respuesta


a escalón se muestra en la Figura 7.2, el valor de los ı́ndices definidos se muestran
en la Tabla 7.1.3
2 Esta definición varı́a de autor a autor, por tanto debe tenerse claro de qué se está hablando

al utilizarla.
3 Note que para este ejemplo en particular, hemos elegido un valor inusualmente grande

para δ, para una mejor visualización.


166CAPÍTULO 7. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA

Indice Definición Valor en el ejemplo


y∞ respuesta estacionaria 1
tr tiempo de subida 1.0
Mp sobre-respuesta 0.5
Mu máx. contra-respuesta 1.5
ts tiempo de asentamiento 1.8

Cuadro 7.1: Índices de la respuesta a escalón

7.4. Respuesta a condiciones iniciales y señales


arbitrarias.
De la misma manera que en la sección precedente se obtuvo las respuestas
a impulso y a escalón del sistema, la transformada de Laplace permite obtener
la respuesta del sistema cuando la entrada en un tipo más general de señales.
Sin embargo, la ventaja principal que esta transformada, a diferencia de la
transformada de Fourier, permite incluı́r el efecto de las condiciones iniciales.
Veamos para esto el siguiente ejemplo:

Ejemplo 7.4. Consideremos el sistema definido por su EDS:

d 2 y(t) d y(t)
+ + y(t) = u(t) (7.38)
dt 2 dt

Obtengamos primero la salida del sistema cuando la entrada u(t) es cero, y


tenemos condiciones iniciales y(0− ) = 1 e y 0 (0− ) = 1. Si aplicamos transfor-
mada de Laplace, recordando la propiedad (7.5), tenemos que:

s2 Y (s) − sy(0− ) − y 0 (0− ) + sY (s) − y(0− ) + Y (s) = 0 (7.39)


2
s Y (s) − s − 1 + sY (s) − 1 + Y (s) = 0 (7.40)
2
Y (s)(s + s + 1) = s + 2 (7.41)
s+2
Y (s) = 2 (7.42)
s +s+1

Donde, para aplicar la inversa, podemos observar que la transformada que


aparece no puede separarse directamente en fracciones parciales, pues sus polos
son complejos, pero si pueden llevarse a la forma de la transformada del seno
y del cosenos con un corrimiento en s. Este corrimiento corresponde a una
exponencial en el tiempo (vea (D.26) en el Apéndice D):
7.4. RESPUESTA A CONDICIONES INICIALES Y SEÑALES ARBITRARIAS.167

s+2
Y (s) = (7.43)
(s + 12 )2 + 3
4

3
s + 12 √ 2
= + 3 (7.44)
(s + 12 )2 + 3
4 (s + 1 2
2) + 3
4

Por tanto, la respuesta a las condiciones iniciales dadas es:


1
√  √ 1
√ 
y(t) = e− 2 t cos 23 t + 3 e− 2 t sen 23 t (7.45)
En la Figura 7.3 se puede apreciar el punto de partida y la pendiente inicial
de la señal y(t).

1
y(t)

0.5

0 1 2 3 4 5 6 7 8 9 10
t [seg]

Figura 7.3: Respuesta a condiciones iniciales para el ejemplo 7.4

Es importante recalcar en este ejemplo que las condiciones iniciales que se


insertan en los cálculos al aplicar la transformada de Laplace corresponden a
las de la señal en t = 0− . Es decir, son los valores de la función y(t) y de su
derivada justo antes que el sistema comience a evolucionar bajo el efecto de
la entrada (que, en el ejemplo previo, es cero). Este alcance es importante pues,
en ciertos casos, se puede producir una discontinuidad en la salida del sistema
en el instante t = 0, es decir, y(0+ ) 6= y(0+ ). Veamos esto en un ejemplo.
Ejemplo 7.5. Considere la red eléctrica de la Figura 7.4 en que se conecta la
baterı́a de 1[V] en t = 0, y todas las condiciones iniciales son cero.
Por ley de voltajes de Kirchoff tenemos:

vf (t) = vR (t) + vC (t) (7.46)


Z
1 t
µ(t) = Ri(t) + i(τ )dτ (7.47)
C −∞
Derivando a ambos lados y aplicando la transformada de Laplace, con condi-
ción inicial cero:
168CAPÍTULO 7. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA

valor inicial R

+
vf (t) C vc (t)
i(t)

Figura 7.4: Circuito RC

d µ(t) d i(t) 1
=R + i(t) (7.48)
dt dt C
1   1
s = R sI(s) − i(0− ) + I(s) (7.49)
s C
Despejando se obtiene:
C
I(s) = (7.50)
s RC + 1
Si aplicamos el Teorema del Valor Inicial (vea Apéndice D), tenemos que:
sC 1
i(0+ ) = lı́m sI(s) = lı́m = (7.51)
s→∞ s RC + 1
s→∞ R
Evidentemente esta es diferente a la corriente inicial, dada en t = 0 − . Esto
se comprueba observando que la transformada inversa de I(s) es discontinua en
t = 0:
 
1/R 1
i(t) = L−1 {I(s)} = L−1 = e−t/RC µ(t) (7.52)
s + 1/RC R
222
Consideremos ahora el caso en que la entrada es una señal arbitraria.
Ejemplo 7.6. Consideremos el mismo sistema del Ejemplo 7.5, pero en que
ahora la entrada es un pulso definido como:
(
1 ; 0 ≤ t ≤ 10
u(t) = (7.53)
0 ; t > 10
Las condiciones iniciales son iguales a cero, por simplicidad. Note que no
habrı́a problemas en considerar el efecto de éstas, ya sea incluyéndolas en el
desarrollo mediante transformada de Laplace, o bien, dada la linealidad del sis-
tema, se calculando su efecto en la salida por separado y sumandolo al efecto de
la señal de entrada.
La función de transferencia del sistema, si se aplica transforma de Laplace,
es:
7.4. RESPUESTA A CONDICIONES INICIALES Y SEÑALES ARBITRARIAS.169

Y (s) 1
H(s) = = 2 (7.54)
U (s) s +s+1
La transformda de Laplace del pulso u(t) puede obtenerse sin problema, ya
que esta función se expresa en términos de escalones y se puede utilizar la
propiedad de corrimiento temporal, que se traduce en una exponencial en s (vea
(D.23) en el Apéndice D):

L {f (t − t0 )µ(t − t0 )} = e−st0 F (s)


Por tanto:
1 1
u(t) = µ(t) − µ(t − 10) ⇒ U (s) = − e−10s (7.55)
s s
Luego, la transformada de la salida es:

1 − e−10s
Y (s) = H(s)U (s) = (7.56)
s(s2 + s + 1)
Note que para obtener la inversa, dado que la exponencial sólo representa un
corrimiento en el tiempo, podemos concentrarnos sólo en la parte racional de
Y (s), para luego aplicarle dicha traslación temporal. Es decir, consideremos:


3
1 1 s+1 1 s + 12 1 2
F (s) = = − = − − √
s(s2 + s + 1) s s2 + s + 1 s (s + 12 )2 + 3
4 3 (s + 12 )2 + 43
(7.57)
Donde se observa que tenemos la forma de la transformada de un escalón,
del seno y del coseno, éstas últimas con un corrimiento en la variable s. Este
corrimiento en s corresponde a una exponencial en el tiempo (Apéndice D), por
lo tanto:
  √   √ 
− 21 t 3 1
f (t) = 1 − e cos 2 t + √ sen 23 t µ(t) (7.58)
3
Luego la salida es:

y(t) = L−1 (1 − e−10s )F (s) = f (t) − f (t − 10) (7.59)
Es decir:

  √   √ 
1 1
y(t) = 1 − e− 2 t cos 23 t + √ sen 23 t µ(t)
3
  √  √ 
1 1
− 1 − e− 2 (t−10) cos 23 (t − 10) + √ sen 23 (t − 10) µ(t − 10)
3
(7.60)
En la Figura 7.5 se muestra el pulso de entrada u(t) y la salida del sistema,
y(t), ante esta excitación.
170CAPÍTULO 7. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA

1.5

u(t) − y(t)
0.5

−0.5
0 2 4 6 8 10 12 14 16 18 20
t [seg]

Figura 7.5: Pulso de entrada y respuesta del sistema del ejemplo 7.6.

Para finalizar, veamos un caso en que la transformada de Laplace permite,


de manera similar a la transformada de Fourier, analizar la respuesta de un
sistema a una señal sinusoidal.

Ejemplo 7.7. Consideremos nuevamente el sistema del Ejemplo 7.4 definido


por su EDS:

d 2 y(t) d y(t)
+ + y(t) = u(t) (7.61)
dt 2 dt

Supongamos que como entrada al sistema se elige una señal sinusoidal de


frecuencia ω, por ejemplo:

u(t) = cos(ωt) (7.62)

Con esto y con ayuda de Maple podemos llegar de manera directa a una
expresión para la transformada de Laplace de la salida y aplicarle transformación
inversa:

Maple

>with(inttrans):
>assume(omega>0):
>U(s):=laplace(cos(omega*t),t,s);
>H(s):=1/(s^2+s+1);
>Y(s):=H(s)*U(s);
>y(t):=invlaplace(Y(s),s,t);
7.5. ESTABILIDAD 171

respuesta en frecuencia
estabilidad
s
U (s) = (7.63)
s2 + ω 2
1
H(s) = 2 (7.64)
s +s+1
s 1
Y (s) = 2 2
· 2 (7.65)
s +ω s +s+1
1 − ω2 ω
y(t) = cos(ωt) + sen(ωt) + {modos naturales}
−ω + 1 + ω 4
2 −ω 2 + 1 + ω 4
(7.66)

Los modos naturales del sistema decaen a cero cuando t → ∞, por tanto
podemos concentrarnos sólo en la componente particular de la salida. Las com-
ponentes seno y coseno pueden combinarse en un solo término:

y(t) = A(ω) cos (ωt + φ(ω)) + {modos naturales} (7.67)


En que A(ω) y φ(ω) son la amplitud y ángulo de desfase, respectivemente
definidos por:

1
A(ω) = √ (7.68)
−ω 2
+ 1 + ω4
 
−ω
φ(ω) = − arctan (7.69)
1 − ω2

En estas expresiones se aprecia como la amplitud y la fase de la señal de


salida dependen de la frecuencia ω, es decir, corresponden a la respuesta en
frecuencia del sistema. Esto se grafica en la Figura 7.6, con los comandos de
Matlab :

Matlab

>>H=tf(1,[1 1 1]); w=[0:0.01:5];


>>h=freqresp(H,w);hw=h(:);
>>subplot(2,1,1);plot(w, abs(hw));
>>subplot(2,1,2);plot(w, unwrap(angle(hw))*180/pi);

222

7.5. Estabilidad
Hasta aquı́ hemos visto que la respuesta de un sistema que tiene una función
de transferencia H(s) es de la forma:
172CAPÍTULO 7. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA

multiplicidad! polos 1.4


lı́mite de estabilidad
1.2
SPI
1

Magnitud
0.8

0.6

0.4

0.2

0
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5

−50
Fase

−100

−150

−200
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
Frecuencia [rad/s]

Figura 7.6: Magnitud y fase de la respuesta en frecuencia del sistema en Ejemplo


7.7.

p X
nk
X βki
Y (s) = H(s)U (s) + (7.70)
(s − λk )i
k=1 i=1

Donde el valor de cada βki depende de las condiciones iniciales, y donde


hemos asumido que cada polo ubicado en s = λk , tiene multiplicidad nk . Esta
suposición implica a su vez que n1 + n2 + . . . + np = n.
Recordando la definición de estabilidad, un sistema es estable si cualquier
entrada acotada produce una salida también acotada, para cualquier condición
inicial acotada. Si observamos la ecuación (7.70) podemos afirmar que la condi-
ción necesaria y suficiente para que el sistema sea estable es que los polos de
éste, en el denominador de las fracciones del segundo término de la ecuación,
den origen a señales que decaigan exponencialmente. Esto se traduce en que los
polos del sistema deben tener parte real estrictamente negativa, es decir, deben
estar ubicados sobre el semiplano izquierdo (SPI) abierto del plano com-
plejo s . Es decir, para sistemas continuos el lı́mite de estabilidad en un plano
complejo s en que se ubican sus polos es el eje imaginario .

Ejemplo 7.8. Consideremos el sistema del ejemplo 7.1. Los polos de su función
de transferencia están ubicados en s = −2 y s = 0. Estos no están en el SPI
abierto (el 0 está en el SPI cerrado). Por tanto el sistema no es estable. Se
7.5. ESTABILIDAD 173

deja al lector el verificar, usando la transformada de Laplace, que una entrada Hurwitz!polinomio
constante (diferente de cero) produce una salida que crece indefinidamente.
222

7.5.1. Análisis de polinomios


La discusión anterior pone de manifiesto la importancia de conocer la ubi-
cación de los polos de un sistema, para establecer si se trata o no de un sis-
tema estable. Sin embargo, el determinar la ubicación exacta de las raı́ces de la
ecuación:

A(s) = sn + an−1 sn−1 + . . . + a0 = 0 (7.71)


puede ser una tarea bastante engorrosa cuando n ≥ 3. Por esto en el análisis del
polinomio A(s), más que determinar exactamente sus raı́ces, lo que nos interesa
es poder asegurar si éstas tienen o no parte real estrictamente negativa. Para
esto, consideremos el polinomio p(s) definido como:

p(s) = sn + an−1 sn−1 + . . . + a1 s + a0 (7.72)


donde ai ∈ R.
El problema a estudiar se refiere a determinar si este polinomio tiene o no
todas sus raı́ces con parte real estrictamente negativa, o de manera equivalente,
si tiene o no raı́ces con parte real mayor o igual que cero. La idea puede nat-
uralmente ser resuelta calculando las n raı́ces de p(s). Sin embargo en muchas
aplicaciones resulta de especial interés estudiar la relación entre los coeficientes
del polinomio con la ubicación de sus raı́ces.
Los polinomios que tienen todas sus raı́ces en el semiplano izquierdo cerrado
se conocen como polinomios Hurwitz. Si sus raı́ces tienen parte real estric-
tamente negativa, es decir, se ubican sobre el SPI abierto, los denominaremos
estrictamente Hurwitz .
De la ecuación (7.72) podemos observar interesantes propiedades que por
supuesto son válidas para los polinomios en general. Las que nos interesan en
este caso son aquellas que nos entregan información sobre el signo de la parte
real de las raı́ces, como las que se detallan a continuación:
Propiedad 1 El coeficiente an−1 cumple con:

n
X
an−1 = − λi (7.73)
i=1

donde λ1 , λ2 , . . . λn son las raı́ces de p(s).


Esta propiedad es directa de notar que el polinomio p(s) puede escribirse
como:

n
Y
p(s) = (s − λi ) (7.74)
i=1
174CAPÍTULO 7. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA

entonces, al expandir el producto (7.74) y observar el coeficiente que acom-


paña a la potencia (n − 1)-ésima de s, se obtiene (7.73).
Propiedad 2 El coeficiente a0 cumple con:

n
Y
a0 = (−1)n λi (7.75)
i=1

Esta propiedad también se obtiene de expandir el producto (7.74) y ob-


servando el término constante.
Propiedad 3 Si todas las raı́ces de p(s) tienen parte real negativa, entonces es
necesario que ai > 0, ∀i ∈ {0, 1, . . . , n − 1}.
Para demostrar esta propiedad procedemos de la siguiente forma:

a) Las raı́ces de p(s) pueden ser reales o complejas, y si complejas deben


aparecer en pares conjugados (dado que p(s) es un polinomio con
coeficientes reales).
b) En base a lo anterior, y sin pérdida de generalidad, podemos suponer
que existen n1 raı́ces reales y n2 pares de raı́ces complejas. Por lo
tanto n1 + 2n2 = n.
c) Si todas las raı́ces tienen parte real negativa, entonces se pueden ex-
presar como:
λi = −|αi | i = 1, 2, . . . , n1 (7.76)
λn1 +i = λ∗n1 +n2 +i = −|σi | + jωi i = 1, 2, . . . , n2 (7.77)

d) De esta forma, tenemos que


n1
Y n2
Y
p(s) = (s + |αi |) (s + |σl |)2 + ωl2 (7.78)
i=1 l=1

donde, la segunda productoria ha agrupado, en factores cuadráticos,


los pares conjugados.
e) De (7.78) se observa que p(s) corresponde al producto de polinomios de
primer y segundo orden, los que tienen todos sus coeficientes reales
y positivos. Como los coeficientes de p(s) son suma de productos de
los coeficientes de estos polinomios de primer y segundo orden, la
propiedad queda demostrada.

Note que esta propiedad es necesaria para que p(s) sea un polinomio estri-
camente Hurwitz, pero no suficiente, excepto en el caso en que n = 1
y n = 2.
Propiedad 4 Si alguno de los coeficientes es negativo o cero, entonces una
o más raı́ces de p(s) tiene parte real negativa o cero. Esta propiedad se
deduce directamente de la propiedad anterior.
7.5. ESTABILIDAD 175

Además de los criterios que nos entregan las propiedades anteriores, uno de Routh!algoritmo
los métodos clásicos para determinar la naturaleza Hurwitz de un polinomio es
el algoritmo de Routh, también conocido como algoritmo o criterio de Routh-
Hurwitz, que a continuación se explica.
Consideremos un polinomio p(s) de grado n, definido como
n
X
p(s) = ai s i (7.79)
i=0

sn γ0,1 γ0,2 γ0,3 γ0,4 ...


sn−1 γ1,1 γ1,2 γ1,3 γ1,4 ...
sn−2 γ2,1 γ2,2 γ2,3 γ2,4 ...
sn−3 γ3,1 γ3,2 γ3,3 γ3,4 ...
sn−4 γ4,1 γ4,2 γ4,,3 γ4,4 ...
.. .. .. .. ..
. . . . .
s2 γn−2,1 γn−2,2
s1 γn−1,1
s0 γn,1

Cuadro 7.2: Arreglo de Routh

El algoritmo de Routh se basa en la construcción del arreglo numérico que se


muestra en la Tabla 7.2. donde los términos de las dos primeras filas se calculan
según:

γ0,i = an+2−2i ; i = 1, 2, . . . , m0 (7.80)


γ1,i = an+1−2i ; i = 1, 2, . . . , m1 (7.81)

con m0 = (n + 2)/2 y m1 = m0 − 1 para n par y m1 = m0 para n impar.


Mientras que los términos de la tercera fila en adelante se calculan según

γk−1,1 γk−2,j+1 − γk−2,1 γk−1,j+1


γk,j = ; k = 2, . . . , n j = 1, 2, . . . , mj
γk−1,1
(7.82)
donde mj = máx{mj−1 , mj−2 } − 1, mientras que se asigna valor cero al coefi-
ciente γk−1,j+1 , cuando no está definido en el arreglo de Routh 7.2.
Una vez construı́do el arreglo de Routh podemos aplicar el siguiente resul-
tado:
176CAPÍTULO 7. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA

Dado un polinomio p(s) como el definido en (7.79) y el arreglo asociado a


él 7.2, entonces el número de raı́ces de p(s) con parte real mayor que cero
es igual a número de cambios de signo en la primera columna del arreglo.

Ejemplo 7.9. Para ilustrar el uso del algoritmo de Routh-Hurwitz consideremos


el siguiente sistema:

d 3 y(t) d 2 y(t) d y(t)


+ +2 + 3y(t) = u(t) (7.83)
dt 3 dt 2 dt
Su función de transferencia está dada por:

Y (s) 1
H(s) = = 3 2
(7.84)
U (s) s + s + 2s + 3
Por tanto, para la estabilidad debemos analizar las raı́ces del polinomio de-
nominador:

p(s) = s3 + s2 + 2s + 3 (7.85)
El arreglo de Routh en este caso es:

s3 1 2
s2 1 3
2−3
s1 1 = −1 0
s0 3 0

Donde se observa de inmediato que en la primera columna aparece un −1,


por tanto existen raı́ces con parte real positiva. Lo que se puede confirmar, por
ejemplo, con ayuda de Matlab. Este permite obtener las raı́ces de un polinomio
dados sus coeficientes, mediante el comando roots :

Matlab

>> roots([1 1 2 3])

ans =
0.1378 + 1.5273i
0.1378 - 1.5273i
-1.2757

222
7.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL 177

7.6. Polos, ceros y la respuesta temporal función de transferencia!grado relati


fase mı́nima
ceros!fase no mı́nima
A continuación examinaremos algunas propiedades fundamentales de los po- función de transferencia! estable
los y ceros de la función de transferencia de un sistema, y su influencia sobre polos
las caracterı́sticas de la respuesta de un sistema lineal. fracciones parciales
Consideremos una función de transferencia de la forma general:
Qm
(s − βi )
H(s) = K Qni=1 (7.86)
l=1 (s − αl )

donde αl ∈ C y βi ∈ C. Si suponemos que no hay valores de l y de i tales que


αl = βi entonces, β1 , β2 , . . . , βm and α1 , α2 , . . . , αn son los ceros y los polos de
la función de transferencia, respectivamente. El grado relativo, antes definido es
4
nr = n − m.
Estaremos particularmente interesados en aquellos ceros ubicados en el eje
imaginario o en su cercanı́a, y en aquellos polos ubicados en el semiplano derecho.
Los polos y ceros ubicados en estas regiones juegan un rol fundamental en la
dinámica del sistema.
Una clase especial de función de transferencia es aquella que tiene todos sus
ceros y sus polos en el semiplano izquierdo (SPI) del plano complejo s . Tradi-
cionalmente estas se denominan funciones de transferencia de fase mı́nima.
Sin embargo, de aquı́ en adelante usaremos este nombre para referirnos simple-
mente a funciones de transferencia sin ceros en el semiplano derecho (SPD),
que tengan o no polos en él. Diremos que un cero tiene fase no mı́nima si se
encuentra ubicado en el SPD cerrado, de otra forma se denominará cero de fase
mı́nima. Si hablamos de una función de transferencia estable nos referimos
a que todos sus polos se ubican sobre el SPI abierto; si decimos que inestable, es
porque al menos uno de sus polos se encuentra en el SPD cerrado. Los polos en
si mismos también se pueden denominar estables o inestables, si se encuentran
dentro o fuera del SPI abierto,respectivamente 4 .
A continuación examinaremos la influencia sobre la respuesta transiente de
un sistema de los polos y ceros de su función de transferencia.

7.6.1. Polos
Como el lector recordará de sus cursos de matemáticas, una función racional
siempre puede descomponerse en fracciones parciales, tal es el caso también de
la función de transferencia de un sistema en la variable s. Cada uno de los
términos de esta expansión contiene ya sea un polo real simple, un par de polos
complejos conjugados o múltiples combinaciones de polos repetidos. Por tanto,
para conocer el efecto de los polos en la respuesta transiente de un sistema
basta conocer el efecto ocasionado por los polos de primer y segundo orden y
su interacción.
4 En ocasiones, por abuso de lenguaje, los ceros de fase no mı́nima tambiés se les denomina

ceros inestables, dado que se encuantran al la región del plano s en que los polos son inestables.
178CAPÍTULO 7. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA

polos!rápidos Un polo de primer orden contribuye a la descomposición en fracciones par-


polos!dominantes
polos!lentos ciales, en general, con un término de la forma:
K1
H1 (s) = (7.87)
τ1 s + 1
Mientras que un polo de segundo orden contribuye a la expansión con un
término:
K2
H2 (s) =  2   (7.88)
s s
+ 2ψ +1
ωn ωn
Cada polo genera un término especı́fico que coincide justamente con cada uno
de los modos naturales en la respuesta del sistema a un impulso en la entrada.
Estos modos están presentes también en la respuesta a cualquier entrada al
sistema (excepto en casos muy excepcionales cuando hay coincidencia de polos
con ceros). El tipo de modo natural asociado a cada polo de un sistema depende
de la ubicación de éste sobre el plano complejo s , exactamente equivalente a la
ubicación de cada frecuencia natural λ sobre un plano complejo, como se vió en el
Capı́tulo 3 3. Para ilustrar esto podemos apreciar en la Figura 7.7 las diferentes
respuestas a impulso de un sistema que tiene por función de transferencia:

1
H1 (s) = (7.89)
s−p
para los polos ubicados sobre el eje real, y
1
H2 (s) =   (7.90)
s − (a + bj) s − (a − bj)
para los polos complejos, que aparecen emparejados con su conjugado.
Tanto la ubicación en el plano complejo de los polos de un sistema, como las
caracterı́sticas por esta determinada, están en directa relación con las frecuencias
naturales que se pueden obtener a partir de la EDS del sistema.
En virtud de estas analogı́as es que nos referiremos, en general, como polos
rápidos a aquellos que se encuentran más alejados del lı́mite de estabilidad que
los demás polos del sistema. Esto es equivalente que considerar que la respuesta
transiente asociada a estos polos desaparece más rápido que aquella asociada
a los otros polos, tal como puede apreciarse en la Figura 7.7 al comparar la
respuesta a impulso de un sistema con un polo en p2 = −4 con las demás.
Por otro lado llamaremos polos dominantes o polos lentos a aquellos que se
encuentran en el SPI abierto, pero más cercanos al lı́mite de estabilidad que el
resto de los polos de sistema. Esto equivale a decir que el transiente asociado
a los polos dominantes decae más lento que los demás modos naturales, como
también puede apreciarse en la figura 7.7, para el polo en p1 .
Por ejemplo, si tenemos un sistema cuyos polos están ubicados en (−1; −2 ±
j6; −4; −5 ± j3), podemos decir que el polo dominante es −1 y los polos rápidos
son los que se encuentran en −5 ± j3.
7.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL 179

p2 p1 p0 p3 p4

Figura 7.7: Respuesta a impulso de diferentes sistemas de acuerdo a la ubicación


de sus polos en el plano complejo
180CAPÍTULO 7. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA

ceros 7.6.2. Ceros


controlabilidad
observabilidad En general, el efecto de la ubicación de los polos en la dinámica de un
sistema puede entenderse sin demasiada dificultad dada su directa relación con
la estabilidad y las caracterı́sticas generales de la respuesta del sistema. De hecho
en la literatura sobre sistemas y su estabilidad se puede encontrar mucha más
información que la aquı́ detallada.
Por el contrario, el efecto de los ceros en el análisis del comportamiento de
un sistema a menudo ha sido subestimado. Sin embargo, en los últimos años se
ha retomado el estudio del efecto de los ceros sobre la respuesta de un sistema,
que ahora son reconocidos por su importancia, por ejemplo, al definir criterios
de diseño de sistemas de control.
Es asi como, mientras que los polos de un sistema están asociados a la
presencia de sus modos naturales aislados, los ceros reflejan de algún modo la
interacción entre éstos, por ejemplo, en el caso en que la salida de un sistema
está formada por la suma de modos naturales diferentes. Además, a pesar que
la ubicación de los polos determina los modos naturales de un sistema, es la
ubicación de los ceros la que determina la proporción en que los modos aparecen
combinados en la salida. En estas combinaciones los modos naturales toman
diferente fuerza, pudiendo ser su efecto, en algunos casos, casi imperceptible.
De hecho, la ubicación relativa de polos y ceros tiene directa relación con los
conceptos de observabilidad y controlabilidad, como se detalla en el Capı́tulo
10.
A continuación se presenta un ejemplo ilustrativo.

K
s+1
U (s) Y (s)

αK
s+2

Figura 7.8: Sistema con interacción aditiva entre dos estados

Ejemplo 7.10. Consideremos el sistema de la Figura 7.8, cuya función de


transferencia sistema esta dada por:

 
K αK
Y (s) = + U (s) (7.91)
s+1 s+2
(1 + α)s + (2 + α)
G(s) = K (7.92)
(s + 1)(s + 2)
7.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL 181

Este sistema tiene sus polos en s = −1, −2 y un cero en s = −(2+α) 1+α . Es


cancelación!cuasi-
ceros!rápidos
decir, la ubicación está directamente relacionada con el peso de cada uno de los ceros!lentos
modos naturales en la respuesta del sistema, por ejemplo, a un impulso unitario
en la entrada:

y(t) = K(e−t + αe−2t ) (7.93)


Si tomamos un valor pequeño, α = 0,1, la función de transferencia es:

(s + 1,909)
G(s) = 1,1K (7.94)
(s + 1)(s + 2)
En esta puede observarse la cercanı́a del cero al polo en s = −2. La respuesta
a impulso será en este caso:

y(t) = 1,1K(e−t + 0,1e−2t ) (7.95)


En que se aprecia la pequeña magnitud con que aparece el modo natural más
rápido. Es decir, el cero a medida que se acerca al polo en s = −2 produce
una cuasi-cancelación , que será total cuando α = 0. En este último caso
definitivamente no aparece este modo natural en la salida del sistema, ya que el
polo ha sido cancelado, y la función de transferencia se ha reducido a:

K
G(s) = (7.96)
(s + 1)
Invitamos al lector a estudiar el caso análogo cuando α alcanza valores muy
grandes y cuál es su efecto sobre el otro modo natural del sistema. Además
puede analizarse qué sucede con el sistema cuando el parámetro α toma valores
negativos. ¿Qué pasa si α = −1 o α = −2 ?
222

Al igual como antes se definieron los polos rápidos y lentos de un sistema,


pueden definirse de manera análoga los ceros rápidos y lentos. Ceros rápidos
son aquellos que están más alejados del lı́mite de estabilidad que los polos dom-
inantes del sistema, por otro lado los ceros lentos son aquellos que se encuentran
más cerca del lı́mite de estabilidad que los polos dominantes del sistema. Para
apreciar el efecto de los ceros presentamos el siguiente ejemplo:

Ejemplo 7.11. Efecto de los ceros en la respuesta a escalón.


Considere un sistema cuya función de transferencia es:
−s + c
H(s) = (7.97)
c(s + 1)(0,5s + 1)
Esta estructura de la función de transferencia permite estudiar el efecto de
la ubicación de un cero en la respuesta del sistema sin alterar la ubicación de
los polos ni la ganancia a continua.
En este sistema observamos dos modos naturales: e−t y e−2t . El primero
de éstos estará casi ausente de la respuesta a medida que c se acerca a −1.
182CAPÍTULO 7. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA

undershoot 6
contrarespuesta c=−0.1
respuesta!inversa 4
c=−0.25
2

Respuesta
c=−10
0
c=10
−2 c=0.25

−4 c=0.1

−6
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
Tiempo [s]

Figura 7.9: Efecto de la ubicación de los ceros sobre la respuesta a escalón

Algo análogo sucede para el segundo modo a medida que c se acerca a −2. Esta
situación de cuasi cancelaciones también fue mencionada en el ejemplo anterior
La situación más general se aprecia en la figura 7.9. En esta, se indica el
valos de c al lado de cada una de las respuestas graficadas. Podemos apreciar que
un cero rápido, i.e. |c|  1, no afecta significativamente la respuesta transiente.
Cuando el cero es lento y estable obtenemos un gran overshoot, mientras que
cuando es lento, pero inestable, el undershoot es el que crece en magnitud. El
efecto de los ceros puede parecer demasiado crı́tico en este ejemplo, en que ambos
superan el 400 %, sin embargo, el lector puede verificar que puede ser aún mayor
si el cero es más cercano el origen.
222

7.6.3. Respuesta inversa o contrarespuesta (undershoot)


La Figura 7.2 en la página 165 sugiere que existen casos en los que, en la
presencia de una excitación mayor que cero, la respuesta del sistema se hace
negativa durante algún lapso de tiempo no despreciable. Este comportamiento
también aparece en la Figura 7.9. Un resultado muy fuerte es el siguiente.
Lema 7.1. Considere un sistema lineal estable con función de transferencia
H(s), y con un cero real en s = c, donde c > 0, entonces la respuesta a un
escalón positivo se hace negativa durante uno o más lapsos no despreciables.
Demostración
La respuesta del sistema está dada por:
K
Y (s) = H(s) ; K>0 (7.98)
s
Entonces: Z ∞
K
= y(t)e−st dt;
H(s) <{s} > 0 (7.99)
s 0
Note que la región de convergencia queda determinada, por un lado, por el
hecho que el sistema es estable, por lo cual la transformada de h(t) está bien
7.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL 183

definida para <{s} ≥ 0 y, por otro lado, por el hecho que la respuesta a un factor de amortiguamiento
frecuencia natural!no
escalón está bien definida para <{s} > 0. En consecuencia, la región de conver- amortiguada
gencia para y(t) es <{s} > 0. frecuencia natural!amortiguada
Si ahora, en la ecuación (7.99), hacemos s = c (note que, por ser c > 0,
está en la región de convergencia) obtenemos, aplicando el hecho que H(c) = 0:
Z ∞
K
H(c) = y(t)e−ct dt = 0 (7.100)
c 0

Como la integral es cero, y e−ct > 0, ∀t, necesariamente y(t) debe ser nega-
tiva en uno o más intervalos de tiempo.
222

El lema precedente justifica y asegura la presencia de undershoots, como el


sugerido en la Figura 7.2 en la página 165. Sin embargo, este comportamiento
inverso se puede manifestar en diferentes formas, tal como ilustra la Figura 7.10.

1.5
1 1
Respuesta a escalón

Respuesta a escalón

0.5
0.5 0

−0.5
0 −1

−1.5

−0.5 −2
0 5 10 15 0 2 4 6
Tiempo [s] Tiempo [s]

Figura 7.10: Distintas formas de respuesta inversa

7.6.4. Sistema canónico de segundo orden


Para el caso de un par de polos complejos conjugados, es usual estudiar un
sistema canónico de segundo orden con la función de transferencia:

ωn2
H(s) = (7.101)
s2 + 2ψωn s + ωn2
donde ψ (0 < ψ < 1) es conocido como el factor de amortiguamiento y ωn , como
la frecuencia natural no amortiguada. También definimos, para uso futuro, la
frecuencia natural amortiguada, ωd , como:
p
ωd = ω n 1 + ψ2 (7.102)
Este sistema tiene dos polos complejos conjugados, s1 y s2 , definidos por:
184CAPÍTULO 7. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA

s1,2 = −ψωn ± jωd = ωn e±j(π−β) (7.103)


donde β es el ángulo definido por cos β = ψ.
Para este sistema, la transformada de Laplace de su respuesta a escalón
unitario está dada por:

ωn2 ωn2
Y (s) = = (7.104)
(s2 + 2ψωn s + ωn2 )s [(s + ψωn )2 + ωd2 ] s
Realizando una expansión en fracciones parciales se llega a:

1 s + ψωn ψωn
Y (s) = − 2 − (7.105)
2
s (s + ψωn ) + ωd (s + ψωn )2 + ωd2
p 
1 1 s + ψωn ωd
= −p 1 − ψ2 − ψ
s 1 − ψ2 (s + ψωn )2 + ωd2 (s + ψωn )2 + ωd2
(7.106)

Aplicando, finalmente, la transformada de Laplace inversa obtenemos:

e−ψωn t
y(t) = 1 − p sen(ωd t + β) (7.107)
1 − ψ2
Las caracterı́sticas principales de esta respuesta aparecen in la Figura 7.11,
donde y∞ = 1 y Td = 2π/ωd .

jωd y∞+Mp
ωn
y

β Td
−ψωn

−jωd
tr tp

Figura 7.11: Localización de los polos y respuesta a escalón unitario de un sis-


tema canónico de segundo orden.

Podemos también calcular los indicadores descritos en la Figura 7.2 en la


página 165.

Tiempo de levantamiento. Para este caso, usamos kr = 1 (refiérase a la


Figura 7.2 en la página 165) obteniendo:
7.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL 185

e−ψωn tr
p sen(ωd tr + β) = 0 (7.108)
1 − ψ2

De aquı́ se llega a:
π−β
tr = (7.109)
ωd

Sobrerespuesta (overshoot). La máxima sobrerespuesta, Mp , y el instante


en el cual éste ocurre, tp , pueden ser calculados derivando y(t), y luego
igualando a cero esta derivada:

dy(t) e−ψωn t
= −p [−ψωn sen(ωd t + β) + ωd cos(ωd tr + β)] (7.110)
dt 1 − ψ2

Ası́, tenemos que ωd tp = π y el instante en que ocurre la sobrerespuesta,


tp , es:
π Td
tp = = (7.111)
ωd 2
A su vez, la magnitud de la sobrerespuesta está dada por:
− πψω n
e ω d − √ πψ
M p = y(tp ) − 1 = − p sen(π + β) = e 1−ψ 2 (7.112)
1 − ψ2

Las expresiones anteriores sugieren que un valor pequeño para ψ genera


un tiempo de levantamiento pequeño, al costo de una gran sobrerespuesta.
También podemos apreciar que la velocidad de decaimiento y, como con-
secuencia, el tiempo de asentamiento, están determinados por el producto
ψωn (corresponde a la magnitud de la parte real de los polos).

Aunque este sistema canónico parece ser un caso muy particular, ocurre que
con frecuencia, y en distintas aplicaciones, el sistema bajo estudio está dominado
por un par de polos complejos conjugados. Aunque las fórmulas desarrolladas
para calcular los indicadores de la respuesta a escalón no son aplicables a sis-
temas no canónicos, los conceptos asociados tiene igual validez.
186CAPÍTULO 7. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA

7.7. Problemas para el lector


Problema 7.1. Determine la transformada de Laplace de las siguientes fun-
ciones:

(i) y(t) = A cos(ωt + φ)


(ii) y(t) = te−at , en que a > 0


 1 ;0 < t < 1

2 − t ;1 ≤ t < 2
(iii) y(t) =


 −3 + t ; 2 ≤ t < 3

0 ;t ≥ 3
1
(iv) y(t) = t
2

Problema 7.2. Para los siguientes sistemas:

d 2 y(t) d y(t)
(i) + − 6y(t) = u(t)
dt 2 dt
d 3 y(t) d 2 y(t) d y(t) d u(t)
(ii) +3 + + 3y(t) = − u(t)
dt 3 dt 2 dt dt
d 2 y(t) d y(t)
(iii) + − 6y(t) = u(t)
dt 2 dt
d 2 y(t) d y(t)
(iv) + 16 + 100y(t) = 100u(t)
dt 2 dt
7.2.1 Determine su función de transferencia,

7.2.2 Determine si son o no estables,

7.2.3 Determine y grafique su respuesta a impulso, y

7.2.4 Determine y grafique su respuesta a escalón.

Problema 7.3. Considere un sistema definido por su ecuación diferencial:

d 2 y(t) d y(t) d u(t)


+ + y(t) = + 3u(t)
dt 2 dt dt
7.3.1 Determine la función de transferencia del sistema.

7.3.2 Determine la salida del sistema a entrada cero y condiciones iniciales


ẏ(0) = 1 y y(0) = −1. Grafique.

7.3.3 Determine la salida del sistema si la entrada es u(t) = µ(t) − µ(t − 2).
Grafique.
7.7. PROBLEMAS PARA EL LECTOR 187

Problema 7.4. Para el sistema:


d 2 y(t) d y(t) d u(t)
+7 + 10y(t) = α + βu(t)
dt 2 dt dt
7.4.1 Determine condiciones sobre α y β de manera que en la respuesta a
impulso aparezca sólo el modo natural dominante.

7.4.2 Si u(t) = 0, α = 1 y β = 1 determine la condiciones iniciales de manera


que el la respuesta homogénea sólo aparezca el modo natural dominante.

7.4.3 Repita los dos puntos anteriores, pero para el modo rápido del sistema.

Problema 7.5. Considere el circuito de la Figura 7.12.

+ R
e(t) vc (t)
L C

Figura 7.12: Circuito RLC

7.5.1 Determine la funcion de transferencia considerando como entrada la fuente


de voltaje e(t) y como salida el voltaje en el condensador vC (t)

7.5.2 Si R = 1000 [Ω], C = 1000 [µF ] y L = 0,1 [H], determine la respuesta a


un escalón de 5 [V ] en e(t).

Problema 7.6. Se sabe que la respuesta de un sistema lineal a un escalón


unitario en su entrada (con condiciones iniciales iguales a cero) está dada por:

g(t) = (2 − 2e−4t + te−4t )µ(t)


Determine la función de transferencia del sistema.

Problema 7.7. Considere el siguiente modelo no lineal:

d 2 y(t) d y(t)
2
+ [2 + 0,1u(t)2 ] + 6y(t) = u(t) + 0,1e−u(t)
dt dt
Linealice el sistema en torno a un punto de operación (uQ ,yQ ), determine
su función de transferencia y analice la evolución de los polos cuando u Q ∈
[−0,5, 0,5].
188CAPÍTULO 7. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA

Problema 7.8. Considere la siguiente función de trasferencia de un sistema:

s2 + 13s + 30
H(s) =
s3 + 4s2 − 7s − 10

7.8.1 Haga un esquema con la ubicación de todos los polos y ceros del sistema
en el plano complejo s, clasificándolos de acuerdo a su velocidad (lentos y
rápidos).

7.8.2 Determine la respuesta del sistema si se somete a un impulso unitario en


la entrada.

7.8.3 Determine la salida del sistema si las condiciones iniciales son ÿ(0) = 1,
ẏ(0) = 0 e y(0) = −2.

Problema 7.9. Considere la siguiente función de transferencia de un sistema


que depende de un parámetro K ≥ 0:

K(s + 1)
G(s) =
s2 − s + 1 + K(s + 1)

7.9.1 Determine para qué rango de valores del parámetro K los el sistema es
estable.

7.9.2 Haga un esquema en el plano complejo de cómo varı́a la ubicación de los


polos al variar el parámetro K (por ejemplo, para K = 0, 0,5, 1, 2 ).

7.9.3 Para cada uno de los valores de K considerados en 7.9.2 determine y


grafique la respuesta del sistema a un escalón unitario (con condiciones
iniciales iguales a cero).

Problema 7.10. Dado el sistema definido por su función de transferencia

−s + b2
G(s) =
s2 + bs + b2

7.10.1 Determine la respuesta del sistema si la entrada es un impulso unitario


y las condiciones iniciales son cero.

7.10.2 Determine la respuesta del sistema a un escalón unitario, con condi-


ciones iniciales cero.

7.10.3 Determine los parámetros de la respuesta a escalón de la Tabla 7.1, y


verifı́quelos graficando la simulación para algunos valores del parámetro b.
7.7. PROBLEMAS PARA EL LECTOR 189

Problema 7.11. Determine la respuesta e escalón de los siguientes sistemas


definidos por su función de tranferencia y con condiciones iniciales cero, y
grafique para algunos valores de los parámetros a, b, c, K > 0

K(−s + a)
(i) G1 (s) =
(s + a)(s + K)
K(−s + a)(−s + b)
(ii) G2 (s) =
(s + a)(s + b)(s + K)
K(−s + a)(−s + b)(−s + c)
(iii) G3 (s) =
(s + a)(s + b)(s + c)(s + K)

¿Que puede decir del efecto de los ceros sobre la respuesta del sistema?

Problema 7.12. Una forma de verificar el grado relativo de la funcion de


tranferencia de un sistema es a través de su respuesta a escalón. Demuestre que
si p(t) es la respuesta a un escalón de un sistema con función de transferencia
G(s), entonces:

dp(t)
=0 ⇐⇒ grado relativo de G(s) ≥ 2
dt t=0
190CAPÍTULO 7. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
transformada Zeta|textbf
Zeta!transformada
transformada Zeta!inversa

Capı́tulo 8

Análisis bajo excitaciones


arbitrarias. La
transformada Zeta

De los métodos disponibles para el estudio de los sistemas lineales dinámicos,


de tiempo discreto, uno en particular resulta ser especialmente útil: la Trans-
formación Zeta. Esta puede entenderse como el análogo, en tiempo discreto, de
la transformada de Laplace estudiada en el Capı́tulo 7.
Las principales ventajas de este método se pueden resumir en lo siguiente:
Permite el análisis de sistemas lineales estables e inestables.
Se puede aplicar a una vasta gamas de señales no acotadas.
Permite incluir las condiciones iniciales del sistema.
La ERS es transformada en una expresión algebraica, que resulta más
simple de manejar.

8.1. Definición de la transformada


Dada una señal de tiempo discreto f [t], 0 ≤ t < ∞. La transformada Zeta
asociada a f [t], y su transformada Zeta inversa están definidas por:


X
Z {f [t]} = F (z) = f [t]z −t (8.1)
t=0
I
−1 1
Z {F (z)} = f [t] = F (z)z t−1 dz (8.2)
2πj Γ

191
192CAPÍTULO 8. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA

función de transferencia La curva cerrada Γ sobre la que se calcula integral compleja que define la
condiciones iniciales
transformada Zeta inversa (E.2) es tal que debe encerrar a todas las singulari-
dades de Y (z) [17]. La fundamentación de estas expresiones se desarrolla en el
Apéndice E. También se incluyen en ese apéndice las propiedades más impor-
tantes de la Transformación Zeta.
En este capı́tulo nos concentraremos en el uso de esta transformación para
el análisis de sistemas lineales de tiempo discreto.

8.2. Aplicación a sistemas lineales: la función de


transferencia
Como ya hemos visto, una gran cantidad y variedad de sistemas de interés,
pueden ser modelados en forma lineal. Esto se consigue linealizando la o las ecua-
ciones de recursión que describen el comportamiento del sistema en el tiempo,
como se vió en el Capı́tulo 1, en torno a un punto de equilibrio o más gen-
eralmente, en torno a un punto de operación. Para el caso de sistemas de una
entrada y una salida, el proceso de linealización desemboca en la obtención de
una ecuación de recursión, la ERS, de la forma general:

y[t] + an−1 y[t − 1] + . . . + a1 y[t − n + 1] + a0 y[t − n] =


bm u[t] + bm−1 u[t − 1] + . . . + b1 u[t − m + 1] + b0 u[t − m] (8.3)

Cuando se aplica transformación Zeta a la ERS se puede usar una de la


propiedades en el Apéndice E, la que nos indica que la transformada de una
señal desplazada en el tiempo puede expresarse como:

Z {y[t − t0 ]} = Y (z)z −t0 + y[−1]z −t0 +1 + . . . + y[−t0 + 1]z −1 + y[−t0 ] (8.4)

Por tanto, si aplicamos esto a la ERS (8.3) tenemos que:

Y (z) + an−1 z −1 Y (z) . . . + a1 z −n+1 Y (z) + a0 z −n Y (z)


= bm U (z) + . . . + b0 z −m U (z) + f (z −1 , xo ) (8.5)

donde f (z −1 , xo ) es una función que depende de la variable z y de las n condi-


ciones iniciales de la salida y[t], expresadas como y[−1], y[−2], . . . y[−n].
Es importante destacar que:

f (z −1 , x0 ) = [p(z −1 )]T xo (8.6)


donde p(z −1 ) es un vector que contiene polinomios en z −1 y xo es un vector
que contiene las condiciones iniciales ya mencionadas. Esta estructura es una
expresión de la linealidad del sistema (homogeneidad y superposición respecto
de las condiciones iniciales).
8.2. APLICACIÓN A SISTEMAS LINEALES: LA FUNCIÓN DE TRANSFERENCIA193

Nota 8.1. Note también que se ha supuesto que u[−1] = u[−2] = . . . = fracciones parciales
u[−m] = 0. Esto no es restrictivo, porque siempre es posible encontrar una se-
cuencia de entrada u[t], no nula ∀t < −m, tal que y[t] satisfaga las condiciones
iniciales establecidas.

222
Para ilustrar estas ideas, consideramos un ejemplo en donde además analizare-
mos algunas alternativas para el cálculo de la transformación inversa.

Ejemplo 8.1. Considere un sistema con la ERS:

y[t] − 0, 7y[t − 1] + 0, 1y[t − 2] = 0, 8u[t − 1] (8.7)


Suponga que la entrada es un escalón unitario, es decir, u[t] = 1, ∀t ≥ 0, y
que las condiciones iniciales son y[−1] = 2 e y[−2] = −1. Nos interesa calcular
la evolución de la salida y[t], ∀t ≥ 0.
Solución
Aplicamos transformada Zeta a la ERS, obteniendo:

 
Y (z) − 0, 7 z −1 Y (z) + y[−1] + 0, 1 z −2 Y (z) + z −1 y[−1] + y[−2]
= 0, 8z −1 U (z) (8.8)

Esto lleva a:

0, 8z −1 (0, 7 − 0, 1z −1 )y[−1] − 0, 1y[−2]


Y (z) = −1 −2
U (z) + (8.9)
1 − 0, 7z + 0, 1z 1 − 0, 7z −1 + 0, 1z −2

Esto indica que, para este ejemplo:

 
  y[−1]
f (z −1 , xo ) = [p(z −1 )]T xo = 0, 7 − 0, 1z −1 −0, 1 (8.10)
y[−2]

Reordenando de manera de obtener polinomios en z en vez de polinomios en


z −1 , y reemplazando las condiciones iniciales, se llega a:

0, 8z 1, 5z 2 − 0, 2z
Y (z) = U (z) + 2 (8.11)
z2− 0, 7z + 0, 1 z − 0, 7z + 0, 1
| {z } | {z }
Yu (z) Yx (z)

donde Yu (z) e Yx (z) denotan las transformadas de la respuesta a entrada con


condiciones iniciales iguales a cero y de la respuesta a condición inicial, con
entrada cero, respectivamente.
De manera de hacer más simple el cálculo de la transformada Zeta inversa,
y al igual que en el caso de la transformada de Laplace (Capı́tulo 7), usamos la
expansión en fracciones parciales:
194CAPÍTULO 8. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA

0, 8z z 4 4 2
Yu (z) = = − + (8.12)
(z − 0, 5)(z − 0, 2) z − 1 3(z − 0, 2) 3(z − 0, 5) z − 1
Ası́, podemos utilizar la Tabla E.2 en la página 434 para obtener la trans-
formación inversa:

4 
yu [t] = (0, 2)t−1 − (0, 5)t−1 µ[t − 1] + 2µ[t − 1] ; ∀t ≥ 0 (8.13)
3
Análogamente:

1, 5z 2 − 0, 2z 3 1 11
Yx (z) = = − + (8.14)
(z − 0, 5)(z − 0, 2) 2 15(z − 0, 2) 12(z − 0, 5)
Aplicando transformación inversa se llega a:

3 1 11
yx [t] = δK [t] − (0, 2)t−1 µ[t − 1] + (0, 5)t−1 µ[t − 1] ; ∀t ≥ 0 (8.15)
2 15 12
Finalmente, la respuesta completa es y[t] = yu [t] + yx [t].
Sin embargo, una forma alternativa para calcular y[t] es la siguiente:

 
0, 8z 1, 5z − 0, 2
Y (z) = z + (8.16)
(z − 0, 5)(z − 0, 2)(z − 1) (z − 0, 5)(z − 0, 2)
 
5 5 2
=z − + (8.17)
15(z − 0, 2) 6(z − 0, 5) z − 1
z 5z 2z
= − + (8.18)
3(z − 0, 2) 6(z − 0, 5) z − 1
Al aplicar ahora transformación inversa se llega a
1 5
y[t] = 2 + (0, 2)t − (0, 5)t ; ∀t ≥ 0 (8.19)
3 6
Lo que se ha hecho en esta segunda forma de calcular Z −1 {◦} es aprovechar
la presencia de un factor z en el numerador. Ası́ las fracciones parciales pueden
después recibir de vuelta ese factor z, de modo que en la transformación inversa
no aparece corrimiento en el tiempo, ya que, como puede verse en el Apéndice
E:

   
−1 z t −1 1
Z = a µ[t] 6= Z = at−1 µ[t − 1] (8.20)
z−a z−a
El lector puede comprobar que ambas expresiones obtenidas previamente para
y[t] son equivalentes y corresponden a la señal en la Figura 8.1.
8.2. APLICACIÓN A SISTEMAS LINEALES: LA FUNCIÓN DE TRANSFERENCIA195

2.5

2
y[t]

1.5

0.5

0
0 5 10 15
t

Figura 8.1: Salida y[t] para el Ejemplo 8.1.

222
Volvamos ahora a considerar la forma general de la ERS y supongamos
condiciones iniciales iguales a cero. Entonces tenemos que:

Y (z) = H(z)U (z) (8.21)


Donde se define la función:

B(z)
H(z) = (8.22)
A(z)
que se forma con los polinomios que contienen los coeficientes de la ecuación
(8.3) original:

A(z) = z m (z n + an−1 z n−1 + . . . + a0 ) (8.23)


n m m−1
B(z) = z (bm z + bm−1 z + . . . + b0 ) (8.24)
La definición de los polinomios A(z) y B(z) acusa la presencia de una can-
celación. En realidad, se ha elegido esta forma para los polinomios para con-
siderar los tres casos posibles: n < m, n = m y n > m. Para clarificar esto
ilustraremos los tres diferentes casos.
Ejemplo 8.2 (Caso n < m). Sea la ERS:

y[t] − 0, 8y[t − 1] + 0, 4y[t − 2] − 0, 1y[t − 3] = 0, 2u[t − 3] − 0, 7u[t − 4] (8.25)


En este caso, n = 3, con an−1 = a2 = −0, 8, an−2 = a1 = 0, 4 y an−3 = a0 =
−0, 1 Por otro lado m = 4, con bm = b4 = 0, bm−1 = b3 = 0, bm−2 = b2 = 0,
bm−3 = b1 = 0, 2 y bm−4 = b0 = −0, 7
Entonces, la función de transferencia es:

z 3 (0, 2z − 0, 7) 0, 2z − 0, 7
H(z) = = (8.26)
z 4 (z 3 2
− 0, 8z + 0, 4z − 0, 1) z(z − 0, 8z 2 + 0, 4z − 0, 1)
3
196CAPÍTULO 8. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA

función de transferencia! tiempo discreto 222


Ejemplo 8.3 (Caso n = m). Sea la ERS:

y[t] − 0, 8y[t − 1] + 0, 4y[t − 2] − 0, 1y[t − 3] = 0, 2u[t − 2] − 0, 7u[t − 3] (8.27)

En este caso tambı́én n = 3, con an−1 = a2 = −0, 8, an−2 = a1 = 0, 4 y


an−3 = a0 = −0, 1 Por otro lado m = 3, con bm = b3 = 0, bm−1 = b2 = 0,
bm−2 = b1 = 0, 2, y bm−3 = b0 = −0, 7
Entonces, la función de transferencia es:

z 3 (0, 2z − 0, 7) 0, 2z − 0, 7
H(z) = 3 3 2
= 3 (8.28)
z (z − 0, 8z + 0, 4z − 0, 1) z − 0, 8z 2 + 0, 4z − 0, 1
222
Ejemplo 8.4 (Caso n > m). Sea la ERS:

y[t] − 0, 8y[t − 1] + 0, 4y[t − 2] − 0, 1y[t − 3] = 0, 2u[t − 1] − 0, 7u[t − 2] (8.29)

En este caso nuevamente n = 3, con an−1 = a2 = −0, 8, an−2 = a1 = 0, 4 y


an−3 = a0 = −0, 1 Por otro lado m = 2, con bm = b2 = 0, bm−1 = b1 = 0, 2 y
bm−2 = b0 = −0, 7
Entonces, la función de transferencia es:

z 3 (0, 2z − 0, 7) z(0, 2z − 0, 7)
H(z) = = 3 (8.30)
z 2 (z 3 − 0, 8z 2 + 0, 4z − 0, 1) z − 0, 8z 2 + 0, 4z − 0, 1
222

En lo sucesivo, supondremos que los polinomios B(z) y A(z) son copri-


mos, es decir, todos los factores comunes en H(z) han sido eliminados por
cancelación. Los grados de B(z) and A(z) serán redefinidos como m̃ y ñ
respectivamente.

La función racional H(z) es la función de transferencia en el dominio Ze-


ta. La representación (8.22) es muy útil para describir caracterı́sticas y propiedades
de un sistema tales como estabilidad y velocidad, además de entregar informa-
ción para el diseño de sistemas de control, filtros y otras aplicaciones.
A continuación repetiremos algunos conceptos ligados a la definición de la
función de transferencia de un sistema. Son los mismos que para el caso de la
transformación de Laplace y su reiteración está orientada a enfatizar los aspectos
comunes existentes en el dominio del tiempo continuo y en el dominio del tiempo
discreto. Ası́, definimos entonces los siguientes términos.
8.2. APLICACIÓN A SISTEMAS LINEALES: LA FUNCIÓN DE TRANSFERENCIA197

(i) Las m̃ raı́ces de la ecuación B(z) = 0 son los ceros del sistema. Ellos función de
transferencia!ceros
hacen además que H(z) = 0. función de
transferencia!polos
(ii) Las ñ raı́ces de la ecuación A(z) = 0 son los polos del sistema. Ellos hacen multiplicidad!polos
función de transferencia!grado relati
además que H(z) → ∞. grado relativo
función de
(iii) Si A(z) = 0 tiene nt raı́ces en z = λt , decimos que el polo λt tiene transferencia!estrictamente pro
función de transferencia!bipropia
multiplicidad nt .
función de transferencia!propia
polinomio caractrerı́stico
(iv) La diferencia de grado entre A(z) y B(z), es decir, m̃ − ñ se denomina el
grado relativo del sistema.

(v) Si m̃ < ñ decimos que el modelo es estrictamente propio. Esto implica


que el grado relativo del sistema es positivo.

(vi) Si m̃ = ñ decimos que el modelo es bipropio. Esto implica que el grado


relativo del sistema es cero.

(vii) Si m̃ ≤ ñ decimos que el modelo es propio .

Note que el polinomio A(z) corresponde al polinomio caracterı́stico de la


ERS, multiplicado por z ` , donde ` ∈ N tiene un valor que depende del caso
especı́fico. De esta forma, el conjunto de los polos de H(z) incluye un conjunto
de ` polos en el origen más las frecuencias naturales que se pueden calcular de
la ERS.
Estas definiciones nos ayudarán a apreciar la forma en que se relaciona la
salida de un sistema con su entrada, tal como pone en evidencia la definición
(8.22), pero la simplicidad reside en que la relación se establece mediante la
función racional H(z), es decir, los desplazamientos temporales han desapareci-
do. Si bien para llegar a esta relación las condiciones iniciales se han supuesto
iguales a cero, sabemos que en el caso de sistemas estables, su efecto se extingue
exponencialmente en tiempo.
En forma similar a aquella que se utilizó en el análisis de Fourier, la fun-
ción de transferencia puede ser definida en base a la respuesta a impulso, con
condiciones iguales a cero. Si recordamos como se definió la función de transfer-
encia H(z) al aplicar transformación Zeta a la ERS del sistema (8.3), podemos
escribir la salida del sistema según la ecuación (8.21). Se puede apreciar que si
a ambos lados de esta expresión, se aplica transformación Zeta inversa (vea la
Tabla E.1 en la página 433), tenemos que:

Y (z) = H(z)U (z) ⇐⇒ y[t] = h[t] ∗ u[t] (8.31)

En que:
h[t] = Z −1 {H(z)} (8.32)

Por lo tanto, podemos afirmar que:


198CAPÍTULO 8. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA

delta de Dirac!en
frecuencia
La función de transferencia H(z) de un sistema de tiempo discreto, definida
en (8.22), es igual a la transformada Zeta de la respuesta h[t] del sistema
a un Delta de Kronecter en la entrada, cuando las condiciones iniciales son
cero.

A diferencia del caso de tiempo continuo, la función de transferencia H(z) es


siempre una función racional en z. La existencia de un retardo puro, digamos
de to unidades, implica simplemente la existencia de to polos en el origen.
La relación entre la ERS, la respuesta a delta de Kronecker h[t] y la función
de transferencia H(z) se describe en la Figura 8.2. A esos vı́nculos se ha agregado
la respuesta a escalón unitario, con condiciones iniciales iguales a cero, g[t].

ERS

H(z) h[t] g[t]

Figura 8.2: Relaciones entre ERS, función de transferencia y respuestas a delta


y a escalón.

8.2.1. Función de transferencia en dominios de Fourier y


Zeta
Cuando el sistema tiene frecuencias naturales en el disco unitario cerrado,
con la restricción que aquellas frecuencias sobre la circunferencia unitaria sean
simples, las funciones de transferencia en ambos dominios existen. El elemento
común es conceptual: en ambos casos, la función de transferencia es
igual a la correspondiente transformada de la respuesta a un delta de
Kronecker, con condiciones iniciales iguales a cero.
La definición y la estructura de H(z) parecen ser idénticas a la definición
y la estructura de la función de transferencia en el dominio de Fourier, bas-
tando hacer una simple sustitución de z por ejθ . Sin embargo, esto no siempre
es correcto. La diferencia es que cuando el sistema tiene frecuencias naturales
(simples) sobre la circunferencia unitaria, la función de transferencia en Fourier
incluye deltas de Dirac en frecuencia. Esto se origina en el hecho que la respuesta
a impulso del sistema contiene modos naturales que no decaen y para los cuales
la transformada de Fourier existe sólo en el lı́mite. En cambio, para el mismo
sistema, la función de transferencia en Zeta no contiene impulsos en frecuencia,
debido a que la transformada Zeta está bien definida, bastando escoger el radio
de convergencia igual a 1, es decir, |z| > 1.
8.2. APLICACIÓN A SISTEMAS LINEALES: LA FUNCIÓN DE TRANSFERENCIA199

Ejemplo 8.5. Consideremos el sistema con la ERS: transformada de Fourier!discreta


respuesta en frecuencia

2 3
y[t] − ay[t − 1] + a y[t − 2] = a u[t − 1] (8.33)
2
donde 0 < a ≤ 1.
La función de transferencia en el dominio de la transformación Zeta es:

a 23 z
Hz (z) = 2 ; ∀|z| > 1 (8.34)
z − az + a2
En cambio, en el dominio de Fourier, debemos distinguir dos casos:

(i) Caso a < 1 :


En este caso, las frecuencias naturales están dentro del disco unitario
abierto, por lo tanto, los modos naturales son absolutamente sumables 1
y la función de transferencia en el dominio de la transformada de Fourier
discreta es:

3 jθ
2 e
HF (ejθ ) = (8.35)
(ejθ )2 − aejθ + a2
En este caso:
HF (ejθ ) = Hz (z)|z=ejθ (8.36)

De esa forma, Hz (ejθ ) es también igual la respuesta en frecuencia del


sistema.
(ii) Caso a = 1 :
En este caso, las frecuencias naturales están sobre la circunferencia uni-
taria y los modos naturales combinados corresponden a una sinusoide. Más
especı́ficamente, la respuesta a un delta de Kronecter, con condiciones ini-
ciales iguales a cero es:

h[t] = sen(π t/3)µ[t] (8.37)

En consecuencia (vea Tabla C.4 en la página 391, con θo = π/3) la función


de transferencia en el dominio de la transformación de Fourier es:

!
jθ jπ X
HF (e ) = δ(θ + θo + 2`π) − δ(θ − θo + 2`π)
2
`=−∞

3 jθ
2 e
+ (8.38)
(e ) − ejθ
jθ 2 +1

Se observa que en este caso, no se cumple (8.36).


1
P∞Recuerde que una secuencia f [t], definida ∀t ∈ N es absolutamente sumable si y sólo si
t=0 |f [t]| < ∞.
200CAPÍTULO 8. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA

impulso!respuesta a 222
escalón!respuesta a
respuesta! a impulso
respuesta!a escalón
La relación entre la transformación de Fourier y transformación Zeta puede
valor final ser resumida en la siguiente afirmación:

Las transformaciones Zeta y de Fourier son equivalentes, via la relación


z = ejθ , en aquellos casos en que la transformada Zeta existe para |z| < ρ,
donde 0 < ρ < 1.

8.3. Respuesta a impulso y respuesta a escalón.


Como ya hemos visto, la función de transferencia está univocamente asociada
a la respuesta a impulso del sistema. Por otro lado, sabemos que si se aplica un
impulso a la entrada, la respuesta contiene solamente los modos naturales del
sistema; esto nos permite estudiar su comportamiento natural, independiente
de la señal de entrada (caracterı́sticas del transiente, velocidad de respuesta,
etc.) a partir del análisis de la función H(z).
Análogamente al caso de sistemas de tiempo continuo, la respuesta a escalón
es también usada para describir el sistema, aunque en este caso, ello no se debe
a la dificultad para generar el delta.
La definición (8.22) nos permite expresar la respuesta a escalón unitario
del sistema como:
z
Y (z) = H(z) (8.39)
z−1
Lo cual, suponiendo que el sistema no tiene polos en z = 1, corre-
sponde a:

y[t] = y∞ + modos naturales del sistema (8.40)


donde y∞ = H(1), en virtud del Teorema del Valor Final (ver Teorema E.1 en
la página 431). Si el sistema es estable, entonces los modos naturales decaen
exponencialmente a cero, por tanto, la respuesta en estado estacionario está dada
por la constante y∞ . Note además que si H(z) tiene uno o más ceros en z = 1,
entonces y∞ = 0.
Es conveniente recalcar que la respuesta a escalón unitario contiene los modos
naturales del sistema, por lo que revela cuestiones fundamentales del compor-
tamiento dinámico del sistema.
También es conveniente recordar que existe una relación simple entre la
respuesta a escalón g[t] y la respuesta a delta de Kronecter h[t]. Esta está dada
por:

h[t] = g[t] − g[t − 1] (8.41)


8.3. RESPUESTA A IMPULSO Y RESPUESTA A ESCALÓN. 201

Ejemplo 8.6. Considere el sistema definido por su ERS: muestreo

y[t] − 1, 75y[t − 1] + 0, 8y[t − 2] = −0, 2u[t] + 0, 25u[t − 1] (8.42)

Su función de transferencia es:

Y (z) −0, 2z 2 + 0, 25z


H(z) = = 2 (8.43)
U (z) z − 1, 75z + 0, 8

La respuesta a impulso unitario y a delta de Kronecker pueden ser calculadas


mediante la metodologı́a usual, ya empleada en el Capı́tulo 7 en el contexto de
sistemas de tiempo continuo y la transformada de Laplace. Esta corresponde
a reemplazar la expresión para U (z), descomponer en fracciones parciales de
manera conveniente para poder obtener la transformada Zeta inversa, con ayuda
de la Tabla E.2 en la página 434.
En Matlab la función de transferencia en tiempo discreto, al igual que en
tiempo continuo, se define mediante el comando tf en el que se especifica un
tercer argumento correspondiente al tiempo de muestreo (ver Capı́tulo 11). Este
se mantener indefinido, haciéndolo igual a −1. De esta forma la respuesta a
impulso y escalon pueden obtenerse mediante los comandos dimpulse y dstep,
respectivamente. Para el sistema en particular señales se muestran en la Figura
8.3, obtenida con los siguientes comandos:

Matlab

>> Gd2=tf([-0.2 0.25 0],[1 -1.75 0.8],-1)

Transfer function:
-0.2 z^2 + 0.25 z
------------------
z^2 - 1.75 z + 0.8

Sampling time: unspecified


>> subplot(2,1,1),stem(impulse(Gd2))
>> subplot(2,1,2),stem(step(Gd2))

222

De igual forma que en el caso de tiempo continuo, en la respuesta a escalón de


sistemas de tiempo discreto puede definirse un conjunto de parámetros que de-
scriben ciertas propiedades de su dinámica. Sin embargo, en este caso, el cálculo
de algunos de estos parámetros se complica pues la variable independiente, el
tiempo t, es discreta. Ası́, el hacer cero una derivada para calcular un máximo
o un mı́nimo se hace difı́cil por dos factores: la derivada no está definida y, por
otro lado, el cálculo del instante asociado debe restringirse a valores enteros.
202CAPÍTULO 8. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA

0.3

0.2

Respuesta a impulso
0.1

−0.1

−0.2

0 5 10 15 20 25 30 35 40
t

1.5
Respuesta a escalon

0.5

−0.5
0 5 10 15 20 25 30 35 40
t

Figura 8.3: Respuesta a delta Kronecker y a escalón unitario para el Ejemplo


8.6.

En la Figura 8.3 se muestra una respuesta a escalón unitario con condiciones


iniciales iguales a cero. Se observa que se pueden asignar los mismos elementos
caracterizadores que en el caso de tiempo continuo.
Un asunto de interés tiene que ver con el hecho que una señal cualquiera f [t]
(no sólo la respuesta a escalón o la respuesta a impulso), puede ser igual a cero
durante los primeros d instantes. Ello se explica con el siguiente análisis.
Sea una señal f [t] con transformada F (z) dada por:

Bf (z)
F (z) = (8.44)
Af (z)
donde Af (z) y Bf (z) son polinomios de la forma:

Af (z) = z p + αp−1 z p−1 + . . . + α1 z + α0 (8.45)


q q−1
Bf (z) = βq z + βq−1 z + . . . + β 1 z + β0 ; βq 6= 0 (8.46)

para números enteros p y q no negativos. Observe que dado que F (z) debe poder
expresarse en serie de potencias no positivas de z, es necesario que p ≥ q.
La expansión de F (z) en potencias de z −1 se obtiene dividiendo Bf (z) por
Af (z), esto lleva a:

F (z) = βq z −p+q + (βq−1 − βq αp−1 )z −p+q−1 + . . . (8.47)


8.4. RESPUESTA A CONDICIONES INICIALES Y EXCITACIONES ARBITRARIAS.203

Esta ecuación demuestra que el primer valor de f [t] distinto de cero ocurre grado relativo
en el instante t = p − q, con f [p − q] = βq . El resultado principal se puede
resumir en el siguiente lema:

Lema 8.1. Considere una señal f [t] y su transformada F (z), cuociente de


polinomios en z, con grado relativo d, entonces f [t] = 0 para t = 0, 1, ..d − 1

222
Cuando este lema se aplica a la respuesta a escalón unitario, con condiciones
iniciales iguales a cero, se deduce que ésta es cero en los primeros d instantes,
donde d es el grado relativo de la función de transferencia H(z). En rigor, el
z
Lema 8.1 se aplica al producto H(z)U (z), pero en este caso U (z) es z−1 , es
decir, su grado relativo es cero, por lo tanto el grado relativo de H(z)U (z) es
igual al grado relativo de H(z).

8.4. Respuesta a condiciones iniciales y excita-


ciones arbitrarias.
De la misma manera que en la sección precedente se obtuvo las respuestas
a impulso y a escalón del sistema, la transformada Zeta permite obtener la
respuesta del sistema cuando la entrada pertenece a un tipo más general de
señales. En esta tarea, las principales ventajas que tiene esta transformación
sobre la transformación de Fourier, son que se puede aplicar a una amplia gama
de excitaciones no acotadas, y que permite incluı́r el efecto de las condiciones
iniciales.
Consideremos primero un ejemplo.

Ejemplo 8.7. Considere un sistema con ERS:

y[t] + a1 y[t − 1] + a2 y[t − 2] = b1 u[t − 3] + b0 u[t − 4] (8.48)

Entonces al aplicar la transformada Zeta (en el marco de la Nota 8.1 en la


página 193) se obtiene:

b1 z −3 + b0 z −4 −a1 y[−1] − a2 z −1 y[−1] − a2 y[−2]


Y (z) = U (z) + (8.49)
1 + a1 z −1 + a2 z −2 1 + a1 z −1 + a2 z −2

lo cual lleva a:
b1 z + b 0 −(a1 y[−1] + a2 y[−2])z 2 − a2 y[−1]z
Y (z) = U (z) + (8.50)
z 2 (z 2 + a1 z + a2 ) z 2 + a1 z + a2
| {z } | {z }
Yu (z)=Z{Thh0,u[t]ii} Yx (z)=Z{Thhxo ,0ii}

222

Este ejemplo permite inducir algunos resultados generales:


204CAPÍTULO 8. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA

retardo (i) Tanto la respuesta a entrada, yu [t] como la respuesta a condiciones ini-
respuesta!estacionaria
ciales, yx [t], contienen los modos naturales del sistema.
(ii) El denominador de Yu (z) difiere del de Yx (z), no sólo debido al denomi-
nador de U (z), sino que además en un conjunto de polos en z = 0. Estos
no son frecuencias naturales del sistema, sino que corresponden ex-
actamente al retardo con que se aplica la excitación.
(iii) La transformada Yu (z) contiene los polos de U (z); éstos explican la pres-
encia de modos forzados, lo cual es consistente con lo planteado en la
subsección 4.3.6 en la página 73.
(iv) Si el grado relativo de H(z) es mayor que cero (como ocurre usualmente),
entonces yu [0] = 0.
(v) Salvo para especiales valores de las condiciones iniciales, el grado relativo
de Yx (z) es cero, ası́ yx (0) 6= 0, lo cual lleva, salvo para esos valores
especiales, a que y(0) 6= 0.
Un caso especial de interés es cuando la excitación u[t] es una sinusoide de
frecuencia θo , ∀t ≥ 0, es decir, u[t] = 0, 5(ejθo t + e−jθo t ).
Consideremos primero el caso de una excitación u[t] = ejθo t µ[t], y un sistema
estable, con función de transferencia H(z), entonces:

z
U (z) = (8.51)
z − ejθo
z
Y (z) = H(z) + Yx (z) (8.52)
z − ejθo
Dado que el sistema es estable, sólo el modo forzado permanece, ya que la
frecuencia forzante está sobre la circunferencia unitaria. Ası́, si denotamos como
0
Yee (z) la transformada Zeta de la componente estacionaria de la salida, tenemos
que:

0 zH(ejθo ) jθo
Yee (z) = ; H(ejθo ) = |H(ejθo )| ej∠H(e )
(8.53)
z − ejθo
y, por tanto:
jθo
0
yee [t] = ejθo t H(ejθo ) = |H(ejθo )| ej(θo t+∠H(e ))
(8.54)

Si consideramos ahora la excitación u[t] = e−jθo t µ[t], la transformada Zeta


de la componente estacionaria de la salida es:

00 zH(e−jθo ) jθo
Yee (z) = ; H(−ejθo ) = |H(ejθo )| e−j∠H(e )
(8.55)
z − e−jθo
y, por tanto:
jθo
00
yee [t] = e−jθo t H(e−jθo ) = |H(e−jθo )| e−j(θo t+∠H(e ))
(8.56)
8.5. ESTABILIDAD 205

Si ahora combinamos ambas excitaciones, es decir, u[t] = 0, 5(ejθo t + e−jθo t ), estabilidad


multiplicidad!polos
la transformada Zeta de la componente estacionaria combinada de la salida lı́mite de estabilidad
está dada por: circunferencia unitaria

0 00
yee [t] = 0, 5 (yee [t] + yee [t]) = |H(ejθo )| cos(tθo + ∠H(ejθo )) (8.57)

Este resultado no es sorprendente, ya que por ser el sistema estable, la


relación (8.36) es válida, y ası́ se cumple que:

La función de transferencia H(z) de un sistema estable, evaluada en z = ejθo


es igual a la ganancia al modo forzante ejθo t (ver (4.35)).

8.5. Estabilidad
Hasta aquı́ hemos visto que la respuesta de un sistema que tiene una función
de transferencia H(z) es de la forma:
p X
nt
X αti
Y (z) = H(z)U (z) + (8.58)
t=1 i=1
(z − λt )i
Donde el valor de cada αti depende de las condiciones iniciales, y donde
hemos supuesto que cada polo ubicado en z = λt , tiene multiplicidad nt . Esta
suposición implica a su vez que n1 + n2 + . . . + np = n, donde n es el orden de
la ERS, es decir, es el número de autovalores del sistema.
Si recordamos la definición de estabilidad, tenemos que un sistema es estable
cuando cualquier entrada acotada produce una salida también acotada, para
cualquier condición inicial acotada. Si observamos la ecuación (8.58) podemos
afirmar que la condición necesaria y suficiente para que el sistema sea estable
es que los polos de éste, que aparecen en las fracciones del segundo término
de la ecuación, den origen a señales que decaigan exponencialmente. Esto se
traduce en que los polos del sistema deben tener magnitud estrictamente menor
que uno, es decir, deben estar ubicados sobre el disco unitario abierto del
plano complejo z . Es decir, para sistemas discretos, el lı́mite de estabilidad en
el plano complejo z en que se ubican sus polos, es la circunferencia unitaria.
Ejemplo 8.8. Consideremos un sistema con función de transferencia:

(z − 0, 2)
H(z) = (8.59)
z 3 (z − 1)(z − 0, 8)
Esta función tiene tres polos en el origen, que se originan en los retardos y
en la estructura de la ERS (vea ecuaciones (8.23) y (8.24)). Estos polos sólo
introducen retardos en los modos naturales. Los otros polos de su función de
transferencia están ubicados en z = 1, y z = 0, 8. Estos últimos polos correspon-
den a frecuencias naturales del sistema. Uno de estos, el ubicado en z = 1, no
está en el disco unitario abierto, sino que justo sobre el lı́mite de estabilidad.
206CAPÍTULO 8. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA

sistemas discretos!estabilidad Por tanto el sistema no es estable. Se deja al lector el verificar que una entrada
constante, diferente de cero, produce una salida que crece indefinidamente.
222

8.5.1. Análisis de polinomios


Al igual que en el caso de sistemas de tiempo continuo, es posible estudiar
la estabilidad de un sistema de tiempo discreto analizando el polinomio denom-
inador de su función de transferencia, sin calcular explı́citamente las raı́ces de
ese polinomio.
Supongamos que el denominador mencionado sea un polinomio de la forma:

p(z) = an z n + an−1 z n−1 + . . . + a2 z 2 + a1 z + a0 (8.60)


Entonces se trata de determinar si existen o no raı́ces de este polinomio cuya
magnitud sea igual o mayor que 1, o equivalentemente, si todas las raices están
en el disco unitario abierto en el plano complejo z . Diremos que los polinomios
que tiene esta propiedad son polinomios estables.
A semejanza de lo que ocurre en el caso de sistemas de tiempo continuo,
podemos aprovechar algunas propiedades del polinomio (8.60) para descartar
algunas situaciones. Dos de estas propiedades son especialmente útiles

Propiedad 1 El coeficiente an−1 cumple con:

n
X
an−1 = −an λi (8.61)
i=1

donde λ1 , λ2 , . . . λn son las raı́ces de p(z).


Esta propiedad es directa al notar que el polinomio p(s) puede escribirse
como:

n
Y
p(z) = an (z − λi ) (8.62)
i=1

entonces, al expandir el producto (8.62) y observar el coeficiente que acom-


paña a la potencia (n − 1)-ésima de z, se obtiene (8.61).

Propiedad 2 El coeficiente a0 cumple con:

n
Y
a0 = (−1)n an λi (8.63)
i=1

Esta propiedad también se puede demostrar expandiendo el producto


(8.62) y observando el término constante.
8.5. ESTABILIDAD 207

La primera propiedad dice que para que el polinomio p(z) sea estable, en- desigualdad!triangular
bilineal!transformación
tonces es necesario que |an−1 | < n|an | ya que cada raı́z de p(z) debe tener Routh
magnitud menor que 1. El resultado se obtiene al utilizar la desigualdad trian-
gular: el módulo de la suma es menor que la suma de los módulos.
La segunda propiedad dice que la estabilidad de p(z) exige como condición
necesaria que |a0 | < |an |. Este resultado se obtiene al considerar que cada factor
λi en (8.63) debe tener magnitud menor que uno.
Las dos propiedades precedentes ayudan a descartar algunos polinomios bajo
análisis. El lector debe recordar que estas propiedades son necesarias pero no
suficientes para asegurar estabilidad. También conviene tener presente que, a
diferencia del caso de tiempo continuo, un polinomio puede ser estable aunque
algunas de sus raı́ces sean positivas; esto implica que los coeficientes de un
polinomio p(z) estable pueden ser positivos, negativos o cero.
Una vez superada la etapa de la inspección se requiere un método de análisis
que proporcione una respuesta categórica sobre la estabilidad o inestabilidad del
polinomio. Una de las formas de realizar el estudio es transformar el problema
en uno en que podamos aplicar el algoritmo de Routh y, en general, todos los
resultados de la Sección §7.5.1. Con este objetivo se puede usar, por ejemplo, la
transformación bilineal:

w+1 z+1
z= ⇐⇒ w = (8.64)
w−1 z−1
donde w es una variable compleja auxiliar. Si expresamos la variable w en térmi-
no de su parte real ζ y su parte imaginaria ψ, es decir w = ζ + jψ entonces
(8.64) se puede escribir como:
s
w+1 ζ + 1 + jψ (ζ + 1)2 + ψ 2
z= = =⇒ |z| = (8.65)
w−1 ζ − 1 + jψ (ζ − 1)2 + ψ 2

De la ecuación (8.65) se puede ver que ζ > 0 si y sólo si |z| < 1. También
se puede ver w está en el eje imaginario ( ζ = 0) si y sólo si z está sobre la
circunferencia unitaria (|z| = 1). Ası́, si definimos la función racional P w (w)
como:



Pw (w) = p (z) (8.66)
w+1
z= w−1

entonces el polinomio p(z) tiene todas sus raı́ces al interior del disco unitario
si y sólo si el polinomio numerador de Pw (w) tiene todas sus raices al interior
del semi-plano izquierdo. Por lo tanto, podemos usar el criterio de Routh para
probar el polinomio numerador de Pw (w) y ası́ estudiar la estabilidad de p(z).

Ejemplo 8.9. Considere el polinomio p(z) = z 3 − 0, 8z 2 − 0, 25z + 0, 2. Se trata


de determinar si todas sus raı́ces al interior del disco unitario. Para ello primero
calculamos Pw (w), obteniendo:
208CAPÍTULO 8. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA

Jury
Jury!algoritmo
0, 15w3 + 1, 85w 2 + 4, 65w + 1, 35
Pw (w) = (8.67)
(w − 1)3
Luego aplicamos Routh al numerador de Pw (w), construyendo el arreglo:

w3 0, 15 4, 65
w2 1, 85 1, 35
w1 4, 5405
w0 1, 35

Como no hay cambios de signo en la primera columna, sabemos que todos


los ceros de Pw (w) están al interior del semi-plano izquierdo, lo cual implica
que todas las raı́ces de p(z) están estrictamente al interior del disco unitario.
222

El método de la transformación bilineal, aunque efectivo, puede llegar a


ser muy engorroso para polinomios de grado elevado. También hace más difı́cil
estudiar problemas de estabilidad condicionada a parámetros. Para evitar estos
inconvenientes, se puede utilizar un algoritmo o criterio alternativo desarrollado
por Jury

zn γn,n γn,n−1 γn,n−2 ... γn,1 γn,0


γn,0 γn,1 γn,2 ... γn,n−1 γn,n
zn−1 γn−1,n−1 γn−1,n−2 γn−1,n−3 ... γn−1,0
γn−1,0 γn−1,1 γn−1,2 ... γn−1,n−1
..
.
z0 γ0,0

Cuadro 8.1: Arreglo de Jury

Consideremos el polinomio en (8.60) y el arreglo de la Tabla 8.1. Este arreglo


se construye como se indica, paso a paso, a continuación:

(i) La primera fila se construye directamente con los coeficientes de polinomio


original en orden descendente, i.e. γn,` = a` , ` = n, n − 1, . . . , 0.

(ii) La segunda fila se construye a partir de la primera fila con los mismos
coeficientes, pero en orden ascendente.

(iii) La tercera fila es calculada a partir de las dos immediatamente anteriores


de acuerdo a la siguiente fórmula:
8.5. ESTABILIDAD 209


1 γn,n γn,`−1
γn−1,n−` = ` = 1, 2, . . . , n (8.68)
γn,n γn,0 γn,n−`+1

Note que esta fila tiene un elemento menos que las dos anteriores.

(iv) La cuarta fila se construye a partir de la tercera fila con los mismos coefi-
cientes, pero en orden inverso.

(v) La quinta fila se construye a partir de las dos filas precedentes usando
(8.68) con los coeficientes correspondientes. Esta regla de construcción se
aplica también a todas las filas impares que siguen, hasta la (2n + 1)-
ésima, es decir, hasta calcular γ0,0 . En cada una de estas filas, el número
de coeficientes se reduce en uno.

(vi) La sexta fila, ası́ como todas las filas pares que siguen, se construyen con
los mismos coeficientes de la fila impar inmediatamente anterior, pero en
orden inverso.

Jury formuló un teorema de estabilidad cuyas condiciones se verifican usando


el arreglo de la tabla 8.1. El teorema se enuncia a continuación, sin demostración,
ya que ella excede el marco de este texto. El lector interesado puede consultar
[10].

Teorema 8.1. El polinomio p(z) dado en (8.60), con an > 0, tiene todas
sus raı́ces estrictamente al interior del cı́rculo unitario si y sólo si γ `,` > 0
para ` = 0, 1, . . . , n − 1. 222

A continuación ejemplificamos el algoritmo, tanto en su mecánica como en


sus potenciales aplicaciones.

Ejemplo 8.10. Considere el polinomio p(z) = z 3 − 0, 5z 2 − 0, 64z + 0, 32.


Entonces n = 3, an = 1 > 0 y el arreglo de Jury resultante se muestra en la
Tabla 8.2.
Los términos de la tercera, quinta y séptima fila se calculan siguiendo el
procedimiento general descrito precedentemente, ası́:


1
1 0, 32 1
1 −0, 64 1
1 −0, 5
γ2,2 = 1

0, 32 ; γ2,1 = 1
; γ2,0 = 1

1 0, 32 −0, 5 0, 32 −0, 64
(8.69)

1
0, 8976 −0, 48 1
0, 8976 −0, 2952
γ1,1 = 0,8976 −0, 48 0, 8976 ; γ1,0 =

0,8976

−0, 48 (8.70)
−0, 2952

1 0, 6409 −0, 4531
γ0,0 = (8.71)
0, 6409 −0, 4531 0, 6409
210CAPÍTULO 8. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA

z3 γ3,3 = 1 γ3,2 = −0, 5 γ3,1 = −0, 64 γ3,0 = 0, 32


0,32 -0,64 -0,5 1
z2 γ2,2 = 0, 8976 γ2,1 = −0, 2952 γ2,0 = −0, 48
-0,48 -0,2952 0,8976
z1 γ1,1 = 0, 6409 γ1,0 = −0, 4531
−0, 4531 0, 6409
z0 γ0,0 = 0, 3206

Cuadro 8.2: Arreglo de Jury. Ejemplo 8.10

Al aplicar el teorema de Jury observamos que γ3,3 = a3 > 0 y que γ`,` > 0,
∀` ∈ {0, 1, 2}. En consecuencia el polinomio p(z) tiene todas sus raı́ces dentro
del disco unitario.
222
Para apreciar el uso del algoritmo de Jury en estudios de estabilidad relativa
o condicional, consideraremos un ejemplo adicional.
Ejemplo 8.11. Sea un polinomio p(z) = z 2 + az + 0, 8. Se trata de estudiar
bajo qué condiciones este polinomio tiene sus dos raı́ces con módulo menor que
uno. Note que n = 2 y an = a2 = 1 > 0.
Primero construimos el arreglo de Jury, el que aparece en la Tabla 8.3.

z2 γ2,2 = 1 γ2,1 = a γ2,0 = 0, 8


0,8 a 1
z1 γ1,1 = 0, 36 γ1,0 = 0, 2a
0,2a 0,36
a2
z0 γ0,0 = 1 − 1,8 2

Cuadro 8.3: Arreglo de Jury. Ejemplo 8.11

El arreglo de la tabla muestra que la condición requerida por el teorema de


Jury (γ1,1 > 0, γ0,0 > 0) se cumple si y sólo si −1, 8 < a < 1, 8.
222

8.6. Polos, ceros y la respuesta temporal


A continuación examinaremos algunas propiedades fundamentales de los po-
los y ceros de la función de transferencia de un sistema de tiempo discreto, y su
influencia sobre las caracterı́sticas de la respuesta de un sistema lineal.
Consideremos una función de transferencia de la forma general:
8.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL 211

fase mı́nima
Qm ceros!fase no mı́nima
i=1 (z − βi )
H(z) = K d Q n (8.72) función de transferencia!estable
z l=1 (z − αl ) polos
donde αl ∈ C y βi ∈ C. Si suponemos que no hay valores de l y de i tales que
αl = βi entonces, β1 , β2 , . . . , βm and α1 , α2 , . . . , αn son los ceros y los polos de
la función de transferencia, respectivamente (a estos últimos hay que agregar
los d polos en el origen).
Estaremos particularmente interesados en aquellos ceros ubicados sobre la
circunferencia unitaria o en su cercanı́a, y en aquellos polos al exterior del disco
unitario. Los polos y ceros ubicados en estas regiones juegan un rol fundamental
en la dinámica del sistema.
Una clase especial de función de transferencia es aquella que tiene todos
sus ceros y sus polos al interior del disco unitario en el plano complejo z .
Tradicionalmente éstas se denominan funciones de transferencia de fase
mı́nima . Sin embargo, a similitud de la nomenclatura usada en sistemas de
tiempo continuo, reservaremos ese nombre para referirnos simplemente a fun-
ciones de transferencia sin ceros fuera del disco unitario, que tengan o no polos
en él. Diremos que un cero tiene fase no mı́nima si tiene magnitud mayor o,
al menos, igual a uno, de otra forma se denominará cero de fase mı́nima. Si
hablamos de una función de transferencia estable nos referimos a que todos
sus polos se ubican sobre el disco unitario abierto; si decimos que inestable,
es porque al menos uno de sus polos se encuentra fuera del disco unitario, o
sobre el borde de este último. Los polos en si mismos también se pueden de-
nominar estables o inestables , si se encuentran dentro o fuera del disco unitario
abierto,respectivamente 2 .
A continuación examinaremos la influencia sobre la respuesta transiente de
un sistema de los polos y ceros de su función de transferencia.

8.6.1. Polos
Las funciones que se originan al aplicar la transformación Zeta a las ERS
de sistemas lineales, son funciones racionales y siempre pueden descomponerse
en fracciones parciales. Cada uno de los términos de esta expansión contiene
ya sea un polo real simple, un par de polos complejos conjugados o múltiples
combinaciones de polos repetidos. Por tanto, para conocer el efecto de los polos
en la respuesta transiente de un sistema basta conocer el efecto ocasionado por
los polos de primer y segundo orden y su interacción.
Un polo de primer orden contribuye a la descomposición en fracciones par-
ciales, en general, con un término de la forma:

K1 (1 − a)
H1 (z) = (8.73)
z−a
donde K1 es la ganancia a continua.
2 En ocasiones, por abuso de lenguaje, a los ceros de fase no mı́nima también se les denomina

ceros inestables, dado que se encuentran en la región del plano z en que los polos son
inestables.
212CAPÍTULO 8. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA

modos naturales Mientras que un polo de segundo orden contribuye a la expansión con un
término:

1 − 2ρ cos θo + ρ2
H2 (s) = K2 (8.74)
z 2 − 2zρ cos θo + ρ2
donde K2 es la ganancia a continua.
En el Capı́tulo 4 se describió gráficamente la relación entre la ubicación de
las frecuencias naturales (simples) y los modos naturales. Dado que los polos de
H(z), salvo aquellos ubicados en el origen, son iguales a las frecuencias naturales,
es conveniente repetir la descripción gráfica de esa relación.

Figura 8.4: Relación entre la ubicación de los polos (de multiplicidad uno) y los
modos naturales (caso decreciente).

Cada polo genera un término especı́fico que coincide justamente con cada uno
de los modos naturales en la respuesta del sistema a un impulso en la entrada.
Estos modos están presentes también en la respuesta a cualquier entrada al
sistema (excepto en casos muy excepcionales cuando hay coincidencia de polos
8.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL 213

polos!rápidos
z polos!dominantes
polos!lentos

Figura 8.5: Relación entre la ubicación de los polos (de multiplicidad uno) y los
modos naturales (caso no decreciente).

con ceros). El tipo de modo natural asociado a cada polo de un sistema depende
de la ubicación de éste sobre el plano complejo z , exactamente equivalente a la
ubicación de cada frecuencia natural λ sobre un plano complejo, como se vió en
el Capı́tulo 4. Para ilustrar esto podemos apreciar en la Figura 8.4 las diferentes
respuestas a impulso de un sistema de un único polo.
En forma análoga a lo que ocurre con los sistemas continuos en el tiempo,
nos referiremos, en general, como polos rápidos a aquellos que se encuentran
más cercanos al origen del plano z . Esto es equivalente que considerar que la
respuesta transiente asociada a estos polos desaparece más rápido que aquella
asociada a los otros polos, tal como puede apreciarse en la figura 8.4. Por otro
lado, llamaremos polos dominantes o polos lentos a aquellos que se encuantran
al interior del disco unitario, pero más cercanos al lı́mite de estabilidad (cir-
cunferencia unitaria) que el resto de los polos de sistema. Esto equivale a decir
que el transiente asociado a los polos dominantes decae más lentamente que los
demás modos naturales.
214CAPÍTULO 8. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA

ceros Por ejemplo, si tenemos un sistema cuyos polos están ubicados en (−0, 5; −0, 6±
controlabilidad
observabilidad j0, 6; −0, 2; −0, 2+j0, 3), podemos decir que los polos dominantes es −0, 6±j0, 6
y el polo más rápido es el que se encuentra en −0, 2.

8.6.2. Ceros
En general, el efecto de la ubicación de los polos en la dinámica de un sis-
tema puede entenderse sin demasiada dificultad dada su directa relación con la
estabilidad y las caracterı́sticas generales de la respuesta del sistema. De hecho
en la literatura sobre sistemas y su estabilidad se puede encontrar mucha más
información que la aquı́ detallada. Por el contrario, a menudo se ha subestima-
do el efecto de los ceros en el análisis del comportamiento de un sistema. Sin
embargo, en los últimos años se ha vuelto a dar un vistazo al efecto de los ceros
sobre la respuesta de un sistema, que ahora son reconocidos por su importancia,
por ejemplo, al definir criterios de diseño de sistemas de control. Es asi como,
mientras que los polos de un sistema están asociados a la presencia de sus modos
naturales aislados, los ceros reflejan de algún modo la interacción entre éstos,
por ejemplo, en el caso en que la salida de un sistema está formada por la suma
de dos modos naturales diferentes. Además, a pesar que la ubicación de los polos
determina los modos naturales de un sistema, es la ubicación de los ceros la que
determina la proporción en que los modos aparecen combinados en la salida. En
estas combinaciones los modos naturales toman diferente fuerza, pudiendo ser
su efecto, en algunos casos, casi imperceptible. De hecho, la ubicación relativa
de polos y ceros tiene directa relación con los conceptos de observabilidad y
controlabilidad, como se detalla en el Capı́tulo 10.
Veamos esto a través de un ejemplo.

α
z − 0, 5
U (z) Y (z)

1−α
z − 0, 8

Figura 8.6: Sistema discreto con interacción aditiva entre dos estados.

Ejemplo 8.12. Consideremos el sistema de la Figura 8.6, cuya función de


transferencia sistema esta dada por:

Y (z) α 1−α (0, 3α + 0, 2)z − (0, 3α + 0, 1)


H(z) = = + = (8.75)
U (z) z − 0, 5 z − 0, 8 (z − 0, 5)(z − 0, 8)
8.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL 215

3α+1 cancelación!cuasi-
Este sistema tiene sus polos en p1 = 0, 5 y p2 = 0, 8 y un cero en c1 = 3α+2 .
undershoot
Es decir, la ubicación está directamente relacionada con el peso de cada uno contrarespuesta
de los modos naturales en la respuesta del sistema, por ejemplo, a un impulso respuesta!inversa
unitario en la entrada:

y[t] = α(0, 5)t + (1 − α)(0,8)t (8.76)


Si tomamos un valor de α cercano a cero, por ejemplo α = 0,01, la función
de transferencia es:

(z − 0,5074)
H(z) = 0, 203 (8.77)
(z − 0, 5)(z − 0, 8)
En esta puede observarse la cercanı́a del cero al polo en z = 0, 5. La respuesta
a impulso será en este caso:

y[t] = 0, 01(0, 5)t + 0, 99(0,8)t (8.78)


En que se aprecia la pequeña magnitud con que aparece el modo natural más
rápido. Es decir, a medida que el cero se acerca al polo en z = 0, 5 se produce
una cuasi-cancelación , que será total cuando α = 0.
Invitamos al lector a estudiar el caso análogo cuando α se acerca a 1 y cuál
es su efecto sobre el otro modo natural del sistema. Además puede analizarse
qué sucede con el sistema cuando el parámetro α toma valores negativos. ¿Qué pasa
si α = −1/3 o α = −2/3 ?
222

8.6.3. Respuesta inversa o contrarespuesta (undershoot)


La Figura 8.3 en la página 202 sugiere que existen casos en los que, en la
presencia de una excitación mayor que cero, la respuesta del sistema se hace
negativa durante algún lapso no despreciable. Existe un resultado análogo al
Lema 7.1 en la página 182, respecto del rol de algunos ceros que están ubicados
fuera del cı́rculo unitario.
Lema 8.2. Considere un sistema lineal estable con función de transferencia
H(z), y con un cero real en z = c, donde c > 1, entonces la respuesta a un
escalón positivo se hace negativa durante uno o más lapsos no despreciables.
Demostración
La respuesta del sistema está dada por:
Kz
Y (z) = H(z) ; K>0 (8.79)
z−1
Entonces:

Kz X
H(z) = y[t]z −t ; |z| > 1 (8.80)
z−1 t=0
Note que la región de convergencia queda determinada, por un lado, por el hecho
que el sistema es estable, por lo cual la transformada de h[t] está bien definida
216CAPÍTULO 8. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA

para |z| ≥ 1 y, por otro lado, por el hecho que la respuesta a un escalón está bien
definida para |z| > 1. En consecuencia, la región de convergencia para y[t] es
|z| > 1.
Si ahora, en la ecuación (8.80), hacemos z = c (note que, por ser c > 1,
está en la región de convergencia) obtenemos, aplicando el hecho que H(c) = 0

K X
H(c) = y[t]c−t = 0 (8.81)
c t=0

Como la suma es cero, y c−t > 0, ∀t, necesariamente y[t] debe ser negativa
en uno o más lapsos, y positiva, el resto del tiempo.

El lema precedente justifica la presencia de undershoots, como el sugerido


en la Figura 8.3 en la página 202. Sin embargo, este comportamiento inverso se
puede manifestar en formas más diversas, tal como se ilustra en la Figura 8.7.

1
1
Respuesta a escalón
Respuesta a escalón

0.5
0.5

0 0

−0.5 −0.5

−1
−1
0 10 20 30 40 50 0 10 20 30 40 50
Tiempo [s] Tiempo [s]

Figura 8.7: Ejemplos de distintas formas de respuesta inversa en sistemas dis-


cretos.
8.7. PROBLEMAS PARA EL LECTOR 217

8.7. Problemas para el lector


Problema 8.1. Determine la transformada Zeta de las siguientes funciones:

(i) y[t] = A cos(θt + φ)


(ii) y[t] = t a−t

0 ; 0 ≤ t ≤ 1

(iii) y[t] = 1 ; 2 ≤ t ≤ 7


0 ;t ≥ 8
(iv) y[t] = (−0, 5)t

Problema 8.2. Para los siguientes sistemas:

(i) y[t] − y[t − 1] = u[t]


(ii) y[t] = u[t] − u[t − 1]
(iii) y[t] − 1, 4y[t − 1] + 0, 48y[t − 2] = −0, 08u[t]
(iv) y[t] − y[t − 1] − 1, 1[t − 2] = −u[t − 1] − 0, 1u[t − 2]

8.2.1 Determine su función de transferencia,


8.2.2 Determine si son o no estables,
8.2.3 Determine y grafique su respuesta a delta de Kronecker, y
8.2.4 Determine y grafique su respuesta a escalón unitario.

Problema 8.3. Considere un sistema definido por su ecuación recursiva:

y[t + 2] − y[t + 1] + 0, 5y[t] = u[t] − 0, 5u[t − 1]

8.3.1 Determine la función de transferencia del sistema.


8.3.2 Determine la salida del sistema a entrada cero y condiciones iniciales
y[−1] = 1 y y[−1] = −1. Grafique.
8.3.3 Determine la salida del sistema si la entrada es u[t] = µ[t] − µ[t − 2].
Grafique.

Problema 8.4. Si N es un número entero positivo, entonces considere los


siguientes sistemas:
1
(promediomovil) y[t] = (u[t] + u[t − 1] + . . . + u[t − N ])
N
(autoregresivo) y[t] + y[t − 1] + . . . + y[t − N ] = u[t]

8.4.1 Determine su función de transferencia,


218CAPÍTULO 8. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA

8.4.2 Determine sus polos y ceros,

8.4.3 Determine y grafique su respuesta a delta de Kronecker, y


8.4.4 Determine y grafique su respuesta a escalón unitario.

Problema 8.5. Para el sistema:

y[t] + α1 y[t − 1] + α0 y[t − 2] = βu[t] − u[t − 1]

8.5.1 Determine condiciones sobre α0 , α1 y β de manera que el sistema sea


estable.

8.5.2 Si u[t] = 0, α1 = −1, α0 = 0,16 y β = 0, determine la condiciones


iniciales de manera que el la respuesta homogénea sólo aparezca el modo
natural dominante.

8.5.3 Si no se conoce u[t] = 0, pero α1 = −1, α0 = 0,16, determine β de


manera que en la salida solo aparezca el modo natural mas rápido.

Problema 8.6. Se sabe que la respuesta de un sistema lineal a un escalón


unitario en su entrada (con condiciones iniciales iguales a cero) está dada por:
h π i
g[t] = 0, 5 − (0, 4)t cos (t − 1) µ[t]
3
Determine la función de transferencia del sistema.
respuesta en frecuencia
transformada de Fourier
transformada de Laplace
transformada Zeta
Bode
Nyquist

Capı́tulo 9

Representación de sistemas
lineales

9.1. Ideas generales


La caracterización de la respuesta en frecuencia de un sistema lineal, ası́ co-
mo su función de transferencia obtenida con la tranformación de Fourier, la
transformación de Laplace o la transformación Zeta, son herramientas útiles
para el análisis, sı́ntesis y diseño de sistemas dinámicos en sus distintas aplica-
ciones, tales como procesamiento de señales y control automático, entre otras.
Estas herramientas han sido ampliamente reconocido a través de los años y han
dado lugar también a una serie de formas especiales de representación gráfica.
En primer lugar, recordemos que la respuesta en frecuencia de un sistema
lineal y su función de transferencia están caracterizadas por la misma función de
la frecuencia1 H(jω) que, en general, toma valores complejos. Una de las formas
de representación más usuales se basa en gráficos separados de la magnitud y la
fase de H(jω), en donde la frecuencia, ω, es la variable independiente. La más
conocida y usada de estas representaciones fue desarrollada por Hendrik Bode
en los años cuarenta [4](o no?). Por otra parte, también es posible representar
H(jω) en un solo gráfico único donde el eje de las abscisas corresponde a su parte
real, y el eje de ordenadas, a su parte imaginaria. Este se denomina diagrama
polar o de Nyquist. En esta última caracterización, la frecuencia queda implı́cita.

Finalmente en este Capı́tulo introducimos la representación en diagramas de


bloques, ampliamente usada en el dominio temporal, de Fourier, de Laplace y de
la transformada Zeta, dada su gran utilidad para representar sistemas complejos
mediante la interconección de sistemas más simple, y la causalidad inherente de
las señales de entrada y de salida de estos sistemas dinámicos.

1 Ver Lema 6.1 en la página 129.

219
220 CAPÍTULO 9. REPRESENTACIÓN DE SISTEMAS LINEALES

Bode!diagramas de
Bode|textbf
9.2. Diagramas de Bode
diagramas!de Bode
ejes logarı́tmicos 9.2.1. Tiempo continuo
decada
octava Como ya hemos visto, un sistema de tiempo continuo puede ser caracterizado
decibel por la función H( ω). El diagrama de Bode correspondiente a esta función
factores canónicos está formado por dos gráficos: uno que describe la evolución de su magnitud
|H( ω)| como función de la frecuencia angular ω, y el otro describe el ángulo
de la respuesta en frecuencia ∠H( ω), también como función de la frecuencia
angular ω.
Los diagramas de Bode son dibujados con ejes especiales:

El eje de las abscisas es lineal en log 10 (ω), o logarı́tmico en ω. Esto permite


una representación compacta de la frecuencia en un gran rango de valores.
En este eje, la unidad es la decada, que corresponde a la distancia en el
eje que separa a una frecuencia cualquiera ω1 y su múltiplo 10ω1 . Una
unidad alternativa es la octava, que corresponde a la distancia entre ω1 y
2ω1 (doble de la frecuencia).

La magnitud de la respuesta en frecuencia es medida en decibeles [dB], es


decir, se representa la función:

|H( ω)|dB = 20 log10 |H( ω)| (9.1)

Es decir, al igual que para la frecuencia, se utiliza un eje logarı́tmico en


|H( ω)|.
El uso de ejes logarı́tmicos proporciona varias ventajas, incluyendo pre-
cisión por valores pequeños y grandes de |H( ω)|, facilidad para construir
aproximaciones simples para |H( ω)|dB , y el hecho que la respuesta en fre-
cuencia de sistemas en cascada puede ser obtenida sumando las respuestas
en frecuencia individuales.

El ángulo es medido en una escala lineal en radianes o grados.

Los paquetes de software disponibles, tales como Matlab , incluyen coman-


dos especiales para calcular la respuesta en frecuencia y dibujar los diagramas de
Bode. Sin embargo, es importante, para el manejo conceptual de la herramienta,
desarrollar la habilidad de hacer, en forma manual y rápida, un bosquejo de esos
diagramas, útiles para el análisis y el diseño de las propiedades de un sistema o
de una señal.
Para desarrollar estas ideas consideraremos una función de transferencia que
puede expresarse como un producto de funciones particulares, que llamaremos
factores canónicos, correspondientes a los siguientes tipos:

[B1] K

[B2] (1 + T  ω)q , q ∈ {−1; 1}


9.2. DIAGRAMAS DE BODE 221

[B3] ( ω)q , q ∈ {−1; 1} Bode!aproximaciones


"  2 # q
ω ω
[B4] 1 + 2ξ + q ∈ {−1; 1}, 0 ≤ ξ < 1.
ωn ωn

[B5] e− ωτ , τ > 0

donde el exponente q ∈ {−1; 1} describe las dos opciones para cada factor: su
presencia en el numerador o en el denominador de la funcion H( ω) dada.
A continuación se presente un ejemplo ilustrativo.

Ejemplo 9.1. Considere la función:

e−0,1 ω ( ω + 2)
H( ω) = 6 (9.2)
 ω( ω + 1)(( ω)2 +  ω + 4)
Que puede reescribirse como:

(3) · (e−0,1 ω ) · (1 + 0, 5 ω)
H( ω) =   (9.3)
 ω   ω 2
( ω) · (1 +  ω) · 1 + 2 × 0, 25 +
2 2
222

Ası́, en el caso general:


n
Y
H( ω) = F` ( ω) (9.4)
`=1

donde cada uno de los factores elementales, F` ( ω), es una función perteneciente
a alguno de los tipos [B1] a [B5]. Entonces

n
X n
X
|H( ω)|dB = 20 log10 |H( ω)| = 20 log10 |F` ( ω)| = |F` ( ω)|dB (9.5)
`=1 `=1
n
X
∠H( ω) = ∠F` ( ω) (9.6)
`=1

Es decir:

La magnitud (en dB) de H( ω) es igual a la suma de las magnitudes (en


dB) de F` ( ω), y

El ángulo de H( ω) es igual a la suma de los ángulos de F` ( ω)

En consecuencia, para poder construir aproximaciones para una función de


transferencia arbitraria, es suficiente desarrollar aproximaciones para cada uno
de los cinco factores canónicos, [B1] a [B5]. Esto es lo que haremos a contin-
uación.
222 CAPÍTULO 9. REPRESENTACIÓN DE SISTEMAS LINEALES

Bode!ası́ntotas [B1]
En este caso F ( ω) = K y su magnitud es exactamente:

|K|dB = 20 log10 |K| (9.7)

es decir, es una recta horizontal. Por su parte, la fase es:


(
0 para K ≥ 0
∠K = o
(9.8)
180 para K < 0

Ası́, la fase de larespuesta en frecuencia también es una recta horizontal.

[B2]
En este caso F ( ω) = (1 + T  ω)q , donde q ∈ {−1; 1}. Entonces:

p
|F ( ω)|dB = 20 q log10 1 + T 2 ω 2 = 10 q log10 (1 + T 2 ω 2 ) (9.9)
∠F ( ω) = q arctan(T ω) (9.10)

Podemos construir una aproximación por trazos o ası́ntotas para la magni-


tud, si observamos que:

1
ω =⇒ |F ( ω)|dB ≈ 0 [dB] (9.11)
|T |
1
ω =⇒ |F ( ω)|dB ≈ 20q log10 (|T |ω) (9.12)
|T |
Esto significa que la magnitud de la respuesta en frecuencia de una función
tipo [B2] puede aproximarse por dos ası́ntotas: una de baja frecuencia, con
pendiente 0 [dB/dec] y otra de alta frecuencia, cuya pendiente es 20q [dB/dec].
Estas ası́ntotas se intersectan en ω = 1/|T |. Cuando q = −1, a esta p frecuencia
la curva exacta pasa √ 3 [dB] más abajo, ya que |F (j/|T |)| = 1/2 y basta
recordar que 20 log10 0, 5 ≈ −3, 0103.
En la Figura 9.1 se muestra la aproximación asintótica y la curva exacta para
una función tipo [B2], con q = −1, en término de la frecuencia normalizada ω|T |.
La fase de la respuesta en frecuencia es más difı́cil de aproximar de una
manera simple. Sabemos que para |T ω|  1 la fase es aproximadamente cero
y que para |T ω|  1, la fase es aproximadamente φ∞ = 90 q signo(T ) [o ]. Una
aproximación aceptable puede ser construida por tres rectas:
Una recta horizontal en 0 [o ] en el rango de frecuencia (−∞; 0, 1/|T |), es
decir, hasta una década antes de 1/|T |).
Una recta que une los puntos (0; 0, 1/|T |) y (10/|T |; φ∞ ), es decir, desde
una década antes hasta una década después de 1/|T |). Esta recta tiene
una pendiente de 0, 5φ∞ [o /dec] (para el caso con T > 0 y q = 1, esta
pendiente es 45 [o /dec]),
9.2. DIAGRAMAS DE BODE 223

10

0
Magnitud [dB]

−10

−20

−30

−40

−50
−2 −1 0 1 2
10 10 10 10 10
ω |T|

Figura 9.1: Diagrama de Bode de magnitud para una función tipo [B2], con
q = −1

Y una recta horizontal en φ∞ en el rango de frecuencia (10/|T |, ∞). Ası́,


en alta frecuencia, la fase tiende a 90q[o ] signo(T ).

Esta aproximación es exacta en ω = 1/|T |, donde la fase es 45q[o ].


En la Figura 9.2 se aprecia tanto la aproximación asintótica, como la curva
exacta para el caso q = −1 y T > 0 . La frecuencia se ha normalizado a ω|T |.

20

−20
Fase [°]

−40

−60

−80

−100
−2 −1 0 1 2
10 10 10 10 10
ωT

Figura 9.2: Diagrama de Bode de fase para una función tipo [B2], con q = −1

[B3]
En este caso, F ( ω) = ( ω)q , q ∈ {−1; 1}. La magnitud, en decibeles, está dada
por:
|F ( ω)|dB = 20q log10 |ω| (9.13)
De esta forma, considerando que el eje de abscisas está en escala logarı́tmica, la
magnitud es una recta con pendiente 20q [dB/dec].
La fase, en tanto, es:
∠F ( ω) = 90 q[o ] (9.14)
224 CAPÍTULO 9. REPRESENTACIÓN DE SISTEMAS LINEALES

ası́ntotas que corresponde a una recta horizontal en 90 q[o ].

[B4]
En este caso, el factor canónico es de la forma:
"  2 # q
ω ω
F ( ω) = 1 + 2ξ + (9.15)
ωn ωn

en que q ∈ {−1; 1} y 0 ≤ ξ < 1. Se trata de un factor de segundo grado,


determinado por dos parámetros: ωn y ξ.
La magnitud es:
s 2
ω2 ω2
|F ( ω)|dB = 20 q log10 1− 2 + 4ξ 2 2
ωn ωn
  2
!
ω2 2ω
2
= 10 q log10 1− 2 + 4ξ 2 (9.16)
ωn ωn

Y el ángulo de fase es:


  
 2ξωωn
q arctan
 ∀ω < ωn
ωn2 − ω
2
∠F ( ω) =  (9.17)
 o 2ξωωn
90q[ ] + q arctan
 ∀ω > ωn
ω 2 − ωn2

Para construir una aproximación por trazos o ası́ntotas, primero observa-


mos que:

ω  ωn =⇒ |F ( ω)|dB ≈ 0 [dB] (9.18)


 
ω
ω  ωn =⇒ |F ( ω)|dB ≈ 40q log10 (9.19)
ωn

40

20
Magnitud [dB]

−20

−40
−1 0 1
10 10 10
ω/ω
n

Figura 9.3: Diagrama de Bode de magnitud para una función tipo [B4], con
q = −1 y dos valores de ξ.
9.2. DIAGRAMAS DE BODE 225

Ası́, en baja frecuencia, la magnitud (en [dB]) puede ser aproximada por una resonancia
ası́ntota horizontal en 0 [dB]. En alta frecuencia, la aproximación asintótica es
una recta de pendiente 40q [dB/dec] que pasa por el punto (ωn ; 0). Sin embargo,
la curva exacta puede ser muy distinta a la aproximación asintótica, dependiendo
del valor del parámetro ξ. Esto puede se ilustra en la Figura 9.3, donde se
muestran las curvas exactas para ξ = 0, 01 and ξ = 0, 1. La flecha indica la
dirección en la que aumenta ξ. Note que en el caso lı́mite, cuando ξ = 0, el
diagrama tiende a ∞ [dB].
En general, el diagrama de magnitud exhibe, a la frecuencia ωr , un pico
de resonancia Mr , valor que puede calcularse usando los métodos clásicos del
Cálculo. Para simplificar el desarrollo, usaremos la frecuencia normalizada ν =
ω/ωn y el hecho que para q = −1, |F ( ω)|dB alcanza el máximo a la misma
frecuencia νr a la que g(ν) = (1−ν 2 )2 +4ξ 2 ν 2 alcanza el mı́nimo. Ası́, derivando
y haciendo igual a cero se obtiene:
dg(ν)
= 2(1 − ν 2 )(−2ν) + 8ξ 2 ν = 0 (9.20)

donde se observa que la resonancia ocurre exactamente en:
p p
νr = 1 − 2ξ 2 =⇒ ωr = ωn 1 − 2ξ 2 (9.21)

Con esto, y la ecuación (9.16), se obtiene:


1
Mr = |F ( ωr )| = (9.22)

Finalmente, en (9.21) √se puede notar que el pico de resonancia existe para
q = −1 si y sólo si ξ < 1/ 2.
La fase de una función de tipo [B4], dada por (9.17), se puede también
aproximar por ası́ntotas, con la misma prevención que en el caso de la magnitud:
la precisión de la aproximación asimptótica depende crucialmente del valor de
ξ. Ası́:

ω  ωn =⇒ ∠F ( ω) ≈ 0 [o ] (9.23)
ω  ωn =⇒ ∠F ( ω) ≈ 180 q[o ] (9.24)

De esta forma, la aproximación asintótica se compone de dos rectas hori-


zontales: una en 0 [o ] y la otra en 180 q[o ]. En la Figura 9.4 se muestra el caso
de q = −1, donde se muestran dos curvas, para dos valores de ξ (0, 01 y 0, 1).
En el gráfico se muestra con una flecha la dirección en que crece ξ. Note que a
medida que crece ξ, la aproximación asintótica se hace cada vez más inexacta,
contrariamente a lo que ocurre con la aproximación asintótica para la magnitud.
Siempre es posible refinar las aproximaciones inherentes en los diagramas
de Bode, en particular aprovechando herramientas como Maple que facilitan el
manejo de expresiones analı́ticas complejas. En este caso, es posible obtener la
pendiente exacta del grafico de la fase de H( ω) en la frecuencia de corte ωn ,
que permitirı́a trazar una tercera asintota, de manera similar a la Figura 9.2.
226 CAPÍTULO 9. REPRESENTACIÓN DE SISTEMAS LINEALES

−50

Fase [o]
−100

ξ
−150

−200
−1 0 1
10 10 10
ω/ωn

Figura 9.4: Diagrama de Bode de fase para una función tipo [B4], con q = −1

El siguiente codigo Maple establece supuestos sobre las variables q, ω, ωn y xi,


luego define la funcion H( ω), obtiene la derivada respecto a φ = 10ω (debido
a la escala logarı́tmica en el eje horizontal), y la evalúa en ω = ωn

Maple

> assume(q,integer);
> assume(xi>0,omega>0,omega_n>0);
> interface(showassumed=0);
> H(omega):=(1+2*xi*I*omega/omega_n+(I*omega/omega_n)^2)^q;
> fase_H:=evalc(argument(H(omega)));
> d_fase_H:=factor(diff(subs(omega=10^phi,fase_H),phi));
> simplify(subs(phi=log10(omega_n),d_fase_H));

 2 !q
2ξ( ω) ω
H( ω) = 1 + + (9.25)
ωn ωn
    
sen q arctan ω2ξω nω
2 −ω 2
f aseH ( ω) = arctan    n   (9.26)
cos q arctan ω2ξω nω
2 −ω 2
n

d 2 q ξ 10 ln(10)ωn ωn + (10φ )2
φ 2
f aseH = 2 2 (9.27)
dφ (ωn2 − (10φ )2 ) + (2ξ(10φ )ωn )

The last command line gives us the answer:

d q ln(10) 2, 3 q

f aseH = ≈ (9.28)
dφ φ=10ωn ξ ξ
9.2. DIAGRAMAS DE BODE 227

[B5] retardo
retardo!diagrama de Bode
En este caso, tenemos la función F ( ω) = e−τ  ω , τ > 0, y por lo tanto: Bode!aproximación asintótica
Bode!frecuencias de quiebre
|F ( ω)|dB = 1 (9.29)
∠F ( ω) = −ωτ (9.30)

Note que el retardo puro sólo introduce un ángulo de fase lineal en frecuen-
cia; sin embargo, dado que los diagramas de Bode usan una escala de frecuencia
logarı́tmica, la fase no aparece como una recta, sino que como una curva expo-
nencial. Esto último se debe a que la fase puede también escribirse como:

∠F ( ω) = −ωτ = −τ 10log10 ω (9.31)

La Figura 9.5 muestra el diagrama de Bode de fase en una escala de frecuen-


cia normalizada, lo cual permite entender por qué no existe una aproximación
asintótica sencilla para este caso.

−100

−200
Fase [o]

−300

−400

−500

−600
−1 0 1
10 10 10
ωτ

Figura 9.5: Diagrama de Bode de fase para una función tipo [B5]

222
Con las aproximaciones para las clases [B1] a [B4], más la representación
exacta de la clase [B5], se puede construir una aproximación global para una
función arbitraria H( ω) usando (9.5)-(9.6). De esa forma, la aproximación,
tanto para la magnitud (en [dB]) como para la fase (en [o ]) de H( ω) se puede
calcular sumando las aproximaciones para cada uno de los factores canónicos.
A continuación bosquejamos una forma sistemática de construir esas aprox-
imaciones. Esto requiere tener presente las aproximaciones ası́ntóticas de los
factores [B1]-[B4], que resumimos en las Tablas 9.1 y 9.2.
Note que las ası́ntotas son rectas que se encuentran en puntos o frecuencias
de quiebre.
Con estas ası́ntotas se puede desarrollar un proceso constructivo, tanto para
magnitud como para fase. La contribución de factores tipo [B1] y [B5] es agre-
gada al final en ambos diagramas. Lo mismo se aplica a la contribución de un
factor tipo [B3] en el diagrama de fase. El procedimiento se desarrolla a través
de los siguientes pasos:
228 CAPÍTULO 9. REPRESENTACIÓN DE SISTEMAS LINEALES

Factor (` ∈ Z) Ası́ntota 1 Ası́ntota 2

K 0 [dB] ∀ω
( ω)` 20` log10 ω [dB]
∀ω
`
(1 +  ωT ) 0 [dB] 20` log10 (ω|T |) [dB]
1
T ∈R ∀ω < |T |
∀ω > |T1 |
 2 !`  
ω ω ω
1 + 2ξ + 0 [dB] 40` log10 [dB]
ωn ωn ωn
0≤ξ<1 ∀ ω < ωn ∀ ω > ωn

Cuadro 9.1: Aproximaciones asintóticas de magnitud de factores básicos

Paso 1 Escriba la función de transferencia, H( ω) como producto de factores


[B1]-[B5].

Paso 2 Seleccione el rango de frecuencias en el cual desea construir la aproxi-


mación asintótica.

Paso 3 Anote para cada factor, los puntos de quiebre de sus ası́ntotas ası́ como
la pendiente de ellas entre cada par de puntos de quiebre consecutivos.
Tome en inmediata consideración los factores repetidos (tal como se ha
hecho en las Tablas 9.1 y 9.2).

Paso 4 En el diagrama de magnitud, dibuje la ası́ntota2 del factor ( ω)` . Note


que esta ası́ntota pasa por 0 [dB] en ω = 1.

Paso 5 Avance en el eje de frecuencias hasta encontrar el primer punto de


quiebre y sume la pendiente correspondiente.

Paso 6 Proceda hasta el siguiente punto de quiebre y sume la nueva pendiente


que aparece a la pendiente acumulada. Repita hasta llegar al final del
rango de frecuencias elegido.

Paso 7 Desplace verticalmente el diagrama de magnitud en 20 log 10 |K|.

Paso 8 Si H( ω) incluye un factor ( ω)` , es decir, un factor tipo [B3], desplace
verticalmente el diagrama de fase en 90` [o]. Además, si K < 0, desplace
verticalmente el diagrama de fase en ±180 [o ].

Paso 9 Si H( ω) incluye un retardo, sustraiga la fase correspondiente del dia-


grama de fase.
2 Observe que en este caso, la ası́ntota coincide con el diagrama exacto, tanto en magnitud

como en fase
9.2. DIAGRAMAS DE BODE 229

Factor (` ∈ Z) Ası́ntota 1 Ası́ntota 2 Ası́ntota 3

K (1 − signo(K))90 [o ]
∀ω
`
( ω) 90` [o ] ∀ω
` o
(1 +  ωT ) 0[ ] 45` log10 (10ω|T |) [o ] 90` [o ]
1 1 10 10
T >0 ∀ω < |10T | |10T |
<ω< |T |
∀ω > |T |

(1 +  ωT )` 0 [o ] −45` log10 (10ω|T |) [o ] −90` [o ]


1 1 10 10
T <0 ∀ω < |10T | |10T |
<ω< |T |
∀ω > |T |
  2 !`
ω ω
1 + 2ξ + 0 [o ] 180` [o ]
ωn ωn
0≤ξ<1 ∀ ω < ωn ∀ ω > ωn

Cuadro 9.2: Aproximaciones asintóticas de fase de factores básicos

Paso 10 Verifique que su resultado satisface las aproximaciones asintóticas,


tanto en magnitud como en fase, para frecuencias muy bajas (→ 0) y para
frecuencias muy altas (→ ∞). Corrija, si es necesario.

Para ilustrar el procedimiento, desarrollamos el siguiente ejemplo.


Ejemplo 9.2. Considere la respuesta en frecuencia dada por:

8( ω − 2)( ω + 1)
H( ω) = (9.32)
 ω( ω + 8)( ω − 4)
Lo primero que debemos hacer es re-escribir H( ω) como el producto de seis
factores (F1 ( ω) a F6 ( ω)) canónicos del tipo [B1] a [B5]. Ası́ se obtiene

H( ω) = 0, 5 (1 − 0, 5 ω) (1 +  ω) ( ω)−1 (1 + 0, 125 ω)−1 (1 − 0, 25 ω)−1


|{z} | {z } | {z } | {z } | {z }| {z }
F1 :[B1] F2 :[B2] F3 :[B2] F4 :[B3] F5 :[B2] F6 :[B2]
(9.33)
Diagrama de magnitud:
Supondremos luego que el rango de frecuencias de interés es [10 −2 ; 102 ].
Los puntos de quiebre ası́ como las pendientes entre dos puntos de quiebre
sucesivos se muestran en la Tabla 9.3. Observe que las pendientes se indican
como múltiplos de 20 [dB/dec]. En la última fila del cuadro se indica el efecto
neto de la contribución de los distintos factores entre dos puntos de quiebre
sucesivos. Con los resultados de esa lı́nea se pueden completar los Pasos 4 a 6 del
procedimiento bosquejado. Finalmente se incorpora el factor [B1], desplazando
verticalmente el diagrama en 20 log 10 (0, 5) ≈ −6 [dB].
230 CAPÍTULO 9. REPRESENTACIÓN DE SISTEMAS LINEALES

El gráfico superior de la Figura 9.6 muestra la aproximación asintótica logra-


da ası́ como la curva exacta.
(−∞; 1] (1; 2] (2; 4] (4; 8] (8; 100]
F2 -1 -1 -1 -1 -1
F3 0 1 1 1 1
F4 0 0 1 1 1
F5 0 0 0 -1 -1
F6 0 0 0 0 -1
Ac. -1 0 1 0 -1

Cuadro 9.3: Contribución de pendientes entre puntos de quiebre. Diagrama de


magnitud

Diagrama de fase:
A similitud del caso de la magnitud construimos un cuadro donde se especi-
fica la contribución, en pendiente de la fase, de cada factor, entre dos puntos
sucesivos. Las pendientes son múltiplos de 45 [o/dec]. El lector es invitado a re-
visar nuevamente la Tabla 9.2 para tener en mente las caracterı́sticas ası́ntóticas
de cada factor.
La última lı́nea de la Tabla 9.4 muestra el efecto acumulado de los factores F3
a F6 . Con esta información podemos ejecutar los Pasos 4 a 6 del procedimiento
bosquejado.
Para el Paso 8 apreciamos que el efecto del factor F1 sobre la fase es nulo,
ya que se trata de una ganancia positiva. En cambio, el factor F2 sı́ afecta la
fase, desplazándola en −90 [o ].
El diagrama asintótico de fase resultante aparece en el gráfico inferior de la
Figura 9.6 donde también se indica la curva exacta.

(−∞; 0, 1] (0, 1; 0, 2] (0, 2; 0, 4] (0, 4; 0, 8] (0, 8; 10] (10; 20] (20; 40] (40; 80] (80; 100]
F3 0 1 1 1 1 0 0 0 0
F4 0 0 -1 -1 -1 -1 0 0 0
F5 0 0 0 1 1 1 1 0 0
F6 0 0 0 0 -1 -1 -1 -1 0
Ac. 0 1 0 1 0 -1 0 -1 0

Cuadro 9.4: Contribución de pendientes entre puntos de quiebre. Diagrama de


fase

222
La complejidad de los sistemas, ası́ como la necesidad de precisión hacen que
el procedimiento descrito tenga un valor limitado. Por ello, es también impor-
9.2. DIAGRAMAS DE BODE 231

tante dominar el uso de herramientas computacionales modernas. En particular,


Matlab dispone del comando bode para calcular y dibujar exactamente estos
diagramas. Para la función del Ejemplo 9.2, primero la expandimos como cuo-
ciente de polinomios en  ω, es decir:

8( ω)2 − 8 ω − 16
H( ω) = (9.34)
( ω)3 + 4( ω)2 − 32 ω
Entonces, los diagramas de Bode obtienen con el código Matlab :

Matlab

>>H=tf([8 -8 -16],[1 4 -32 0]);


>>bode(H);

40

30

20
Magnitud [dB]

10

−10

−20

−30
−2 −1 0 1 2
10 10 10 10 10

−55

−60

−65
Fase [o]

−70

−75

−80

−85

−90
−2 −1 0 1 2
10 10 10 10 10

Frecuencia [rad/s]

Figura 9.6: Diagramas de Bode de magnitud y fase para la respuesta en frecuen-


cia del Ejemplo 9.2

9.2.2. Tiempo discreto


La respuesta en frecuencia de sistemas de tiempo discreto también puede
describirse gráficamente usando diagramas de Bode; sin embargo, en este caso,
232 CAPÍTULO 9. REPRESENTACIÓN DE SISTEMAS LINEALES

espectro no tienen la misma utilidad por dos razones fundamentales:


a) Debido a que la respuesta en frecuencia es periódica con perı́odo 2π, en-
tonces la idea de usar una escala logarı́tmica de la frecuencia para incre-
mentar el rango de descripción, tiene utilidad limitada.
b) No se pueden construir aproximaciones simples, ya que aquı́ no aparecen
polinomios en  ω, sino que polinomios en ejθ .
Sin embargo, es importante destacar que si consideramos una función H(e jθ )
como la tranformada de Fourier de una señal arbitraria h[t], no necesariamente
la respuesta a impulso de un sistema, el diagrama de bode es importante pues
refleja el contenido frecuencial de dicha función. Es decir, los diagramas de Bode
permiten representar el espectro de una señal arbitraria h[t].
Para ilustrar el diagrama de Bode en tiempo discreto, desarrollamos el sigu-
iente ejemplo.
Ejemplo 9.3. Considere la función:
0, 2
H(ejθ ) = (9.35)
e2jθ − 1, 5ejθ + 0, 7
Para obtener la magnitud y fase de esta función compleja, primero es nece-
sario aplicar la ecuación de Euler ejθ = cos(θ)+j sen(θ). Para facilitar el trabajo
algebraico, el siguiente código Maple permite obtener el modulo y el ángulo de
H(ejθ ).

Maple

> H:=0.2/(exp(2*I*theta)-1.5*exp(I*theta)+0.7);
> abs(H);
> argument(evalc(H));

0,2
|H(ejθ )| = p (9.36)
(− cos 2θ + 1, 5 cos θ − 0, 7)2 + (− sen 2θ + 1, 5 sen θ)2
 
jθ sen 2θ − 1, 5 sen θ
∠H(e ) = arctan (9.37)
cos 2θ − 1, 5 cos θ + 0, 7
Se puede apreciar que las expresiones obtenidas no son simples de aproximar,
ya sea en baja o alta frecuencia, usando o no escala logaritmica en la frecuencia.
Sin embargo, en Matlab , resulta muy simple obtener el gráfico de la magnitud
y el ángulo de la función H(ejθ ), usando el comando bode. Note que este es el
mismo que se usa para tiempo continuo, por tanto se debe tener el cuidado
de definir la función de transferencia en tiempo discreto. Con los siguientes
comandos, Matlab entrega los gráficos de la Figura 9.7, donde se aprecia una
lı́mite de la banda de frecuencia en θ = π, producto de la periodicidad inherente
al análisis en frecuencia en tiempo discreto:
9.3. DIAGRAMAS POLARES 233

diagrama polar
polar!diagrama
Matlab

>> H=tf([0.2],[1 -1.5 0.7],-1);


>> bode(H);

Bode Diagram
5

−5
Magnitude (dB)

−10

−15

−20

−25

−90
Phase (deg)

−180

−270

−360
−1 0
10 10
Frequency (rad/sec)

Figura 9.7: Diagrama de Bode en tiempo discreto (Ejemplo 9.3).

222

9.3. Diagramas polares


Aunque los diagramas de Bode son una poderosa herramienta para el análisis
y diseño, se requieren los dos diagramas para interpretar correctamente ciertas
caracterı́sticas del sistema. Una alternativa es utilizar un diagrama polar, en el
que la respuesta en frecuencia se representa en un sólo gráfico, donde el eje de
abscisas corresponde a la parte real de H( ω) y el eje de ordenadas, a la parte
imaginaria de H( ω). En esta descripción, la frecuencia está implı́cita (ésta es
la limitación principal del diagrama polar).

9.3.1. Tiempo continuo


Para introducir el tema consideraremos un ejemplo.
234 CAPÍTULO 9. REPRESENTACIÓN DE SISTEMAS LINEALES

cuadrante Ejemplo 9.4. La respuesta en frecuencia de un sistema de tiempo continuo


está caracterizada por:

1
H( ω) = (9.38)
( ω + 3)(( ω)2 + 0, 4 ω + 1)
Si se evalúa H( ω) en un rango de frecuencias 0 < ω < ∞ y dibujamos
el resultado en en plano cartesiano se obtiene el resultado que aparece en el
diagrama polar de la Figura 9.8. Esta figura se obtiene con el siguiente código
Matlab :

Matlab
>>H=tf(1,conv([1 3],[1 0.4 1]));
>>w=logspace(-2,1,1000);h=freqresp(H,w);
>>plot(real(h(1,:)), imag(h(1,:)))

El mismo grafico se obtiene al reemplazar el último comando por plot(h(1,:)).


En la Figura 9.8 se han indicado adicionalmente algunos puntos que corre-
sponden a distintas frecuencias donde ω1 < ω2 < ω3 < ω4 .
Aunque parezca curioso hablar de gráficos polares, y describirlos en término
un gráfico cartesiano, es sólo una cuestión de lenguaje. De hecho, el mismo
diagrama polar se puede dibujar en otras coordenadas. En realidad, eso es lo
que hace el comando polar de Matlab . Ası́, si usamos el código:

Matlab

>>H=tf(1,conv([1 3],[1 0.4 1]));


>>w=logspace(-2,1,1000);h=freqresp(H,w);
>>polar(angle(h(1,:)), abs(h(1,:)));

se obtiene el gráfico de la Figura 9.9.


222

Del ejemplo precedente se puede entender que, dependiendo de la aplicación,


por facilidad de lectura se prefiera uno u otro sistema de coordenadas.
Para hacer un bosquejo de un diagrama polar se debe examinar magnitud
y fase de la respuesta en frecuencia. El análisis de la magnitud está orientado a
determinar como varı́a a medida que la frecuencia va desde 0 hasta ∞.
El análisis de la fase permite saber cuales cuadrantes recorre el gráfico, ya
que ello sólo es función de la fase para ω ∈ [0, ∞). Siempre es conveniente saber
el comportamiento de la magnitud y la fase en alta y baja frecuencia, es decir:
0 e ∞. Una forma alternativa es saber como evolucionan la parte real y la parte
9.3. DIAGRAMAS POLARES 235

0.1
ω4 ω=∞ ω=0
0

−0.1

−0.2
ω1
Parte imaginaria

−0.3

−0.4

−0.5
ω2

−0.6

−0.7

ω
−0.8 3

−0.9
−0.5 −0.4 −0.3 −0.2 −0.1 0 0.1 0.2 0.3 0.4 0.5
Parte real

Figura 9.8: Diagrama polar. Coordenadas cartesianas (Ejemplo 9.4).

imaginaria de la respuesta en frecuencia. Ellas también permiten determinar en


qué cuadrante del plano complejo se encuentra el diagrama polar.
Para facilitar el análisis, examinaremos primero algunos casos simples. Estas
funciones no tienen la misma trascendencia que en el caso de Bode. La diferencia
radica en que el diagrama polar de una función complicada no puede obtenerse
por composición simple de diagramas polares de funciones elementales, como
sı́ se puede hacer al construir diagramas de Bode. El objetivo del estudio de estos
casos es inducir una metodologı́a para la construcción de diagramas polares.

[P1] K
1
[P2]
Tω + 1
[P3] ( ω)q , q ∈ {−1; 1}
" 2 #−1
ω ω
[P4] + 2ξ +1 0 ≤ ξ < 1, ωn > 0.
ωn ωn
236 CAPÍTULO 9. REPRESENTACIÓN DE SISTEMAS LINEALES

90
1
120 60
0.8

0.6
150 30
0.4

0.2

ω4 ω=0
180 0

ω1

210 ω2 330

ω3
240 300

270

Figura 9.9: Diagrama polar. Coordenadas polar (Ejemplo 9.4).

[P5] e− ωτ , τ > 0

1
[P6] ,T >0
 ω(T  ω + 1)

e− ωτ
[P7]
Tω + 1

1
[P8]
( ω)2 − ωo2

Examinaremos, a continuación, los rasgos principales del diagrama polar


para cada uno de los tipos básicos.

[P1]
En este caso el diagrama polar es un único punto, ∀ω ∈ R. Este punto corre-
sponde a (K, 0).
9.3. DIAGRAMAS POLARES 237

[P2]
Podemos determinar la descomposición cartesiana (partes real e imaginaria) y
la descomposición polar (magnitud y fase). Ası́:
1 ωT
F ( ω) = −j 2 2 (9.39)
ω2 T 2 + 1 ω T +1
1
|F ( ω)| = √ (9.40)
ω T2 + 1
2
(
− arctan(ω|T |) T > 0
∠F ( ω) = (9.41)
arctan(ω|T |) T <0
Entonces, examinando la caracterı́stica de fase, se observa que el diagrama
polar recorre el cuarto cuadrante para T > 0 y el primer cuadrante si T < 0. Por
otro lado la magnitud es monotónicamente decreciente, desde 1 (para ω = 0)
hasta cero (para ω = ∞); sin embargo, en este caso particular se puede decir algo
más, porque es fácil demostrar, usando (9.39) que las partes real e imaginaria
de F ( ω) cumplen con
(<{F ( ω)} − 0, 5)2 + (={F ( ω)} = 0, 25 (9.42)
lo cual indica que el diagrama polar es una semi-circunferencia centrada en
(0, 5; 0) con radio 0, 5. Esta semi-circunferencia está en el cuarto cuadrante para
T > 0 y en el primero para T < 0.
Note además que el valor absoluto de T no afecta el diagrama, pues solamente
equivale a re-escalar la frecuencia, la cual se encuentra implı́cita como parámetro
que hace recorrer la curva.
Además, de (9.41) vemos que la fase tiende a −0, 5πsigno(T ). Es decir,
cuando ω tiende a infinito, el diagrama polar tiende al origen, apegándose al eje
imaginario por abajo (T > 0) o al al eje imaginario por arriba (T < 0).
Los diagramas polares correspondientes a T > 0 y a T < 0 se muestran en
la Figura (9.10).

0.2 T>0 T<0


ω=∞ 0.6 ω2
ω=0 ω3
0 ω1
Parte imaginaria

Parte imaginaria

0.4
−0.2
0.2
−0.4
ω1 0
ω3
−0.6 ω2 ω=∞ ω=0
−0.2
0 0.5 1 0 0.5 1
Parte real Parte real

Figura 9.10: Diagramas polares para el caso [P1].

[P3]
En este caso, F ( ω) = ( ω)q . Esta función tiene parte real cero para q ∈ {−1; 1}.
238 CAPÍTULO 9. REPRESENTACIÓN DE SISTEMAS LINEALES

Ası́ es que el diagrama polar coincide con el eje imaginario (semi-eje superior
para q = 1 y semi-eje inferior para q = −1). La fase es 0, 5qπ ∀ω ∈ R+ . Para
valores de ω tendiendo a cero, la magnitud tiende a infinito. Para ω tendiendo
a infinito, la magnitud tiende a cero.

[P4]
En este caso conviene descomponer la función F ( ω) en sus partes real e imag-
inaria en la forma
ωn2
F ( ω) = =
( ω)2 + 2ξωn  ω + ωn2
(ω 2 − ωn2 )ωn2 2ξ ωn3 ω
− j (9.43)
(ω 2 − ωn2 )2 + 4ξ 2 ωn2 ω 2 (ω 2 − ωn2 )2 + 4ξ 2 ωn2 ω 2

ω=∞ ω=0
0

0,25
−2
Parte Imaginaria

0,15
−4

0,1
−6

−8

ξ=0,05
−10

−12
−6 −4 −2 0 2 4 6
Parte Real

Figura 9.11: Diagrama polar de una función tipo [P4] para distintos valores de
ξ

La parte imaginaria de F ( ω) es negativa ∀ ω ∈ R. Por lo tanto el diagrama


polar sólo puede estar en el tercer y cuarto cuadrante. En cambio, la parte real
puede ser positiva o negativa, el punto de quiebre ocurre cuando ω = ωn . Para
ω < ωn la parte real es negativa, lo cual indica que el diagrama polar está en
el cuarto cuadrante; para ω > ωn la parte real es negativa, lo cual indica que el
diagrama polar está en el tercer cuadrante.
Además podemos examinar la evolución de la fase a medida que ω progresa
desde 0 hasta ∞. En eso podemos apoyarnos en el diagrama de Bode para la fase
9.3. DIAGRAMAS POLARES 239

de la respuesta en frecuencia para el sistema elemental [B4] (ver Figura 9.4 en retardo!diagrama polar
cı́rculo unitario
la página 226). Observamos que la fase decae monotónicamente a medida que ω
crece. Un aspecto de interés es que, cuando ω → ∞, el diagrama polar se acerca
al origen asintóticamente siguiendo el eje real negativo.
La Figura 9.11 muestra los diagramas polares de F ( ω) tipo [P4], para dis-
tintos valores de ξ. Note que el valor de ωn no altera los diagramas, porque este
parámetro sólo produce escalamiento de la frecuencia (ojo, esta afirmación es
sólo válida si ωn > 0; el lector es invitado a investigar el caso ωn < 0).

[P5]
La respuesta en frecuencia del retardo puro, e− ωτ , tiene magnitud unitaria,
∀ω ∈ R, y con fase igual a −ωτ , en consecuencia el diagrama polar es una
circunferencia unitaria con centro en el origen.

[P6]
La función F ( ω), en este caso, puede descomponerse en sus partes real e imag-
inaria, en la forma:
1 −T  ω + 1 −T 1
F ( ω) = = = −j (9.44)
 ω(T  ω + 1)  ω(1 + ω 2 T 2 ) (1 + ω 2 T 2 ) ω(1 + ω 2 T 2 )
La descomposición en magnitud y fase está dada por:
1
|F ( ω)| = √ (9.45)
ω ω2 T 2 + 1
∠F ( ω) = −0, 5π − arctan(ωT ) (9.46)
De la ecuación (9.44) se observa que la parte real es siempre negativa, y que
la parte imaginaria también es siempre negativa. Por lo tanto, el diagrama polar
de F ( ω) está confinado al cuarto cuadrante. De la ecuación (9.45) se ve que
la magnitud decrece montónicamente a medida que la frecuencia aumenta. Esto
es consistente con la ecuación (9.44), ya que de allı́ sabemos que tanto la parte
real como la parte imaginaria decaen monotónicamente a cero.
De la ecuación (9.46) se ve también que para ω = 0 la fase es −0, 5π; sin
embargo, esto no implica que a esa frecuencia la parte real sea cero. De hecho,
de la ecuación (9.44) se ve que la parte real, para ω = 0, es igual a −T . Para
ω = ∞ la fase tiende a −π; esto implica que el diagrama polar tiende al origen
acercándose asintóticamente al eje real negativo.
En la Figura 9.12 se muestra el diagrama polar de una función tipo [P6] con
T = 1. Se observa que la parte real viene desde (−1; −∞) cuando ω = 0.

[P7]
La función en este caso es el producto de una función tipo [P5] y una función
tipo [P6]. Por lo tanto la magnitud resultante es el producto de las magnitudes
de los factores y la fase es la suma de la fase de los factores, es decir:
1
|F ( ω)| = √ ; ∠F ( ω) = −ωτ − 0, 5π − arctan(ωT ) (9.47)
ω ω2 T 2 + 1
240 CAPÍTULO 9. REPRESENTACIÓN DE SISTEMAS LINEALES

espiral
0
ω=∞

−2

−4

−6

−8

ω→ 0
−10

−12
−1.5 −1 −0.5 0 0.5

Figura 9.12: Diagrama polar de una función tipo [P6] con T = 1

La magnitud es la misma de una función tipo [P6], lo cual implica que decae
monótonamente a medida que la frecuencia crece. Por su parte, la fase exhibe
un crecimiento monótono, en la dirección negativa; esta caracterı́stica se debe
al término −ωτ . Dado que la magnitud decae monótonamente, el crecimiento
de la fase genera una espiral hacia el origen.

1 0.02

0 0.01
Parte imaginaria
Parte imaginaria

0
−1
−0.01
ω→ 0
−2
−0.02
−3 −0.03
ω→ 0
−4 −0.04
−3 −2 −1 0 1 −0.04 −0.02 0 0.02 0.04
Parte real Parte real
a) b)

Figura 9.13: a) Diagrama polar de una función tipo [P7] (T = 1 y τ = 2), y b)


detalle.

En la Figura 9.13.a) se muestra el diagrama polar de una función del tipo


[P7], con T = 1 y τ = 2. En la Figura 9.13.b) se observa un detalle (alrededor
del origen) del mismo diagrama.

[P8]
En este caso, F ( ω) = 1/(( ω)2 − ωo2 ). Para esta función el diagrama polar
9.3. DIAGRAMAS POLARES 241

empieza en (−1/ωo2 ; 0) para ω = 0 y tiende rápidamente hacia −∞ a lo largo discontinuidad


del eje real negativo para ω → ωo− . En ω = ωo hay una discontinuidad, ya que
para esa frecuencia, el diagrama polar salta desde (−∞; 0) a (∞; 0), luego, a
medida que ω se hace mayor que ωo , el diagrama polar tiende al origen para
ω → ∞.
222
Como ya hemos dicho, el diagrama polar de funciones complejas no se puede
obtener en forma simple usando los diagramas polares para los funciones tipo
[P1] a [P8]. Sin embargo, las ideas usadas para dibujar el diagrama polar de
cada una de esas funciones ayuda a construir los diagramas polares de funciones
más complicadas. Incluso, algunos de los rasgos peculiares de las funciones tipo
[P1] a [P8] se propagan a las funciones compuestas, tal como se aprecia en el
siguiente ejemplo.

Ejemplo 9.5. Suponga que la respuesta en frecuencia de un sistema está dada


por una función H( ω) compuesta por un factor tipo [P2] y un factor tipo [P8].
La función H( ω) está dada por:

1
H( ω) = (9.48)
(0, 5 ω + 1)(( ω)2 + 1)

Se requiere dibujar el diagrama polar. Para ello primero descomponemos la


función dada en sus partes real e imaginaria, es decir:

1 ω
H( ω) = −j (9.49)
(0, 25ω 2 2
+ 1)(−ω + 1) (0, 25ω + 1)(−ω 2 + 1)
2

y en magnitud y fase:

1
|H( ω)| = p (9.50)
0, 25 ω 2 + 1 |ω 2 − 1|
(
− arctan(0, 5ω) ∀ω < 1
∠H( ω) = (9.51)
−π − arctan(0, 5ω) ∀ω > 1

Ası́, de las ecuaciones precedentes, podemos observar que:

la parte real, la parte imaginaria y la fase tienen una discontinuidad en


ω = 1 (esto es heredado del factor tipo [P8] en la función H( ω));

cuando ω < 1 la parte real es positiva y la parte imaginaria es negativa,


es decir, el diagrama polar está en el cuarto cuadrante;

cuando ω > 1 la parte real es negativa y la parte imaginaria es positiva,


es decir, el diagrama polar está en el segundo cuadrante;

cuando ω → 1− la fase tiende a − arctan(0, 5) y cuando ω → 1+ la fase


tiende a −π − arctan(0, 5ω);
242 CAPÍTULO 9. REPRESENTACIÓN DE SISTEMAS LINEALES

dado que la discontinuidad de la fase es −π [rad], el diagrama polar salta


desde el cuarto cuadrante al segundo cuadrante cuando ω pasa por 1
[rad/s]; y

cuando ω → ∞ la magnitud tiende a 0 y la fase tiende a −1, 5π [rad/s],


es decir, el diagrama polar tiende al origen acercándose asintóticamente
al eje imaginario superior.

El diagrama polar para este ejemplo aparece en la Figura 9.14. Note que se
ha dibujado con lı́nea delgada la ası́ntota del diagrama polar para ω → 1− y para
ω → 1+ .
1.5

+
ω→ 1
1

0.5
Parte imaginaria

0
ω=0
ω=∞

−0.5

−1
ω→ 1−

−1.5
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5
Parte real

Figura 9.14: Diagrama polar de H( ω) para el Ejemplo 9.5.

222

Otro tipo de situaciones de interés son aquellas respuestas en frecuencia


donde el numerador es también un polinomio en  ω. Note que en el caso de las
funciones tipo [P1] a [P8], esta situación no ha sido incluida, ya que sólo hemos
considerado funciones con numerador constante. Para observar los fenómenos
que puede provocar este numerador más complejo consideraremos un último
ejemplo.

Ejemplo 9.6. Un sistema tiene la respuesta en frecuencia dada por:

( ω + 5)2 (− ω + 0, 1)
H( ω) = 0, 001 (9.52)
( ω + 0, 5)( ω + 0, 2)( ω + 0, 1)2

Para una función tan compleja como ésta, podemos deducir algunas rasgos
del diagrama polar:

El diagrama parte, para ω = 0, en (2, 5; 0);


9.3. DIAGRAMAS POLARES 243

Para ω → ∞ es cero, y la fase es −270[o ];

En general, la magnitud y la fase cumplen con:


s
(ω 2 + 25)2 (ω 2 + 0, 01)
|H( ω)| =0, 001 (9.53)
(ω 2 + 0, 25)(ω 2 + 0, 04)(ω 2 + 0, 01)2 )
∠H( ω) =2 arctan(0, 2ω) − 3 arctan(10ω) − arctan(2ω) − arctan(5ω)
(9.54)

Parece difı́cil, a partir de las expresiones precedentes para magnitud y fase,


obtener algunos criterios para dibujar el diagrama polar. Recurriremos a Mat-
lab usando el siguiente código:

Matlab

>>H=-0.001*tf(poly([-5 -5 0.1]),poly([-0.5 -0.2 -0.1 -0.1]));


>>w=logspace(-1,2,4000);
>>h=freqresp(H,w);subplot(221);plot(h(1,:));

El primer comando es equivalente a H=zpk([-5 -5 0.1],[-0.5 -0.2 -0.1


-0.1],-0.001). El resultado se muestra en la Figura 9.15.a).

−4
x 10
1 2

0.8 0
Parte imaginaria

Parte imaginaria

0.6 −2

0.4 −4

0.2 −6

0 −8

−0.2 −10

−0.4 −12
−2 −1.5 −1 −0.5 0 0.5 0 1 2 3 4
Parte real Parte real −3
x 10
a) b)

Figura 9.15: a) Diagrama polar de H( ω) para el Ejemplo 9.6, y b) detalle.

Aparentemente el diagrama no refleja la condición de la fase asintótica


(−270[o ]), ya que ésta parece ser −360[o ]. Esta aparente contradicción es re-
suelta con un detalle del diagrama en torno al origen. Este detalle se muestra
en la Figura 9.15.b) y se obtiene con
244 CAPÍTULO 9. REPRESENTACIÓN DE SISTEMAS LINEALES

diagrama polar!tiempo discreto


circulo unitario
Matlab

>> w2=logspace(0.3,3,4000);h2=freqresp(H,w2);
>> subplot(222);plot(h2(1,:));

222

9.3.2. Tiempo discreto


Naturalmente que el mismo tipo de descripción mediante diagramas polares
es aplicable a la respuesta en frecuencia de sistemas de tiempo discreto. Sin
embargo, en este caso es aún más difı́cil construir, a mano, una aproximación
para el diagrama polar. La razón esencial es que la respuesta en frecuencia
H(ejθ ) es un cuociente de polinomios en ejθ (en vez de ser un cuociente de
polinomios en  ω, como en el caso de sistemas de tiempo continuo). Ese rasgo
hace que las expresiones tanto para la magnitud como para las partes real e
imaginaria de H(ejθ ) sean expresiones muy complicadas de θ. Una herramienta
interesante, para dibujar diagramas polares de sistemas simples se deduce de la
Figura 9.16.

ejθ

θ=π η θ=0
po

Figura 9.16: Interpretación gráfica de la respuesta en frecuencia (ejθ − po )−1

En la Figura 9.16 la circunferencia de radio unitario describe la ubicación del


número complejo ejθ , por lo tanto, el vector que se ha dibujado es ejθ −po . Ası́, si
consideramos un sistema cuya respuesta en frecuencia es F (ejθ ) = (ejθ − po )−1 ,
vemos que su magnitud es el recı́proco del largo del vector dibujado, y la fase
corresponde al negativo del ángulo θ en la figura. A medida que ω crece desde 0
hasta π, la punta del vector se desplaza desde (1, 0) hasta (−1, 0). Esto implica
que la magnitud del vector crece monótonamente (para po ∈ R+ ) desde 1 − po
hasta 1+po . Ası́, la magnitud de F (ejθ ) decrece monótonamente desde (1−po )−1
hasta (1 + po )−1 , y su fase va monótonamente también, desde 0 hasta −π [rad].
El diagrama polar está por lo tanto en el cuarto y tercer cuadrantes.
9.3. DIAGRAMAS POLARES 245

La idea precedente puede ser usada en la determinación de los rasgos prin-


cipales de diagramas polares de funciones simples, como se ilustra en el ejemplo
siguiente.
Ejemplo 9.7. Un sistema de tiempo discreto tiene la respuesta en frecuencia
dada por:

ejθ − zo
F (ejω ) = = 1 − zo e−jθ ; 0 < zo < 1 (9.55)
ejθ
Las caracterı́sticas del diagrama polar pueden ser construidas a partir de la
Figura 9.17.

ejθ
γ

θ=π θ β θ=0

zo

Figura 9.17: Interpretación gráfica de la respuesta en frecuencia de 1 − zo e−jt .

Primero observamos que:

|ejθ − zo |
|F (ejθ )| = = |ejθ − zo | (9.56)
|ejθ |
∠F (ejθ ) = ∠(ejθ − zo ) − ∠ejθ = β − θ (9.57)

Usando relaciones básicas de geometrı́a, sabemos también que β − θ = γ.


Ası́, la fase de F (ejθ ) es igual a γ, por su parte, la magnitud de F (ejθ ) es igual
al largo del vector ejθ − zo .
Con los antecedentes anteriores vemos que la magnitud de F (ejθ ) va monó-
tonamente desde 1 − zo , para θ = 0, hasta 1 + zo , para θ = π. Por su parte,
la fase empieza en 0 [rad] para θ = 0, luego crece hasta alcanzar un máximo
(siempre menor que π/2), luego decae hasta llegar a cero nuevamente cuando
θ = π. El diagrama polar está por lo tanto en el primer cuadrante.
222
Para funciones más complejas es difı́cil estimar la forma en que evolucionan la
magnitud y la fase. En esos casos es preferible recurrir a software como Matlab
246 CAPÍTULO 9. REPRESENTACIÓN DE SISTEMAS LINEALES

bloques , que en el caso de Ejemplo 9.7 los siguientes comandos dan como resultado el
diagramas de bloques
sistema!interconexión gráfico de la Figura 9.18.
interconexión

Matlab

>> F=tf([1 -0.7],[1 0],-1);


>> w=[0:0.01:pi];
>> h=freqresp(F,w);
>> plot(h(1,:))

0.8

0.7

0.6
Parte imaginaria

0.5

0.4

0.3

0.2

0.1
θ=0 θ=π
0
1−zo 1+zo
−0.1

−0.2
−0.2 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8
Parte real

Figura 9.18: Diagrama polar para el Ejemplo 9.7.

9.4. Diagramas de bloques


Una forma de representar la interconexión de sistemas es un diagrama en
bloques, donde cada uno de los bloques representa a uno de los sistemas par-
ticipantes. A cada bloque se asocia una caracterización del sistema asociado,
tal como la respuesta a impulso con condiciones iniciales iguales a cero, o su
respuesta en frecuencia, o la función de transferencia, entre otras.
Un requisito clave en esta forma de representación es que cada uno de los
sistemas participantes mantenga su caracterización original (la función de trans-
ferencia, por ejemplo) cuando se realiza la interconexión. Para entender esto,
considere las dos redes de la Figura 9.19. Los sistemas pueden ser caracteriza-
dos por sus respectivas funciones de transferencia H1 ( ω) y H2 ( ω) respectiva-
9.4. DIAGRAMAS DE BLOQUES 247

mente, donde: amplificador

V2 ( ω) R2
H1 ( ω) = = (9.58)
V1 ( ω)  ωC3 R1 R2 + R1 + R2
V4 ( ω)  ωC4 R5
H2 ( ω) = = (9.59)
V3 ( ω)  ωC4 R5 + 1

R1 C4

v1 (t) C3 R2 v2 (t) v3 (t) R5 v4 (t)

Figura 9.19: Sistemas a interconectar. Caracterización independiente

Al conectar directamente ambas redes (V2 ( ω) = V3 ( ω)), la relación entre


las variables es ahora:

V2 ( ω) R2 (R5 C4  ω + 1)
=
V1 ( ω) R1 R2 R5 C3 C4  ω 2 + (R1 R2 C4 + R1 R5 C3 + R2 R5 C4 ) ω + R1 + R2
(9.60)
V4 ( ω) V4 ( ω) R5 C4  ω
= = (9.61)
V2 ( ω) V3 ( ω) R 5 C4  ω + 1

Se aprecia que la función de transferencia entre V1 ( ω) y V2 ( ω) ya no


satisface (9.60) y esto hace que la función de transferencia entre V1 ( ω)y V4 ( ω)
sea distinta al producto H1 ( ω)H2 ( ω), donde H1 ( ω) y H2 ( ω) están dadas
en (9.58)–(9.59).
Supongamos ahora que las redes de la Figura 9.19 son interconectadas a
través de un amplificador de ganancia unitaria, tal como se muestra en la Figura
9.20.

R1 − C4
+

v1 (t) C3 R2 v2 (t) v3 (t) R5 v4 (t)

Figura 9.20: Sistemas interconectados


248 CAPÍTULO 9. REPRESENTACIÓN DE SISTEMAS LINEALES

Ahora podemos ver que las transferencias entre V1 ( ω) y V2 ( ω) y entre


V3 ( ω) y V4 ( ω) son las mismas que en (9.58)–(9.59). Por lo tanto la función de
transferencia entre V1 ( ω)y V4 ( ω) es ahora igual al producto H1 ( ω)H2 ( ω).
222

La discusión precedente señala la condición implı́cita en los diagramas de


bloques: la función de transferencia de cada bloque sigue rigiendo la relación
entre entrada y salida, aunque el bloque sea interconectado con otros.

La ventaja principal de estos diagramas es que permiten analizar un sistema


por partes, estudiando el rol que cada subsistema juega en el total. Esto es clave
en el análisis y sı́ntesis de filtros, controladores y otros sistemas procesadores de
señales.
En la Tabla 9.5 se muestran algunos ejemplos de diagramas de bloques con
sus transferencias equivalentes.
Finalmente es necesario señalar que la representación en diagramas de blo-
ques se aplica sin distinción tanto a sistemas de tiempo continuo como a sistemas
de tiempo discreto, y también a sistemas hı́bridos, que combinan elementos en
ambos dominios, como se muestra en el Capı́tulo 11.
9.4. DIAGRAMAS DE BLOQUES 249

Interconexión Transferencia equivalente

H1 ( ω) H2 ( ω) H1 ( ω)H2 ( ω)

H1 ( ω)
+
H1 ( ω) + H2 ( ω)
+
H2 ( ω)

+
H1 ( ω) H2 ( ω) H1 ( ω)H2 ( ω)
±
1 ∓ H1 ( ω)H2 ( ω)

+
H1 ( ω)
± H1 ( ω)
1 ∓ H1 ( ω)H2 ( ω)
H2 ( ω)

H3 ( ω)
+ (H1 ( ω) + H3 ( ω))H2 ( ω)
H1 ( ω) H2 ( ω) 1 + H1 ( ω)H2 ( ω)
+ − +

+
H1 ( ω) H2 ( ω) H3 ( ω) H1 ( ω)H2 ( ω)H3 ( ω)
+ − −
1 + H2 ( ω) + H1 ( ω)H2 ( ω)H3 ( ω)

Cuadro 9.5: Diagramas de bloques y transferencias equivalentes


250 CAPÍTULO 9. REPRESENTACIÓN DE SISTEMAS LINEALES

9.5. Problemas para el lector


Problema 9.1. Dibuje los diagramas de Bode, es decir, magnitud y fase,
de cada una de las funciones de transferencia que se presentan a continuación.
Haga primero las aproximaciones asintóticas y luego use Matlab para verificar:
15
a) H1 (s) =
s2
+ 8s + 15
s
b) H2 (s) = 2
s − 2s − 3
1
c) H3 (s) =
s(0,2s + 1)
6(s − 3)
d) H4 (s) =
(s + 5)(s + 9)2
e) H5 (s) = −H4 (s)
e−2s
f) H6 (s) =
4s + 1
1
g) H7 (s) =
s2 + 0,01s + 1
s−2
h) H8 (s) = s2 +3s+2

Problema 9.2. Construya los diagramas de Bode de la siguiente función de


transferencia para α = 0,1; 0,2; 0,5; 1; 5:
αs + 1
H(s) =
(s + 1)(0,2s + 1)

Problema 9.3. Dados los diagramas de Bode de la Figura 9.21, proponga una
función de transferencia H(s) que pueda ser representada aproximadamente por
ellos.

Problema 9.4. Con los diagramas de Bode de G(s) que aparecen en la Figura
9.22, determine en forma aproximada los diagramas de Bode para e−2s G(s),
−s+1 G(s)
s+1 G(s) y s .

Problema 9.5. Dados los diagramas de Bode de G(s) de la Figura 9.23,


determine los diagramas de Bode para G(−s).
9.5. PROBLEMAS PARA EL LECTOR 251

20

−20

−40

−60

−80

100

50

0
Fase (grados)

−50

−100

−150

−200
−2 −1 0 1 2 3
10 10 10 10 10 10
Frecuencia (rad/seg.)

Figura 9.21: Diagramas de Bode de H(s)

−10

−20

−30

−40

−50

−50
Fase (grados)

−100

−150

−200
−2 −1 0 1
10 10 10 10
Frecuencia (rad/seg.)

Figura 9.22: Diagramas de Bode de G(s)


252 CAPÍTULO 9. REPRESENTACIÓN DE SISTEMAS LINEALES

−5

−10

−15

−20

−25

−20
Fase (grados)

−40

−60

−80

−100
−1 0 1 2
10 10 10 10
Frecuencia (rad/seg.)

Figura 9.23: Diagramas de Bode de G(s)


variables!de estado|textbf
estado|textbf
espacio!de estado
modelo!en espacio de estado

Capı́tulo 10

Representación en variables
de estado.

10.1. Conceptos fundamentales sobre modelos


de sistemas.
Uno de los aspectos esenciales que interesa en ciencias aplicadas e ingenierı́a
es la representación de sistemas mediante un modelo, que lo describa con sufi-
ciente detalle y permita analizar sus propiedades fundamentales.
En la teorı́a de sistemas estos modelos juegan un rol fundamental, pues son
imprescindibles para el análisis, la sı́ntesis y el diseño. En particular, el principal
objeto de contar con una representación de un sistema es el poder predecir y
analizar el comportamiento del sistema en el tiempo.
Naturalmente existen diferentes formas de describir un sistema dado, dando
lugar a diferentes modelos, según sea el aspecto del sistema que interesa describir
con mayor énfasis. Por ejemplo, si consideramos un motor eléctrico, podrı́amos
estar interesados en el como un sistema de conversión electro-mecánica, un sis-
tema térmico, un sistema mecánico sujeto a vibraciones, o bien, estudiar el
comportamiento de los materiales que lo conforman.
En segundo lugar, no existe un único modelo para un sistema, ya que al
modelar siempre existe alguna simplificación implı́cita de la realidad, la cual,
en la mayor parte de los casos, resulta demasiado compleja para describir todos
sus aspectos.
De esta forma, una decisión fundamental a la hora de modelar un sistema
es definir el objetivo del modelo, es decir, cuáles son los aspectos esenciales que
queremos capturar.
La teorı́a y herramientas existentes para modelar de sistemas son muy di-
versas, y en ellas se combinan leyes de la fı́sica, la quı́mica, la termodinámica,
además de teorı́a de señales, procesamiento de datos, matemáticas y herramien-
tas numéricas. De hecho, un modelo generalmente no se obtiene de una sola

253
254 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.

sistema!dinámico vez, sino que se construye en un proceso iterativo, que considera la calidad de
sistema!hı́brido
muestreo los resultados obtenidos con él en las diferentes etapas, por ejemplo, para hacer
estado!del sistema control sobre un sistema o predecir su comportamiento.
estado!variables de En este capı́tulo, nos interesa introducir una clase especial de modelos, útil
variables!de estado
para describir sistemas dinámicos. Como ya hemos visto, estos sistemas se car-
estado!vector de
vector!de estado acterizan por la interacción de sus variables en el tiempo, y se describen, en
estado!espacio de tiempo continuo, a través de ecuaciones diferenciales (EDS en Cap. 3), y en
estado!trayectoria tiempo discreto, a través de ecuaciones recursivas (ERS en Cap. 4).
Además de estos dos tipos de sistemas dinámicos, en el dominio del tiempo
continuo y en el del tiempo discreto, se introducen sistemas hı́bridos en los que se
establece una relación entre tiempo continuo y discreto a través del muestreo.
En este capı́tulo hemos enfatizado los conceptos, propiedades fundamentales,
interpretaciones fı́sicas y ejemplos, sin embargo, para un estudio en mayor pro-
fundidad de los tópicos aquı́ presentados el lector puede consultar, por ejemplo,
las referencias [5], [8], [15], [18], [19], [20], [21].

10.2. Conceptos fundamentales


10.2.1. Introducción
Uno de los tipos de modelos utilizados con frecuencia para describir un sis-
tema es aquél en un conjunto de ecuaciones que relaciona sus variables internas.
Estas variables se denominan variables de estado. En cada instante el conjun-
to de ellas, que toman un valor determinado, se denomina estado del sistema.
Sin embargo, a menudo usaremos las expresiones variables de estado y estado
del sistema como sinónimos.
La definición dada es más bien intuitiva y podrı́a coincidir en realidad con
cualquier grupo de variables de un sistema dado. Por esto, seremos mas precisos:
Un conjunto de variables de estado de un sistema dado es aquel que permite
expresar cualquier variable del sistema como función del estado presente y de
los valores presentes y futuros de las entradas del sistema.
En esta definición hemos enfatizado en significado fı́sico de las variables de
estado. Sin embargo, existen también definiciones más abstractas.
El conjunto de variables de estado usualmente se agrupan en un vector de
estado, el cual pertenece al llamado espacio de estado.
Es importante notar es que la evolución del estado en el tiempo, es decir, su
trayectoria, puede ser obtenida a partir del estado presente y el valor futuro de
las entradas del sistema. De esta forma, los modelos de este tipo son siempre
ecuaciones diferenciales de primer orden, en el caso de sistemas continuos, o
ecuaciones recursivas de un paso, para sistemas discretos
Además, al conocer el estado del sistema en un instante dado t, podemos
entonces calcular la energı́a que en ese instante el sistema posee. En el caso de
sistemas fı́sicos, ésta siempre depende de las variables del sistema, tales como ve-
locidad, posición, presión, voltaje y corriente, entre otras. Todas estas variables,
10.2. CONCEPTOS FUNDAMENTALES 255

por la definición dada, se pueden obtener a partir del estado del sistema.
Esto sugiere además que podemos pensar el estado de un sistema de forma
más general, ya que las variables de estado pueden ser cualquier función de
variables del sistema. Esta observación resulta muy importante pues establece
que el estado del sistema no necesariamente esta formado por variables reales
del sistema, permitiendo de esta forma un análisis más general. Es más, esta
misma observación hace evidente que la elección de las variables de estado no
es única.

10.2.2. Modelos básicos en variables de estado


Si denotamos por x al vector de estado que corresponde a una elección en
particular de variables de estado para un sistema dado, entonces la forma general
del modelo en variables de estado es:
Para sistemas de tiempo continuo
dx
= F(x(t), u(t), t) (10.1)
dt
y(t) = G(x(t), u(t), t) (10.2)

donde u(t) es el vector de entrada y y(t) es el vector de salida del


sistema. En el caso de sistemas de una entrada y una salida, naturalmente
estos vectores se reducen a funciones escalares.
Para sistemas de tiempo discreto
x[t + 1] = Fd (x[t], u[t], t) (10.3)
y[t] = Gd (x[t], u[t], t) (10.4)

Donde, análogamente al caso de tiempo continuo, u[t] en el vector de


entradas y y[t] es el vector de salidas del sistema, y también para el
caso de sistemas SISO se reducen a funciones escalares.
Para ilustrar los conceptos presentados hasta el momento consideremos el
siguiente ejemplo:
Ejemplo 10.1. En la Figura 10.1, una fuerza externa f (t) se aplica a un sis-
tema masa-resorte sujeto a un muro por un extremo. La posición d(t) se mide
con respecto a la posición en que el resorte se encuentra en su largo natural. El
movimiento de la masa es amortiguado por una fuerza de roce viscoso, propor-
cional a la velocidad de la masa, v(t).
Sabemos que para obtener la posición y la velocidad de la masa se debe
conocer su valor en algún instante inicial. Por tanto el vector de estado debe
tener dos componentes, i.e x(t) = [x1 (t) x2 (t)]T , y la elección más natural en
este caso es:
x1 (t) = d(t) (10.5)
x2 (t) = v(t) = ẋ1 (t) (10.6)
256 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.

transformación del estado


v(t)
estado!transformación
similaridad d(t)
se~
nal!modelo de estado
K
M f(t)

roce viscoso

Figura 10.1: Sistema masa-resorte.

Con esta elección, se pueden aplicar las leyes de Newton para obtener:
dv(t)
f (t) = M + Kd(t) + Dv(t) = M ẋ2 (t) + Kx1 (t) + Dx2 (t) (10.7)
dt
donde D es el coeficiente de roce viscoso, o constante de proporcionalidad.
De esta forma podemos escribir las ecuaciones de estado del sistema:

ẋ1 (t) = x2 (t) (10.8)


K D 1
ẋ2 (t) = − x1 (t) − x2 (t) + f (t) (10.9)
M M M
Para resolver este sistema de ecuaciones diferenciales de primer orden, se
requiere conocer los valores x1 (0) y x2 (0), ası́ como el valor de la excitación
f (t), ∀t ≥ 0.
Podemos apreciar también que la energı́a almacenada en el sistema, w(t),
queda expresada como:
1 2 1 2
w(t) = K (d(t)) + M (v(t)) = x(t)T Λx(t) (10.10)
2 2

donde Λ es una matriz diagonal: Λ = diag K M
2 , 2 .
Finalmente, la no unicidad de la representación en variables de estado se
puede apreciar si, en vez de la elección hecha en (10.8), elegimos un nuevo
vector de estado x(t) que se relaciona con x(t) a través de una matriz no singular
cualquiera T ∈ R2×2 , es decir:

x(t) = Tx(t) (10.11)

Más adelante, en la Sección §10.3.3, veremos en más detalle este tipo de


transformaciones.
222

10.2.3. Señales descritas en espacio de estado


Las representaciones en variables de estado además de describir sistemas o
procesos, pueden ser también muy útiles para representar una gran variedad de
señales.
10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS 257

Para esto se utilizan modelos de estado sin excitaciones o señales de entrada. se~
nal!de tiempo continuo
se~
nal!de tiempo discreto
Por tanto, la señal que se obtiene como salida del sistema sólo depende de la sistema!tiempo continuo
condición inicial del vector de estado.
Este tipo de sistemas sin señal de entrada se denominan homogéneos o
autónomos:

Para señales de tiempo continuo

dx(t)
= Ax(t) (10.12)
dt
y(t) = Cx(t) (10.13)

Para señales de tiempo discreto

x[t + 1] = Aq x[t] (10.14)


y[t] = Cq x[t] (10.15)

Las variables definidas en este tipo de modelos en espacio de estado, no


tienen un significado fı́sico, sin embargo, esta forma de describir señales resulta
muy útil en diversas aplicaciones de la teorı́a de señales.

Ejemplo 10.2. Supongamos la señal de tiempo continuo:

f (t) = 2 + 4 cos(5t) − sen(5t) (10.16)

Esta esta formada por una sinusoide más una constante, y puede interpre-
tarse como la solución de la ecuación diferencial homogénea:

d 3 f (t) d f (t)
+ 25 = 0; sujeta a f (0) = 6; f˙(0) = −5 and f¨(0) = −100
dt 3 dt
(10.17)
Si ahora escogemos como variables de estado x1 (t) = f (t), x2 (t) = f˙(t) y
x3 (t) = f¨(t), entonces el modelo el espacio de estado de esta señal es:
 
0 1 0
dx(t) 
= 0 0 1 x(t) y(t) = [1 0 0] x(t) (10.18)
dt
0 −25 0
222

10.3. Modelos de estado para sistemas continu-


os
En esta sección se presentan los modelos en variables de estado para sistemas
de tiempo continuo. El análisis que se realiza está centrado en sistemas lineales
258 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.

retardo e invariantes en el tiempo, tal como se ha considerado en los capı́tulos pre-


linealización
punto de equilibrio vios. Naturalmente los sistemas son en general no lineales, tal como se muestra
en las ecuaciones (10.1) y (10.2), pero pueden ser linealizados, tal como se hizo
en el capı́tulo 1.
Otra restricción importante es que los sistemas considerados no poseen re-
tardos puros. Estos darı́an origen a un vector de estado de dimensión infinita.
Sin embargo, en la Sección §10.4 veremos que este tipo de sistemas pueden ser
representados en variables de estado usando un modelo del sistema muestrea-
do.

10.3.1. Linealización
Si consideramos el modelo de un sistema invariante en el tiempo, las ecua-
ciones (10.1)-(10.2) se reducen a:

dx
= F(x(t), u(t)) (10.19)
dt
y(t) = G(x(t), u(t)) (10.20)

Suponemos que el modelo (10.19)-(10.20) tiene, al menos, un punto de equi-


librio dado por {xQ , uQ , yQ }. Este trı́o de vectores satisface:

0 = F(xQ , uQ ) (10.21)
yQ = G(xQ , uQ ) (10.22)

Note que el punto de equilibrio queda determinado haciendo las derivadas


iguales a cero.
Si consideramos una vecindad alrededor del punto de equilibrio, podemos
aproximar el modelo (10.19)-(10.20) por una serie de Taylor truncada (Apéndice
A), de la forma:

∂F ∂F
ẋ(t) ≈ F(xQ , uQ ) + (x(t) − x Q ) + (u(t) − uQ ) (10.23)
∂x x=xQ ∂u x=xQ
u=uQ u=uQ

∂G ∂G
y(t) ≈ G(xQ , uQ ) + (x(t) − xQ ) + (u(t) − uQ ) (10.24)
∂x x=xQ ∂u x=xQ
u=uQ u=uQ

Las ecuaciones (10.23) y (10.24) se pueden reescribir por lo tanto como:

d∆x(t)
= A∆x(t) + B∆u(t) (10.25)
dt
∆y(t) = C∆x(t) + D∆u(t) (10.26)

donde las señales incrementales son:

∆x(t) = x(t) − xQ ; ∆u(t) = u(t) − uQ ; ∆y(t) = y(t) − yQ (10.27)


10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS 259

y las matrices de la representación de estado son:



∂F ∂F ∂G ∂G
A= ; B= ; C= ; D=
∂x x=xQ ∂u x=xQ ∂x x=xQ ∂u x=xQ
u=uQ u=uQ u=uQ u=uQ
(10.28)
Para ilustrar esta forma de obtener un modelo lineal para un sistema no
lineal, se ilustra en el siguiente ejemplo.

Ejemplo 10.3. Considere el levitador electromagnético que se muestra en la


Figura 10.2.

i(t)

R +
L e(t)

h(t) f(t) v(t)

mg

Figura 10.2: Levitador electromagnético.

La esfera metálica está sometida a dos fuerzas: su propio peso, mg, y la


fuerza de atracción generada por el electroimán, f (t). La fuerza del electroimán
se regula a través de la fuente de voltaje, e(t) > 0, ∀t. La fuerza de atracción
sobre la esfera, f (t), depende de la distancia h(t) y de la corriente, i(t). Esta
relación se puede describir aproximadamente por la expresión

K1
f (t) = i(t) (10.29)
h(t) + K2

donde K1 y K2 son constantes positivas.


Aplicando los principios usuales en redes eléctricas y mecánica, podemos
escribir las siguientes ecuaciones:

di(t)
e(t) = Ri(t) + L (10.30)
dt
dh(t)
v(t) = − (10.31)
dt
K1 dv(t)
f (t) = i(t) = mg + m (10.32)
h(t) + K2 dt
260 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.

A continuación escogemos las variables de estado: la corriente i(t), la posi-


ción de la esfera h(t), y su velocidad v(t), es decir:
 T  T
x(t) = x1 (t) x2 (t) x3 (t) = i(t) h(t) v(t) (10.33)
Note que esta elección permite cuantificar directamente la energı́a almace-
nada en el sistema.
A partir de (10.30)-(10.32) obtenemos el modelo de estado del sistema:
di(t) dx1 (t) R 1
= = − x1 (t) + e(t) (10.34)
dt dt L L
dh(t) dx2 (t)
= = −x3 (t) (10.35)
dt dt
dv(t) dx3 (t) K1
= = x1 (t) − g (10.36)
dt dt m(x2 (t) + K2 )
Para linealizar el modelo obtenido, necesitamos obtener primero el punto de
equilibrio alrededor del cual se hará dicha linealización. La entrada al sistema
es el voltaje de la fuente e(t). Supongamos que el punto de equilibrio se obtiene
fijando e(t) = EQ , entonces, a partir de éste, se puede calcular el estado del
sistema en el punto de equilibrio. Este queda caracterizado por las ecuaciones
(10.34)-(10.36), haciendo las derivadas iguales a cero:
R 1 EQ
− x1Q + EQ = 0 =⇒ x1Q = (10.37)
L L R
−x3Q = 0 =⇒ x3Q =0 (10.38)
K1 K1 K 1 EQ
x1Q − g = 0 =⇒ x2Q = x1Q − K2 = − K2 (10.39)
m(x2Q + K2 ) mg mgR
El modelo linealizado queda expresado en términos de la entrada incremental
∆e(t) y el estado incremental ∆x(t) = [∆x1 (t), ∆x2 (t), ∆x3 (t)]T de la forma:
d∆x1 (t) R 1
= − ∆x1 (t) + ∆e(t) (10.40)
dt L L
d∆x2 (t)
= −∆x3 (t) (10.41)
dt
d∆x3 (t) Rg Rmg 2
= ∆x1 (t) − ∆x2 (t) (10.42)
dt EQ K 1 EQ
Si consideramos como salida del sistema la posición de la esfera h(t), pode-
mos comparar las últimas ecuaciones con (10.25) y (10.26) para obtener:
 R     
− 0 0 1
 L 0


 L  
  T  
A=  0 0 −1 ; B =   0
; C = 1 ; D = 0 (10.43)
 
 Rg Rmg 2 
− 0 0 0
EQ K 1 EQ

222
10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS 261

De aqui en adelante omitiremos el prefijo ∆, pero el lector debe tener en matriz!de transición
exponencial!de una matriz
mente que los modelos obtenidos mediante linealización relacionan el estado
incremental, las entradas incrementales y las salidas incrementales, en
torno al punto de equilibrio.

10.3.2. Modelos lineales en el espacio de estado


Consideramos el modelo en variables de estado, lineal e invariante en el
tiempo:
dx(t)
= Ax(t) + Bu(t) (10.44)
dt
y(t) = Cx(t) + Du(t) (10.45)
Lema 10.1. Dada la ecuación (10.44), sujeta a la condición inicial x(to ) = xo ,
su solución es:
Z t
A(t−to )
x(t) = e xo + eA(t−τ ) Bu(τ )dτ ∀t ≥ to (10.46)
to

donde la matriz de transición eAt satisface:



X 1 k k
eAt = I + A t (10.47)
k!
k=1

(Para la definición de exponencial de una matriz ver Apéndice F) De-


mostración
Puede verificarse directamente al reemplazar (10.46) en la ecuación (10.44),
usando la regla de Leibniz para la derivación de la integral.
222
Con este resultado, dado un estado inicial x(to ) = xo la solución de las
ecuaciones (10.44)–(10.45) se puede expresar como:
Z t
y(t) = CeA(t−to ) xo + C eA(t−τ ) Bu(τ )dτ + Du(t) (10.48)
to

Dinámica del sistema


Como hemos visto en los Capı́tulos 3 y 4, la salida de un sistema siempre
puede descomponerse en dos partes: una componente no forzada determinada
por las condiciones iniciales y formada por los modos naturales del sistema, y
una componente forzada por la señal de entrada al sistema. Esto mismo se ve
confirmado en la solución de la ecuación de estado (10.48), donde se aprecia la
componente no forzada xu (t), y la componente forzada xf (t), donde:
xu (t) = eA(t−to ) xo (10.49)
Z t
xf (t) = eA(t−τ ) Bu(τ )dτ (10.50)
to
262 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.

respuesta homogénea Estructura de la respuesta homogénea


estabilidad
velocidad Para analizar con mayor detalle el modelo en espacio de estado y su solución,
consideremos to = 0 y la entrada u(t) = 0 ∀t ≥ 0, es decir, el estado está formado
sólo por su parte no forzada u homogénea. Entonces:

x(t) = eAt xo (10.51)

Supondremos además que A ∈ Rn y que, por simplicidad, no tiene autoval-


ores repetidos, sino que son todos diferentes λ1 ,λ2 ,. . . , λn , con sus n autovectores
v1 , v2 , . . . , vn linealmente independientes1 . En este caso podemos afirmar que
siempre existen constantes α1 , α2 , . . . , αn tales que:
n
X
xo = α ` v` ; α` ∈ C (10.52)
`=1

Del álgebra lineal (Apéndice F) sabemos que los autovalores de la matriz Ak


son λk1 , λk2 ,. . . , λkn con sus correspondientes autovectores v1 , v2 , . . . , vn . De
esta forma, se obtiene:


! n !
At
X 1 k k X
x(t) = e xo = I+ A t α ` v`
k!
k=1 `=1
 
n
X  ∞
X 1 n
 X
= α` v` + Ak v ` t k  = α ` e λ ` t v` (10.53)
k! | {z }
`=1 k=1 `=1
λk
` v`

Esta ecuación pone de manifiesto que la componente no forzada del vector


de estado es una combinación lineal de modos de la forma {eλ` t }, cada uno de
los cuales está asociado a un autovalor de A. Esto establece un resultado muy
importante:

Los frecuencias naturales de un sistema de tiempo continuo son iguales a los


valores propios de la matriz A de su representación en variables de estado.
Es decir, la ecuación caracterı́stica de un sistema está dada por:

det(λI − A) = 0 (10.54)

Por tanto, la matriz A es la que determina:

la estructura de la respuesta no forzada u homogénea,

la estabilidad (o inestabilidad) del sistema, y

la velocidad de respuesta.
1 Todo conjunto de n vectores l.i. en Rn forman una base para Rn
10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS 263

El análisis previo puede extenderse al caso en que la matriz A posee valores


propios repetidos, utilizando la forma de Jordan (Apéndice F).
En ausencia de señal de entrada, hemos visto que el estado del sistema resulta
ser una combinación de modos naturales. Estos pertenecen al conjunto de fun-
ciones generadas por exponenciales reales o complejas, que pueden corresponder
a señales constantes, exponenciales reales y sinusoides puras o moduladas por
exponenciales, entre otras.
Ejemplo 10.4. Para ilustrar la diferentes aparición de diferentes tipos de mo-
dos naturales, y su interpretación fı́sica consideremos nuevamente el sistema
del Ejemplo 10.1 en la página 255. Para dicho sistema, obtuvimos el modelo en
variables de estado:
" # " #" # " #
ẋ1 (t) 0 1 x1 (t) 0
= K D
+ 1 f (t) (10.55)
ẋ2 (t) −M −M x2 (t) M

en que x1 (t) y x2 (t) son respectivamente la posicion y la velocidad de la masa


M , y f (t) es la fuerza externa.
Las frecuencias naturales del sistema son los autovalores de la matriz A, es
decir, las soluciones de la ecuación caracterı́stica:
D K
det(λI − A) = λ2 + λ+ =0 (10.56)
M M
Estas son: r
D D2 K
λ1,2 = − ± 2
− (10.57)
2M 4M M
Donde podemos apreciar que:
Si no existe amortiguación (D=0), los autovalores del sistema son imagi-
narios puros, y lospmodos naturales son oscilaciones sostenidas de frecuen-
cia angular ωo = K/M . Esto coincide con la interpretación fı́sica, pues
si no existe roce es natural pensar que si el resorte no se encuentra en su
largo natural o la masa posee velocidad inicial, ésta permanecerá oscilando
indefinidamente, aunque no exista fuerza externa.
Cuando el sistema está débilmente amortiguado ( D 2 < 4KM ), los auto-
valores de la matriz A son complejos conjugados con parte real negativa,
por tanto los modos naturales asociados son sinusoides amortiguadas ex-
ponencialmente. Esto coincide también con lo que sucede en la práctica,
pues en caso de existir una fuerza de roce no muy grande, la masa os-
cilará hasta detenerse en ealgún momento en su posición de largo natural.
Finalmente, si la amortiguación es muy grande ( D 2 > 4KM ), los auto-
valores de la matriz serán reales y negativos, lo cual indica que los auto-
valores son dos exponenciales decrecientes. En este caso, la existencia de
una fuerza de roce importante se traduce en que la masa no logrará oscilar
sino que es llevada por la fuerza del resorte hasta su posición de equilibrio,
y toda la energı́a contenida en el sistema se disipa rápidamente en el roce.
264 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.

plano de fase Para ilustrar estas tres situaciones podemos utiliar Matlab , que permite
definir facilmente definir sistemas en variables de estado a traves del coman-
do ss. La respuesta a una condición inicial se obtiene a través del comando
initial. Para estas simulaciones consideramos tres diferentes valores para la
constante de roce viscoso D, mientras que los otros parámetros son:
  hmi
N
M = 2 [kg]; K = 0, 1 d(0) = 0, 3 [m]; and v(0) = 0, 05
m s
(10.58)
Usando código Matlab como el siguiente se obtienen los gráficos de la Figu-
ra 10.3.

Matlab

>> M=2 ; K=0.1 ; D=0 ;


>> x_o=[0.3 0.05];
>> A=[0 1;-K/M -D/M];B=[0;1/M];C=[1 0];d=0;
>> S=ss(A,B,C,d);
>> initial(S,x_o)

0.4
D=0
0.2 D=0.2
D=2
Amplitud

−0.2

−0.4
0 10 20 30 40 50 60 70
Tiempo (seg.)

Figura 10.3: Respuesta homogénea del sistema masa-resorte-roce.

En la Figura 10.4 se muestra la trayectoria que sigue el estado del sistema.


Se ha considerado la posición de la masa d(t) como coordenada horizontal, y la
velocidad, v(t), como coordenada vertical. Este tipo de diagrama se conoce como
plano de fase,. En Matlab , el mismo comando initial permite obtener la
trayectoria del estado mediante el siguiente codigo:

Matlab

>> [y,t,x]=initial(S,x_o);
>> plot(x(:,1),x(:,2))
10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS 265

0.1 modo forzado


solución particular
0.08 T
xo=[0.3 0.05]

0.06

0.04

0.02
velocidad v(t)

−0.02

−0.04

−0.06
D=0
D=0.2
−0.08 D=2

−0.1
−0.5 −0.4 −0.3 −0.2 −0.1 0 0.1 0.2 0.3 0.4 0.5
distancia d(t)

Figura 10.4: Trayectorias en el espacio de estado del sistema masa-resorte-roce.

Note que, excepto en el caso en que no existe roce (D = 0), la masa llegará a
detenerse asintóticamente, es decir, llega al origen del espacio de estado.
222

Estructura de la respuesta forzada


Cuando las condiciones iniciales del sistema son cero, el estado sólo tendrá su
componente forzada.
Z t
xf (t) = eA(t−τ ) Bu(τ )dτ (10.59)
to

Esta parte del estado también incluye modos naturales, pero además contiene
los modos forzados o soluciones particulares, los cuales como hemos visto en
capı́tulos precedentes, no dependen del sistema, sino que exclusivamente de la
señal de entrada u(t). En general, los modos forzantes presentes en la entrada
aparecerán también en el estado. Sin embargo, es importante mencionar que un
caso especial sucede cuando los modos forzantes en la entrada coinciden con
alguno de los modos naturales del sistema.

Estabilidad del sistema


Tal como se mencionó antes, la estabilidad de un sistema lineal e invariante
puede ser analizada usando la matriz de estado A.
266 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.

equilibrio inestable Por definición, todas las variables de un sistema pueden expresarse como
punto de equilibrio
modo natural!dominante funciones lineales de su estado y su entrada. Cuando la entrada al sistema u(t)
resonancia es un vector de funciones temporales acotadas, entonces las variables del sistema
serán acotadas si su estado lo es.
Tenemos entonces el siguiente resultado:
Teorema 10.1. Considere el sistema con la descripción en variables de estado
(10.44)-(10.45) donde los elementos de A, B, C y D están acotados. Entonces el
estado del sistema, y por tanto su salida, es acotado para toda entrada acotada
si, y sólo si, los autovalores de la matriz A tienen parte real estrictamente
negativa.
222
Para apreciar la aplicación de este teorema en la práctica, retomemos el
sistema del levitador magnético del Ejemplo 10.3. Para dicho sistema la matriz
A (en el modelo linealizado) está dada por la expresión:
 R 
− 0 0
 L 
A= 0 0 −1

 (10.60)
 Rg Rmg 2 
− 0
EQ K 1 EQ
y sus autovalores o valores propios son las raı́ces de la ecuación
  s ! s !
R Rmg 2 Rmg 2
det(λI − A) = λ + λ− λ+ (10.61)
L K 1 EQ K 1 EQ

Podemos apreciar que, del conjunto de autovalores de la matriz, existe uno


que es real y mayor que cero. Esto implica que el sistema es inestable, lo
cual coincide con el análisis del sistema desde el punto de vista fı́sico. Si bien
existe un punto de euilibrio para el sistema, al menos teóricamente, dado x 2Q
en la ecuación (10.39)), éste resulta ser un punto de equilibrio inestable, ya que
cualquier pequeña perturbación sobre la esfera hará que ésta o acelera hasta
adherirse al imán, o bien, cae al suelo.

Velocidad de respuesta y resonancia


Como ya hemos visto, en los sistemas estables la parte real de los autovalores
determina la velocidad a la cual los modos naturales decaen a cero. Los modos
más lentos, que hemos denominado modos dominantes, determinan la velocidad
con que la salida del sistema alcanza el estado estacionario, es decir, determinan
la velocidad de respuesta del sistema.
Un segundo aspecto, de especial importancia en estructuras flexibles, es la
presencia de resonancias en un sistema, que están asociadas a autovalores com-
plejos. Desde el punto de vista fı́sico, la presencia de autovalores complejos tiene
relación con la existencia de dos tipos de energı́a. En circuitos eléctricos, la en-
ergı́a electrostática de condesadores y la energı́a electromagnética en inductores.
10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS 267

En sistemas mecánicos, la energı́a cinética de una masa en movimiento y la en- transformación del estado
estado!transformación
ergı́a potencial debida a diferencia de nivel o a la compresión de un resorte. Los similaridad
principales problemas con este tipo sistemas ocurren cuando la señal de entrada
contiene energı́a en la banda de frecuencias cercana a la frecuencia con que el
sistema oscila en forma natural. En la práctica, este problema puede traducirse
en oscilaciones de magnitud que el sistema simplemente no está preparado para
soportar. Para ilustrar esta situación examinaremos un ejemplo que ilustra el
fenómeno:

Ejemplo 10.5. Consideremos nuevamente el sistema masa-resorte-roce del


Ejemplo 10.1, en que las constantes tienen los valores:

M = 1[kg] ; D = 13 [Ns/m] ; K = 1[N/m] (10.62)

Con lo cual los autovalores del sistema son las soluciones de:

det(λI − A) = λ2 + D
Mλ + K
M = λ2 + 31 λ + 1 = 0 (10.63)
q
⇒ λ1,2 = − 16 ± 1
2
−35
9 ≈ − 61 ± j (10.64)

Por tanto, los modos naturales son de la forma e−0,1667t cos(t+φ). Cualquier
excitación que posea energı́a a frecuencias cercanas a ω = 1[rad/s] hará que el
sistema entre en resonancia, haciendo que en la salida del sistema aparezcan
oscilaciones de magnitud significativa.
Se desarrolla una simulación del comportamiento del sistema bajo dos ex-
citaciones distintas: en el primer caso, la entrada es una sinusoide de frecuencia
ω = 1 [rad/s], y en el segundo caso, la excitación una señal cuadrada de frecuen-
cia fundamental ωo = 0, 333 [rad/s]. En ambos casos las condiciones iniciales
del sistema son cero. Los resultados se muestran en la Figura 10.5.
Podemos apreciar que, en el primer caso, se genera un fenómeno de reso-
nancia debido a que la frecuencia de la sinusoide es aproximadamente igual a
la frecuencia de oscilación de los modos naturales del sistema. En el segundo
caso, también aparece un fenómeno de resonancia; sin embargo, ahora se debe
a la tercera armónica de la excitación , ya que la frequencia angular de ella
es 3ωo = 0, 999[rad/s], es decir, coincide casi exactamente con la frecuencia
natural de oscilación del sistema.
222

10.3.3. Transformaciones de similaridad


La elección de variables de estado para un sistema dado no es única. Concre-
tamente podemos tener un sistema con entrada u(t), salida y(t) y dos diferentes
elecciones para el vector de estado: x(t) y x(t) ∈ Rn , con sus matrices asociadas
{A, B, C, D} y {A, B, C, D}, respectivamente. El siguiente lema establece la
relación entre ambos modelos.
268 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.

matriz!de transformación 3
y(t)
2 u(t)

−1

−2

−3
0 5 10 15 20 25 30 35 40
tiempo

3
y(t)
2 u(t)

−1

−2

−3
0 5 10 15 20 25 30 35 40
tiempo

Figura 10.5: Resonancia en el sistema masa-resorte.

Lema 10.2. Dado un sistema cuyo vector de estado es x(t) y sus matrices son
{A, B, C, D}, entonces, dada la matriz de transformación T ∈ Rn×n no
singular, tenemos un nuevo vector de estado:

x(t) = T · x(t) (10.65)

El modelo de estado para la nueva representación, queda expresado mediante


las matrices:

A = TAT−1 ; B = TB ; C = CT−1 ; D=D (10.66)

Demostración
Dada la transformación (10.65), en que T es no singular y, por tanto, in-
vertible, tenemos que:
x(t) = T−1 · x(t) (10.67)
Si reemplazamos entonces el vector de estado x(t) en las ecuaciones de estado
del sistema (10.44)-(10.45), obtenemos:

T−1 ẋ(t) = AT−1 x(t) + Bu(t) (10.68)


−1
y(t) = CT x(t) + Du(t) (10.69)
10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS 269

donde, al multiplicar la primera ecuación por T por la izquierda, se obtiene:


A B
z }| { z}|{
−1
ẋ(t) = TAT x(t) + TB u(t) (10.70)
−1
| {z } x(t) + |{z}
y(t) = CT D u(t) (10.71)
C D

De esta forma se obtienen las ecuaciones (10.66).


222
Diferentes elecciones de las variables de estado pueden tener o no significado
fı́sico, sin embargo, existen representaciones que resultan más simples del punto
de vista matemático, como veremos en la Sección §10.6.
A pesar de las diferentes posibles representaciones, es natural que ciertas
importantes caracterı́sticas y propiedades del sistema permanezcan invariantes,
cualquiera sea la representación elegida. Si, por ejemplo, consideramos los au-
tovalores del sistema, tenemos que:
det(λI − A) = det(λTT−1 − TAT−1 ) (10.72)

= det T(λI − A)T−1 (10.73)
−1
= det(T) det(λI − A) det(T ) (10.74)
= det(λI − A) (10.75)
Por tanto, la estabilidad, la naturaleza de la respuesta homogénea y la ve-
locidad de respuesta del sistema son invariantes respecto a transformaciones de
similaridad del estado.

i (t) i2 (t)

R1
+
vf (t)
C L R2 vC (t)
iL (t)

Figura 10.6: Red eléctrica

Ejemplo 10.6. En el circuito eléctrico de la Figura 10.6, si escogemos el vector


de estado como x(t) = [x1 (t) x2 (t)]T = [iL (t) vc (t)]T y la señal de entrada
u(t) = vf (t), entonces usando conocimientos básicos de redes eléctricas, tenemos
que:  
1  
dx(t)  0 L  0
= 1 R1 + R2  x(t) +
 1  u(t) (10.76)
dt − −
C R1 R2 C R1 C
270 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.

función de transferencia
polos
autovalores Una elección alternativa del vector de estado puede ser x(t) = [x 1 (t) x2 (t)]T =
[i(t) i2 (t)]T . Donde puede probarse sin problema que
 
1 R2 1
x(t) = x(t) (10.77)
R2 0 1
| {z }
T

222

10.3.4. Espacio de estado y funciones de transferencia


La representación de sistemas mediante modelos de variables de estado es
una descripsión alternativa a las que hemos visto antes, tales como la ecuación
diferencial del sistema (Capı́tulo 3) y su función de transferencia asociada (Capı́tu-
los 6 y 7). Sin embargo, en esta sección veremos que los modelos en espacio de
estado permiten describir con mayor profundidad una conjunto más general de
sistemas.
En primer lugar, el siguiente lema establece como obtener una representación
en variables de estado de un sistema, dada su función de transferencia.
Lema 10.3. Dado un sistema lineal en invariante del tiempo con entrada con
función de transferencia:
Y(s)
H(s) = (10.78)
U(s)
En que U(s) y Y(s) son las transformadas de Laplace de la entrada u(t) y la
salida y(t). Entonces, dada un modelo de estado con matrices {A, B, C, D},
tenemos que:
H(s) = C(sI − A)−1 B + D (10.79)
Además, los polos de la función de transferencia H(s) pertencen al conjunto
de los autovalores de la matriz A.
Demostración
Usando la definición en la Sección §7.2, la función de transferencia del sis-
tema es la transformada de Laplace de la respuesta a impulso (delta de Dirac)
del sistema, con condiciones iniciales iguales a cero. Por lo tanto, si aplicamos
la transformada de Laplace a la ecuación (10.44), tenemos que:
0 1
z }| { z }| {
sX(s) − x(0− ) = AX(s) + B L {δ(t)} (10.80)
(sI − A)X(s) = B (10.81)
−1
X(s) = (sI − A) B (10.82)

De igual forma, aplicando Laplace a la ecuación (10.45) y reemplazando la


transformada del vector de estado X(s), obtenemos:

Y(s) = H(s) = CX(s) + DL {δ(t)} = C(sI − A)−1 B + D (10.83)


10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS 271

Por otro lado, para obtener los polos de la transferencia H(s) podemos ree- cancelación
scribir la inversa de (sI − A) usando las propiedades en el Apéndice F. De esta
forma:

Adj(sI − A) CAdj(sI − A)B + D det(sI − A)


H(s) = C B+D= (10.84)
det(sI − A) det(sI − A)

Lo que pone de manifiesto que todos los polos de H(s) son autovalores de la
matriz A.
222

Es importante notar que no necesariamente los polos de la función de


transferencia son todos los autovalores del sistema, pues la ecuación (10.79)
puede tener cancelaciones encubiertas entre raı́ces del numerador (ceros) y raı́ces
del denominador (polos) . Esto se ilustra mejor a través del siguiente ejemplo.

Ejemplo 10.7. Consideremos las matrices de un modelo de estado:


   
−2 1 1  
A= ; B= ; C= 0 1 ; D=0 (10.85)
0 −3 0, 5

Entonces, la función de transferencia asociada es:


  
1   s+3 1 1
H(s) = C(sI − A)−1 B = 0 1 (10.86)
(s + 2)(s + 3) 0 s+2 0, 5
0, 5(s + 2) 0, 5
= = (10.87)
(s + 2)(s + 3) (s + 3)

En este caso, la función de transferencia tiene sólo un polo, a pesar que la


matriz A posee dos autovalores. Se observa que existe una cancelación entre un
polo y un cero en H(s). Este fenómeno tiene relación directa con las propiedades
del sistema que se estudian en la Sección §10.6.
222

Para interpretar este hecho en la práctica, volvamos una vez más al levita-
dor magnético del Ejemplo 10.3 en la página 259. Si consideramos la corriente
i(t) como salida, vemos de inmediato que la función de transferencia desde la
entrada e(t) a esta salida tiene sólo un polo, a pesar que el vector de estado
tiene dimensión tres. La explicación de esto es que, en nuestro modelo fı́sico
simplificado, la corriente i(t) no es afectada por la posición ni por la velocidad
vertical de la esfera. Note que la situación seria diferente si consideráramos en
el modelo el efecto del cambio de posición de la esfera en la inductancia del
electroimán.

De esta forma, vemos que la función de transferencia puede no en-


tregar la misma información que el modelo en variables de estado
para un sistema dado.
272 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.

realización mı́nima Un problema interesante es obtener una representación de estado de un sis-


función de transferencia!estrictamente propia
tema a partir de su función de transferencia. El lector debe tener la precaución
de considerar un modelo de estado adecuado, el cual no contenga cancelaciones
entre polos y ceros implı́citas. Teniendo esto en cuenta, el modelo obtenido se
denomina realización mı́nima.
Existen diferentes métodos para obtener un modelo en variables de estado a
partir de la función de transferencia, y a continuación ilustramos uno de ellos.
Consideremos la función de transferencia dada por

Bo (s) bn−1 sn−1 + bn−2 sn−2 + . . . b1 s + b0


HT (s) = + HT (∞) = + HT (∞)
Ao (s) sn + an−1 sn−1 + . . . + a1 s + a0
(10.88)
En primer lugar, podemos apreciar que D = HT (∞), por tanto basta consid-
erar la función de transferencia H(s) = HT (s) − HT (∞), que es estrictamente
propia.
Consideremos ahora v` (t) ∈ R cuya transformada de Laplace es V` (s) tal
que:
s`−1
V` (s) = U (s) ` ∈ {1, 2, . . . , n} (10.89)
Ao (s)
Esto implica que:

dv`−1 (t)
v` (t) = ` ∈ {2, . . . , n} (10.90)
dt
Xn
Y (s) = b`−1 V` (s) (10.91)
`=1
n
Ao (s) sn X s`−1
U (s) = U (s) = U (s) + a`−1 U (s) (10.92)
Ao (s) Ao (s) Ao (s)
| {z } `=1 | {z }
sVn (s) V` (s)

Ahora si escogemos como variables de estado x` (t) = v` (t), la ecuación cor-


responde a:
 
  0
0 1 0 ··· 0 0 0
 0 0 1 ··· 0 0   
B =  ... 
   
A= .. .. .. .. .. ; (10.93)
 . . . . .   
0
−a0 −a1 −a2 ··· −an−2 −an−1
1
 
C = b0 b1 b2 ··· bn−1 ; D = HT (∞) (10.94)

Ejemplo 10.8. La función de transferencia de un sistema está dada por:

4s − 10 4s − 10
H(s) = = 3 (10.95)
(s + 2)2 (s − 1) s + 3s2 − 4
10.4. MODELOS DE ESTADO PARA SISTEMAS DISCRETOS Y MUESTREADOS273

Entonces una realización mı́nima para este sistema es: sistema!discreto


sistema!muestreado
    discretización
0 1 0 0 muestreo
A = 0 0 1  ; B = 0  (10.96) PLC
4 0 −3 1 conversor!digital-análogo(DAC)
  conversor!análogo-digital(ADC)
C = −10 4 0 ; D = 0 (10.97) DAC|seeconversor
ADC|seeconversor
222

Otro resultado importante, cuya demostración se deja como ejercicio para el


lector, es

La función de transferencia de un sistema es invariante respecto a transfor-


maciones de similaridad del estado

10.4. Modelos de estado para sistemas discretos


y muestreados
En esta sección estudiaremos la representación de estado para sistemas de
tiempo discreto, usando como base los resultados ya obtenidos para sistemas de
tiempo continuo.
Antes de comenzar es importante distinguir que un modelo en tiempo dis-
creto puede originarse de dos formas:

A partir de un sistema intrı́nsecamente discreto, y generalmente no lineal,


cuyas variables están definidas sólo en intantes de tiempo especı́ficos t k .
Estos pueden originarse, por ejemplo, en el modelamiento de sistemas
económicos o en el modelamiento de procesos estocásticos.

O bien, a partir de la discretización de un sistema de tiempo continuo.


En este caso, interesa el valor las variables del sistema en instantes de
tiempo especı́ficos. Esto se denomina muestreo. Los modelos de este tipo
son muy útiles cuando sistemas digitales, tales como microcontroladores,
computadores, controladores lógicos programables (PLC’s) u otros, deben
interactuar con sistemas reales de tiempo continuo, tales como estruc-
turas mecánicas, válvulas, tanques, circuitos análogos, o con procesos in-
dustriales completos2 . Este tipo de sistemas se denominan sistemas
muestreados.

Cualquiera que sea el origen del modelo discreto, nos concentraremos en el


caso en que éste es lineal e invariante en el tiempo, tal como lo hicimos en
el caso de tiempo continuo.
2 La conexión requiere de conversores Digital-Análogo y Análogo-Digital (DAC y ADC, sus

siglas en inglés, respectivamente)


274 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.

linealización 10.4.1. Linealización de sistemas discretos


sistema!muestreado
muestreo El equivalente en tiempo discreto de las ecuaciones (10.3)-(10.4) está dado
sampling|seemuestreo
retentor
por las expresiones no lineales:

x[t + 1] = Fd (x[t], u[t]) (10.98)


y[t] = Gd (x[t], u[t]) (10.99)

La linealización se realiza de manera análoga que para el caso continuo,


considerando primero un punto de equilibrio, dado por el trı́o {xQ , uQ , yQ },
que satisface las ecuaciones:

xQ = Fd (xQ , uQ ) (10.100)
yQ = Gd (xQ , uQ ) (10.101)

Podemos apreciar que el punto de equilibrio queda definido por un conjunto


de valores constantes para el estado del sistema y para su entrada, que deben
satisfacer (10.98)-(10.99). Esto implica un valor constante también en la salida
del sistema. El sistema discreto puede ser entonces linealizado en torno a este
punto de equilibrio, definiendo las señales:

∆x[t] = x[t] − xQ ; ∆u[t] = u[t] − uQ ; ∆y[t] = y[t] − yQ (10.102)

Obtenemos ası́ el modelo en variables de estado:

∆x[t + 1] = Ad ∆x[t] + Bd ∆u[t] (10.103)


∆y[t] = Cd ∆x[t] + Dd ∆u[t] (10.104)

donde las matrices son:



∂Fd ∂Fd ∂Gd ∂Gd
Ad = ; Bd = ; Cd = ; Dd =
∂x x=xQ ∂u x=xQ ∂x x=xQ ∂u x=xQ
u=uQ u=uQ u=uQ u=uQ
(10.105)

10.4.2. Sistemas muestreados


Como hemos dicho antes, los modelos de tiempo discreto se obtienen a
menudo al hacer un muestreo3 de las entradas y salidas de un sistema de tiempo
continuo.
Cuando algún dispositivo digital se utiliza para actuar sobre un sistema de
tiempo continuo, la señal de actuación o de comando sobre él sólo se define en
ciertos instantes de tiempo especı́ficos, y no para todo instante de tiempo t. Sin
embargo, siempre necesitaremos una señal continua para actuar sobre el sistema
(de tiempo continuo). Esta señal se obtiene usualmente a través de un retentor,
el cual genera una señal constante por tramos, manteniendo el último valor
especificado hasta que se define el siguiente. Este tipo de retentor se denomina
3 Sampling, en inglés
10.4. MODELOS DE ESTADO PARA SISTEMAS DISCRETOS Y MUESTREADOS275

retentor de orden cero 4 . Es importante considerar que existen otras formas ZOH|seeretentor
muestreo!perı́odo de
de generar una señal de actuación continua a partir de la secuencia discreta perı́odo!de muestreo
(véase, por ejemplo, [3]).
Además de la señal de actuación, es necesario medir las variables que nos
interesan de un sistema en los instantes de tiempo especı́ficos que se requiera.
Es decir, debemos muestrear las señales de salida.
En la Figura 10.7 se describe la discretización de un sistema continuo. Si
suponemos un muestreo periódico, con periodo ∆, nos interesa el valor de las
variables sólo en los instantes k∆, en que k ∈ N. En las secciones posteriores
omitiremos el perı́odo de muestreo ∆ del argumento de las señales, usando
u(k∆) = u[t] para la entrada, y(k∆) = y[t] para la salida, y x(k∆) = x[t] para
el estado del sistema, donde ahora t representa los instantes de tiempo discreto.

Retentor Sistema de Muestreo


(Hold) Tiempo Continuo (Sample)
u[k] uS (t) y(t) y[k]

Figura 10.7: Esquema de un sistema muestreado

Si consideramos el modelo en variables de estado, lineal, invariante y de


tiempo continuo definido en (10.44)-(10.45), con estado inicial x(k0 ∆) = x0 ,
entonces podemos usar la ecuación (10.46) para calcular el valor del estado en
el próximo instante de muestreo:
Z k0 ∆+∆
A(k0 ∆+∆−k0 ∆)
x(k0 ∆ + ∆) = e x(k0 ∆) + eA(k0 ∆+∆−τ ) B u(τ )dτ
k0 ∆
(10.106)
Es más, si u(τ ) es generada mediante un retentor de orden cero, entonces:

u(τ ) = u(k0 ∆) k0 ∆ ≤ τ < k 0 ∆ + ∆ (10.107)

De esta forma, haciendo el cambio de variable η = k0 ∆ + ∆ − τ , se obtiene:


Z ∆
x(k0 ∆ + ∆) = eA∆ x(k0 ∆) + eAη dη B u(k0 ∆) (10.108)
0

Es más, dado el estado y la entrada en un instante k0 ∆, la salida del sistema


queda definida por la ecuación (10.45), es decir:

y(k0 ∆) = C x(k0 ∆) + D u(k0 ∆) (10.109)


4 Zero Order Hold o ZOH, en inglés
276 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.

exponencial!de una matriz Por lo tanto, dado un sistema de tiempo continuo con un modelo en variables
de estado con matrices {A, B, C, D}, si muestreamos sus entradas y salidas cada
∆ segundos, entonces, el sistema muestreado equivalente queda descrito por el
modelo de estado en tiempo discreto:

x(k∆ + ∆) = Ad x(k∆) + Bd u(k∆) (10.110)


y(k∆) = Cd x(k∆) + Dd u(k∆) (10.111)

donde las matrices son:


Z ∆
Ad = eA∆ ; Bd = eAη dη B ; Cd = C ; Dd = D (10.112)
0

Existen diferentes métodos para obtener la matriz Ad definida mediante


la exponencial de una matriz en el extremo izquierdo de (10.112). Una opción
es utilizar la definición de la exponencial de una matriz en el Apéndice F, sin
embargo, a menudo es más simple calcularla empleando la transformada de
Laplace inversa, de manera que:

Ad = eA∆ = L−1 (sI − A)−1 t=∆ (10.113)

Note que el método propuesto involucra tres pasos esencialmente:

(i) Dada la matriz A, se obtiene la matriz inversa de (sI − A).

(ii) A continuación se aplica transformada de Laplace inversa a cada compo-


nente de (sI − A)−1 .

(iii) Finalmente, las funciones temporales en cada una de las entradas de la


matriz obtenida se evalúan en t = ∆.

Veamos a continuación un ejemplo para aclarar e ilustrar las ideas presen-


tadas hasta el momento.

Ejemplo 10.9. Consideremos el sistema mecánico del Ejemplo 10.1 en la pági-


na 255, que fue descrito en variables de estado según las ecuaciones:
" # " #" # " #
ẋ1 (t) 0 1 x1 (t) 0
= K D
+ 1
f (t) (10.114)
ẋ2 (t) −M −M x2 (t) −M

donde f (t) es la fuerza externa, y donde podemos escoger como salida del sistema
ya sea la posición de la masa, x1 (t), o su velocidad, x2 (t).
Para simplificar las expresiones, supongamos algunos valores para los parámet-
ros del sistema. Se fija la masa M = 1 [kg], la constante de roce viscoso D = 1, 2
[Ns/m] y la constante del resorte K = 0, 32 [N/m].
10.4. MODELOS DE ESTADO PARA SISTEMAS DISCRETOS Y MUESTREADOS277

La matriz Ad se obtiene usando (10.113), aplicando transformada de Laplace matriz!de transición! discreta
inversa:
" #−1 
 s −1 
Ad = L−1
 0, 32 s + 1,2 
t=∆
" #
−0,4∆
2e − e−0,8∆ 2,5(e−0,4∆ − e−0,8∆ )
= −0,4∆
(10.115)
0, 8(e − e−0,8∆ ) −e−0,4∆ + 2e−0,8∆

La matriz Bd se obtiene, según (10.112), integrando:

Z ∆    
2e−0,4η − e−0,8η 2,5(e−0,4η − e−0,8η ) 0
Bd = dη
0 0, 8(e−0,4η − e−0,8η ) −e−0,4η + 2e−0,8η 1
 −0,4∆ −0,8∆

−6,25e + 3,125e + 3,125
= (10.116)
2,5(e−0,4∆ − e−0,8∆ )

Note que ambas matrices, Ad y Bd son funciones de ∆. Por tanto, el perı́odo


de muestreo ∆, tiene una clara influencia sobre el comportamiento del sistema
muestreado, tal como veremos más adelante.
222

10.4.3. Modelos de estado lineales


Concentrémonos ahora en el modelo en variables de estado, lineal e invariante
en el tiempo:

x[t + 1] = Ad x[t] + Bd u[t] (10.117)


y[t] = Cd x[t] + Dd u[t] (10.118)

Este puede corresponder a un modelo linealizado como (10.103)-(10.104),


o a un sistema muestreado como (10.110)-(10.111) donde ∆ se ha omitido del
argumento temporal.

Lema 10.4. Dado el sistema de tiempo discreto definido en las ecuaciones


(10.117) y (10.118), sujeto a la condición inicial x[to ] = xo , su solución está da-
da por

(t−to )−1
X
x[t] = Ad (t−to ) xo + Ad (t−to )−i−1 Bd u[i + to ] ∀ t ≥ to (10.119)
i=0

donde Ad (t−to ) es la matriz de transición discreta.


Demostración
278 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.

respuesta!no forzada A partir de la ecuación (10.117), usando la condición inicial x[to ] = xo ,


puede determinarse completamente la trayectoria futura del estado. Ası́:

x[to + 1] = Ad x[to ] + Bd u[to ] (10.120)


x[to + 2] = Ad x[to + 1] + Bd u[to + 1]
 
= Ad Ad x[to ] + Bd u[to ] + Bd u[to + 1]
= Ad 2 x[to ] + Ad Bd u[to ] + Bd u[to + 1] (10.121)
..
.

Por inducción, tenemos que:


`−1
X
`
x[to + `] = Ad x[to ] + Ad `−1+i Bd u[to + i] ∀` ≥ 0 (10.122)
i=0

Este última ecuación coincide con la ecuación (10.119) al hacer ` = t − to .


222

Con el resultado del lema anterior, podemos encontrar la solución a la


ecuación (10.118), pues la salida del sistema queda determinada en todo mo-
mento por el vector de estado:

(t−to )−1  
X
(t−to )
y[t] = Cd Ad xo + C d Ad (t−to )−i−1 Bd u[to + i] + Dd u[t]
i=0
(10.123)

Dinámica del sistema


El vector de estado que se obtiene al resolver las ecuaciones del sistema,
análogamente al caso de tiempo continuo, tiene dos componentes: la componente
no forzada, xu [t], y la forzada, xf [t], donde:

xu [t] = Ad (t−to ) xo (10.124)


(t−to )−1
X
xf [t] = Ad (t−to )−i−1 Bd u[to + i] (10.125)
i=0

Estructura de la respuesta no forzada


Para simplificar el análisis del modelo y su solución, aprovecharemos la in-
varianza en el tiempo, considerando el caso en que to = 0 and u[t] = 0 ∀ t ≥ 0,
i.e. el estado tiene sólo su parte no forzada. En este caso:

x[t] = Ad t xo (10.126)
10.4. MODELOS DE ESTADO PARA SISTEMAS DISCRETOS Y MUESTREADOS279

Por simplicidad asumiremos que Ad ∈ Rn×n tiene n autovalores distintos estabilidad


velocidad
η` , con n autovectores linealmente independientes v` , entonces siempre existe
un conjunto de n constantes α` tales que:
n
X
xo = α ` v` ; α` ∈ C (10.127)
`=1

Del álgebra lineal (Apéndice F) sabemos que los autovalores la matriz Ad t


son η`t , para t ∈ N, con sus correspondientes autovectores v` . De esta forma, se
obtiene:
n
X n
X n
X
x[t] = Ad t xo = Ad t α ` v` = α ` Ad t v ` = α` η`t v` (10.128)
| {z }
`=1 `=1 `=1
η`t v`

Esta ecuación pone de manifiesto que la componente no forzada del estado


es una combinación lineal de modos de la forma {η` t }, cada uno está asociado
con un autovalor de Ad . Esto establece un resultado muy importante:

Los frecuencias naturales de un sistema de tiempo discreto son iguales a los


valores propios de la matriz Ad de su representación en variables de estado.
Es decir, la ecuación caracterı́stica de un sistema está dada por:

det(ηI − Ad ) = 0 (10.129)

Análogamente al caso de los modelos de tiempo continuo, esto indica que la


matriz Ad determina:
la estructura de la respuesta no forzada,
la estabilidad (o inestabilidad) del sistema, y
la velocidad de la respuesta.
El análisis previo puede extenderse al caso en que la matriz Ad posee valores
propios repetidos, utilizando la forma de Jordan (Apéndice F).
En ausencia de entrada, el estado del sistema evoluciona como una combi-
nación de sus modos naturales, los cuales pertenecen a una clase definida de
funciones (Sección §4.3.1). Estas se expresan como potencias de los autoval-
ores reales o complejos, tal como se aprecia en la ecuación (10.128), y están
relacionadas con constantes, exponenciales reales, sinusoides puras o moduladas
por exponenciales, y otras funciones especiales que aparecen cuando hay auto-
valores repetidos.
Ejemplo 10.10. Para ilustrar estas ideas consideremos el sistema muestreado
que vimos en el Ejemplo 10.9. Si ∆ = 1, las matrices de la representación de
estado son:
   
0, 8913 0, 5525 0, 3397
Ad = ; Bd = (10.130)
−0, 1768 0, 2283 0, 5525
280 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.

respuesta!forzada Los autovalores del sistema son las soluciones de la ecuación:


estabilidad
 
η − 0, 8913 −0, 5525
det(ηI − Ad ) = det (10.131)
0, 1768 η − 0, 2283
= (η − 0, 6703)(η − 0, 4493) = 0 (10.132)

Es decir, η1 = 0, 6703 y η2 = 0, 4493. Por lo tanto, la respuesta no forzada


es de la forma:
xu [t] = C1 (0, 6702)t + C2 (0, 4493)t (10.133)
donde C1 y C2 dependen sólo del estado inicial.
Podemos apreciar que cuando t tiende a infinito, xu [t] se hace cero, ya que
|η1,2 | < 1. Además, estos autovalores son reales positivos, por tanto los modos
naturales no contienen oscilaciones. Esto es esperable pues en el Ejemplo 10.9
se eligieron los parámetros de manera que el sistema masa-resorte resulta sobre
amortiguado.
222

Estructura de la respuesta forzada


Si se considera la ecuación (10.119) con condición inicial cero, el estado sólo
exhibe su componente forzada. Además de los modos naturales, esta señal in-
cluye los modos forzados o particulares, que dependen del tipo de señal de
entrada u[t]. En general, los modos forzantes en la entrada también apare-
ceránn en la salida del sistema, excepto en el caso que alguna de ellos coincida
con alguno un modo natural del sistema.

Estabilidad
La estabilidad de un sistema lineal, de tiempo discreto e invariante en el
tiempo también puede ser analizada a través de la matriz Ad . Ya hemos es-
tablecido que todas las variables del sistema se pueden expresar como funciones
lineales del estado y la entrada. Cuando la entrada u[t] es un vector acotado en
el tiempo, entonces las variables del sistema permanecerán acotadas si y sólo si
el estado está acotado. Tenemos entonces el siguiente resultado:

Teorema 10.2. Dado un sistema descrito en variables de estado por las ecua-
ciones (10.117)-(10.118), donde Ad , Bd , Cd y Dd tienen elementos acotados.
Entonces, el estado del sistema estará acotado para toda entrada acotada si y
sólo si los autovalores de la matriz Ad se encuentran en el interior del disco
unitario, i.e. |η` | < 1 ; ∀`.
222

Velocidad de respuesta y resonancia


Recordemos que los modos naturales de un sistema de tiempo discreto son
las potencias de los autovalores η` . Estos autovalores siempre pueden expresarse
10.4. MODELOS DE ESTADO PARA SISTEMAS DISCRETOS Y MUESTREADOS281

como un número complejo en su forma exponencial, por lo tanto, un modo transiente|seerespuesta!transitoria


respuesta!a escalón
natural puede escribirse como: resonancia
t
(η` )t = |η` | ejθ` = |η` |t ejθ` t ; donde θ` = ∠η` (10.134)

Por lo tanto, tenemos que:

La magnitud 0 < |η` | < ∞ determina la velocidad con la que el modo


decae a cero, en el caso de sistemas estables (|η` | < 1), o crece hasta
infinito, para sistema inestables (|η` | > 1).

El ángulo −π < θ` ≤ π determina la frecuencia discreta de oscilación del


modo natural, medida en radianes.

A pesar que los modos naturales de un sistema estable decaen a cero, ellos
determinan la respuesta transiente del sistema. Para apreciar esto, generalmente
se utiliza la respuesta!a escalón del sistema, con condiciones iniciales cero.

Ejemplo 10.11. Consideremos el sistema dicreto de primer orden:

x[t + 1] = η` x[t] + u[t] (10.135)


y[t] = (1 − η` )x[t] (10.136)

Para obtener la respuesta a escalón, usamos la ecuación (10.123), donde


xo = 0 y u[t] = 1, ∀t ≥ 0:
t−1
!
X
t−i−1
y[t] = Cd Ad Bd (10.137)
i=0
t−1
!
X 1 − η`−t
= (1 − η` ) η`t−i−1 = (1 − η` )η`t−1 (10.138)
i=0
1 − η`−1
= 1 − η`t (10.139)

La salida, y[t] = yh [t] + yp [t] se muestra en la Figura 10.8, para diferentes


valores del único autovalor η` . El transiente está dado por yh [t] = −η`t , mientras
que la respuesta estacionaria es yp [t] = 1.
222

En la (10.134) apreciamos que los autovalores de un sistema determinan


la amortiguación de su respuesta transiente, sin embargo, también determinan
su frecuencia de oscilación (cuando los autovalores tienen parte imaginaria no
nula). El problema que puede surgir cuando existen estos modos resonantes
es análogo al caso de tiempo continuo cuando la entrada el sistema contiene
una sinusoide u otra señal con energı́a en la banda de frecuencias cercana a la
frecuencia de oscilación natural del sistema. A pesar que la salida del sistema
permanece acotada, ella puede alcanzar amplitudes intolerables para el sistema
fı́sico real.
282 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.

perı́odo!de muestreo
muestreo!perı́odo de 1

0.8

0.6

y[k]
η = 0.2
0.4 η = 0.6
η = 0.8
0.2

0
0 1 2 3 4 5 6 7 8 9 10
tiempo discreto k

Figura 10.8: Respuesta a escalón del sistema para diferentes autovalores.

Ejemplo 10.12. Consideremos el sistema discreto por:


   
1,2796 −0, 81873 1
x[t + 1] = x[t] + u[t] (10.140)
1 0 0
 
y[t] = 0 0, 5391 x[t] (10.141)
Los autovalores del sistema se obtiene a partir de Ad :
π
η1,2 = 0, 6398 ± j0, 6398 = 0, 9048 ej 4 (10.142)
Los modos naturales asociados, presentes en la respuesta transiente, son:
t π  
η1,2 = 0, 9048t ej 4 t = 0, 9048t cos π4 t ± j sen π4 t (10.143)
Los modos naturales están levemente amortiguados, ya que |η1,2 | es cercano
a 1, y muestra una oscilación de frecuencia π4 .
En los gráficos de la Figura 10.9 se muestra el efecto de resonancia en la
salida del sistema. En la parte superior, se ha considerado u[t] = sen π4 t , es
decir, la entrada tiene la misma frecuencia que los modos naturales. En la parte
π
inferior, en tanto, la entrada es una señal cuadrada de frecuencia 12 . En este
último caso, la frecuencia de la tercera armónica de la entrada coincide con
la de los modos naturales.
222

Efecto del perı́odo de muestreo


Si observamos las ecuaciones (10.112), podemos notar que las matrices Ad y
Bd dependen de la elección del perı́odo de muestreo ∆. Esta elección tendrá un
efecto directo sobre la posición de los polos del sistema.
Lema 10.5. Dado un sistema de tiempo continuo con {λi , . . . , λn }, si este
sistema es muestreado con un perı́odo de muestreo ∆, entonces los autovalores
del sistema discreto resultante son {η1 , . . . , η` }, en que:
η ` = e λ` ∆ (10.144)
10.4. MODELOS DE ESTADO PARA SISTEMAS DISCRETOS Y MUESTREADOS283

5
y[k]
u[k]

−5
0 5 10 15 20 25 30 35 40
tiempo discreto k

3
y[k]
2 u[k]

−1

−2

−3
0 5 10 15 20 25 30 35 40
tiempo discreto k

Figura 10.9: Resonancia en la salida del sistema.

Demostración
La matriz del sistema de tiempo continuo A puede ser diagonalizada uti-
lizando sus autovalores:

A = T−1 diag{λ1 , . . . , λn }T (10.145)

donde {λ1 , . . . , λn } son los autovalores del sistema de tiempo continuo. En-
tonces, usando (10.112):
−1 −1
diag{λ1 ,...,λn }T∆ diag{λ1 ∆,...,λn ∆}T
Ad = eA∆ = eT = eT
= T−1 diag{eλ1 ∆ , . . . , eλn ∆ }T (10.146)

donde el último paso es consecuencia de la definición de la exponencial de una


matriz (Apéndice F). De esta forma, a partir de (10.146) resulta evidente que
los autovalores de Ad son precisamente {eλ1 ∆ , . . . , eλn ∆ }.
222
En la Figura 10.10 se muestra la respuesta del sistema muestreado del Ejem-
plo 10.9, considerando x1 [t] como la salida del sistema, cuando inicialmente
xo = [1 0]T , para diferentes valores de ∆. Se debe notar que el eje horizontal
corresponde a los instantes discretos t, por tanto los instantes de tiempo reales
son t∆ [seg.]
284 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.

retardo Tiempo de muestreo ∆=0.5

x1[k]
0.5

0
0 2 4 6 8 10 12 14 16 18 20
Tiempo de muestreo ∆=1

1
x1[k]

0.5

0
0 2 4 6 8 10 12 14 16 18 20
Tiempo de muestreo ∆=2

1
x1[k]

0.5

0
0 2 4 6 8 10 12 14 16 18 20
tiempo discreto k

Figura 10.10: Efecto del muestreo en los modos naturales

En base a lo anterior, es importante notar que:

La elección del perı́odo de muestreo es un aspecto fundamental a considerar


cuando se muestrea un sistema de tiempo continuo, de manera que sea los
suficientemente pequeño para reflejar fielmente las señales que se muestrean.

Ejemplo 10.13. Para ilustrat una mala elección de ∆, supongamos una señal
f (t) = A sen(ωo t) que es muestreada cada ∆ segundos, con ∆ = 2`π/ω, ` ∈ N.
Entonces, la señal discreta resultante es f [t] = 0, ∀t ∈ Z, es decir, una constante
!
222

Sistemas muestreados y retardos


En la sección §10.3, mencionamos que no es posible describir sistemas con
retardos puros mediante modelos en variables de estado de dimensión finita. Sin
embargo, este problema se puede ser evitado muestreando las señales. Esto se
ilustra a través del siguiente ejemplo.

Ejemplo 10.14. Considere el sistema térmico que se bosqueja en la Figura


10.11. La temperatura medida en el caudal, y(t), depende de la potencia que
10.4. MODELOS DE ESTADO PARA SISTEMAS DISCRETOS Y MUESTREADOS285

Calefactor y(t)
u(t)
Sensor

flujo

Figura 10.11: Sistema térmico con retardo.

entregue al fluı́do la fuente de calor. Esta es controlado por una señal de control
u(t). Los cambios en u(t) producen cambios en la temperatura y(t), pero con un
retardo de tiempo no despreciable. El sistema linealizado se representa mediante
la función de transferencia:
Y (s) e−τ s K
= H(s) = (10.147)
U (s) s+λ
Donde U (s) e Y (s) son las transformadas de Laplace de u(t) e y(t) respec-
tivamente.
Supongamos luego que las señales de entrada y salida son muestreadas cada
∆ [s]. El retardo τ , también en segundos, es función de la velocidad del flujo y
podemos suponer, por simplicidad, que τ es un múltiplo del intervalo de muestreo
∆, es decir, τ = m∆, m ∈ Z+ . Este retardo se convierte en un factor z m en el
denominador de la función de transferencia en el dominio de la transformada
Zeta. Es decir, el retardo se convierte en un conjunto de m polos en el origen.
Además, en base a la ecuación (10.144), el autovalor del sistema continuo en
s = −λ se transforman en un autovalor del sistema discreto en z = e−λ∆ . La
función de transferencia resultante es:
Y [z] K 1 − e−λ∆
= H[z] = (10.148)
U [z] λ z m (z − e−λ∆ )
que puede expresarse mediante el modelo de estado discreto:
x1 [t + 1] = x2 [t] (10.149)
x2 [t + 1] = x3 [t] (10.150)
.. ..
. .
xm [t + 1] = xm+1 [t] (10.151)
−λ∆ K −λ∆
xm+1 [t + 1] = e xm+1 [t] + λ (1 −e )u[t] (10.152)
y[t] = x1 [t] (10.153)
Aún más, podemos interpretar las variables de estado xm+1 [t], . . . , x1 [t] co-
mo la temperatura en puntos equiespaciados entre el calefactor y el sensor de
temperatura (suponiendo un caudal de velocidad constante).
222
286 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.

transformación del estado Cuando el retardo τ no es múltiplo exacto del perı́odo de muestreo ∆, en la
estado!transformación
similaridad función de transferencia aparecen un polo y un cero adicionales (consulte, por
función de transferencia ejemplo, [6]).
matriz!adjunta

10.4.4. Transformaciones de similaridad


Las diferentes elecciones del vector de estado para sistemas discretos se rela-
cionan de la misma manera que para sistemas de tiempo continuo a través de las
transformaciones de similaridad (Sección §10.3.3). De igual forma, muchas de
las propiedades del sistema, como la ubicación de las frecuencias naturales o au-
tovalores, la controlabilidad y la observabilidad también permanecen invariantes
ante este tipo de transformaciones.

10.4.5. Espacio de estado y funciones de transferencia


Para los sistemas de tiempo discreto la relación entre los modelos en variables
de estado y aquellos mediante funciones de transferencia es análoga al caso de
tiempo continuo (Sección §10.3.4).
Como hemos mencionado, el modelo en variables de estado de un sistema
lineal, invariante en el tiempo es una descripción alternativa a la función de
transferencia, que a menudo entrega mayor información sobre el sistema.
Para un sistema de tiempo discreto, lineal e invariante, con entrada u[t] ∈ R m
y salida y[t] ∈ Rp , la función de transferencia, H[z], está definida como:

Yi [z]
Y[z] = H[z]U[z]; where [H[z]]ij = (10.154)
Uj [z]

Es decir, el elemento (i, j) en la matriz H[z] es la transformada Zeta de la


respuesta en la i-ésima salida cuando se aplica un delta de Kronecker de am-
plitud unitaria en la j-ésima entrada, con condiciones iniciales cero y las demás
entradas son iguales a cero ∀t ≥ 0.
Por otro lado, si se aplica transformada Zeta a modelo en variables de estado
de tiempo discreto (10.117)-(10.118), con condiciones iniciales cero, tenemos:

X[z] = (zI − Ad )−1 Bd U[z] (10.155)


Y[z] = Cd X[z] + Dd U[z] (10.156)

que se reduce a:
Cd (zI − Ad )−1 Bd + Dd = H[z] (10.157)
En adelante, nos concentraremos en los sistemas escalares o SISO, i.e. m =
p = 1, Bd , Cd T son vectores columna, y Dd = H[∞]. Podemos apreciar que en
este caso H[z] es un cuociente de polinomios en la variable z, i.e.

Cd Adj(zI − Ad ) Bd + Dd det(zI − Ad )
H[z] = (10.158)
det(zI − Ad )

donde Adj(◦) denota la matriz adjunta de la matriz (◦) (ver Apéndice F.


10.5. MODELOS DE ESTADO PARA SISTEMAS INTERCONECTADOS287

Análogamente al caso de tiempo continuo, podemos observar que los polos cancelación
realización mı́nima
de la función de transferencia pertenecen al conjunto de autovalores de la ma- sistema!interconexión
triz Ad . Sin embargo, como se aprecia en el Ejemplo 10.7 en la página 271,
para el caso continuo, puede suceder que algunos de los autovalores de A d no
aparezcan como polos de la función de transferencia. Esto implica la existencia
de cancelaciones entre polos y ceros de la función de transferencia (ver Secciones
§10.6.1 y §10.6.2, más adelante).

El resultado central para sistemas de tiempo discreto es el mismo que para el


caso de sistemas de tiempo continuo : la función de transferencia puede
no aportar la misma información que el modelo en variables de
estado para un mismo sistema.

Para obtener un modelo en variables de estado a partir de la función de


transferencia de un sistema discreto, podemos usar el mismo procedimiento
propuesto para sistemas continuos en la Sección §10.3.4. En este caso, usamos
la transformada Zeta en lugar de la transformada de Laplace, que satisface la
propiedad (ver Apéndice E):

F [z] = Z {f [t]} ⇐⇒ zF [z] = Z {f [t + 1]} (10.159)

Ejemplo 10.15. Consideremos el sistema discreto dado por su función de


transferencia:

2z 2 − z + 1 1,8z + 0, 04
H[z] = = 2 +2 (10.160)
(z − 0, 8)(z − 0, 6) z − 1,4z + 0, 48
Una realización mı́nima para este sistema está dada por las matrices:
   
0 1 0
Ad = ; Bd = (10.161)
−0, 48 −1,4 1
 
Cd = 0, 04 1,8 ; Dd = 2 (10.162)

222

Para sistemas de tiempo discreto también tenemos que la función de


transferencia del sistema es invariante respecto a transformaciones
de similaridad.

10.5. Modelos de estado para sistemas interconec-


tados
Para construir modelos en espacio de estados de sistemas complejos estos
pueden ser a menudo descritos como la interconexión de sistemas más simples.
Esta interconexión es usualmente la combinación de tres tipos básicos de es-
tructuras: conexión en serie, en paralelo y en realimentación. En cada uno de
288 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.

conexión!serie(cascada) estos casos nos interesa obtener un modelo en variables de estado del sistema
serie!conexión
cascada|seeconexión completo resultante.
conexión!paralelo Para el análisis que sigue consideramos dos sistemas, definidos mediante su
paralelo!conexión modelo en variables de estado:

 dx1 (t)
= A1 x1 (t) + B1 u1 (t)
Sistema 1: dt (10.163)
 y1 (t) = C1 x1 (t) + D1 u1 (t)

 dx2 (t)
= A2 x2 (t) + B2 u2 (t)
Sistema 2: dt (10.164)
 y (t) = C x (t) + D u (t)
2 2 2 2 2

Conexión en serie
La interconexión de sistemas que se muestra en la Figura 10.12 se denomina
conexión en serie o en cascada. Para obtener el modelo de estado deseado,
observamos que y2 (t) = u1 (t). Además, el sistema completo tiene como entrada
u(t) = u2 (t), y como salida y(t) = y1 (t). Con esto se obtiene:
      
ẋ1 (t) A1 B1 C2 x1 (t) B1 D 2
= + u(t) (10.165)
ẋ2 (t) 0 A2 x2 (t) B2
 
  x1 (t)
y(t) = C1 D1 C2 + D1 D2 u(t) (10.166)
x2 (t)

u(t) u1(t) y1(t) y(t)


x2(t) x1(t)
u2(t) y2(t)

Figura 10.12: Conexión de sistemas en serie

Conexión en paralelo
La interconexión de sistemas que se muestra en la Figura 10.13 se denomina
conexión en paralelo. Para obtener el modelo de estado deseado, observamos
que la entrada es u(t) = u1 (t) = u2 (t) y que la salida para el sistema se expresa
como y(t) = y1 (t) + y2 (t). De esta forma, se obtiene:
      
ẋ1 (t) A1 0 x1 (t) B1
= + u(t) (10.167)
ẋ2 (t) 0 A2 x2 (t) B2
 
  x1 (t)
y(t) = C1 C2 + D1 + D2 u(t) (10.168)
x2 (t)
10.5. MODELOS DE ESTADO PARA SISTEMAS INTERCONECTADOS289

conexión!realimentación
u1(t) y1(t) realimentación
x1(t) feedback!seerealimentación
lazo de control
u(t) + y(t) planta
controlador
+
x2(t)
u2(t) y2(t)

Figura 10.13: Conexión de sistemas en paralelo

Conexión en realimentación
La interconexión de sistemas que se muestra en la Figura 10.14 se denomina
conexión en realimentación o feedback (con realimentación negativa unitaria), y
aparece normalmente asociada a la estructura básica del lazo de control reali-
mentado, donde S1 es la planta y S2 es el controlador. Para obtener el modelo en
variables de estado del sistema en su conjunto, podemos apreciar que la entrada
al sistema completo satisface la ecuación u(t) = u2 (t) + y1 (t), y que la salida
del sistema es y(t) = y1 (t). Si suponemos además que el sistema S1 (la planta)
es estrictamente propia, es decir, D1 = 0, se obtiene:
      
ẋ1 (t) A1 − B1 D2 C1 B1 C2 x1 (t) B1 D 2
= + u(t) (10.169)
ẋ2 (t) −B2 C1 A2 x2 (t) B2
 
  x1 (t)
y(t) = C1 0 (10.170)
x2 (t)

u(t) u2(t) y2(t) y1(t) y(t)


x2(t) x1(t)
+ u1(t)

Figura 10.14: Conexión de sistemas en realimentación (feedback )

Es importante notar que es posible aplicar los mismos resultados anteriores


a modelos de estado de sistemas de tiempo discreto interconectados. El lector
interesado en más detalles puede consultar, por ejemplo, [22].
290 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.

sistema!propiedades
control
10.6. Propiedades de los sistemas
controlabilidad
sistema!controlable 10.6.1. Controlabilidad, Alcanzabilidad y Estabilizabilidad
estado!controlable
alcanzabilidad Una cuestión de interés, en especial pensando en el control de sistemas, es
sistema!alcanzable bajo qué condiciones es posible llevar el vector de estado a un punto especı́fico
estado!alcanzable
del espacio de estado, a través de las señales de entrada al sistema. Debemos
recordar que el estado de un sistema a menudo está formado por variables
internas de este, tales como temperatura, presión, el nivel de algún estanque
u otras, que en pueden ser crı́ticas e interesa mantenerlas controladas entre
algunos valores especı́ficos. En esta sección se revisan conceptos relacionados
con este objetivo.

Controlabilidad

El concepto de controlabilidad se refiere a determinar si, a partir de una


condición inicial x0 , es posible o no llevar el vector de estado al origen,
x = 0, en un tiempo finito, usando la entrada u(t).

Ejemplo 10.16. Si observamos el modelo definido en (10.171), podemos apre-


ciar que la entrada u(t) no tiene efecto alguno sobre el estado x 2 (t).
      
ẋ1 (t) 0 1 x1 (t) 1
= + u(t) (10.171)
ẋ2 (t) 0 0 x2 (t) 0

Dado un estado inicial [x1 (0), x2 (0)]T , la entrada u(t) puede ser elegida para
llevar x1 (t) a cero, mientras que x2 (t) no sufre ningún cambio. Diremos que
este sistema no es completamente controlable.
222

Formalmente, tenemos la siguiente definición:

Definición 10.1. Un estado xo se dice controlable si existe un intervalo de


tiempo finito [0, T ] y una entrada {u(t), t ∈ [0, T ]} tal que x(T ) = 0. Si todos
los estados son controlables, entonces se dice que el sistema es completamente
controlable.

Alcanzabilidad
Un concepto relacionado con la controlabilidad es la alcanzabilidad, usado
en general para sistemas de tiempo discreto. Formalmente se define como:

Definición 10.2. Un estado x 6= 0 se dice alcanzable desde el origen, si dado


x(0) = 0, existe un intervalo de tiempo finito [0, T ] y una entrada {u(t), t ∈
[0, T ]} tal que x(T ) = x. Si todos los estados del sistema son alcanzables se dice
que el sistema es completamente alcanzable.
10.6. PROPIEDADES DE LOS SISTEMAS 291

Para sistemas de tiempo continuo, lineales e invariantes, completa contro- controlabilidad!test


alcanzabilidad!test
labilidad y alcanzabilidad son equivalentes. Sin embargo, el ejemplo siguiente controlabilidad!matriz
ilustra una diferencia entre estas propiedades para sistemas de tiempo discreto. matriz!de controlabilidad

Ejemplo 10.17. Considere el sistema y la salida:


   t
0, 5 1 0, 5 1
x[t + 1] = x[t] =⇒ x[t] = x[0] (10.172)
−0, 25 −0, 5 −0, 25 −0, 5
| {z }
Ad

Podemos apreciar que el sistema es completamente controlable, pues x[t] = 0,


∀t ≥ 2 y ∀x[0] ∈ R2 . Esto implica que cualquier estado inicial es controlable.
Sin embargo, ningún estado diferente de cero es alcanzable desde el origen, ya
que si x[0] = 0, entonces x[t] = 0, ∀t ∈ N.
222
Dada esta distinción entre controlabilidad y alcanzabilidad para sistemas dis-
cretos, en adelante usaremos el término controlabilidad para referirnos al más
fuerte de ambos conceptos. Sin embargo, en el contexto de sistemas lineales e in-
variantes en el tiempo, por lo general se habla indistintamente de controlabilidad
y alcanzabilidad.

Test de controlabilidad
Dado que no siempre es posible, a priori, determinar si un sistema es o no
controlable, se presenta a continuación una manera sistemática para determinar
la completa controlabilidad de un sistema. Los conceptos involucrados sobre
matrices pueden ser consultados en el Apéndice F.
Teorema 10.3. Considere el modelo de estado lineal e invariante en el tiempo,
donde A ∈ Rn×n :
ẋ(t) = Ax(t) + Bu(t) (10.173)
y(t) = Cx(t) + Du(t) (10.174)
(i) El conjunto de todos los estados controlables es el espacio rango de la
matriz de controlabilidad Γc [A, B] donde:
4  
Γc [A, B] = B AB A2 B ... An−1 B (10.175)

(ii) El modelo es completamente controlable si y sólo si Γc [A, B] tiene rango


fila completo.
222
Ejemplo 10.18. Considere el modelo en variables de estado dado por (10.171),
con matrices de estado:
   
0 1 1
A= ; B= (10.176)
0 0 0
292 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.

similaridad La matriz de controlabilidad del sistema es:


controlabilidad!pérdida
 
1 0
Γc [A, B] = [B, AB] = (10.177)
0 0

Claramente, el rango Γc [A, B] = 1, por tanto el sistema no es completa-


mente controlable.
222
Este test puede ser aplicado indistamente para analizar la controlabilidad de
sistemas de tiempo continuo y la alcanzabilidad de sistemas de tiempo discreto.
La controlabilidad de un sistema es otra de las propiedades que no depende
de la elección de las variables de estado. Si consideramos una transformación de
similaridad arbitraria T (ver Sección §10.3.3) observamos que:
n
A = (T−1 A T)(T−1 A T) . . . (T−1 A T)
= T−1 A (TT−1 )A(TT−1 ) . . . (TT−1 )A T = T−1 An T (10.178)

para todo n ∈ N, por lo tanto:

Γc [ A, B ] = T−1 Γc [A, B] (10.179)

Esto implica que la matrices Γc [ A, B ] y Γc [A, B] tienen el mismo rango,


pues T es no singular.
El lector puede verificar que los modelos en variables de estado usados para
describir señales en la Sección §10.2.3 corresponden son no controlables. De he-
cho, cualquier modelo de estado en que B = 0 resulta ser no controlable
.

Pérdida de controlabilidad
La falta de controlabilidad en un sistema en ocasiones puede originarse en la
estructura misma del sistema, sin embargo, en otras ocasiones depende del valor
numérico de ciertos parámetros. Esto se ilustra a través del siguiente ejemplo.
Ejemplo 10.19. Considere el circuito en la Figura 10.15 en la página siguiente.
En primer lugar, nos interesa obtener un modelo de él en variables de estado.
Eligiendo como variables de estado x1 (t) = iR1 (t) y x2 (t) = vC3 (t), y usando
leyes básicas de redes eléctricas para la parte izquierda del circuito, tenemos que:
d vi − v + v+
iC1 = C1 (vi −v+ ); iR1 = ; iR2 = ; iC1 = iR2 −iR1 (10.180)
dt R1 R2
Lo que permite obtener:

diR1 (t) (R1 + R2 ) 1


=− iR1 (t) + vi (t) (10.181)
dt C1 R1 R2 C1 R 1 R2
v+ (t) = −R1 iR1 (t) + vi (t) (10.182)
10.6. PROPIEDADES DE LOS SISTEMAS 293

iR1(t) R1 Op.Amp.
v+ (t)
+ v− (t) R3

vi (t) C1 R2 C3
vC3(t) vo (t)

Figura 10.15: Circuito electrónico para el Ejemplo 10.19.

De manera similar, para el lado derecho del circuito tenemos que:

dvC3 (t) 1 1
=− vC3 (t) + v− (t) (10.183)
dt R3 C3 R3 C3
vo (t) = vC3 (t) (10.184)

El amplificador operacional (ideal) asegura que v+ (t) = v− (t), por tanto,


podemos combinar (10.181)–(10.184) para obtener:
     
diR1 (t) (R1 + R2 ) 1
− 0  
 dt   C1 R1 R2  iR1 (t)  C1 R1 R 2 
 dv (t)  =  R1 1  vC3 (t) +  1  vi (t) (10.185)
C3
− −
dt R3 C3 R3 C3 C3 R3
 
  iR1 (t)
vo (t) = 0 1 (10.186)
vC3 (t)

La matriz de controlabilidad está dada por:


 
 1  −(R1 + R2 )
 R1 R2 C1 (R1 R2 C1 )2 
Γc [A, B] = B AB =   (10.187)
 1 −(R2 C1 + R3 C3 ) 
R3 C3 (R3 C3 )2 R2 C1

y su determinante es igual a:

R2
det (Γc [A, B]) = (−R1 C1 + R3 C3 ) (10.188)
(R1 R2 R3 C1 C2 )2

donde se observa que el sistema es completamente controlable si y sólo si:

R1 C1 6= R3 C3 (10.189)
294 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.

cancelación Esta condición tiene una interpretación muy importante desde el punto de
gramiano!controlabilidad
controlabilidad!gramiano vista de la función de transferencia del sistema. Si se aplica transformada de
Laplace a las ecuaciones (10.181)–(10.184), la función de transferencia desde
Vi (s) a Vo (s), recordando que V+ (s) = V− (s), está dada por:
 
1 1
s+
Vo (s) Vo (s) V+ (s) R 3 C3   R1 C1
= = ·  (10.190)
Vi (s) V− (s) Vi (s) 1 R1 + R 2
s+ s+
R3 C3 R 1 R2 C1

Donde se aprecia que la pérdida de la completa controlabilidad cuando R 1 C1 =


R3 C3 (obtenida a partir de (10.188)), se traduce en una cancelación de un
cero con un polo en la función de transferencia. Siendo más especı́fico, el cero
de la mitad izquierda del circuito en la Figura 10.15 se cancela con el polo de
la otra parte del circuito. Este hecho será analizado con mayor detalle en la
Sección §10.6.3.
222

Gramiano de controlabilidad
El test de controlabilidad da una respuesta afirmativa o negativa sobre la
(completa) controlabilidad de un sistema dado. Sin embargo, el saber que un
sistema es completamente controlable no dice nada respecto a qué grado de
controlabilidad el sistema posee, es decir, qué tan difı́cil es controlar un estado
del sistema.
Para sistemas estables es posible cuantificar el esfuerzo de control a través
de la energı́a involucrada en la señal de entrada u(t) aplicada desde t = −∞
para alcanzar el estado x(0) = x0 en t = 0:
Z 0 Z 0
2
J(u) = ku(t)k dt = u(t)T u(t)dt (10.191)
−∞ −∞

Se puede demostrar [1] que la energı́a de control mı́nima necesaria es:

J(uopt ) = xT0 P−1 x0 ≥ 0 (10.192)

donde
Z ∞
T
P= eAt BBT eA t dt (10.193)
0

La matriz P ∈ Rn se denomina gramiano de controlabilidad, y es una


medida de la controlabilidad del vector de estado x(0).
Para apreciar por qué esta matriz proporciona una medida de controlabili-
dad relativa, podemos recurrir a los resultados del Apéndice F. Esta matriz P
es simétrica y por tanto todos sus autovalores {λ1 , λ2 , . . . , λn } son reales y dis-
tintos, y sus autovectores asociados {v1 , v2 , . . . , vn } son ortogonales y pueden
10.6. PROPIEDADES DE LOS SISTEMAS 295

elegirse de norma unitaria, es decir, kvi k2 = viT vi = 1. Entonces, la matriz Lyapunov!ecuación


gramiano!controlabilidad!tiempo discr
puede escribirse como: controlabilidad!gramiano!tiempo discr
n
X n
X
P= λi vi · viT ⇐⇒ P−1 = λ−1 T
i vi · v i (10.194)
i=1 i=1

Además, dado un vector x0 ∈ Rn , existen constantes reales α1 , . . . , αn tales


que:
Xn
x0 = α i vi (10.195)
i=1

Ası́, sin pérdida de generalidad, la ecuación (10.192) se puede re-escribir


como:
Xn
J(uopt ) = xT0 P−1 x0 = αi2 λ−1
i (10.196)
i=1

De (10.196) se observa que si x0 está alineado con v` , donde λ` es muy


pequeño, entonces el costo (energı́a) de llevar el estado desde el origen, en t =
−∞, hasta x0 en t = 0, es muy grande y diremos que ese estado en particular
es difı́cilmente controlable.
Volviendo a la ecuación (10.193), es importante destacar que la existencia
de esta integral está garantizada pues el sistema es estable, y por lo tanto todos
los autovalores de la matriz A tienen parte real negativa. Es más, el gramiano
de controlabilidad P definido en (10.193) satisface la ecuación de Lyapunov:

AP + PAT + BBT = 0 (10.197)

Para sistemas de tiempo discreto, se puede realizar un análisis similar, donde


el gramiano de controlabilidad se define como:

X
Pd = Ad t Bd Bd T (Ad T )t (10.198)
t=0

que satisface la ecuación de Lyapunov

Ad P d Ad T − P d + B d B d T = 0 (10.199)

La suma definida (10.198) existe si y sólo si el sistema de tiempo discreto es


estable, lo cual equivale a restringir los autovalores al interior del disco unitario:
Ejemplo 10.20. Consideremos nuevamente el modelo del circuito en el Ejem-
plo 10.19 en la página 292, dado por (10.185)-(10.186). Si queremos apreciar
la información dada por el gramiano de controlabilidad, definido en (10.193),
cuando el modelo está cerca de perder la completa controlabilidad, podemos con-
siderar valores para los parámetros que aseguren R1 C1 ≈ R3 C3 . En particular,
elegimos:

R1 = R2 = R3 = 1[KΩ]; C1 = 0,9[mF ]; C3 = 1[mF ] (10.200)


296 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.

Note que hemos utilizado unidades especiales, donde mF corresponde a 10 −3


[F] y KΩ a 103 [Ω]. Esto hace que el tiempo sea medido en segundos, la corriente
en mili-amperes y la tensión, en Volts.
El modelo de estado queda descrito por:
   20    10 
i̇R1 (t) −9 0 iR1 (t)
= + 9 vi (t) (10.201)
v̇C3 (t) −1 −1 vC3 (t) 1
 
  iR1 (t)
vo (t) = 0 1 (10.202)
vC3 (t)
En este caso, algunos estados, es decir ciertas combinaciones de valores de
valores para iR1 y vC3 , son más difı́ciles de alcanzar que otros. Para verificar
esto podemos calcular el gramiano de controlabilidad definido en (10.193), re-
solviendo:

0 = AP + PAT + BBT (10.203)


 20       10 
−9 0 p11 p12 p p12 − 20 −1  10 
0= + 11 9 + 9
9 1
−1 −1 p21 p22 p21 p22 0 −1 1
(10.204)
Usando Matlab obtenemos:

Matlab

>> A=[-20/9 0; -1 -1];


>> B=[10/9 ; 1];
>> C=[1 0];
>> S=ss(A,B,C,0);
>> P=gram(S,’c’)
>> inv(P)

   
0,2778 0,2586 1,4616 −1,5660
P= P−1 = 10−3 × (10.205)
0,2586 0,2414 −1,5660 1,6820
Los autovalores de P son λ1 = 0,0003 y λ2 = 0,5188 con sus correspondientes
autovectores v1 = [0,6818 − 0,7315]T y v2 = [0,7315 0,6818]T .
Ası́ podemos calcular, usando la ecuación (10.192), la mı́nima energı́a de
control necesaria para llevar el estado x(t), from 0 in t = −∞, to x0 in t = 0.
Suponemos que x0 is colineal con los autovectores:

x0 = v 1 ⇒ J(uopt ) = 3141,7 (10.206)


x0 = v 2 ⇒ J(uopt ) = 1,9274 (10.207)

donde claramente se verifica que la energı́a de control para alcanzar el estado


x0 = v1 es tres órdenes de magnitud mayor que la necesaria para alcanzar
x0 = v 2 .
10.6. PROPIEDADES DE LOS SISTEMAS 297

También, si substitutimos los valores numéricos de los parámetros en la cancelación!cuasi-


descomposición canónica!alcanzabilida
ecuación (10.190), vemos que la función de transferencia resulta ser: subespacio!controlable

Vo (s) 1 s + 1 + 91
=  (10.208)
Vi (s) (s + 1) s + 20
9

donde observamos una cuasi-cancelación de un polo con un cero.


222

Es posible generalizar el concepto de gramiano para incluı́r el caso de sis-


temas inestables, como el lector interesado puede conocer consultando [23].

Descomposición canónica y estabilizabilidad


En el caso que un sistema no sea completamente controlable, este puede
decomponerse en un subsistema controlable y completamente incontrolable
tal como establece el siguiente lema.

Lema 10.6. Considere un sistema para el cual rango{Γc [A, B]} = t < n,
entonces existe una transformación de similaridad x = T−1 x, en que las nuevas
matrices de estado tienen la forma:
 
Ac A12
A = T−1 AT = (10.209)
0 Anc
 
Bc
B = T−1 B = (10.210)
0

donde Ac tiene dimensión k y el par (Ac , Bc ) es completamente controlable.


222

Este resultado establece cuáles estados pueden y cuáles no pueden ser lleva-
dos a cero. Para apreciar mejor este hecho, expresemos el estado y la salida de
la forma:

      
ẋc Ac A12 xc Bc
= + u (10.211)
ẋnc 0 Anc xnc 0
 
  xc
y = Cc Cnc + Du (10.212)
xnc

El subespacio controlable del modelo en variables de estado está com-


puesto por todos los estados generados como combinación de los estados en
xc . La estabilidad de este subespacio está determinada por la ubicaión de los
autovalores de la matriz Ac .
Por otra parte, el subespacio no controlable está formado por todos los
estados generador como combinación lineal de los estados en xnc , y su estabilidad
queda determinada por los autovalores de la matriz Anc .
298 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.

estabilizabilidad De esta forma, la entrada no tiene efecto alguno sobre el subespacio no


sistema!estabilizable
cancelación controlable, por lo que podrı́amos esperar que este subespacio fuera al menos
forma canónica!controlable estable, de manera que sus estados decaigan naturalmente al origen. En este
controlabilidad!forma canónica caso el modelo en variables de estado se denomina estabilizable.
forma canónica!del controlador
Una consecuencia clave de la descripción dada por (10.211)-(10.212) es el
controlador!forma canónica
hecho que la función de transferencia queda dada por:

H(s) = Cc (sI − Ac )−1 Bc + D (10.213)

La ecuación (10.213) dice que los autovalores del subespacio no controlable


no aparecen como polos de la función de transferencia. Esto implica que existe
una cancelación de los polos correspondientes a las raı́ces de det(sI − A nc ).

Forma canónica controlable


Lema 10.7. Considere un modelo de estado completamente controlable para
un sistema SISO. Entonces, existe una transformación de similaridad tal que el
modelo de estado se puede expresar en la forma canónica controlable:
   
0 0 ... 0 −α0 1
1 0 . . . 0 −α 1
 0
   
A0 =  0 1 . . . 0 −α2  B0 =  0
  
 (10.214)
 .. .. . . . ..   .. 
. . . .. .   . 
0 0 ... 1 −αn−1 0

donde:
λn + αn−1 λn−1 + · · · + α1 λ + α0 = det(λI − A) (10.215)
es el polinomio caracterı́stico de A.
222

Lema 10.8. Considere un modelo de estado completamente controlable para un


sistema SISO. Entonces, existe una transformación de similaridad que convierte
el modelo de estado en la forma canónica del controlador:
   
−αn−1 −αn−2 . . . −α1 −α0 1
 1 0 . . . 0 0  0
   
A00 =  0 1 ... 0 0  B00 = 0 (10.216)
  

 .. .. .. .
.. . 
..   .. 
 . . . .
0 0 ... 1 0 0

donde:
λn + αn−1 λn−1 + · · · + α1 λ + α0 = det(λI − A) (10.217)
es el polinomio caracterı́stico de A.
222
10.6. PROPIEDADES DE LOS SISTEMAS 299

10.6.2. Observabilidad, Reconstructibilidad y Detectabil- observabilidad


estado!observable
idad sistema!observable
reconstructibilidad
Si consideramos el modelo de estado de un sistema dado, podemos es razon-
able suponer que si se observa su salida durante un intervalo de tiempo, entonces
podrı́amos obtener información sobre su estado. La propiedad asociada a este
concepto se denomina observabilidad.

Observabilidad

La observabilidad de un sistema se refiere a la información que se puede


obtener sobre el estado a partir de mediciones de su salida.

Ejemplo 10.21. Si consideramos el sistema definido por el modelo en variables


de estado:
      
ẋ1 (t) −1 0 x1 (t)   x1 (t)
= y(t) = 1 0 (10.218)
ẋ2 (t) 1 −1 x2 (t) x2 (t)

Podemos apreciar que y(t) queda determinada por x1 (t), mientras que la otra
variable de estado x2 (t) no tiene influencia alguna sobre la salida. Por tanto el
sistema no es completamente observable, es decir, existe una parte del estado
de la cual nunca se obtendrá información alguna.
222
Se puede formalizar la definición de observabilidad de la siguiente forma:
Definición 10.3. El estado xo 6= 0 se dice no observable si dado x(0) = xo ,
y u(t) = 0 para t ≥ 0, entonces y(t) = 0 para t ≥ 0, es decir, la condición
inicial xo no tiene efecto alguno sobre la salida del sistema.
El sistema se dice completamente observable si no existe estado inicial,
diferente de cero, que sea no observable.

Reconstructibilidad
Otro concepto estrechamente relacionado al de observabilidad, es el que se
denomina reconstructibilidad. Este, para sistemas de tiempo discreto, se re-
fiere a qué se puede decir de x(K), habiendo observado valores pasados de la
salida y[t], durante 0 ≤ t ≤ K.
Para sistemas de tiempo continuo, lineales e invariantes, no es necesario hacer
distinción entre observabilidad y reconstructibilidad. Sin embargo, el siguiente
ejemplo ilustra que para sistemas de tiempo discreto, estos conceptos son difer-
entes.
Ejemplo 10.22. Considere el modelo en espacio de estado:

x[t + 1] = 0 x[0] = xo (10.219)


y[t] = 0 (10.220)
300 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.

observabilidad!test Este sistema es claramente reconstruible para todo K ≥ 1, ya que sabemos


observabilidad!matriz
matriz!de observabilidad que x[K] = 0 para K ≥ 1. Sin embargo, es no observable pues y[t] = 0, ∀t sin
importar xo .
Dada la diferencia entre los conceptos de observabilidad y reconstructibil-
idad, en adelante usaremos el término observabilidad para referirnos al más
fuerte de ambos conceptos.

Test de observabilidad
Para contar con un criterio que permita determinar si un sistema es o no
observable, se presenta a continuación el siguiente teorema.
Teorema 10.4. Considere el sistema en variables de estado, continuo, lineal e
invariante en el tiempo:

ẋ(t) = Ax(t) + Bu(t) (10.221)


y(t) = Cx(t) + Du(t) (10.222)

donde A ∈ Rn×n .

(i) El conjunto de estados no observables es igual al subespacio nulo de la


matriz de observabilidad Γo [A, C] donde:
 
C
4  CA 
 
Γo [A, C] =  .  (10.223)
 .. 
CAn−1

(ii) El sistema es completamente observable si y solo si Γo [A, C] tiene rango


columna completo n.

222
Este test de observabilidad puede aplicarse indistintamente a sistemas de
tiempo discreto y continuo.
Ejemplo 10.23. Considere el siguiente modelo en espacio de estado:
   
−3 −2 1  
A= ; B= ; C = 1 −1 (10.224)
1 0 0

La matriz de observabilidad está dada por:


   
C 1 −1
Γo [A, C] = = (10.225)
CA −4 −2

Entonces el rango de Γo [A, C] = 2, lo que dice que el sistema es completa-


mente observable.
222
10.6. PROPIEDADES DE LOS SISTEMAS 301

Ejemplo 10.24. Si observamos el modelo definido en (10.218), tenemos: observabilidad!pérdida

 
−1 0  
A= ; C= 1 0 (10.226)
1 −1

La matriz de observabilidad es:


 
1 0
Γo [A, C] = (10.227)
−1 0

El rango de Γo [A, C] = 1 < 2 y, por lo tanto, el sistema no es completamente


observable.
222
La observabilidad de un sistema es una propiedad que no depende de la
elección de las variables de estado. Análogamente al caso de la matriz de con-
trolabilidad en la Sección §10.6.1, puede demostrarse que el rango de la matriz
de observabilidad 10.223 en la página anterior es invariante respecto a transfor-
maciones de similaridad.

Pérdida de observabilidad
La observabilidad de un sistema queda determinada básicamente por car-
acterı́sticas propias de su estructura. Sin embargo, también es posible que la
observabilidad de un modelo se vea afectada por valores numéricos particulares
en algunos de sus parámetros, de manera análoga a lo que sucede con la con-
trolabilidad, tal como se analizó en la Sección §10.6.1. Es esperable que los
parámetros afecten la completa observabilidad de un modelo de una manera
similar. Para esto se propone el siguiente ejemplo, que es el dual del Ejemp-
lo 10.19 en la página 292.
Ejemplo 10.25. Consideremos el circuito de la Figura 10.16 en la página
siguiente. Este corresponde al mismo de la Figura 10.15, pero en que se han
intercambiado las redes eléctricas a la derecha e izquierda del amplificador op-
eracional. Por tanto, podemos utilizar ecuaciones similares a las antes obtenidas
para describir el sistema en variables de estado. En particular, se escoge x 1 (t) =
vC3 (t) y x2 (t) = iR1 (t).
Para la parte izquierda del circuito, tenemos:

dvC3 (t) 1 1
=− vC3 (t) + vi (t) (10.228)
dt R3 C3 R3 C3
v+ (t) = vC3 (t) (10.229)

Por su parte para la parte derecha:

diR1 (t) (R1 + R2 ) 1


=− iR1 (t) + v− (t) (10.230)
dt C1 R1 R2 C1 R1 R2
vo (t) = −R1 iR1 (t) + v− (t) (10.231)
302 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.

Op.Amp.
iR1(t) R1
R3 v+ (t)
+ v− (t)

vi (t) vC3(t) C3
C1 R2 vo (t)

Figura 10.16: Circuito electrónico.

El amplificado operacional (ideal), conectado como un seguidor de voltaje,


asegura que v+ (t) = v− (t), y por lo tanto podemos combinar los modelos de
estado dados por las ecuaciones (10.228) a (10.231), para obtener:
      
dvC3 (t) 1 1
   −R C 0  vC3 (t)  
 dt  =  3 3   +  R3 C3  vi (t) (10.232)
 di (t)   1 (R1 + R2 )     
R1
− iR1 (t) 0
dt C1 R1 R2 C1 R1 R2
 
  v (t)
 C3 
vo (t) = 1 −R1 


 (10.233)
iR1 (t)

La matriz de observabilidad es:


   
 C   1 −R1 
Γc [C, A] =  =  (10.234)
   1 1 R1 + R 2 
CA − −
R3 C3 R2 C1 R2 C1

Para determinar el rango de esta matriz es necesario calcular su determi-


nante:
1
det (Γc [C, A]) = (−R1 C1 + R3 C3 ) (10.235)
R3 C3 C1
donde se observa que el modelo del sistema es completamente observable si y
sólo si R1 C1 6= R3 C3 , misma condición que se obtuvo en el Ejemplo 10.19 en
la página 292.
Aplicando transformada de Laplace a las ecuaciones (10.230)–(10.229) obten-
10.6. PROPIEDADES DE LOS SISTEMAS 303

emos la función de transferencia de Vi (s) a Vo (s): cancelación


gramiano!observabilidad
 
1 1 observabilidad!gramiano
s+
Vo (s) V+ (s) Vo (s) R1 C1 R 3 C3 
= = · (10.236)
Vi (s) Vi (s) V− (s) R1 + R 2 1
s+ s+
R1 R2 C1 R3 C3
Cuando R1 C1 = R3 C3 se produce una pérdida de la completa observabilidad
del sistema, que se traduce en una cancelación de un polo con un cero en
la función de transferencia, es decir, el polo del lado izquierdo del circuito en la
Figure 10.16 se cancela con el cero del lado derecho.
Es importante notar que, a pesar que el resutado similar es el mismo, ex-
iste un diferencia entre las funciones de transferencia (10.236) y (10.190) en la
página 294, pues el orden de la cancelación es diferentes en cada caso. La can-
celación cero-polo se relaciona con la pérdida de completa observabilidad y la
cancelación polo-cero se relaciona con la pérdida de completa controlabilidad.
Volveremos en más detalle a este punto en la Sección §10.6.3.
222

Gramiano de observabilidad
El test de observabilidad planteado en el Teorema 10.4 en la página 300
permite determinar si un sistema es o no es completamente observable. sin
embargo, en ocasiones puede ser de interés determinar el grado de observabilidad
de un sistema dado. Para el caso de sistemas estables, podemos cuantificar la
energı́a en la señal de salida y(t), en ausencia de señal de entrada (u(t) = 0), y
cuando el estado inicial es x(0) = x0 , mediante:
Z ∞ Z ∞
2
E(x0 ) = ky(t)k dt = y(t)T y(t)dt (10.237)
0 0

Es posible demostrar que la energı́a en la salida del sistema está dada por:
Z ∞
E(xo ) = ky(t)k2 dt = xo T Qxo (10.238)
0

donde
Z ∞
T
Q= eA t CT C eAt dt (10.239)
0

La matriz Q se denomina gramiano de observabilidad, y cuantifica la


observabilidad del vector de estado x(0). Para apreciar mejor esto, podemos
recurrir a los resultados del Apéndice F. La matriz Q es simétrica y por tanto
todos sus autovalores {λ1 , λ2 , . . . , λn } son reales y distintos, y sus autovectores
asociados {v1 , v2 , . . . , vn } son ortogonales y pueden elegirse de norma unitaria,
es decir, kvi k2 = viT vi = 1. Entonces, la matriz puede escribirse como:
n
X
Q= λi vi · viT (10.240)
i=1
304 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.

Lyapunov!ecuación Además, dado un vector x0 ∈ Rn , existen constantes reales α1 , . . . , αn tales


que:
Xn
x0 = α i vi (10.241)
i=1

Ası́, sin pérdida de generalidad, la ecuación (10.238) se puede re-escribir


como:
X n
E(x0 ) = xT0 Qx0 = αi2 λi (10.242)
i=1

De (10.242) se observa que si x0 está alineado con v` , donde λ` es muy


pequeño, entonces el la energı́a presente en la salida debida a este estado ini-
cial sera muy pequeña y diremos que ese estado en particular es difı́cilmente
observable.
Volviendo a la ecuación (10.239), la existencia de la integral queda garanti-
zada pues el sistema es estable, lo que asegura que los autovalores de la matriz
A tienen parte real negativa. Además, el gramiano de observabilidad Q definido
en (10.239) satisface la ecuación de Lyapunov:

AT Q + QA + CT C = 0 (10.243)

Para sistemas estables de tiempo discreto, el gramiano de observabilidad


queda definido por:

X
Qd = (Ad T )t Cd T Cd Ad t (10.244)
t=0

que satisface la ecuación de Lyapunov:

Ad T Q d Ad − Q d + C d T C d = 0 (10.245)

Ejemplo 10.26. Consideremos nuevamente el sistema del Ejemplo 10.25, de-


scrito por el modelo de estado (10.232)–(10.233), para apreciar la utilidad del
gramiano de observabilidad (10.239), en especial cuando el modelo está próximo
a perder la completa observabilidad, es decir, cuando R1 C1 ≈ R3 C3 .
Suponemos los mismos valores para las componentes R1 , R2 , R3 , C1 y C3 que
en el Ejemplo 10.20 en la página 295, con lo que obtenemos:
      
v̇C3 (t) −1 0 vC3 (t) 1
= 10 + v (t) (10.246)
i̇R1 (t) 9 − 20
9 iR1 (t) 0 i
 
  vC3 (t)
vo (t) = 1 −1 (10.247)
iR1 (t)

En este sistema ciertas combinaciones del estado (en t = 0) tendrán poco


efecto en la salida. Para verificar esto podemos calcular el gramiano de observ-
10.6. PROPIEDADES DE LOS SISTEMAS 305

abilidad (10.193), resolviendo: cancelación!cuasi-


dualidad
0 = AT Q + QA + CT C (10.248)
 10
      
−1 q11 q12 q q12 −1 0 1  
0= 9 + 11 10 + 1 −1
0 − 209 q 21 q 22 q 21 q22 9 − 20
9 −1
(10.249)
Usando Matlab obtenemos:

Matlab

>> A=[-1 0; 10/9 -20/9];


>> B=[1;0];
>> C=[1 -1];
>> S=ss(A,B,C,0);
>> Q=gram(S,’o’)

 
0,2414 −0,2328
Q= (10.250)
−0,2328 0,2250
Los autovalores de Q son λ1 = 0,0003 y λ2 = 0,4661 con sus correspondi-
entes autovectores v1 = [−0,6946 − 0,7194]T y v2 = [−0,7194 0,6946]T .
Ahora podemos evaluar el efecto de ciertos estados iniciales en la salida del
sistema. Consideraremos x0 = v1 y x0 = v2 para calcular la energı́a, tal como
se define en la ecuación (10.238):
x0 = v 1 ⇒ E(x0 ) = 0,000287 (10.251)
x0 = v 2 ⇒ E(x0 ) = 0,4661 (10.252)
donde se observa que la energı́a debida el estado inicial x0 = v2 es tres órdenes
de magnitud mayor, lo que indica que existen ciertos estados que son poco ob-
servables en la salida.
La pérdida de observabilidad también puede ser apreciado en la función de
transferencia del sistema:

Vo (s) s + 1 + 19 1
= 20
 · (10.253)
Vi (s) s+ 9 (s + 1)
donde se aprecia que existe una cuasi-cancelación entre un polo y un cero.
222

Principio de Dualidad
Podemos notar un paralelo notable entre los resultados del Teorema 10.3 en
la página 291 y del Teorema 10.4 en la página 300, y también entre las defini-
ciones de los gramianos (10.193) y (10.239). Esto de pie a lo que se conoce como
el principio de dualidad, el cual se formaliza a continuación:
306 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.

sistema!dual Teorema 10.5 (Dualidad). Considere el modelo en variables de estado de-


descomposición canónica!observabilidad
subespacio!observable scrito por la 4-tupla (A, B, C, D). Entonces el sistema es completamente con-
detectabilidad trolable si y solo si el sistema dual (AT , CT , BT , DT ) es completamente ob-
sistema!detectable servable.
222

Descomposición canónica y detectabilidad


El teorema anterior puede ser a menudo utilizado para extender un resultado
sobre controlabilidad a un resultado sobre la observabilidad y vice versa. El dual
del Lema 10.6 en la página 297 es :
Lema 10.9. Si rango{Γo [A, C]} = k < n, existe una transformación de simi-
laridad x = T−1 x, tal que las nuevas matrices de estado tienen la forma:
 
Ao 0
A = T−1 AT = (10.254)
A21 Ano
 
C = CT = Co 0 (10.255)
donde Ao tiene dimensión k y el par (Co , Ao ) is completamente observable.
222
Este resultado tiene una relevancia similar a la descomposición canónica
asociada para el caso de la controlabilidad. Para apreciar esto, aplicamos el
dual del Lema 10.6 en la página 297 para expresar el estado (transformado) y
las ecuaciones de salida en la forma particionada que se muestra a continuación:
      
ẋo (t) Ao 0 xo (t) Bo
= + u(t) (10.256)
ẋno (t) A21 Ano xno (t) Bno
 
  xo (t)
y(t) = Co 0 + Du(t) (10.257)
xno (t)
La descripción anterior pone en evidencia el problema que puede surgir cuan-
do se intenta controlar un sistema usando sólo su salida, pues en esta no aparece
información alguna sobre xno .
El subespacio observable de un modelo es el espacio formado por todos
los estados que se generan como combinaciones lineales de los estados en x o .
La estabilidad de este subespacio queda determinada por la ubicación de los
autovalores de la matriz Ao .
El subespacio no observable de un modelo, es el espacio formado por
todos los estados generados como combinación lineal de los estados en x no .
La estabilidad de este subespacio queda determinada por los autovalores de la
matriz Ano .
Si el subespacio no observable es estable, decimos que el sistema es de-
tectable.
Una consecuencia clave de la descripción (10.256)–(10.257) podemos apre-
ciarla en la función de transferencia del sistema que queda expresada como:
H(s) = Co (sI − Ao )−1 Bo + D (10.258)
10.6. PROPIEDADES DE LOS SISTEMAS 307

Es decir, los autovalores del subespacio no observable no pertenecen al con- cancelación


forma canónica!observable
junto de polos de la función de transferencia del sistema. Esto implica que existe observabilidad!forma canónica
una cancelación de todos los polos correspondientes a las raı́ces de det(sI−A no ). descomposición canónica

Forma canónica observable


Es posible obtener las formas canónicas duales a las presentadas en los Lemas
10.7 y 10.8. Para ilustrar esto presentamos a continuación solo uno de los teo-
remas duales.
Lema 10.10. Considere un sistema escalar o SISO, completamente observable.
Entonces existe una transformación de similaridad tal que lleva al modelo a la
forma canónica observable:
   
−αn−1 1 bn−1
 .. ..   .. 
 . .   . 
ẋ(t) =  .

 x(t) +  .  u(t)
   (10.259)
 .. 1   .
. 
−α0 0 0 b0
 
y(t) = 1 0 . . . 0 x(t) + Du(t) (10.260)

222

10.6.3. Descomposición Canónica


En la sección anterior se analizaron propiedades de los sistemas dinámi-
cos, considerando aquellos que son solo parcialmente observables y controlables.
Estos pueden ser separados en subsistemas completamente controlables y com-
pletamente observables.
Los resultados de los Lemas 10.6 y 10.9 pueden combinarse para aquellos sis-
temas que no son ni completamente observables ni completamente controlables.
Podemos apreciar esto en el siguiente Teorema.
Teorema 10.6 (Descomposición Canónica). Considere un sistema descrito
por un modelo en espacio de estado. Entonces, siempre existe una transforma-
ción de similaridad T tal que el modelo transformado, con su nuevo vector de
estado x = T−1 x toma la forma:
   
Aco 0 A13 0 B1
A21 A22 A23 A24   B2   
A=  0
; B=  0 ;
 C = C 1 0 C2 0
0 A33 0 
0 0 A34 A44 0
(10.261)

(i) El subsistema [Aco , B1 , C1 ] es completamente controlable y completamente


observable, y tiene la misma función de transferencia que el sistema orig-
inal (ver Lema 10.11 en la página siguiente).
308 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.

(ii) El subsistema:
   
Aco 0 B1  
, , C1 0 (10.262)
A21 A22 B2

es completamente controlable.

(iii) El subsistema:
   
Aco A13 B1  
, , C1 C2 (10.263)
0 A33 0

es completamente observable.

222

La Figura 10.17 ilustra la estructura interna de un sistema de acuerdo al teo-


rema anterior. En ella, x(t), xno (t), xnc (t) y xnc−no (t) representan la parte del
estado completamente controlable y observable, no observable, no controlable,
y no controlable ni observable, respectivamente.

x(t)
u(t) y(t)

xno (t)

xnc (t)

xnc−no (t)

Figura 10.17: Estructura de un sistema de acuerdo a su controlabilidad y ob-


servabilidad.

La descomposición canónica descrita en el Teorema 10.6 tiene una impor-


tante consecuencia para la función de transferencia del modelo, ya que esta solo
refleja el subespacio completamente observable y completamente controlable.

Lema 10.11. Considere la matriz de transferencia H(s) dada por:

Y(s) = H(s)U(s) (10.264)


10.7. OBSERVADORES 309

Entonces: realización mı́nima


observador
H = C(sI − A)−1 B + D = C1 (sI − Aco )−1 B1 + D (10.265)
donde C1 , Aco y B1 son las de las ecuaciones (10.261). Esta descripción de
estado es una realización mı́nima de la función de transferencia.
222
Además, si denotamos por Λ{M} el conjunto de autovalores de una matriz
M, entonces:
Λ{A} = Λ{Aco } ∪ Λ{A22 } ∪ Λ{A33 } ∪ Λ{A44 } (10.266)
donde:
Λ{A} Autovalores del sistema
Λ{Aco } Autovalores del subsistema controlable y observable
Λ{A22 } Autovalores del subsistema controlable pero no observable
Λ{A33 } Autovalores del subsistema no controlable pero observable
Λ{A44 } Autovalores del subsistema no controlable y no observable

Observamos que la controlabilidad de un sistema dado depende de la es-


tructura de sus entradas, es decir, donde se aplican y como entran en el sistema
aquellas variables que son manipulables. Por tanto, los estados de un subsistema
pueden ser no controlables desde una entrada, pero completamente controlables
desde otra. Es importante tener esto en mente para el diseño de sistemas de
control, pues en un proceso real no todas sus entradas pueden ser manipuladas,
y por tanto puede que sea imposible llevar las variables de la planta a ciertos
ubicaciones del espacio de estado.
Análogamente, la observabilidad de un sistema depende de qué salidas se
consideren. Algunos estados pueden ser no observables desde una salida dada,
pero puede ser completamente observables desde otra. En el contexto del análisis
y diseño de sistemas de control, esto se traduce en que puede ser difı́cil (imposi-
ble) obtener información sobre ciertas variables internas de la planta, a partir
de las salidas medidas disponibles.

10.7. Observadores
Cuando las variables de estado de un sistema deben ser medidas para mon-
itoreo, control u otros propósitos, existen importantes aspectos tanto técnicos
como económicos a considerar.

Un observador es un estimador de las variables de estado en base a un


modelo del sistema, mediciones de la salida de la planta y(t) y de su entrada
u(t).

El problema de observar el estado de un sistema es una generalización del


caso en que se desea medir indirectamente alguna variables de un sistema usando
un modelo de un sistema y otras variables más fáciles de medir.
310 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.

error!estimación 10.7.1. Dinámica del observador


estimación!error
observador!polinomio Supongamos que un sistema tiene un modelo de estado dado por las ecua-
Hurwitz!polinomio
error!modelo
ciones (10.44)-(10.45) con D = 0 (sistema estrictamente propio). En este caso,
modelo!error la estructura general de un observador clásico para el estado del sistema es
la que se muestra en la Figura 10.18, donde la matriz J es la ganancia del
observador.

u(t) y(t)
Sistema

+ -1 x^ (t) +
B (sI-A) C -
+

Figura 10.18: Observador del estado clásico

La ecuación que defines la dinámica del observador es entonces:

dx̂(t)
= Ax̂(t) + Bu(t) + J(y(t) − Cx̂(t)) (10.267)
dt
Una pregunta natural es: si contamos con un modelo del sistema y conocemos
su entrada, ¿porqué es necesario entonces usar la salida para estimar el estado?
¿no bastarı́a con simular el sistema? La clave aquı́ es que no conocemos el
estado inicial del sistema, y por tanto no podrı́amos obtener la trayectoria
del estado.
Si consideramos el error de estimación del estado x̃(t) = x(t) − x̂(t), su
dinámica se obtiene restando (10.267) de (10.44). Esto es:

dx̃(t)
= (A − JC)x̃(t) (10.268)
dt
donde observamos que el error de estimación converge a cero si y solo si todos los
autovalores de la matriz A − JC tienen parte real negativa, i.e., si el polinomio
del observador:
E(s) = det(sI − A + JC) (10.269)
es estrictamente Hurwitz.

Discusión
La ecuación (10.268) es válida solo si el modelo es un representación exacta
del sistema bajo análisis. Errores de modelado tendrán consecuencias sobre
el observador, tales como error de estimación diferente de cero.
10.7. OBSERVADORES 311

Si el par (A, C) es completamente observable, entonces los autovalores de polos!observador


A − JC pueden situarse arbitrariamente sobre región de estabilidad del
plano complejo. Por tanto, la velocidad de convergencia de la estimación
es parte del diseño del observador. Estos autovalores se conocen como los
polos del observador.
Si el par (A, C) es detectable, entonces el observador asegura error esta-
cionario cero asitóticamente, a pesar que no todos los autovalores de la
matriz A − JC pueden situarse a gusto.
Si el sistema no es completamente observable, y el subespacio no observ-
able contiene modos inestables, entonces el error de estimación no con-
verge.

Ejemplo 10.27. Para ilustrar el uso de un observador consideremos nueva-


mente el modelo de estado del Ejemplo 10.8. En este caso particular, queremos
que los polos del observador se ubiquen en s = −4, s = −6 y s = −8. Entonces
la ganancia del observador J debe elegirse adecuadamente, por ejemplo, usando
Matlab :

Matlab

>> A=[ 0 1 0; 0 0 1; 4 0 -3];


>> B=[ 0; 0; 1];
>> C=[-10 4 0];
>> J=place(A’,C’,[-4 -6 -8])

 T
J = −4,5247 −7,5617 −4,1543 (10.270)
Para apreciar la dinámica del observador, asumiremos que el estado inicial
del sistema es x(0) = [−1 2 1]T y que la entrada del sistema es una señal
cuadrada de amplitud 1, y frecuencia igual a 1 [rad/s]. El observador se inicia
con x̂(0) = 0. Entonces, la norma del error de estimación, ||x̃(t)|| evoluciona
como se muestra en la Figura 10.19
Es importante notar que, en este ejemplo, la planta es inestable, lo que sig-
nifica que tanto el estado como su estimación crecen indefinidamente. Sin em-
bargo, bajo el supuesto de un modelo exacto, el error de estimación converge a
cero.
222
Para darle una interpretación fı́sica a la filosofı́a del uso de observadores,
veamos a continuación otro ejemplo.
Ejemplo 10.28. La Figura 10.20 muestra el esquema de un sistema rotacional
en que la entrada es el torque τ (t). La potencia en el sistema se transmite a
través de un sistema de engranajes en dos ruedas de radios r1 y r2 y momentos
312 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.

12

10

Norma del error


6

0
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
Tiempo [s]

Figura 10.19: Error de estimación del estado

de inercia I1 e I2 , respectivamente. La rotación de ambos ejes es amortiguada


por un roce viscoso con coeficientes D1 y D2 , y existe un resorte de torsión no
despreciable en el eje 2 que también ha sido modelado. La carga en el sistema se
ha incluı́do como un momento de inercia I3 . Lo que nos interesa es estimar la
velocidad ω3 de la carga want to estimate the load speed en base a la medición
de velocidad en el eje 1 1, ω1 .

D1 θ1
I
ω1 τ1 1
r1
D2
τ K2
r2
τ 2 ω2 ω3
I2 θ2 θ3 I3

Figura 10.20: Sistema rotacional

En primer lugar, es necesario obtener el modelo de estado del sistema, para


lo cual consideramos el mı́nimo conjunto de variables del sistemas que cuatifi-
can la energı́a almacenada en él. El sistema tiene cuatro componentes capaces
de almacenar energı́a: tres momentos angulares y un resorte. Sin embargo, la
energı́a almacenada en I1 e I2 puede calcularse tanto a partir de ω1 como de
ω2 ,i.e., necesitamos solo una de estas velocidades, ya que satisfacen la relación:

ω1 (t) r2
= ; and τ1 (t)ω1 (t) = τ2 (t)ω2 (t) (10.271)
ω2 (t) r1
10.7. OBSERVADORES 313

Entonces, motivados por el modelado fı́sico, elegimos:


x1 (t) = ω1 (t) (10.272)
x2 (t) = θ2 (t) − θ3 (t) (10.273)
x3 (t) = ω3 (t) (10.274)
Usando algunos conocimientos de Mecánica, tenemos:
d ω1 (t)
τ (t) = D1 ω1 (t) + I1 + τ1 (t) (10.275)
dt
r2 d ω2 (t)
τ2 (t) = τ1 (t) = D2 ω2 (t) + I2 + K2 (θ2 (t) − θ3 (t)) (10.276)
r1 dt
d ω3 (t)
0 = K2 (θ3 (t) − θ2 (t)) + I3 (10.277)
dt
Dado que escogimos ω1 (t) como la variable medible del sistema, o sea, como
salida, obtenemos finalmente el modelo:
 2   
r1 D2 + r22 D1 r 1 r 2 K2 r22
− r 2 I 2 + r 2 I 1 − 2
r1 I2 + r22 I1
0  r2 I + r2 I 
 1 2   1 2 2 1
dx(t)   r 1
  
= 0 −1  x(t) + 

0
 τ (t)
dt  r2

 


 K2   
0 0 0
I3 | {z }
| {z }
A B
(10.278)
 
ω1 (t) = 1 0 0 x(t) (10.279)
| {z }
C
A continuación, se escogen los siguientes valores para los parámetros del
sistema:
 
N ms
r1 = 0, 25[m]; r2 = r3 = 0, 50[m]; D1 = D2 = 10 (10.280)
rad
     
Nm N ms2 N ms2
K2 = 30 ; I1 = 2,39 ; I2 = I3 = 38,29 (10.281)
rad rad rad
Con estos valores tenemos que:
  
−1,045 −1,254 0 0, 084
A =  0, 5 0 −1 ; B= 0  (10.282)
0 0, 784 0 0
Para verificar la observabilidad, utilizamos el criterio presentado en la Sec-
ción §10.6.2, es decir, construimos la matriz de observabilidad:
   
C 1,0000 0 0
Γo =  CA  = −1,0450 −1,2540 0  (10.283)
2
CA 0, 4650 1,3104 1,2540
314 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.

ruido En esta expresión podemos observar que la matriz Γo tiene rango completo,
filtro
pues claramente det Γo 6= 0, por tanto el sistema es completamente observable
desde la salida ω1 (t).
Una vez que tenemos la estimación del vector de estado, x̂(t), la estimación
del estado ω̂3 (t) para ω3 , se obtiene a partir de:

ω̂3 (t) = [0 0 1] x̂(t) (10.284)


| {z }
K3 T

donde ω̂3 (t) puede obtenerse a partir de (10.267). Con esto:


dω̂3 (t) dx̂(t)
= K3 T = K3 T (A − JC)x̂(t) + K3 T B τ (t) + K3 T Jω1 (t) (10.285)
dt dt | {z }
0

222

10.7.2. Observadores y ruido de medición.


Hasta el momento en todos los análisis hecho asumido que tanto la entrada
de un sistema dado, u(t), como su salida, y(t), están disponibles sin errores
de ningún tipo. En general, esto es correcto sólo respecto a la entrada, pues
usualmente esta es generada por el mismo que se emplea para estimar el estado.
Sin embargo, la medición de la salida y(t), será siempre en presencia de ruido.
Para analizar el efecto de este ruido de medición, denotemos por ym (t) la
medición, es decir, la salida real de la planta contaminada con ruido:

ym (t) = y(t) + v(t) (10.286)

donde v(t) se denomina ruido de medición aditivo. El error de medición satisface


la ecuación:
dx̃(t)
= (A − JC)x̃(t) + Jv(t) (10.287)
dt
Por tanto, tenemos que:

X̃(s) = (sI − A + JC)−1 x̃(0) + (sI − A + JC)−1 JV (s) (10.288)

Es decir, el error debido al ruido será pequeño si la función de transferencia


(sI − A + JC)−1 J es capaz de actuar como filtro para el ruido v(t).
Para ilustrar estas ideas, consideremos el siguiente ejemplo.
Ejemplo 10.29. Un sistema es modelado por las ecuaciones de estado:
   
−2 1 1  
A= ; B= ; C = 1 −1 ; D = 0 (10.289)
1 −3 0, 5

Supongamos que queremos estimar una variable del sistema z(t) = γ T x(t),
donde γ T = [1 1]. Entonces, una estimación de esta variable es ẑ(t), que se
obtiene como:
ẑ(t) = γ T x̂(t) (10.290)
10.7. OBSERVADORES 315

Entonces, la parte ruidosa en la estimación de z(t) es zv (t), cuya transfor-


mada de Laplace satisface

Zv (s) = Hv (s)V (s); where Hv (s) = γ T (sI − A + JC)−1 J (10.291)

A continuación consideramos dos elecciones diferentes del polinomio del ob-


servador E(s). Estas son:

E1 (s) = (s + 0, 5)(s + 0, 75) and E2 (s) = (s + 10)(s + 20) (10.292)

El lector puede apreciar que esto se traduce en observadores que tendrán


diferente velocidad, siendo el primero mucho más lento que el segundo. Con
estas elecciones calculamos las ganancias del observador, J1 y J2 , y las corre-
spondientes funciones de transferencias de los filtros asociados:

1,875s + 5,625
H1 (s) = γ T (sI − A + J1 C)−1 J1 = (10.293)
s2 + 1,25s + 0, 375
144s + 432
H2 (s) = γ T (sI − A + J2 C)−1 J2 = 2 (10.294)
s + 30s + 200

Para comparar ambos casos en la Figura 10.21, se muestra la respuesta en


frecuencia (diagrama de Bode) de cada uno de los filtros obtenidos. Es intere-
sante notar que, a partir de los gráficos obtenidos podemos concluir que el filtro
más lento resulta ser más inmune a ruido de alta frecuencia, comparado con el
más lento.

40

20 |H2(jω)|
Magnitud [dB]

−20

|H (jω)|
−40 1

−60
−1 0 1 2 3
10 10 10 10 10
Frecuencia [rad/s]

Figura 10.21: Caracterı́stica de filtraje de los observadores

222

En base al ejemplo anterior tenemos que

En el diseño de un observador, siempre existe un compromiso entre la veloci-


dad de convergencia del error de observación y la inmunidad de la estimación
frente al ruido de medición.
316 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.

observador!de orden reducido Una forma sistemática de encarar este problema es usar la teorı́a de filtro
observador!de orden completo
óptimos, como los filtros de Kalman-Bucy. El lector interesado puede consultar,
por ejemplo, la referencia [2].
Existe una serie de otros observadores, incluso capaces de incorporar no-
linealidades presentes en el sistema a observar. Sin embargo, uno de particular
interés es el observador de orden reducido, que básicamente asocia direc-
tamente la salida del sistema a una parte del estado, reduciendo la parte del
estado a estimar. Dada esta diferencia, el observador clásico presentado en esta
sección también se denomina de orden completo (ver [13, 7],yuz01?).
muestreo|textbf
quantum|textbf
sistemas!digitales

Capı́tulo 11

Sistemas hı́bridos

11.1. Introducción
Uno de los paradigmas más ricos de la ingenierı́a moderna es el uso de la
tecnologı́a digital en el procesamiento de señales. Esto se refleja en campos
tan distintos como las telecomunicaciones, la bioingenierı́a, la automatización,
el control automático, el procesamiento de imágenes, procesamiento de voz, re-
conocimiento de patrones, etc. La amplitud y velocidad con las que la aplicación
de este paradigma se consolida y se extiende parecen no tener lı́mites; ello se
debe a la velocidad con que progresa la electrónica digital.
Los sistemas digitales usados en procesamiento de señales, cualquiera sea
el propósito de éste, manejan señales que son discretas en magnitud (con dis-
cretización determinada por el número de bits) y discretas en tiempo (debido a
que existe una sincronización con un reloj o temporizador). Por ejemplo, en un
computador con registros de 16 bits y una unidad procesadora central (CPU)
de 1 [GHz], se pueden representar números enteros positivos con magnitud cuya
discretización corresponde a 2−16 veces el valor máximo representado. Esto es
el quantum de magnitud. A su vez, las operaciones que se realizan en la CPU y
las transferencias de datos sólo pueden iniciarse en instantes que son múltiplos
del perı́odo del reloj, es decir, múltiplos de 1 [ns].
Muchas veces se usan como sinónimo las expresiones digital y tiempo dis-
creto. En rigor, no son sinónimos, ya que un registro digital tiene un valor que
está definido en todo instante (tiempo continuo); lo que sı́ ocurre es que sólo
nos interesa analizar lo que pasa con ese valor almacenado en los instantes que
corresponden a múltiplos del ciclo del reloj, que es cuando se puede producir
algún cambio. Por esta última razón aceptaremos la sinonimia; sin embargo
debemos tener presente que si el dispositivo digital tiene una discretización muy
gruesa, es decir, un quantum grande, debido a un número reducido de bits, es
necesario hacer un análisis de este efecto en el procesamiento de las señales
Una fracción muy significativa de las aplicaciones en el campo del proce-
samiento de señales involucran la interacción o interconexión de sistemas y

317
318 CAPÍTULO 11. SISTEMAS HÍBRIDOS

sistemas!hı́bridos señales de tiempo continuo con sistemas y señales de tiempo discreto. Cuan-
muestreo
reconstrucción do un sistema incluye componentes tanto de tiempo continuo como de tiempo
muestreo|textbf discreto, se habla de sistemas hı́bridos.
muestreo!perı́odo de La comunicación de sistemas que procesan señales de distinta naturaleza re-
muestra quiere resolver dos problemas: el problema de muestreo, que permite transfor-
mar una señal de tiempo continuo en una señal de tiempo discreto y el problema
de reconstrucción, es decir, la transformación de una señal de tiempo discreto
en una señal de tiempo continuo.
Si bien ya se abordó brevemente en la Sección § los modelos para sistemas
y señales muestreadas, en este capı́tulo estudiaremos mas en profundidad la
solución de esos problemas y su descripción, tanto temporal como frecuencial.
Para una comprensión acabada de los conceptos y resultados que se presentan
acá, se requiere que el lector tenga un dominio acabado de los capı́tulos 3, 4 y
6.

11.2. Muestreo de señales.


Supongamos que deseamos procesar digitalmente una señal de tiempo con-
tinuo f (t), entonces debemos tomar el valor de la señal en un instante dado,
es decir, una muestra y transformarla en una colección de bits, es decir, cuan-
tizarla. Técnicamente se requiere un muestreador y un conversor tal como se
indica, en forma simplificada, en la Figura 11.1. En esa figura, el muestreador
discretiza en el tiempo, y el conversor discretiza la amplitud de la señal. En
lo sucesivo, supondremos que la conversión A/D es de alta precisión y de alta
velocidad, por lo cual se supondrá que no hay error en la cuantización de la
amplitud y no hay retardo en la operación.

t = t1
Conversor
A/D
f (t) f (t1 ) fd (t1 )

Figura 11.1: Proceso de muestreo y cuantización

Para capturar la información contenida en la señal f (t), por simplicidad


se suele muestrear la señal en forma periódica, con perı́odo ∆, es decir, con
frecuencia angular de muestreo ωm = 2π/∆, lo cual significa que se obtiene una
secuencia {f (0), f (∆), f (2∆), . . .}. Esta secuencia puede ser tratada como una
secuencia discreta, y le son aplicables los métodos de análisis presentados para
las señales de tiempo discreto en el Capı́tulo 4.
En este capı́tulo enfocaremos nuestro análisis en la conexión dicsreto-continuo,
ası́ como en los procesos de muestreo y de reconstrucción.
El primer fenómeno interesante de observar se relaciona con la selección
de la frecuencia de muestreo. Si la señal a muestrear es una constante, en-
tonces, la infomación codificada en la señal se captura con cualquier frecuencia
11.2. MUESTREO DE SEÑALES. 319

2 2 2
∆=1 [s] ∆=0,5 [s] ∆=0,05 [s]

1 1 1

0 0 0

−1 −1 −1

−2 −2 −2
0 0.5 1 0 0.5 1 0 0.5 1

Figura 11.2: Muestreo a diferentes frecuencias

de muestreo. Como contrapartida, si la señal cambia rápidamente, es necesario


muestrear rápido (comparativamente) para que la secuencia de tiempo discreto
capture esa dinámica de cambio. Las ambigüedades que surgen de una elección
desacertada del perı́odo de muestreo se ilustran en el siguiente ejemplo.

Ejemplo 11.1. Suponga que f (t) = 2 cos(2πt), es decir, se trata de una señal
sinuosidal de frecuencia 1 [Hz]. Consideremos ahora tres valores distintos para
la frecuencia de muestreo fm (ωm = 2πfm )

(a) fm = 1 [Hz], es decir, ∆ = 1 [s]

(b) fm = 2 [Hz], es decir, ∆ = 0, 5 [s]

(c) fm = 20 [Hz], es decir, ∆ = 0, 05 [s]

Los tres casos son mostrados en los gráficos de la Figura 11.2


De un análisis somero de la Figura 11.2 se puede observar lo siguiente:

(i) El muestreo a fm = 1 [Hz] genera una secuencia de valores constantes.


Este resultado indica que el proceso de discretización temporal entrega un
resultado totalmente equı́voco. En otras palabras, dado f [k], no hay forma
de recuperar la función de tiempo continuo f (t). Note que si el mismo
muestreo se hubiera usado en la señal f (t) = 2 sen(2πt), entonces, f [k]
hubiese sido cero ∀k ∈ N.

(ii) El muestreo a fm = 2 [Hz] genera una secuencia de valores constantes de


signo alternado. Aunque se preserva la naturaleza periódica de la señal
f (t), ası́ como su frecuencia exacta, el resultado también es equı́voco, por
cuanto serı́a imposible recuperar la señal original a partir de sus muestras.

(iii) El muestreo a fm = 20 [Hz] genera una secuencia de valores que aproxima


en forma muy cercana la señal original. Demostraremos más adelante que,
en casos como éste existe un procedimiento para recuperar la señal original
con el grado de exactitud tan grande como deseemos.
320 CAPÍTULO 11. SISTEMAS HÍBRIDOS

−4
x 10
2

0
Error

−2

−4

−6
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Tiempo [s]

Figura 11.3: Error de reconstrucción usando interpolación cúbica.

Para verificar la aseveración anterior podemos intentar una reconstrucción


por interpolación cúbica (comando spline de Matlab) y dibujando el error
de reconstrucción, como se indica a continuación

Matlab

>>tt=[0:1e-5:1];Delta=0.05;t=[0:Delta:1];
>>f=2*cos(2*pi*tt);fk=2*cos(2*pi*t);
>>faprox=spline(t,fk,tt); subplot(211);plot(tt,f-faprox);

La Figura 11.3 muestra que el error de reconstrucción es muy pequeño (del


orden de 10−4 ).

11.3. Análisis en frecuencia de señales muestreadas


Una vez que se obtiene la señal discreta f [k] podemos usar las herramientas
desarrolladas en el Capı́tulo 6 para realizar un análisis espectral. En esta sección
nos interesará relacionar ese análisis con el análisis espectral de la señal de
tiempo continuo f (t).
El principal resultado está dado por el siguiente lema

Lema 11.1. Sea una señal de tiempo continuo f (t), muestreada periódicamente
con frecuencia angular de muestreo ωm [rad/s] (es decir, cada ∆ [s]), y sean
F ( ω) y F [ejθ ] las transformadas de Fourier de f (t) y de la secuencia f [k] =
f (k∆) respectivamente. Entonces, se cumple que
11.3. ANÁLISIS EN FRECUENCIA DE SEÑALES MUESTREADAS 321

tren de impulsos
muestreo impulsivo
∞   ∞
jθ 1 X 2π` 1 X
F [e ] = F ω − = F ( ω − `ωm ) donde θ = ω∆
∆ ∆ ∆
`=−∞ `=−∞
(11.1)

Demostración
Recordemos que

X
f [k] = f (k∆) = f (`∆)δK [k − `] (11.2)
`=−∞

Por lo cual, podemos calcular el espectro de la secuencia usando TFD.



X
F [ejθ ] = f (`∆)e−j`θ (11.3)
`=−∞

Por otro lado supongamos que la señal original, f (t) es multiplicada por un
tren de impulsos, es decir,

X
f∆ (t) = f (t) δD (t − k∆) (11.4)
k=−∞
| {z }
m∆ (t)

Entonces, la transformada de Fourier de esta secuencia impulsiva es la con-


volución compleja de las transformadas de Fourier de la señal original y del tren
de impulsos, es decir,
Z ∞
1
F {f∆ (t)} = F∆ ( ω) = F ( ω) ∗ M∆ ( ω) = F (jζ)M∆ ( ω − jζ) dζ
2π −∞
(11.5)
Para calcular M∆ ( ω) notamos que m∆ (t) es una señal periódica, de perı́odo
∆, por lo tanto se puede expandir en una serie exponencial de Fourier. Ası́,
aplicando las definiciones de la sección §5.3.2, se obtiene
∞ ∞
X 1 X j 2π` t
m∆ (t) = δ∆ (t − k∆) = e ∆ (11.6)

k=−∞ `=−∞

a partir de lo cual, aplicando la transformación de Fourier a la suma de expo-


nenciales complejas, se llega a
∞  
2π X 2π`
M∆ ( ω) = δD  ω − (11.7)
∆ ∆
`=−∞

y, finalmente, reemplazando en (11.5) se obtiene


322 CAPÍTULO 11. SISTEMAS HÍBRIDOS

Z ∞ ∞  
1 1 X 2π`
F∆ ( ω) = F (jζ)M∆ ( ω − jζ) dζ = F ω − (11.8)
2π −∞ ∆ ∆
`=−∞

Ahora bien, el cálculo de la transformación de Fourier se puede realizar por


un camino alternativo. En efecto, a partir de (11.4) se tiene que

X ∞
X
f∆ (t) = f (t) δD (t − k∆) = f (k∆)δD (t − k∆) (11.9)
k=−∞ k=−∞

de donde se llega a

X
F∆ ( ω) = f (k∆)e−jk∆ω (11.10)
k=−∞

Comparando (11.3), (11.8) y (11.10), se llega al resultado (11.1)


222
modelos|textbf

Capı́tulo 12

Modelos

12.1. Ideas generales


Una de las tareas más interesantes y complejas en el análisis de sistemas
es la de construir modelos para describir cuantitativamente lo que ocurre en el
sistema bajo análisis.
Un modelo es siempre una representación aproximada de la realidad y, en sus
aspectos esenciales, se relaciona ı́ntimamente con el propósito que nos mueve a
obtener el modelo. Por ejemplo, un motor eléctrico puede tener distintos modelos
según cual es el interés del analista: un modelo electromecánico, un modelo
térmico, un modelo que describa los fenómenos vibratorios y de esfuerzos, etc.
En cualquier caso, una vez definido el propósito del modelo, éste debe cap-
turar los rasgos esenciales que hacen del sistema un ente particular y diferente
de los demás, tanto cualitativa como cuantitativamente.
Es importante señalar que el objetivo esencial de un modelo es tener
un mecanismo que permita predecir el comportamiento del sistema
bajo condiciones de excitación distintas a las observadas. En otras pal-
abras el modelo es un mecanismo de inferencia y predicción.
El problema que queremos resolver aquı́ se puede definir de la siguiente
forma:

Dada una historia de datos del sistema (datos de entrada y salida, en tiempo
continuo o discreto), determinar un modelo matemático que pueda replicar
en la forma más precisa posible (bajo algún criterio de optimalidad) la
historia de datos disponibles y otras historias de datos que se puedan obtener
del mismo sistema, para validar el modelo obtenido.

Note que exite un mecanismo generador de los datos, es decir, el sistema cuyo
comportamiento queremos modelar. Además la historia de datos del sistema
debe ser tal que permita observar los rasgos de interés del sistema. Por ejemplo,

323
324 CAPÍTULO 12. MODELOS

si el sistema que deseamos modelar es una red RC, no nos servirá recolectar datos
del sistema cuando las fuentes que alimentan la red son constantes, porque en
ese caso será imposible calcular los parámetros de cualquier modelo dinámico.
Otra idea que aparece en la definición del problema es que la construcción
del mejor modelo tiene asociado un criterio de calidad óptima.
En la determinación de un modelo existen pues, tres elementos

1. La selección de una clase de modelos, M. Por ejemplo, una ecuación difer-


encial de cierto orden.
2. Un experimento que permite recolectar datos. Por ejemplo, el aplicar una
excitación de amplio espectro al sistema.
3. Un criterio de optimización que permite seleccionar uno de los miembros
de la clase elegida en base a los datos experimentales. Por ejemplo, el
minimizar la suma (o integral) de los errores cuadráticos.

La clase de modelos se elige, en primera instancia, usando citerios fenomenológi-


cos. Por ejemplo, si el comportamiento del sistema a modelar está dominado por
3 componentes dinámicos, una clase razonable es el conjunto de las ecuaciones
diferenciales de tercer orden.
En muchos casos, el experimento no puede ser diseñado de acuerdo a las
necesidades del analista, sino que se debe usar datos provenientes de la operación
normal del sistema a modelar. Además, es común que se desee o necesite ir
refinando el modelo en forma recursiva (e incluso en tiempo real, es decir, se va
refinando el cálculo a medida que se van obteniendo nuevos datos).
También es crucial notar que el que se use un procedimiento de optimización
sólo se garantiza, en el mejor de los casos, que se encontrará el modelo óptimo
dentro de la clase elegida. Si el mecanismo generador de los datos no pertenece a
la clase de modelos elegida, como suele suceder, entonces siempre habrá un error
de modelado, sin importar cuan informativo sea el experimento para recolectar
datos.
Los métodos más robustos que se conocen para construir modelos son aque-
llos que usan un criterio de optimización cuadrática. En ellos concentraremos
nuestra atención en lo que sigue.

12.2. Modelado de sistemas de tiempo continuo.


Teorı́a básica.
Para motivar la discusión y el tratamiento teórico del tema, consideramos el
siguiente ejemplo.
Ejemplo 12.1. Suponga que la clase de modelos elegida, M, está definida por

ym (t) = α(u(t))3 (12.1)

donde u(t) es la entrada del sistema a modelar.


12.2. MODELADO DE SISTEMAS DE TIEMPO CONTINUO. TEORÍA BÁSICA.325

Suponga además que se realiza un experimento recolector de datos en el sis- predicción!error de


tema a modelar. Como resultado del mismo se obtienen datos1 de entrada y
salida, u(t) e y(t), en el intervalo [0; tf ]. Entonces el mejor valor de α, α̂, en
(12.1) se puede calcular minimizando un funcional de costo J(α) dado por
Z tf
2
J(α) = (y(τ ) − α(u(τ ))3 dτ (12.2)
0

entonces
α̂ = arg mı́n J(α) (12.3)
α∈R

La minimización se realiza derivando J(α) respecto de α y haciendo esa


derivada igual a cero. Esto lleva a
Z tf −1 Z tf
6
α̂ = (u(τ )) dτ y(τ )(u(τ ))3 dτ (12.4)
0 0

Note que si el sistema a modelar perteneciese a la clase de modelos elegida,


es decir, si existe αo tal que y(t) = αo (u(t))3 , entonces α̂ = αo , siempre que
u(t) 6= 0 en algún lapso no cero en el intervalo [0; tf ].
La ecuación (12.4) arroja una estimación del parámetro una vez que se han
recogido los datos. Existe una formulación alternativa donde α̂ evoluciona a
medida que se obtienen más datos, tal como se demuestra a continuación.
Para hacer el tratamiento más simple haremos las siguientes substituciones

Z t −1
6
p(t) = (u(τ )) dτ (12.5)
0
3
φ(t) = (u(t)) (12.6)

Entonces, si reemplazamos tf por t en (12.4) tenemos que


Z t
α̂(t) = p(t) y(τ )φ(τ ) dτ (12.7)
0
Luego, al derivar (12.5), se obtiene
−1
dp(t) 2 d (p(t)) 2
= − (p(t)φ(t)) ⇐⇒ = (φ(t)) (12.8)
dt dt
Al derivar (12.7) y al usar (12.8) se obtiene
dα̂(t)
= p(t)φ(t) (y(t) − α̂(t)φ(t)) (12.9)
dt | {z }
e(t)

donde e(t) es el error que se comete al predecir la salida y(t) usando el modelo
y la entrada observada de la planta.
1 Note que se trata de datos experimentales de la planta
326 CAPÍTULO 12. MODELOS

regresión!vector de Las ecuaciones (12.8) y (12.9) permiten calcular α̂(t) en tiempo real, como
regresores
se puede verificar en la simulación implementada en el esquema SIMULINK
de la Figura 12.1. En esa figura, el sistema a modelar, o mecanismo generador
de datos aparece enmascarado. El lector puede verificar, al observar e(t) en el
oscilloscopio, que ese sistema pertenece a la clase M.

u(t) y(t)

SISTEMA
e

e (t)
p (0)
\phi (t)

(u(1))^3 −K− 1/s

p (t) p

1/s alfa
alfa (t)
alfa (0)

Antes de empezar la simulación, defina el SISTEMA (haga un doble click en el bloque y edite) y asigne los
valores iniciales p(0) y alfa(0) en los bloques de integración correspondientes

Figura 12.1: Estimación por mı́nimos cuadráticos

Note además que, para que este programa SIMULINK funcione se debe asig-
nar una condición distinta de cero a p(0) (en el bloque integrador correspondi-
ente). Se invita al lector a observar el efecto de distintas elecciones para p(0).
En cambio, el valor inicial α̂(0) puede ser cualquier valor, incluyendo cero.
222
Es importante repetir que, en el ejemplo precedente, se plantearon dos formas
de calcular un valor estimado para el parámetro α. En la primera, dada por la
ecuación (12.4), se requiere conocer previamente un conjunto de datos en un
lapso no cero. En cambio, en la forma construida por las ecuaciones (12.8) y
(12.9), el valor estimado se va construyendo a medida que los datos se van
obteniendo.
Formularemos a continuación el método general para sistemas de tiempo
continuo.
La clase de modelos a usar, M, está definida por

ym (t) = φ m (t)T θ (12.10)

donde φ (t)m es un vector, llamado vector de regresión,. Los elementos de φ m (t)


son conocidos como regresores. Existen tres grandes lı́neas en la construcción
del vector de regresión:
12.2. MODELADO DE SISTEMAS DE TIEMPO CONTINUO. TEORÍA BÁSICA.327

En base a la entrada de la planta y la salida del modelo. Este enfoque es PEM


errores en las variables
la base de los llamados métodos de error de predicción, reconocidos predicción!error de
por su sigla inglesa PEM (prediction error methods). gradiente

En base a la entrada del modelo, la que resulta de medir la entrada a la


planta2 y a la salida del modelo. Esta elección genera los métodos conoci-
dos como de errores en la variables
En base a la entrada de la planta y la salida de la planta. Esta elección es
la base del método clásico de estimación por errores cuadráticos. Es
conocido por la sigla inglesa LSE (least squares errors). Ese el método más
robusto y más usado, y es el que usaremos en este texto. Distinguiremos
esta elección de las otras dos reemplazando φ m (t) por φ (t) en la derivación
de las ecuaciones del método.
Por su parte, el vector θ ∈ Rp contiene los parámetros θ 1 , θ2 , . . . , θ p que
distinguen cada elemento en M.
Note que la expresión es bastante general, ya que la única restricción es que
el modelo sea lineal en los parámetros a estimar, y no necesariamente debe ser
lineal en los datos. Por ejemplo
p
ym (t) = a u(t) + b u(t) + c cos(u(t)) + d (12.11)

Entonces, el modelo (12.11) puede ser puesto en la forma (12.10) con las
siguientes asociaciones
p
φ (t) = [ u(t) u(t) cos(u(t)) 1]T (12.12)
θ = [a b c d ]T (12.13)

Veremos además en una sección siguiente que (12.10) puede describir sis-
temas dinámicos.
Para modelar un sistema con entrada u(t) y salida y(t), como miembro de
la clase M, debemos encontrar un estimado óptimo, θ̂θ , para θ de modo que se
minimice Z tf
J(θθ ) = (y(τ ) − φ (τ )T θ )2 dτ (12.14)
0

El producto φ (τ )T θ corresponde a una estimación de la salida del sistema


a modelar, utilizando el elemento genérico de la clase M. La diferencia y(τ ) −
φ (τ )T θ es conocida como el error de predicción (no confundir con los méto-
dos PEM). El método de estimación cuadrática permite determinar cual de
los elementos de M es el que arroja la predicción con menor error cuadrático
acumulado. Esto es equivalente a seleccionar el óptimo θ .
La minimización de (12.14) se hace a través del procedimiento tradicional:
derivando respecto de la incógnita y luego haciendo esa derivada igual a cero.
Como se trata de la derivada de una función escalar respecto de un vector, la
derivada corresponde al gradiente ∇θ . Ası́ el mejor estimado θ̂θ está dado por
2 Hay una diferencia entre ambos debido al ruido de medición
328 CAPÍTULO 12. MODELOS

θ̂θ = arg mı́np J(θθ ) (12.15)


θ∈R

El procedimiento descrito lleva a


Z tf
dJ(θθ )
∇θ J(θθ ) = = −2 φ (τ )(y(τ ) − φ (τ )T θ ) dτ (12.16)
dθ 0

Al hacer cero el gradiente se obtiene el estimado θ̂θ dado por


Z tf −1 Z tf
T
θ̂θ = φ(τ ) dτ
φ (τ )φ φ (τ )y(τ ) dτ (12.17)
0 0

Para demostrar que la expresión (12.17) minimiza el funcional, se debe cal-


cular la segunda derivada (o Hessiano) de J(θθ ), la que debe ser una matriz
positiva definida (ver Apéndice F). Esto da
Z tf
d 2 J(θθ )
HJ (θθ ) = =2 φ(τ )T dτ
φ (τ )φ (12.18)
dθ 2 0

Entonces el Hessiano HJ (θθ ) es positivo definido si el vector φ (τ ) cumple


algunas condiciones muy poco exigentes3 en τ ∈ [0; tf ].
La expresión (12.17) proporciona una forma de construir el modelo, esti-
mando θ , una vez que se han acumulado los datos en un lapso [0; tf ]. Tal como
se ilustró en el Ejemplo 12.1, es posible construir un estimado, θ̂θ (t), que vaya
evolucionando a medida que se van considerando nuevos datos. Esto aparece
resuelto en el siguiente teorema.

Teorema 12.1. Considere la clase M definida por (12.10), el funcional en


(12.14) y un experimento que permite construir φ (τ ) para τ ∈ [0; t]. Entonces
el estimador óptimo, θ̂θ (t) se puede obtener a través de

dP(t)
= −P(t)φ φ(t)T P(t)
φ(t)φ (12.19)
dt
dθ̂θ (t)
φ(t)(y(t) − φ (t)θ̂θ (t)) = P(t)φ
= P(t)φ φ(t)e(t) (12.20)
dt

Demostración
Definamos previamente la matriz P(t) ∈ Rp×p de la forma
Z t −1
P(t) = φ(τ )T dτ
φ (τ )φ (12.21)
0
3 Cuya deducción escapa al marco de este texto.
12.3. MODELADO DE SISTEMAS DE TIEMPO CONTINUO. MODELOS LINEALES.329

y la matriz
Z t
Q(t) = P(t)−1 = φ(τ )T dτ
φ (τ )φ (12.22)
0
entonces

dP(t)Q(t) dP(t) dQ(t)


=0= Q(t) + P(t) (12.23)
dt dt dt
Esto lleva a
dP(t) dQ(t)
= −P(t) P(t) = −P(t)φ φ(t)T P(t)
φ(t)φ (12.24)
dt dt
donde hemos usado el hecho que

Q(t)
φ(t)T
= φ (t)φ (12.25)
dt
Por otro lado, al usar (12.17)
Z tf
θ̂θ (t) = P(t) φ (τ )y(τ ) dτ (12.26)
0

con lo cual, al derivar se obtiene

Z tf
dθ̂θ dP(t)
= φ (τ )y(τ ) dτ + P(t)φ φ(t)y(t) (12.27)
dt dt 0
Z tf
dQ(t)
= −P(t) P(t) φ(t)y(t)
φ (τ )y(τ ) dτ +P(t)φ (12.28)
dt 0
| {z }
θ̂(t)

lo que lleva a (12.20) al usar (12.25).


El Teorema 12.1 establece un procedimiento a través del cual la estimación
de los parámetros del modelo se va obteniendo a medida que se dispone de nueva
información.

12.3. Modelado de sistemas de tiempo continuo.


Modelos lineales.
La teorı́a desarrollada en la sección precedente se aplica a cualquier clase de
modelos M, con la única condición que los miembros de esa clase sean lineales
en el vector de parámetros, es decir, tengan la forma (12.10). Esto no excluye
modelos que son no lineales en la entrada y la salida, tal como se ilustra en
el Ejemplo 12.1. Sin embargo, en esta sección enfocaremos nuestra atención en
modelos dinámicos lineales de tiempo continuo. Con este objetivo definiremos
330 CAPÍTULO 12. MODELOS

la clase M por la ecuación diferencial (3.1), la que reproducimos a continuación


(reemplazando y(t) por ym (t)).

dn ym (t) dn−1 ym (t) dn−1 dn−2


+a n−1 +. . .+a 0 y m (t) = b n−1 u(t)+b n−2 u(t)+. . .+b0 u(t)
dtn dtn−1 dtn−1 dtn−2
(12.29)
Antes de desarrollar la metodologı́a general, examinaremos un ejemplo muy
simple, para adquirir perspectiva
Ejemplo 12.2. La clase M es elegida como en (12.29), con n = 1, es decir

dym (t)
+ a0 ym (t) = b0 u(t) (12.30)
dt
La primera opción para contruir la forma (12.10) en este caso es (note la
sustitución de ym (t) por y(t) en el vector φ (t))

hR Rt iT
t
φ (t) = u(τ )dτ
0
− 0
y(τ )dτ (12.31)
 T
θ = b0 a 0 (12.32)
Sin embargo, esta forma de selección del vector de regresión φ (t) no es ra-
zonable, porque basta que las señales tengan un valor medio distinto de cero (por
pequeño que sea) para que el vector φ (t) crezca sin lı́mites.
Intentaremos otro enfoque, usando el operador de Heaviside (definido en
(3.2). El modelo (12.30) puede ser re-escrito como

0 = (ρ + a0 )ym (t) + b0 u(t) (12.33)


Supongamos se define un polinomio operador mónico estable E(ρ) = ρ + e 0
(e0 > 0), entonces (12.33) se puede escribir como
ρ + a0 b0
0=− ym (t) + u(t) (12.34)
E(ρ) E(ρ)
Sumando ym (t) a ambos lados se obtiene
ρ + a0 b0 ym (t) u(t)
ym (t) = ym (t) − ym (t) + u(t) = (e0 − a0 ) + b0 (12.35)
E(ρ) E(ρ) E(ρ) E(ρ)
Ası́, una elección natural es
 T
u(t) y(t)
φ (t) = (12.36)
E(ρ) E(ρ)
 T
θ = b0 e0 − a 0 (12.37)
Note que hemos reemplazado ym (t) por y(t) en el vector de regresión, ası́ el
vector de regresión resulta dependiente sólo de los datos de entrada y salida del
sistema a modelar, lo cual es consistente con la idea del método LSE.
12.3. MODELADO DE SISTEMAS DE TIEMPO CONTINUO. MODELOS LINEALES.331

222
El Ejemplo 12.2 permite inducir una metodologı́a general.
Definamos

A(ρ) = ρn + an−1 ρn−1 + . . . a0 (12.38)


n−1 n−2
B(ρ) = bn−1 ρ + bn−2 ρ + . . . b0 (12.39)
n n−1
E(ρ) = ρ + en−1 ρ + . . . e0 (12.40)

donde E(ρ) es un polinomio operador estable.


Entonces el modelo (12.29) se puede escribir como

A(ρ) B(ρ)
0=− ym + u(t) (12.41)
E(ρ) E(ρ)

Si ahora sumamos ym (t) a ambos lados se obtiene

E(ρ) − A(ρ) B(ρ)


ym (t) = ym + u(t) (12.42)
E(ρ) E(ρ)

Entonces la elección de φ (t) consistente con el método LSE es


 T
ρn−1 u(t) ρn−2 u(t) u(t) ρn−1 y(t) ρn−2 y(t) y(t)
φ (t) = ··· ···
E(ρ) E(ρ) E(ρ) E(ρ) E(ρ) E(ρ)
(12.43)
y el vector de parámetros es

 T
θ = bn−1 bn−2 ··· b0 en−1 − an−1 en−2 − an−2 ··· e0 − a0
(12.44)

Ejemplo 12.3. Supongamos que la clase M es el conjunto de ecuaciones difer-


enciales de tercer orden, lineales y de coeficientes constantes, entonces

 T
ρ2 u(t) ρu(t) u(t) ρ2 y(t) ρy(t) y(t)
φ (t) = (12.45)
E(ρ) E(ρ) E(ρ) E(ρ) E(ρ) E(ρ)
 T
θ = b2 b1 · · · b 0 e 2 − a 2 e 1 − a 1 e 0 − a 0 (12.46)

donde E(ρ) es cualquier polinomio de tercer grado cuyas raı́ces tenga parte real
menor que cero.

222
332 CAPÍTULO 12. MODELOS

12.4. Modelado de sistemas de tiempo discreto.


Teorı́a básica.
La construcción de modelos para sistemas de tiempo continuo es de gran
interés conceptual. Sin embargo, la implementación de las ecuaciones de esa
construcción requiere el uso de una máquina digital, en cuyo caso necesariamente
se debe usar una discretización y ello hade de mayor relvancia la construicción
de sistemas de tiempo discreto.
Al igual que en el caso de tiempo continuo, usaremos un ejemplo para motivar
la discusión.
Ejemplo 12.4. Suponga que la clase de modelos elegida, M, está definida por
ym [k] = α(u[k])3 (12.47)
donde u[k] es la entrada del sistema a modelar.
Suponga además que se realiza un experimento recolector de datos en el sis-
tema a modelar. Como resultado del mismo se obtienen datos4 de entrada y
salida, u[k] e y[k], en el intervalo [0; N ]. Entonces el mejor valor de α, α̂, en
(12.47) se puede calcular minimizando un funcional de costo J(α) dado por
N
X 2
J(α) = (y[`] − α(u[`])3 (12.48)
`=1

entonces
α̂ = arg mı́n J(α) (12.49)
α∈R

La minimización se realiza derivando J(α) respecto de α y haciendo esa


derivada igual a cero. Esto lleva a
"N #−1 N
X X
6
α̂ = (u[`]) y[`](u[`])3 (12.50)
`=1 `=1

Note que si el sistema a modelar perteneciese a la clase de modelos elegida,


es decir, si existe αo tal que y[k] = αo (u[k])3 , entonces α̂ = αo , siempre que
u[k] 6= 0 en algún lapso no cero en el intervalo [0; N ].
La ecuación (12.50) arroja una estimación del parámetro una vez que se
han recogido los datos. Existe una formulación alternativa donde α̂ evoluciona
a medida que se obtienen más datos, tal como se demuestra a continuación.
Para hacer el tratamiento más simple haremos las siguientes substituciones

" N
#−1
X
6
p[k] = (u[`]) (12.51)
`=1
3
φ[k] = (u[k]) (12.52)
4 Note que se trata de datos experimentales de la planta
12.4. MODELADO DE SISTEMAS DE TIEMPO DISCRETO. TEORÍA BÁSICA.333

Entonces, si reemplazamos N por k en (12.50) tenemos que predicción!error de

k
X
α̂[k] = p[k] y[`]φ[`] (12.53)
`=1

Luego, al usar (12.51), se obtiene

p[k − 1]
p[k] = = p[k − 1] − p[k − 1]φ[k]2 p[k] (12.54)
1 + p[k − 1]φ[k]2

Combinando (12.7) y (12.8) se obtiene

α̂[k] = α̂[k − 1] + p[k]φ[k] (y[k] − α̂[k − 1]φ[k]) (12.55)


| {z }
e[k]

donde e[k] es el error que se comete al predecir la salida y[k] usando el modelo
y la entrada observada de la planta.
Las ecuaciones (12.54) y (12.55) permiten calcular α̂[k] en tiempo real, como
se puede verificar en la simulación implementada en el esquema SIMULINK de
la Figura 12.2. En esa figura, el sistema a modelar, o mecanismo generador
de datos aparece enmascarado. El lector puede verificar, al observar e[k] en el
oscilloscopio, que ese sistema pertenece a la clase M.

u[k] y[k]
e
SISTEMA

p [0]
1 e [k]
z

p [k]
u(1)/(1+u(1)*u(2)^2)
(u(1))^3
\phi [k]

p
alfa [0]
1
z
alfa
alfa [k]

Antes de empezar la simulación, defina el SISTEMA (haga un doble click en el bloque y edite) y asigne los
valores iniciales p[0] y alfa[0] en los bloques de retardo correspondientes

Figura 12.2: Estimación por mı́nimos cuadráticos

Note además que, para que este programa SIMULINK funcione se debe asig-
nar una condición distinta de cero a p[0] (en el bloque de retardo correspondi-
ente). Se invita al lector a observar el efecto de distintas elecciones para p[0].
En cambio, el valor inicial α̂[0] puede ser cualquier valor, incluyendo cero.
334 CAPÍTULO 12. MODELOS

regresión!vector de 222
regresores
PEM Es importante repetir que, en el ejemplo precedente, se plantearon dos formas
errores en las variables de calcular un valor estimado para el parámetro α. En la primera, dada por la
ecuación (12.50), se requiere conocer previamente un conjunto de datos en un
lapso no cero. En cambio, en la forma construida por las ecuaciones (12.54) y
(12.55), el valor estimado se va construyendo a medida que los datos se van
obteniendo.
Formularemos a continuación el método general sistemas de tiempo discreto.
La clase de modelos a usar, M, está definida por

ym [k] = φ m [k]T θ (12.56)

donde φm [k] es un vector, llamado vector de regresión,. Los elementos de φm [k]


son conocidos como regresores. Existen tres grandes lı́neas en la construcción
del vector de regresión, y ellas son las mismas que en el caso continuo:
métodos de error de predicción, (PEM) (prediction error methods).
método de errores en la variables
Método clásico de estimación por errores cuadráticos (LSE)(least
squares errors). Distinguiremos esta elección de las otras dos reemplazan-
do φ m [k] por φ [k] en la derivación de las ecuaciones del método.
Por su parte, el vector θ ∈ Rp contiene los parámetros θ 1 , θ2 , . . . , θ p que
distinguen cada elemento en M.
Note que la expresión es bastante general, ya que la única restricción es que
el modelo sea lineal en los parámetros a estimar, y no necesariamente debe ser
lineal en los datos. Por ejemplo
p
ym [k] = a u[k] + b u[k] + c cos(u[k]) + d (12.57)

Entonces, el modelo (12.57) puede ser puesto en la forma (12.56) con las
siguientes asociaciones
p
φ [k] = [ u[k] u[k] cos(u[k]) 1]T (12.58)
θ = [a b c d ]T (12.59)

Veremos además en una sección siguiente que (12.56) puede describir sis-
temas dinámicos.
Para modelar un sistema con entrada u[k] y salida y[k], como miembro de
la clase M, debemos encontrar un estimado óptimo, θ̂θ , para θ de modo que se
minimice
N
X
J(θθ ) = (y[`] − φ [`]T θ )2 (12.60)
0

El producto φ [`]T θ corresponde a una estimación de la salida del sistema a


φ[`]T θ
modelar, utilizando el elemento genérico de la clase M. La diferencia y[`]−φ
12.4. MODELADO DE SISTEMAS DE TIEMPO DISCRETO. TEORÍA BÁSICA.335

es conocida como el error de predicción (no confundir con los métodos PEM). El predicción!error de
gradiente
método de estimación cuadrática permite determinar cual de los elementos de
M es el que arroja la predicción con menor error cuadrático acumulado. Esto
es equivalente a seleccionar el óptimo θ .
La minimización de (12.60) se hace a través del procedimiento tradicional:
derivando respecto de la incógnita y luego haciendo esa derivada igual a cero.
Como se trata de la derivada de una función escalar respecto de un vector, la
derivada corresponde al gradiente ∇θ . Ası́ el mejor estimado θ̂θ está dado por

θ̂θ = arg mı́np J(θθ ) (12.61)


θ∈R
El procedimiento descrito lleva a
N
dJ(θθ ) X
∇θ J(θθ ) = = −2 φ [`](y[`] − φ [`]T θ ) (12.62)

`=1

Al hacer cero el gradiente se obtiene el estimado θ̂θ dado por


"N #−1 N
X X
T
θ̂θ = φ[`]
φ [`]φ φ [`]y[`] (12.63)
`=1 `=1

Para demostrar que la expresión (12.63) minimiza el funcional, se debe cal-


cular la segunda derivada (o Hessiano) de J(θθ ), la que debe ser una matriz
positiva definida (ver Apéndice F). Esto da
N
d 2 J(θθ ) X
HJ (θθ ) = = 2 φ[`]T
φ [`]φ (12.64)
dθ 2
k=1
Entonces el Hessiano HJ (θθ ) es positivo definido si el vector φ [`] cumple
algunas condiciones muy poco exigentes5 en 0 < ` ≤ N .
La expresión (12.63) proporciona una forma de construir el modelo, esti-
mando θ , una vez que se han acumulado los datos en un lapso [0; tf ]. Tal como
se ilustró en el Ejemplo 12.4, es posible construir un estimado, θ̂θ [k], que vaya
evolucionando a medida que se van considerando nuevos datos. Esto aparece
resuelto en el siguiente teorema.
Teorema 12.2. Considere la clase M definida por (12.56), el funcional en
(12.60) y un experimento que permite construir φ [`] para 0 < ` ≤ N . Entonces
el estimador óptimo, θ̂θ [k] se puede obtener a través de

P[k − 1]φ φ[k]T P[k − 1]


φ[k]φ
P[k] = P[k − 1] − (12.65)
1 + φ [k]T P[k − 1]φ
φ[k]
φ[k](y[k] − φ [k]θ̂θ [k]) = P[k]φ
θ̂θ [k] = θ̂θ [k − 1] + P[k]φ φ[k]e[k] (12.66)

5 Cuya deducción escapa al marco de este texto.


336 CAPÍTULO 12. MODELOS

Demostración
Definamos previamente la matriz P[k] ∈ Rp×p de la forma
" k
#−1
X
T
P[k] = φ[`]
φ [`]φ (12.67)
`=1

y la matriz

k
X
Q[k] = P[k]−1 = φ[`]T = Q[k − 1] + φ [k]φ
φ [`]φ φ[k]T (12.68)
`=1

entonces podemos aplicar el lema de inversión de matrices para obtener P[k](=


Q[k]−1 ) en función de P[k − 1](= Q[k − 1]−1 ), lo cual lleva a (12.65).
Por otro lado, al usar (12.63) se tiene que

k
X
P[k]−1θ̂θ [k] = φ [`]y[`] (12.69)
`=1
k−1
X
P[k − 1]−1θ̂θ [k − 1] = φ [`]y[`] (12.70)
`=1

lo cual lleva a

θ̂θ [k] = P[k]P[k − 1]−1θ̂θ [k − 1] + P[k]φ


φ[`]y[`] (12.71)
de donde, al usar (12.65), se obtiene (12.66).

222
El Teorema 12.2 establece un procedimiento a través del cual la estimación
de los parámetros del modelo se va obteniendo a medida que se dispone de nueva
información.

12.5. Modelado de sistemas de tiempo discreto.


Modelos lineales.
La teorı́a desarrollada en la sección precedente se aplica a cualquier clase de
modelos M, con la única condición que los miembros de esa clase sean lineales
en el vector de parámetros, es decir, tengan la forma (12.56). Esto no excluye
modelos que son no lineales en la entrada y la salida, tal como se ilustra en
el Ejemplo 12.4. Sin embargo, en esta sección enfocaremos nuestra atención en
modelos dinámicos lineales de tiempo discreto. Con este objetivo definiremos la
clase M por la ecuación diferencial (4.1), la que reproducimos a continuación
(reemplazando y[k] por ym [k]).
12.5. MODELADO DE SISTEMAS DE TIEMPO DISCRETO. MODELOS LINEALES.337

ym [k] + an−1 ym [k − 1] + . . . + a1 ym [k − n + 1] + a0 ym [k − n] =
bm u[k] + bm−1 u[k − 1] + . . . + b1 u[k − m + 1] + b0 u[k − m] (12.72)

Antes de desarrollar la metodologı́a general, examinaremos un ejemplo muy


simple, para adquirir perspectiva

Ejemplo 12.5. La clase M es elegida como en (12.72), con n = 1, es decir

ym [k] + a0 ym [k − 1] = b0 u[k] (12.73)


La primera opción para contruir la forma (12.56) en este caso es (note la
sustitución de ym [k] por y[k] en el vector φ [k])

 T
φ [k] = u[k] −ym [k − 1] (12.74)
 T
θ = b0 a 0 (12.75)

A diferencia del caso de tiempo continuo, esta forma de selección del vector
de regresión φ [k] es razonable y la metodologı́a de la sección anterior puede ser
aplicada sin mayores dificultades.

222
El Ejemplo 12.5 permite inducir una metodologı́a general, ya que podemos
expresar la ecuación (12.72) como

ym [k] = φ [k]T θ [k] (12.76)


 
φ [k] = u[k] u[k − 1] . . . u[k − m] −ym [k − 1] −ym [k − 2] ... −ym [k − n]
(12.77)
 
θ [k] = bm bm−1 ... b0 an−1 an−2 ... a0 (12.78)
338 CAPÍTULO 12. MODELOS
serie de Taylor
Taylor

Apéndice A

Series de Taylor

A.1. Serie de Taylor en una variable


Considere una función g(x), donde x ∈ R y sea xQ un valor arbitrario en R,
tal que g(x) es continua en x = xQ .
Suponga además que g(x) es infinitamente diferenciable en x = xQ , es decir,
todas las derivadas de g(x) en x = xQ son continuas.
Entonces la función g(x) se puede expandir en serie de potencias de (x−x Q ),
es decir, admite la siguiente representación en una serie de Taylor


d x 1 d 2 x 2 1 d 3 x
g(x) = g(xQ ) + (x − xQ ) + (x − xQ ) + (x − xQ )3 + . . .
dt Q 2! dt 2 Q 3! dt 3 Q
(A.1)

X 1 d i x
= (x − xQ )i (A.2)
i=0
i! dt i Q
n
donde ddt nx Q denota la derivada n-ésima de g respecto de x y evaluada en
x = xQ .
A partir de esta expansión, podemos construir aproximaciones de primer,
segundo, tercer orden, etc. truncando la serie después de la potencia de primer,
segundo, tercer grado, etc., respectivamente. Por ejemplo, la aproximación de
primer orden es

d g
ĝ1 (x) = k0 + k1 (x − xQ ); k0 = g(xQ ); k1 = (A.3)
dx Q
Esta aproximación de primer orden se puede apreciar gráficamente, como se
muestra en la Figura A.1.
dg
En esta figura m = k1 = dx . Se observa que, en la medida que nos
Q
alejamos del punto de operación, el error de modelado lineal aumenta.

339
340 APÉNDICE A. SERIES DE TAYLOR

g(x)
ĝ1 (x)
m
1
g(xQ )

xQ x

Figura A.1: Aproximación de primer orden para función no lineal de una varia-
ble.

A.2. Serie de Taylor en dos variables

La misma idea resumida en la sección anterior se puede extender al caso de


una función g(x1 , x2 ), con x1 ∈ R, x2 ∈ R.
Sea (x1Q , x2Q ) un par arbitrario tal que g(x1 , x2 ) es continua e infinitamente
diferenciable en x1 = x1Q , x2 = x2Q . Entonces g puede expandirse en serie de
potencias de (x1 − x1Q ) y (x2 − x1Q )


∂g ∂g 1 ∂ 2 g
g(x1Q , yQ ) + (x1 − x1Q ) + (x2 − x2Q ) + (x1 − x1Q )2 +
∂x1 Q ∂x2 Q 2 ∂x21 Q

1 ∂ 2 g 2 ∂ 2 f
(x 2 − x 2Q ) + (x1 − x1Q )(x2 − x2Q ) + . . . (A.4)
2 ∂x2
2 Q ∂x1 ∂x2
Q

donde el término general de la expansión es


1 ∂ i+j g
(x1 − x1Q )i (x2 − x2Q )j (A.5)
i!j! ∂xi1 ∂xj2
Q

En forma análoga al caso de una variable, podemos truncar esta serie para
tener aproximaciones de primer, segundo, tercer, etc. orden. Por ejemplo, la
aproximación de primer orden está dada por
A.3. EL CASO GENERAL 341

ĝ1 (x1 , x2 ) = k0 + k11 (x1 − x1Q ) + k12 (x2 − x2Q ) (A.6)


k0 = g(x1Q , x2Q ) (A.7)

d g
k11 = (A.8)
dx1 Q

d g
k12 = (A.9)
dx2 Q

A.3. El caso general


La idea desarrollada en las dos secciones anteriores se puede generalizar al
caso de una función g(x1 , x2 , . . . , xn ) con x1 ∈ R, x2 ∈ R, . . ., xn ∈ R.
Sea (x1Q , x2Q , . . . , xnQ ) una n-tupla tal que g(x1 , x2 , . . . , xn ) es continua e
infinitamente diferenciable en x1 = x1Q , x2 = x2Q , . . ., xn = xnQ . Entonces la
expansión en serie de Taylor está dada por

g(x1 , x2 , . . . , xn ) = g(x1Q , x2Q , . . . , xnQ )



X 1 ∂ ni g
(x1 −x1Q )i1 (x2 −x2Q )i2 . . . (xn −xnQ )in
+ i i i
i1 ,i2 ,...,in
i !i
=0 1 2
! · · · i n ! ∂ 1x ∂ 2x · · · ∂ nx
1 2 n Q

(A.10)
donde ni = i1 + i2 + . . . + in .
La aproximación de primer orden, por truncamiento de la serie es entonces

n
X
ĝ1 (x1 , x2 , . . . , xn ) = k0 + k1i (xi − xiQ ) (A.11)
i=1
k0 = g(x1Q , x2Q , . . . , xnQ ) (A.12)

d g
k1i = (A.13)
dxi Q
(A.14)
Es importante señalar que los desarrollos precedentes siguen siendo válidos
aunque las variable x1 , x2 , . . ., xn sean funciones de una variable temporal u
otra variable independiente.

A.4. Algunas reglas prácticas para la expansión


en serie
La teorı́a general precedente permite construir algunas reglas básicas para
expandir funciones complicadas en serie de potencias.
342 APÉNDICE A. SERIES DE TAYLOR

R1 Considere las funciones no lineales g(x) y h(x) y un punto de operación


común dado por xQ , entonces las aproximaciones de primer orden para
las funciones que se indican son


d g(x)
[R1,1] ĝ1 (x) = g(xQ ) + (x − xQ )
dx Q

d h(x)
[R1,2] ĥ1 (x) = h(xQ ) + (x − xQ )
dx Q
!
\ d g(x) d h(x)
[R1,3]g(x) + h(x)1 = g(xQ ) + h(xQ ) + + (x − xQ )
dx Q dx Q
!
\ = g(xQ )h(xQ ) + h(xQ ) d g(x) d h(x)
[R1,4] g(x)h(x) 1
+ g(xQ ) (x − xQ )
dx Q dx Q

d ` x(t)
R2 La aproximación de primer orden de g(x) = dt `
en torno al punto de
operación x = xQ , g(xQ ) = 0 es

d ` (x(t) − xQ )
ĝ1 (x) = (A.15)
dt `
h ` ik
R3 La aproximación de primer orden de g(x) = d dtx(t) ` , k > 1 en torno al
h ` ik−1
punto de operación x = xQ , d dtx(t)
` = 0 es

ĝ1 (x) = 0 (A.16)


Apéndice B

Bases matemáticas para las


Series de Fourier

B.1. Espacios vectoriales y bases ortogonales


En esta sección se revisan los conceptos básicos de los espacios vectoriales,
incluyendo definiciones y propiedades. Se introducen además las ideas de ortog-
onalidad y bases, ideas matemáticas abstractas de mucha utilidad para funda-
mentar el análisis mediante series de Fourier y otros tópicos dentro de la teorı́a
de sistemas como es, por ejemplo, la construcción de modelos y la estimación
de señales utilizando el enfoque de mı́nimos cuadrados.

Definición B.1. Un espacio vectorial V es un conjunto de objetos ~v 1 , ~v2 , . . .


, llamados vectores, donde se definen dos operaciones: suma de dos vectores,
y multiplicación por un escalar y que satisfacen las siguientes propiedades:

1. Si ~vi ∈ V y ~vj ∈ V, entonces ~vi + ~vj ∈ V

2. Si ~vi ∈ V y ~vj ∈ V, entonces ~vi + ~vj = ~vj + ~vi

3. Si ~vi , ~vj , ~vk son vectores cualesquiera de V, entonces ~vi + (~vj + ~vk ) =
(~vi + ~vj ) + ~vk

4. Existe un vector ~0 ∈ V, tal que para todo ~vi ∈ V se cumple ~vi + ~0 = ~vi

5. Para cada ~vi ∈ V existe un vector −~vi ∈ V, tal que ~vi + (−~vi ) = ~0

6. Si ~vi ∈ V y α es un escalar, entonces α~vi ∈ V

7. Si ~vi y ~vj están en V y α es un escalar, entonces α(~vi + ~vj ) = α~vi + α~vj

8. Si α y β son escalares y ~vi ∈ V, entonces (α + β)~vi = α~vi + β~vi

343
344APÉNDICE B. BASES MATEMÁTICAS PARA LAS SERIES DE FOURIER

9. Si α y β son escalares y ~vi ∈ V, entonces α(β~vi ) = (αβ)~vi

10. Existe el escalar 1 tal que 1~vi = ~vi , para todo ~vi ∈ V

Existe un sinnúmero de conjuntos de elementos que son ejemplo de espa-


cios vectoriales, de entre los cuales se deja al lector verificar que los siguientes
cumplen las propiedades recién enumeradas:

El espacio Rn en que los escalares son números reales,

El espacio Cn en que los escalares pueden ser números reales o bien com-
plejos,

El conjunto de funciones reales seccionalmente continuas1 en un intervalo


[a, b], en que los escalares son números reales.

Definición B.2. Dado un conjunto de vectores G = {~v1 , . . . , ~vn } ⊆ V, diremos


que el espacio generado por G, es el conjunto de todos los vectores de la
forma:

~v = α1~v1 + . . . + αn~vn
Es decir, ~v es una combinación lineal de ~v1 , . . . , ~vn .

Se deja al lector probar que el subespacio generado por el subconjunto de


vectores G ⊆ V también cumple las propiedades de un espacio vectorial.

Definición B.3. Un conjunto de vectores ~v1 , . . . , ~vn se dice linealmente in-


dependiente, si la ecuación:

α1~v1 + . . . + αn~vn = 0
se cumple sólo para los escalares α1 = α2 = . . . = αn = 0. En caso contrario
se dice que los vectores son linealmente dependientes.

La independencia lineal en un conjunto de vectores es una propiedad muy


importante pues nos permite afirmar que ninguno de los vectores del conjun-
to puede expresarse como una combinación lineal de los demás vectores. Esta
demostración se deja al lector.

Definición B.4. Dado un espacio vectorial V, diremos que un conjunto de


vectores B = {~v1 , . . . , ~vn } es base de V si:

1. {~v1 , . . . , ~vn } es linealmente independiente, y


1 Es decir, que poseen a lo más un número finito de puntos de discontinuidad.
B.1. ESPACIOS VECTORIALES Y BASES ORTOGONALES 345

2. {~v1 , . . . , ~vn } genera todo el espacio V. norma


norma inducida
En este caso diremos que el espacio vectorial V tiene dimensión igual a desigualdad triangular
distancia
n. Por ejemplo, el espacio de vectores en el plano tiene dimensión n = 2, en \’angulo entre vectores
el espacio n = 3, mientras que existen otros espacios como por ejemplo el de
funciones que pueden tener dimensión infinita.

Definición B.5. Dados dos vectores cualesquiera ~vi y ~vj en un espacio vectorial
V con escalares en C, entonces diremos que h~vi , ~vj i es un producto interno,
producto escalar o producto punto si cumple las siguientes propiedades:
1. h~vi , ~vj i es un escalar
2. h~vi , α~vj + β~vk i = αh~vi , ~vj i + βh~vi , ~vk i

3. h~vi , ~vi i > 0 si ~vi 6= ~0


4. h~vi , ~vj i = h~vj , ~vi i ∗ , en que (·)∗ denota el complejo conjugado de (·)
Este producto además induce una norma en el espacio vectorial V:
p
~vi = h~vi , ~vi i

Recordamos que una norma se define como sigue:



Definición B.6. Una norma · en un espacio vectorial es una función que
va del espacio V a R que cumple con :

1. ~vi ≥ 0 y ~vi = 0 si y sólo si ~vi = ~0

2. α~vi = |α| ~vi en que |α| es el valor absoluto o módulo del escalar α

3. ~vi + ~vj ≤ ~vi + ~vi ( desigualdad triangular) .
Con la norma inducida de esta forma con el producto interno en el espacio
vectorial podemos introducir la idea de distancia entre dos vectores:

d(~vi , ~vj ) = ~vi − ~vj

Definición B.7. Un espacio vectorial donde se ha definido una norma, es decir,


se tiene una medida de distancia y longitud se denomina espacio euclideano

Además puede definirse el coseno del ángulo entre dos vectores como

h~vi , ~vj i
cos ∠(~vi , ~vj ) =
~vi ~vj
346APÉNDICE B. BASES MATEMÁTICAS PARA LAS SERIES DE FOURIER

Definición B.8. De la definición del ángulo entre dos vectores es claro que
podemos decir que dos vectores son ortogonales bajo el producto interno h◦, ◦i,
si este producto es igual a cero. Es decir:

~vi ⊥~vj ⇔ h~vi , ~vj i = 0

Lema B.1. Supongamos un espacio vectorial V de dimension n, en que se tiene


una base de vectores:

B = {~v1 , ~v2 , . . . , ~vn } (B.1)


Si los vectores de la base B son ortogonales entre si bajo un producto in-
terno h◦, ◦i, es decir:
(
0 ; si i 6= j
h~vi , ~vj i = (B.2)
> 0 ; si i = j
Entonces, un vector arbitrario ~u ∈ V se representa como una combinación
lineal de los vectores de la base B de la forma:

~u = α1~v1 + α2~v2 + . . . + αn~vn (B.3)

en que cada coeficiente se calcula:

h~vi , ~ui
αi = (B.4)
h~vi , ~vi i

Demostración
La representación (B.3) se deduce de inmediato del hecho de tener un con-
junto de n vectores linealmente independientes en un espacio vectorial V de
dimensión n. Lo central que nos atañe en este caso es el cálculo de los coefi-
cientes (B.4).
Tomemos la ecuación (B.3), y apliquémosle producto interno con alguno de
los vectores de la base (B.1):

h~vi , ~ui = h~vi , α1~v1 + α2~v2 + . . . + αn~vn i (B.5)

Si aplicamos la linealidad del producto interno

h~vi , ~ui = α1 h~vi , ~v1 i + α2 h~vi , ~v2 i + . . . + αn h~vi , ~vn i (B.6)

Y dada la ortogonalidad del conjunto B, los productos de la derecha son cero a


excepción del que coinciden los ı́ndices i :

h~u, ~vi i = αi h~vi , ~vi i (B.7)


B.2. CONVERGENCIA DE LAS SERIES DE FOURIER 347

De donde se demuestra el resultado (B.4). 222

Lema B.2. Desigualdad de Cauchy-Schwartz


Si vi y vj son dos vectores arbitrarios en un espacio euclideano, es decir, un
espacio vectorial con norma inducida por un producto interno, entonces

hvi , vj i2 ≤ hvi , vi i · hvj , vj i (B.8)

Demostración
Primero se observa que esta desigualdad es inmediata si cualquiera de los
vectores, vi o vj , es el vector cero. Ası́ es suficiente considerar el caso en ambos
son no nulos.
Consideremos un vector (αvi − βvj ), cuya norma es no negativa

0 ≤ h(αvi − βvj ), (αvi − βvj )i (B.9)


2 2
= α hvi , vi i − 2αβhvi , vj i + β hvj , vj i (B.10)

De donde
2αβhvi , vj i ≤ α2 hvi , vi i + β 2 hvj , vj i (B.11)
p p
Ahora, si tomamos α = hvj , vj i y β = hvi , vi i entonces

√ √
2 hvj , vj i hvi , vi ihvi , vj i ≤ 2hvi , vi ihvj , vj i (B.12)
√ √
hvi , vj i ≤ hvj , vj i hvi , vi i (B.13)

Donde elevando al cuadrado se tiene la desigualdad a demostrar.


222

B.2. Convergencia de las Series de Fourier


B.2.1. Convergencia de sucesiones y series
A continuación se hace un breve repaso sobre convergencia de sucesiones y
series de funciones.

Definición B.9. Se dice que una sucesión de funciones {fk (x)} de funciones,
cada una definida en un intervalo I = [a, b], converge (puntualmente) en I, si

lı́m fk (x0 ) existe ∀x0 ∈ I (B.14)


k→∞
348APÉNDICE B. BASES MATEMÁTICAS PARA LAS SERIES DE FOURIER

Definición B.10. Se dice que una sucesión {fk (x)} de funciones, definidas en
un intervalo I = [a, b], converge uniformemente a una función f (x) en el
intervalo I si

∀ε > 0 ∃ K > 0 tal que k > K ⇒ |f (x) − fk (x)| < ε ∀ a ≤ x ≤ b (B.15)

Estas dos definiciones sobre la convergencia de sucesiones son aplicables to-


talmente a series de funciones, ya que estas últimas no son más que sucesiones
de sumas parciales. Es decir, si se tiene una serie de funciones de la forma

X
S(x) = fn (x) (B.16)
n=1

Sus propiedades de convergencia están dadas por la convergencia de la suce-


sión {Sk (x)}, que es la suma parcial k-ésima
k
X
Sk (x) = fn (x) (B.17)
n=1

Definición B.11. Se dice que una serie de funciones



X
S(x) = fn (x) (B.18)
n=1

converge absolutamente si la serie de los valores absolutos de su término


general converge, es decir, si

X
|fn (x)| (B.19)
n=1

converge. Note que por comparación de los términos generales, si una serie
converge absolutamente, entonces también converge en el sentido usual 2

Lema B.3. M -Test de Weiertrass


Si tenemos una serie convergente de números reales positivos

X
Mk (B.20)
k=1

Y una serie de funciones en un intervalo I = [a, b]



X
fk (x) (B.21)
k=1
2 Sentido usual significa que la serie (B.18) converge
B.2. CONVERGENCIA DE LAS SERIES DE FOURIER 349

Tales que
|fk (x)| ≤ Mk (B.22)
P∞
Para cada k y para cada x ∈ I , entonces la serie de funciones k=1 fk (x)
converge uniforme y absolutamente en el intervalo I.

Demostración
Por comparación entre los términos de la serie numérica y la de funciones, se
sigue que para cada x0 en el intervalo I, la serie converge absolutamente. Ası́ la
serie converge puntualmente a una función lı́mite f (x) en a ≤ x ≤ b. Ahora

n

X X

f (x) − fk (x) = fk (x) (B.23)

k=1 k=n+1

X
≤ |fk (x)| (B.24)
k=n+1
X∞
≤ Mk (B.25)
k=n+1
X∞ n
X
= Mk − Mk (B.26)
k=1 k=1

Donde en el lado derecho la expresión tiende a cero cuando n → ∞. Ya que


esta convergencia no depende del x que se elija en I, es uniforme.

B.2.2. Convergencia de las Series de Fourier


Para estudiar la convergencia de la serie de Fourier de una función, a con-
tinuación se desarrollan algunos lemas que permiten determinar que la norma
del vector de error en (t) = y(t) − yn (t) tiende asintóticamente a cero, cuando
n → ∞.

Lema B.4. Desigualdad de Parseval


Si y(t) es una función perı́ódica y A0 , A1 , ...An y B1 , ...Bn son (algunos de
los) coeficientes de su representación en serie de Fourier entonces
Z T n
1 2 1X 2 
y 2 (t)dt ≥ A20 + Ak + Bk2 (B.27)
T − T2 2
k=1

Demostración
La norma al cuadrado del error que se comete, que se representa en la figura
5.8 a la derecha, es:
350APÉNDICE B. BASES MATEMÁTICAS PARA LAS SERIES DE FOURIER


en (t) 2 = hen (t), en (t)i (B.28)
= hen (t), y(t) − yn (t)i (B.29)
= hen (t), y(t)i − hen (t), yn (t)i (B.30)

Pero según (5.37) el segundo término es cero, y usando (5.38)



en (t) 2 = hen (t), y(t)i (B.31)
= hy(t), y(t)i − hyn (t), y(t)i (B.32)
* n +
2 X
= y(t) −
αk fk (t), y(t) (B.33)
k=1
n
X
2
= y(t) − αk hfk (t), y(t)i (B.34)
k=1

que puede reescribirse como

n
X
2
en (t) 2 = y(t) 2 − αk2 fk (t) (B.35)
k=1

Si recordamos que la norma siempre es positiva o cero y se expresa mediante


integrales, y si calculamos la norma cuadrática de cada fk (t) de la base (5.23)
obtenemos

Z T Z T
" n  #
2 2 X T T
e2n (t)dt = y 2 (t)dt − A20 · T + A2k · + Bk2 · ≥ 0 (B.36)
− T2 − T2 2 2
k=1

Con esto se obtiene la desigualdad de Parseval:


Z T n
1 2 1X 2 
y 2 (t)dt ≥ A20 + Ak + Bk2 (B.37)
T − T2 2
k=1
222

Corollario B.1. De la ecuación (B.27), se deduce además que

Z T
2 2
lı́m Ak = lı́m y(t) cos(kω0 t)dt = 0 (B.38)
k→∞ k→∞ T − T2
Z T
2 2
lı́m Bk = lı́m y(t) sen(kω0 t)dt = 0 (B.39)
k→∞ k→∞ T − T2
B.2. CONVERGENCIA DE LAS SERIES DE FOURIER 351

Demostración
Directa de la desigualdad de Parseval, ya que si la integral del lado izquierdo
existe, entonces la serie del lado derecho, cuyo término general es no-negativo,
está acotada superiormente. Esto permite afirmar que converge, lo que a su
vez implica que el término general se hace cero cuando n → ∞, por tanto, los
coeficientes Ak y Bk se hacen cero cuando k → ∞. 222

Lema B.5. La aproximación o serie de Fourier truncada yn (t) de una función


periódica y(t) de perı́odo T , puede escribirse como
Z T
2 2 sen(ω0 (n + 12 )s) 2π
yn (t) = y(t + s)  ds ; ω0 = (B.40)
T − T2 2 sen ω20 s T

Demostración
La aproximación n-ésima puede escribirse utilizando las ecuaciones (5.27)

n
X
yn (t) = A0 + [Ak cos(kω0 t) + Bk sen(kω0 t)] (B.41)
k=1
Z T
1 2
= y(τ )dτ (B.42)
T − T2
n
" Z T Z T
#
X 2 2 2 2
+ cos(kω0 t) y(τ ) cos(kω0 τ )dτ + sen(kω0 t) y(τ ) sen(kω0 τ )dτ
T T
−2 T − T2
k=1
(B.43)
Z T
" n
#
2 2 1 X
= y(τ ) + {cos(kω0 t) cos(kω0 τ ) + sen(kω0 t) sen(kω0 τ )} dτ
T − T2 2
k=1
(B.44)
Z T
" n
#
2 2 1 X
= y(τ ) + cos(kω0 (τ − t)) dτ (B.45)
T − T2 2
k=1

Pero se puede utilizar la siguiente identidad trigonométrica

      ω s
1 1 0
sen k+ ω0 s − sen k− ω0 s = 2 sen cos (kω0 s) (B.46)
2 2 2

Y si se hace la suma desde 1 hasta n, obtenemos

   ω s n
ω s X
1 0 0
sen n+ ω0 s − sen = 2 sen cos (kω0 s) (B.47)
2 2 2
k=1
352APÉNDICE B. BASES MATEMÁTICAS PARA LAS SERIES DE FOURIER

O bien,
n  
1 X sen n + 12 ω0 s
+ cos (kω0 s) =  (B.48)
2
k=1
2 sen 12 ω0 s
Reemplazando en la integral se obtiene

Z T  
2 2 sen n + 12 ω0 (τ − t)
yn (t) = y(τ )  dτ (B.49)
T − T2 2 sen ω20 (τ − t)

Si se considera t fijo y se hace el cambio s = τ − t se obtiene


Z T  
2 2 −t
sen n + 12 ω0 s
yn (t) = y(t + s)  ds (B.50)
T − T2 −t 2 sen ω20 s

En esta expresión, si la función y(t) tiene perı́odo T , entonces puede probarse


que la función en el integrando también es periódica en s, con perı́odo T . Esto
se deja como ejercicio al lector. Por lo tanto la integral puede calcularse en
cualquier intervalo de longitud T , en particular, en [− T2 , T2 ].
222

Lema B.6. Convergencia puntual.


Supongamos que y(t) es una función periódica en (−∞, ∞), de perı́odo T ,
entonces para cada t0 se cumple que

y(t+ −
0 ) + y(t0 )
lı́m yn (t0 ) = (B.51)
n→∞ 2
En que y(t+ −
0 ) e y(t0 ) son los lı́mites por la derecha y por la izquierda de y(t)
en t0 .

Demostración
Primero, y como resultado previo, observemos que si integramos a ambos
lados de la ecuación (B.48), obtenemos
Z T2  
sen n + 12 ω0 s T
1
 = (B.52)
−2T 2 sen ω
2 0 s 2

Ahora definamos la función


y(t+ ) + y(t− )
g(t) = (B.53)
2
Esta coincide con y(t) sólo en sus puntos de continuidad y además hereda
su periodicidad. Podemos observar también que si t0 es una discontinuidad de
y(t), lo es también de g(t) y
B.2. CONVERGENCIA DE LAS SERIES DE FOURIER 353

y(t+ −
0 ) + y(t0 ) g(t+ −
0 ) + g(t0 )
g(t0 ) = = (B.54)
2 2
Consideremos lo que sucede con el error en (t0 ), entre g(t) y su representación
en serie de Fourier, a medida que n tiende a infinito. Si usamos la igualdad recién
mencionada y la expresión (B.40) para la n-ésima suma parcial, el error puede
escribirse

en (t0 ) = g(t0 ) − gn (t0 ) (B.55)


Z T2 1 Z T2 1
2 sen(ω0 (n + 2 )s) 2 sen(ω0 (n + 2 )s)
= g(t0 ) ω
 ds − g(t0 + s)  ds
T − T2 2 sen 2 s0
T − T2 2 sen ω20 s
(B.56)
Z T2
2 sen(ω0 (n + 12 )s)
= [g(t0 ) − g(t0 + s)]  ds (B.57)
T − T2 2 sen ω20 s
Z T2 " 1
#    
2 g(t0 ) − g(t0 + s) 2 ω0 s  1
= 1 sen ω0 n + s ds
T − T2 2 ω0 s sen 21 ω0 s 2
(B.58)

La expresión entre corchetes dentro de la integral es seccionalmente continua


en el intervalo [− T2 , T2 ], siempre y cuando t0 sea un punto de continuidad de g(t),
lo que permite afirmar que el primer cuociente de la expresión entre corchetes
se transforma en la derivada cuando s → 0. En estos puntos, usando la ecuación
(B.39), se deduce que

lı́m en (t0 ) = 0 (B.59)


n→∞

O, lo que es lo mismo,

g(t+ −
0 ) + g(t0 )
lı́m gn (t0 ) = g(t0 ) = (B.60)
n→∞ 2

Ya que, en este caso t0 se ha supuesto un punto de continuidad, es decir,


g(t+ −
0 ) = g(t0 ) = g(t0 ).
En aquellos puntos (finitos) de discontinuidad de g(t), podemos definir la
función

G(t) = g(t + t0 ) − g(t0 ) (B.61)

Si separamos esta función en sus partes par e impar


354APÉNDICE B. BASES MATEMÁTICAS PARA LAS SERIES DE FOURIER

G(t) + G(−t)
Gpar (t) = (B.62)
2
g(t + t0 ) + g(−t + t0 ) − 2g(t0 )
= (B.63)
2
G(t) − G(−t)
Gimpar (t) = (B.64)
2
g(t + t0 ) − g(−t + t0 )
= (B.65)
2

La serie de Fourier de Gimpar (t) converge a cero en t = 0, pues es una


serie senoidal. Mientras que Gpar (t) es continua en t = 0 (cuya prueba se deja
al lector), por tanto su serie de Fourier converge a Gpar (0) = G(0). Con esto
podemos afirmar que la serie de Fourier de G(t) converge a cero en t = 0 y en
consecuencia
lı́m Gn (0) = 0 =⇒ lı́m gn (t0 ) = g(t0 ) (B.66)
n→∞ n→∞

Es decir, la serie de Fourier de g(t) en t = t0 converge a g(t0 ), también en el


caso de los puntos de discontinuidad.
Ahora dada la definición de g(t) en (B.53), su expresión en serie de Fourier
coincide con la de y(t), por tanto la convergencia puntual debe ser la misma.
En consecuencia, el lema queda demostrado.
222

Lema B.7. Convergencia uniforme


Supongamos que y(t) es una función continua en (−∞, ∞), de perı́odo T ,
cuya primera derivada y 0 (t) es seccionalmente continua. Entonces, su serie de
Fourier converge uniformemente a y(t) en cualquier intervalo [a, b]. Es decir,

∀ε > 0 ∃N > 0 ; n > N ⇒ |y(t) − yn (t)| < ε ∀t ∈ [a, b] (B.67)

Demostración
Sean

X
A0 + [An cos(nω0 t) + Bn sen(nω0 t)] (B.68)
n=1
X∞
A00 + [A0n cos(nω0 t) + Bn0 sen(nω0 t)] (B.69)
n=1

Las series de Fourier de y(t) e y 0 (t), respectivamente. Entonces, dada la


periodicidad de y(t), tenemos que
B.2. CONVERGENCIA DE LAS SERIES DE FOURIER 355

Z T
1 2
A00 = y 0 (t)dt (B.70)
T − T2
1
= [y(T /2) − y(−T /2)] (B.71)
T
=0 (B.72)

Mientras que para n > 0 tenemos

Z T
2 2
A0n = y 0 (t) cos(nω0 t)dt (B.73)
T − T2
" Z T2 #
2 T2

= y(t) cos(nω0 t) T + nω0 y(t) sen(nω0 t)dt (B.74)
T −2 − T2
Z T2
2
= nω0 y(t) sen(nω0 t)dt (B.75)
T − T2
= nω0 Bn (B.76)
Z T2
2
Bn0 = y 0 (t) sen(nω0 t)dt (B.77)
T − T2
" Z T2 #
2 T2

= y(t) sen(nω0 t) T − nω0 y(t) cos(nω0 t)dt (B.78)
T −2 − T2
Z T2
2
= −nω0 y(t) sen(nω0 t)dt (B.79)
T − T2
= −nω0 An (B.80)

Utilizando la desigualdad de Parseval (B.27), podemos afirmar que


X∞   X∞  q 2
2 2
A0n + Bn0 = nω0 An 2 + Bn 2 (B.81)
n=1 n=1
Z T
1 2
≤ y 0 (t)2 dt < ∞ (B.82)
T − T2
p
Si se observa el término general {nω0 A2n + Bn2 } de la segunda serie, se
aprecia que pertenece al conjuto de todas las sucesiones “cuadrado sumables”,
al igual que la sucesión {1/(nω0 )}. En ambas sucesiones n = 1, 2, . . . . En con-
secuencia el producto de estas sucesiones también es “cuadrado sumable”, por
tanto
∞  q  X ∞ q
X 1 2 2
· nω0 An + Bn = An 2 + B n 2 (B.83)
n=1
nω 0 n=1
356APÉNDICE B. BASES MATEMÁTICAS PARA LAS SERIES DE FOURIER

También converge.
Si ahora usamos la desigualdad de Cauchy-Schwartz (B.8)

|h(An , Bn ); (cos(nω0 t), sen(nω0 t))i| ≤ k(An , Bn )k · k(cos(nω0 t), sen(nω0 t))k
(B.84)
q p
An cos(nω0 t) + Bn sen(nω0 t) ≤ An 2 + Bn 2 cos2 (nω0 t) + sen2 (nω0 t)
(B.85)
q
= An 2 + B n 2 (B.86)

Con esto se puede comparar la serie



X
|A0 | + |An cos(nω0 t) + Bn sen(nω0 t)| (B.87)
n=1

con la serie convergente de constantes positivas


∞ q
X
|A0 | + An 2 + B n 2 (B.88)
n=1

el M -test de Weierstrass (vea el Lema B.3) asegura por tanto que



X
A0 + [An cos(nω0 t) + Bn sen(nω0 t)] (B.89)
n=1

converge uniformemente en cualquier intervalo cerrado. Pero, por el lema de


convergencia puntual antes visto, sabemos que esta serie converge a y(t) punto
a punto.
222

Con los resultados hasta aquı́ obtenidos estamos en condiciones ya de de-


mostrar que la norma del error que se comete al representar en serie de Fourier
una función seccionalmente continua tiende asintóticamente a cero.

Lema B.8. Sea y(t) una función definida en (−∞, ∞), de periodo T , seccional-
mente continua y con primera derivada seccionalmente continua. Entonces, si
yn (t) es la n-ésima suma parcial de su representación en serie de Fourier, la
norma del error en (t) = y(t) − yn (t) es tal que

lı́m ken (t)k = 0 (B.90)


n→∞

Demostración
Es directa de (B.67), ya que si tomamos y(t) en el intervalo [− T2 , T2 ], y
denotamos por {t1 , t1 , . . . , tm } los puntos en que y(t) es discontinua dentro
de él, entonces, dado un ε > 0, para cada uno de los m + 1 subintervalos
(− T2 , t1 ), . . . , (tk , tk+1 ), . . . , (tm , T2 ) existe una constante Nk tal que
B.2. CONVERGENCIA DE LAS SERIES DE FOURIER 357

n > Nk ⇒ |y(t) − yn (t)| < ε (B.91)


|en (t)| < ε ∀t ∈ (tk , tk+1 ) (B.92)
Si elegimos N = máx{Nk }k=1,...,m+1 podemos asegurar que

n > N ⇒ |en (t)| < ε ∀t ∈ {[− T2 , T2 ] − {t1 , . . . , tk+1 }} (B.93)


Por tanto

Z T
2
ken (t)k2 = en 2 (t)dt (B.94)
− T2
Z Z Z T
t1 tk+1 2
= en 2 (t)dt + . . . + en 2 (t)dt + . . . + en 2 (t)2 dt (B.95)
− T2 tk tm

< ε2 (t1 − (− T2 )) + . . . + ε2 (tk+1 − tk ) + . . . + ε2 ( T2 − tm ) = ε2 · T


(B.96)
Con esto podemos afirmar, que dado un ε pequeño√siempre es posible escoger
N suficientemente grando de manera que |en (t)| < ε T , y por tanto converge
a cero.
222
Corollario B.2. Identidad de Parseval
Si y(t) es una función perı́ódica y A0 , A1 , ...An y B1 , ...Bn son los coefi-
cientes de su representación en serie de Fourier, entonces
Z T n
1 2 1X 2 
y 2 (t)dt = A20 + Ak + Bk2 (B.97)
T − T2 2
k=1

Demostración
Es directa de la ecuación (B.36), donde como consecuencia del lema anterior
(B.90), la norma del error, además de ser positiva, tiende asintóticamente a cero.
Por tanto la desigualdad (B.27) se transforma en la identidad (B.97).

La serie de Fourier es sólo una representación de la función y(t), en el sentido


que converge al mismo valor que y(t) en los puntos que esta función es
continua, y en aquellos en que hay discontinuidades o saltos, la serie converge
al promedio de los lı́mites laterales. Note que estas diferencias entre la señal
y su representación en serie de Fourier no son detectadas por la función de
error minimizada, la cual puede de todos modos alcanzar el valor mı́nimo
(cero).
358APÉNDICE B. BASES MATEMÁTICAS PARA LAS SERIES DE FOURIER
transformada de Fourier
transformada de Fourier inversa

Apéndice C

La transformación de
Fourier

C.1. Transformación de Fourier en tiempo con-


tinuo
C.1.1. Definición de la Transformada
Dada una función y(t) en el intervalo ] − ∞, ∞[ , su transformada de
Fourier Y ( ω) y su transformada de Fourier inversa quedan definidas por las
ecuaciones

Z ∞
F [y(t)] = Y ( ω) = y(t)e− ωt dt (C.1)
−∞
Z ∞
1
F −1 [Y ( ω)] = y(t) = Y ( ω)e ωt dω (C.2)
2π −∞

Para que la transformada exista es suficiente que la función y(t) sea absolu-
tamente integrable en el intervalo −∞ < t < ∞, es decir:
Z ∞
y(t) dt < ∞
−∞

Existen funciones que a pesar de no cumplir con esta condición, es posible


calcular su transformada de Fourier.
Veamos a manera de ejemplo cómo se puede obtener la transformada de
Fourier del delta de Dirac, a partir de la transformada de un pulso como el del
ejemplo 6.1 (pág. 121).

359
360 APÉNDICE C. LA TRANSFORMACIÓN DE FOURIER

Ejemplo C.1. Consideremos un pulso centrado en el cero, de ancho ∆ y altura


1/∆, es decir, una función

1 ; |t| ≤ ∆/2
y∆ (t) = ∆
0 ; |t| > ∆/2

Esta función estábien definida ∀t ∈] − ∞, ∞[, y el área del pulso es unitaria


∀∆ > 0. Su transformada de Fourier por tanto puede obtenerse, en base al
ejemplo 6.1 ya mencionado, o por la definición (C.1) será

Z ∆/2
1 − ωt
Y∆ ( ω) = e dt
∆ −∆/2
1  − ω ∆ ∆

= e 2 − e ω 2
− ω∆

sen ω∆
2
= ω∆
2

Puede apreciarse que a medida que ∆ → 0, la función se transforma en


un pulso mas alto y angosto, siendo esta función una de las aproximaciones
asintóticas del Delta de Dirac, pues es cero en todo instante, excepto t = 0, y
su integral es unitaria. En tanto, su trasnformada de Fourier se hace cada vez
más “plana”. Estas ideas se pueden apreciar en la figura C.1.

16 1

14
0.8

12

0.6
10

8 0.4

0.2

2 –40 –30 –20 –10 0 10 20 30 40


w

–1 –0.8 –0.6 –0.4 –0.2 0 0.2 0.4 0.6 0.8 1 –0.2


t

(a) Pulso y∆ (t) (b) Espectro Y∆ ( ω)

Figura C.1: Pulso y su transformada para ∆ = 1, 41 , 16


1
.

Analı́ticamente tenemos que en el lı́mite, cuando ∆ → 0 :


C.1. TRANSFORMACIÓN DE FOURIER EN TIEMPO CONTINUO 361

y∆ (t) −→ δ(t)
↓ ↓
2 )
sen( ω∆
Y∆ ( ω) = ω∆ −→ Y ( ω) = 1
2

C.1.2. Propiedades de la Transformada de Fourier


Existen diversas propiedades de la transformada de Fourier que resultan de
mucha utilidad en el análisis frecuencial de señales y su relación con los sistemas
lineales, que además permiten ontener la transformada de Fourier de una función
a partir de algunas más básicas.
Lema C.1. Simetrı́a.
Sea y(t) una función definida ∀t, cuya transformada de Fourier es Y ( ω),
entonces si consideramos la función Y (t), en el dominio del tiempo ahora, su
transformada de Fourier es

F{Y (t)} = 2πy(− ω) (C.3)

Demostración
Es directa de reemplazar Y (t) en la definición de la transformada y recor-
dando la ecuación que define a y(t) como transformada inversa de Y ( ω)

Z ∞
F{Y (t)} = Y (t)e− ωt dt
−∞
Z ∞
1
= 2π Y (t)ejt(−ω) dt
2π −∞
= 2πy(− ω)

222
Ejemplo C.2. Consideremos una función constante y(t) = C. Esta función
no es absolutamente integrable, sin embargo, su transformada de Fourier puede
obtenerse en base a la transformada del Delta de Dirac:

F {y(t)} = F {C}
= C · F {1}
= C · 2πδ(−ω)
= C · 2πδ(ω)

Veamos ahora cómo se ve afectada la transformada de Fourier de una señal


cuando esta es desplazada en el tiempo, que puede ser el caso en que existe, por
ejemplo, retardo.
362 APÉNDICE C. LA TRANSFORMACIÓN DE FOURIER

Desplazamiento en el tiempo Lema C.2. Desplazamiento en el tiempo.


Desplazamiento en frecuencia
Si tenemos una función y(t) definida para −∞ < t < ∞, cuya transformada
de Fourier es Y ( ω), entonces la transformada de Fourier de y(t − t0 ) es

F{y(t − t0 )} = e− ωt0 Y ( ω) (C.4)

Demostración
Aplicando la definición de la Transformada de Fourier, para la función y(t)
desplazada en el tiempo, tenemos que

Z ∞
F{y(t − t0 )} = y(t − t0 )e− ωt dt
−∞
Z ∞
− ωt0
=e y(t − t0 )e− ω(t−t0 ) dt
−∞

Donde si se define t∗ = t − t0 se puede reescribir la integral como


Z ∞

F{y(t − t0 )} = e− ωt0 y(t∗ )e− ωt dt∗
−∞
= e− ωt0 Y ( ω)

222
Ejemplo C.3. Si se aplica este lema al ejemplo 6.1, obtenemos que si el pulso
de amplitud A no está centrado en el origen, sino que se ha desplazado a la
derecha, ubicándose en el intervalo [0, τ ] su transformada de Fourier será

−jw τ2 sen ωτ2
F{y[0,τ ] (t)} = e Aτ ωτ
2

Si analizamos en qué cambia realmente la transformada de Fourier del pulso


al desplazarlo en el tiempo, podemos apreciar que sólo el ángulo de Y ( ω) es el
que se ve afectado, ya que su módulo permanece invariante. Esto era esperable
ya que la ubicación del instante t = 0, cuando estamos considerando una función
definida para −∞ < t < ∞, es arbitraria afectando sólo las fases relativas de
sus componentes en frecuencia.

Veamos qué pasa en la contraparte del lema de desplazamiento en el tiempo,


pero en el dominio de la frecuencia ω.
Lema C.3. Desplazamiento en la frecuencia.
Si tenemos, al igual que antes, una función y(t) definida en toda la recta
real, es decir, para −∞ < t < ∞, cuya transformada de Fourier es Y ( ω),
entonces

F{eat y(t)} = Y ( ω − a) ;a ∈ C (C.5)


C.1. TRANSFORMACIÓN DE FOURIER EN TIEMPO CONTINUO 363

Demostración
Si aplicamos la definición de la transformada a la función y(t) multiplicada
por la exponencial periódica e ω0 t tenemos que

Z ∞
at
F{e y(t)} = eat y(t)e− ωt dt
−∞
Z ∞
= y(t)e−( ω−a)t dt
−∞

En que se puede definir  ω ∗ =  ω − a


Z ∞

F{eat y(t)} = y(t)e− ω t dt
−∞
= Y ( ω ∗ )
= Y ( ω − a)

222

Ejemplo C.4. Con este lema podemos obtener la transformada de Fourier de


una exponencial periódica, considerando en la ecuación (C.5) a =  ω0 :
 
F e ω 0 t = F e ω 0 t · 1
= 2πδ( ω −  ω0 )
= 2πδ(ω − ω0 )

Ya que el delta de Dirac es diferente de cero sólo en el punto en que su


argumento es igual a cero.
A partir de esta transformada, utilizando la ecuación de Euler, se pueden
obtener sin problema la del coseno y del seno:

 
e ω0 t + e− ω0 t
F {cos(ω0 t)} = F
2
1    
= F e− ω0 t + F e ω0 t
2
= π [δ(ω + ω0 ) + δ(ω − ω0 )]

 
e ω0 t − e− ω0 t
F {sin(ω0 t)} = F
2j
−j   − ω0 t  
= −F e + F e ω 0 t
2
= jπ [δ(ω + ω0 ) − δ(ω − ω0 )]
364 APÉNDICE C. LA TRANSFORMACIÓN DE FOURIER

Este lema tiene importantes aplicaciones en el análisis de señales que se


modulan en frecuencia y aquellas que son periódicas, como puede apreciarse en
los siguientes corolarios.
Corollario C.1. Modulación.
Si tenemos una señal y(t) definida para todo t ∈ R, cuyo espectro (transfor-
mada de Fourier) es Y ( ω), entonces
1
F{cos(ω0 t)y(t)} = [Y ( ω −  ω0 ) + Y ( ω +  ω0 )] (C.6)
2

Demostración
Esta es directa del lema anterior utilizando la ecuación de Euler, es decir,
escribiendo cos(ω0 t) con exponenciales periódicas. Esto es

 
1  ω0 t
F{cos(ω0 t)y(t)} = F (e + e− ω0 t )y(t)
2
1 
= F{e ω0 t y(t)} + F{e− ω0 t y(t)}
2
1
= (Y ( ω −  ω0 ) + Y ( ω +  ω0 ))
2
222
Se deja al lector la demostración del corolario que se obtiene por analogı́a
en el caso que en vez de cos(ω0 t) se utiliza sen(ω0 t).
Ejemplo C.5. En ambos casos de modulación planteados, cosenoidal y senoidal,
al hacer el producto de una señal con una sinusoide se logra desplazar el espectro,
o contenido de frecuencias de la señal. Esto permite llevar, por ejemplo, señales
de contenido de baja frecuencia (como la voz humana, en la banda de 0−4[kHz]),
a bandas de frecuencia para transmisión radial (por ejemplo 1[MHz]).
Esta idea se muestra en la figura C.2

|F {y(t)cos(2π106 t)}|
|F {y(t)}|

4[kHz]
1[M Hz]

Figura C.2: Espectro de una señal de frecuencias audible y espectro de la señal


modulada.

Corollario C.2. Funciones Periódicas.


Si tenemos una señal periódica yT (t), en un intervalo de longitud T , esta
no es una función absolutamente integrable y su transformada de Fourier no
C.1. TRANSFORMACIÓN DE FOURIER EN TIEMPO CONTINUO 365

puede obtenerse a través de la definición (C.1). Sin embargo, sabemos ya que


una señal periódica podemos representarla mediante una Serie de Fourier (rep-
resentación en el tiempo) ya sea trigonométrica o con exponenciales periódicas.
En los desarrollos realizados además ya hemos encontrado las expresiones para
las transformadas de Fourier de una constante, del coseno, del seno y de una ex-
ponencial periódica, por tanto, la transformada de Fourier de una seál periódica
se puede obtener:

( ∞
)
X
− ωn t
F {yT (t)} = F Cn e
n=−∞

En que ωn = n2π/T , y por linealidad


X 
F {yT (t)} = Cn F e− ωn t
n=−∞
X∞
= Cn δ(ω + ωn )
n=−∞

Ejemplo C.6. Consideremos el tren de pulsos de la figura C.3 definido por



+1
 ; 0 ≤ |t| ≤ π2
y(t) = −1 ; π2 < |t| ≤ π


y(t + 2π) ; |t| > π

y(t)
1

−π π
t

−1

Figura C.3: Tren de pulsos

La integral del valor absoluto de la función claramente diverge, y si intenta-


mos obtener la transformada de Fourier de esta función utilizando la definición
(C.1), llegamos a una expresión difı́cil de simplificar. En cambio, la función y(t)
puede expresarse mediante su serie de Fourier, que en este caso será cosenoidal,
pues y(t) es par:
366 APÉNDICE C. LA TRANSFORMACIÓN DE FOURIER


X
y(t) = An cos(nt)
n=1
Z π
1
An = y(t) cos(nt)dt
π −π

Calculando los coeficientes Bn , se obtiene

∞  nπ 
X 4
y(t) = sen cos(nt)
n=1
nπ 2

Luego,
∞  nπ 
X 4
Y ( ω) = sen [δ(ω + n) + δ(ω − n)]
n=1
n 2
∞  nπ 
X 4
= sen δ(ω + n)
n=−∞
n 2
n6=0

Es decir, los coeficientes An se transforman en las amplitudes de los deltas


de Dirac en el espectro Y ( ω), como se puede apreciar en la figura C.4

1.2 0.6

0.8 0.4

0.6

0.4 0.2

0.2

0 2 4 6 8 10 –10 –5 0 5 10
w

–0.2

–0.4 –0.2

(a) Coeficientes An (b) Espectro Y ( ω)

Figura C.4:

Lema C.4. Escalamiento.


Sea y(t) una función definita para t ∈] − ∞, ∞[, y a una constante real
distinta de cero, entonces
C.1. TRANSFORMACIÓN DE FOURIER EN TIEMPO CONTINUO 367

1 ω
F{y(at)} = Y (j ) (C.7)
|a| a

Demostración
Si reemplazamos la función escalada y(at) en la definición de la integral,
podemos ahı́ definir una nueva variable t∗ = at, pero se debe tener en cuenta
que el signo de a determina si los lı́mites de la integral se mantienen o se deben
intercambiar:

Z ∞
F{y(at)} = y(at)e− ωt dt
−∞
 Z ∞ ∗
t∗ dt


 y(t∗ )e− ω a ; si a > 0
Z−∞ a
= −∞ ∗
 t∗ dt

 y(t∗ )e− ω a ; si a < 0
∞ a
Dado que el cambio de orden en los lı́mites de la integral es un cambio de
signo, ambas expresiones pueden juntarse en una sola:

Z ∞
signo(a) ω ∗
F{y(at)} = y(t∗ )e−j a t dt∗
a −∞

Que es lo mismo que

1 ω
F{y(at)} = Y (j )
|a| a
222
A partir de este lema puede verificarse directamente que

F{y(−t)} = Y (− ω) (C.8)

A continuación veamos algunas propiedades de la transformada de Fourier


que tienen directa relación con la aplicación de ésta en la solución de las ecua-
ciones diferenciales y el análisis de sistemas, que se refieren a la transformada
de la derivada, de la integral y de la convolución de funciones.
Lema C.5. Derivación en t.
Sea y(t) una función definida en toda la recta real talque y(t) → 0 cuando
t → ±∞, y cuya transformada de Fourier es Y ( ω) . Entonces, la transformada
de Fourier de la derivada de y(t) con respecto al tiempo es
 
d y(t)
F =  ωY ( ω) (C.9)
dt
368 APÉNDICE C. LA TRANSFORMACIÓN DE FOURIER

Demostración
d y(t)
Si se aplica la definición de la transformada de Fourier a la derivada dt ,
y se integra por partes, se obtiene:

  Z ∞
d y(t) d y(t) − ωt
F = e dt
dt dt
−∞
Z ∞
  ∞
= y(t)e− ωt + ω y(t)e− ωt dt
−∞ −∞

Y dada la condición asintótica sobre y(t) cuando t → ±∞, sólo sobrevive el


segundo término
  Z ∞
d y(t)
F = ω y(t)e− ωt dt
dt −∞
=  ωY ( ω)

222

Es importante hacer notar que este lema no garantiza la existencia de la


transformada de la derivada temporal de y(t), sino que, en caso de existir, su
expresión puede obtenerse utilizando (C.9). Para las derivadas de orden supe-
rior en tanto, tenemos el siguiente corolario, que se debe utilizar con la misma
precaución antes mencionada:

Corollario C.3. Derivadas de orden superior


Para una función y(t) definida como en el lema anterior, tenemos que
 
d n y(t)
F = ( ω)n Y ( ω) (C.10)
dt n

Demostración

Se deja al lector, pues es directa por inducción, aplicando recursivamente el


lema anterior.
222

Lema C.6. Transformada de la integral.


Sea y(t) una función definida en todos los reales, cuya transformada de
Fourier es Y ( ω). Entonces, la transformada de su integral definida es
Z t 
1
F y(τ )dτ = Y ( ω) + πY (0)δ(ω) (C.11)
−∞ ω
C.1. TRANSFORMACIÓN DE FOURIER EN TIEMPO CONTINUO 369

Demostración
Para demostrar esta propiedad debemos en primer lugar observar que si
definimos φ1 (t) como la integral definida de y(t), entonces

Z t 
d φ1 (t) d
= y(τ )dτ
dt dt −∞
= y(t)

Pero también se cumple, para cualquier constante real k, que

d
(φ1 (t) + k) = y(t)
dt

Por tanto, aplicando Fourier y la ecuación (C.9)

 ω (Φ1 ( ω) + 2πkδ(ω)) = Y ( ω)

Luego, ya tenemos una forma para la transformada de la derivada, que es


1
Φ1 ( ω) = Y ( ω) − 2πkδ(ω) (C.12)
ω
Por tanto nos resta encontrar el valor de k. Para esto consideremos nueva-
mente la integral indefinida φ1 (t)

Z t
φ1 (t) = y(τ )dτ
−∞
Z ∞ Z t
= y(τ )dτ + y(τ )dτ
−∞ ∞
Z ∞ Z −t
= y(τ )dτ − y(−x)dx
−∞ −∞

Donde se ha cambiando la variable x = −τ , en la segunda integral.


Si definimos

Z t
φ2 (t) = y(−x)dx
−∞
1
⇒ Φ2 ( ω) = Y (− ω) − 2πkδ(ω)
ω

Es su transformada de Fourier, según la forma (C.12). Entonces podemos


retomar la función φ1 (t), y aplicarle transformada de Fourier
370 APÉNDICE C. LA TRANSFORMACIÓN DE FOURIER

Z ∞
φ1 (t) = y(τ )dτ − φ2 (−t)
−∞
Z ∞ 
Φ1 ( ω) = 2π y(τ )dτ δ(ω) − Φ2 (− ω)
−∞
Z ∞   
1 1
Y ( ω) − 2πkδ(ω) = 2π y(τ )dτ δ(ω) − Y ( ω) − 2πkδ(ω)
ω −∞ − ω

Donde si se observa que δ(ω) = δ(−ω), se puede despejar la constante k:

Z
1 ∞
k=− y(τ )dτ
2 −∞
Z ∞ 
1 − ωτ

=− y(τ )e dτ
2 −∞ ω=0
1
= − Y (0)
2
Por tanto
1
Φ1 ( ω) = Y ( ω) + πY (0)δ(ω)
ω
222

Ejemplo C.7. El lema anterior puede utilizarse para obtener la transformada


del escalón unitario µ(t) o función de Heaviside, a partir de la transformada del
delta de Dirac.
Dada la definición del Delta Dirac y de la función de Heaviside, tenemos que

Z (
t
0 ;t < 0
δ(τ )dτ =
−∞ 1 ;t > 0
= µ(t)

Por tanto,

Z t 
F {µ(t)} = F δ(τ )dτ
−∞
1
= F {δ(t)} + πδ(ω) F {δ(t)}|ω=0
ω
1
= + πδ(ω)
ω
C.1. TRANSFORMACIÓN DE FOURIER EN TIEMPO CONTINUO 371

Lema C.7. Convolución en el tiempo.


Sean y1 (t) e y2 (t), dos funciones definidas para −∞ < t < ∞, cuyas trans-
formadas de Fourier son Y1 ( ω) e Y2 ( ω), respectivamente. Entonces, la trans-
formada de Fourier de la convolución entre ellas es

F{y1 (t) ∗ y2 (t)} = Y1 ( ω)Y2 ( ω) (C.13)


Recordando que la convolución se define como:
Z ∞
y1 (t) ∗ y2 (t) = y1 (τ )y2 (t − τ )dτ (C.14)
−∞

Demostración
Insertando la expresión de la convolución en la transformada se obtiene

Z ∞ Z ∞ 
F{y1 (t) ∗ y2 (t)} = y1 (τ )y2 (t − τ )dτ e− ωt dt
−∞ −∞

donde si se intercambia el orden de integración


Z ∞ Z ∞ 
F{y1 (t) ∗ y2 (t)} = y1 (τ ) y2 (t − τ )e− ωt dt dτ
−∞ −∞

Que usando la ecuación (C.4) es igual a


Z ∞ 
F{y1 (t) ∗ y2 (t)} = y1 (τ ) e− ωτ Y2 ( ω) dτ
−∞
Z ∞
= Y2 ( ω) y1 (τ )e− ωτ dτ
−∞
= Y2 ( ω)Y1 ( ω)

222

Veamos a continuación cuál es la transformada de Fourier de un producto de


funciones que puede resultar útil para el calculo de la transformada de Fourier
de alguna función más complicada.

Lema C.8. Producto de funciones.


Sean y1 (t) e y2 (t) funciones definidas para −∞ < t < ∞, cuyas transfor-
madas de Fourier son Y1 ( ω) e Y2 ( ω), respectivamente. Entonces, la transfor-
mada de Fourier del producto entre ellas es

1
F{y1 (t)y2 (t)} = Y1 ( ω) ∗ Y2 ( ω) (C.15)

372 APÉNDICE C. LA TRANSFORMACIÓN DE FOURIER

Demostración
Consideremos la transformada de Fourier inversa de la convolución de fun-
ciones en ω

Z ∞
1
F −1 {Y1 ( ω) ∗ Y2 ( ω)} = Y1 ( ω) ∗ Y2 ( ω)e ωt dω
2π −∞
Z ∞ Z ∞ 
1
= Y1 (jζ)Y2 ( ω − jζ)dζ e ωt dω
2π −∞ −∞

Intercambiando el orden de integración


Z ∞ Z ∞ 
1
F −1 {Y1 ( ω) ∗ Y2 ( ω)} = Y1 (jζ) Y2 ( ω − jζ)e ωt dω dζ
2π −∞ −∞

Donde si se define  ω − jζ =  ω ∗
Z ∞ Z ∞ 
−1 1 ∗ ( ω ∗ +jζ)t ∗
F {Y1 ( ω) ∗ Y2 ( ω)} = Y1 (jζ) Y2 ( ω )e dω dζ
2π −∞ −∞
 Z ∞  Z ∞ 
1 jζt 1 ∗ jω ∗ t ∗
= 2π Y1 (jζ)e dζ Y2 ( ω )e dω
2π −∞ 2π −∞
= 2πy1 (t)y2 (t)

Con lo que el lema queda demostrado.


222

Teorema C.1 (Teorema de Parseval. El caso de tiempo continuo). Sean


Y1 ( ω) y Y2 ( ω) las tranformadas de Fourier de las funciones (reales) y1 (t) e
y2 (t) respectivamente, definidas ∀t ∈] − ∞, ∞[. En tonces tenemos que
Z ∞ Z ∞
1
y1 (t)y2 (t)dt = Y1 ( ω)Y2 (− ω)dω (C.16)
−∞ 2π −∞

Demostración
Esto se demuestra con ayuda del lema de convolución en el tiempo (C.13).
Según este tenemos que

y1 (t) ∗ y2 (t) = F −1 {Y1 ( ω)Y2 ( ω)}


Z ∞ Z ∞
1
y1 (τ )y2 (t − τ )dτ = Y1 ( ω)Y2 ( ω)e ωt dω
−∞ 2π −∞
C.1. TRANSFORMACIÓN DE FOURIER EN TIEMPO CONTINUO 373

Si evaluamos en t = 0, queda
Z ∞ Z ∞
1
y1 (τ )y2 (−τ )dτ = Y1 ( ω)Y2 ( ω)dω
−∞ 2π −∞

Donde si se reemplaza al lado izquierdo τ por t, y usamos la ecuación (C.8)


que establece que F {y2 (−t)} = Y2 (− ω), entonces queda demostrado el lema.

222

Corollario C.4. Un caso especial del lema anterior es cuando se considera


y1 (t) = y2 (t) = y(t), con lo que la ecuación (C.16) se transforma en
Z ∞ Z ∞
2 1
{y(t)} dt = Y ( ω)Y (− ω)dω
−∞ 2π −∞
Pero dado que Y (− ω) es el complejo conjugado de Y ( ω), el integrando a
la derecha es la norma cuadrado de la transformada, es decir
Z ∞ Z ∞
2 1 2
{y(t)} dt = |Y ( ω)| dω (C.17)
−∞ 2π −∞

En la tabla C.1 se muestra un resumen de las propiedades hasta aquı́ re-


visadas y que sirven para el calculo de la transformada de Fourier de las fun-
ciones más comunes, como las que se muestran en la tabla C.2
374 APÉNDICE C. LA TRANSFORMACIÓN DE FOURIER

C.2.
transformada de Fourier discreta
transformada de Fourier discreta inversa
Transformada de Fourier en tiempo discre-
to
C.2.1. Definición de la transformada
Dada una función definida en tiempo discreto y[k] , en que k ∈ Z , su
transformada de Fourier discreta Y (ejθ ) y su transformada de Fourier discreta
inversa quedan definidas por las ecuaciones


X
Fd {y(t)} = Y (ejθ ) = y[k]e−jθk (C.18)
k=−∞
Z 2π
−1
 1
Fd Y (ejθ ) = y[k] = Y (jθ)ejθk dθ (C.19)
2π 0

La transformada Y (ejθ ) definida en (C.18) resulta ser periódica, de perı́odo


2π, por tanto la integral que define la transformada inversa (C.19), puede cal-
cular en cualquier intervalo de longitud 2π. De hecho, algunos textos la definen
en el intervalo [−π, π]
Para que la transformada exista es suficiente que la función y[k] sea absolu-
tamente sumable en el intervalo −∞ < k < ∞, es decir:


X
y[k] < ∞
k=−∞

Si bien existen funciones que no cumplen con esta condición, a pesar de ello
poseen transformada de Fourier discreta.
A continuación se muestran algunos ejemplos para ver cómo se obtiene la
transformada de Fourier discreta para un delta de Kronecker, para una secuencia
constante y para una exponencial decreciente discreta.

Ejemplo C.8. Consideremos primero la secuencia


(
1 ;k = 0
y[k] = δK [k] =
0 ; k 6= 0

Es decir, un delta de Kronecker . Esta secuencia es absolutamente sum-


able, por tanto se cumple la condiciójn suficiente para la existencia de su trans-
formada discreta. Si calculamos ésta usando la definición tenemos que la serie
infinita se traduce en un solo término
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 375


X
Y (ejθ ) = δK [k]e−jθk
k=−∞

= δK [0]e−jθ0
=1

Es decir, su transformada de Fourier discreta es constante. Podemos inter-


pretar esto de manera análoga al delta de Dirac en tiempo continuo, cuya trans-
formada también es constante y representa un espectro plano, o igual contenido
de frecuencias en todo el espectro.
Ejemplo C.9. Consideremos ahora el caso opuesto en que tenemos una se-
cuencia constante que se escoge de amplitud uno por simplicidad. Es decir, la
secuencia que nos interesa es

y[k] = 1 ∀k ∈ Z

Esta secuencia no es absolutamente sumable, ya que



X
→∞
k=−∞

Sin embargo, si usamos la definición de la transformada tenemos que



X
Y (ejθ ) = 1 · e−jθk
k=−∞

En que la serie al lado derecho podemos interpretarla como una representación


en serie exponencial de Fourier de alguna función periódica, en que el coeficiente
es Ck = 1 , para todo k. Si recordamos, el coeficiente Ck en una serie de Fourier
exponencial para una función periódica f (θ) se calcula como

Z T
1 2 2π
Ck = f (θ)ej T kθ
T − T2

Con lo que la función se expresa como



X 2π
f (θ) = Ck · e−j T kθ

k=−∞

De aquı́ podemos observar que el perı́odo de la función periódica debe ser


T = 2π, y para que la integral que define a Ck sea unitaria basta que la función,
dentro del intervalo [−π, π] sea un delta Dirac de amplitud 2π, centrado en
θ = 0.
376 APÉNDICE C. LA TRANSFORMACIÓN DE FOURIER

Es decir, la transformada de Fourier discreta de la secuencia constante


y[k] = 1 es igual a

X
Y (ejθ ) = 2π δ(θ − 2πn)
n=−∞

Esto se puede comprobar calculando la transformada de Fourier discreta in-


versa, mediante la integral (C.19), que dada la periodicidad basta calcularla en
cualquier intervalo de longitud 2π
Z π
1
y[k] = Y (ejθ )ejθk dθ
2π −π
Z π ∞
1 X
= 2π δ(θ − 2πn)ejθk dθ
2π −π n=−∞
Z π
= δ(θ)ejθk dθ
−π
=1 ∀k ∈ Z

Ejemplo C.10. Consideremos ahora la señal

y[k] = αk µ[k] |α| < 1

Su transformada de Fourier discreta será


X
Y (ejθ ) = αk e−jθk
k=0
X∞
= (αe−jθ )k
k=0

Que resulta ser una serie geométrica convergente ya que |αe −jθ | < 1. Por
tanto su suma es

1
Y (ejθ ) =
1 − αe−jθ

C.2.2. Propiedades de la transformada de Fourier discreta


A continuación se detallan una serie de propiedades de la transformada de
Fourier discreta que resultan útiles para la obtención de algunas transformadas
y para el análisis de sistemas.
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 377

Lema C.9. Linealidad


La transformada de Fourier discreta es una transformación lineal, es decir,
si y1 [k] e y2 [k] son dos secuencias definidas ∀k ∈ Z, cuyas transformadas de
Fourier son Y1 (ejθ ) e Y2 (ejθ ) respectivamente, entonces

Fd {αy1 [k] + βy2 [k]} = αY1 (ejθ ) + βY2 (ejθ ) (C.20)

Demostración
Es directa de la definición de la transformada (C.18), ya que


X
Fd {αy1 [k] + βy2 [k]} = (αy1 [k] + βy2 [k])e−jθk
k=−∞
X∞ ∞
X
=α y1 [k]e−jθk + β y2 [k]e−jθk
k=−∞ k=−∞

= αY1 (ejθ ) + βY2 (ejθ )

222

Lema C.10. Corrimiento en el tiempo.


Sea y[k] una secuencia de tiempo discreto definida ∀k ∈ Z, cuya transfor-
mada de Fourier es Y (ejθ ) , y sea k0 un número entero, entonces

Fd {y[k − k0 ]} = e−jθk0 Y (ejθ ) k0 ∈ Z (C.21)

Demostración
Consideremos la definición de la transformada (C.18), y tomemos k0 ∈ Z,
entonces


X
Fd {y[k − k0 ]} = y[k − k0 ]e−jθk
k=−∞

Sea k − k0 = l, entonces k = l + k0 y reemplazando en la sumatoria


X
Fd {y[k − k0 ]} = y[l]e−jθ(l+k0 )
l=−∞

X
= e−jθk0 y[l]e−jθl
l=−∞
−jθk0
=e Y (ejθ )
378 APÉNDICE C. LA TRANSFORMACIÓN DE FOURIER

222

Lema C.11. Corrimiento en frecuencia.


Sea y[k] una secuencia de tiempo discreto definida ∀k ∈ Z, con transformada
Y (ejθ ) , y sea 0 < θ0 < 2π un número real, entonces consideremos la transfor-
mada de la secuencia original multiplicada por una exponencial periódica

Fd ejθ0 k y[k] = Y (ej(θ−θ0 ) ) (C.22)

Demostración
Para demostrar la propiedad anterior podemos considerar directamente la
definición (C.18)


X

Fd ejθ0 k y[k] = ejθ0 k y[k]e−jθk
k=−∞
X∞
= y[k]e−j(θ−θ0 )k
k=−∞

Sea θ − θ0 = ζ, entonces reemplazando



X

Fd ejθ0 k y[k] = y[k]e−jζk
k=−∞

= Y (ejζ )
= Y (ej(θ−θ0 ) )

Note que si la frecuencia θ0 ∈


/ ]0, 2π[ , es decir, se encuentra fuera de la banda
que hemos considerado hasta ahora, siempre puede escribirse de la forma

θ0 = ϑ0 + 2πn

En que ϑ0 ∈ ]0, 2π[ y n ∈ Z, con lo que

ejθ0 = ej(ϑ0 +2πn) = ejϑ0 e2πn = ejϑ0


Recordemos que es justamente por esto que a la exponencial periódica e j(·)
le hemos denominado también exponencial periódica. 222
Para ilustrar esto veamos un ejemplo
Ejemplo C.11. Considere la secuencia de tiempo discreto
 

y[k] = cos k
10
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 379

Para calcular su transformada de Fourier discreta, en vez de usar la defini-


ción podemos utilizar la propiedad (C.22), ya que el coseno puede escribirse en
términos de exponenciales
  2π 2π
2π ej 10 k + e−j 10 k
y[k] = cos k =
10 2
Ambas exponenciales periódicas las podemos pensar como la secuencia con-
stante y0 [k] = 1 multiplicada por la respectiva exponencial periódica. Es ası́ como
bajo este punto de vista la transformada de Fourier discreta se puede obtener
en unos pocos pasos

  
2π 1 n j 2π k o 1 n −j 2π k o
Fd cos k = Fd e 10 + Fd e 10
10 2 2
∞ ∞
1 X 2π 1 X 2π
= 2π δ(θ − + 2πn) + 2π δ(θ + + 2πn)
2 n=−∞ 10 2 n=−∞ 10
∞ ∞
X 2π X 2π
=π δ(θ − + 2πn) + π δ(θ + + 2πn)
n=−∞
10 n=−∞
10

Si restringimos la expresión de la transformada a la banda que nos ha in-


teresado, es decir, θ ∈ [0, 2π], tenemos que en ella sólo existen dos de los deltas
de Dirac
  
2π 2π 18π
Fd cos k = πδ(θ − ) + πδ(θ − )
10
0<θ<2π 10 10

2
1.5

1.8

1
1.6

1.4
0.5
1.2
Y(e )

1
y[k]

0.8

−0.5
0.6

0.4
−1

0.2

−1.5 0
−15 −10 −5 0 5 10 15 0 1 2 3 4 5 6
k θ

Figura C.5: Señal cosenoidal y[k] y su transformada discreta.

En la figura C.5, se muestra la secuencia periódica discreta y su espectro, es


decir, su transformada de Fourier discreta, formada por los dos deltas de Dirac
en el intervalo [0, 2π].
380 APÉNDICE C. LA TRANSFORMACIÓN DE FOURIER

Como consecuencia del lema anterior, que expresa el corrimiento en frecuen-


cia que sufre el espectro de una secuencia discreta al ser multiplicado por una
exponencial periódica tenemos el siguiente corolario. Este determina el efecto
que tiene sobre la transformada de Fourier discreta el modular una secuencia
por alguna sinusoidal.
Corollario C.5. Sea y[k] una secuencia discreta definida para −∞ < k < ∞
con transformada Y (ejθ ), y 0 < θ0 < 2π un número real. Entonces
1h i
Fd {cos(θ0 k)y[k]} = Y (ej(θ+θ0 + Y (ej(θ−θ0 ) (C.23)
2
j h i
Fd {sen(θ0 k)y[k]} = Y (ej(θ+θ0 − Y (ej(θ−θ0 ) (C.24)
2

Demostración
Como se mencionó anteriormente resulta de la aplicación del lema anterior,
ya que tanto cos(θ0 k) como sen(θ0 k) pueden escribirse en términos de exponen-
ciales periódicas.
Consideremos la ecuación (C.23):

 
ejθ0 k + e−jθ0 k
Fd {cos(θ0 k)y[k]} = Fd y[k]
2
1  jθ0 k 1 
= Fd e y[k] + Fd e−jθ0 k y[k]
2 2
1h j(θ−θ0
i
= Y (e + Y (ej(θ+θ0 )
2
La demostración de (C.24) resulta análoga, por lo tanto se deja como ejercicio
para el lector. 222

Lema C.12. Inversión temporal.


Sea y[k] una secuencia de tiempo discreto definida ∀k ∈ Z, con transformada
Y (ejθ ). Consideremos la transformada de la secuencia original invertida en el
tiempo, es decir

Fd {y[−k]} = Y (e−jθ ) (C.25)

Demostración
Para demostrar la propiedad usamos la ecuación (C.18), que define la trans-
formada de Fourier discreta de una secuencia


X
Fd {y[−k]} = y[−k]e−jθk
k=−∞
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 381

Sea l = −k, entonces


X
Fd {y[−k]} = y[l]e−jθ(−l)
l=−∞
X∞
= y[l]e−j(−θ)l
l=−∞

= Y (e−jθ )

222

Corollario C.6. Note que si la secuencia y[k] está compuesta sólo por valores
reales, entonces
Fd {y[−k]} = Y ∗ (e−jθ ) (C.26)
En que (·)∗ denota al complejo conjugado de (·)

Demostración
Se deja como ejercicio al lector. 222

En base a las propiedades ya anlizadas estamos en condiciones de ver el


siguiente ejemplo.

Ejemplo C.12. Veamos como obtener ahora la transformada de Fourier disc-


reta de un escalón unitario en tiempo discrto, es decir, de la secuencia
(
0 ;k < 0
y[k] = µ[k] =
1 ;k ≥ 0

Para esto podemos apreciar que si definimos la secuencia

x[k] = µ[k] − µ[k − 1]


(
1 ;k = 0
=
0 ; k 6= 0

Es decir, resulta ser un delta de Kronecker. Esto también es válido, sin


embargo, si al escalón µ[k] se le suma alguna constante, es decir

x[k] = µ[k] + C
⇒ x[k] − x[k − 1] = δK [k]

Si aplicamos transformada de Fourier discreta a ambas ecuaciones anteriores


y utilizamos la propiedad de corrimiento en k
382 APÉNDICE C. LA TRANSFORMACIÓN DE FOURIER


X

X(e ) = Fd {µ[k]} + C2π δ(θ − 2πn)
n=−∞

X(ejθ ) − e−jθ X(ejθ ) = 1

De ambas ecuaciones se puede eliminar X(ejθ ) y despejar la transformada


que nos interesa

1 X
Fd {µ[k]} = − C2π δ(θ − 2πn)
1 − e−jθ n=−∞

Donde hemos obtenida la forma de la transformada del escalón unitario dis-


creto. Para obtener el valor de la constante C, podemos escribir el mismo escalón
como

µ[k] = 1 − µ[−k] + δK [k]


Donde podemos aplicar la transformada utilizando la forma de Fd {µ[k]}
obtenida, la propiedad de simetrı́a temporal, y las transformadas del delta de
Kronecker y la constante, antes obtenidas.

 
1 1
− C · S(θ) = S(θ) − − C · S(−θ) +1
1 − e−jθ 1 − ejθ

En que

X
S(θ) = 2π δ(θ − 2πn)
n=−∞

Donde podemos apreciar que S(θ) es simétrica respecto a θ = 0, por lo tanto

−1 −1
−C · 2S(θ) = S(θ) + + +1
1 − ejθ 1 − e−jθ
| {z }
0
−C · 2S(θ) = S(θ)
1
C=−
2
Luego, la transformada de Fourier discreta del escalón µ[k] es

1 X
Fd {µ[k]} = + π δ(θ − 2πn)
1 − e−jθ n=−∞
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 383

Lema C.13. Sea y[k] una secuencia de tiempo discreto definida ∀k ∈ Z, cuya
transformada es Y (ejθ ). Consideremos ahora la secuencia k · y[k], su transfor-
mada, sólo en el caso que exista, es igual a

d Y (ejθ )
Fd {k · y[k]} = j (C.27)

Demostración

Se debe tener cuidado al aplicar esta propiedad, pues no garantiza la


existencia de la transformada de k · y[k].
En caso de existir, podemos aplicar la transformada de Fourier inversa, us-
ando la ecuación (C.19) :

  Z 2π
−1 d Y (ejθ ) 1 d Y (ejθ ) jθk
Fd j = j e dθ
dθ 2π 0 dθ

Donde se puede integrar por partes, eligiendo convientemente :

  Z 2π
−1 d Y (e−jθ ) j d Y (ejθ )
Fd j = ejθk

dθ 2π 0 dθ
j jθk 2π j Z 2π
e Y (ejθ ) − Y (ejθ )jkejθk dθ

=
2π | {z 0
} 2π 0
0
2 Z 2π
−j
= k Y (ejθ )ejθk dθ
2π 0
Z 2π
1
=k· Y (ejθ )ejθk dθ
2π 0
| {z }
y[k]

222

Ejemplo C.13. Calculemos la transformada de Fourier discreta de la secuencia

y[k] = kαk µ[k] |α| < 1

Podemos aplicar la propiedad recién vista dado que conocemos la transfor-


mada de αk µ[k]. De esta forma, tenemos que:
384 APÉNDICE C. LA TRANSFORMACIÓN DE FOURIER


 k d Fd αk µ[k]

Fd kα µ[k] = j
 dθ 
d 1
=j
dθ 1 − αe−jθ
−1
=j· · (jαe−jθ )
(1 − αe−jθ )2
αe−jθ
=
(1 − αe−jθ )2

2 5

1.8 4.5

1.6 4

1.4 3.5

1.2 3

Y(e )

y[k]

1 2.5

0.8 2

0.6 1.5

0.4 1

0.2 0.5

0 0
−5 0 5 10 15 20 25 0 1 2 3 4 5 6
k θ

Figura C.6: Secuencia y[k] = k(0,8)k µ[k] y la magnitud de su TFD.

En la figura C.6 se muestra la secuencia discreta y el módulo de su trans-


formada discreta, cuando α = 0,8

Lema C.14. Convolución en tiempo discreto


Sean y1 [k] e y2 [k] dos secuencias definidas ∀k ∈ Z, cuyas transformadas
de Fourier son Y1 (ejθ ) e Y2 (ejθ ) respectivamente, entonces la transformada de
Fourier discreta de la convolución es :

Fd {y1 [k] ∗ y2 [k]} = Y1 (ejθ )Y2 (ejθ ) (C.28)

Demostración
Recordemos en primer lugar que la convolución de dos secuencias de tiempo
discreto y1 [k] e y2 [k] se define como :

X
y1 [k] ∗ y2 [k] = y1 [l]y2 [k − l]
l=−∞
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 385

Usando esta expresión en la definición (C.18) tenemos que :


∞ ∞
!
X X
Fd {y1 [k] ∗ y2 [k]} = y1 [l]y2 [k − l] e−jθk
k=−∞ l=−∞
Donde se pueden intercambiar las sumatorias y usar la propiedad de corrim-
iento en el tiempo discreto k :

∞ ∞
!
X X
−jθk
Fd {y1 [k] ∗ y2 [k]} = y1 [l] y2 [k − l]e
l=−∞ k=−∞
X∞
= y1 [l]e−jθl Y2 (ejθ )
l=−∞

X
= Y2 (ejθ ) y1 [l]e−jθl
l=−∞

= Y2 (e )Y1 (ejθ )

222

Lema C.15. Producto en el tiempo discreto


Sean y1 [k] e y2 [k] dos secuencias definidas ∀k ∈ Z, cuyas transformadas
de Fourier son Y1 (ejθ ) e Y2 (ejθ ) respectivamente, entonces la transformada de
Fourier discreta del producto de ellas es :
Z 2π
1
Fd {y1 [k]y2 [k]} = Y1 (ejζ )Y2 (ej(θ−ζ) )dζ (C.29)
2π 0

Demostración
Reemplazando el producto de las secuencias en la definición (C.18) tenemos
que :

X
Fd {y1 [k]y2 [k]} = y1 [k]y2 [k]e−jθk
k=−∞

Aqui podemos escribir una de las secuencias según la ecuación (C.19) que
la expresa como la transformada de Fourier inversa. Con esto e intercambiando
de orden la sumatoria con la integral que aparece tenemos que :

∞  Z 2π 
X 1
Fd {y1 [k]y2 [k]} = Y1 (ejζ )ejζk dζ y2 [k]e−jθk
2π 0
k=−∞
Z 2π ∞
!
1 jζ
X
jζk
 −jθk
= Y1 (e ) e y2 [k] e dζ
2π 0
k=−∞
386 APÉNDICE C. LA TRANSFORMACIÓN DE FOURIER

Donde si usamos la propiedad de corrimiento en frecuencia tenemos que


Z 2π
1
Fd {y1 [k]y2 [k]} = Y1 (ejζ )Y1 (ej(θ−ζ) )dζ
2π 0

222

Teorema C.2 (Teorema de Parseval. El caso de tiempo discreto). Sean


y1 [k] e y2 [k] dos secuencias reales definidas ∀k ∈ Z, cuyas transformadas de
Fourier son Y1 (ejθ ) e Y2 (ejθ ) respectivamente, entonces se cumple que:
∞ Z 2π
X 1
y1 [k]y2 [k] = Y1 (ejθ )Y2∗ (ejθ )dθ (C.30)
2π 0
k=−∞

En que (·)∗ denota el complejo conjugado de (·).

Demostración
En el lado izquierdo de la ecuación (C.30) podemos reemplazar y1 [k], uti-
lizando la definición de la transformada de Fourier discreta inversa dada por la
expresión (C.19) :
∞ ∞  Z 2π 
X X 1
y1 [k]y2 [k] = Y1 (ejθ )ejθk dθ y2 [k]
2π 0
k=−∞ k=−∞

Aqui podemos intercambiar el orden entre la integral y la sumatoria, para


luego formar una expresión que corresponda a la transformada de y 2 [k] como se
aprecia a continuación :

∞ Z ∞
!

X 1 X
y1 [k]y2∗ [k] = Y1 (ejθ ) y2∗ [k]ejθk dθ
2π 0
k=−∞ k=−∞
Z ∞
!∗

1 X
= Y1 (ejθ ) y2 [k]e−jθk dθ
2π 0 k=−∞
Z 2π
1
= Y1 (ejθ )Y2∗ (ejθ )dθ
2π 0

222

Corollario C.7. Si y[k] es una secuencia discreta definida ∀k ∈ Z, con trans-


formada Y (ejθ ), entonces se cumple que:
∞ Z 2π
X 1
| y[k] |2 = | Y (ejθ ) |2 dθ (C.31)
2π 0
k=−∞
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 387

Demostración
Es directa de la ecuación (C.30) ya que

y[k] y ∗ [k] = | y[k] |2


Y (ejθ )Y ∗ (ejθ ) = | Y (ejθ ) |2

222
388 APÉNDICE C. LA TRANSFORMACIÓN DE FOURIER

f (t) F {f (t)} Descripción

l
X l
X
ai yi (t) ai Yi ( ω) Linealidad
i=1 i=1

dy(t)
 ωY ( ω) Derivación
dt
dk y(t)
( ω)k Y ( ω) Derivadas superiores
dtk
Z t
1
y(τ )dτ Y ( ω) + πY (0)δ(ω) Integración
−∞ ω

y(t − τ ) e− ωτ Y ( ω) Retardo

1  ω
y(at) Y j Escalamiento temporal
|a| a

y(−t) Y (− ω) Inversión temporal


Z ∞
y1 (τ )y2 (t − τ )dτ Y1 ( ω)Y2 ( ω) Convolución
−∞

eat y1 (t) Y1 ( ω − a) Desplazamiento en frecuencia

1
y(t) cos(ωo t) {Y ( ω −  ωo ) + Y ( ω +  ωo )} Modulación (cosenoidal)
2
1
y(t) sen(ωo t) {Y ( ω −  ωo ) − Y ( ω +  ωo )} Modulación (senoidal)
j2

Y (t) 2πy(− ω) Simetrı́a


Z ∞
1
y1 (t)y2 (t) Y1 (jζ)Y2 ( ω − jζ)dζ Producto en el tiempo
2π −∞

Cuadro C.1: Propiedades de la transformada de Fourier.


C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 389

f (t) ∀t ∈ R F {f (t)}

1 2πδ(ω)

δD (t) 1

1
µ(t) πδ(ω) +
ω
1 − e− ωto
µ(t) − µ(t − to )
ω
1
e−αt µ(t) <{α} ∈ R+
ω − α
1
te−αt µ(t) <{α} ∈ R+
( ω − α)2

e−α|t| α ∈ R+
ω2 + α2

cos(ωo t) π (δ(ω + ωo ) + δ(ω − ωo ))

sen(ωo t) jπ (δ(ω + ωo ) − δ(ω − ωo ))

π ω
cos(ωo t)µ(t) (δ(ω + ωo ) + δ(ω − ωo )) +
2 −ω 2 + ωo2
jπ ωo
sen(ωo t)µ(t) (δ(ω + ωo ) − δ(ω − ωo )) +
2 −ω + ωo2
2

ω + α
e−αt cos(ωo t)µ(t) α ∈ R+
( ω + α)2 + ωo2
ωo
e−αt sen(ωo t)µ(t) α ∈ R+
( ω + α)2 + ωo2

Cuadro C.2: Tabla de tranformadas de Fourier


390 APÉNDICE C. LA TRANSFORMACIÓN DE FOURIER

y[k] , k ∈ Z Fd {y[k]} = Y (ejθ ) Descripción

l
X l
X
αi yi [k] αi Yi (ejθ ) Linealidad
i=1 i=1

y[−k] Y (e−jθ ) Inversión temporal

y[k − k0 ] , k0 ∈ Z e−jθk0 Y (ejθ ) Corrimiento temporal

ejθ0 k y[k] Y (ej(θ−θ0 ) ) Corrimiento en frecuencia

1h i
cos(θ0 k)y[k] Y (ej(θ+θ0 ) + Y (ej(θ−θ0 ) Modulación cosenoidal
2
jh i
sen(θ0 k)y[k] Y (ej(θ+θ0 ) − Y (ej(θ−θ0 ) Modulación senoidal
2
d Y (ejθ )
ky[k] j


X
y1 [l]y2 [k − l] Y1 (ejθ )Y2 (ejθ ) Convolución
l=−∞
Z 2π
1
y1 [k]y2 [k] Y1 (ejζ )Y2 (ej(θ−ζ) )dζ Producto en el tiempo
2π 0
∞ Z 2π
X 1
y1 [k]y2∗ [k] Y1 (ejθ )Y2∗ (ejθ )dθ Teorema de Parseval
2π 0
k=−∞
∞ Z 2π
X 1
| y[k] |2 | Y (ejθ ) |2 dθ Teorema de Parseval
2π 0
k=−∞

Cuadro C.3: Propiedades de la transformada de Fourier discreta.


C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 391

y[k] ∀t ∈ R Fd {y[k]} = Y (ejθ )

δK [k] 1

δK [k − k0 ] e−jθk0

X
1 (∀k ∈ Z) 2π δ(θ − 2πn)
n=−∞

1 X
µ[k] + π δ(θ − 2πn)
1 − e−jθ n=−∞

1
αk µ[k] (|α| < 1)
1 − αe−jθ
1
(k + 1)αk µ[k] (|α| < 1)
(1 − αe−jθ )2

X
ejθ0 k 2π δ(θ − θ0 + 2πn)
n=−∞

X
cos(θ0 k) π [δ(θ + θ0 + 2πn) + δ(θ − θ0 + 2πn)]
n=−∞
X∞
sen(θ0 k) jπ [δ(θ + θ0 + 2πn) − δ(θ − θ0 + 2πn)]
n=−∞

X  
cos(θ0 k + φ) π e−jφ δ(θ + θ0 + 2πn) + ejφ δ(θ − θ0 + 2πn)
n=−∞

sen(θc k) X
Y0 (ej(θ+2πn) )
πk n=−∞
(
1 ; |θ| < θc
Y0 (ejθ ) =
0 ; θc < |θ| ≤ π
( 
2N +1
0 ; |k| ≤ N sen 2 θ
y[k] =
1 ; |k| > N sen 21 θ
αe−jθ
kαk µ[k] (|α| < 1)
(1 − αe−jθ )2

Cuadro C.4: Tabla de tranformadas de Fourier discretas


392 APÉNDICE C. LA TRANSFORMACIÓN DE FOURIER

C.2.3. Aspecto práctico: la transformada rápida de Fouri-


er
En las aplicaciones, en particular en el procesamiento digital de señales, no
se conoce la señal en forma analı́tica, sino que como una secuencia finita de
valores numéricos. Lo mismo ocurre en otras aplicaciones, como en el proce-
sameinto de imágenes, en donde la variable independiente puede ser una (o
más) coordenada(s) espacial(es).
Dado que la información es una secuencia, la descripción de la señal en el
dominio de la frecuencia sólo puede ser lograda a través de la Transformada
discreta de Fourier. Sin embargo, el cálculo de ésta sólo puede ser aproximado,
puesto que la señal está definida por un número finito de valores.
De esta forma, un problema central en la calidad de la aproximación guarda
relación con la medida en que la señal truncada representa las caracterı́sticas
espectrales de la señal a analizar. En este caso, estamos obteniendo una serie
de Fourier discreta que representa al tramo considerado de la secuencia y[k].
Recordemos que según lo visto en el capı́tulo anterior sobre series, al calcular
la serie de Fourier discreta de una secuencia de largo N , obtenemos una repre-
sentación en términos de N exponenciales complejas de frecuencias 0 ≤ θ < 2π,
que resulta ser periódica. De esta forma, dada una secuencia y[k] de longitud N ,
que puede provenir de una señal de tiempo continuo muestreada cada ∆[seg], es
decir, y[k] = y(t = k∆), podemos representarla como una suma de exponenciales
complejas
N −1
X 2π
y[k] = Cn ejθo nk ; donde θo = (C.32)
n=0
N
donde
N −1
1 X
Cn = y[k]e−jθo nk (C.33)
N
k=0

Usualmente se define

WN = ejθo = ej N (C.34)
y la función
N
X −1
Hn = N · C n = y[k]WN−nk (C.35)
k=0

Con lo que la función se puede describir en términos de los Hn según


N −1
1 X
y[k] = Hn WNnk (C.36)
N n=0

A este par de ecuaciones, (C.35) y (C.36) se le denomina en muchos libros


como la Transformación de Fourier Discreta1 y su inversa, por tanto debe tenerse
1 Discrete Fourier Transform o DFT
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 393

precaución al consultar la literatura para evitar confusión con la denominación transformada rápida
de Fourier
que hemos usado en este texto.
Si se observa la ecuación (C.35) ésta puede entenderse como un producto
matricial en que el vector Hn es igual al producto de la matriz {WN }n,k =
{WN−nk } por el vector y[k]. Es decir
   −0·(N −1)
 
H0 WN−0·0 WN−0·1 ... WN y[0]
−1·(N −1)  
 H1  
   WN−1·0 WN−1·1 ... WN   y[1]  
 ..  =   . . . .  .. 
 .   .. .. .. .. 
 . 
HN −1 WN
−(N −1)·0 −(N
WN
−1)·1 −(N
. . . WN
−1)(N −1) y[N − 1]
(C.37)
Hacer el producto matricial el lado derecho de la ecuación anterior implica
N 2 multiplicaciones complejas, además de las sumas respectivas para el cálculo
de cada Hn . También se requieren algunas operaciones más para el cálculo de
las potencias de WN . Es decir, podemos apreciar que el cálculo de la DFT es
un proceso O(N 2 ) 2 .
Sin embargo, la matriz involucrada en (C.37) está formada por potencias de

WN = ej N , por tanto todos sus componentes son alguna de las raı́ces N -ésimas
de la unidad, distribuida en torno a la circunferencia unitaria. Esta simetrı́a de
hecho es el camino para reducir el número de cálculos necesarios para el cálculo
de la DFT. Los algoritmos que hacen uso de estas simetrı́as se comenzaron a
desarrollar más fuertemente a partir de mediados de los años 60 y reciben el
nombre genérico de transformada rápida de Fourier o FFT por su denom-
inación en inglés3 .
Para maximizar el aprovechamiento de las simetrı́as es conveniente elegir
secuencias y[k] cuyo largo se una potencia de 2, es decir:
N = 2v para algun v ∈ Z+ (C.38)
Esto no implica perder generalidad, pues en los casos en que no pueden
tomarse más valores de la secuencia original podemos completar con ceros hasta
la potencia de 2 más cercana (aunque ello significa la introducción de un grado
variable de inexactitud).
Consideremos la forma en que se calcula el coeficiente Hn , según la ecuación
(C.35). Si tenemos una secuencia de longitud N par, podemos separarla en una
que contenga los valores de y[k] cuando k es par y otra para los k impares. Es
decir:

N
X −1
Hn = y[k]WN−nk (C.39)
k=0
N/2−1 N/2−1
X −n(2r)
X −n(2r+1)
= y[2r]WN + y[2r + 1]WN (C.40)
r=0 r=0
2 Del orden de N 2 , es decir, si se duplica N el número de cálculos se ¡ cuadruplica !
3 Fast Fourier Transform.
394 APÉNDICE C. LA TRANSFORMACIÓN DE FOURIER

Pero podemos apreciar que las nuevas secuencias, y[2r] e y[2r + 1], son
secuencias de largo N/2, por lo que podrı́a escribirse las sumatorias como la
serie de Fourier discreta modificada que les corresponde. Justamente esto sucede
en forma natural al observar que
−n(2r) 2π 2π
WN = e−j N n(2r) = e−j N/2 nr = WN/2
−nr
(C.41)
Es decir, en la sumatoria aparecen las armónicas para secuencias de longitud
N/2. Con esta observación la expresión para Hn queda

N/2−1 N/2−1
X −n(2r)
X −n(2r)
Hn = y[2r]WN + y[2r + 1]WN WN−n (C.42)
r=0 r=0
N/2−1 N/2−1
X X
−nr
= y[2r]WN/2 + WN−n −nr
y[2r + 1]WN/2 (C.43)
r=0 r=0
= Hnpar + WN−n Hnimpar (C.44)

Como antes mencionamos, para calcular los términos Hn para una secuencia
de longitud N por el método directo, se requieren del aproximadamente N 2
multiplicaciones complejas en el producto matricial (C.37). Análogamente para
calcular cada uno de los términos Hnpar y Hnimpar , que corresponden a secuencias
de largo N/2, requeriremos (N/2)2 multiplicaciones complejas para cada uno.
Y para poder formar cada uno de los N términos Hn requerimos una única
multiplicación compleja más, según (C.44).
Es importante hacer notar que dado que las secuencias y[2r] e y[2r + 1] son
−nr
N/2 periódicas en r, sus armónicas WN/2 , también lo son:

−(l+N/2) 2π 2π 2π
WN/2 = e−j N/2 (l+N/2) = e−j N/2 l e−j2π = e−j N/2 l = WN/2
−l
(C.45)

Aplicando este nuevo enfoque para la secuencia de largo N necesitamos


 2
N
N +2 ≤ N2 ∀N ≥ 2 (C.46)
2
Sin embargo, y he aquı́ la facilidad que entrega el suponer que N es una
potencia de 2, las secuencias y[2r] e y[2r + 1], tienen longitud par (N/2 también
será potencia de 2), por tanto podemos aplicarles este mismo método. Es decir,
cada una puede separarse en dos subsecuencias de longitud N/4. Con esto el
número de cálculos necesarios serı́an
 2 !  2
N N N
N +2 +2 =N +N +4 (C.47)
2 4 4
Y ası́ sucesivamente con las secuencias de largo N/4, que pueden subdividirse
en subsecuencias de largo N/8.
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 395

En general una secuencia de largo N = 2v , podemos subdividiras v = log2 N


veces en subsecuencias de longitud menor. Y en cada etapa se realizan N mul-
tiplicaciones complejas. Por tanto podemos afirmar que este algoritmo es del
orden de N log2 N . En la figura C.7 se muestra una comparación del número de
multiplicaciones necesarias para calcular los términos Hn de esta serie directa-
mento o mediante este nuevo algoritmo denominado FFT. Para una secuencia
de largo N = 1024 = 210 con el primer método requerimos 1048576 multiplica-
ciones, mientras que usando la transformada rápida se requieren solo 10240, es
decir, 2 órdenes de magnitud menor.

2500

2000

1500

1000

500

0
0 5 10 15 20 25 30 35 40 45 50
N

Figura C.7: Comparación N 2 (x) y N log2 N (’*’)

Veamos a continuación un ejemplo para ilustrar el uso de la transformada


rápida
Ejemplo C.14. Considermos una secuancia discreta de longitud N = 8, cuyos
valores denominaremos y0 , y1 , y2 , y3 , y4 , y5 , y6 e y7 . Entonces usando la ecuación
(C.44) tenemos que

Hn = Hnp + W8−n Hni


En que Hnp y Hni son la serie formada por las subsecuencias pares e impares
de la secuencia original.
Esto se representa en la figura C.8, donde sobre las lineas de flujo se coloca
el factor que une a los datos
Note en la figura se ha hecho uso de la periodicidad de Hnp y Hni ya que, por
ejemplo,
396 APÉNDICE C. LA TRANSFORMACIÓN DE FOURIER

H0p H0
W80
H1p H1
W8−1
H2p H2
W8−2
H3p H3
W8−3
H0i H4
W8−4

H1i H5
W8−5

H2i H6
W8−6

H3i H7
W8−7

Figura C.8: Primera etapa de la FFT para N = 8

H4 = H4i + W8−4 H4p

Pero, por la periodicidad

H4p = H0p
H4i = H0i

Por lo tanto,

H4 = H0i + W8−4 H0p

De manera análoga, para calcular los términos de Hnp y Hni podemos aplicar
la misma idea

Hnp = Hnpp + W8−2n Hnpi


Hni = Hnip + W8−2n Hnii

Donde ahora las series Hnpp , Hnpi , Hnip y Hnii están formadas por subsecuen-
cias de largo 2, y también son periódicas de perı́odo 2. Como se ve en el esquema
de la figura C.9
Finalmente al subdividir nuevamente las secuencias quedan términos indi-
viduales que corresponden a los 8 valores de la secuencia original considerada:
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 397

H0pp H0
W80 W80
H1pp H1
W8−2 W8−1
H0pi W8−4
H2
W8−2
H1pi W8−6
H3
W8−3
H0ip W8−4
H4
W80

H1ip H5
W8−2 W8−5

H0ii H6
W8−4 W8−6

H1ii H7
W8−6 W8−7

Figura C.9: Primera y segunda etapa de la FFT para N = 8

Hnpp = Hnppp + W8−4n Hnppi = y0 + W8−4n y1


Hnpi = Hnpip + W8−4n Hnpii = y2 + W8−4n y3
Hnip = Hnipp + W8−4n Hnipi = y4 + W8−4n y4
Hnii = Hniip + W8−4n Hniii = y6 + W8−4n y7

Estos productos calculos se agregan al esquema anterior, tal como se muestra


en la figura C.10, donde podemos apreciar claramente que en cada etapa se
realizan 8 multiplicaciones complejas, totalizando un total de 24. En caso de
haber hecho los cálculos de manera directa hubiera resultado necesario ralizar
82 = 64 multiplicaciones.
398 APÉNDICE C. LA TRANSFORMACIÓN DE FOURIER

y0 H0
W80 W80 W80
y1 H1
W8−4 W8−2 W8−1
y2 W8−4
H2
W80
W8−2
y3 W8−4
H3
W8−6
W8−3
y4 H4
W80 W80 W8−4

y5 H5
W8−4 W8−2 W8−5

y6 H6
W80 W8−4 W8−6

y7 H7
W8−4 W8−6 W8−7

Figura C.10: Las tres etapas de la FFT para N = 8


Transformada de Laplace!región de
convergencia

Apéndice D

La transformada de Laplace

D.1. Transformada de Laplace


D.1.1. Definición de la Transformada
Sea una señal de tiempo continuo y(t), 0 ≤ t < ∞, entonces la Trans-
formada de Laplace asociada a y(t), y su transformada inversa están definidas
como

Z ∞
L {y(t)} = Y (s) = e−st y(t)dt (D.1)
0−
Z σ+j∞
1
L−1 {Y (s)} = y(t) = est Y (s)ds (D.2)
2πj σ−j∞

Y (s) es la transformada de Laplace de y(t). El par transformada y su inversa


están bien definidas si existe σ ∈ R y una constante positiva k < ∞ tales que

|y(t)| < keσt ; ∀t ≥ 0 (D.3)

La región <{s} ≥ σ se conoce como la región de convergencia de la


transformada.
Asumimos que el lector ha conocido estas ideas anteriormente en algún curso
de matemáticas, o bien puede consultar algún texto de ecuaciones diferenciales
como ref. a Blanchard??.
Ahora nos concentraremos en la importancia de esta transformada para el
análisis de sistemas, por ejemplo, para determinar respuestas a condiciones ini-
cialesy a diferentes señales de entrada.

399
400 APÉNDICE D. LA TRANSFORMADA DE LAPLACE

Lema D.1. Sea H(s) una función racional estrictamente propia1 de la vari-
able s con región de convergencia <{s} > −α. SI denotamos como h(t) a su
correspondiente función temporal, i.e.

H(s) = L [h(t)] (D.4)


Entonces, para cualquier z0 talque <{z0 } > −α, tenemos
Z ∞
h(t)e−z0 t dt = lı́m H(s) (D.5)
0 s→z0

Demostración
De la definición de la transformada de Laplace tenemos que, para todo s en
la región de convergencia de la transformada, i.e. en <{s} > −α
Z ∞
H(s) = h(t)e−st dt (D.6)
0
Por lo tanto se tiene que z0 está en la región de convergencia de la transfor-
mada.
222
Corollario D.1. En la ecuación D.5 se observa que como condición necesaria
para la convergencia de la integral del lado izquierdo se debe cumplir que

lı́m h(t)e−st = 0 (D.7)


t→∞

Resultado que será usado posteriormente.


Ilustramos esto con un ejemplo:
Ejemplo D.1. Considere la señal

y(t) = e+2t t≥0 (D.8)

Entonces, su transformada de Laplace puede calcularse resolviendo la integral


(D.1) o usando Maple :

> y(t):=exp(2*t);
> with(inttrans):
Y(s) := laplace(y(t),t,s);

Dentro de Maple existe el paquete inttrans, que define la transformada de


Laplace y de Fourier, junto a sus inversas, además de otras transformaciones
integrales. Las lı́neas de comando antes mostradas entregan como resultado
1
Y (s) = para <{s} > 2 (D.9)
s−2
1 El orden del polinomio del numerador es estriciamente menor que el orden del polinomio

en el denominador
D.1. TRANSFORMADA DE LAPLACE 401

Ahora considere
Z∞
I(z0 ) = e−z0 t y(t)dt (D.10)
0

Claramente para z0 = 3, tenemos


Z∞ Z∞
I(3) = e−3t e2t dt = e−t dt = 1 (D.11)
0 0

Note que esto se podrı́a haberse obtenido como consecuencia de lema D.1 ya
que
1
Y (3) = =1 (D.12)
3−2
Sin embargo, si tomamos z0 = 1, entonces Y (1) = −1. Entonces claramente
I(z0 ) es ∞. Esto está de acuerdo con el lema D.1 ya que z0 = 1 no está en el
interior de la región de convergencia de la transformada.
222

D.1.2. Propiedades de la Transformada de Laplace


La transformada de Laplace tiene propiedades muy útiles, las cuales se re-
sumen en la Tabla D.2 en la página 415. En esta sección se demuestran algunas
de estas.
Lema D.2. Linealidad
Sean y1 (t) e y2 (t) funciones continuas en (0, +∞), cuyas transformadas de
Laplace son Y1 (s) e Y2 (s), respectivamente. Entonces

L {αy1 (t) + βy2 (t)} = αY1 (s) + βY2 (s) α, β ∈ C (D.13)

Demostración
Esta propiedad es directa dado que la transformada de Laplace está definida
mediante la integral (D.1) :

Z ∞
L {αy1 (t) + βy2 (t)} = (αy1 (t) + βy2 (t))e−st dt
0−
Z ∞ Z ∞
=α y1 (t)dt + β y2 (t)dt
0− 0−
= αY1 (s) + βY2 (s)

222
402 APÉNDICE D. LA TRANSFORMADA DE LAPLACE

Lema D.3. Derivada en t.


d y(t)
Sea y(t) una función continua en (0, +∞) y supóngamos que dt es con-
tinua por tramos, entonces
 
d y(t)
L = sY (s) − y(0− ) (D.14)
dt

Demostración
Según la definición tenemos:
  Z ∞
d y(t) d y −st
L = e dt
dt 0− dt

En esta si se integra por partes,


∞ Z ∞
= e−st y(t) + s y(t)e−st dt

0− 0−
 
= lı́m e−st y(t) − y(0− ) + sL {y(t)}
t→∞

Si utilizamos el resultado (D.7) de la página 400 obtenemos la expresión


esperada:
 
d y(t
L = sY (s) − y(0− ) (D.15)
dt
222
Maple también es capaz de reconocer ésta y otras propiedades, mediante
los comandos:
> with(inttrans):
laplace(diff(y(t),t),t,s);

s laplace(y(t), t, s) − y(0)

Corollario D.2. Derivadas de orden superior.


Si se extiende este resultado, aplicando este lema recursivamente a las derivadas
de orden superior puede demostrarse que

 
d n y(t) d n−1 y(0− )
L = sn Y (s) − sn−1 y(0− ) − · · · − n ∈ Z+ (D.16)
dt n dt n−1

donde Y (s) = L {y(t)}. Este resultado será usado repetidamente para conver-
tir ecuaciones diferenciales en ecuaciones algebraicas en la variable s. Además
en la ecuación (D.16) se incluyen las condiciones iniciales de la función y sus
derivadas.
D.1. TRANSFORMADA DE LAPLACE 403

Ilustramos esto en el siguiente ejemplo, en que cada paso del desarrollo se


acompaña por los comandos en Maple correspondientes.
Ejemplo D.2. Considere la ecuación diferencial

> edo := diff(theta(t),t,t)+2*diff(theta(t),t)=v_a(t)

d 2θ dθ
+2 = va (t) (D.17)
dt 2 dt
Si tomamos transformada de Laplace a ambos lados de la ecuación y apli-
camos D.16 se obtiene

> EDO := laplace(edo,t,s);

s2 Θ(s) + 2sΘ(s) − (s + 2)θ(0− ) − θ̇(0− ) = Va (s) (D.18)


− −
Suponiendo condiciones iniciales θ(0 ) = 0, θ̇(0 ) = 0 y que la entrada es
un escalón unitario en t = 0. Entonces

> theta(0):=0;
D(theta)(0):=0;
v_a(t):=Heaviside(t);
Theta(s):=solve(EDO,laplace(theta(t),t,s));

 
1
Θ(s) = Va (s)
s2 + 2s
 
1 1
= 2
s + 2s s
Expandiendo en fracciones parciales obtenemos

> Theta(s):=convert(Theta(s),parfrac,s);

1 1 1
Θ(s) = + − (D.19)
4(s + 2) 2s2 4s
Aquı́, aplicando los resultados de la Tabla D.2 (página 415 ), la salida para
t ≥ 0 es

> theta(t):=invlaplace(Theta(s),s,t);

1 −2t 1 1
θ(t) = e + t− (D.20)
4 2 4
404 APÉNDICE D. LA TRANSFORMADA DE LAPLACE

Lema D.4. Integral en t


Sea y(t) una función continua en el intervalo (0, +∞) , con transformada
de Laplace L {y(t)} = Y (s), entonces
Z t 
1
L y(τ )dτ = Y (s) (D.21)
0− s

Demostración
Si reemplazamos la integral en la definición de la transfomada (D.1), pode-
mos hacer una integral por partes:

Z t  Z ∞ Z t 
L y(τ )dτ = y(τ )dτ e|−st
{zdt}
0− 0− 0−
| {z } dv
u
Z t  Z ∞
e−st ∞ e−st
= y(τ )dτ − y(t) dt
0− −s 0− 0− −s
Z ∞
1
=0+ y(t)e−st dt
s 0−
222

Lema D.5. Derivada en s.


Sea y(t) una función continua con L {y(t)} = Y (s), entonces

d n Y (s)
L {tn · y(t)} = (−1)n (D.22)
ds n

Demostración
Este resultado se establece derivando ambos lados de la ecuación

Z ∞
Y (s) = y(t)e−st dt
0−

y ası̀ obtenemos

Z ∞
dY (s) ∂  
= y(t)e−st dt
ds 0− ∂s
Z ∞
=− ty(t)e−st dt
0−
= −L {t · y(t)}
D.1. TRANSFORMADA DE LAPLACE 405

Y el lema se obtiene aplicando esto repetidamente aunque, en rigor, para in-


tercambiar derivada con integral se requieren ciertas propiedades de regularidad.
222
Este lema puede resultar útil para obtener la transformada de Laplace de
funciones que aparecen multiplicadas por la variable t, como en el siguiente
ejemplo.
Ejemplo D.3. Consideremos la función y(t) = t2 y obtengamos su transfor-
mada de Laplace.Según la definición
Z ∞

L t2 = t2 e−st dt
0−
Y para resolver se puede integrar por partes dos veces. Sin embargo, si se
aplica el lema D.5 tenemos

 d2 
L t2 · 1 = (−1)2 2 L {1}
ds
d2 1
=
ds 2 s
d 1
= − 2
ds s
2
= 3
s
La propiedad en si y el ejemplo pueden realizarse en Maple , mediante los
siguientes comandos

>laplace(t*y(t),t,s);

 

− laplace(y(t), t, s)
∂s
> y(t):= t^2;
laplace(y(t),t,s);

1
2
s3
Se deja al lector como ejercicio encontrar una expresión (no recursiva) para
L {tn }, usando el método de inducción.
Lema D.6. Desplazamiento en t.
Sea y(t − a), a > 0 una versión desplazada de la función y(t). Si µ(t − a) es
la función escalón unitario que comienza en a, entonces

L {y(t − a)µ(t − a)} = e−sa Y (s) (D.23)


406 APÉNDICE D. LA TRANSFORMADA DE LAPLACE

Demostración
Dado que la función escalón unitario es igual a 0 antes de a y 1 después, la
transformada de Laplace puede calcularse con la definición

Z ∞
L {u(t − a)y(t − a)} = µ(t − a)y(t − a)e−st dt
Z0 ∞

= y(t − a)e−st dt
Za ∞

= y(t̃)e−s(t̃+a) dt̃
0−
Z ∞
= e−sa y(t̃)e−st̃ dt̃
0−
−sa
= e Y (s)
De donde se obtiene el resultado deseado.
222
Note que

L {y(t − a)µt − a} 6= L {y(t − a)µ(t)}


Por lo tanto la transformada de Laplace del lado derecho no puede obtenerse
con ayuda del lema D.6, sino en base a la definición o usando otras propiedades.
Ejemplo D.4. Para ver una aplicación de este lema obtengamos la transfor-
mada de Laplace de un pulso p(t).


1 ; si 0 ≤ t < a
p(t) =
0 ; si t ≥ a
Esta señal puede escribirse usando la función de Heaviside o escalón unitario
µ(t) sin necesidad de definirla por tramos. En Maple
> assume(a>0);
p(t):=Heaviside(t)-Heaviside(t-a);

p(t) = µ(t) − µ(t − a)


Y usando la propiedad (D.23), o calculano con Maple , se obtiene
> P(s):=laplace(p(t),t,s);

1 1 −as
P (s) = − e
s s
1
= 1 − e−sa
s
D.1. TRANSFORMADA DE LAPLACE 407

Este ejemplo puede extenderse a cualquier función que esté definida por
tramos, cuya transformada de otra forma se tendrı́a que calcular separando la
integral (D.1) de la definición.
Se deja al lector obtener una expresión para f (t)p(t) en que p(t) es el pulso
del ejemplo anterior, y f (t) es alguna función continua en el intervalo 0 < t < a.
A continuación se presenta otro resultado relacionado con el desplazamiento
temporal de una función.

Lema D.7. Función periódica.


Tomemos una función perı́odica


X
y(t) = yT (t − nT ) (D.24)
n=0

en que yT (t) es cero fuera del intervalo [0, T ], es decir, yT (t) = [µ(t) − µ(t −
T )]y(t). Entonces la transformada de Laplace de y(t) es

1
L {y(t)} = YT (s) (D.25)
1 − e−sT
en que YT (s) = L {yT (t)}.

Demostración
Si se utiliza el resultado del lema D.6, al aplicar transformada de Laplace a
la ecuación (D.24) tenemos por linealidad


X
L {y(t)} = e−nT s YT (s)
n=0

X
Y (s) = YT (s) e−nT s
n=0

y si recordamos la suma de una serie geométrica,


 
1 − lı́mn→∞ e−nT s
Y (s) = YT (s)
1 − e−sT

y dentro de la región de convergencia lı́mn→∞ e−nT s → 0

1
Y (s) = YT (s)
1 − e−sT
222
408 APÉNDICE D. LA TRANSFORMADA DE LAPLACE

Lema D.8. Corrimiento en s


Sea y(t) una función continua en el intervalo (0, +∞) , con transformada
de Laplace L {y(t)} = Y (s), entonces

L eat y(t) = Y (s − a) (D.26)

Demostración
De la definición (D.1), tenemos que

Z ∞

L eat y(t) = eat y(t)e−st dt
0−
Z ∞
= y(t)e−(s−a)t dt
0−
= Y (s − a)

222

Lema D.9. Convolución


Sean y1 (t) e y2 (t) funciones continuas en (0, +∞), talque son iguales a cero
para t < 0, cuyas transformadas de Laplace son Y1 (s) e Y2 (s), respectivamente.
Entonces la transformada de la convolución entre y1 (t) e y2 (t) es:

L {y1 (t) ∗ y2 (t)} = Y1 (s)Y2 (s) (D.27)

En que
Z t
y1 (t) ∗ y2 (t) = y1 (τ )y2 (t − τ )dτ (D.28)
0−

Demostración
Si las señales son causales, es decir, su valor es cero ∀t < 0, entonces podemos
reescribirlas

y1 (t) = µ(t)y1 (t)


y2 (t) = µ(t)y2 (t)

Con esto, la convolución es equivalente a


Z ∞
y1 (t) ∗ y2 (t) = y1 (τ )µ(τ )y2 (t − τ )µ(t − τ )dτ
−∞
D.1. TRANSFORMADA DE LAPLACE 409

Si reemplazamos esta forma en la definición (D.1), podemos cambiar el orden


de las integrales:

Z ∞ Z ∞ 
L {y1 (t) ∗ y2 (t)} = y1 (τ )µ(τ )y2 (t − τ )µ(t − τ )dτ e−st dt
0− −∞
Z ∞ Z ∞ 
−st
= y1 (τ )µ(τ ) [y2 (t − τ )µ(t − τ )] e dt dτ
−∞ 0−

Donde se puede aplicar la propiedad de corrimiento en t:

Z ∞
L {y1 (t) ∗ y2 (t)} = y1 (τ )µ(τ )e−sτ Y2 (s)dτ
−∞
Z ∞
= Y2 (s) y1 (τ )e−sτ dτ
0−
= Y2 (s)Y1 (s)

222

Lema D.10. Producto en t


Sean y1 (t) e y2 (t) funciones continuas en (0, +∞), cuyas transformadas de
Laplace son Y1 (s) e Y2 (s), respectivamente. Entonces la transformada del pro-
ducto entre y1 (t) e y2 (t) es:
Z σ+j∞
1
L {y1 (t)y2 (t)} = Y1 (ζ)Y2 (s − ζ)dζ (D.29)
2πj σ−j∞

Demostración
Si reemplazamos el producto de las funciones dentro de la definición de la
transformada, podemos demostrar la propiedad escribiendo una de ellas como
la transformada inversa de su transformada de Laplace:

Z ∞
L {y1 (t)y2 (t)} = y1 (t)y2 (t)e−st dt
0−
Z ∞  Z σ+j∞ 
1
= Y1 (ζ)e dζ y2 (t)e−st dt
ζt
0− 2πj σ−j∞

Intercambiando el orden de las integrales y usando la propiedad de corrim-


iento s tenemos que
410 APÉNDICE D. LA TRANSFORMADA DE LAPLACE

Z σ+j∞ Z ∞ 
1
L {y1 (t)y2 (t)} = Y1 (ζ) eζt y2 (t)e−st dt dζ
2πj σ−j∞ 0−
Z σ+j∞
1
= Y1 (ζ)Y2 (s − ζ)dζ
2πj σ−j∞

222

Teorema D.1. . [Teorema del Valor Final y Teorema del Valor Inicial]

Existen dos resultados que permiten obtener relaciones entre comportamien-


tos asintóticos de la función y(t) y su tranformada Y (s). Estos se conocen como
el teorema del Valor Inicial y teorema del Valor Final.

(i) lı́m+ y(t) = lı́m sY (s) (D.30)


t→0 s→∞

(ii) lı́m y(t) = lı́m sY (s) (D.31)


t→∞ s→0

Las ecuaciones anteriores son válidas sólo en caso que ambos lı́mites ex-
istan.

Demostración
Las demostraciones se basan en resultados anteriores
(i) Teorema del Valor Inicial.
Supongamos primero que y(t) es continua en t = 0, i.e. y(0− ) = y(0+ ) =
y = 0. Si usamos la ecuación (D.14) tenemos

Z ∞
d y(t) −st
e dt = sY (s) − y(0− )
0− dt

pero la integral del lado izquierdo puede acotarse y usar la ecuación (D.3)
Z ∞ Z ∞
d y(t) −st d y(t) −st
e dt ≤ dt e dt

0− dt 0−
Z ∞
≤ keσt e−st dt
0−

e−(s−σ)t
=k
−s + σ 0−

y dado que la integral existe en la región de convergencia <{s} ≥ σ


Z ∞
d y(t) −st k
e dt ≤
0− dt s−σ
D.1. TRANSFORMADA DE LAPLACE 411

k
y si s → ∞ entonces s−σ → 0, de donde se obtiene

lı́m sY (s) = lı́m y(t)


s→∞ t→0+

Ahora si la función y(t) no es continua, podemos definir


 
ỹ(t) = y(t) − y(0+ ) − y(0− ) (D.32)
que si es continua. Si aplicamos transformada de Laplace a la derivada de
ỹ(t)

Z ∞
d ỹ(t) −st
e dt = sỸ (s) − ỹ(0− )
0− dt

pero ỹ(0− ) = y(0− ) es continua y aplicando Laplace a (D.32)


Z ∞
d ỹ(t) −st h y(0+ ) − y(0− ) i
e dt = s Y (s) − − y(0− )
0− dt s
= sY (s) − y(0+ )

y nuevamente el lado izquierdo se hace cero cuando s → ∞.


222
(ii) Teorema del Valor Final.
Según la ecuación (D.14)

Z ∞
d y(t)
dt = sY (s) − y(0− ) (D.33)
0− dt

si tomamos lı́mite cuando s → 0 a ambos lados de la ecuación,


Z ∞ 
d y(t) −st 
lı́m e dt = lı́m sY (s) − y(0− ) (D.34)
s→0 0− dt s→0

Podemos intercambiar lı́mite e integral suponiendo ciertas condiciones de regu-


laridad:
Z ∞
d y(t) 
lı́m e−st dt = lı́m sY (s) − y(0− ) (D.35)
0− dt s→0 s→0
Z ∞
d y(t)
dt = lı́m sY (s) − y(0− ) (D.36)
0− dt s→0

lı́m y(t) − y(0− ) = lı́m sY (s) − y(0− ) (D.37)


t→∞ s→0
lı́m y(t) = lı́m sY (s) (D.38)
t→∞ s→0

222
412 APÉNDICE D. LA TRANSFORMADA DE LAPLACE

Ejemplo D.5. Debe tenerse precaución de utilizar estos teoremas en caso solo
en que ambos limites existan tanto en el tiempo como en la variable compleja s.
Consideremos por ejemplo la transformada de Laplace de cos(ω0 t)

s
L {cos(ω0 t)} =
s2 + ω02

si utilizamos el teorema del valor final

 s2 
lı́m =0
s→0 s2 + ω02

cuando en realidad sabemos que

lı́m cos(ω0 t) = @
t→∞

222

Ejemplo D.6. Una distinción importante de hacer es que en el caso en que la


respuesta de un sistema sea discontinua en t = 0 el teorema del Valor Inicial
entrega el valor de la salida en t = 0+ el que puede no coincidir con la condición
inicial dada. Veamos esto en un ejemplo simple en que tenemos un circuito como
el de la figura D.1 en que se conecta la baterı́a de 1[V] en t = 0, y todas las
condiciones iniciales son cero.
R

+
vf (t) C vc (t)
i(t)

Figura D.1: Circuito RC

Por ley de voltajes de Kirchoff tenemos

vf (t) = vR (t) + vC (t)


Z
1 t
µ(t) = Ri(t) + i(τ )dτ
C −∞

y si derivamos a ambos lados,

d µ(t) d i(t) 1
=R + i(t)
dt dt C
D.1. TRANSFORMADA DE LAPLACE 413

Si aplicamos transformada de Laplace, y consideramos la condición inicial igual Propiedades transformada de Laplace
a cero Tabla transformadas de Laplace
Tabla transformadas de Laplace invers
1   1
s = R sI(s) − i(0− ) + I(s)
s C

y despejando se obtiene

1
I(s) = 1
sR + C

por tanto si aplicamos el teorema del valor inicial

i(0+ ) = lı́m sI(s)


s→∞
s
= lı́m 1
s→∞ sR + C
1
=
R

que evidentemente es diferente a la corriente inicial t = 0− . Esto se comprueba


observando que la transformada inversa de I(s) es discontinua en t = 0

i(t) = L−1 {I(s)}


 
−1 1/R
=L
s + 1/RC
1
= e−t/RC µ(t)
R

La transformada de Laplace es una herramienta muy útil en el estudio de


sistemas dinámicos ya que pemite convertir las ecuaciones diferenciales, en
el tiempo t, a ecuaciones algebraicas en la variable s.
414 APÉNDICE D. LA TRANSFORMADA DE LAPLACE

f (t) L {f (t)} Comentarios

l
X l
X
ai yi (t) ai Yi (s) Fi (s) = L {fi (t)}
i=1 i=1

dy(t)
sY (s) − y(0− ) donde Y (s) = L {y(t)}
dt

dk y(t) k
Pk k−i di−1 y(t)
s Y (s) − i=1 s donde Y (s) = L {y(t)}
dtk dti−1 t=0−
Z t
1
y(τ )dτ Y (s)
0− s
dY (s)
ty(t) −
ds
dk Y (s)
tk y(t) (−1)k k ∈ {1, 2, 3, . . .}
dsk

y(t − τ )µ(t − τ ) e−sτ Y (s) µ(t) : escalón unitario

eat y(t) Y (s − a)
Z t
y1 (τ )y2 (t − τ )dτ Y1 (s)Y2 (s) y1 (t) = y2 (t) = 0 ∀t < 0
0−
Z σ+j∞
1
y1 (t)y2 (t) Y1 (ζ)Y2 (s − ζ)dζ Convolución compleja
2πj σ−j∞

lı́m y(t) lı́m sY (s) y(∞) debe estar bien definida


t→∞ s→0

lı́m y(t) lı́m sY (s)


t→0+ s→∞

Cuadro D.1: Propiedades de la transformada de Laplace


D.1. TRANSFORMADA DE LAPLACE 415

f (t) (t ≥ 0) L {f (t)} Región de Convergencia

1
1 σ>0
s

δD (t) 1 |σ| < ∞

e−sτ
µ(t − τ ) s τ >0

1
t σ>0
s2
n!
tn n ∈ Z+ σ>0
sn+1
1
eαt α∈C σ > <{α}
s−α
1
teαt α∈C σ > <{α}
(s − α)2
s
cos(ωo t) σ>0
s2 + ωo2
ωo
sen(ωo t) σ>0
s2 + ωo2
(sen β)s + ωo2 cos β − α sen β
eαt sen(ωo t + β) σ > <{α}
(s − α)2 + ωo2
2ωo s
t sen(ωo t) σ>0
(s2 + ωo2 )2
s2 − ωo2
t cos(ωo t) σ>0
(s2 + ωo2 )2
1 − e−sτ
µ(t) − µ(t − τ ) |σ| < ∞
s

Cuadro D.2: Transformadas de Laplace de algunas funciones simples


416 APÉNDICE D. LA TRANSFORMADA DE LAPLACE

fracciones parciales D.1.3. Descomposición en fracciones parciales


polos
Las ecuaciones (D.1) y (D.2) dan una forma de describir señales y sistemas
en el dominio de la variable s y poder volver al dominio del tiempo. Sin embargo,
la ecuación (D.2) pocas veces se usa para obtener la transformada de Laplace
inversa de una función. La transformada de Laplace de muchas de las señales
que nos interesan son funciones racionales en s, por lo tanto, generalmente se usa
la descomposición en fracciones parciales para obtener su transformada inversa,
por comparación con transformadas conocidas.
Tomemos una función racional en s, en que se conocen las raı́ces del poli-
nomio denominador, que llamaremos polos del sistema. En caso de no ser
una función estrictamente propia, siempre puede realizarse la división de los
polinomios de forma de tener un polinomio en s más una función estrictamente
propia.
Ejemplo D.7. Supongamos, para empezar, una función con un polinomio de-
nominador de segundo orden
As + B
H1 (s) = (D.39)
s2
+ Cs + D
No es simple determinar a priori la transformada inversa de esta expresión,
pero si se pueden determinar las raı́ces del denominador. Supongamos que estas
son s = −λ1 y s = −λ2 , con λ1 6= λ2 . El método de fracciones parciales pretende
expresar una función racional como suma de funciones racionales más simples,
que en nuestro caso nos permite identificar desde una tabla su tranformada de
Laplace inversa.
As + B α β
Y1 (s) = = + (D.40)
(s + λ1 )(s + λ2 ) s + λ1 s + λ2
Es decir, buscamos los coeficientes α y β. Para determinar estos lo primero
que puede hacerse es realizar la suma al lado derecho de (D.40) e igualar el
polinomio denominador resultante con el de la ecuación (D.39)

As + B = (α + β)s + αλ2 + βλ1 (D.41)


Estos polinomios son iguales si y sólo si sus coeficientes son iguales:

α+β = A
λ2 α + λ1 βλ1 = B (D.42)

Este sistema de ecuaciones puede resolverse obteniendo funalmente

Aλ1 − B
α =
λ1 − λ 2
−Aλ2 + B
β = (D.43)
λ1 − λ 2
D.1. TRANSFORMADA DE LAPLACE 417

Finalmente teniendo estos valores de las constantes puede verse en la tabla


D.2 la tranformada inversa
 
−1 α β
y1 (t) = L + = αe−λ1 t + βe−λ2 t (D.44)
s + λ1 s + λ2
222
En el ejemplo anterior al descomponer la función racional (D.39) en dos
fracciones (D.40), para encontrar las constantes se resolvió el sistema (D.42) de
dos ecuaciones y dos incógnitas. Sin embargo, si el polinomio denominador es
de orden N el método desemboca en resolver un sistema de ¡ N ecuaciones y
N incógnitas !. Es por esto que en el siguiente ejemplo se muestra un método
más práctico.
Ejemplo D.8. Consideremos el sistema
2s + 1
Y2 (s) = (D.45)
s3
+ 3s2 − 4s
Del polinomio denominador pueden calcularse los polos del sistema. Estos se
ubican en s = 0, −4, 1, Por lo cual interesa descomponerlo en la forma
2s + 1 α β γ
= + + (D.46)
s3 + 3s2 − 4s s s+4 s−1
Si multiplicamos por s ambos lados de la ecuación
2s + 1 βs γs
=α+ +
s2 + 3s − 4 s+4 s−1
Y ahora si hacemos s = 0 se obtiene directamente la primera constante
1
− =α
4
Ahora para el segundo término de (D.46) podemos multiplicar por (s + 4)
para reemplazar luego por la segunda raı́z s = −4
" #
2s + 1 α(s + 4) γ(s + 4)
= +β+
s(s − 1) s s−1
s=−4 s=−4
7
β = −
20
De manera análoga pueden encontrarse la tercera constante, multiplicando
por (s − 1) y reemplazando s = 1
" #
2s + 1 α(s − 1) β(s − 1)
= + +γ
s(s + 4) s s+4
s=1 s=1
3
γ =
5
418 APÉNDICE D. LA TRANSFORMADA DE LAPLACE

Como puede verse este método de multiplicar por cada uno de los polinomios
factores del denominador, para luego reemplazar la variable s por la respectiva
raı́z, permite llegar de manera mucho más directa a los coeficientes de la de-
scomposición (D.46). Con ayuda de la tabla D.2 se obtiene finalmente
 1 7 3 
−1 −4 − 20
y2 (t) = L + + 5
s s+4 s−1
1 7 3
= − − e−4t + et (D.47)
4 20 5
222
Se deja al lector verificar que la función obtenida es la misma que se obtiene
si se aplica el método del ejemplo D.7.
Cabe destacar que en el ejemplo D.8 se ha aprovechado que al multiplicar
por cada factor del denominador (s − λ) y reemplazar por s = −λ todos los
términos de la descomposición en fracciones parciales se hacen cero, excepto el
1
coeficiente correspondiente a s−λ . Sin embargo, en caso de existir raı́ces repeti-
das, aparecerá una indefinición al reeplazar (s = λ).
Ejemplo D.9. En el caso de raı́ces repetidas, la descomposición en fracciones
parciales no toma la forma (D.40), sino que se descompone como
As + B α β
Y3 (s) = = + (D.48)
(s − λ)2 s − λ (s − λ)2
Note que en esta expresión solamente el coeficiente β puede ser obtenido
como en el ejemplo D.8, ¿ Porqué no puede obtenerse el coeficiente α ? ¿ Cómo
podrı́a obtenerse ?
Una manera simple de llegar a la forma (D.48) es forzando a que aparezca
el término (s − λ) en el numerador, separar y luego simplificar como se muestra
a continuacion
A(s − λ) + (Aλ + B)
Y3 (s) =
(s + λ)2
A Aλ + B
= + (D.49)
s − λ (s + λ)2
Con lo cual puede obtenerse de la tabla D.2
y3 (t) = Aeλt + (Aλ + B)teλt (D.50)
222
Cuando las raı́ces del polinomio denominador son números complejos, el
método visto en los ejemplos D.7,D.8 y D.9 puede aplicarse de igual forma. Los
coeficientes que se obtienen en este caso son complejos, pero además, dado que
el polinomio denominador tiene coeficientes reales, las raı́ces complejas apare-
cen siempre en pares complejos conjugados2 , los coeficientes de la expansión
2 Esto como resultado del Teorema Fundamental del Álgebra
D.1. TRANSFORMADA DE LAPLACE 419

en fracciones parciales también son complejos conjugados. Esto asegura que las
funciones exponenciales complejas que se obtienen en (D.44) son iguales a sinu-
soidales multiplicadas por exponenciales reales. Se deja al lector como ejercicio
esta demostración.
Ejemplo D.10. Cuando el denominador de una función racional de la forma
(D.39) tiene raı́ces complejas se suele escribir como
As + B
Y4 (s) = ; 0≤ξ<1 (D.51)
s2 + 2ξωn s + ωn2
Expresión en que ξ se denomina factor de amortiguación. Dado que en la tabla
D.2 tenemos sólo expresiones en que el denominador es una suma de cuadrados,
podemos escribir la función de la forma
As + B
Y4 (s) = p (D.52)
(s + ξωn )2+ (ωn 1 − ξ 2 )2
Y en el numerador de esta expresión puede construı́rse el término (s + ξω n )
para luego separar en dos términos
A(s + ξωn ) + (−Aξωn + B)
Y4 (s) =
D(s)
A(s + ξωn ) (−Aξωn + B)
= +
D(s) D(s)
p
A(s + ξωn ) (−Aξωn + B) (ωn 1 − ξ 2 )
= + p (D.53)
D(s) (ω0 1 − ξ 2 ) D(s)

en que el denominador es
p
D(s) = (s + ξωn )2 + (ωn 1 − ξ 2 )2 (D.54)
Y aplicando transformada de Laplace inversa se llega a
p (−Aξωn + B) −ξωn t p
y4 (t) = Ae−ξωn t cos ωn 1 − ξ 2 t+ p e sen ωn 1 − ξ 2 t (D.55)
(ωn 1 − ξ 2 )
222
Con estos ejemplos y un poco de práctica no debiera resultar difı́cil obtener
transformadas de Laplace inversa de funciones racionales. En realidad hoy en
dı́a cualquier software es capaz de obtener la expansión en fraccines parciales de
una función racional3 , e incluso transformadas inversas de Laplace, por lo tanto,
estos cálculos pueden dejarse para el computador cuando resulten demasiado
engorrosos.
Por ejemplo, si usamos Maple para obtener la transformada de Laplace
inversa de la función racional (D.39), tenemos las siguientes lı́neas de comando
que arrojan el resultado que se aprecia más adelante
3 Use el comando residue de MATLAB
420 APÉNDICE D. LA TRANSFORMADA DE LAPLACE

> H(s) := (A*s+B)/(s^2+C*s+D):


h(t) := invlaplace(H(s),s,t);

1 √ 1 √
1 e− 2 Ct C 3 B cos( 12 4 D − C 2 t) e− 2 Ct DA cos( 12 4 D − C 2 t)
h(t) = +4
2 (4 D − C 2 ) D 4 D − C2
1 √ 1 √
e− 2 Ct C 2 A cos( 12 4 D − C 2 t) e− 2 Ct AC sen( 12 4 D − C 2 t)
− − √
4 D − C2 4 D − C2
− 21 Ct 1
√ 1 √
e CB cos( 2 4 D − C 2 t) e 2 B sen( 12 4 D − C 2 t)
− Ct
−2 +2 √
4 D − C2 4 D − C2
1 √
1 e− 2 Ct CB cos( 21 4 D − C 2 t)
+
2 D

Es importante notar que Maple , en este caso, ha supuesto que el térmi-


no 4D − C 2 es estrictamente positivo, es decir, que las raı́ces del polinomio
denominador son reales y distintas. En consecuencia, si bien el uso de software
puede ayudar bastante en un desarrollo matemático, lo fundamental es entender
e interpretar lo resultados que se obtienen.
D.1. TRANSFORMADA DE LAPLACE 421

Y (s) y(t) = L−1 {Y (s)} ; t ≥ 0

1 δD (t)

e−τ s , τ > 0 δD (t − τ )

1
µ(t)
s
1 tn−1
, n ∈ {2, 3, . . .}
sn (n − 1)!
k
ke−λt
s+λ
e−τ s
,τ > 0 e−λ(t−τ ) µ(t − τ )
s+λ
a1 s + a 0
C1 e−λ1 t + C2 e−λ2 t
(s + λ1 )(s + λ2 )
λ1 a1 −a0 −λ2 a1 +a0
C1 = λ1 −λ2 ; C2 = λ1 −λ2

a1 s + a 0
a1 e−λt + (a0 − λa1 )te−λt
(s + λ)2
a1 s + a 0 h i
e−λt C1 cos(ω0 t) + C2 sen(ω0 t)
(s + λ)2 + ω02
a0 −a1 λ
C1 = a 1 ; C 2 = ω0

k k 
1 − e−λt
s(s + λ) a
a1 s + a 0 a0 h  i
−λt
 2 1 − e C 1 cos(ω 0 t) + C 2 sen(ω 0 t)
s (s + λ)2 + ω02 λ2 + ω0
a0 λ−a1 (λ2 +ω02 )
C1 = a 0 ; C 2 = ω0

Cuadro D.3: Transformadas inversas de Laplace útiles


422 APÉNDICE D. LA TRANSFORMADA DE LAPLACE
radio de convergencia

Apéndice E

La Transformación Zeta

E.1. Definición de la Transformación


Dada una señal de tiempo discreto f [k], 0 ≤ k < ∞. La transformación
Zeta, y la transformación Zeta inversa, están definidas por


X
Z {f [k]} = F (z) = f [k]z −k (E.1)
k=0
I
1
Z −1 {F (z)} = f [k] = f (z)z k−1 dz (E.2)
2πj Γ

La curva cerrada Γ sobre la que se calcula la transformada Zeta inversa (E.2)


se elige de forma que para todos los valores de z sobre Γ, la sumatoria en (E.1)
converge. Esto implica que Γ depende de f [k], tal como se determina, en forma
constructiva, a continuación.
La transformación Zeta es la contraparte discreta de la Transformación de
Laplace. Su justificación surge de la necesidad de cubrir un rango más amplio
de señales que el que puede ser tratado usando al transformación de Fourier. En
el caso de la transformación Zeta la transición se puede describir como
∞ ∞
X X f [`]
f [`]e−jθ` −→ e−jθ` ; |z| > ρ (E.3)
|z|`
k=−∞ k=0

Donde podemos definir z = |z|ejθ , y donde ρ se denomina radio de conver-


gencia de la transformación.
Observe que, por un lado, hemos reducido la sumatoria al intervalo k ∈ N y
que por otro, hemos dividido la función f [`] por |z|` . Una elección adecuada de ρ
puede hacer que en muchos casos en que la sumatoria de la izquierda no converge,
la suma de la derecha sı́ lo haga. Por ejemplo, la señal f [k] = (1, 5)k µ[k] no tiene

423
424 APÉNDICE E. LA TRANSFORMACIÓN ZETA

transformada de Fourier, pero si tiene transformada Zeta, para ello, basta elegir
|z| > 1, 5.
Para obtener (E.2), que describe la fórmula de la Transformación Zeta inver-
sa, podemos recurrir a la idea de ortogonalidad. Si ambos lados de la ecuación
(E.1) son multiplicados por z k = |z|k ejθk , y luego integramos en el intervalo
[0; 2π], se obtiene
Z 2π ∞
X Z 2π
F (z)z k dθ = f [k]|z|k−` ej(k−`)θ dθ (E.4)
0 `=0 0

Por otra parte, sabemos que las exponenciales periódicas 1, ejθ , ej2θ , ej3θ , . . .
forman un conjunto de funciones ortogonales, ya que
Z 2π (
jkθ j`θ j(`−k)θ 0 ∀k 6= `
he , e i = e dθ = (E.5)
0 2π k = `

Con este resultado, (E.4) se simplifica a


Z 2π
1
f [k] = F (z)z k dθ (E.6)
2π 0
Finalmente podemos reemplazar la integral con respecto a θ por una integral
respecto de z. Primero notamos que

dz d |z|ejθ 1
= = jz =⇒ dθ = dz (E.7)
dθ dθ jz

Luego, reemplazando la expresión para dθ en (E.6) se llega a la ecuación


(E.2). Note que como θ recorre el intervalo [0; 2π], nuestra primera interpretación
de Γ en (E.2) es la de una circunferencia de radio mayor que ρ. La teorı́a de
variables complejas permite demostrar que es suficiente que Γ sea una curva
cerrada que encierre completamente la circunferencia de radio mayor que ρ.
Ilustremos el cálculo de la transformada Zeta y su inversa mediante un par
de ejemplos:
Ejemplo E.1. Considere la señal

y[k] = αk µ[k] (E.8)

Entonces, su transformada Zeta está dada por la serie geométrica:

∞ ∞
 X X 1 − (αz −1 )k
Z αk µ[k] = αk z −k = (αz −1 )k = lı́m (E.9)
k→∞ 1 − (αz −1 )
k=0 k=0

Donde la expresión al lado derecho converge si y sólo si

|αz −1 | < 1 ⇐⇒ |z| > |α| (E.10)


E.2. PROPIEDADES DE LA TRANSFORMADA ZETA 425

Entonces, en esta región tenemos que


 1 z
Z αk µ[k] = = (E.11)
1 − αz −1 z−α
222

E.2. Propiedades de la Transformada Zeta


La transformada Zeta posee una serie de propiedades, las cuales se resumen
en la Tabla E.1 en la página 433. En esta sección se revisan algunas de ellas.
Lema E.1. Linealidad
Sean y1 [k] e y2 [k] dos secuencias discretas definidas para k ∈ [0, +∞), cuyas
transformadas Zeta son Y1 (z) e Y2 (z), respectivamente. Entonces

Z {αy1 [k] + βy2 [k]} = αY1 (z) + βY2 (z) α, β ∈ C (E.12)

Demostración
Esta propiedad se demuestra sin problema ya que la transformada Zeta se
define mediante la sumatoria (E.1) :


X
L {αy1 [k] + βy2 [k]} = (αy1 [k] + βy2 [k])z −k
k=0

X ∞
X
=α y1 [k]z −k + β y2 [k]z −k
k=0 k=0
= αY1 (z) + βY2 (z)

Se debe hacer notar que en este caso la región de convergencia de la com-


binación lineal de las transformadas es la intersección de la región de conver-
gencia de cada una por separado. 222

Lema E.2. Escalamiento en z.


Sea y[k] una secuencia de tiempo discreto en que k ∈ (0, +∞), y supóngamos
que tenemos a ∈ C, entonces
 z 
Z ak y[k] = Y (E.13)
a

Demostración
Según la definición tenemos:
∞ ∞  z −k z 
 X X
Z ak y[k] = ak y[k]z −k = y[k] =Y (E.14)
a a
k=0 k=0
426 APÉNDICE E. LA TRANSFORMACIÓN ZETA

En este caso la región de convergencia de la nueva transformada también


resulta escalada.
222

Ejemplo E.2. Consideremos la transformada Zeta calculada para la secuencia


del ejemplo E.1, que establece
z
y1 [k] = αk µ[k] ⇐⇒ Y1 (z) = ; |α| < 1
z−α
Si ahora consideramos la secuencia

y2 [k] = α−k y1 [k] = µ[k]


Su transformada Zeta, aplicando (E.13) es

 z 
Y2 (z) = Y1
α−1
= Y1 (αz)
αz
=
αz − α
z
=
z−1
Que converge si y solo si |z| > 1.

Ejemplo E.3. Consideremos ahora la secuencia que corresponde a una os-


cilación de amplitud creciente o decreciente dependiendo del parámetro r.

y[k] = r k cos(θ0 k)
Su transformada Zeta puede obtenerse escribiendo el coseno en términos de
exponenciales complejas
1  jθ0 k 
y[k] = (re ) + (re−jθ0 )k )
2
Usando el teorema, tenemos que

1   jθ0 k  
Y (z) = Z (re ) + Z (re−jθ0 )k )
2 
1 z z
= +
2 z − rejθ0 z − re−jθ0
 
1 z(2z − 2r cos θ0 )
=
2 z 2 − z2r cos θ0 + r2
z(z − r cos θ0 )
= 2
z − z2r cos θ0 + r2
E.2. PROPIEDADES DE LA TRANSFORMADA ZETA 427

Lema E.3. Conjugación.


Sea y[k] una secuencia discreta en que 0 ≤ k < ∞ cuya transformada Zeta
es Y (z). Entonces, la transformada Zeta de la secuencia conjugada es

Z {y ∗ [k]} = Y ∗ (z ∗ ) (E.15)

Demostración
Directa de la definición (E.1)


X
Z {y ∗ [k]} = y ∗ [k]z −k
k=0

!∗
X
= y[k](z ∗ )−k = {Y (z ∗ )}∗
k=0

222

Lema E.4. Desplazamientos en k.


Sea y[k] una secuencia discreta en que 0 ≤ k < ∞ cuya transformada Zeta
es Y (z). Entonces, dado un entero k0 > 0, tenemos los siguientes resultados
para la transformada Zeta de la secuencia y[k] desplazada

Z {y[k − k0 ]} = Y (z)z −k0 + y[−1]z −k0 +1 + . . . + y[−k0 + 1]z −1 + y[−k0 ]


(E.16)
k0 k0 k0 −1

Z {y[k + k0 ]} = Y (z)z − y[0]z + y[1]z + . . . + y[k0 − 1]z (E.17)

Demostración
Consideremos primero el caso en que la secuencia ha sido retrasada en k 0 ,
es decir, la ecuación (E.16). Si usamos la definición de la transformada (E.1), y
la escribimos por extensión, tenemos que


X
Z {y[k − k0 ]} = y[k − k0 ]z −k
k=0

X
= y[−k0 ] + y[−k0 + 1]z −1 + . . . + y[−1]z −k0 +1 + y[k − k0 ]z −k
k=k0

Si definimos en la sumatoria l = k − k0 , entonces tenemos que k = l + k0 .


Por tanto si reordenamos al lado derecho de la última igualdad tendremos que
428 APÉNDICE E. LA TRANSFORMACIÓN ZETA


X
Z {y[k − k0 ]} = y[l]z −(l+k0 ) + y[−1]z −k0 +1 + . . . + y[−k0 + 1]z −1 + y[−k0 ]
l=0

!
X
−k0 −l
=z y[l]z + y[−1]z −k0 +1 + . . . + y[−k0 + 1]z −1 + y[−k0 ]
l=0

Donde la ecuación (E.16) queda demostrada.


Consideremos ahora el caso en que la secuencia y[k] es adelantada en k 0 .
Reemplazando en la definición tenemos que


X
Z {y[k + k0 ]} = y[k + k0 ]z −k
k=0
X∞
= y[l]z −(l−k0 )
l=k0
" ∞
#
X 
k0 −l −1 −k0 +1
=z y[l]z − y[0] + y[1]z + . . . + y[k0 − 1]z
l=0

X 
= y[l]z −l − y[0]z k0 + y[1]z k0 −1 + . . . + y[k0 − 1]z
l=0

Lo cual demuestra la segunda ecuación del lema, (E.17).


222

Es importante observar que si la secuencia y[k], retrasada en k0 , además


se multiplica por un escalón unitario, también desplazado en k0 , entonces ten-
dremos que

Z {y[k − k0 ]µ[k − k0 ]} = Y (z)z −k0 (E.18)


Ya que, en este caso, todas las condiciones iniciales serán iguales a cero.

Ejemplo E.4. Determine la transformada Zeta inversa de

z −k0
Y (z) =
z−α
Esta transformada se puede reescribir de manera de poder aplicar la ecuación
(E.18)

z
Y (z) = z −(k0 +1)
z−α
⇒ y[k] = αk−(k0 +1) µ[k − (k0 + 1)]
E.2. PROPIEDADES DE LA TRANSFORMADA ZETA 429

Lema E.5. Derivación en z


Sea y[k] una secuencia en tiempo discreto para k ∈ (0, +∞) , con transfor-
mada Zeta Z {y[k]} = Y (z), entonces

d Y (z)
Z {k · y[k]} = −z (E.19)
dz

Demostración
De la definición (E.1), tenemos que


X
Z {k · y[k]} = ky[k]z −k
k=0
X∞
= ky[k]z −k
k=0

X
= −z (−k)y[k]z −k−1
k=0
d Y (z)
= −z
dz
222

Ejemplo E.5. Consideremos el caso en que la secuencia discreta a la cual


queremos calcularle su transformada Zeta es una rampa de tiempo discreto, es
decir:

y[k] = kµ[k]
Según (E.19) su transformada será

 
d z
Z {kµ[k]} = −z
dz z − 1
(z − 1) − z
= −z
(z − 1)2
z
=
(z − 1)2

Lema E.6. Convolución


Sean y1 [k] e y2 [k] dos secuencias discretas causales, es decir, iguales a cero
para k < 0. Supongamos que sus transformadas Zeta son Y1 (z) e Y2 (z), respec-
tivamente. Entonces la transformada de la convolución discreta entre y 1 [k] e
y2 [k] es:
430 APÉNDICE E. LA TRANSFORMACIÓN ZETA

L {y1 [k] ∗ y2 [k]} = Y1 (z)Y2 (z) (E.20)

En que

k
X
y1 [k] ∗ y2 [k] = y1 [l]y2 [k − l] (E.21)
l=0

Demostración
Si las señales son causales, es decir, su valor es cero ∀k < 0, entonces podemos
reescribirlas

y1 [k] = µ[k]y1 [k]


y2 [k] = µ[k]y2 [k]

Con esto, la convolución es equivalente a



X
y1 [k] ∗ y2 [k] = y1 [l]µ[l]y2 [k − l]µ[k − l]
l=−∞

Si reemplazamos esta forma en la definición (E.1), podemos cambiar el orden


de las sumatorias:

∞ ∞
!
X X
L {y1 [k] ∗ y2 [k]} = y1 [l]µ[l]y2 [k − l]µ[k − l] z −k
k=0 l=−∞

!
X X
−k
= y1 [l]µ[l] y2 [k − l]µ[k − l]z
l=−∞ k=0

Donde se puede aplicar la propiedad de corrimiento en k (E.18) y reducir la


sumatoria eliminando el µ[l]:


X
L {y1 [k] ∗ y2 [k]} = y1 [l]µ[l]z −l Y2 (z)
l=−∞

X
= Y2 (z) y1 [l]z −l
l=0
= Y2 (z)Y1 (z)

222
E.2. PROPIEDADES DE LA TRANSFORMADA ZETA 431

Teorema E.1 (Teorema del Valor Final y Teorema del Valor Inicial).
Existen dos resultados que relacionan el comportamiento asintótico de la función
y[k] y su tranformada Y (z). Estos se conocen como el teorema del Valor Inicial
y teorema del Valor Final en tiempo discreto.

lı́m Y (z) = y[0] (E.22)


z→∞
lı́m (z − 1)Y (z) = lı́m y[k] (E.23)
z→1 k→∞

Las ecuaciones anteriores son válidas sólo en el caso que los lı́mites
existen, tanto en k como en z.

Demostración

La ecuación (E.22) se demuestra fácilmente observando la definición de la


transformada Zeta de la secuencia y[k] escrita por extensión


X
Y (z) = y[k]z −k
k=0
= y[0] + y[1]z −1 + . . . + y[k]z −k + . . .

La cual, si se lleva al lı́mite z → ∞ se reduce a un solo término

lı́m Y (z) = lı́m y[0] + lı́m y[1]z −1 + . . . + lı́m y[k]z −k + . . .


z→∞ z→∞ z→∞ z→∞
| {z } | {z }
0 0
= y[0]

Con lo que se demuestra el Teorema del Valor Inicial.


Para demostrar la ecuación (E.23) consideremos la transformada Zeta de la
secuencia adelantada en una unidad menos la secuencia original

Z {y[k + 1] − y[k]} = Z {y[k + 1]} − Z {y[k]}


= zY (z) − zy[0] − Y (z) = (z − 1)Y (z) − zy[0]

Por otro lado, si aplicamos la definición tendremos que

k
X
Z {y[k + 1] − y[k]} = lı́m (y[l + 1] − y[l])z −l
k→∞
l=0
432 APÉNDICE E. LA TRANSFORMACIÓN ZETA

Propiedades transformada Zeta Si igualamos ambas expresiones y hacemos posteriormente tender z → 1 ,


Tabla transformada Zeta
tendremos que
( k
)
X
lı́m {(z − 1)Y (z) − zy[0]} = lı́m lı́m (y[l + 1] − y[l])z −l
z→1 z→1 k→∞
l=0
k
X
lı́m {(z − 1)Y (z)} − y[0] = lı́m (y[l + 1] − y[l])
z→1 k→∞
l=0
lı́m {(z − 1)Y (z)} − y[0] = lı́m (y[k + 1]) − y[0]
z→1 k→∞

Donde el último paso al lado derecho se justifica ya que la sumatoria cor-


responde a una serie telescópica. De esta forma se demuestra el Teorema del
Valor Final, o valor de equilibrio.

La transformada Zeta es muy útil en el estudio de sistemas dinámicos de


tiempo discreto, ya que pemite convertir las ecuaciones recursivas, que de-
finen al sistema en el tiempo k, a ecuaciones algebraicas en la variable z.
E.2. PROPIEDADES DE LA TRANSFORMADA ZETA 433

y[k] Y (z) = Z {y[k]} Comentarios

l
X l
X
ai yi [k] ai Yi (z)
i=1 i=1
z
αk y[k] Y α ∈ C, <{α} > 0
α

y ∗ [k] Y ∗ (z ∗ ) Conjugación

y[k − k0 ] z −k0 Y (z) + y[−1]z −k0 +1 + . . . + y[−k0 ] k0 ∈ Z +

y[k + k0 ] z k0 Y (z) − (y[0]z k0 + . . . + y[k0 − 1]z) k 0 ∈ Z+

y[k − k0 ]µ[k − k0 ] z −k0 Y (z) k 0 ∈ Z+

dY (z)
ky[k] −z
dz
k
X
y1 [l]y2 [k − l] Y1 (z)Y2 (z) Convolución en k
l=0

y[0] lı́m Y (z) T. del Valor Inicial


z→∞

lı́m y[k] lı́m (z − 1)Y (z) T. del Valor Final


k→∞ z→1

Cuadro E.1: Propiedades de la transformada Zeta


434 APÉNDICE E. LA TRANSFORMACIÓN ZETA

y[k] (k ≥ 0) Y (z) = Z {y[k]} Región de Convergencia

δK [k] 1 ∀z ∈ C

z
1 |z| > 1
z−1
z
k |z| > 1
(z − 1)2
z
αk |z| > |α|
z−α
z
ejθ0 k |z| > 1
z − ejθ0
z(z − cos θ0 )
cos(θ0 k) |z| > 1
z 2 − 2z cos θ0 + 1
z sen θ0
sen(θ0 k) |z| > 1
z2 − 2z cos θ0 + 1
z(z − α cos θ0 )
αk cos(θ0 k) |z| > |α|
z 2 − 2zα cos θ0 + α2
zα sen θ0
αk sen(θ0 k) |z| > |α|
z2 − 2zα cos θ0 + α2
z 2 cos φ − z cos φ cos θ0 + sen φ sen θ0
cos(θ0 k + φ) |z| > 1
z 2 − 2z cos θ0 + 1
(
αk ;0 ≤ k < N 1 − (αz −1 )N
|z| > 0
0 ;k ≥ N 1 − αz −1

Cuadro E.2: Transformada Zeta de algunas funciones simples


matrices|textbf
matriz!definición
matriz!elementos

Apéndice F

Matrices. Definiciones y
Propiedades
11 de septiembre de 2003

En este apéndice se presenta una revisión de conceptos y propiedades rela-


cionadas con matrices, como soporte para varios de los capı́tulos del texto y
como referencia para tópicos más avanzados. En varios de los resultados que se
presentan se han omitido demostraciones y detalles excesivos, para los cuales se
incluyen las referencias necesarias orientadas al lector más interesado.

F.1. Conceptos Básicos


Intuitivamente se puede decir que una matriz no es más que un arreglo
rectangular de filas y columnas, cuyos elementos pertenecen a un conjunto dado
(números reales, complejos, o bien funciones u otros objetos matemáticos), en
el cual se encuentra definida la suma y la multiplicación. Más formalmente:

Definición F.1. Una matriz es un arreglo de n · m objetos pertenecientes a un


conjunto K, dispuestos rectangularmente en n filas y m columnas (n, m enteros
positivos). Al conjunto de dichas matrices lo denotaremos por Mn×m (K), o
simplemente por Kn×m .

Definición F.2. Los objetos dentro de dicho arreglo se denominan elementos


de la matriz, y denotaremos por aij el elemento situado en la i-ésima fila y
j-ésima columna.

De esta forma tenemos que una matriz A = {aij } es de la forma:

435
436 APÉNDICE F. MATRICES. DEFINICIONES Y PROPIEDADES

matriz!cuadrada
 
 a11 a11 ... a1m 
 
 
 
 
 a21 a22 ... a2m 
 
A = {aij } = 


 (F.1)
 . .. .. .. 
 .. . . . 
 
 
 
 
an1 an2 ... anm

en que todos los elementos de A pertenecen al conjunto K, es decir:

aij ∈ K ∀i ∈ {1, . . . , n}, ∀j ∈ {1, . . . , m} (F.2)


Una matriz con igual número de filas y columnas se denomina cuadrada.
Dos matrices se dicen iguales si y sólo si son iguales elemento por elemento,
es decir, dadas A, B ∈ Kn×m :

A=B ⇐⇒ aij = bij ∀i, j (F.3)


El conjunto K satisface por lo general las propiedades de cuerpo, y usual-
mente consideraremos el conjunto de los números reales R o de los complejos C.
Recordemos que:

Lema F.1. Un conjunto K, junto a las operaciones suma y multiplicación se


denomina un cuerpo, si y sólo si, para todo a, b, c ∈ K:

1.- La suma (+) satisface las siguientes propiedades:

(a) cerradura, es decir, a + b ∈ K


(b) asociatividad, es decir, a + (b + c) = (a + b) + c
(c) conmutatividad, es decir, a + b = b + a
(d) existe 0 ∈ K (cero o neutro aditivo) tal que a + 0 = 0 + a = a
(e) para cada a ∈ K existe el inverso aditivo (−a) ∈ K tal que a +
(−a) = −a + a = 0

2.- La multiplicación (·) satisface las siguientes propiedades:

(a) cerradura, es decir, a · b ∈ K


(b) asociatividad, es decir, a · (b · c) = (a · b) · c
(c) existe 1 ∈ K (uno, identidad o neutro multiplicativo) tal que
a·1=1·a=a
(d) existe 0 ∈ K tal que a · 0 = 0 · a = 0 (propiedad absorbente del
cero).
F.1. CONCEPTOS BÁSICOS 437

(e) para cada a ∈ K existe el inverso multiplicativo ∃a−1 ∈ K tal que vector!columna
vector!fila
a · a−1 = a−1 · a = 1 matriz!traza
(f ) conmutatividad, es decir, a · b = b · a traza
matriz!traspuesta
(g) distributividad, es decir, a · (b + c) = a · b + a · c matriz!simétrica
matriz!hermitiana

Vectores
Una matriz formada por n filas y 1 columna se denomina vector columna.
En base a esta definición podemos afirmar que una matriz de n×m está formada
por m vectores columna, cada uno con n elementos.
Una matriz formada por 1 fila y m columnas se denomina vector fila.
Análogamente, en base a esta definición podemos decir que una matriz de n × m
está formada por n vectores fila, cada uno con m elementos.
En general, cuando se defina un vector de dimensión p nos referiremos a un
vector columna formado por p elementos.

Traza de una matriz


Definición F.3. Dada A = {aij } ∈ Kn×n , la traza de A, que denotamos por
tr(A), es la suma de los elementos diagonales de A, es decir
n
X
tr(A) = aii (F.4)
i=1

Matrices especiales
Definición F.4. Dada A = {aij } ∈ Kn×m , la matriz traspuesta de A, que
denotamos por AT , es la que resulta de intercambiar sus filas con sus columnas,
es decir,
A = {aij } ⇐⇒ AT = {aji } (F.5)

En base a la definición, diremos que una matriz A es simétrica si y sólo si


AT = A, es decir, si y sólo si la matriz A es igual a su traspuesta. Naturalmente
para satisfacer esta condición la matriz debe ser cuadrada.
Para el caso de matrices con coeficientes o elementos complejos (es decir, en
C) resulta más común hablar de matrices hermitianas:

Definición F.5. Dada A = {aij } ∈ Cn×m , se define la matriz hermitiana de


A, que denotamos por AH , como la matriz conjugada traspuesta de A, donde
la conjugación se aplica a cada elemento:

AH = (A∗ )T = (AT )∗ = {a∗ji } (F.6)

Una consecuencia natural de esta definición es que toda matriz real y simétri-
ca es hermitiana.
Para matrices cuadradas, tenemos las siguientes definiciones:
438 APÉNDICE F. MATRICES. DEFINICIONES Y PROPIEDADES

matriz!diagonal Definición F.6. Dada una matriz A = {aij } ∈ Kn×n , diremos que:
matriz!triangular superior
matriz!triangular inferior la matriz A es diagonal si y sólo si aij = 0 ∀i 6= j , es decir, todos sus
matriz!identidad elementos fuera de la diagonal principal de la matriz son cero.
determinante
matriz!determinante la matriz A es triangular superior si y sólo si aij = 0 ∀i > j, es decir,
todos los elementos bajo la diagonal principal son cero.
la matriz A es triangular inferior si y solo si AT es triangular superior.
Dentro del conjunto de matrices diagonales, la matriz identidad es de
especial interés y su denominación se justifica en base a las propiedades del
producto matricial definido mas adelante. Esta se define como:
Definición F.7. La matriz identidad de dimensión n, que denotamos por I n ,
se define como una matriz diagonal, cuyos elementos no nulos son iguales a 1,
es decir:
 
1 0 ... 0
 
 
 
 
0 1 ... 0
 
In =   ∈ Kn×n (F.7)
 
 .. .. .. .. 
.
 . . .
 
 
 
0 0 ... 1

F.2. Determinante de una matriz


A menudo en matemáticas resulta útil representar las propiedades de un
objeto mediante un sólo número. Es ası́ como para matrices cuadradas se define
el determinante de la matriz. Este es un escalar asociado a una matriz
cuadrada y que, como veremos más adelante, tiene directa relación con su rango,
la existencia de su inversa, y con el cálculo de los autovalores.
Definición F.8. Dada la matriz A = {aij } ∈ Kn×n , su determinante es un
escalar asociado a la matriz que se denota por:

|A| = det A (F.8)


cuya definición constructiva se muestra a continuación.

Expansión de Laplace1
El cálculo del determinante puede ser definido por inducción. Sin embargo,
previo a su definición presentamos dos conceptos previos necesarios:
1 Roger A. Horn & Charles R. Johnson, Matrix Analysis, Cambridge University Press, 1990,

pág. 7
F.2. DETERMINANTE DE UNA MATRIZ 439

Definición F.9. Dada la matriz A = {aij } ∈ Kn×n : menor


matriz!menor
cofactor
se define Aij ∈ K(n−1)×(n−1) como la ij-ésima menor de A. Esta es una matriz!cofactor
matriz que resulta de eliminar la i-ésima fila y la j-ésima columna de la cofactor!desarrollo
matriz A.

se define el escalar:

Cij = (−1)i+j det Aij (F.9)

como el ij-ésimo cofactor de la matriz A

De esta forma, el determinante de A se define en términos del determinante


de sus menores:
n
X n
X
det A = (−1)i+j aij det Aij = (−1)i+j aij det Aij (F.10)
j=1 i=1

o bien, mediante desarrollo por cofactores:


n
X n
X
det(A) = aij Cij = aij Cij (F.11)
j=1 i=1

De esta forma, al definir el determinante para matrices formadas por un único


elemento, queda definido el cálculo del determinante para todas las matrices de
dimensiones mayores:

" #

det a11 = a11 = a11 (F.12)



a11 a12

= a11 a22 − a12 a21 (F.13)


a21 a22




a11 a12 a13

a22 a23 a21
a23 a21
a22

a21 a22 a23 = a11 − a12

+ a13


(F.14)


a32 a33
a31 a33 a31 a32

a31 a32 a33

..
. (F.15)
440 APÉNDICE F. MATRICES. DEFINICIONES Y PROPIEDADES

singular Existe una serie de reglas que pueden facilitar el cálculo del determinante de
matriz!singular
matriz!no singular una matriz que están más allá del objetivo de este apéndice. Sin embargo, una
matriz!rango observación útil para reducir el número de cálculos necesarios para obtener el
rango determinante de una matriz es elegir la fila (o columna) que contenga el mayor
rango!columna número de ceros, para hacer el desarrollo en (F.10).
rango!columna
matriz!rango Podemos además hacer las siguientes observaciones:
rango
rango completo Si la matriz A tiene una fila o una columna formada sólo por ceros, en-
tonces det(A) = 0.
Si det(A) = 0 se dice que la matriz es singular. En caso contrario, se dice
que la matriz es no singular.
Si la matriz A de n × n es diagonal o triangular (superior o inferior),
entonces det(A) = a11 a22 . . . ann

Rango de una matriz


En la definición que sigue se hace mención a los conceptos de combinación
lineal e independencia lineal en espacios vectoriales, que el lector interesado
puede revisar en el Apéndice B.
Definición F.10. Dada la matriz A = {aij } ∈ Kn×m :
Se define el rango columna de una matriz A al máximo número de
columnas linealmente independientes.
Se define el rango fila de una matriz A al máximo número de filas lin-
ealmente independientes.
Se define el rango de una matriz A al mı́nimo entre su rango fila y su
rango columna.
Finalmente, se dice que A es de rango completo si su rango es igual al
mı́nimo entre su número de filas o de columnas.
Ejemplo F.1. La matriz:
 
1 2 0 4
 
 
 
 
A = 2 −3 1 −1 (F.16)
 
 
 
 
3 −1 1 3

tiene rango fila igual a 2, pues la tercera fila es la suma de las dos primeras,
mientras que tiene rango columna igual a 3, pues las 3 columnas a la izquierda
son linealmente independientes, y en R3 estas conforman una base, es decir,
cualquier otro vector se puede escribir como combinación lineal de elementos de
esta base. Su rango, por ende, es igual a 2, y no es de rango completo.
F.3. OPERACIONES CON MATRICES 441

222 matrices!suma
espacio!vectorial
Una matriz cuadrada es de rango completo si y sólo si es no singular.

F.3. Operaciones con matrices


Suma de matrices
La suma de dos matrices se define como la suma elemento por elemento.
Naturalmente, la condición para que esta suma tenga sentido es que ambas
tengan las mismas dimensiones. Bajo esta condición:

C=A+B= ⇐⇒ cij = aij + bij (F.17)


donde A = aij , B = bij y C = cij pertenecen a Mn×m (K).
La suma de matrices hereda sus propiedades directamente de las propiedades
de la suma en el conjunto K al que pertenecen sus elementos, en el Lema F.1.
Es decir, se cumple la cerradura, asociatividad, conmutatividad, existencia del
neutro y del inverso aditivo.
En particular, se define la matriz cero (o neutro aditivo) 0n×m como la
matriz cuyos elementos son todos 0. De esta forma A + 0 = A. Asimismo,
la matriz inversa aditiva de A, que se denota por −A, esta formada por el
inverso aditivo de cada elemento de A. Esto es −A = {−aij } y de esta forma
−A + A = 0.
Nota: En Matlab es posible sumar un escalar c a cada elemento de una
matriz A ∈ Cn×n , haciendo abuso de notación, con la expresión

>> A+c

cuyo resultado es una matriz en la cual el elemento ij-ésimo es igual a a ij +c

Producto matriz por escalar


Definición F.11. Dado un escalar α ∈ K y una matriz A ∈ Kn×m , entonces
el producto matriz por escalar se define como

αA = α{aij } = {αaij } ∈ Kn×m (F.18)


es decir, es la matriz que se obtiene de multiplicar cada elemento de la matriz
A por el escalar α

Asi como la suma de matrices hereda sus propiedades de las propiedades de


la suma en el cuerpo K, el producto por escalar las hereda de la multiplicación.
De esta forma, el conjunto Mn×m (K) con el producto por escalar satisface las
propiedades de un espacio vectorial (ver Apéndice . . . ). Es más, siempre es
posible establecer un isomorfismo entre Mn×m (K) y un espacio vectorial de
dimensión nm.
442 APÉNDICE F. MATRICES. DEFINICIONES Y PROPIEDADES

producto!matrices Lema F.2. Propiedades del producto matriz por escalar


matriz!producto
Dados los escalares α, β ∈ K y las matrices A, B ∈ Kn×m , se cumplen las
siguientes propiedades:

(a) cerradura, es decir, αA ∈ Kn×m

(b) asociatividad, es decir, (αβ)A = α(βA)

(c) conmutatividad, es decir, αA = Aα

(d) distributividad escalar, es decir, (α + β)A = αA + βA

(e) distributividad matricial, es decir, α(A + B) = αA + αB

(f ) Existe el elemento neutro 1 ∈ K , tal que 1 A = A

Producto matricial
El producto de matrices puede entenderse como una extensión del producto
punto o producto interno usual dos vectores v, w ∈ Kn , definido como:
n
X
hv, wi = v · w = vk∗ wk (F.19)
k=1

De esta forma, tenemos la siguiente definición:

Definición F.12. Dadas las matrices A ∈ Kn×p y B ∈ Kp×m , el producto


matricial entre A y B se define como la matriz C ∈ Kn×m tal que:

AB = {aik }{bkj } = {cij } = C (F.20)


en que cada elemento de C es:
p
X
cij = aik bkj = hai∗ , b∗j i (F.21)
k=1

donde ai∗ es la i-ésima fila de A y b∗j denota la j-ésima columna de B.

Note que:

la condición para la existencia del producto matricial es que el


número de columnas de A sea igual al número de filas de B.

usando la ecuación (F.19), podemos ver que el elemento ij-ésimo de C


es el producto punto entre el i-ésimo vector fila de A y el j-ésimo vector
columna de B

el producto punto puede expresarse como producto matricial, es decir, en


la ecuacion (F.19):
hv, wi = (v∗ )T w (F.22)
F.4. INVERSA DE UNA MATRIZ 443

Lema F.3. Propiedades del producto matricial matriz!inversa


matriz!no singular
Dadas las matrices A, B y C , de dimensiones adecuadas, se cumplen las inversa de una matriz
siguientes propiedades: inversa generalizada
matriz!inversa generalizada
(a) asociatividad matricial, es decir, (AB)C = A(BC)

(b) asociatividad escalar, es decir, α(AB) = (αA)B

(c) distributividad, es decir, (A + B)C = AC + BC

(d) En general, no existe conmutatividad, es decir, AB 6= BA

(e) Dada la matriz A ∈ Kn×m , existe la matriz identidad In y la matriz iden-


tidad Im , tal que In A = A = AIm

(f ) Si AB = C , entonces (det A)(det B) = det C

F.4. Inversa de una matriz


Revisando las propiedades del producto matricial en el Lema F.3, podemos
apreciar que no se menciona nada sobre la existencia de un inverso multiplicativo
para una matriz A dada. De hecho, en esta sección veremos que no toda matriz
posee un inverso multiplicativo, el que sólo existe bajo ciertas condiciones.

Definición F.13. Dada una matriz A, se define la matriz inversa de A, que


denotamos por A−1 , como la matriz (si es que existe) que satisface:

AA−1 = A−1 A = I (F.23)


donde I representa la matriz identidad.
Si esta matriz A−1 existe, diremos que la matriz A es invertible o no
singular.

Note que:

no todas las matrices poseen una inversa,

de la ecuación (F.23), se deduce que la matriz A y su inversa A−1 , deben


ser cuadradas y de la misma dimensión,

la inversa de A, si existe, es única.

para matrices singulares y/o no cuadradas es posible definir su inversa por


la derecha, por la izquierda o su inversa generalizada. 2

En el siguiente lema se establecen condiciones equivalentes que garantizan


la invertibilidad de una matriz A dada, en diferentes contextos:
2 http://www.ee.ic.ac.uk/hp/staff/dmb/matrix
444 APÉNDICE F. MATRICES. DEFINICIONES Y PROPIEDADES

matriz!adjunta Lema F.4. Existencia de la inversa de A


adjunta de una matriz
matriz!particionada Dada una matriz A ∈ Kn×n , entonces las siguientes condiciones son equiva-
lentes:

(a) A es no singular.

(b) A−1 existe.

(c) rango A = n.

(d) las filas de A son linealmente independientes.

(e) las columnas de A son linealmente independientes.

(f ) det A 6= 0.

El cálculo de la inversa de una matriz puede definirse en términos de su


matriz adjunta:

Definición F.14. Dada una matriz A ∈ Kn , se define su matriz adjunta


como la traspuesta de la matriz de sus cofactores, es decir:

Adj A = {Cij }T (F.24)

en que Cij son los definidos en la ecuación (F.9)

Entonces, tenemos el siguiente resultado:

Lema F.5. Inversa de una matriz


Dada una matriz A ∈ Kn no singular, entonces su inversa A−1 es:

1
A−1 = Adj A (F.25)
det A
Demostración:
Usando la expansión de Laplace (F.10), entonces se puede probar que:

(Adj A)A = A (Adj A) = (det A) I (F.26)

222

Matrices particionadas
Toda matriz puede ser particionada de forma tal que se expresa como una
matriz de macro elementos, cada uno de ellos es en si mismo otra matriz. Se
dice, en estos casos que la matriz está definida por bloques. Considere una matriz
A ∈ Cn×m , entonces:
F.4. INVERSA DE UNA MATRIZ 445

 
A11 A12 A13 ··· A1q 
 
 
 
 
A21 A22 A23 ··· A2q 
 
A = {aij } = 


 (F.27)
 . .. .. .. 
 .. . . ... . 
 
 
 
 
Ap1 Ap2 Ap3 ··· Apq

donde Aij ∈ Cni ×mj y además se cumple que


p
X q
X
ni = n; mj = m (F.28)
i=1 j=1

Por ejemplo, si  
−1 2 0 −7
 
 
 
 
0 3 −2 5
 
A=


 (F.29)
 
−1 −1 2 3
 
 
 
 
2 2 −2 4

Entonces, una partición posible es dividir la matriz A en un arreglo de 2 × 2


bloques, donde

   
−1 2 0 −7
   
    " #
   
   
A11 = 0 3 −2 ; A12 =  5  ; A21 = 2 2 −2 ; A22 = 4 (F.30)
   
   
   
   
−1 −1 2 3

Lema de Inversión Matricial


En esta seccion presentamos un importante resultado que resulta útil en
aquellos casos que se requiere manipular (calcular determinantes o inversas)
matrices de grandes dimensiones, o bien, matrices definidas por bloques. Para
esto consideramos una matriz cuadrada, definida por bloques, de la forma:
446 APÉNDICE F. MATRICES. DEFINICIONES Y PROPIEDADES

inversion matricial
matriz!particionada
 
A11 A12 
 
A=  ∈ C(p+q)×(p+q) (F.31)
 
 
A21 A22

en que:

A11 ∈ Cp×p ; A12 ∈ Cp×q ; A21 ∈ Cq×p ; A22 ∈ Cq×q (F.32)

De esta forma, si se definen la siguiente matrices auxiliares:

∆11 = A11 − A12 A−1


22 A21 (F.33)
∆22 = A22 − A21 A−1
11 A12 (F.34)

entonces, tenemos el siguiente resultado preliminar:


Lema F.6 (Inversa de una matriz particionada). Considere las ecuaciones
(F.31)– (F.34). Si las matrices A11 , A2 , ∆11 y ∆22 son no singulares, entonces
la matriz A es no singular y su inversa es:

 
A−1 −1 −1 −1
11 + A11 A12 ∆22 A21 A11 −A−1 −1
11 A12 ∆22
A−1 =   (F.35)
−∆−1 −1
22 A21 A11 ∆−1
22

o bien:

 
∆−1
11 −∆−1 −1
11 A12 A22
A−1 =   (F.36)
−A−1 −1
22 A21 ∆11 A−1 −1 −1 −1
22 + A22 A21 ∆11 A12 A22

En particular, dadas submatrices como las que forman la matriz (F.31),


entonces:

∆−1 −1 −1 −1 −1
11 = A11 + A11 A12 ∆22 A21 A11 (F.37)
Ademas, dadas submatrices como las que forman la matriz (F.31), se tiene
que:

A−1 −1 −1 −1
11 A12 ∆22 = ∆11 A12 A22 (F.38)
Finalmente, el determinante de la matriz definida en (F.31), se puede cal-
cular como:

det(A) = det(A11 ) · det(∆22 ) (F.39)


F.4. INVERSA DE UNA MATRIZ 447

o bien:

det(A) = det(A22 ) · det(∆11 ) (F.40)

Demostración:
La matriz A puede reescribirse en la forma:
  
Ip 0 A11 A12
A=   (F.41)
A21 A11 −1 Iq 0 ∆22

y de la forma:
  
Ip A12 A22 −1 ∆11 0
A=   (F.42)
0 Iq A21 A22

Calculando los determinantes de las matrices en estas ecuaciones, se prueba


(F.39) y (F.40). Se debe observar que esto asegura que det(A) 6= 0, es decir, A
es no singular. Ahora, se observa que:
 −1  
A11 A12 A11 −1 −A11 −1 A12 (∆22 )−1
  =  (F.43)
0 ∆22 0 (∆22 )−1

y, además:
 −1  
Ip 0 Ip 0
= (F.44)
A21 A11 −1 Iq −A21 A11 −1 Iq
Estas dos ecuaciones se pueden utilizar cuando se aplica inversión matricial
en la ecuación (F.41):
 −1  −1
A11 A12 Ip 0
A−1 = (F.45)
0 ∆22 A21 A11 −1 Iq

Reemplazando y haciendo el producto matricial, se prueba la ecuación (F.35).


La ecuación (F.36) se prueba de manera análoga.
Finalmente, la ecuación (F.37) se obtiene de igualar los bloques superiores
izquierdos en las matrices (F.35) y (F.36), mientras que la ecuación (F.38) de
forma análoga, pero igualando los bloques superiores derechos.
222

A partir de las ecuaciones en el lema anterior, se obtienen el siguiente lema


que, considerando algunos casos particulares para la matriz A en (F.31), repre-
senta resultados más simples, también de amplia utilidad.
448 APÉNDICE F. MATRICES. DEFINICIONES Y PROPIEDADES

autovalores|textbf Lema F.7 (Lema de inversión matricial). Dadas las matrices:


autovectores|textbf
valores caracterı́sticos|textbf
vectores B ∈ Km×n ; C ∈ Kn×n ; D ∈ Kn×m (F.46)
caracterı́sticos|textbf
matriz!autovalores entonces se tienen las siguientes relaciones:
autovalores
valores propios
D(Im − BD)−1 = (In − DB)−1 D (F.47)
−1 −1 −1
(Im + BC D) = Im − B(C − DB) D (F.48)
−1 −1 −1 −1 −1 −1
(C + DB) =C
D(In + BC−C D) BC (F.49)
 
det Im − BD = det In − DB (F.50)

Demostracion:

La ecuacion (F.47), es directa de (F.38), haciendo A11 = Im , A12 = B,


A21 = D y A22 = In .
La ecuacion (F.48), se obtiene a partir de (F.37), haciendo A11 = Im ,
A12 = −B, A21 = D y A22 = C.
La ecuacion (F.49), tambien se obtiene a partir de (F.37), pero haciendo
A11 = C, A12 = −D, A21 = B y A22 = Im .
Finalmente, (F.50) se obtiene a partir de las ecuaciones (F.39) y (F.40),
pero considerando A11 = In , A12 = D, A21 = B y A22 = Im .

222

F.5. Autovalores y autovectores


En diferentes problemas, tanto en matemática como en ingenierı́a, dada una
matriz A ∈ Kn×n se tiene la siguiente ecuación:

A · v = λv ; v 6= 0 (F.51)
n
en que interesa encontrar el (o los) vector(es) v ∈ K y escalar(es) λ ∈ K que
permiten reemplazar el producto matriz-vector al lado izquierdo de (F.51), por
un producto escalar-vector (lado derecho). Naturalmente, nos interesa encontrar
soluciones no triviales de la ecuación (F.51).
Definición F.15. Valores y vectores propios
Dada una matriz A ∈ Kn×n y la ecuación (F.51), entonces:

los escalares {λi } que satisfacen esta ecuación se denominan valores pro-
pios, autovalores o eigenvalores, y
los correspondientes vectores {vi } se denominan vectores propios, au-
tovectores o eigenvectores
F.5. AUTOVALORES Y AUTOVECTORES 449

Las soluciones de la ecuación (F.51) vienen dadas por el siguiente lema: polinomio caracterı́stico
espectro
Lema F.8. Ecuación caracterı́stica radio espectral
Cada autovalor λ de la matriz A en (F.51) satisface la ecuación caracterı́stica:

det(λI − A) = 0 (F.52)
El lado izquierdo de esta ecuación es el polinomio caracterı́stico, p(λ),
de orden n, y posee n raices complejas.
Demostración:
La ecuación (F.51) puede reescribirse como:

λv − Av = 0 (F.53)
(λI − A) v = 0 (F.54)
Entonces el resultado se prueba por contradicción: si la ecuación (F.52) no
se cumple, entonces la matriz (λI − A) es no singular, y al multiplicar por su
inversa al lado izquierdo se tiene:

(λI − A)−1 (λI − A)v = v = 0 (F.55)


lo que contradice la condición v 6= 0
222
Definición F.16. Espectro y radio espectral
El conjunto de n autovalores de una matriz A ∈ Kn×n se denomina el
espectro de A, y se denota por:

σ(A) = {λ1 , λ2 , . . . , λn } (F.56)


Asimismo, se define el radio espectral de A como:

ρ(A) = máx{|λ| : λ ∈ σ(A)} (F.57)


Este justamente corresponde al radio del disco más pequeño centrado en
el origen del plano complejo C que incluye todos los autovalores de A.
Cada uno de los valores propios de A puede usarse en la ecuación (F.51)
para determinar su vector propio asociado resolviendo para v. Este sistema
posee infinitas soluciones dado que justamente el autovalor λi se ha obtenido
forzando su determinante a ser cero (F.52). Sin embargo, basta elegir uno de
estos vectores como solución ya que el lector puede verificar que si vi es un vector
propio asociado al autovalor λi también lo es el vector αvi , para cualquier escalar
α. Para disminuir la multiplicidad de soluciones en el cálculo de autovectores,
se normalizan las soluciones de modo que su norma euclidiana sea 1, es decir
||vi || = 1.
Cuando los autovalores son distintos entre sı́, los autovectores son lineal-
mente independientes. Sin embargo, cuando hay autovalores repetidos, puede
ocurrir que los autovectores asociados sean linealmente dependientes.
450 APÉNDICE F. MATRICES. DEFINICIONES Y PROPIEDADES

matrices!similares Diagonalización
similaridad!transformación de
congruencia Cuando los autovectores vi de la matriz A que satisfacen la ecuación (F.51),
son linealmente independientes, pueden agruparse en una matriz T no singular:
" #
T = v1 v2 ... vn (F.58)

Lema F.9. Diagonalización


Dada una matriz A ∈ Kn×n , sin autovalores repetidos, y la matriz T definida
en (F.58), formada por sus autovectores, se tiene que:

T−1 AT = P (F.59)
en que P es la matriz diagonal formada por los autovalores de A, es decir:

P = diag{λ1 , λ2 , . . . , λn } (F.60)

Demostración

Usando la ecuación (F.58), podemos escribir:

" #
AT = A v v2 ... vn (F.61)
1
" #
= Av1 Av2 ... Avn (F.62)
" #
= λ 1 v1 λ 2 v2 ... λ n vn (F.63)

= T diag{λ1 , λ2 , . . . , λn } (F.64)

Y el resultado se obtiene multiplicando por la izquierda por la inversa de la


matriz no singular T.
222

Definición F.17. Cuando dos matrices A y P satisfacen la ecuación (F.59), se


denominan matrices similares, y la transformacion A → T−1 AT se denomina
transformacion de similaridad.

Analogamente a la definicion F.17 de similaridad entre matrices, se define


tambien el concepto de congruencia:

Definición F.18. Dos matrices A, B ∈ Kn×n se dicen:


H
congruentes si y sólo si existe una matriz no singular S tal que B =
SH AS, y
F.5. AUTOVALORES Y AUTOVECTORES 451

T
congruentes si y sólo si existe una matriz no singular S tal que B = multiplicidad!autovalores
autovectores!generalizados
ST AS. Jordan!forma de
matriz!forma de Jordan
Naturalmente estos conceptos son equivalentes si S es una matriz real.

Forma de Jordan
En el caso que una matriz A posea autovalores repetidos, es decir, con mul-
tiplicidad, pueden darse dos situaciones diferentes respecto a la digonalización.
Supongamos que un autovalor λi con multiplicidad ni ≥ 2, entonces:

1. el autovalor λi da origen a ni autovectores linealmente independientes en


la ecuación (F.51), o bien

2. el autovalor λi da origen a menos de ni autovectores linealmente inde-


pendientes

En el primer caso, no hay problema en construir la matriz T en (F.58), y


por tanto se obtiene la matriz diagonal P en (F.59), sin problema alguno.
Sin embargo, en el segundo caso, se pueden obtener construir los vectores
(l.i.) necesarios para la matriz T a partir de la siguiente cadena de vectores
propios:

(A − λi I)vi,0 = 0
(A − λi I)vi,1 = vi,0 (F.65)
(A − λi I)vi,2 = vi,1
..
.

Note que, en estricto rigor, sólo vi,0 es un autovector; en cambio vi,j j =


1, 2, . . . , k no lo son y reciben el nombre de autovectores generalizados.
Si suponemos que el único valor propio repetido es λi con multiplicidad
k, pero con un solo vector propio obtenido en (F.51) y el resto mediante las
ecuaciones (F.65), entonces la matriz T definida en (F.58) se construye ahora
como:

 
T = v1 . . . vi,k vi,k−1 . . . vi,0 . . . vn (F.66)
| {z }
asociados a λi

y la matriz P en (F.59) ya no es diagonal, sino que tiene la forma de Jordan:


452 APÉNDICE F. MATRICES. DEFINICIONES Y PROPIEDADES

autovectores!generalizados
 
λ1 0 ... 0
 
 
 
 .. .. 
0
 . . 

 
 
 
P = JA = Ji  (F.67)
 
 
 
. .. 
 .. . 0
 
 
 
 
0 ... 0 λn

en que la matriz Ji ∈ Kk×k es un bloque sobre la diagonal principal de JA de


la forma:
 
λi 0 ... 0
 
 
 
 
1 λi 
 
Ji = 


 (F.68)
 .. .. .. 

 . . .
 
 
 
0 1 λi

Note que, en estricto rigor, sólo vi,0 es un autovector; en cambio vi,j , j =


1, 2, . . . , k, no lo son y reciben el nombre de autovectores generalizados.
Note además que todo bloque de Jordan, Ji , es una matriz triangular y por
lo tanto cumple con

tr(Ji ) = ni λi ; det(Ji ) = λi ni (F.69)


Ejemplo F.2. Considere la matriz 3 :
 
2 0 0
 
 
 
 
A = a 2 0 ; a∈R (F.70)
 
 
 
 
1 1 −1

Sus autovalores se obtiene fácilmente de la ecuación caracterı́stica (F.52):


3 Hoffman & Kunze, Linear Algebra 2ed. 1971, Prentice-Hall, p.247
F.5. AUTOVALORES Y AUTOVECTORES 453

(
2 λ1 = 2 (multiplicidad 2)
det(λI − A) = (λ − 2) (λ + 1) = 0 ⇒ (F.71)
λ2 = −1

Caso 1 : a = 0

Usando la ecuación (F.51) se obtienen los autovectores:

    
0 0 0 α1  α1
   
  
    
    
    
(λ1 I − A)v1 =  0 0 0  =0 ⇒ v1 =   (F.72)
   β1   β1 
    
    
    
−1 −1 3 γ1 (α1 + β1 )/3
    
−3 0
0 α2 
  0
  
    
    
    
(λ2 I − A)v2 =  0 −3 0  =0 ⇒ v2 =  0  (F.73)
   β2   
    
    
    
−1 −1 0 γ2 γ2

Es claro que para obtener un autovector v2 asociado a λ2 = −1 basta escoger


cualquier valor para γ2 6= 0, por ejemplo γ2 = 1. Sin embargo, la expresión para
v1 nos dice que existen dos grados de libertad, α1 y β1 , es decir, es posible
obtener 2 vectores linealmente independientes:

     

 α1 

3
 
0 
 
     
  α   β   α β1
  1   1   1
v1 =  β1 =  +  = v1,α + v1,β (F.74)
  3 0 3 3  3 3
     
     
     
(α1 + β1 )/3 1 1

Con esto tenemos la matriz de transformación:


454 APÉNDICE F. MATRICES. DEFINICIONES Y PROPIEDADES

 
3 0 0
 
" #  
 
 
T= v v1,β v2 = 0 3 0 (F.75)
1,α  
 
 
 
1 1 1

Con lo que se obtiene:

 
2 0 0
 
 
 
−1  
T AT = 0 2 0 =P (F.76)
 
 
 
 
0 0 −1

Caso 2 : a 6= 0

Usando la ecuación (F.51) se obtienen los autovectores:

   
 0 0 0 0 
   
   
   
   
(λ1 I − A)v1 = −a 0 0 v =0 ⇒ v1 = 3 = v1,0 (F.77)
  1  
   
   
   
−1 −1 3 1
   
−3 0 0 0 
   
   
   
   
(λ2 I − A)v2 = −a −3 0 v2 = 0 ⇒ v 2 = 0  (F.78)
   
   
   
   
−1 −1 0 1

Para obtener el segundo autovector asociado a λ1 usamos la cadena de vec-


tores (F.65):
F.5. AUTOVALORES Y AUTOVECTORES 455

(A − λ1 I)v1,1 = v1,0 (F.79)


    
 0 0 0  α  0 
    
    
    
    
a 0 0   β  = 3  (F.80)
    
    
    
    
1 1 −3 γ 1

Donde se obtiene α = 3/a y β = 3γ + 1 − 3/a. Por simplicidad escoge-


mos γ = 0, luego v1,1 = [ 3/a , 1 − 3/a , 0 ]T . Con esto tenemos la matriz de
transformación:
 
 3/a 0 0
 
" #  
 
 
T = v1,1 v1,0 v2 = 1 − 3/a 3 0 (F.81)
 
 
 
 
0 1 1

Con lo que se obtiene:


 
2 0 0
 
 
 
−1  
T AT = 1 2 0 = JA (F.82)
 
 
 
 
0 0 −1

Lema F.10. Sea una matriz A ∈ Cn×n con autovalores λ1 , λ2 , λ3 , . . . , λn , en-


tonces

n
X
tr(A) = λi (F.83)
i=1
Yn
det(A) = λi (F.84)
i=1

Demostración
Primero observamos que siempre existe una matriz no singular T, tal que
T−1 AT = diag{J1 , J2 , . . . , Jq } (F.85)
456 APÉNDICE F. MATRICES. DEFINICIONES Y PROPIEDADES

donde Ji ∈ Cni ×ni , i = 1, 2, . . . , q, son bloques de Jordan, donde ni es un entero


mayor o igual a 1. Entonces, para la traza se cumple, usando (F.69), que
q
X q
X
tr(T−1 AT) = tr(Ji ) = ni λi (F.86)
i=1 i=1

es decir, tr(T−1 AT) es igual a la suma de todos los autovalores de A. Por otro
lado

tr(T−1 AT) = tr(ATT−1 ) = tr(A) (F.87)


lo cual cierra la demostración para la traza.
Para el determinante, se tiene, usando (F.69), que
q
Y q
Y
det(T−1 AT) = det(Ji ) = λi n i (F.88)
i=1 i=1

es decir, tr(T−1 AT) es igual al producto de todos los autovalores de A. Por


otro lado

det(T−1 AT) = det(ATT−1 ) = det(A) (F.89)


222
Una propiedad fundamental de la transformación similar es que se preservan
ciertas caracterı́sticas, tal como se plantea a continuación.
Lema F.11. Sean A y B dos matrices similares. Entonces, tienen los mismos
autovalores, el mismo determinante y la misma traza.

Demostración
Si A y B son similares, entonces existe T no singular tal que B = T−1 AT.
Entonces, los autovalores de B son las raı́ces de det(λI − B) = 0. Si ahora
usamos la similaridad tenemos que


det(λI − B) = det(λT−1 T − T−1 AT) = det T−1 (λI − A)T (F.90)

= det (λI − A)TT−1 = det(λI − A) (F.91)

lo cual demuestra que la transformación similar preserva los autovalores.


Para demostrar la preservación de determinante y traza se aplica directa-
mente el Lema F.10.
222
Los lemas que siguen presentan propiedades adicionales de autovalores y
autovectores.
Lema F.12 (Propiedades de autovalores y autovectores). Los autoval-
ores y autovectores de una matriz A ∈ C n×n tienen las siguientes propiedades
F.6. NORMAS DE VECTORES Y MATRICES 457

P1 La matriz A y la matriz Ak , tienen los mismos autovectores ∀k entero.


P2 Si los autovalores de A son λ1 , λ2 , . . . , λn , entonces los autovalores de Ak
son λk1 , λk2 , . . . , λkn .

P3 Si A es hermitiana, es decir, A = AH ∈ Cn×n , entonces todos sus auto-


valores son reales.
P4 Si A es hermitiana, entonces sus n autovectores son linealmente indepen-
dientes. Esto también implica que, en este caso, A es diagonalizable.
P5 Si A es hermitiana entonces sus autovectores v1 , v2 , . . . , vn son ortogonales
entre sı́.

Lema F.13 (Descomposición espectral). Si A es hermitiana con autoval-


ores λ1 , λ2 , . . . , λn y autovectores asociados v1 , v2 , . . . , vn , con ||vi || = 1 para
i = 1, 2, . . . , n, entonces
Xn
A= λi vi · viH (F.92)
i=1

Las demostraciones de los lemas precedentes son dejadas como ejercicios


para el lector.

F.6. Normas de vectores y matrices


Norma de vectores
El concepto de norma, y sus propiedades, ya fue definido en el apendice . . . ,
en el contexto de espacios vectoriales (Definicion B.6 pag 322).
En particular la norma ahi empleada es la que queda inducida por el producto
interno entre vectores. Sin embargo, para vectores existen otras normas que
pueden definirse, que tambien satisfacen las propiedades en la Definicion B.6:

1. La norma euclideana (o norma l2 ) en Cn , definida como:

kvk2 = (|v1 |2 + . . . + |vn |2 )1/2 (F.93)

Esta es la norma mas comun, pues representa la distancia usual dos puntos
en Cn . Note que tambien se deriva del producto punto usual (F.19) en Cn ,
es decir, kvk22 = hv, vi = v∗ v

2. La norma suma (o norma l1 ) en Cn , definida como:

kvk1 = |v1 | + . . . + |vn | (F.94)

3. La norma max (o norma l∞ ) en Cn , definida como:

kvk∞ = máx{|v1 |, . . . , |vn |} (F.95)


458 APÉNDICE F. MATRICES. DEFINICIONES Y PROPIEDADES

desigualdad!Cauchy--Schwarz 4. La norma p en Cn , con p ≥ 1 definida como:


norma-$1$
Fröbenius
norma-$2$ kvkp = (|v1 |p + . . . + |vn |p )1/p (F.96)
matriz!norma-$2$
matriz!norma Fröbenius Se deja al lector (como buen ejercicio) representar todos los vectores que
norma-$\infty$
matriz!norma-$\infty$
están a distancia 1 del origen, en cada una de estas normas, por ejemplo, en C
o R2 .

Norma de matrices
Para definir la norma de una matriz, o equivalentemente, la distancia entre
dos matrices, una primera forma seria considerar simplemente el isomorfismo
entre espacio Mn×m (K) y el espacio vectorial Knm . Sin embargo, al considerar
simplemente la norma en un espacio vectorial de mayores dimensiones, no es
posible establecer relaciones con propiedades caracterı́sticas de las matrices,
como son el producto matricial, el determinante y el espectro, entre otras. Por
esto, tenemos la siguiente definición, más adecuada:
Definición F.19. Una norma matricial es una función que va de M(K) → R
talque, para A, B de dimensiones adecuadas, satisface:

1. kAk ≥ 0, y kAk = 0 si y sólo si A = 0


2. kαAk = |α|kAk para todo escalar α ∈ K
3. kA + Bk ≤ kAk + kBk , es decir, la desigualdad triangular usual.
4. kABk ≤ kAkkBk , que se denomina desigualdad de Cauchy–Schwartz

Las normas matriciales más usuales son:

1. La norma suma (o norma-1) definida para A = {aij } ∈ Cn×m como:


n X
X m
kAk1 = |aij | (F.97)
i=1 j=1

2. La norma euclideana, norma Fröbenius o norma-2, definida para A =


{aij } ∈ Kn×m como:
 1/2
n X
X m q
kAk2 =  |aij |2  = tr(AH A) (F.98)
i=1 j=1

3. La norma max (o norma-∞) en Kn×m , definida como:

kAk∞ = máx{aij } (F.99)


i,j
F.6. NORMAS DE VECTORES Y MATRICES 459

4. La norma-p en Kn×m , con p ≥ 1 definida como: norma-p


matriz!norma-p
 1/p norma!inducida
X m
n X matriz!norma inducida
kAkp =  |aij |p  (F.100) norma espectral
norma!spectral
i=1 j=1
matriz!norma spectral
número de condicionamiento
matriz, condición
Además de las anteriores, la forma más natural de definir una norma matri-
cial es inducirla a través de una norma vectorial de la siguiente forma:

Definición F.20. Dada una matriz A ∈ Kn×m y una norma vectorial k · k,


definimos la norma matricial inducida como:

kAk = máx kAvk (F.101)


kvk=1

La norma inducida puede definirse también de una serie de formas equiva-


lentes:

kAvk
kAk = máx kAvk = máx kAvk = máx (F.102)
kvk=1 kvk≤1 kvk6=0 kvk
Varias de las normas antes definidas, pueden expresarse en términos de la
norma inducida, eligiendo la norma vectorial adecuada. Sin embargo, existe una
serie de normas matriciales independientes de esta definición. Entre ellas, una
de las más importantes es:

Definición F.21. Se define la norma espectral de una matriz A ∈ K n×m


como:

kAk2 = máx{ λ : λ es un autovalor de A∗ A} (F.103)

Finalmente, y como aplicación de la definición de norma entre matrices, se


considera la relación entre normas de una matriz y el cálculo de su inverso.
Este cálculo puede ser muy sensible a errores numéricos, en especial cuando una
matriz esta cerca de ser singular. De esta forma se define:

Definición F.22. Dada una matriz A, se define el número de condicionamien-


to, o número de condición, para la inversion con respecto a la norma matricial
k · k como:
(
kAk kA−1 k si A es no singular
κ(A) = (F.104)
∞ si A es singular

Note que κ(A) = kAk kA−1 k ≥ kAA−1 k ≥ kIk ≥ 1 para toda matriz A.
De esta forma, cuando κ(A) es grande, la matriz se dice mal condiciona-
da. Si κ(A) es cercano a 1, la matriz se dice bien condicionada, y si κ(A) =
1, entonces la matriz A se dice perfectamente condicionada.
460 APÉNDICE F. MATRICES. DEFINICIONES Y PROPIEDADES

matriz!unitaria Cuando una matriz es mal condicionada, el cálculo del inverso puede tener
teorema de Schur
errores muy grandes, y es aconsejable recurrir a métodos de inversión numéri-
camente robustos.
Un caso especial de número de condición de una matriz real es cuando se
usa la norma spectral en (F.104). En ese caso

|λmax |
κ(A) = (F.105)
|λmin |

F.7. Tipos especiales de matrices


Matrices unitarias
Definición F.23. Una matriz U ∈ Cn×n se dice unitaria, si y sólo si UH U =
In , es decir, si su inversa es igual a su matriz hermitiana o conjugada traspuesta.
En particular, si la matriz es real, es decir, U ∈ Rn×n , se dice que U es real
ortogonal.
Es más, si dos matrices son similares a través de una matriz de transforma-
cion unitaria, es decir:

UH AU = P (F.106)

las matrices A y P se denominan unitaria equivalentes, o (real) ortogonal


equivalentes, si U es real.

Este tipo particular de matrices poseen interesantes propiedades, entre ellas:

los vectores columna de U forman un conjunto ortonormal;

los vectores fila de U forman un conjunto ortonormal;

la transformación w = U·v preserva longitudes, es decir, w H w = vH v.


Por esto se dice que A es una isometrı́a euclideana

Si bien toda matriz con autovalores no repetidos es similar a una matriz


diagonal, no siempre la matriz de transformacion es unitaria. Sin embargo, el
siguiente teorema nos dice que toda matriz es unitaria equivalente a una matriz
triangular superior:

Teorema F.1. Teorema de Schur de triangularizacion unitaria.


Dada una matriz A ∈ Cn×n con autovalores λ1 , . . . , λn , existe una matriz uni-
taria U, tal que la matriz:

UH AU = T = {tij } (F.107)

es triangular superior, con elementos sobre la diagonal tii = λi , i = 1, . . . , n.


F.7. TIPOS ESPECIALES DE MATRICES 461

La demostración de este teorema es por construcción, pero consideramos Cayley-Hamilton


teorema de Cayley-Hamilton
que va más allá del objetivo de este apéndice. Sin embargo, la importancia (y matriz!normal
utilidad) fundamental del resultado anterior es que toda matriz A puede trans-
formarse, a través de una matriz unitaria U, a una matriz T cuyos autovalores
se encuentran sobre la diagonal. Por ello, este resultado se aplica en una serie
de algoritmos, por ejemplo, en Matlab .
Además, el Teorema de Schur sirve de base para una serie de otros resultados,
entre ellos el siguiente teorema:

Teorema F.2. Teorema de Cayley–Hamilton


Sea pA (λ) el polinomio caracteristico de una matriz A ∈ Mn×n definido en
(F.52). Entonces:

pA (A) = 0 (F.108)

es decir, toda matriz satisface su propia ecuación caracteristica.

Matrices normales
Definición F.24. Una matriz A ∈ Kn×n se dice normal, si y solo si AH A =
AAH , es decir, A conmuta con su matriz hermitiana o compleja conjugada.

Con ayuda del Teorema de Schur, puede probarse que una matriz A es
normal si y sólo si es unitaria diagonalizable, es decir, si existe una matriz
unitaria U talque UH AU es diagonal.
Recuerde además, del Lema F.12 que toda matriz hermitiana (simétrica, en
el caso de matrices reales) es normal y, por tanto unitaria diagonalizable, es
decir:

A = AH ⇒ A = UH DU (F.109)

en que UH U = I y D es diagonal y contiene los autovalores de A.

Matrices positivas
Una clase de matrices hermitianas (real simétricas) que aparece en múltiples
aplicaciones son aquellas que poseen (o no) la propiedad de ser positivas.
Consideremos, por ejemplo, la expansion en serie de Taylor de una función
en dos variables (apendice A, p.317) en torno a un punto (xo , yo ):
462 APÉNDICE F. MATRICES. DEFINICIONES Y PROPIEDADES

hessiano
matriz!positiva definida
 
∆x
 
f (x, y) (xo ,yo )
= f (xo , yo ) + ∇f  
(xo ,yo )  
 
∆y
 
" # ∆x
1  
+ H(f )   + ... (F.110)
2 ∆x ∆y (xo ,yo ) 
 

∆y

donde ∆x = x − xo , ∆y = y − yo , ∇f es el gradiente de f (x, y), y H(f ) es el


hessiano o matriz de las segundas derivadas de la funcion f (x, y):
 2 2

∂ f ∂ f
∂x2 ∂x∂y 
H(f ) =  (F.111)
∂2f ∂2f
∂y∂x ∂y 2

Del Cálculo Diferencial, sabemos que f (x, y) tiene un mı́nimo y es convexa


en una vecindad del punto (xo , yo ) si se cumplen dos condiciones en dicho punto:

∇f = 0 , es decir, el gradiente es cero, en cuyo caso se dice que (xo , yo ) es


un punto crı́tico; y

vT H(f )v > 0 , es decir, el término cuadrático en (F.110) es positivo, para


todo vector v = [∆x, ∆y]T

Este tipo de problemas dan pie a la siguiente definicion:

Definición F.25. Matriz positiva definida

Una matriz hermitiana A de dimension n se dice definida positiva si


vH Av > 0 para todo vector v ∈ Cn , ||v|| 6= 0.

Una matriz hermitiana A de dimension n se dice semidefinida positiva


si vH Av ≥ 0 para todo vector v ∈ Cn

Analogamente, una matriz hermitiana A de dimension n se dice (se-


mi)definida negativa si la matriz −A es (semi)definida negativa (re-
spectivamente).

Una matriz hermitiana que no cae en ninguna de las categorias anteriores


se denomina indefinida.

Lema F.14. Una matriz A hermitiana es definida positiva, si y sólo si todos


sus autovalores son reales y positivos, y es positiva semidefinida positiva si todos
sus autovalores son no negativos
F.7. TIPOS ESPECIALES DE MATRICES 463

Demostración matriz!diagonal dominante


matriz!raı́z de
Considere el Lema F.13, entonces
n
X
A= λi vi · viH (F.112)
i=1

donde los autovectores tienen largo unitario (en norma-2). Entonces al mul-
tiplicar (F.112), por la izquierda, por v`H , y, por la derecha, por v` se tiene
que

v`H Av` = λ` (F.113)


Por otro lado, dado que una matriz hermitiana tienen un conjunto ortonor-
mal de autovectores, entonces, todo vector v ∈ Cn×n , puede expresarse como
n
X
v= α j vj (F.114)
j=1

para un conjunto no vacı́o de valores α1 , α2 , . . . αn .


Ası́
n
X n
X n
X
vH Av = αj· vjH λi vi · viH α j vj (F.115)
j=1 i=1 j=1

Finalmente, aplicando (F.113), se llega a


n
X
vH Av = |α` |2 λ` (F.116)
`=1

Lo cual lleva al resultado deseado (para definida positiva) al considerar que


vH Av > 0 si y sólo si λ` > 0 para ` = 1, 2, . . . , n. Un razonamiento similar
permite alcanzar el resultado para positiva semidefinida.
222
El lema precedente se aplica, y demuestra, mutatis mutandis, para el caso
de matrices negativa definidas y negativa semi-definidas.
Otra forma de reconocer una matriz definida positiva se basa en el concepto
de dominancia diagonal. Esto es: una matriz se dice estrictamente diagonal
dominante si cada elemento sobre la diagonal principal es mayor que la suma
de los valores absolutos de los demas elementos en la respectiva fila. De esta
forma, tenemos:

Lema F.15. Si una matriz hermitiana A tiene todos sus elementos sobre la
diagonal principal positivos y es estricamente diagonal dominante, entonces es
definida positiva.

Finalmente, y de forma análoga a la raı́z cuadrada de números positivos, se


define la raı́z cuadrada de una matriz definida positiva:
464 APÉNDICE F. MATRICES. DEFINICIONES Y PROPIEDADES

matriz!raı́z Definición F.26. Una matriz hermitiana A es positiva definida si y sólo si


matriz!exponencial
matriz!nilpotente existe una matriz no singular B, tal que A = BH B. Dicha matriz B se define
matriz!idempotente como la raı́z cuadrada de A y se denota por B = A1/2 . Se debe notar que
matriz!diagonal por bloques si B es raı́z cuadrada de A, entonces también lo es UB, donde U es cualquier
matriz!triangular por bloques matriz unitaria.
matriz!permutaci\’on

Otras matrices
Definición F.27. Dada una matriz A ∈ Kn×n , se defina la matriz exponen-
cial de A, usando la expansion en serie de Taylor usual, es decir:

1 2 X 1 n
eA = I + A + A + ... = A (F.117)
2! n=0
n!

Definición F.28. Una matriz A ∈ Kn×n se dice nilpotente, si y sólo si existe


un entero positivo, q, tal que:

Aq = 0 (F.118)
Definición F.29. Una matriz A ∈ Kn×n se dice idempotente, si y sólo si :

A2 = A (F.119)
n×n
Definición F.30. Una matriz A ∈ K se dice diagonal por bloques, si y
solo si sus únicos elementos distintos de cero pueden ser agrupados en subma-
trices Ai ∈ Kni ×ni sobre su diagonal, es decir:
 
A1 0 . . . 0
 0 A2 . . . 0 
 
A= . .. .. ..  (F.120)
 .. . . . 
0 0 ... Ak
Pk
en que i=1 ni = n
De manera análoga puede extenderse el concepto de matriz triangular (tanto
superior como inferior), a matrices triangulares por bloques.
Definición F.31. Una matriz P ∈ Kn×n se denomina matriz de permutación
si uno y sólo uno de los elementos sobre cada fila y columna es igual a 1, y el
resto son 0.
Ejemplo F.3. Considere la matriz de permutación:
 
0 1 0
P = 1 0 0  (F.121)
0 0 1

La denominación resulta natural pues multiplicar cualquier vector por esta ma-
triz equivale a permutar sus elementos, por ejemplo:
F.7. TIPOS ESPECIALES DE MATRICES 465

matriz!circulante
    matriz!Toeplitz
1 2
P 2  = 1 (F.122)
3 3
Definición F.32. Una matriz A ∈ Kn×n se denomina matriz circulante si
cada una de sus filas resulta de la rotación de la primera, es decir:
 
a1 a2 . . . an
 an a1 . . . an−1 
 
 .. .. . . ..  (F.123)
. . . . 
a2 a3 . . . a1
Note que una matriz circulante puede ser escrita en términos de la matriz
de permutación circular :
 
0 1 0 ... 0
0 0 1 . . . 0  n−1
  X
 .. .. . . . . ak+1 Ck
. . 
C = . . . . .  ⇒ A= (F.124)
 
0 ... 1 k=0

1 0 ... 0
En que C0 = Cn = I y {a1 , . . . , ak } son los elementos de la primera fila de
la matriz A.
Definición F.33. Una matriz A ∈ Kn×n se denomina matriz Toeplitz si
todos los elementos sobre cada diagonal son iguales, es decir:
 
a0 a1 a2 . . . an
 a−1 a0 a1 . . . an−1 
 
 .. . .. . .. ... .. 
A= . .  (F.125)
 
a−n+1 ... . . . a0 a1 
a−n a−n+1 . . . a−1 a0
Note que una matriz Toeplitz puede ser escrita en términos de las matrices
un paso adelante F y un paso atrás B:

   
0 1 ... 0 0 ... 0 0
 .. .. .. ..   .. 
. . . . 1
T . 0
F=  y B=F =
.

..  (F.126)
 .. 
 .. .. ..
0 . 1 . . .
0 0 ... 0 0 ... 1 0
entonces:
n
X n
X
A= a−k Fk + ak Bk (F.127)
k=1 k=1
466 APÉNDICE F. MATRICES. DEFINICIONES Y PROPIEDADES

matriz!Vandermonde Definición F.34. Una matriz A ∈ Kn×n se denomina matriz de Vander-


valores singulares
monde si es de la forma:
 
1 x1 x21 ... x1n−1
1
 x2 x22 ... x2n−1 

A = . .. .. .. ..  (F.128)
 .. . . . . 
1 xn x2n ... xnn−1

Puede probarse que el determinante de una matriz de Vandermonde es:


n
Y
det A = (xi − xj ) (F.129)
i,j=1
i>j

Este tipo de matrices aparece, por ejemplo, en el cálculo de la transformada


discreta de Fourier y en problemas de interpolacion donde se buscan los coefi-
cientes de un polinomio p(x) = a0 + a1 x + . . . + an−1 xn−1 = y, a partir de n
pares de datos (x1 , y1 ), . . . , (xn , yn ):

p(x1 ) = a0 + a1 x1 + . . . + an−1 x1n−1 = y1 (F.130)


p(x2 ) = a0 + a1 x2 + . . . + an−1 x2n−1 = y2 (F.131)
..
. (F.132)
p(xn ) = a0 + a1 xn + . . . + an−1 xnn−1 = yn (F.133)

F.8. Valores singulares


Hemos visto a lo largo de este apéndice que existen diferentes formas de car-
acterizar una matriz expresándola o relacionándola con otra equivalente bajo
algún criterio. Entre estos se ha definido la igualdad de matrices, la diagonal-
izacion (o similaridad), la congruencia y la equivalencia unitaria (teorema de
Schur). Sin embargo, un importante desarrollo del analisis matricial de amplia
aplicacion en diferentes areas de la Ingenierı́a (y otras disciplinas) es la descom-
posición en valores singulares, que representa una extensión de la diagonalizacion
mediante autovalores, pero que permite incluir el caso de matrices singulares y
matrices no cuadradas.

Teorema F.3. Descomposición en valores singulares


Dada una matriz A ∈ Kn×m de rango k ≤ q = mı́n{n, m}, entonces esta puede
expresarse como:

A = VΣWH (F.134)
en que:
F.8. VALORES SINGULARES 467

las matrices V ∈ Kn×n y W ∈ Kn×n son unitarias, es decir, VH V = In


y W H W = Im ;

los elementos de la matriz Σ = {σij } ∈ Kn×m son:

σij = 0 ∀i 6= j (F.135)
σ11 ≥ σ22 ≥ . . . ≥ σkk > σk+1,k+1 = . . . = σqq = 0 (F.136)


los elementos {σii } = {σi } = { λi }, en λi son los autovalores de AH A,
que quedan por tanto únicamente determinados;

las columnas de V son autovectores de AAH , y las columnas de W son


autovectores de AH A (ordenados según los autovalores λi = σi2 );

Si n ≤ m y AAH no tiene autovalores repetidos, entonces diferentes ma- Chequear si es necesario que
trices V en la representación (F.134) quedan relacionados por una matriz sean diferentes
diagonal D = diag{ejθ1 , . . . , ejθn } con θi ∈ R. Esto es:

A = V1 Σ W1H = V2 Σ W2H ⇒ V2 = V 1 D (F.137)

si n < m, entonces la elección de W no es única;

si n = m = k (A, cuadrada y de rango completo), entonces dada V,


entonces la matriz W queda únicamente determinada;

si n ≤ m, la unicidad de V y W queda determinada considerando AH ; y

si A es real, entonces V, Σ y W pueden escogerse todas reales.

Los elementos {σi } sobre la diagonal de la matriz Σ se denominan valores


singulares de la matriz A.
La descomposición en valores singulares (F.134) para una matriz A arbitraria
no siempre es directa de obtener. Sin embargo, en el caso particular de una
matriz no singular (justamente el caso n = m = k en el teorema anterior) la
descomposición puede obtenerse directamente siguiendo los siguientes pasos:

1. Se forma la matriz hermitiana AAH y se calcula su diagonalización uni-


taria AAH = UΛUH , a través del calculo de sus autovalores {λi } (que
son positivos) y su correspondientes autovectores normalizados {u i }.

2. De esta forma se elige Σ = Λ1/2 y V = U = [u1 . . . un ].

3. Finalmente, W = AH VΣ−1

Para el caso de una matriz cuadrada singular A, se puede aplicar el mismo


procedimiento a la matriz A = A + In , con  tal que A es no singular, y
luego obtener el lı́mite cuando  → 0.
Algunas aplicaciones de los valores singulares son:
468 APÉNDICE F. MATRICES. DEFINICIONES Y PROPIEDADES

Permite definir normas de matrices: La norma espectral de una matriz


A, definida en (F.103), no es mas que el mayor valor singular, es decir,
σ1 .
Además, el lector puede verificar que la norma Fröbenius definida en (F.98)
satisface la identidad:

q
!1/2
X
kAk2 = σi2 (F.138)
i=1

Entrega el numero de condicionamiento, con respecto a la norma espectral,


como κ(A) = kAk kA−1 k = σ1 /σn ≤ 1, que a menudo se utiliza como la
medida estándar para la dificultad involucrada en invertir la matriz A.

Dada una matriz A = VΣWH , podemos definir la inversa generalizada


(Moore-Penrose) de A, como A† = WΣ† VH , en que Σ† es la traspuesta
de Σ en que los valores singulares de A se reemplazan por sus recı́procos.
El lector puede verificar que:

1. AA† y A† A son hermitianas,


2. AA† A = A, y
3. A† AA† = A† .

La inversa generalizada coincide naturalmente con la inversa usual en el


caso de matrices no singulares.
Además, una de la aplicaciones de A† es en el método de mı́nimos cuadra-
dos (ver cap modelos), en que para resolver el sistema Ax = b se busca el
vector x tal que kAx − bk2 resulta minima. El lector puede verificar que
x = A† b resuelve este problema.
Bibliografı́a

[1] B.D.O. Anderson and John Moore. Linear Optimal Control. Prentice Hall,
Englewood Cliffs, N.J., 1971.

[2] B.D.O. Anderson and John Moore. Optimal filtering. Prentice Hall, En-
glewood Cliffs, N.J., 1979.

[3] K.J. Åström and B. Wittenmark. Computer controlled systems. Theory


and design. Prentice Hall, Englewood Cliffs, N.J., second edition, 1990.

[4] H.W. Bode. Network analysis and feedback amplifier design. Van Nostrand,
New York, 1945.

[5] R.C. Dorf and R. Bishop. Modern Control Systems. Prentice Hall, Engle-
wood Cliffs, New Jersey, 9th edition, 1997.

[6] G.F. Franklin and J.D. Powel. Digital Control of Dynamics Systems.
Addison-Wesley, second edition, 1990.

[7] G.F. Franklin, J.D. Powell, and A. Emami-Nagiri. Feedback Control of


Dynamics Systems. Addison-Wesley Pub. Co., Reading, Mass., 1991.

[8] G.C. Goodwin, S. Graebe, and M.E. Salgado. Control System Design.
Prentice Hall, New Jersey, 2001.

[9] Hwei P. Hsu. Análisis de Fourier. Fondo Educativo Interamericano S.A.,


1973.

[10] E. Jury. Sample Data Control Systems. John Wiley and Sons, 1958.

[11] J.W. Kitchen. Calculus of one variable. Addison Wesley, 1968.

[12] D.L. Kreider, R.G. Kuller, D.R. Ostberg, and F.W. Perkins. Introducción
al análisis lineal. Fondo Educativo Interamericano S.A., 1971.

[13] H. Kwakernaak and R. Sivan. Linear Optimal Control Systems. Wiley–


Interscience, New York, 1972.

[14] R.H. Middleton and G.C. Goodwin. Digital Control and Estimation. A
Unified Approach. Prentice Hall, Englewood Cliffs, New Jersey, 1990.

469
470 BIBLIOGRAFÍA

[15] K. Ogata. State Space Analisys of Control Systems. Prentice-Hall, Inc.,


Englewood Cliffs, New Jersey, 1967.

[16] A.V. Oppenheim and R.W. Schafer. Discrete - Time Signal Processing.
Prentice-Hall International, Inc., 2nd edition, 1999.

[17] Churchill R. and Brown J. Complex Variable and Applications. McGraw


Hill Book Company, 1984.
[18] H.H. Rosenbrock. State Space and Multivariable Theory. John Wiley and
Sons, New York, 1970.

[19] D.G. Schultz and J.L. Melsa. State Function and Linear Control Systems.
McGraw Hill Book Company, New York, 1967.

[20] D.W. Wiberg. Theory and Problems of State Space and Linear Systems.
McGraw Hill Book Company, New York, 1971.

[21] Lotfi A. Zadeh and Charles A. Desoer. Linear System Theory: the state
space approach. McGraw Hill Book Company, New York, 1963.

[22] K. Zhou. Essentials of Robust Control. Prentice Hall, Englewood Cliffs,


New Jersey, 1998.

[23] K. Zhou, G. Salomon, and E. Wu. Balanced realization and model reduc-
tion for unstable systems. International Journal of Robust and Nonlinear
Control, 9:183–198, 1999.
Index

ángulo cancelación, 271, 287, 294, 298, 303,


de desfase, 88, 104 307
ángulo entre vectores, 341 cuasi-, 181, 215, 297, 305
ángulo cascada, véase conexión
de desfase, 94 causalidad, 62
de disparo, 96 Cayley-Hamilton, 457
ceros, 158, 180, 214
Zeta fase no mı́nima, 177, 211
transformada, 191 lentos, 182
rápidos, 182
ADC, véase conversor circulo unitario, 244
adjunta de una matriz, 440 circunferencia unitaria, 205
alcanzabilidad, 290 cofactor, 435
test, 291 desarrollo, 435
amplificador, 247 condiciones iniciales, 1, 62, 157, 192
amplitud, 88, 104 conexión
ancho de banda, 124 paralelo, 288
aperiódicas realimentación, 289
señales, 117 serie(cascada), 288
armónicas, 94, 107 congruencia, 446
ası́ntotas, 224 constante de tiempo, 25
autovalores, 40, 270, 444, 444 constantes indeterminadas, 40, 67
autovectores, 444 contrarespuesta, 182, 215
generalizados, 447, 448 control, 290
controlabilidad, 180, 214, 290
bilineal forma canónica, 298
transformación, 207 gramiano, 294
bloques, 246 tiempo discreto, 295
Bode, 219, 220 matriz, 291
aproximación asintótica, 227 pérdida, 292
aproximaciones, 221 test, 291
ası́ntotas, 222 controlador, 289
diagramas de, 220 forma canónica, 298
frecuencias de quiebre, 227 conversor
análogo-digital(ADC), 273
cı́rculo unitario, 71, 239 digital-análogo(DAC), 273

471
472 INDEX

convolución, 53, 79 equilibrio inestable, 266


cuadrante, 234 error, 98
estimación, 310
DAC, véase conversor modelo, 311
decada, 220 errores en las variables, 323, 330
decibel, 220 escalón
delta de Dirac, 21, 120 respuesta a, 161, 200
en frecuencia, 160 escalón unitario, 21, 27
en frecuencia, 198 espacio
delta de Kronecker, 27 de estado, 253
descomposición canónica, 307 vectorial, 437
alcanzabilidad, 297 espectro, 134, 232, 445
observabilidad, 306 continuo, 122
desfase, 94 de lı́nea, 94
desigualdad en frecuencia, 94
Cauchy–Schwarz, 454 espectro de lı́nea, 109
triangular, 207 espiral, 240
desigualdad triangular, 341 estabilidad, 43, 71, 171, 205, 262,
Desplazamiento en el tiempo, 358 279, 280
Desplazamiento en frecuencia, 358 estabilizabilidad, 298
detectabilidad, 306 estado, 253
determinante, 434 alcanzable, 290
diagrama polar, 233 controlable, 290
tiempo discreto, 244 del sistema, 254
diagramas espacio de, 254
de Bode, 220 observable, 299
diagramas de bloques, 246 transformación, 256, 267, 286
Dirac, 21 trayectoria, 254
disco unitario, 71 variables de, 254
discontinuidad, 241 vector de, 254
discretización, 63, 273 estado inicial, 3
distancia, 341 estimación, 309
dualidad, 305 error, 310
Euler, 26, 31
ecuación caracterı́stica, 40, 66, 262, exponencial, 24, 29
279 creciente, 24, 30
ecuación de recursión, 61 de una matriz, 261, 276
ecuación diferencial exponencial imaginaria, 26
del sistema, 156
ecuación diferencial del sistema, 35 factor de amortiguamiento, 183
EDS, 156 factores canónicos, 220
ejes logarı́tmicos, 220 fase, 88, 104
elimina banda, 135, 149 fase mı́nima, 177, 211
energı́a, 143 feedback
entrada, 1, 158 seerealimentación, 289
equilibrio estable, 38, 64 filtraje, 133
INDEX 473

filtro, 314 gramiano


forma canónica controlabilidad, 294
controlable, 298 tiempo discreto, 295
del controlador, 298 observabilidad, 303
observable, 307
Fourier, 87, 117 Heaviside, 21, 36
Fröbenius, 454 operador, 36
fracciones parciales, 128, 146, 156, hessiano, 458
178, 193, 412 homogeneidad, 5
frecuencia, 88, 104 Hurwitz
angular, 88, 104 polinomio, 173, 310
de corte, 135, 149
impulso
fundamental, 107
respuesta a, 158
frecuencia fundamental, 94
respuesta a, 161, 200
frecuencia natural
impulso unitario, 21, 27
amortiguada , 184
independencia lineal, 93
dominante, 44, 72
integrador, 7
no amortiguada, 183
interconexión, 246
frecuencias de corte, 136
inversa de una matriz, 439
frecuencias naturales, 40, 68
inversa generalizada, 439
función muestreo, 23
inversion matricial, 442
función
generalizada, 120 Jordan
racional, 157, 159 forma de, 448
función de transferencia, 125, 145, Jury, 208
156, 157, 192, 270, 286 algoritmo, 208
estable, 177
tiempo discreto, 196 lı́mite de estabilidad, 172, 205
bipropia, 158, 197 Laplace, 155
ceros, 158, 197 lazo de control, 289
con retardo, 159 linealización, 9, 258, 274
estable, 211 Lyapunov
estrictamente propia, 158, 197, ecuación, 295, 304
272
grado relativo, 158, 177, 197 matrices, 431
impropia, 158 similares, 446
multiplicidad, 158 suma, 437
polos, 158, 197 matriz
propia, 158, 197 de Fourier, 109
adjunta, 286, 440
ganancia, 42, 69 autovalores, 444
a continua, 42, 69 circulante, 461
a modo forzante, 42, 68, 88, 110, cofactor, 435
129, 145, 205 cuadrada, 432
gradiente, 324, 331 de controlabilidad, 291
grado relativo, 158, 197, 203 de observabilidad, 300
474 INDEX

de transformación, 268 en espacio de estado, 253


de transición, 261 error, 311
discreta, 277 linealizado, 9
definición, 431 pequeña señal, 14
determinante, 434 validación, 319
diagonal, 434 modelos, 319
diagonal dominante, 459 modo forzado, 42, 68, 265
diagonal por bloques, 460 modo forzante, 40, 68, 205
elementos, 431 ganancia a, 42, 68
exponencial, 460 modo natural
forma de Jordan, 448 dominante, 44, 72, 266
hermitiana, 433 modos
idempotente, 460 naturales, 161
identidad, 434 modos naturales, 40, 68, 89, 104, 212
inversa, 439 muestra, 318
inversa generalizada, 439 muestreo, 201, 254, 273, 274, 317,
menor, 435 318, 318
nilpotente, 460 perı́odo de, 275, 282
no singular, 436, 439 multiplicidad, 158
norma Fröbenius, 454 polos, 172
norma inducida, 455 autovalores, 447
norma spectral, 455 polos, 197, 205
norma-2, 454
norma-∞, 454 número de condicionamiento, 455
norma-p, 455 norma, 341
normal, 457 inducida, 455
particionada, 440, 442 spectral, 455
permutación, 460 norma espectral, 455
positiva definida, 458 norma inducida, 341
producto, 438 norma-1, 454
raı́z, 460 norma-2, 454
raı́z de, 459 norma-∞, 454
rango, 436 norma-p, 455
simétrica, 433 Nyquist, 219
singular, 436
Toeplitz, 461 observabilidad, 180, 214, 299
traspuesta, 433 forma canónica, 307
traza, 433 gramiano, 303
triangular inferior, 434 matriz, 300
triangular por bloques, 460 pérdida, 301
triangular superior, 434 test, 300
unitaria, 456 observador, 309
Vandermonde, 462 de orden completo, 316
matriz, condición, 455 de orden reducido, 316
menor, 435 polinomio, 310
modelo, 4 octava, 220
INDEX 475

operador, 3 rango, 436


operador adelanto, 62 columna, 436
ortogonalidad, 93 rango completo, 436
realimentación, 289
paralelo realización mı́nima, 272, 287, 309
conexión, 288 reconstrucción, 318
Parseval, 102, 123, 143 reconstructibilidad, 299
pasa altos, 134, 149 regresión
pasa bajos, 134, 149 vector de, 322, 329
pasa banda, 135, 149 regresores, 322, 329
PEM, 323, 330 resonancia, 92, 106, 225, 266, 281
perı́odo, 88, 104 respuesta
de muestreo, 275, 282 a δ[t], 78
infinito, 117 a µ(t), 50
plano de fase, 264 a µ[t], 76
planta, 289 a escalón, 50, 76
PLC, 273 a impulso, 52, 78, 158, 200
polar a escalón, 161, 200, 281
diagrama, 233 a impulso, 161
polinomio caracterı́stico, 66, 445 estacionaria, 204
polinomio caractrerı́stico, 197 forzada, 280
polos, 158, 178, 211, 270, 412 inversa, 182, 215
dominantes, 180, 213 no forzada, 278
lentos, 180, 213 respuesta a δ(t), 52
observador, 311 respuesta en frecuencia, 89, 90, 104,
rápidos, 180, 213 110, 124, 134, 145, 171, 199,
predicción 219
error de, 321, 323, 329, 331 respuesta estacionaria, 49, 75
producto respuesta homogénea, 39, 65, 262
matrices, 438 respuesta particular, 39, 67
promedio móvil, 62 respuesta transitoria, 49, 75
Propiedades transformada de Fouri- respuestas, 2
er, 384 retardo, 159, 204, 227, 258, 284
Propiedades transformada de Fouri- diagrama de Bode, 227
er discreta., 386 diagrama polar, 239
Propiedades transformada de Laplace, retentor, 274
409 Routh, 207
Propiedades transformada Zeta, 428 algoritmo, 175
punto de equilibrio, 11, 13, 258, 266 ruido, 314
punto de operación, 9, 14
salida, 158
quantum, 317 sampling, véase muestreo
señal
radio de convergencia, 419 de tiempo continuo, 155
radio espectral, 445 de tiempo continuo, 257
rampa unitaria, 23, 28 de tiempo discreto, 257
476 INDEX

modelo de estado, 256 interconexión, 246, 287


no acotada, 155 lineal, 110
señal causal, 53, 80 muestreado, 273, 274
señal incremental, 14 observable, 299
señales, 2, 21 propiedades, 290
de prueba, 21 tiempo continuo, 257
de tiempo discreto, 27 sistemas
serie digitales, 317
conexión, 288 hı́bridos, 318
Serie de Fourier, 93 sistemas discretos
serie de Fourier, 87, 88, 118 estabilidad, 206
cosenoidal, 98 sistemas lineales, 5
senoidal, 95 solución homogénea, 39, 65
exponencial, 101 solución particular, 39, 67, 265
serie de Taylor, 335 SPI, 172
similaridad, 256, 267, 286, 292 subespacio
transformación de, 446 controlable, 297
singular, 436 observable, 306
sinuosoide superposición, 5
aperiódica, 30
sinusoidal, 88, 103 Tabla de transformadas de Fourier,
sinusoide, 25 385
amortiguada, 26 Tabla de transformadas de Fourier
amplitud, 26 discretas, 387
desfase, 26 Tabla transformada Zeta, 428
discreta, 30 Tabla transformadas de Laplace, 409
amortiguada, 31 Tabla transformadas de Laplace in-
fórmula de Euler, 26 versas, 409
frecuencia, 26 Taylor, 335
frecuencia angular, 26 teorema de Cayley-Hamilton, 457
perı́odo, 26 teorema de Schur, 456
sistema, 1 transformación del estado, 256, 267,
estable, 89, 104, 134, 137, 158 286
inestable, 38, 64 Transformada de Fourier, 120
no lineal, 87 transformada de Fourier, 55, 82, 117,
alcanzable, 290 117, 120, 219, 355
algebraico, 4, 6 discreta, 140
controlable, 290 discreta inversa, 140
detectable, 306 inversa, 120
dinámico, 2, 155, 254 discreta, 199
discreto, 273 transformada de Fourier discreta, 370
dual, 306 transformada de Fourier discreta in-
estabilizable, 298 versa, 370
estable, 150, 155 transformada de Fourier inversa, 355
hı́brido, 254 Transformada de Laplace
inestable, 155 región de convergencia, 395
INDEX 477

transformada de Laplace, 55, 155,


219
definición, 156
inversa, 156
región de convergencia, 156
transformada rápida de Fourier, 389
transformada Zeta, 82, 191, 219
inversa, 191
traza, 433

undershoot, 182, 215

valor final, 162, 200


valor inicial, 168
valores caracterı́sticos, 40, 444
valores propios, 40, 444
valores singulares, 462
variables
de estado, 253, 254
vector
columna, 433
de estado, 254
fila, 433
vectores caracterı́sticos, 444
velocidad, 44, 72, 262, 279

ZOH, véase retentor

Вам также может понравиться