Вы находитесь на странице: 1из 141

Análisis de Sistemas de Control

Nicanor Quijano

c Borrador Editado 30 de abril de 2010
Índice general

Contenido I

Prefacio 1

1. Introducción 3
1.1. Qué es Retroalimentación? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2. Qué es Control? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3. Historia del Control Automático . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1. Inicios del Control . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.2. Perı́odo Pre-Clásico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.3. Perı́odo Clásico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.4. Control Moderno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4. Ejemplos de Sistemas de Control Retroalimentado y Future Directions . . . . . . . . . . . . . 8

2. Modelamiento de Sistemas 9
2.1. Filosofı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2. Principios de Modelamiento Matemático . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2.1. Esquema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2.2. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3. Sistemas de Primer Orden y Controlador ON-OFF . . . . . . . . . . . . . . . . . . . . . . . . 15
2.4. Transformada de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4.1. Transformada Unilateral de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4.2. Propiedades de la Transformada de Laplace . . . . . . . . . . . . . . . . . . . . . . . 19
2.4.3. Solución de ODEs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.5. Funciones de Transferencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.6. Linealización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.7. Diagramas en Bloques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.7.1. Combinación en Serie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.7.2. Combinación en Paralelo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.7.3. Puntos de Partida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.7.4. Bloques con Sumadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

i
ii ÍNDICE GENERAL

2.7.5. Sistemas Retroalimentados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35


2.7.6. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.8. Ley de Mason . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

3. Caracterı́sticas de los Sistemas 37


3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2. Señal de Error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.3. Sensitividad de Sistemas de Control para Variaciones de Parámetros . . . . . . . . . . . . . . 38

4. Respuesta de los Sistemas 41


4.1. Sistemas de Primer Orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.1.1. Entrada paso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.1.2. Entrada rampa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.2. Sistemas de Segundo Orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.2.1. Respuesta a Entrada Paso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2.2. Caracterı́sticas Temporales del Sistema Subamortiguado . . . . . . . . . . . . . . . . . 48
4.3. Sistemas de Orden Superior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.4. Ubicación de las Raı́ces en el Plano-s y la Respuesta Transitoria . . . . . . . . . . . . . . . . 55

5. Estabilidad de los Sistemas 57


5.1. Criterio de Estabilidad Routh-Hurwitz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.1.1. Robustez y Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

6. Sistemas de Control Retroalimentado 65


6.1. Análisis de Error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
6.2. Controladores PID . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
6.2.1. Controlador Proporcional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
6.2.2. Controlador Proporcional e Integral . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
6.2.3. Controlador Proporcional, Integral, y Derivativo . . . . . . . . . . . . . . . . . . . . . 68
6.2.4. Controlador Proporcional y Derivativo . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
6.2.5. Implementación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
6.2.6. Sintetizando . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
6.3. Sintonización de Controladores PID . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
6.3.1. Sintonización de Controladores PID: Método Manual . . . . . . . . . . . . . . . . . . . 70
6.3.2. Sintonización de Controladores PID: Ziegler/Nichols . . . . . . . . . . . . . . . . . . . 71
6.3.3. Sintonización de Controladores PID: Cohen y Coon . . . . . . . . . . . . . . . . . . . 73
6.3.4. Sintonización de Controladores PID: Método del Coeficiente de Ajustabilidad . . . . . 73
6.3.5. Sintonización de Controladores PID: Internal Model Control (IMC) . . . . . . . . . . 73
6.3.6. Sintonización de Controladores PID: Sı́ntesis Directa . . . . . . . . . . . . . . . . . . . 73
6.4. Algoritmos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
ÍNDICE GENERAL iii

6.5. PID Digital . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75


6.6. Criterios de Desempeño . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
6.7. Diseño con Pole Placement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

7. Variables de Estado: Introducción 81


7.1. Definición de Variables de Estado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
7.1.1. Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
7.1.2. ODEs Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
7.2. Representación y Solución de Variables de Estado . . . . . . . . . . . . . . . . . . . . . . . . . 84
7.2.1. Representación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
7.2.2. Solución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
7.3. Funciones de Transferencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
7.4. Formas Canónicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
7.4.1. First Companion Form: Forma Canónica Controlable . . . . . . . . . . . . . . . . . . . 93
7.4.2. Second Companion Form: Forma Canónica Observable . . . . . . . . . . . . . . . . . . 94
7.4.3. Jordan Form . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
7.5. Equilibrio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
7.6. Estabilidad y Acotamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
7.6.1. Conceptos Locales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
7.6.2. Conceptos Globales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

8. Variables de Estado: Diseño 105


8.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
8.2. Transformación de las Variables de Estado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
8.3. Diseño de Controladores Utilizando State Feedback . . . . . . . . . . . . . . . . . . . . . . . . 109
8.4. Diseño de Estimadores en el Espacio de Estado . . . . . . . . . . . . . . . . . . . . . . . . . . 114
8.5. Integrated Full-State Feedback and Observer . . . . . . . . . . . . . . . . . . . . . . . . . . . 116

9. Control Multivariable 119


9.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
9.2. Análisis de los Sistemas Multivariables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
9.2.1. Representación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
9.2.2. Modelos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
9.2.3. Problemas de Interacción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
9.2.4. Relative Gain Array . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
9.2.5. Selección de Lazos Utilizando RGA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
9.3. Control Multivariable Desacoplado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
iv ÍNDICE GENERAL
Índice de figuras

1.1. Sistemas de malla abierta a), y de lazo cerrado b). . . . . . . . . . . . . . . . . . . . . . . . . 4


1.2. Componentes de un sistema de control asistido por computador [32]. . . . . . . . . . . . . . . 5

2.1. Primeros pasos en el diseño de un sistema de control [27]. . . . . . . . . . . . . . . . . . . . . 9


2.2. Otra metodologı́a en el modelamiento de procesos [27]. . . . . . . . . . . . . . . . . . . . . . . 10
2.3. Tanque de flujo continuo perfectamente agitado. . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.4. Respuesta a entrada paso de un sistema de primer orden. . . . . . . . . . . . . . . . . . . . . 15
2.5. Sistema térmico. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.6. Ejemplo de un sistema de control on-off. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.7. Transformadas tı́picas de Laplace [31] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.8. Sistema Masa-Resorte-Amortiguador [7] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.9. Representación del sistema en el plano-s [7] . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.10. Representación del sistema en el plano-s [7]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.11. Representación cómo varı́a ζ en el plano-s cuando ωn se mantiene constante [7]. . . . . . . . 28
2.12. Respuesta en tiempo del sistema masa-resorte-amortiguador [7] . . . . . . . . . . . . . . . . . 28
2.13. Sistema masa-resorte-amortiguador [7] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.14. Representación del sistema en términos de la variable desviación [31] . . . . . . . . . . . . . . 30
2.15. Algunas reglas útiles cuando se manejan diagramas en bloques [31, 22]. . . . . . . . . . . . . 33
2.16. Combinación Serie [7]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.17. Ejemplo de puntos de partida [7]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.18. Ejemplo de puntos de partida [7]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.19. Ejemplo del álgebra de bloques [7]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.20. Ejemplo del álgebra de bloques [7]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.21. Ejemplo del álgebra de bloques para sistemas retroalimentados [7]. . . . . . . . . . . . . . . . 35

4.1. Diversos tipos de entradas comunes en el análisis de sistemas de control. . . . . . . . . . . . . 42


4.2. Respuesta a entrada paso del sistema de primer orden (4.1) cuando K = 1, y τ = 10. La lı́nea
punteada roja representa el valor final cuando se ha cumplido el primer τ , mientras que la
punteada negra representa el valor final cuando se han cumplido 2τ . . . . . . . . . . . . . . . 43
4.3. Respuesta a entrada rampa del sistema de primer orden (4.1) cuando K = 1, y τ = 10 para
el panel superior, y τ = 1 para el panel inferior. . . . . . . . . . . . . . . . . . . . . . . . . . . 44

v
vi ÍNDICE DE FIGURAS

4.4. Sistema de segundo orden [7]. En a) se tiene el grafo, mientras que en b) el diagrama en bloques. 44
4.5. Respuesta a entrada paso del sistema de segundo orden descrito por (4.3). En este caso, se
tiene que ζ = 0 para el panel superior izquierdo, ζ = 0,2 para el panel superior derecho,
ζ = 0,4 para el panel inferior izquierdo, y ζ = 0,8 para el panel inferior derecho. En todos los
casos, wn = 24. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.6. Respuesta a entrada paso del sistema de segundo orden descrito por (4.3) cuando ζ = 1 y
wn = 24. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.7. Respuesta a entrada paso del sistema de segundo orden descrito por (4.3) cuando ζ = 2 y
wn = 24. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
p
4.8. Ubicación de los polos en el plano-s [7]. Para este caso β = θ, σ = ζw n , y wd = wn 1 − ζ 2 . . 49
4.9. Curvas envolventes para la respuesta a entrada paso del sistema de segundo orden [22]. . . . . 50
4.10. Respuesta a entrada paso del sistema de segundo orden descrito por (4.7). En este caso,
K1 = 1, wn = 23,53, and ζ = 0,46. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.11. Relación entre M P y ζ. Además, se incluye la relación entre wn tp y el factor de amortigua-
miento [7]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.12. Diagrama en bloques. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.13. Respuesta a entrada paso del sistema de segundo orden diseñado para obtener los parámetros
MP y tp definidos en el ejercicio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.14. Ubicación de polos de un sistema de tercer orden en el plano-s [7]. . . . . . . . . . . . . . . . 53
4.15. a) Porcentaje de overshoot como función de ζ y ωn cuando un sistema de segundo orden posee
un cero. b) Respuesta a entrada paso para diversos valores de a/(ζωn ). A=5, B=2, C=1,
D=0.5, cuando ζ = 0,45 [7]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.16. Ubicación de los polos y ceros en el plano-s para un sistema de tercer orden [7]. . . . . . . . . 55
4.17. Respuesta a entrada paso para un sistema de tercer orden con un cero. Si se desprecia el polo
(-), el overshoot es mayor, pero su ts es menor. Si no se desprecia (–), se tiene que el overshoot
disminuye, haciendo que el tiempo de establecimiento aumente. . . . . . . . . . . . . . . . . . 55
4.18. Respuesta impulso para varias ubicaciones de las raı́ces en el plano-s. El complejo conjugado
no se muestra [7]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

5.1. Sistema retroalimentado. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58


5.2. Diseñar Kc para que el sistema sea estable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.3. Sistema con tiempo muerto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

6.1. Sistema de control tı́pico. La referencia o el set point viene siendo R(s), mientras que la
variable controlada es C(s). La perturbación es D(s). . . . . . . . . . . . . . . . . . . . . . . . 66
6.2. Sistema retroalimentado. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
6.3. Proceso de tomar una señal continua y(t) que es generada por el proceso, y convertirla en una
secuencia de números y[n]. El computador toma una decisión y la convierte en otra secuencia
de números u[n], los cuales se convierten luego en una señal continua u(t) que actúa sobre el
proceso. Figura adaptada de [2]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
6.4. Figura adaptada de [2]), la cual muestra el efecto de aliasing utilizando dos diferentes señales
x1 (t) = sin(2πf1 t) (punteada) and x2 (t) = − sin(2πf2 t) (sólida), con sus respectivas frecuen-
cias (f1 = 0,1 Hz, f2 = 0,9 Hz, y fs = 1 Hz). Este es un excelente ejemplo de cómo el aliasing
puede afectar la reconstrucción perfecta de las señales . . . . . . . . . . . . . . . . . . . . . . 78
ÍNDICE DE FIGURAS vii

7.1. Modelo mecánico que corresponde a una masa, sujetada por un amortiguador y un resorte.
La posición está dada por y, y se le aplica una fuerza inicial f0 . . . . . . . . . . . . . . . . . . 83
7.2. Modelo en Simulink que corresponde a la Figura 7.1. . . . . . . . . . . . . . . . . . . . . . . . 84
7.3. Simulación en Simulink del sistema descrito en la Figura 7.1. Para este caso se utilizaron los
parámetros f0 = 5N, M = 2kg, k = 16N/m, y cuatro valores para b. En la parte superior
izquierda, se tiene b = 2N.s/m; en la parte superior derecha, se tiene b = 4N.s/m; en la parte
inferior izquierda, se tiene b = 8N.s/m; y en la parte inferior derecha, se tiene b = 16N.s/m.
En todos los casos se tiene que posición está dada por la lı́nea (-), mientras que la velocidad
es la lı́nea punteada (- -). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
7.4. Simulación en Simulink del sistema descrito en la Figura 7.1, cuando únicamente se aplica una
fuerza f0 durante un determinado tiempo. Para este caso se utilizaron los parámetros f 0 = 5N,
M = 2kg, k = 16N/m, y b = 2N.s/m. La posición está dada por la lı́nea (-), mientras que la
velocidad es la lı́nea punteada (- -). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
7.5. Diagrama en bloques. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
7.6. Representación en diagramas en bloques de la Ecuación (7.22). Figura tomada de [12]. . . . 93
7.7. Representación en diagramas en bloques de la Ecuación (7.23). Figura tomada de [12]. . . . . 94
7.8. Representación en diagramas en bloques de la forma canónica controlable. Figura tomada de
[12]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
7.9. Representación en diagramas en bloques de la forma canónica de Jordan cuando las raı́ces son
diferentes. Figura tomada de [12]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
7.10. Representación en diagramas en bloques de la forma canónica de Jordan cuando las raı́ces son
repetidas. Figura tomada de [12]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
7.11. SISL de un punto de equilibrio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
7.12. ES de un punto de equilibrio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
7.13. UUB. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103

8.1. Diagrama en bloques para (8.1). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106


8.2. Realimentación de estado por medio de una ganancia K. . . . . . . . . . . . . . . . . . . . . . 109
8.3. Comportamiento de la definición de controlabilidad en R3 . . . . . . . . . . . . . . . . . . . . . 110
8.4. Realimentación de estado con referencia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
8.5. Realimentación de estado por medio de una ganancia K. . . . . . . . . . . . . . . . . . . . . . 114
8.6. Observador asociado con la planta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
8.7. Observador asociado con la planta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
viii ÍNDICE DE FIGURAS
Indice de Tablas

6.1. Valores de los parámetros de los controladores para el método de malla cerrada. . . . . . . . . 71
6.2. Valores de los parámetros de los controladores para el método de malla abierta. . . . . . . . . 72
6.3. Valores de los parámetros de los controladores para el método de Cohen y Coon. . . . . . . . 73
6.4. Valores de los parámetros de los controladores para el método del coeficiente de ajustabilidad . 73

ix
x INDICE DE TABLAS
Prefacio

Estas notas de clase son para uso exclusivo de la clase. Este es un primer borrador, el cual contiene
muchos errores de toda ı́ndole. En muchos casos no le doy el crédito correspondiente a algunos resultados.
Sin embargo, una falta de referencia no significa que los resultados sean del todo originales. En efecto, todos
los resultados presentados en estas notas han sido tomados de libros y artı́culos que no necesariamente son
mı́os (a excepción de algunos ejemplos).

1
2 INDICE DE TABLAS
Capı́tulo 1

Introducción

Whenever you feel like criticizing any one,-he told me,- just remember that all the people in the world
haven’t had the advantages that you’ve had.
The Great Gatsby, F.S. Fitzgerald

El curso de sistemas de control se basa en un principio básico: retroalimentación 1 . En esta primera entrega
se brindan las definiciones necesarias para entender un sistema de control retroalimentado, además de una
historia breve del control automático y el futuro del área. Las siguientes notas han sido adaptadas a partir
de varios textos de control (e.g., [32], [12], [3], and [21]).

1.1. Qué es Retroalimentación?


El término retroalimentación se utiliza para referirse a una situación en la cual uno tiene dos (o más)
sistemas dinámicos2 interconectados de tal forma que cada sistema influye al otro y a sus dinámicas. Este
término fue originalmente un neologismo introducido en los años 1920s por parte de los ingenieros electrónicos
(con énfasis en sistemas radiales) para describir los efectos que se producen cuando la señal amplificada de
salida afecta los circuitos de entrada.
En la vida diaria se pueden encontrar varios ejemplos. Gracias al mecanismo de retroalimentación, un
mamı́fero puede mantener la temperatura corporal constante (dentro de un rango) independientemente de
los cambios de la temperatura ambiente. Otro ejemplo en el ámbito de la ingenierı́a lo encontramos en la
parte aeronáutica. Un avión puede mantener su altitud y velocidad (además de aterrizar) sin que el piloto
intervenga. El mecanismo básico en este caso es nuevamente retroalimentación.
Gráficamente, la Figura 1.1 ilustra en forma de diagrama de bloques el concepto principal detrás de un
sistema retroalimentado. Normalmente, se utilizan los términos de malla abierta y lazo cerrado 3 . Un sistema
se dice que es de lazo cerrado si los sistemas están interconectados en forma cı́clica, tal como lo muestra la
Figura 1.1b). Si la interconexión se rompe, entonces estamos hablando de sistemas en malla abierta como lo
muestra la Figura 1.1a).
La retroalimentación tiene muchas propiedades interesantes. Por ejemplo, la retroalimentación permite
que un sistema se vuelva menos sensible a perturbaciones externas, a las variaciones de los elementos que
componen los equipos, o también puede servir para crear un comportamiento lineal a partir de un sistema no
lineal (práctica muy utilizada en componentes electrónicos). Sin embargo, si la retroalimentación se emplea
de forma incorrecta, se pueden generar inestabilidades en el sistema. Por ejemplo, un ruido indeseado de
1 En inglés se conoce como feedback. El diccionario Merriam Webster define el término como: “The return to the input of a

part of the output of a machine, system, or process (as for producing changes in an electronic circuit that improve performance
or in an automatic control device that provide self-corrective action) [1920]”
2 Un sistema cuyo comportamiento cambia con el tiempo debido a una respuesta o a un estı́mulo externo es un sistema

dinámico.
3 En inglés, los términos utilizados son open loop y closed loop, respectivamente

3
4 CAPÍTULO 1. INTRODUCCIÓN

Sistema 1 Sistema 2

a) Sistema de malla abierta

Sistema 1 Sistema 2

b) Sistema de lazo cerrado

Figura 1.1: Sistemas de malla abierta a), y de lazo cerrado b).

un sensor serı́a amplificado por la retroalimentación, por lo que se necesitarı́a un filtro que responda a este
tipo de detalles. Otro problema cuando se tiene un sistema retroalimentado mal implementado es el hecho
de inestabilidad. Uno de los casos más comunes son los efectos de la realimentación positiva cuando la
amplificación de un micrófono es demasiado alta dentro de un salón. Este es un ejemplo de inestabilidad
debida a la retroalimentación, lo cual por supuesto, se quiere evitar, aunque no es sencillo. Esta es la
razón fundamental por la que la mayor parte del estudio de los sistemas retroalimentados está dedicada al
entendimiento de las dinámicas y las técnicas de diseño de sistemas dinámicos y su control.

1.2. Qué es Control?


La real academia de la lengua define control como: Comprobación, inspección, fiscalización, interven-
ción; Dominio, mando, preponderancia; Oficina, despacho, dependencia, etc., donde se controla; Regulación,
manual o automática, sobre un sistema; Dispositivo que regula a distancia el funcionamiento de un aparato,
mecanismo o sistema. Si bien el término tiene muchas definiciones, control se definirá como sigue.

Definition 1 Control es un dispositivo que por medio del uso de algoritmos y retroalimentación regula el
funcionamiento de un sistema.

Ası́ pues, se puede decir que control incluye ejemplos tales como controladores de “set point” en procesos
quı́micos, “fly-by-wire” en sistemas aeronáuticos, además de protocolos para el control de tráfico en la
Internet. En la actualidad, las aplicaciones que están emergiendo entre otras incluyen vehı́culos y robots
autónomos y sistemas bioinspirados. El área de control es esencialmente una ciencia que incluye información
de tipo análogo y digital.
La idea básica en un controlador moderno es sensar lo que está sucediendo en el sistema, comparar
el comportamiento de este con el objetivo inicial, corregir aquello que no esté saliendo bien, y enviar esta
información para que el sistema actúe. Es decir, es un sistema retroalimentado donde se sensa, se computa,
y se actúa para obtener el cambio deseado. El punto clave en este caso es diseñar un controlador que
asegure que las dinámicas del sistema en malla cerrada sean estables y que el resultado final sea siempre
el deseado. Para ello se necesitan técnicas de modelaje y análisis para capturar los elementos fı́sicos para
poder describir de manera adecuada el comportamiento de un sistema, para poderlo hacer robusto cuando
se tienen perturbaciones, ruido, y otras fallas debido a los componentes.
La figura 1.2 muestra un ejemplo de este tipo de sistemas. En ella se pueden observar los elementos
necesarios para sensar, computar, y actuar. En los sistemas de control moderno, el uso de computadores
es esencial, con lo cual se requieren components tales como conversores análogos y digitales (ADC y DAC
según sus siglas en inglés). Las perturbaciones que entran al sistema se modelan de varias formas (e.g., ruido,
1.3. HISTORIA DEL CONTROL AUTOMÁTICO 5

perturbaciones en el sistema). El algoritmo de control tiene que ser lo suficientemente robusto para poder
responder rápida y adecuadamente a este tipo de incertidumbres. Este algoritmo se conoce generalmente
como ley de control. Para poder diseñar de manera adecuada el controlador, por lo general es necesario tener
un buen modelo del sistema que se quiere controlar.

Figura 1.2: Componentes de un sistema de control asistido por computador [32].

1.3. Historia del Control Automático


Por más de 2000 años se han utilizado sistemas retroalimentados de control. Dentro de los primeros
ejemplos se tienen los relojes de agua descritos por Vitruvius y que se le atribuyen a Tesibios (circa 270 B.C.).
Cerca de trescientos años después, Herón de Alejandrı́a describı́a un tipo de autómato el cual empleaba un
mecanismo de retroalimentación. La historia del control automático se divide en cuatro perı́odos:

Inicios del Control: Hasta 1900.

Perı́odo del control pre-clásico: 1900-1940.

Perı́odo del control clásico: 1935-1960.

Perı́odo del control moderno: 1955 en adelante.

1.3.1. Inicios del Control

Hacia el final del renacimiento se descubrieron en occidente las ingeniosas ideas de sistemas de control
del perı́odo helénico, las cuales habı́an sido preservadas por la cultura islámica. A partir de ese momento,
nuevos inventos comenzaron a aparecer durante el siglo XVIII. Uno de los primeros ejemplos es el control
de temperatura en incubadoras (utilizando dispositivos autómaticos) propuesto por René-Antoine Ferchault
de Réamur. Durante el siglo XIX se inventaron varios dispositivos termostáticos, los cuales tenı́an como
caracterı́stica el hecho de que la potencia para operar el actuador era extraı́da del sistema de medida.
El más importante desarrollo de control durante el siglo XVIII fue la máquina de vapor. En 1788
Matthew Boulton le describió a su socio James Watt el mecanismo (flyball governor ) que le permitió a este
último controlar la velocidad de la máquina de vapor y reducir las variaciones de carga. El primer diseño se
realizó en Noviembre de 1788, y el controlador se utilizó por primera vez en 1789. Este sistema tiene varios
problemas: tiene un controlador proporcional que proporciona un único punto de operación; sólo puede
6 CAPÍTULO 1. INTRODUCCIÓN

funcionar a velocidades bajas; se necesita un mantenimiento permanente. Sin embargo, este fue uno de los
avances más importantes durante la revolución industrial.
Mejoras a este sistema se realizaron durante los primeros setenta años del siglo XIX, dentro de los
cuales se podrı́an rescatar aquellas patentadas por Siemens (1846; 1853), Porter (1858), y otros. En 1868
Maxwell publicó el paper “On Governors”, el cual describı́a un modelo matemático utilizando ecuaciones
diferenciales para controlar la turbina de vapor, y empezó a analizar la estabilidad del sistema. Por primera
vez se determinó que la estabilidad estaba dada por la ubicación de los polos de la ecuación caracterı́stica.
Maxwell determinó condiciones suficientes y necesarias para ecuaciones hasta de cuarto orden. En su época
su trabajo no fue tan valorado como lo fue en el siglo XX.
El trabajo que realizó Maxwell fue retomado por Routh, el cual publicó los primeros resultados en
1874. En 1877, Routh produce un tratado sobre “Stability of Motion.en el cual expone los principios de
estabilidad de lo que hoy se conoce como el criterio de estabilidad Routh-Hurwitz (su trabajo tomaba ideas
de Cauchy y Sturm, y en 1895 Hurwitz es el que deriva la misma idea independientemente).
La mayorı́a de los inventos de la época tenı́an que ver con control y estabilidad de temperatura,
presión, nivel, y velocidad de rotación de máquinas. Luego las aplicaciones comenzaron a realizarse en la
parte naval con la aparición de barcos navales y armas de guerra. Una de los primeros motores dirigidos y
controles de posición en malla cerrada fueron diseñados por Farcot en 1866, el cual sugirió por primera vez
el nombre de “servo-moteur.”
El desarrollo de la electricidad y su mejor comprensión, permitieron que se crearán más aplicaciones
en el área de control (se tenı́an más mecanismos para sensar y manipular señales, y por ende para crear
actuadores).

1.3.2. Perı́odo Pre-Clásico

Las aplicaciones que se vieron en los primeros años del siglo XX eran de todo tipo (e.g., control de
voltage, corriente, regulación de frecuencia, control de velocidad de motores eléctricos, control de tempera-
tura, presión, y procesos industriales). Sin embargo, todos estos dispositivos que se diseñaron no poseı́an un
total entendimiento de las dinámicas, lo cual generó problemas. La única herramienta teórica que se tenı́a
era el análisis de estabilidad de Routh-Hurwitz, el cual implica conocer todos los parámetros del sistema,
además de no proveer herramientas para entender el grado de estabilidad.
En 1922, Nicholas Minorsky presentó por primera vez un análisis de control de posición, y formuló lo
que hoy se conoce como un controlador PID. Su análisis partió del estudio de cómo un capitán controlaba
la posición de su barco. Sin embargo, su trabajo carecı́a de herramientas a ser aplicadas.
Por la misma época, Harlod Black comenzó a estudiar el incremento de ancho de banda en las lı́neas de
transmisión telefónica, para que no hubiese tantas pérdidas y distorsión. El fue el primero en crear un circuito
con retroalimentación negativa. Su colaborador inmediato fue Harry Nyquist, cuyo paper “Regeneration
Theory”publicado en 1932 formula las bases del análisis que lleva su nombre. Este es uno de los papers más
importantes, ya que permite entender los beneficios de la retroalimentación negativa, y provee herramientas
para el análisis y diseño de sistemas de control sin que se requiriesen ecuaciones diferenciales (la sola respuesta
en frecuencia, combinada con los datos calculados permitı́an establecer el grado de estabilidad del sistema,
y también ayudaba a estimar los cambios necesarios para mejorar el desempeño).
Uno de los trabajos que se hicieron a la par del de Black, fue el de Clesson Mason en Foxboro. Mason
utilizó retroalimentación negativa, e hizo que por primera vez en 1928 una compañı́a tuviese controladores
con amplificación lineal o integral.

1.3.3. Perı́odo Clásico

En diversos paı́ses se comenzó a entender y analizar los sistemas de control desde un punto de vista
más matemático. Los esfuerzos en los Estados Unidos se debieron más al esfuerzo que “Bell Telephone
Laboratories”puso en aras de obtener más ancho de banda. En 1940, Hendrik Bode, demostró que existe
una relación una atenuación caracterı́stica y el mı́nimo cambio de fase asociado con ella. A su vez, utilizó el
1.3. HISTORIA DEL CONTROL AUTOMÁTICO 7

punto (-1,0), en vez del (1,0) que originalmente utilizó Nyquist para introducir los conceptos de margen de
ganancia y de fase (además de las limitaciones de ganancia de ancho de banda).
En 1942 Ziegler y Nichols publicaron un paper describiendo cómo encontrar los parámetros adecuados
para un controlador PI y PID. Coon en los 50s, extendió dicha teorı́a que hoy se conoce como el método de
sintonización de Ziegler-Nichols.
Un tercer grupo en MIT encabezado por Hazen y Brown, desarrolló por primera vez el estudio de
diagramas en bloques, además de crear el primer simulador de sistemas de control por intermedio de un
analizador diferencial.
La segunda guerra mundial hizo que el área de control se centrara en temas especı́ficos, entre los cuales
se tiene la detección de posición de una aeronave, además de calcular su posición futura, y el movimiento
de un arma de alto calibre para poder dispararle. De acá se generaron varios temas de investigación teórica,
los cuales dieron pie al análisis de sistemas discretos (e.g., el trabajo de Tustin), y el estudio de sistemas
estocásticos de Norbert Wiener.
Al finalizar la guerra, casi todas las técnicas de control clásico se habı́an desarrollado (la única excep-
ción era el trabajo del lugar de las raı́ces de Walter Evans en 1948). Las metodologı́as de diseño realizadas
eran para sistemas lineales y de una sola entrada, con coeficientes constantes (lo que generaba problemas,
ya que los sistemas son no lineales y de múltiples entradas). Si bien las técnicas de respuesta en frecuencia
eran bastante utilizadas, algunos preferı́an la solución mediante ecuaciones diferenciales utilizando transfor-
madas de Laplace, ya que según los ingenieros de la época, ésta era más ajustada a la realidad. También se
comenzó a estudiar optimización, área en la que intervinieron personas de la talla de Bellman, y LaSalle.

1.3.4. Control Moderno

Los misiles guiados, la conquista del espacio, y el desarrollo de los computadores marcaron el inicio de
esta nueva etapa de conocimiento del control. Ası́ pues, gracias a las ideas expuestas por Henri Poincaré en
torno a ecuaciones diferenciales de primer y segundo orden, se comenzó a estudiar todo desde el punto de
vista de “state-space”.
Richard Bellman entre 1948 y 1952, trabajando para la corporación RAND, estudió el problema de
asignar un misil a un objetivo determinado para que éste causara la mayor cantidad de daño posible. Esto
lo llevó a formular el principio de optimalidad y generó lo que se conoce como programación dinámica
(cuya máxima dificultad radica en la cantidad de memoria de cómputo que se requiere para resolver estos
problemas). Bellman utilizó formulaciones mecánicas como las expuestas por Lagrange y Hamilton para
poder resolver los problemas óptimos que se planteaban. A la par de Bellman, Pontryagin (1956) planteaba
el “maximum principle”, el cual sentó las bases de la teorı́a de control óptimo. Estas dos teorı́as permitieron
que se empezara a profundizar en problemas matemáticos del área de control. Lógicamente, el desarrollo de
los computadores incidieron en que muchos de los problemas pudiesen resolverse más rápido de lo que se
esperaba.
Kalman en los años cincuenta presentó un paper en el cual mostraba cómo problemas de control
multivariable estaban ligados a aquellos de filtros, lo cual abrı́a una nueva área de investigación dentro del
control (también se encuentra dentro de todo este desarrollo los aportes que hiciera Bucy tiempo después
para generar el famoso filtro Kalman-Bucy). Ası́ pues, se generaron conceptos tales como observabilidad
y controlabilidad, hoy utilizados extensamente en el desarrollo de controladores bajo el uso de sistemas
modelados a partir de variables de estado.
Después de estos primeros pasos, se empezaron a abrir otras áreas de investigación: control adaptativo;
control no lineal (con técnicas que van desde phase plane, describing functions, hasta teorı́a de estabilidad
de Lyapunov); técnicas dentro de las cuales se comienza a ver una influencia de varias áreas de la ciencia:
algoritmos genéticos, fuzzy logic, redes neuronales, y otras nuevas tales como foraging theory.
8 CAPÍTULO 1. INTRODUCCIÓN

1.4. Ejemplos de Sistemas de Control Retroalimentado y Future


Directions
Un sistema retroalimentado tiene propiedades buenas y malas. Un sistema que era inestable puede
volverse estable, o se pueden reducir los problemas que se pueden producir por un incremento de las pertur-
baciones o del ruido. A continuación se presentan ciertos ejemplos de sistemas de control retroalimentado.
Como se vio en el contexto histórico, los primeros controladores retroalimentados se dedicaban más al
control de temperatura. Un ejemplo es el termostato. Este dispositivo mide la temperatura en algún lugar,
compara la temperatura con aquella que se desea, y utiliza retroalimentación para saber si se tiene que
aumentar la temperatura en un determinado lugar o no. Si bien la explicación parece sencilla, ésta ilustra
el concepto básico de control retroalimentado. En la vida real, hoy en dı́a, los termostatos tienen elementos
que permiten evitar los problemas que se pueden producir por los retardos de transporte que existen a la
hora de medir y actuar.
Otro de los ejemplos donde se ve el progreso de los sistemas de control retroalimentado es en el área de
la aeronáutica y la industria automotriz. En el caso vehicular, uno de los ejemplos está en el cruise control.
En 1958 se introdujo por primera vez esta tecnologı́a que hace que el vehı́culo por intermedio de un sistema
retroalimentado controle la velocidad. Ası́ pues, la velocidad se mantiene constante independientemente
de si se está subiendo una cuesta, o si se está conduciendo en bajada. Hoy en dı́a, este tipo de sistemas
han mejorado de tal forma que entre otras caracterı́sticas novedosas, se puede optimizar el consumo de
combustible y reducir la polución.
Más ejemplos incluyen redes, robots, máquinas inteligentes, e instrumentación. En estas áreas, la
retroalimentación juega un papel muy importante, tanto que sin ella no se podrı́an tener redes rápidas y
estables, o robots que realicen tareas tan complicadas como jugar fútbol, o diseñar equipos para el control
de la insulina en pacientes diabéticos.
Finalmente, cabe mencionar una de las áreas que más interés está presentando en estos momentos:
systems biology. Es bien sabido que la naturaleza ha aportado un sin número de ideas para el desarrollo
de tecnologı́a. Sin embargo, su estudio ha sido más desde el punto de vista biológico que matemático y
tecnológico. Actualmente, se tienen más herramientas para comprender y modelar de una forma más completa
los sistemas naturales, lo cual nos puede llevar a explorar soluciones en ámbitos de la ciencia como lo son
la medicina, la biologı́a, y los ecosistemas. En biologı́a por ejemplo, uno de los temas más recurrentes es el
tratar de tratar de entender lo que pasa con sistemas complejos en ingenierı́a como las redes, para poder
entender cómo funcionan ciertos aspectos moleculares (e.g., scale-free networks). Desde el punto de vista
de los ecosistemas, es claro que éstos son sistemas complejos, los cuales podrı́an verse como de múltiples
entradas y salidas. En un ecosistema pueden haber varias capas de retroalimentación, y aún se necesitan
elementos teóricos que puedan explicar el funcionamiento de los mismos. Sin embargo, el traer estas ideas al
área de control, permite que se vayan desmenuzando paulatinamente dichos problemas, y porque no, llegar
a una solución futura de ciertos problemas básicos (e.g., redes bacteriales).
Capı́tulo 2

Modelamiento de Sistemas

Entusiasmo es una palabra griega que significa “rozado por el ala de Dios”. El entusiasmo es eso. Un
roce, un instante
Historia Argentina, Rodrigo Fresán

En este capı́tulo se pretende entender cómo se modelan los sistemas dinámicos. Para ello, se empieza
con una reseña filosófica, para luego definir las ideas para el modelado matemático de un sistema. Se presentan
ejemplos y simulaciones para que el estudiante comience a familiarizarse con herramientas tales como Matlab
y Simulink. Las siguientes notas han sido adaptadas a partir de varios textos de control (e.g., [27, 22, 16, 12,
31, 28, 7]).

2.1. Filosofı́a

Cuando uno se enfrenta a un problema de control, por lo general se siguen ciertos procedimientos. La
Figura 2.1 nos da una primera idea de cómo modelar un sistema.

PROCESO

Ganar intuición y
entender la planta

Especificar los objetivos


de diseño

MODELAR
Figura 2.1: Primeros pasos en el diseño de un sistema de control [27].

9
10 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS

El modelamiento es la base para diseñar un buen sistema de control. Sin un buen modelo no podrı́amos
diseñar un sistema de control que cumpla ciertas caracterı́sticas. Sin embargo, ningún modelo es perfecto,
lo cual ciertas veces dificulta el diseño. Lo bueno es que cualquier tipo de incertidumbre puede llegar a ser
modelada de tal forma que se incluya en el proceso de diseño. De esta forma, se estarı́a frente a un modelo
más completo, y por ende, se tendrı́an más herramientas a la hora del diseño de un controlador. En este
curso, sólo se utilizarán sistemas lineales e invariantes en el tiempo (LTI por sus siglas en inglés), ya que
estos nos dan una primera aproximación del modelo de un sistema. Otro tipo metodologı́a que se sigue por
lo general está descrito por la Figura 2.2.

PROCESO

Modelamiento físico
SYSID, APPROX

Modelo Verdadero Modelo Diseñado

Approx (reducción,
linealización)

Figura 2.2: Otra metodologı́a en el modelamiento de procesos [27].

2.2. Principios de Modelamiento Matemático


Una de las razones fundamentales para el uso de modelos matemáticos es que las expresiones analı́ticas
que se encuentran proveen una visión importante entre lo que son las caracterı́sticas del sistema fı́sico (e.g.,
temperatura, flujo, etc.), y sus dinámicas. En lo que sigue se presenta un procedimiento para modelar
sistemas, que en un principio cualquier inexperto deberı́a seguir. Sin embargo, con el paso del tiempo, el
estudiante irá adquiriendo intuición e ideas de cómo se podrı́a desarrollar un modelo matemático de un
sistema fı́sico.

2.2.1. Esquema

Un esquema básico que deberı́a seguirse se define a continuación. En la siguiente sección se presenta
un ejemplo que nos lleva paso a paso con el fin de entender cada uno de los puntos expuestos en el siguiente
esquema.

1. Definir Objetivos

a) Especificar las decisiones que se deben tomar para el diseño.


b) Valores numéricos.
c) Relaciones funcionales.
d ) Requisitos de precisión.

2. Preparar Información

a) Hacer un bosquejo del proceso e identificar el sistema.


b) Identificar las variables de interés.
2.2. PRINCIPIOS DE MODELAMIENTO MATEMÁTICO 11

c) Hacer suposiciones y toma de datos.


3. Formular el Modelo
a) Balances de conservación
b) Plantear las ecuaciones.
c) Combinar las ecuaciones y los términos que se han ido obteniendo.
d ) Verificar los grados de libertad para saber si el número de ecuaciones es el adecuado.
4. Determinar la Solución
a) Analı́ticamente.
b) Numéricamente.
5. Analizar los Resultados
a) Verificar resultados para saber qué tan acertados están.
1) Limitar y aproximar las respuestas.
2) Precisión de los métodos numéricos.
b) Interpretar resultados.
1) Graficar la solución.
2) Relacionar suposiciones y resultados de los datos.
3) Evaluar sensitividad.
4) Responder a preguntas del tipo “y si?”
6. Validar el Modelo
a) Seleccionar valores claves para validar.
b) Comparar con resultados experimentales.
c) Comparar con resultados de modelos más complejos.

2.2.2. Ejemplo

Para poder entender el procedimiento de modelado previamente descrito, tomemos el ejemplo de un


tanque de flujo continuo perfectamente agitado (continuous-flow stirred tank de la Figura 2.3).

Figura 2.3: Tanque de flujo continuo perfectamente agitado.

Objetivo: Determinar la respuesta dinámica del tanque a un cambio tipo escalón en la C A0 , ası́ como
la velocidad y forma de respuesta. Todo esto depende del volumen y del flujo. Una de las suposiciones que se
12 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS

tienen es que la salida no puede ser utilizada a no ser que el 90 % del cambio de concentración haya ocurrido.
Por lo tanto, otro de los objetivos es determinar cuánto tiempo se necesita para llegar a este valor.
Información: Para poder preparar la información, primero se identifica el sistema, y la manera más
sencilla de hacerlo es mediante un diagrama. Con ello se pueden identificar las variables y tener una idea de
los balances a formular. Para este caso, el sistema es el lı́quido en el tanque. El tanque ha sido bien diseñado
tal que la concentración sea uniforme en el lı́quido. Se asumirá luego que,

Es un well-stirred vessel, i.e., permite el uso de ODEs en lugar de PDEs.

Se tiene un flujo constante de entrada.

La densidad es la misma para A y el solvente.

A nivel de datos, se asume que,

F0 = 0,086m3 /min.

V = 2,1m3 .

CAIN IT = 0,925mole/m3 .

Después de aplicar una entrada ‘paso, se tiene que CA0 = 1,85mole/m3 .

El sistema está en estado estable al principio, i.e., CA0 = CA = CAIN IT , cuando t = 0.

Formulación: Primero, para poder formular el modelo, tenemos que seleccionar las variables de cuyo com-
portamiento queremos predecir. Una vez se tengan estas variables, las ecuaciones pueden ser deducidas
basados en principios fundamentales, como lo es la conservación. Estos balances de conservación son relacio-
nes que obedecen ciertos supuestos en sistemas fı́sicos. Estos balances de conservación se pueden ver por lo
general como,
ACC = IN - OUT + GENERA
donde si ACC 6= 0 para un well-mixed system, se tendrá una ODE, mientras que si ACC = 0 para un
well-mixed system, se tendrá una ecuación algebraica. Los más utilizados son los balances de masa y energı́a.

Balance de masa total: Acumulación de masa = Masa IN - Masa OUT

Balance de masa por componente: Acumulación del componente de masa = Comp Masa IN - Comp
Masa OUT + Generación del Componente de Masa.

Balance de energı́a: Acumulación de U+PE+KE = (U+PE+KE IN por convex) - (U+PE+KE OUT


por convex) + Q - W
donde U es la energı́a interna, PE la energı́a potencial, KE la cinética, Q la temperatura transferida al
sistema por el ambiente, y W el trabajo (si el volumen es constante, W=Ws).

Hay casos especı́ficos en los que se utiliza cada uno de los balances previamente descritos. A continuación se
da un ejemplo de los más utilizados.

Si la variable es el total de masa del lı́quido en un tanque o la presión en un recipiente, el balance de


materia total es el más apropiado.

Si la variable es la concentración de un componente, el balance de masa por componente es el apropiado.

Si la variable es temperatura, el balance de energı́a es el apropiado.

Lógicamente, si se tienen varias variables, es claro que se pueden utilizar varios balances para poder obtener
el modelo matemático. En ciertos casos los balances no son suficientes, por lo que se utilizan ecuaciones que
pueden relacionar varias variables. Por ejemplo,
2.2. PRINCIPIOS DE MODELAMIENTO MATEMÁTICO 13

Transferencia de calor: Q = hA(∆T ).


Tasa Reacción Quı́mica: rA = k0 e−E/RT CA .
Flujo: F = CV (∆P/ρ)1/2 .
Ecuación de estado: P V = nRT .

Estas relaciones dependen del problema en cuestión, ya que por lo general no son universalmente aplicables.
Finalmente, la formulación del modelo queda completa cuando se tiene el número adecuado de ecuacio-
nes. Para ello, existe un elemento conocido como grado de libertad (degree of freedom, DOF), el cual viene
dado por DOF = N V − N E, donde N V es el número de variables dependientes (i.e., variables que depen-
den del comportamiento del sistema y deberán ser evaluadas por medio de las ecuaciones del modelo), y
N E es el número de ecuaciones independientes. Si DOF = 0, el sistema está exactamente especificado; si
DOF < 0, el sistema está sobreespecificado, i.e., no existe una solución del modelo; si DOF > 0, el sistema
está subespecificado, i.e., existe un número infinito de soluciones.
Para el ejemplo en cuestión, como se tienen concentraciones, los balances de mas son adecuados. El
balance total de masa para un incremento de tiempo ∆t viene dado por,

(ρV )(t+∆t) − (ρV )t = F0 ρ∆t − F1 ρ∆t

donde ρ es la densidad. Dividiendo por ∆t, y tomando el lı́mite cuando tiende a 0, se tiene que la acumulación
de masa es igual a la masa de entrada menos la masa de salida, i.e.,
(ρV )(t+∆t) − (ρV )t
lı́m = F0 ρ − F 1 ρ
∆t→0 ∆t
d(ρV )
= F0 ρ − F 1 ρ
dt
dρ dV
V +ρ = F0 ρ − F 1 ρ
dt dt

Como la densidad es constante, dt = 0, por lo que se tendrı́a que

dV
= F0 − F1 (2.1)
dt
Es claro que F0 es una variables externa que no depende del comportamiento del sistema. Como el lı́quido
sale al rebosarse el lı́quido, entonces el flujo de salida F1 está correlacionado con el nivel del lı́quido. Para
ello se utiliza una ecuación de presa que viene dada por,
p
F1 = kF L − Lw , para L > Lw

donde kF es una constante, L = V /A es el nivel del lı́quido en el tanque, y Lw es el nivel en el cual se


desborda la presa. En este caso, L > Lw por lo que el nivel nunca está por debajo del overflow, y la altura
por encima del desborde L − Lw es pequeña comparada con el nivel del lı́quido en el tanque L. Por lo tanto,
se asumirá que el nivel del lı́quido en el tanque es aproximadamente constante, y que F 0 = F1 = F , por lo
que (2.1) se convierte en
dV
= F0 − F1 = 0 ⇒ V = constante (2.2)
dt
Ahora se necesita formular el balance de masa del componente A. Como es un tanque well-mixed, las con-
centraciones del tanque y las de salida son las mismas, por lo que,

(M WA V CA )(t+∆t) − (M WA V CA )t = (M WA F CA0 − M WA F CA )(∆t) + 0

donde M WA corresponde al peso molecular del componente A, CA está en moles/volumen del componente
A, y como no hay reacción quı́mica, la generación es igual a 0. Esto implicarı́a finalmente que,
dCA
M WA V = M WA F (CA0 − CA ) (2.3)
dt
14 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS

Por lo tanto, las Ecuaciones (2.2) y (2.3) describen nuestro sistema. Se tiene entonces que las variables son
CA y F1 , y las variables externas son F0 y CA0 , entonces el DOF = 0. Se tiene que tener en cuenta que los
parámetros no cambian con el tiempo, lo cual no es real, pero es válido siempre y cuando los cambios sean
lentos.
Solución Matemática: Una de las ventajas de una solución analı́tica es que se puede calcular
valores especı́ficos de la solución, ası́ como determinar las relaciones entre las variables y el comportamiento
del sistema.
El modelo en (2.3) es una ODE lineal de primer orden, que puede ser escrita como

dCA 1 1
+ C A = C A0 (2.4)
dt τ τ
donde τ = V /F = 24,7min, y se conoce como la constante de tiempo del sistema.
Para resolver este tipo de ecuaciones, se recurre a lo visto en ecuaciones diferenciales. Se sabe que
Rt1
dt
e 0 τ = et/τ (2.5)

Multiplicando por este factor a ambos lados de (2.4) se obtiene que


 
t/τ dCA 1 1
e + CA = CA0 et/τ
dt τ τ

Pero por (2.5),


dCA det/τ 1
et/τ + CA = CA0 et/τ
dt dt τ
d(et/τ CA ) 1
= CA0 et/τ
dt τ
1
d(et/τ CA ) =CA0 et/τ dt
τ
Como se asumió que CA0 es constante incluso después de hacer el cambio a entrada escalón, entonces
Z Z
1
t/τ
d(e CA ) = CA0 et/τ dt
τ

1
et/τ CA (t) = CA0 τ et/τ + I
τ
donde I es una constante. Originalmente se ha asumido que si t = 0, y C A (0) = CAIN IT , por lo que

I = CAIN IT − CA0

Escrito de otra forma serı́a,


CA = CA0 + (CAIN IT − CA0 )e−t/τ
Se sabe que CAIN IT = CA0IN IT , por lo que

CA − CAIN IT = CA0 + (CAIN IT − CA0 )e−t/τ − CAIN IT

CA − CAIN IT = (CA0 − CAIN IT )(1 − e−t/τ )


Escrito de otra forma, esto podrı́a verse como
 
y(t) = u(t) 1 − e−t/τ

Si la entrada u(t) es un escalón unitario, la salida serı́a y(t) = 1 − e−t/τ para t ≥ 0, lo que gráficamente serı́a
equivalente a lo que se ve en la Figura 2.4).
2.3. SISTEMAS DE PRIMER ORDEN Y CONTROLADOR ON-OFF 15

Figura 2.4: Respuesta a entrada paso de un sistema de primer orden.

Como se puede ver, una de las caracterı́sticas primordiales de un sistema de primer orden es que si
t = τ , el valor de y(t) serı́a igual al 63.2 % del valor final, i.e.,

y(t = τ ) = 1 − e−1 = 0,632

Se puede observar también que entre más pequeña sea la constante de tiempo τ , más rápida es la respuesta
del sistema. Otra caracterı́stica importante de este tipo de sistemas es que la lı́nea tangente en t = 0 es 1/τ ,
ya que
dy(t) 1 1
= e−t/τ

=
dt τ t=0 τ
Es claro también que si no se tuviese una entrada escalón unitario sino x(t) = Ku(t), entonces la salida serı́a

y(t) = K(1 − e−t/τ )

donde el valor final vendrı́a dado por

lı́m y(t) = lı́m K − lı́m Ke−t/τ = K


t→∞ t→∞ t→∞

Para el caso del ejemplo en cuestión, CAIN IT = 0,925 y τ = 24,7min, lo cual nos brinda la rapidez con la
que responde el sistema. Todo esto depende del equipo (i.e., por el volumen V ), y la operación del proceso
(i.e., F ).

2.3. Sistemas de Primer Orden y Controlador ON-OFF


Otro ejemplo interesante a modelar es el de un sistema simple de calentamiento como el que se muestra
en la Figura 2.5)
En un clima frı́o, la temperatura de una casa puede mantenerse a una temperatura deseada haciendo
circular agua caliente a través de un intercambiador de calor. Un termóstato determina la temperatura en
un cuarto, y se desea mantener dicha temperatura en un rango determinado.
Objetivo: Determinar la respuesta dinámica de la temperatura en un cuarto. Además, se quiere
garantizar que el horno conmute sólo cada 3 min, lo cual ayudarı́a a que los gases sean purgados antes de
volver a ser encendido.
Información: Variables importantes: Temperatura del cuarto; Estados ON/OFF del horno.
Suposiciones: El aire en el cuarto es well-mixed; No existe intercambio de material desde/hacia
cuarto; El calor transmitido sólo depende de la ∆T = Troom − Tout ; No hay transferencia de calor del suelo
o del techo; Efectos de energı́a cinética y potencial son despreciables.
Datos: La capacidad del aire CV = 0,17 cal/(g ◦ C); Densidad es ρ = 1190g/m3 ; El coeficiente de
transferencia total de calor UA = 45 × 103 cal/(◦ Ch); Tamaño del cuarto 5m × 5m × 3m; Switcheo entre
16 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS

Figura 2.5: Sistema térmico.

17◦ C ON y 23◦ C OFF; TINroom = 20◦ C, y el horno está apagado originalmente; La temperatura ambiente
es TA = 10◦ C.
Formulación: El sistema se define como el aire dentro de la casa. Para determinar la temperatura,
un balance de energı́a es necesario (como no hay material que se transmite, no se necesita hacer balance de
materia). La aplicación del balance de energı́a darı́a:
dY
= 0 − 0 + Q − Ws (2.6)
dt
Sin embargo, Ws = 0. Utilizando los principios de termodinámica y transferencia de calor, y sabiendo que
la acumulación de energı́a cinética y potencial son despreciables,
dU
dt = ρCV V dT
dt (2.7)
Q = −U A(T − TA ) + Qh
donde 
 0 T > 23
Qh = 1,5 × 106 T < 17

sin cambio 17 ≤ T ≤ 23
Por lo tanto las Ecuaciones (2.6) y (2.7) describen totalmente el sistema. El DOF es 0 ya que además se
tienen dos variables (i.e., T y Qh ), cuatro parámetros (i.e., U A, CV , V , y ρ), y una variable externa TA . La
ecuación que describirı́a finalmente todo el sistema es
dT
ρCV V = −U A(T − TA ) + Qh (2.8)
dt
Solución: Ordenando (2.8) se tiene que
dT 1 U ATA + Qh
+ T = (2.9)
dt τ ρCV V
La solución de (2.9) depende claramente del valor de Qh , por lo que
T − TIN IT = (TF IN AL − TIN IT )(1 − e−t/τ ) (2.10)
donde t es el tiempo desde el paso en Qh y τ = 0,34h de acuerdo a los valores asignados originalmente. El
valor de TF IN AL viene dado por

Qh 10◦ C cuando Qh = 0
TF IN AL = TA + =
UA 43,3◦ C cuando Qh = 1,5 × 106
El valor de TIN IT es el valor de temperatura cuando un paso en Qh ocurre.
En la Figura 2.6) se muestra un ejemplo de cómo serı́a la respuesta de un controlador ON-OFF.
2.4. TRANSFORMADA DE LAPLACE 17

Figura 2.6: Ejemplo de un sistema de control on-off.

2.4. Transformada de Laplace


Buena parte del material de esta sección fue tomado de [6, 11, 13, 25].

2.4.1. Transformada Unilateral de Laplace

La transformada unilateral de Laplace de una señal x(t), X(s), se define como


Z∞
L {x(t)} = X(s) = x(t)e−st dt (2.11)
0

donde s = σ + jw es una variable compleja. El término e−st es una exponencial decreciente que ayuda a la
convergencia del sistema. Existen ciertas limitantes en x(t) para que exista transformada de Laplace:

1. x(t) debe ser piecewise continuous en cualquier intervalo finito 0 ≤ t 1 ≤ t ≤ t2 .


2. x(t) debe ser de orden exponencial.

Definition 2 Una función x(t) es piecewise continuous en un intervalo finito si este intervalo puede ser
dividido en un número finito de subintervalos sobre los cuales la función es continuo y se tienen lı́mites por
izquierda y derecha de x(t).

Definition 3 Una función x(t) es de orden exponencial si existe una constante a tal que e −at |x(t)| esté aco-
tada para todo valor de t mayor que un valor finito T .

Esta última limitante impone la restricción de que σ, i.e., la parte real de s tiene que ser mayor a un lı́mite
inferior σa , para el cual el producto e−σa t |x(t)| es de orden exponencial. Esto es lo que se conoce como el
concepto de region of convergence (ROC).

Ejemplo 2.4.1 Sea x(t) = e−at u(t), con a ∈ R+ . Cuál es L {x(t)}?


18 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS

Utilizando (2.11),
R∞
X(s) = x(t)e−st dt
0
R∞
= e−at e−st dt
0
R∞
= e−(s+a)t dt
0
1 1
= − s+a lı́mt→∞ e−((σ+a)+jw)t + s+a
z }| {
0 if σ + a > 0
1
X(s) =
s+a
esto es válido para Re{s} > −a.

Ejemplo 2.4.2 Sea x(t) = cos(wt)u(t), con w ∈ R+ . Cuál es L {x(t)}?

Utilizando (2.11),
Z∞
X(s) = cos(wt)e−st dt
0
Por Euler cos(wt) se convierte en
∞ 
Z Z∞
1
X(s) = e(jw−s)t dt + e(−jw−s)t dt
2
0 0
   
1 1 1 1 1 1
X(s) = lı́m e(jw−s)t − lı́m e(−jw−s)t − −
2 jw − s t→∞ jw + s t→∞ 2 jw − s jw + s
Sin embargo,
lı́m e(jw−σ−jw)t = 0 if σ > 0
t→∞

lı́m e(−jw−σ−jw)t = 0 if σ > 0


t→∞
Por ende,

s
L {cos(wt)u(t)} = s2 +w2

Ejemplo 2.4.3 Sea x(t) = tu(t). Cuál es L {x(t)}?

Utilizando (2.11),
Z∞
X(s) = te−st dt
0
Integrando por partes, y utilizando
Zb Zb
b
udv = [uv]a − vdu
a a

Sea u = t y dv = e−st dt. Entonces,


h i
−st ∞ R∞ −st
X(s) = − te s − −es dt
0 0
1 ∞
= 0− s2 [e−st ]0
Por ende,

1
L {tu(t)} = s2 if Re{s} > 0
2.4. TRANSFORMADA DE LAPLACE 19

2.4.2. Propiedades de la Transformada de Laplace

Linearidad

Si
L
x1 (t) ←→ X1 (s)
L
x2 (t) ←→ X2 (s)

Entonces,
L
a1 x1 (t) + a2 x2 (t) ←→ a1 X1 (s) + a2 X2 (s)

Corrimiento en tiempo

Si
L
x(t) ←→ X(s)

Entonces,
L
x(t − t0 ) ←→ X(s)e−st0

Proof: Por (2.11)


Z∞
L {x(t − t0 )} = x(t − t0 )e−st dt
0

Cambiando de variables τ = t − t0 , dτ = dt,

R∞
L {x(t − t0 )} = x(τ )e−s(τ +t0 ) dτ
0
R∞
= e−st0 x(τ )e−sτ dτ
0
= e−st0 X(s)

Shifting in the s-Domain

Si
L
x(t) ←→ X(s)

Entonces,
L
es0 t x(t) ←→ X(s − s0 )

Ejemplo 2.4.4
L
e3t x(t) ←→ X(s − 3)

L {cos(w0 t)x(t)} = L { 21 x(t) ejw0 t + e−jw0 t }}

= L { 12 x(t)ejw0 t } + L { 12 x(t)e−jw0 t }

1
= 2 X(s − jw0 ) + 12 X(s + jw0 )
20 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS

Time Scaling

Si
L
x(t) ←→ X(s)
Entonces,
L 1 s
x(at) ←→ X
|a| a
Proof: Por (2.11)
Z∞
L {x(at)} = x(at)e−st dt
0
1
Cambiando de variables y definiendo τ = at, a dτ = dt, entonces si a > 0

1
R∞ τ
L {x(at)} = a x(τ )e−s( a ) dτ
0  (2.12)
1 s
= aX a

Si a < 0, se tiene
Z∞
L {x(at)} = x(at)e−st dt
0
1
Cambiando de variables y definiendo τ = at, a dτ = dt,

1
R0 τ
L {x(at)} = a x(τ )e−s( a ) dτ

R∞ τ (2.13)
= − a1 x(τ )e−s( a ) dτ
0 
= − a1 X s
a

Combinando los resultados de (2.12) y (2.13) para a > 0 y a < 0, se tiene

1 s
L {x(at)} = X
|a| a

Time Reversal

Si
L
x(t) ←→ X(s)
Entonces,
L
x(−t) ←→ X(−s)

Differentiation

Si
L
x(t) ←→ X(s)
Entonces,
dx(t) L
←→ sX(s) − x(0)
dt
2.4. TRANSFORMADA DE LAPLACE 21

Proof: Por (2.11)


  Z∞
dx(t) dx(t) −st
L = e dt
dt dt
0
−st dx(t)
Integrando por partes con u = e y dv = dt dt, se tiene
n
dx(t)
o
∞ R∞
L dt = [e−st x(t)]0 − x(t)(−s)e−st dt
0
R∞
= lı́mt→∞ e−st x(t) − e−s0 x(0) + s x(t)e−st dt
0
= lı́mt→∞ e−st x(t) − x(0) + sX(s)

Por hipótesis x(t) es de orden exponencial, lo que implica que

e−at |x(t)| < c ⇒ |x(t)| < ceat

Esto implica que para cualquier s tal que Re{s} > a,

lı́m e−st x(t) = 0


t→∞

Entonces,  
dx(t)
L = sX(s) − x(0)
dt


NOTA: Si x(t) es discontinua en t = 0 o si x(t) contiene un impulso o derivada de un impulso en t = 0, es


necesario tomar el tiempo inicial como 0− . Entonces,
dx(t) L
←→ sX(s) − x(0− )
dt
Note que si x(t) = 0 para t < 0, entonces x(0− ) = 0.
La definición general serı́a

Si
L
x(t) ←→ X(s)
Entonces,
dn x(t) L n
←→ s X(s) − sn−1 x(0) − sn−2 ẋ(0) − . . . − sxn−2 (0) − xn−1 (0)
dtn
donde xn−1 (0) corresponde a la derivada n − 1 de x evaluada en t = 0.
n o
dx(t)
Ejemplo 2.4.5 Sea x(t) = e−t u(t). Encuentre L dt .

Utilizando tablas o definiciones se tiene que


dx(t)
= −e−t u(t) + δ(t)e−t = −e−t u(t) + 1.δ(t)
dt
Por tablas, se sabe que
L
δ(t) ←→ 1
L 1
e−at u(t) ←→
s+a
Entonces  
dx(t) s
L =
dt s+1
22 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS

Si se utilizan las propiedades,  


dx(t)
L = sX(s) − x(0− )
dt
Pero x(0− ) = 0. Entonces  
dx(t) 1
L =s
dt s+1

Differentiation in the s-Domain

Si
L
x(t) ←→ X(s)
Entonces,
L dN
tN x(t) ←→ (−1)N X(s)
dsN

Integration

Si
L
x(t) ←→ X(s)
Entonces,
Zt
L 1
x(λ)dλ ←→ X(s)
s
0

Convolución

Si
L
x1 (t) ←→ X1 (s)
L
x2 (t) ←→ X2 (s)
Entonces,
L
x1 (t) ∗ x2 (t) ←→ X1 (s)X2 (s)

En la Figura 2.7 tomada de [31] se pueden ver algunas de las transformadas tradicionales de Laplace.
.

2.4.3. Solución de ODEs

Ejemplo 2.4.6 [29] Un calibrador óptico utilizado por la Chrysler Corporation, el cual se utiliza para
verificar el perfecto alineamiento de todos los componentes metálicos de varias clases de Sedan de cuatro
puertas, tiene unas dinámicas en lazo cerrado dadas por

ÿ + 5ẏ + 6y = f (t)

Asumiendo que f (t) = 0, y que y(0) = 1, ẏ(0) = 0, halle y(t).

Primero tendrı́amos que colocar el sistema en términos de la transformada de Laplace como sigue

s2 Y (s) − sy(0) − ẏ(0) + 5sY (s) − 5y(0) + 6Y (s) = 0

Y (s)(s2 + 5s + 6) = sy(0) + 5y(0)


2.4. TRANSFORMADA DE LAPLACE 23

Figura 2.7: Transformadas tı́picas de Laplace [31]

Esto es equivalente a
s+5 −2 3
Y (s) = = +
(s + 3)(s + 2) s+3 s+2
Tomando la transformada inversa de Laplace se obtiene finalmente que

y(t) = 3e−2t − 2e−3t

Un ejemplo de cómo se obtendrı́an los residuos en Matlab viene dado por:

[r,p,k] = residue([1 5],[1 5 6])

r =

-2.0000
3.0000

p =

-3.0000
-2.0000

k =

[]

Para poder obtener la transformada inversa de Laplace se utilizan por lo general fracciones parciales.
24 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS

Polos Sencillos

Sea
n
N (s) X ki
P (s) = =
D(s) i=1
(s − pi )

donde
ki = [(s − pi )P (s)]|s=pi
siempre y cuando el grado del numerador sea menor a la del denominador.

Polos Múltiples

Sea
N (s) k11 k1r k21 k2m
P (s) = = + ... + r
+ + ... + + ...
D(s) (s − p1 ) (s − p1 ) (s − p2 ) (s − p2 )m
donde
k1r = [(s − p1 )r P (s)]|s=p1

1 di [(s − p1 )r P (s)]
k1i = i = 1, . . . , r − 1
i! dsi
s=pi

y ası́ sucesivamente para todos los polos.

Ejemplo 2.4.7 Sea


1
P (s) =
s2 (s + 1)2
k11 k12 k21 k22
P (s) = + 2 + +
s s (s + 1) (s + 1)2
−2 1 2 1
P (s) = + 2+ +
s s (s + 1) (s + 1)2

>> [r,p,k]=residue([1],conv([1 0 0],[1 2 1]))

r =

2
1
-2
1

p =

-1
-1
0
0

k =

[]

%
2.4. TRANSFORMADA DE LAPLACE 25

Polos Complejos Conjugados

ki ki+1 ∗
P (s) = + ki = ki+1
(s − (−α + jβ)) (s − (−α − jβ))
donde
ki = [(s + (α − jβ))P (s)]|s=−α+jβ
Por lo tanto,
p(t) = ki e(−α−jβ)t + ki∗ e(−α+jβ)t
p(t) = 2|ki |e−αt cos (βt + ]ki )

Ejemplo 2.4.8 Sea


3ÿ + 2ẏ + y = 0
4 − 3s
P (s) =
3s2 + 2s + 1

1 2
s=− ±
3 3

Ejemplo 2.4.9 [7] Se tiene un sistema simple de masa resorte como se ve en la Figura 2.8. Este sistema
representa, por ejemplo, un amortiguador de choques para un vehı́culo. En él se puede ver el diagrama de
cuerpo libre de la masa M , donde b es el amortiguamiento viscoso (i.e., la fuerza de fricción es linealmente
proporcional a la velocidad de la masa), y la constante de un resorte ideal k.

Figura 2.8: Sistema Masa-Resorte-Amortiguador [7]

.
La ecuación diferencial vendrı́a dada por la suma de fuerzas actuando sobre M , i.e., utilizando la
segunda ley de Newton, X
Ma = F

En otras palabras serı́a,


M ÿ + bẏ + ky = r(t)
Si y(0− ) = y0 y ẏ(0− ) = 0, y r(t) = 0, por lo que tendrı́amos que la representación en Laplace serı́a,

M (s2 − sy(0− ) − ẏ(0− )) + b(sY (s) − y(0− )) + kY (s) = 0

(M s + b)y0 n(s)
Y (s) = = (2.14)
M s2 + bs + k d(s)
26 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS

Si d(s) = 0, estamos hablando de la ecuación caracterı́stica, porque las raı́ces de esta ecuación determinan
la caracterı́stica de la respuesta en tiempo. Las raı́ces de la ecuación caracterı́stica se conocen como polos o
singularidades del sistema. Las raı́ces de n(s) se denominan ceros.
Consideremos el caso cuando k/m = 2 y b/m = 3, por lo que

(s + 3)y0
Y (s) =
(s + 1)(s + 2)

La Figura 2.9 [7] muestra como se graficarı́a este sistema en el plano-s.

Figura 2.9: Representación del sistema en el plano-s [7]

.
Utilizando expansión en fracciones parciales se tiene

2 1
Y (s) = −
s+1 s+2
Tomando la transformada inversa de Laplace se obtiene finalmente que

y(t) = 2e−t − e−2t

Usualmente también se desea obtener el valor final o valor en estado estacionario. Para ello se utiliza
una de las propiedades más útiles de la transformada de Laplace, i.e., el teorema del valor final. Este se
puede ver como
lı́m y(t) = lı́m sY (s)
t→∞ s→0

Cabe aclarar que esto sólo es válido si lı́mt→∞ y(t) existe. Para el ejemplo en cuestión, es claro que lı́mt→∞ y(t) =
0, lo que implica que la posición final de la masa es la posición y = 0.
Podrı́amos ilustrar los puntos principales de la transformada de Laplace hasta ahora enunciados por
métodos gráficos. Para ello, tomemos la Ecuación (2.14) nuevamente, i.e.,
b
(s + M )y0
Y (s) = b k
s2 + ( M )s + M

Esto podrı́a escribirse como


(s + 2ζωn )y0
Y (s) =
s2+ 2ζωn s + ωw2

donde ζ es la tasa de amortiguamiento (no tiene dimensiones), y ωn es la frecuencia natural del sistema. El
polinomio caracterı́stico serı́a
d(s) = s2 + 2ζωn s + ωw
2
=0
2.4. TRANSFORMADA DE LAPLACE 27

Por lo que las raı́ces vendrı́an dadas por


p
s1,2 = −ζωn ± ωw ζ2 − 1 (2.15)
q
k √b
Para este caso especı́fico, ωn = M, yζ= 2 kM
.

Si analizáramos la Ecuación (2.15) es claro que

Cuando ζ > 1, las raı́ces son reales.

Cuando ζ < 1, las raı́ces son complejas conjugadas.

Cuando ζ = 1, las raı́ces son repetidas y reales. Esta última condición se conoce como amortigua-
miento crı́tico.

Para el caso cuando ζ > 1, la respuesta es subamortiguada, y las raı́ces de (2.15) se podrı́an escribir como
p
s1,2 = −ζωn ± jωw 1 − ζ2

Si graficáramos en el plano-s los polos y ceros de Y (s) obtendrı́amos lo que se ve en la Figura 4.8 [7].

Figura 2.10: Representación del sistema en el plano-s [7].

donde θ = cos−1 ζ. Si asumimos que ωn es constante, las raı́ces complejas conjugadas variarı́an de-
pendiendo del valor de ζ como se ve en la Figura 2.11 [7].
Es claro que la respuesta transitoria aumentará sus oscilaciones a medida que las raı́ces tiendan al
eje jω, i.e., cuando ζ tiende a cero.
Si calculáramos la transformada inversa utilizando la expansión en fracciones parciales para el caso
en que ζ < 1, tendrı́amos que
k1 k1∗
Y (s) = +
s − s1 s − s2
donde p
s1 = −ζωn + jωw 1 − ζ2
p
s2 = −ζωn − jωw 1 − ζ2
Utilizando las ideas vistas previamente, obtenemos que

1 1 ζ
k1 = − y 0 − j y 0 p
2 2 1 − ζ2
28 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS

Figura 2.11: Representación cómo varı́a ζ en el plano-s cuando ωn se mantiene constante [7].

Por lo tanto,
1 1
|k1 | = y0 p
2 1 − ζ2
y
ζ
∠k1 = tan−1 p
1 − ζ2
Finalmente, la respuesta en tiempo serı́a igual a
!
1 −ζωn t
p ζ
y(t) = y0 p e cos ωn t 1 − ζ 2 + tan−1 p
1 − ζ2 1 − ζ2
Gráficamente, esto se verı́a como se observa en la Figura 2.12 [7].

Figura 2.12: Respuesta en tiempo del sistema masa-resorte-amortiguador [7]

.
Mı́rese ahora la relación entre la respuesta en tiempo y la ubicación de los polos y ceros en el plano-s.
Si ζωn varı́a, entonces la envolvente e−ζωn t también, por lo que la respuesta cambiarı́a. Entre más grande
sea el valor de ζωn , más rápido será el amortiguamiento de la respuesta. Esto implicarı́a desplazar bastante
los polos hacia la izquierda del plano-s.
Es claro que en aplicaciones de control se tendrán más polos, por lo que la respuesta transitoria
dependerá de la contribución de todos ellos. Estas ideas se analizarán más adelante.
2.5. FUNCIONES DE TRANSFERENCIA 29

2.5. Funciones de Transferencia


Definition 4 La función de transferencia de un sistema lineal e invariante en el tiempo, es la relación en
frecuencia que existe entre la entrada y la salida cuando las condiciones iniciales son iguales a cero.

En esta definición, válida para sistemas lineales e invariantes en el tiempo, se tiene que para un sistema como
(7.18), la relación entre la entrada u y la salida y estará dado por una transformación en frecuencia de las
señales, siempre y cuando las condiciones iniciales sean nulas.

y n + a1 y n−1 + . . . + an−1 ẏ + an y = b0 um + b1 um−1 + . . . + bm−1 u̇ + bm u n≥m (2.16)

Esto serı́a,
L [salida]
H(s) =
L [entrada] CI=0
dónde L [·] es la transformada de Laplace. Aplicando esto a (7.18), se obtiene que

Y (s) b0 sm + b1 sm−1 + . . . + bm−1 s + bm


H(s) = = (2.17)
U (s) sn + a1 sn−1 + . . . + an−1 s + an

Cabe aclarar que en realidad la respuesta de un sistema está dada por dos componentes:

n(s) p(s)
Y (s) = R(s) +
d(s) d(s)
| {z } | {z }
Respuesta a Estado Cero Respuesta a Entrada Cero
Respuesta Forzada Respuesta Natural
Función de Transferencia

Ejemplo 2.5.1 [7] Se tiene el sistema que se ve en la Figura 2.13 [7]. Obtener la función de transferencia
que relaciona la velocidad v1 (t) y la fuerza r(t).

Figura 2.13: Sistema masa-resorte-amortiguador [7]

. Al modelar el sistema, se tiene el siguiente conjunto de ecuaciones,

M1 v̇1 + (b1 + b2 )v1 − b1 v2 = r(t)


M2 v̇2 + (v2 (t) − v1 (t))b1 + kx2 (t) = 0
donde x2 (t) corresponde a la posición asociada a la velocidad v2 (t). Si las condiciones iniciales son iguales
a 0, tendrı́amos en frecuencia que
30 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS

M1 sV1 (s) + (b1 + b2 )V1 (s) − b1 V2 (s) = R(s)


M2 sV2 (s) + (V2 (s) − V1 (s))b1 + k V2s(s) = 0
Despejando en términos de V1 (s) se tiene que la función de transferencia serı́a
k
M2 s + b 1 + s
V1 (s) = R(s)
(M1 s + b1 + b2 )(M2 s + b1 + ks ) − b21

2.6. Linealización
Las aproximaciones de un sistema no lineal a uno lineal se realiza para estudiar el comportamiento
local de un sistema, donde los efectos no lineales son pequeños y prácticamente despreciables. Para que
una ecuación sea lineal, cada uno de los términos no debe contener variables cuya potencia sea mayor que
uno. Existe una técnica de linealización mediante la cual es posible aproximar las ecuaciones no lineales
que se pueden analizar mediante la transformada de Laplace. La suposición básica es que la respuesta de
la aproximación lineal representa la respuesta del proceso en la región cercana a un punto de operación, al
rededor del cual se realiza la linealización [31, 7].
El manejo de las ecuaciones linealizadas se facilita en gran medida con la utilización de las variables
desviación, las que se definen como la diferencia entre el valor de la variable y su valor en un punto de
operación dado. Esto se podrı́a escribir como
x̂(t) = x(t) − x̄ (2.18)
En (2.18) se tiene que x(t) es la variable que se está analizando, y x̄ es el punto de operación al rededor
del que deseamos trabajar. En otras palabras, la variable desviación mide la diferencia entre el valor de la
variable y un valor de operación sobre el que deseamos trabajar (ver Figura 2.14 [31]).

Figura 2.14: Representación del sistema en términos de la variable desviación [31]

.
La transformación del valor absoluto de una variable al de desviación equivale a mover el cero sobre
el eje de esa variable hasta el valor base, i.e., x̄. Se tiene que
dn x̂(t) dn x(t)
n
=
dt dtn
Supongamos que se tiene la ecuación diferencial
ẋ(t) = f (x(t))
La expansión por series de Taylor de la función no lineal f (x(t)) alrededor de un punto de operación x̄
está dada por

df (x(t)) 1 d2 f (x(t)) 2 1 d3 f (x(t))
f (x(t)) = f (x̄) + (x − x̄) + (x − x̄) + (x − x̄)3 + . . .
dx x=x̄ 2! dx2 x=x̄ 3! dx3 x=x̄
2.6. LINEALIZACIÓN 31

La aproximación lineal consiste en tomar únicamente los primeros elementos de la serie, i.e., aquellos que no
están elevados a ninguna potencia. Por lo tanto,

df (x(t))
f (x(t)) ' f (x̄) + (x − x̄) (2.19)
dx x=x̄

Si se plantea en términos de las variables desviación se tiene que



df (x(t))
f (x(t)) ' f (x̄) + x̂
dx x=x̄

Ejemplo 2.6.1 [31] Linealizar la ecuación de Arrhenius para la dependencia de las tasas de reacción
quı́mica de la temperatura,
k(T ) = k0 e−E/RT
Supongamos que T̄ es el punto de operación alrededor del cual queremos linealizar. Tomando (2.19) se tiene
que
dk
k(T ) = k(T̄ ) + T̂
dt T =T̄
Es decir que
E
k(T ) = k(T̄ ) + k(T̄ ) T̂
RT̄ 2

Ejemplo 2.6.2 Analicemos el problema de un tanque acoplado con una válvula que se observa en la Figura...
ANADIR FIGURA
Primero, antes de plantear las ecuaciones diferenciales que nos ayudarı́an a entender el sistema,
recordemos cómo se modela un sistema hidráulico.
El flujo de lı́quido a través de una válvula que está totalmente abierta está dado por
r
∆P
q(t) = CV
G

donde q(t) corresponde al flujo, CV es el coeficiente de la válvula en gpm/(psi)1/2 y G es la gravedad especı́fica


del lı́quido que fluye a través de la válvula. Esta ecuación se puede reducir a

q(t) = K ∆P

Donde la válvula se modela como se muestra en la Figura...


ANADIR FIGURA
La resistencia al flujo del lı́quido se define como la variación de diferencia de nivel necesaria para
producir una variación unitaria en el gasto.
Se sabe que
Z h
V = A(λ)dλ (2.20)
0

P = ρgh + Pa (2.21)
donde A es el área del tanque, h la altura, ρ la densidad, g la gravedad, y P a es la presión atmosférica. La
presión P y el volumen V de un tanque están relacionados por dV dP = C como se observa en la Figura...

ANADIR FIGURA
Utilizando la regla de la cadena, se tiene que

dV dV dh
=
dP dh dP
32 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS

Reemplazando (2.20) y (2.21) se obtiene que

dV 1
= A(h)
dP ρg
1
Por lo tanto C = A(h) ρg .
Por otra parte, el volumen en función del tiempo está dado por
Z h
V (t) = V (0) + (qi (α) − qo (α))dα
0

donde qi es el flujo de entrada y qo es el flujo de salida.


Lo que implica que V̇ = qi − qo , y por ende

dP 1
= (qi − qo )
dt C
√ √
Retomando el problema original, tenemos que ∆P1 = P1 − Pa , qo = K1 ∆P1 , y por lo tanto
1 p
Ṗ1 = (qi − K1 ∆P1 )
C1
¯ 1 , se obtiene que
Si linealizamos el sistema alrededor de los puntos de operación q̄o y ∆P

K1 ¯ 1)
qo = q̄o + p (∆P1 − ∆P
¯ 1
2 ∆P
¯ 1 = P̄1 − Pa , por lo que
Pero, ∆P
1
qo = q̄o + (P1 − P̄1 )
R1
Reemplazando en la ecuación diferencial, obtenemos que
 
1 1
Ṗˆ1 = q̂i − P̂1
C1 R1

Si se tomaran las funciones de transferencia de las variables desviación (asumiendo que los puntos de opera-
ción son las mismas condiciones iniciales para simplificar el problema), se obtendrı́an dos sistemas de primer
orden, i.e.,
P̂1 R1
=
q̂i 1 + sC1 R1
q̂o 1
=
q̂i 1 + sC1 R1
Para ver el comportamiento de este sistema, serı́a útil utilizar Simulink para ver el comportamiento tanto
del sistema no lineal y el lineal asumiendo que Pa = 3, P1 = 6, C1 = 5, y K1 = 2.

Un sistema de una entrada y una salida se puede ver como


dx
dt = f (x, u)
(2.22)
y = h(x, u)

con x ∈ Rn , u, y ∈ R.
Asumamos que los puntos de operación son x = xe y u = ue . Para estudiar comportamientos locales
del sistema al rededor del punto de operación, se asume que las variables desviación x̂ = x − x e y û =
u − ue son señales pequeñas, tal que las perturbaciones no lineales al rededor del punto de operación pueden
ser despreciadas con respecto a los términos lineales. Utilizando el cambio de variables por las variables
2.7. DIAGRAMAS EN BLOQUES 33

desviación, y tomando w = y − h(xe , ue ), además del hecho que por series de Taylor, y despreciando los
términos de orden superior, se tiene que

∂f ∂f
f (x, u) = f (xe , ue ) + (xe , ue )x̂ + (xe , ue )û + . . .
∂x ∂u
Más formalmente, se puede definir la linealización Jacobiana del sistema no lineal (2.22) como

x̂˙ = Ax̂ + B û
w = C x̂ + Dû

donde A = ∂f ∂f ∂h ∂h
∂x |xe ,ue , B = ∂u |xe ,ue , C = ∂x |xe ,ue , y D = ∂u |xe ,ue . Es importante recalcar que sólo se
puede definir la linealización de un sistema con respecto a un punto de operación.
Es decir, si uno generalizara para una función con n variables xi , i = 1, . . . , n tendrı́amos que ésta se
linealiza como
n
X ∂f
f (x1 , . . . , xn ) = f (x̄1 , . . . , x̄n ) + (xk − x̄k ) (2.23)
∂xk
(x̄1 ,...,x̄n )
k=1

Ejemplo 2.6.3 [31] Sea la función


y
f (x, y, z) = 2x2 + xy 2 − 3
z

Demuestre que la aproximación lineal de f (·) en x̄ = 1, ȳ = 2, y z̄ = 3 es fˆ = 8x̂ + 3ŷ + 23 ẑ.

2.7. Diagramas en Bloques


Previamente, se habı́an utilizado sumadores, integradores, y bloques de ganancia únicamente para
hacer una representación en diagramas en bloques. Ahora, tendremos bloques que representarán directamente
la función de transferencia, por lo cual si quisiéramos representar las condiciones iniciales de un determinado
sistema, tendrı́amos que tener bloques adicionales que representaran dicha energı́a inicial [5, 28, 7, 22].
En la Figura 2.15 [31, 22] se muestran algunas de las reglas de diagramas en bloques que se utilizarán.
Sin embargo, a continuación se describen de manera más profunda algunas de ellas.

Figura 2.15: Algunas reglas útiles cuando se manejan diagramas en bloques [31, 22].
34 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS

2.7.1. Combinación en Serie

Se dice que se tiene una combinación en serie cuando se tienen dos funciones de transferencia conec-
tadas una después de otra. En la Figura 2.16 [7] se muestra un sistema cuya salida X 3 (s) = X2 (s)G2 (s)
está conectada con un sistema que tiene una salida X2 (s) = X1 (s)G1 (s). Reemplazando W (s) en la primera
ecuación, se tiene que X3 (s) = X1 (s)G1 (s)G2 (s), lo que es equivalente al diagrama en bloques que también
se puede ver en la Figura 2.16 [7].

Figura 2.16: Combinación Serie [7].

2.7.2. Combinación en Paralelo

Cuando dos sistemas tienen una entrada en común, y sus salidas están “atadas” a un sumador, se
tiene una combinación en paralelo. Analı́ticamente, se tendrı́a que X 1 (s) = X(s)F1 (s), X2 (s) = X(s)F2 (s), y
Y (s) = X1 (s)+X2 (s). Ası́ pues, el diagrama en bloques se puede reducir tal que Y (s) = X(s)(F 1 (s)+F2 (s)).

2.7.3. Puntos de Partida

Un pick-off point es un punto donde llega una variable y de ahı́ se divide en más de un bloque. Las
Figuras 2.17 y 2.18 [7] muestran un par de ejemplos.

Figura 2.17: Ejemplo de puntos de partida [7].

Figura 2.18: Ejemplo de puntos de partida [7].

2.7.4. Bloques con Sumadores

Las Figuras 2.19 y 2.20 [7] muestran un par de ejemplos.


2.8. LEY DE MASON 35

Figura 2.19: Ejemplo del álgebra de bloques [7].

Figura 2.20: Ejemplo del álgebra de bloques [7].

2.7.5. Sistemas Retroalimentados

En la Figura 2.21, G(s) se conoce como la forward transfer function, mientras que H(s) se conoce
como la feedback transfer function. El conjunto G(s)H(s) se conoce como la open-loop transfer function. La
función de transferencia que relaciona la entrada y la salida de un sistema retroalimentado como el que se
ve en la Figura 2.21 serı́a,
G(s)
T (s) =
1 ∓ G(s)H(s)

Figura 2.21: Ejemplo del álgebra de bloques para sistemas retroalimentados [7].

2.7.6. Ejemplos

2.8. Ley de Mason


En [18, 17] S. Mason definió las ideas para resolver ecuaciones lineales utilizando grafos o diagramas
de flujo, pero teniendo en cuenta aquello que Tustin omitió en un artı́culo previo. Esto dio origen a lo que
se conoce como Mason´s gain formula.
Los diagramas de flujo son una forma alternativa de representar gráficamente los sistemas dinámicos.
Las señales se representan en estos casos por medio de nodos que están conectados entre si por ramas. Cada
nodo representa una variable del sistema, y cada rama que conecta dos nodos representa una función de
transferencia o ganancia. El flujo va en una única dirección, la cual se indica mediante una flecha. Sobre ésta,
se coloca el valor de la ganancia entre dos nodos, lo que indica una relación entre dos señales determinadas.
La idea es poder utilizar este tipo de ideas para poder obtener relaciones entrada salida sin tener que utilizar
el álgebra de bloques descrito previamente.
A continuación se explicará la terminologı́a utilizada, y luego se definirá dicha fórmula. Estas defini-
ciones fueron sacadas del [22].
36 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS

Definition 5 Un nodo es un punto que representa una variable o señal.

Definition 6 Una rama es un segmento lineal dirigido que une dos nodos.

Definition 7 Un nodo de entrada (source) es un nodo que sólo tiene una rama saliente. Un nodo de salida
(sink) es un nodo que sólo tiene ramas entrantes. Un nodo mixto es aquel que tiene tanto ramas de entrada
y de salida. Un nodo suma las señales de todas las ramas entrantes y transmite esta suma a todas las ramas
salientes.

Definition 8 Un trayecto es una conexión entre ramas de un nodo a otro con las flechas en la misma
dirección. Es decir, todas las señales van en la misma dirección de un nodo a otro.
Un trayecto directo es aquel que conecta un nodo de entrada con un nodo de salida donde ningún nodo
se encuentra más de una vez.

Definition 9 Un lazo es una trayectoria cerrada (loop) en la cual ningún nodo se repite. Nótese que ningún
nodo de entrada puede ser parte de una trayectoria cerrada ya que cada nodo en un lazo debe tener al menos
una rama que llegue al nodo y al menos otra rama saliendo.
Se dice que un lazo es disyunto cuando no se tiene un nodo en común.

Definition 10 La ganancia del trayecto es el producto de las funciones de transferencia de todas las ramas
del trayecto.

Es claro que para un sistema dado pueden existir varias formas de realizar el diagrama de flujo. Para
determinar la relación entrada salida, se puede reducir el diagrama de flujo utilizando álgebra (similar a lo
que vimos previamente), o se puede utilizar le ley de Mason que definimos a continuación. La función de
transferencia entre un nodo de salida y uno de entrada, está dada por
n
1 X
F (s) = Pk ∆ k (2.24)

k=1

donde n es el número de trayectos directos, Pk es la ganancia del trayecto directo k, ∆ es el determinante


del diagrama, y ∆k es el cofactor del determinante de la k-ésima trayectoria directa del diagrama eliminando
los lazos que se tocan en el k-ésimo camino directo; esto es, se eliminan los lazos que tocan el camino directo
Pk . ∆ se define a continuación.
X X X
∆ =1 − La + Lb Lc − Ld Le Lf +...
a b,c d,e,f
| {z } | {z } | {z }
Suma de todas las Suma de los productos Suma de los productos
ganancias de ganancias de ganancias de
lazos individuales lazos disyuntos (dos) lazos disyuntos (tres)
Capı́tulo 3

Caracterı́sticas de los Sistemas

Pero las lenguas son sustancias radioactivas que hunden sus raı́ces en nuestro corazón más primitivo,
en la oscura e irracional memoria de la horda. Rosa Montero

3.1. Introducción

Como se ha visto previamente, un sistema de control se compone de una serie de elementos que están
interconectados de tal forma que se obtiene una respuesta deseada del sistema. Ya que lo que uno desea
es conocido, una señal proporcional al error producido entre la señal deseada y la actual se puede generar
(ver Figura 4.1p213). Para ello, algún tipo de retroalimentación es necesaria, la cual redundará en un mejor
comportamiento del sistema. Es claro que este tipo de retroalimentación aparece en varios sistemas en la
naturaleza, como lo son los sistemas biológicos y fisiológicos.
ANADIR FIGURA
Para poder entender las ventajas y caracterı́sticas a la hora de introducir la retroalimentación, com-
paremos con un sistema en malla abierta como el de la Figura...
ANADIR FIGURA
En este caso, es claro que la perturbación TD (s) influye directamente Y (s), por lo que en ausencia
de retroalimentación, el sistema de control es bastante sensible a las perturbaciones y a los cambios en los
parámetros de G(s).
Por otro lado, un sistema retroalimentado negativamente serı́a como el que se observa en la Figura...
ANADIR FIGURA
A pesar de la complejidad, se tiene una serie de ventajas como:

1. Decremento de la sensitividad del sistema a variaciones en los parámetros del proceso.

2. Mejora el rechazo a perturbaciones.

3. Mejora la atenuación de la medición del ruido.

4. Reduce el valor del error en estado estacionario del sistema.

5. Más fácil de controlar y ajustar la respuesta transitoria del sistema.

37
38 CAPÍTULO 3. CARACTERÍSTICAS DE LOS SISTEMAS

3.2. Señal de Error


El sistema de la Figura... tiene tres entradas (i.e., R(s), D(s), N (s)), y una salida Y (s). El error de
seguimiento estarı́a dado por
E(s) = R(s) − Y (s)
Si asumimos que H(s) = 1 por simplicidad, se tiene que
Gc (s)Gp (s) Gp (s) Gc (s)Gp (s)
Y (s) = R(s) + D(s) − N (s) (3.1)
1 + Gc (s)Gp (s) 1 + Gc (s)Gp (s) 1 + Gc (s)Gp (s)
Por lo que el error vendrı́a dado por
1 Gp (s) Gc (s)Gp (s)
E(s) = R(s) − D(s) + N (s) (3.2)
1 + Gc (s)Gp (s) 1 + Gc (s)Gp (s) 1 + Gc (s)Gp (s)
Definamos la función
L(s) = Gc (s)Gp (s)
como la ganancia de lazo, lo cual darı́a
1 Gp (s) Gc (s)Gp (s)
E(s) = R(s) − D(s) + N (s)
1 + L(s) 1 + L(s) 1 + L(s)
Por otro lado, se define
F (s) = 1 + L(s)
con lo que la función de sensitividad serı́a
1
S(s) = (3.3)
F (s)
y la función de sensitividad complementaria serı́a
L(s)
C(s) =
1 + L(s)
Por lo tanto (3.2) se convertirı́a en

E(s) = S(s)R(s) − S(s)Gp (s)D(s) + C(s)N (s) (3.4)

Analizando (3.4) se puede ver que para un Gp (s) dado, si queremos minimizar el error, se necesita que S(s)
y C(s) sean lo más pequeños posibles. Sin embargo, ambas funciones dependen de G c (s), y además

S(s) + C(s) = 1

Por lo que no podrı́an minimizarse ambas funciones al tiempo. Para poder entender qué significa que una
función sea grande o no, analicemos la magnitud de L(s), i.e., |L(jω)| a lo largo de un rango de frecuencias
ω de interés. Para reducir la influencia de D(s) en E(s) se quiere que L(s) sea grande en el rango de
Gp (s)
frecuencias que caracterizan la perturbación. Por ende, 1+L(s) será pequeño, haciendo que la influencia de
D(s) disminuya. Al tener L(s) = Gc (s)Gp (s) se requiere que la magnitud de Gc (s) sea alta. Para atenuar la
influencia del ruido N (s) en E(s), se requiere que L(s) sea pequeño en el rango de frecuencias que caracterizan
L(s)
el ruido. Por ende, 1+L(s) será pequeño, haciendo que Gc (s) tenga que tener una magnitud pequeña en ese
mismo rango de frecuencias.

3.3. Sensitividad de Sistemas de Control para Variaciones de Paráme-


tros
Un proceso Gp (s) está sujeto a una gran cantidad de variaciones en sus parámetros que afectan el
proceso de control. En un sistema de malla abierta esta redundarı́a en bastantes errores en la salida, mientras
3.3. SENSITIVIDAD DE SISTEMAS DE CONTROL PARA VARIACIONES DE PARÁMETROS 39

que en un sistema de malla cerrada esto podrı́a reducirse gracias al sensado de la salida en la entrada. Para
ello, la sensitivdad es de vital importancia.
Por ejemplo, si Gc Gp >> 1 para toda frecuencia, la salida serı́a Y (s) ≈ R(s) cuando D(s) = N (s) = 0.
Esto implicarı́a que la salida y la entrada serı́an similares, pero Gc Gp >> 1 causarı́a oscilaciones y se podrı́a
llegar a la inestabilidad del sistema.
El hecho de que aumente la magnitud de la ganancia de lazo, disminuye el efecto de G p (s) en la salida,
es de mucha utilidad. Por lo tanto, la primera ventaja de un sistema retroalimentado es que el efecto en las
variaciones de los parámetros del proceso Gp (s) se ve reducida.
Supongamos que la planta se ve sujeta a una serie de cambios en los parámetros (e.g., cambios del
ambiente, envejecimiento) de tal forma que la verdadera función de transferencia del proceso es

Gp (s) + ∆Gp (s)

Consideremos los efectos que se producen en el error E(s) debidos a ∆Gp (s), asumiendo que D(s) = N (s) = 0,
y que sólo tenemos como entrada la referencia.
1
E(s) + ∆E(s) = R(s)
1 + Gc (s)(Gp (s) + ∆Gp (s))

Sabiendo la relación que existe entre E(s) y R(s), se tiene que

Gc (s)∆Gp (s)
∆E(s) = − R(s)
(1 + Gc (s)(Gp (s) + ∆Gp (s)))(1 + Gc (s)Gp (s))

Por lo general, Gc (s)Gp (s) >> Gc (s)∆Gp (s), i.e.,

Gc (s)∆Gp (s)
∆E(s) ≈ − R(s)
(1 + L(s))2

Esto quiere decir que el error se ve reducido por un factor 1 + L(s), el cual por lo general se hace mucho más
grande que 1 en el rango de frecuencias de interés. Es decir que por lo general, 1 + L(s) ≈ L(s), haciendo
que
1 ∆Gp (s)
∆E(s) ≈ − R(s)
L(s) Gp (s)
La sensitividad se verá reducida para cambios en el proceso siempre y cuando L(s) sea grande, i.e., sensi-
tividad S(s) menor. Para este caso, la sensitividad del sistema se define como la proporción de cambio
en la función de transferencia del sistema a cambios en el Gp (s) para pequeños cambios incrementales. Es
decir, si la función de transferencia del sistema es
Y (s)
T (s) =
R(s)

∆T (s)/T (s)
S(s) =
∆Gp (s)/Gp (s)
En el lı́mite, para pequeños cambios, esta ecuación se convierte en

T ∂T (s) Gp (s) ∂ ln T (s)


SG (s) = =
p
∂Gp (s) T (s) ∂ ln Gp (s)

La sensitividad en malla abierta a cambios de la planta Gp (s) es igual a 1. Demostremos que en malla
cerrada, se tiene lo mismo obtenido previamente.
Gc (s)Gp (s)
T (s) =
1 + Gc (s)Gp (s)

T ∂T (s) Gp (s) Gc (s) Gp (s) 1


SG (s) = = =
p
∂Gp (s) T (s) (1 + Gc (s)Gp (s))2 Gc (s)Gp (s) 1 + Gc (s)Gp (s)
1+Gc (s)Gp (s)
40 CAPÍTULO 3. CARACTERÍSTICAS DE LOS SISTEMAS

En muchos casos, lo que se busca obtener es la sensitividad a variaciones de un parámetro α de la función


de transferencia del proceso Gp (s), i.e., SαT . Utilizando la regla de la cadena, se tiene que

SαT (s) = SG
T
p
(s)SαGp (s)

Cuando la función de transferencia del sistema depende de un parámetro α que está sujeto a variaciones del
estado, i.e.,
N (s, α)
T (s) =
D(s, α)
Su función de sensitividad estarı́a dada por

∂ ln T (s) ∂ ln N (s, α) ∂ ln D(s, α)
SαT (s) = = − = SαN (s) − SαD (s)
∂ ln α ∂ ln α α0 ∂ ln α α0

donde α0 es el valor nominal del parámetro.

Ejemplo 3.3.1 Se tiene el sistema en malla cerrada con retroalimentación negativa unitaria y ganancia de
lazo 1+K−K a
a (β+1)
como se ve en la Figura...
ANADIR FIGURA
La función de transferencia está dada por
−Ka
1+Ka (β+1) −Ka
T (s) = =
1 − 1+KK a
a (β+1)
1 + Ka β

La sensitividad a variaciones de Ka serı́a


T T G
SK a
(s) = SG S Ka
∂T (s) G(s) ∂G(s) Ka
= ∂G(s) T (s) ∂Ka G(s)
∂T (s) Ka
= ∂G(s) T (s)
1
= 1+Ka β
Capı́tulo 4

Respuesta de los Sistemas

Hemos renunciado a buscar un mundo perfecto quizá porque sabemos que la perfección es imposible y a
lo mejor indeseable. Todos aspiramos con las justas a ser sobrevivientes dignos y nos resignamos con
humor a las injusticias, la corrupción y la violencia que vemos a diario. Alonso Cueto

Antes de iniciar con el diseño de los controladores, necesitamos entender cómo se comportan los
sistemas con respecto a diversas entradas. Los sistemas que analizaremos son sistemas lineales e invariantes
en el tiempo (LTI), por lo cual se utilizará la transformada de Laplace para poder analizar el comportamiento
de sistemas de primero y segundo orden. Luego, se muestra que los sistemas de orden superior son una
combinación de las respuestas de primer y segundo orden. Las entradas más comunes en los sistemas de
control, de las cuales cuatro se ilustran en la Figura 4.1. Estas serı́an:

Entrada paso (escalón unitario): Este tipo de entrada se encuentra en varios sistemas como lo son
sistemas de temperatura donde se quiere conservar la misma temperatura en algún lugar determinado.

Entrada rampa: En el aterrizaje automático de un avión, la aeronave sigue una entrada rampa que le
indicará la pendiente de planeación a seguir (por lo general es igual a 3). Otro ejemplo que se encuentra
en la industria es el del tratamiento del calentamiento del acero. La temperatura se incrementa de forma
gradual a lo largo del tiempo.

Entrada sinusoidal: Su utilidad no parece evidente a simple vista, ya que por lo general no se requiere
que un sistema “siga” este tipo de señales. Sin embargo, si se conoce la respuesta de este tipo de
entradas en sistemas LTI para todas las frecuencias, se podrá tener una descripción más completa del
sistema. De esta forma, se podrán diseñar compensadores o controladores para un sistema.

Hay otro tipo de entradas que se pueden utilizar como son las parabólicas, o aquellas que podrı́an ser
descritas de forma general como
r(t) = tn
Es claro que como su transformada de Laplace es

n!
R(s) =
sn+1
su respuesta estará relacionada con otras señales de prueba.

En el siguiente análisis se verá que la respuesta en tiempo de un sistema está compuesto de dos
elementos: (i) la respuesta transitoria (o respuesta natural), que es aquella que representa la forma como se
va desde el estado inicial hasta el estado final, y (ii) la respuesta en estado estacionario (o entrada forzada),
que representa el comportamiento del sistema cuando el tiempo tiende a infinito.
Para el siguiente análisis, se presentan ejemplos y simulaciones en Matlab y Simulink. Las siguientes
notas han sido adaptadas a partir de varios textos de control (e.g., [22, 31, 28, 7]).

41
42 CAPÍTULO 4. RESPUESTA DE LOS SISTEMAS

Entrada paso Entrada rampa


2 10

8
1.5

6
1
4

0.5
2

0 0
0 2 4 6 8 10 0 2 4 6 8 10
tiempo tiempo

Entrada senoidal Entrada parabólica


1 100

80
0.5

60
0
40

−0.5
20

−1 0
0 2 4 6 8 10 0 2 4 6 8 10
tiempo tiempo

Figura 4.1: Diversos tipos de entradas comunes en el análisis de sistemas de control.

4.1. Sistemas de Primer Orden


Asumamos que se tiene un diagrama en bloques como el que se muestra en la Figura... Utilizando lo
visto en el capı́tulo anterior, se tiene que la función de transferencia viene dada por
K
H(s) = (4.1)
τs + 1
K
La salida de este sistema es igual a C(s) = R(s) τ s+1 , donde R(s) puede ser una entrada paso, rampa, o
sinusoidal. Algunas veces vale la pena estudiar la entrada impulso.

4.1.1. Entrada paso

Si se tiene una entrada paso, entonces R(s) = 1s por lo que, utilizando fracciones parciales, C(s) se
vuelve igual a
K K
C(s) = −
s s + τ1
Tomando la transformada inversa de Laplace, se obtiene que
 t

c(t) = K 1 − e− τ (4.2)

En lı́neas generales, la salida c(t) se puede escribir como

c(t) = css (t) + ctr (t)

donde ctr (t) corresponde a la respuesta que va del estado inicial al estado final, y c ss (t) corresponde a la
manera como se comporta la salida del sistema conforme t → ∞.
La Figura 4.2 ilustra el resultado de (4.2) cuando K = 1, y τ = 10. En (4.2) la primera parte de
t
la respuesta corresponde a la respuesta en estado estacionario, mientras que la segunda parte, i.e., Ke − τ
corresponde a la respuesta transitoria del sistema. Esto se debe a que si tomamos el lı́mite cuando t tiende
a infinito de (4.2) , obtenemos que
lı́m c(t) = lı́m sC(s) = K
t→∞ s→0
4.1. SISTEMAS DE PRIMER ORDEN 43

Por lo cual K corresponde al valor final o el valor en estado estable. La constante τ se conoce como la
constante de tiempo, y como se puede observar en la figura, después de 4τ o 5τ el sistema ya está cerca del
valor final. Por lo general, para t ≥ 4τ la respuesta permanece dentro del 2 % del valor final.

Step Response

0.9

0.8

0.7

0.6
Amplitude

0.5

0.4

0.3

0.2

0.1

0
0 10 20 30 40 50 60 70 80
Time (sec)

Figura 4.2: Respuesta a entrada paso del sistema de primer orden (4.1) cuando K = 1, y τ = 10. La lı́nea
punteada roja representa el valor final cuando se ha cumplido el primer τ , mientras que la punteada negra
representa el valor final cuando se han cumplido 2τ .

Otro punto interesante a analizar es lo que puede verse en la Figura 4.2. Cuando t = τ , el valor final
es igual al 63.2 % del valor final, ya que c(τ ) = K − Ke−1 = 0,632K. Cuando t = 2τ se llega al 86.5 % del
valor final. Estos dos puntos se representan en la Figura 4.2. Ası́ pues, cuando la constante de tiempo τ es
pequeña, la respuesta es más rápida, y esto se puede ver porque la pendiente de la curva en t = 0 es igual a
K
τ .

4.1.2. Entrada rampa

En este caso, la función de transferencia expandida viene dada por

K Kτ Kτ
C(s) = − +
s 2 s s + τ1

Por lo tanto, en tiempo esto viene siendo equivalente a


t
c(t) = Kt − Kτ + Kτ e− τ para t ≥ 0

La Figura 4.3 muestra un par de ejemplos de este tipo de respuesta. Para este caso, Kt − Kτ corresponde al
t
estado estacionario, mientras que Kτ e− τ corresponde a la respuesta natural. El error en este caso vendrı́a
dado por e(t) = Kr(t) − c(t), por lo que
t
e(t) = Kτ + Kτ e− τ

Tomando el lı́mite de esta señal, tendremos que lı́mt→∞ e(t) = Kτ . Por lo tanto, entre más pequeño Kτ
menor será la diferencia entre la entrada y la salida en estado estacionario. Esto se puede apreciar más
claramente si comparamos las dos gráficas en la Figura 4.3. En el panel superior el valor del error es 10,
mientras que en el segundo caso es igual a 1. De esta forma, se puede observar claramente como el error
disminuye.
44 CAPÍTULO 4. RESPUESTA DE LOS SISTEMAS

Respuesta rampa de un sistema de primer orden con τ = 10

80

70

60

50

Amplitude
40

30

20

10

0
0 10 20 30 40 50 60 70 80
Time (sec)

Respuesta rampa de un sistema de primer orden con τ = 1

80

70

60

50
Amplitude

40

30

20

10

0
0 10 20 30 40 50 60 70 80
Time (sec)

Figura 4.3: Respuesta a entrada rampa del sistema de primer orden (4.1) cuando K = 1, y τ = 10 para el
panel superior, y τ = 1 para el panel inferior.

4.2. Sistemas de Segundo Orden


Consideremos el diagrama en bloques que se ve en la Figura 4.4, el cual podrı́a ser equivalente a un
sistema que representa un servosistema con una función de transferencia dada por C(s) K
R(s) = Js2 +Bs+K , donde
K es una constante de proporcionalidad, B es una constante de fricción y J es una constante de inercia.
Manipulando algebráicamente esta ecuación, obtendremos
K
C(s) J
= 2 B K
R(s) s + Js + J

Una forma conveniente y estándar de escribir dicha expresión es

C(s) wn2
= 2 (4.3)
R(s) s + 2ζwn s + wn2

Esta forma se conoce como la forma estándar del sistema de segundo orden. Para el caso especı́fico del
servosistema descrito previamente, wn2 = K B
J , y 2ζwn = 2σ = J . El término wn se conoce como la frecuencia
natural no amortiguada, ζ es el factor de amortiguamiento relativo del sistema, y σ es la atenuación.
√ El
factor de amortiguamiento relativo ζ es el cociente real B y el amortiguamiento crı́tico B c = 2 JK.

Figura 4.4: Sistema de segundo orden [7]. En a) se tiene el grafo, mientras que en b) el diagrama en bloques.

El comportamiento dinámico del sistema se describe en términos de w n y ζ. Como se vio previamente,


si 0 < ζ < 1 los polos del sistema son complejos conjugados y se encuentran ubicados en el semi-plano
izquierdo del plano-s. En este caso, se dice que el sistema es subamortiguado y su respuesta transitoria
es oscilatoria. Si ζ = 0, la respuesta transitoria no es amortiguada, y si ζ = 1 el sistema se denomina
crı́ticamente amortiguado; finalmente, si ζ > 1 el sistema es sobreamortiguado. A continuación se analizarán
algunos de estos casos.
4.2. SISTEMAS DE SEGUNDO ORDEN 45

4.2.1. Respuesta a Entrada Paso

Caso Subamortiguado (0 < ζ < 1)

La Ecuación (4.3) se puede escribir en este caso como

C(s) wn2
=
R(s) (s + ζwn + jwd )(s + ζwn − jwd )
p
donde la frecuencia natural amortiguada del sistema wd es igual a wd = wn 1 − ζ 2 . Si R(s) es una entrada
paso, se tiene que
2
wn
C(s) = s(s+ζwn +jwd )(s+ζwn −jwd )
1 s+2ζwn
= s − s2 +2ζwn +wn2
1 s+ζwn ζwn
= s − (s+ζwn )2 +wd2 − (s+ζw )2 +w 2
n d

Recordando la transformada inversa de Laplace para este caso, se tiene que


 
−1 s + ζwn
L = e−ζwn t cos(wd t)
(s + ζwn )2 + wd2
 
−1 wd
L = e−ζwn t sin(wd t)
(s + ζwn )2 + wd2
Esta última ecuación podrı́a asociarse a la que tenı́amos previamente de la siguiente forma
 wd  !
−1
ζwn w ζ
L d
= p e−ζwn t sin(wd t)
(s + ζwn )2 + wd2 (1 − ζ 2 )

Por lo tanto, !
−ζwn t ζ
c(t) = 1 − e cos(wd t) − e−ζwn t sin(wd t)
p
(1 − ζ 2 )
√ C

Si se utiliza la identidad trigonométrica C cos β + D sin β = C 2 + D2 sin β + tan−1 D , se obtiene
p !
1 −ζwn t −1 (1 − ζ 2 )
c(t) = 1 − p e sin wd t + tan (4.4)
(1 − ζ 2 ) ζ

De (4.4) se puede deducir que la frecuencia de oscilación por parte de la respuesta transitoria es igual a w d ,
i.e., depende directamente de ζ. Si analizáramos la señal de error para este caso, obtendrı́amos que

e(t) = r(t) − c(t)


 
ζ
= e−ζwn t cos(wd t) + √ sin(wd t)
(1−ζ 2 )

Como se puede ver, la señal de error presenta una oscilación amortiguada, por lo que si t → ∞, entonces no
existe error. El único caso crı́tico serı́a si ζ = 0, donde se tiene una oscilación permanente, con una frecuencia
wn (porqué?). Un ejemplo de cómo serı́a la respuesta en tiempo para diversos casos se ilustra en la Figura
4.5.

Caso Crı́ticamente Amortiguado (ζ = 1)

Si los dos polos de (4.3) son iguales, el sistema tendrı́a que ζ = 1, por lo que a entrada paso se tiene
que
wn2
C(s) =
s(s + wn )2
46 CAPÍTULO 4. RESPUESTA DE LOS SISTEMAS

Figura cuando ξ = 0 Figura cuando ξ = 0.2


2 1.6

1.8
1.4
1.6
1.2
1.4
1
1.2

1 0.8

0.8
0.6
0.6
0.4
0.4
0.2
0.2

0 0
0 2 4 6 8 10 12 14 16 18 20 0 2 4 6 8 10 12 14 16 18 20

Figura cuando ξ = 0.4 Figura cuando ξ = 0.8


1.4 1.4

1.2 1.2

1 1

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0 0
0 2 4 6 8 10 12 14 16 18 20 0 2 4 6 8 10 12 14 16 18 20

Figura 4.5: Respuesta a entrada paso del sistema de segundo orden descrito por (4.3). En este caso, se tiene
que ζ = 0 para el panel superior izquierdo, ζ = 0,2 para el panel superior derecho, ζ = 0,4 para el panel
inferior izquierdo, y ζ = 0,8 para el panel inferior derecho. En todos los casos, w n = 24.

La transformada inversa de Laplace serı́a

c(t) = 1 − e−wn t (1 + wn t) (4.5)

Esto parte de la base que si ζ = 1, tocarı́a aproximar uno de los factores de (4.4) a

sin(wd t)
lı́m p = wn t
ζ→1 1 − ζ2

La Figura 4.6 muestra un ejemplo de como responderı́a el sistema para este caso.

Figura cuando ξ = 1
1

0.9

0.8

0.7

0.6

0.5

0.4

0.3

0.2

0.1

0
0 2 4 6 8 10 12 14 16 18 20

Figura 4.6: Respuesta a entrada paso del sistema de segundo orden descrito por (4.3) cuando ζ = 1 y w n = 24.
4.2. SISTEMAS DE SEGUNDO ORDEN 47

Caso Sobreamortiguado (ζ > 1)

En este caso, los dos polos de la función de transferencia en (4.3) son reales negativos y diferentes.
Para una entrada paso, se tiene que
wn2
C(s) = p p
s(s + ζwn + wn ζ 2 − 1)(s + ζwn − wn ζ 2 − 1)
La transformada inversa de Laplace nos da
 −s1 t 
wn e e−s2 t
c(t) = 1 + p − (4.6)
2 ζ2 − 1 s1 s2
p p
donde s1 = ζwn + wn ζ 2 − 1 y s2 = ζwn − wn ζ 2 − 1. Si se analiza (4.6) se puede ver que se tienen
dos factores exponenciales que decaen. Entre más grande es el valor de ζ, uno de las exponenciales decae
más rápidamente (s2 serı́a considerablemente menor a s1 , por lo que la exponencial asociada a este polo
podrı́a “despreciarse”). El efecto que tiene s2 en el sistema serı́a muchı́simo más relevante, por lo cual (4.6)
se aproxima mediante
C(s) s2
=
R(s) s + s2
Esta respuesta es similar a la respuesta de un sistema de primer orden. La Figura 4.7 muestra un ejemplo
de esta situación.

Figura cuando ξ = 2
1

0.9

0.8

0.7

0.6

0.5

0.4

0.3

0.2

0.1

0
0 2 4 6 8 10 12 14 16 18 20

Figura 4.7: Respuesta a entrada paso del sistema de segundo orden descrito por (4.3) cuando ζ = 2 y w n = 24.

Entrada Impulso

Para este caso, se tendrı́a que


wn2
C(s) =
s2 + 2ζwn s + wn2
Por lo tanto, la respuesta en tiempo del sistema estarı́a dada por
wn  p 
c(t) p e−ζwn t sin wn 1 − ζ 2 t
1 − ζ2
Es claro que este factor es la derivada del término que se obtuvo en la sección anterior para entrada paso.
En la Figura... se observa el comportamiento para diferentes ζs.
48 CAPÍTULO 4. RESPUESTA DE LOS SISTEMAS

4.2.2. Caracterı́sticas Temporales del Sistema Subamortiguado

Para este caso, se asumirá que se tiene una función de transferencia de la forma
k
H(s) =
s2 + 2ζwn s + wn2

Esto puede ser escrito como


wn2
H(s) = K1 = K1 H1 (s) (4.7)
s2 + 2ζwn s + wn2
Por lo general, al diseñar un sistema de control se especifican ciertas caracterı́sticas que se definen en el ámbito
del tiempo. Estas caracterı́sticas están ligadas a la respuesta transitoria, la cual depende de la entrada o la
perturbación que se le aplique al sistema. La entrada clásica que se utiliza para ver dicho comportamiento es
el escalón unitario, ya que es fácil de generar y es lo suficientemente drástico para observar el comportamiento
del sistema (además, al conocer su respuesta en tiempo, se pueden obtener todas las demás respuestas). Como
esta respuesta depende de las condiciones iniciales, se asumirá que éstas son cero, i.e., el sistema está en
reposo al inicio.
Asumiendo que se tiene una entrada paso y el sistema es subamortiguado, se vio previamente que esto
puede ser escrito como
wn2
C(s) = K1 2
s(s + 2ζwn s + wn2 )
 
s+2ζwn
C(s) = K1 1s − s2 +2ζw n s+wn
2
 
s+ζwn ζwn
= K1 1s − (s+ζw 2
n ) +w
2 − (s+ζwn )2 +w2
d d

Utilizando lo visto previamente, se obtiene finalmente que


p !!
1 −ζwn t −1 (1 − ζ 2 )
c(t) = K1 1− p e sin wd t + tan (4.8)
(1 − ζ 2 ) ζ

Para simplificar nuestro análisis, se asumirá que K1 = 1.


La Figura 4.10 muestra un ejemplo de la señal c(t) en (4.3). En esta figura, se pueden identificar cinco
puntos importantes:

tr : tiempo de subida. Es el tiempo que se necesita para subir del 10 al 90 por ciento del valor final (como
se muestra en la Figura 4.10). Sin embargo, esta definición aplica más para el caso sobreamortiguado.
La definición que se utilizará acá es el tiempo que toma la señal de pasar del 0 al 100 % del valor final.
Utilizando (4.4), tenemos que el tiempo de subida viene dado cuando c(t r ) = 1. Esto quiere decir que
p !
1 −ζwn tr −1 (1 − ζ 2 )
1 = c(t) = 1 − p e sin wd tr + tan
(1 − ζ 2 ) ζ

Como e−ζwn tr 6= 0, esta ecuación se puede escribir como


1
tan(wd tr ) = − p
(1 − ζ 2 )

En la Figura 4.8 se muestra una solución gráfica para poder despejar la tangente en la ecuación anterior.
Eso serı́a igual a  
1 wd
tr = tan−1
wd −σ
Entonces,

π−β
tr = wd
4.2. SISTEMAS DE SEGUNDO ORDEN 49

p
Figura 4.8: Ubicación de los polos en el plano-s [7]. Para este caso β = θ, σ = ζw n , y wd = wn 1 − ζ 2.

tp : tiempo de pico. Es el tiempo que se requiere para que la respuesta alcance el primer pico del
overshoot.
Para esto, se tiene que hallar la derivada de c(t) evaluada en tp , ya que esta será igual a 0.

dc
=0
dt t=tp

Esto serı́a equivalente a


! !
ζ ζwd
ζwn e−ζwn tp cos wd tp + p sin wd tp + e−ζwn tp wd sin wd tp − p cos wd tp =0
1 − ζ2 1 − ζ2

Esto es equivalente a
wn
p e−ζwn tp sin wd tp = 0
1 − ζ2
Lo que darı́a que sin wd tp = 0, por lo que wd tp = 0, π, 2π, . . .. Como el tp corresponde al primer pico,

π
tp = wd

Si el sistema es sobreamortiguado, el tiempo de pico no estarı́a definido, y en este caso el diseño suele
tener en cuenta tr .

M P : Máximo pico porcentual. Es el valor del máximo pico de la respuesta medido con respecto al
valor de estado estable. El valor se define por lo general como

c(tp ) − c(∞)
MP = × 100 %
c(∞)

Utilizando esta idea, se obtiene que


!
−ζwn wπ ζ
M P = −e d cos π − p sin π
1 − ζ2

Por lo tanto,
50 CAPÍTULO 4. RESPUESTA DE LOS SISTEMAS

− √ ζπ
MP = e 1−ζ 2 × 100 %

ts : tiempo de asentamiento. Es el tiempo que se requiere para que la respuesta del sistema llegue a un
rango dentro del cual se considera que el sistema está en estado estable. Por lo general se utilizan las
reglas del 2 y el 5 % (i.e., estar dentro del 2 o el 5 % del valor final).
−ζwn t
e
Si se analiza el sistema, se puede ver que las curvas 1± √ son las curvas envolventes de la respuesta
1−ζ 2
transitoria (ver Figura 4.9). Por lo tanto, la constante de tiempo de estas curvas es τ = ζw1 n . Como
bien se mencionaba previamente, el ts depende de la tolerancia, i.e., ±2 % o ±5 % del valor final. Si
es el 2 % del valor final, se tendrá que esperar 4τ para que el sistema ingrese dentro de esta banda,
mientras que si es el 5 %, se tendrá que esperar 3τ para que el sistema llegue a este rango. En el primer
caso,

4
ts = ζwn , 2%

mientras que en el segundo caso,

3
ts = ζwn , 5%

Figura 4.9: Curvas envolventes para la respuesta a entrada paso del sistema de segundo orden [22].

Ganancia DC: Este es el valor en estado estable del sistema.

A partir de todo esto, es claro que si uno desea una respuesta rápida, wn debe ser grande. Además,
para limitar M P y reducir ts , ζ no debe ser demasiado pequeño. La Figura 4.11 ilustra cómo serı́a la relación
en este caso.
4.2. SISTEMAS DE SEGUNDO ORDEN 51

Step Response
1.4

1.2

MP
DC gain
1

0.8

Amplitude

0.6

0.4

0.2

tr
0
tp ts
Time (sec)

Figura 4.10: Respuesta a entrada paso del sistema de segundo orden descrito por (4.7). En este caso, K 1 = 1,
wn = 23,53, and ζ = 0,46.

Figura 4.11: Relación entre M P y ζ. Además, se incluye la relación entre wn tp y el factor de amortiguamiento
[7].

Ejemplo 4.2.1 Halle los valores de K y Kh en la Figura 4.12 para que el M P = 20 % y tp = 1.


La función de transferencia en este caso está dada por

C(s) K
= 2
R(s) s + s(1 + KKh ) + K

Si comparamos con (4.3), se puede deducir que wn2 = K y que 2ζwn = 1 + KKh . Utilizando las ecuaciones
para M P y tp podemos obtener los valores de ζ y wn , para luego obtener las variables deseadas. En este caso,
52 CAPÍTULO 4. RESPUESTA DE LOS SISTEMAS

K
1 1
s2+s
R(s) C(s)
Transfer Fcn
Subsystem

1+sKh

Figura 4.12: Diagrama en bloques.

se tiene que
− √ ζπ
e 1−ζ 2 = 0,2
Despejando, se obtiene que ζ = 0,456. Como
π
tp =
wd
Por lo que al despejar se obtiene que wn = 3,53. Con esto se tiene que K = 12,46 y Kh = 0,1781. La Figura
4.13 muestra el resultado de la simulación utilizando estos valores. Es claro que los parámetros de diseño
fueron cumplidos.

Step Response
1.4

System: untitled1
Peak amplitude: 1.2
Overshoot (%): 20
At time (sec): 0.988
1.2

System: untitled1
System: untitled1 Final Value: 1
Settling Time (sec): 2.36
1

System: untitled1
Rise Time (sec): 0.442

0.8
Amplitude

0.6

0.4

0.2

0
0 0.5 1 1.5 2 2.5 3 3.5 4
Time (sec)

Figura 4.13: Respuesta a entrada paso del sistema de segundo orden diseñado para obtener los parámetros
MP y tp definidos en el ejercicio.

4.3. Sistemas de Orden Superior


Por lo general, el análisis que se ha hecho de sistemas de segundo orden nos da una clara visión del
comportamiento de los sistemas. Un concepto que aparece en el análisis previo, es el de raı́ces dominantes.
Estas raı́ces, que para el caso anterior eran los polos del sistema, son las que contienen la mayor cantidad
de información sobre el comportamiento del mismo. Para sistemas de orden superior a dos, la respuesta a
4.3. SISTEMAS DE ORDEN SUPERIOR 53

entrada paso se puede asemejar a lo visto previamente, haciendo algunas suposiciones (de esta forma, no es
necesario obtener la transformada inversa de Laplace para determinar el comportamiento del sistema).
Por ejemplo, tomemos el sistema de tercer orden,
1
T (s) =
(s2 + 2ζs + 1)(γs + 1)
Si se mostrara el comportamiento en el plano-s se obtendrı́a lo que se observa en la Figura 4.14, el cual
serı́a un sistema normalizado con wn = 1. Clement en (falta ref...) demostró que la performance del sistema
calculada por M P y ts se podrı́a asemejar a un sistema de orden dos cuando

1
≥ 10|ζwn |
γ

Es decir, que la respuesta de un sistema de tercer orden puede aproximarse a uno de segundo orden por sus
1
raı́ces dominantes siempre y cuando la parte real de dichas raı́ces sea menor que 10 de la parte real de la
tercer raı́z.

Figura 4.14: Ubicación de polos de un sistema de tercer orden en el plano-s [7].

Por otro lado cabe aclarar que el análisis de un sistema de segundo orden es válido si la función
de transferencia no tiene ceros finitos, ya que si estos están localizados relativamente cerca de los polos
complejos dominantes, la respuesta transitoria del sistema se verı́a altamente afectada. Por ejemplo, si se
tiene un sistema cuya función de transferencia es de la forma
 2
ωn
a (s + a)
T (s) = 2
(s + 2ζωn s + ωn2 )
El porcentaje de overshoot a una respuesta escalón unitario será función del término a/ζ, cuando ζ ≤ 1,
como se puede ver en la Figura 4.15.
Otro ejemplo de lo que puede suceder cuando se le añade un polo y un cero adicional se tiene en el
siguiente caso. Asuma que se tiene un sistema cuya función de transferencia es de la forma
 2
ωn
a (s + a)
T (s) = 2
(s + 2ζωn s + ωn2 )(1 + τ s)
54 CAPÍTULO 4. RESPUESTA DE LOS SISTEMAS

Figura 4.15: a) Porcentaje de overshoot como función de ζ y ωn cuando un sistema de segundo orden posee
un cero. b) Respuesta a entrada paso para diversos valores de a/(ζωn ). A=5, B=2, C=1, D=0.5, cuando
ζ = 0,45 [7].

Cuyos polos y ceros pueden afectar la respuesta transitoria del sistema. Si a  ζω n y τ  1/(ζωn ), entonces
el polo y el cero no tendrán mucho efecto sobre la respuesta a entrada paso. Sin embargo, si se tuviera un
sistema donde
62,5(s + 2,5)
T (s) =
(s2 + 6s + 25)(s + 6,25)

Entonces, sı́ habrı́a inconvenientes. Por ejemplo, la ubicación de los polos en el plano-s serı́a la que se observa
en la Figura 4.16.
Nótese que la ganancia DC es igual a 1 (i.e., T (0) = 1), por lo que se espera tener un error en estado
estacionario nulo a entrada paso. A su vez, se tiene que ζωn = 3, τ = 0,16, y a = 2,5. Si quisiéramos
despreciar el polo real, la función de transferencia serı́a

10(s + 2,5)
T (s) =
(s2 + 6s + 25)

donde el factor de 62.5 cambió por el de 10 para preservar el valor DC de la función. Es claro que en este
caso se tendrı́a que ζ = 0,6, y ωn = 5, lo que implicarı́a que se tienen polos dominantes acompañados de
un cero con a/(ζωn ) = 0,833. Utilizando Matlab, se tiene que el M P = 55 %, y el ts = 1,33 segundos. Sin
embargo, si graficáramos la respuesta a entrada paso del sistema, se ve que se obtiene un overshoot mucho
menor (i.e., 38 %), y que el ts aumenta a 1.6 segundos (ver Figura 4.17). Es decir que los efectos de un tercer
polo en T (s) hacen que se amortigüe el overshoot, pero que se aumente el tiempo de establecimiento. Por lo
tanto, no se puede despreciar el tercer polo en este caso.
4.4. UBICACIÓN DE LAS RAÍCES EN EL PLANO-S Y LA RESPUESTA TRANSITORIA 55

Figura 4.16: Ubicación de los polos y ceros en el plano-s para un sistema de tercer orden [7].

Step Response

1.6

System: T2
Peak amplitude: 1.54
Overshoot (%): 54.4
1.4 At time (sec): 0.353
System: T1
Peak amplitude: 1.38
Overshoot (%): 37.9
At time (sec): 0.565
1.2

System: T2
Settling Time (sec): 1.47
1

System: T1
Settling Time (sec): 1.59
Amplitude

0.8

0.6

0.4

0.2

0
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
Time (sec)

Figura 4.17: Respuesta a entrada paso para un sistema de tercer orden con un cero. Si se desprecia el polo
(-), el overshoot es mayor, pero su ts es menor. Si no se desprecia (–), se tiene que el overshoot disminuye,
haciendo que el tiempo de establecimiento aumente.

4.4. Ubicación de las Raı́ces en el Plano-s y la Respuesta Transi-


toria
La respuesta transitoria de un sistema retroalimentado en malla cerrada puede ser descrito en términos
de la ubicación de los polos de la función de transferencia. En general se vio que la función de transferencia
está dada por
P
C(s) Pk (s)∆k (s)
T (s) = = k
R(s) ∆(s)
donde ∆(s) = 0 es la ecuación caracterı́stica del sistema. Para un sistema con ganancia de lazo G(s) y
retroalimentación negativa con ganancia H(s), la ecuación caracterı́stica serı́a ∆(s) = 1 + G(s)H(s).
56 CAPÍTULO 4. RESPUESTA DE LOS SISTEMAS

P Para un sistema de malla cerrada, los polos de T (s) son las raı́ces de ∆(s) y a su vez los polos de
k k (s)∆k (s), por lo que la respuesta transitoria del sistema estarı́a descrita por las raı́ces de ∆(s) (i.e.,
P
los polos y ceros de T (s) están incluidos en ∆(s)).
La salida de un sistema con ganancia 1 a entrada paso unitaria, donde no hay raı́ces repetidas se
puede expresar como
M N
1 X Ai X Bk + C k
C(s) = + +
s i=1 s + σi s + 2αk s + (αk2 + ωk2 )
2
k=1

donde Ai , Bk , Ck son constantes. Las raı́ces del sistema serı́an s = −σi y s = −αk ± jωk , por lo que al tomar
la transformada inversa se tendrı́a una respuesta transitoria que serı́a la suma de varios términos, i.e.,
M
X N
X
−σi t
c(t) = 1 + Ai e + Dk e−αk t sin ωk t + θk
i=1 k=1

donde Dk es una constante que depende de Bk y Ck , αk , ωk . La respuesta transitoria se compone de la salida


en estado estable, los términos exponenciales, y los términos senoidales amortiguados. Para que el sistema
sea estable, i.e., para que la salida sea acotada a una entrada paso, la parte real de las raı́ces −σ i y −αk
debe estar ubicada en el semi-plano izquierdo del plano-s. En la Figura 4.18 se ve la respuesta impulso para
varias ubicaciones de las raı́ces.

Figura 4.18: Respuesta impulso para varias ubicaciones de las raı́ces en el plano-s. El complejo conjugado
no se muestra [7].

A medida que se vaya tomando experiencia, se va a ver que la ubicación de los ceros también es
fundamental en la respuesta del sistema. Los polos de T (s) determinan los modos particulares que estarán
presentes en la respuesta, mientras que los ceros establecerán un peso relativo en cada uno de los modos.
Por ejemplo, mover un cero cerca de un polo reducirá la contribución relativa del modo correspondiente al
polo. El ejemplo siguiente ilustra mejor estos detalles (ver ppt para el ejemplo...).
Capı́tulo 5

Estabilidad de los Sistemas

Me costaba entender que no tenı́a que caerle bien a todos para ser respetado, ni tampoco que el agrado
o desagrado que nos procura una persona es algo caprichoso, incapaz de ser explicado sólo por la razón
La materia del deseo, Edmundo Paz Soldán

Uno de los problemas que se tiene a la hora de diseñar los controladores, es el de la estabilidad. Un
sistema puede ser estable o inestable, pero al interactuar con otros dispositivos, las caracterı́sticas pueden
cambiar. Existen varios métodos, que sirven de base para el desarrollo de controladores.

Criterio de estabilidad Routh-Hurwitz: este criterio fue de los primeros métodos de estabilidad desa-
rrollados. Su importancia radicaba en la consecución del número de raı́ces con parte real positiva, con
lo que se podı́a determinar si un sistema era o no estable. Se dice que un sistema es de fase mı́nima si
todos los polos y ceros están ubicados en el semiplano izquierdo del plano s (si al menos uno se ubica
en el semiplano derecho, se dicen de fase no mı́nima).

Criterio del lugar de las raı́ces: Evans desarrolló un método gráfico que permitı́a entender más clara-
mente cómo se desplazaban los polos y ceros de la ecuación caracterı́stica. Durante muchos años su
uso fue fundamental para el desarrollo de controladores, y en la actualidad existen herramientas de
computador que permiten graficar lugares de las raı́ces complejos.

Diagramas de Bode y Nyquist: Estas dos herramientas también permiten observar el comportamiento
de un sistema desde un punto de vista práctico.

En el siguiente análisis se presentan ejemplos y simulaciones en Matlab y Simulink, además de la teorı́a del
criterio de estabilidad de Routh-Hurwitz, además de una extensión a la parte robusta como lo es el método
de Kharitonov. Las siguientes notas han sido adaptadas a partir de varios artı́culos y textos de control
(e.g., [10, 22, 9, 15, 31, 28, 7, 26]).

5.1. Criterio de Estabilidad Routh-Hurwitz


La función de transferencia del sistema de la Figura 6.2 se puede escribir como

C(s) G(s)
=
R(s) 1 + G(s)H(s)
o
C(s) b0 sm + b1 sm−1 + . . . + bm−1 s + bm
= m≤n (5.1)
R(s) a0 sn + a1 sn−1 + . . . + an−1 s + an
donde el denominador se conoce como la ecuación caracterı́stica del sistema. Las raı́ces de esta ecuación
definen la estabilidad del sistema, por lo que éstas tienen que estar en el semi-plano izquierdo del plano

57
58 CAPÍTULO 5. ESTABILIDAD DE LOS SISTEMAS

s. Las ventajas del método establecido paralelamente por E. J. Routh y A. Hurwitz es que no se tienen
que factorizar el denominador para encontrar exactamente la ubicación de las raı́ces. El método original se
desarrollo en términos de los determinantes, pero para explicar de una manera más clara, se utilizará una
forma más sencilla que involucra un conjunto de elementos en forma de filas y columnas. En (5.1), se elimina
cualquier raı́z cero (i.e., an 6= 0), y se hace el análisis siempre y cuando todos los coeficientes ai sean positivos,
cuando uno está interesado en estabilidad absoluta del sistema (esto se debe a que si se tienen a i ≤ 0 y al
menos un aj > 0, entonces al menos existe una raı́z imaginaria o con una parte real positiva, lo cual implica
que el sistema es inestable).

1 G(s) 1
R(s) C(s)
G(s)

H(s)

H(s)

Figura 5.1: Sistema retroalimentado.

El criterio de estabilidad parte de organizar el polinomio de la ecuación caracterı́stica como

a0 sn + a1 sn−1 + . . . + an−1 s + an = 0

donde todos los coeficientes ai > 0. Luego, se define la siguiente tabla

sn a0 a2 a4 a6
n−1
s a1 a3 a5 a7
sn−2 b1 b2 b3 ...
sn−3 c1 c2 c3 ...
.. .. .. .. ..
. . . . .
s2 e1 e2
s f1
s0 e2

donde b1 = a1 a2a−a 1
0 a3
, b2 = a1 a4a−a 1
0 a5
, b3 = a1 a6 −a0 a7
a1 , y ası́ sucesivamente. Por ejemplo, c1 = b1 a3 −b2 a1
b1 ,
b1 a5 −b3 a1 b1 a7 −b4 a1
c2 = b1 , y c3 = b1 , entre otros.
El criterio de estabilidad de Routh-Hurwitz propone que el número de raı́ces con parte real positiva
en la ecuación caracterı́stica es equivalente al número de cambios de signo en los coeficientes de la primera
columna de la “matriz”formada previamente. Si todos los coeficientes en esta primera columna son positivos,
entonces el sistema es estable.

Ejemplo 5.1.1 Determine la estabilidad del sistema

a0 s 3 + a 1 s 2 + a 2 s + a 3 = 0

s3 a0 a2
s2 a1 a3
a1 a2 −a0 a3
s a1
s0 a3
Por lo tanto, para que el sistema sea estable, se requiere que a1 a2 > a0 a3 .
5.1. CRITERIO DE ESTABILIDAD ROUTH-HURWITZ 59

Ejemplo 5.1.2 Determine la estabilidad del sistema


s4 + 2s3 + 3s2 + 4s + 5 = 0
s4 1 3 5
s3 2 4 0
s2 1 5
s −6
s0 5
Por lo tanto, al haber dos cambios de signo, existen dos raı́ces con parte real positiva. Esto puede ser compro-
bado directamente utilizando el comando roots en Matlab. En este caso, se obtendrı́an las siguientes raı́ces:
−1,28 ± j0,86 y 0,29 ± j1,41.

Existen un par de casos especiales que se tratarán a continuación.

1. Caso 1: Si un término en la primera columna es cero, pero el resto no, el cero se sustituye por un valor
pequeño que se denominará .

Ejemplo 5.1.3 La ecuación caracterı́stica está dada por


s3 + 2s2 + s + 2 = 0
s3 1 1
s2 2 2
s 0'
s0 2
Como no hay cambio de signo, pero el sistema presenta un , se puede decir que el sistema es crı́tica-
mente (marginalmente) estable.

Ejemplo 5.1.4 La ecuación caracterı́stica está dada por


s5 + 2s4 + 4s3 + 8s2 + 10s + 6 = 0
s5 1 4 10
s4 2 8 6
s3 0' 7
8−14
s2  6
s 7
s0 6
8−14
Hay dos cambios de signo, ya que  > 0, por lo que el factor  < 0. Por lo tanto, el sistema es
inestable.

2. Caso 2: Si toda una fila de elementos es igual a cero, ésta tiene que ser sustituida por la derivada de
la fila anterior.

Ejemplo 5.1.5 La ecuación caracterı́stica está dada por


s4 + 4 = 0
s4 1 0 4
s3 0 0
En este caso, se toma como polinomio auxiliar el que corresponde a la fila anterior a la que se tiene
llena de ceros. En este caso, P (s) = s4 + 4, y su derivada corresponderá ahora a la nueva fila de s3 .
En este caso, se tendrı́a que
s4 1 0 4
s3 4 0
s2 0 '  4
s −16/
s0 4
Hay dos cambios de signo, ya que  > 0. Por lo tanto, el sistema es inestable.
60 CAPÍTULO 5. ESTABILIDAD DE LOS SISTEMAS

Este criterio es bastante utilizado en el diseño de controladores.

Ejemplo 5.1.6 Hallar el rango de Kc en la Figura 5.2 para que el sistema sea estable.

0.016 50
1 Kc 1
3s+1 30s+1
R(s) C(s)
Kc Transfer Fcn1 Transfer Fcn2

Transfer Fcn
1
10s+1

Figura 5.2: Diseñar Kc para que el sistema sea estable

La ecuación caracterı́stica está dada por


0,016 50 1
1 + Kc =0
3s + 1 30s + 1 10s + 1
Esto se puede escribir como
900s3 + 420s2 + 43s + (1 + 0,8Kc ) = 0
Utilizando el criterio de estabilidad de Routh-Hurwitz, se tiene que

s3 900 43
s2 420 1 + 0,8Kc
17160−720Kc
s 420
s0 1 + 0,8Kc

Por lo tanto el rango de Kc tiene que ser −1,25 < Kc < 23,83.

Ejemplo 5.1.7 Se tiene un proceso inestable cuya función de transferencia viene dada por
1
P (s) =
(s − 1)(s2 + 2s + 2)

Lo que se desea en este caso es utilizar un compensador G(s) de la forma

K(s + 2)
G(s) =
s+3
tal que el sistema en malla cerrada unitaria con retroalimentación negativa sea estable. Halle el rango de K
para que esto se logre.
3 < K < 14
68 − K − K 2 > 0
Por lo que se tiene que √
68,25 − 0,5
3<K<
7,76

Ejemplo 5.1.8 Halle el rango de K en función de T para que el sistema sea estable para el sistema de la
Figura 5.3.
La ecuación caracterı́stica, está dada por

s + 1 + Ke−T s = 0

Sistemas con Tiempo Muerto


Existen sistemas en los cuales la respuesta no es inmediata, con lo que se tiene un tiempo muerto o
retardo de transporte. Por lo general, la salida viene siendo una señal desplazada un determinado tiempo T .
5.1. CRITERIO DE ESTABILIDAD ROUTH-HURWITZ 61

1 Ke^(Ts)/(s+1) 1
R(s) C(s)
Kc

Figura 5.3: Sistema con tiempo muerto

En frecuencia, un desplazamiento en tiempo, implica multiplicar el sistema por una exponencial e −sT . Para
poder hacer el análisis, se utilizan aproximaciones, dentro de las cuales, la más conocida es la aproximación
de Padé. En general, la aproximación de Padé de orden n viene dada por
Pn
−T s (−1)k ck T k sk
Pd (s) = e = k=0
Pn k k
k=0 ck T s

donde
(2n − k)!n!
ck = k = 0, . . . , n
2n!k!(n − k)!
Por ejemplo, para n = 1, c0 = 1 y c1 = 1/2. Es decir que la aproximación de Padé de primer orden viene
dada por
1 − T2 s
e−sT =
1 + T2 s
Para n = 2, se tiene que c0 = 1, c1 = 1/2 y c2 = 1/12, por lo que se tendrı́a que

T (T s)2
1− s+
Pd (s) = e−sT = 2 12
(T s)2
T
1+ 2 s+ 12

Utilizando la aproximación de Padé descrita previamente, se tiene que


 
T 2 T T
s +s 1−K + + (1 + K) = 0
2 2 2

Utilizando el criterio de Routh-Hurwitz, se tiene que


T
s2 2 1+K
s 1− K T2
+ T
2
s0 1+K

Esto implica finalmente que K > −1 y K < 1 + T2 . Se puede ver claramente que a medida que T aumenta, el
rango de ganancia disminuye, por lo cual el tiempo muerto influye bastante en la estabilidad de los sistemas.

5.1.1. Robustez y Estabilidad

El criterio de estabilidad de Routh-Hurwitz determina la estabilidad de un polinomio caracterı́stico


con coeficientes fijos. Sin embargo, si algunos de los parámetros tienen ciertos tipos de incertidumbres (debido
a la planta), o parámetros libres como los del controlador en los coeficientes de la ecuación caracterı́stica, se
necesita hacer una variación al criterio de Routh-Hurwitz. Para ello, se introduce a continuación el criterio de
estabilidad de Kharitanov, el cual es útil en este tipo de problemas (sin embargo, si el número de parámetros
es grande, el análisis se vuelve un poco largo y tedioso) [26].
Asumamos que la función de transferencia de una planta está dada por
Kp
P (s) =
s2 + 2ζωn sωn2
62 CAPÍTULO 5. ESTABILIDAD DE LOS SISTEMAS

A su vez, supongamos que de acuerdo al conocimiento que se tiene de la planta se sabe que se tienen unos
rangos para cada uno de los parámetros, i.e., Kp ∈ [0,8, 1,3], ζ ∈ [0,2, 0,3] y ωn ∈ [10, 12].
La función de transferencia se puede escribir entonces como
q0
P (s) = 2
r0 s + r 1 s + r 2
donde q0 ∈ [0,8, 1,3], r0 ∈ [1, 1], r1 ∈ [4, 7,2], y r2 ∈ [100, 144]. Es claro entonces que se tendrı́an una gran
cantidad de posibilidades para formar una única función de transferencia del sistema.
Generalizando, se puede ver que cualquier función de transferencia que tenga incertidumbre en sus
parámetros se puede escribir de la forma
Np (s) q0 sm + q1 sm−1 + . . . + qm
Pq,r (s) = =
Dp (s) r0 sn + r1 sn−1 + . . . + rn
donde qk ∈ [qk− , qk+ ] para todo k = 0, . . . , m, y rl ∈ [rl− , rl+ ] para todo l = 0, . . . , n. Los − y + corresponden
a los lı́mites inferiores y superiores de los parámetros, respectivamente. Las plantas P q,r (s) con esta clase de
incertidumbres se conocen como interval plants. Si se tiene un sistema retroalimentado como el que se ve en
Nc (s)
la Figura..., con C(s) = D c (s)
, la función de transferencia vendrı́a dada por
Nc (s)Np (s)
T (s) =
Dc (s)Dp (s) + Nc (s)Np (s)
Por lo que el sistema serı́a robustamente estable si todas las raı́ces de la ecuación caracterı́stica D c (s)Dp (s) +
Nc (s)Np (s) = 0 están ubicadas en el semi-plano izquierdo para todas las posibles combinaciones de P (s) ∈
Pq,r (s).
ANADIR FIGURA

Ejemplo 5.1.9 Sean


s+2
C(s) =
s2 + 2s + 2
q0
P (s) =
r0 s3 + r 1 s2 + r 2 s + r 3
con r0 ∈ [1, 1,1], r1 ∈ [4, 4,2], r2 ∈ [6, 8], r3 ∈ [10, 20], y q0 ∈ [3, 5]. Entonces, el polinomio caracterı́stico
estarı́a dado por
(s2 + 2s + 2)(r0 s3 + r1 s2 + r2 s + r3 ) + q0 (s + 2) = 0
Expandiendo este polinomio, se tendrı́a que
a0 s 5 + a 1 s 4 + a 2 s 3 + a 3 s 2 + a 4 s + a 5 = 0
donde a0 ∈ [1, 1,1], a1 ∈ [6, 6,4], a2 ∈ [16, 18,6], a3 ∈ [30, 44,4], y a5 ∈ [26, 50]. Nótese bien que en este caso
hay seis coeficientes, pero en realidad sólo cinco son variables caracterı́sticas del sistema (i.e., sólo los r i s y
q0 son variables).

Consideremos que el polinomio caracterı́stico es


χ = a0 sn + a1 sn−1 + . . . + an
donde los coeficientes ak pueden tomar cualquier valor en un intervalo dado [a− +
k , ak ], k = 0, . . . , n, cuyos
valores son independientes de aj , j 6= k. El conjunto de todas las ecuaciones caracterı́sticas está dado por

χa := a0 sn + . . . + an : [a− +
k , ak ], k = 0, . . . , n

Theorem 5.1.1 Teorema de Kharitanov Todos los polinomios en χa son estables sı́ y sólo sı́ los siguien-
tes cuatro polinomios son estables
− + + − −
a1 (s) = a− 2 3 4
n + an−1 s + an−2 s + an−3 s + an−4 s + an−5 s + . . .
5
+ − − + +
a2 (s) = a+
n + a n−1 s + a n−2 s 2
+ a n−3 s 3
+ a n−4 s 4
+ a n−5 s 5
+ ...
− + + 2 − 3 − 4 + 5
a3 (s) = an + an−1 s + an−2 s + an−3 s + an−4 s + an−5 s + . . .
− − + + −
a4 (s) = a+ 2 3 4
n + an−1 s + an−2 s + an−3 s + an−4 s + an−5 s + . . .
5
5.1. CRITERIO DE ESTABILIDAD ROUTH-HURWITZ 63

En la literatura, los polinomios a1 (s), . . . , a4 (s) se conocen como los polinomios de Kharitanov. Por medio
del teorema de Kharitanov, la robustez en estabilidad puede ser obtenida al aplicar el teorema de estabilidad
de Routh-Hurwitz a cada uno de los cuatro polinomios. Si se ve desde el punto de vista de complejidad, el
hecho de haber reducido todo el espacio de posibilidades a sólo tener que observar el comportamiento en
estos cuatro polinomios es un gran logro.
64 CAPÍTULO 5. ESTABILIDAD DE LOS SISTEMAS
Capı́tulo 6

Sistemas de Control Retroalimentado

Dicen que la manera más limpia y sana de salir de un presente que agobia y que no vislumbra ningún
futuro es poner marcha atrás e internarse en el pasado. Sólo el pasado, con sus hechos y recuerdos,
podrá esclarecer lo que hoy nos parece tan enredado y oscuro. Quizás. Pero entiendo a los que se
niegan a rebobinar hacia cualquier lado. Si algo tenı́amos en común todos nosotros era que no
querı́amos ni mirar ni sentir. Nuestra única convicción era no volver a tener ninguna.
Por favor, Rebobinar, Alberto Fuguet

La estrategia de control retroalimentado es tratar de mantener el valor de salida cerca de un valor


deseado o set-point por medio de:

1. “Medir”la salida utilizando un dispositivo determinado, independientemente que la salida de un sen-


sor/transmisor pueda llegar a alterarse.

2. “Comparar”la variable medida con el valor deseado o set-point para obtener la desviación (que serı́a la
señal de error, o la señal de error retroalimentado).

3. Utilizando esta señal de error, el controlador procesará dicho valor y su salida será la alimentación del
proceso.

4. Esta salida, antes de ir al proceso pasa por un elemento final de control, el cual se encarga de transmitir
dicha señal en las unidades determinadas al proceso.

5. Nuevamente se mide la señal de salida, y se repite el proceso.

Un sistema de control tı́pico tiene la forma que se muestra en la Figura 6.1.


A continuación se analizará en primera instancia lo que sucede con la señal de error que surge al
comparar la variable medida con el valor deseado, para luego ver cómo funcionan diversos tipos de con-
troladores. Las notas de este capı́tulo han sido sacadas de varios libros, dentro de los que se destacan
[22, 31, 7, 11, 8, 24, 16, 32, 2, 23].

6.1. Análisis de Error


Por lo general, este sistema se analiza como un sistema retroalimentado como el que se muestra en
la Figura 6.2, cuya función de transferencia viene dada por C(s) G(s)
R(s) = 1+G(s)H(s) . Es bien sabido que los
sistemas responden de manera diferente, dependiendo del tipo de entrada que se aplica al mismo. En estado
estacionario, existen sistemas que tienen errores iguales a cero para una entrada paso, mientras que si la
entrada es una rámpa o parábola, entonces el sistema ya no tiene a cero de manera asintótica.

65
66 CAPÍTULO 6. SISTEMAS DE CONTROL RETROALIMENTADO

2
D(s)

Gp(s) 1
1 Gc(s) Gv(s)
R(s) C(s)
Proceso
Controlador Válvula
Elemento final de control

Gt(s) Gs(s)

Transmisor Sensor
Elemento Secundario Elemento Primario

Figura 6.1: Sistema de control tı́pico. La referencia o el set point viene siendo R(s), mientras que la variable
controlada es C(s). La perturbación es D(s).

1 G(s) 1
R(s) C(s)
G(s)

H(s)

H(s)

Figura 6.2: Sistema retroalimentado.

La función de transferencia que relaciona el error E(s) en la Figura... con la entrada está dado por

E(s) 1
=
R(s) 1 + G(s)H(s)

donde el término G(s)H(s) se conoce como la función de transferencia de lazo abierto. Por lo general, esta
función se puede escribir como

(Ta s + 1)(Tb s + 1) . . . (Tm s + 1)


G(s)H(s) = K
sN (T1 s + 1)(T2 s + 1) . . . (Tp s + 1)

El término sN representa la multiplicidad de un polo en el origen, y N representa el tipo de sistema que se


tiene. Entre más grande sea el valor de N , menor será la estabilidad del sistema como se verá luego. Cabe
resaltar que el tipo del sistema es diferente del orden de un sistema.
El error en estado estacionario viene dado por

ess = lı́m e(t) = lı́m sE(s)


t→∞ s→0

De acuerdo al sistema de la Figura.... este error se puede escribir como

1
ess = lı́m sR(s)
s→0 1 + G(s)H(s)

Definamos Kp = lı́ms→0 G(s)H(s), por lo que tendrı́amos varios casos dependiendo el tipo de entrada del
sistema.
6.2. CONTROLADORES PID 67

1. R(s) = 1s . En este caso, si N = 0, Kp = K, por lo que ess = 1


1+K . Si N ≥ 1, Kp = ∞, con lo que
ess = 0.

2. R(s) = s12 . En este caso, si N = 0, ess = ∞. Si N = 1, ess = 1


K. Finalmente, N ≥ 2, Kp = ∞, con lo
que ess = 0.
1 1
3. R(s) = s3 . En este caso, si N ≤ 1, ess = ∞. Si N = 2, ess = K. Finalmente, si N ≥ 3, ess = 0.

6.2. Controladores PID


El controlador de tres términos como se le conocı́a originalmente apareció por primera vez en 1922
[19]. En este artı́culo, Minorsky aplicaba por primera vez ideas de control a barcos, y se basaba en el hecho
de que pequeñas desviaciones (producidas por la linealización de los elementos) podrı́an ser utilizadas para
entender las dinámicas de un sistema bajo control. A continuación se estudiará el controlador Proporcional,
Integral, y Derivativo (PID) en cada una de sus diversas configuraciones.

6.2.1. Controlador Proporcional

El controlador proporcional es el más simple (sin contar con el controlador ON-OFF). La ecuación
tı́pica está dada por
u(t) = ū + Kc (r(t) − y(t)) = ū + Kc e(t) (6.1)
donde u(t) corresponde a la salida del controlador (por lo general estarı́a dada en unidades de psi o mA);
ū es el valor base (este valor es la salida del controlador cuando el error es 0. Generalmente se fija durante
la calibración del controlador); Kc es la ganancia del controlador, y e(t) es la señal de error. Por lo general,
asumiremos que ū = 0.
Como se puede ver, si y(t) se incrementa de tal forma que supere a r(t), el error se vuelve negativo,
y por ende u(t) decrece. Por otra parte, la salida del controlador es proporcional al error, y esta ganancia
determina cuánto se modifica la salida.
Es claro que como sólo tiene un valor que ajustar, se hace más sencillo. Pero como se vio en la sección
anterior, existe un error en estado estacionario, dependiendo de la entrada que se tenga, y el proceso que se
está controlando.
En algunos casos, los controladores reales no utilizan el término ganancia sino que utilizan el concepto
de Banda Proporcional (BP). Esta es inversamente proporcional a la ganancia K c , y se define como
100
BP =
Kc
En algunos textos se conoce también como porcentaje de banda proporcional. Por lo tanto, la ecuación en
este caso serı́a,
100
u(t) = ū + e(t) (6.2)
BP
Es claro que las Ecuaciones (6.1) y (6.2) son totalmente diferentes, por lo que se tiene que tener saber muy
bien qué tipo de controlador se está utilizando.
ANADIR EJEMPLO

6.2.2. Controlador Proporcional e Integral

Para evitar ese error en estado estable, se añade un elemento que tiene en cuenta lo que sucede y ha
sucedido en términos del error. Esta acción integral o de reajuste tiene como consecuencia que la Ecuación
(6.1) se convierta en Z
Kc
u(t) = ū + Kc e(t) + e(t)dt (6.3)
τi
68 CAPÍTULO 6. SISTEMAS DE CONTROL RETROALIMENTADO

donde τi corresponde al tiempo de integración o reajuste (por lo general su valor se da en minutos por
repeticiones). Si se ve gráficamente, este valor serı́a la respuesta que le toma al controlador en repetir la
acción proporcional (ver Figura...).
ANADIR FIGURA
Tanto menor sea τi , más pronunciada es la curva de respuesta, lo que implica que la respuesta del
controlador es más rápida. Otra forma de verlo es que si τi es pequeño, mayor será el término constante
delante de la integral, por lo que se le dará más importancia al controlador. Además, recuérdese que la integral
es como una suma, por lo que a medida que e(t) cambia, se van integrando todos los valores presentes y
anteriores, por lo que el controlador tiende a cambiar su respuesta. Cuando e(t) = 0, la integral no es
necesariamente cero, ya que tiene en cuenta los términos anteriores.
Algunos fabricantes utilizan un término conocido como la rapidez de reajuste, que corresponde a
1
τir = τi .

ANADIR TABLA FABRICANTES

6.2.3. Controlador Proporcional, Integral, y Derivativo

Al añadir un tercer término como lo es una acción derivativa, se está ajustando la rapidez de deri-
vación o de preactuación. Este nuevo término tiene como fin anticipar hacia donde va el proceso durante
la observación de la rapidez para el cambio del error, i.e., su derivada. En este caso, la Ecuación (6.3) se
convierte en Z
Kc de(t)
u(t) = ū + Kc e(t) + e(t)dt + Kc τd (6.4)
τi dt
donde el término τd corresponde a la rapidez de derivación, y está dado por lo general en minutos.
Los controladores PID se utilizan en procesos donde las constantes de tiempo son muy largas. En
procesos en los que las constantes son cortas, existe una mayor susceptibilidad al ruido, por lo que la
derivada tenderı́a a amplificarlo. Esto se ve más claramente al obtener una función de transferencia de (6.4)
cuando ū =, i.e.,
 
U (s) 1
= Kc 1 + + τd s
E(s) τi s
En la práctica, esta función de transferencia no se suele implementar, sobre todo por lo que se dijo sobre
el término derivativo. Más adelante veremos otro tipo de funciones de transferencias que sı́ se suelen im-
plementar. En general, el uso de filtros y configuraciones diferentes ayudan a la implementación de dichos
controladores.

6.2.4. Controlador Proporcional y Derivativo

Este tipo de controlador se utiliza en procesos donde sólo es posible utilizar controladores proporcio-
nales, pero que cuentan con cierto tipo de anticipación. La ecuación caracterı́stica para este caso es

de(t)
u(t) = ū + Kc e(t) + Kc τd (6.5)
dt
Su mayor desventaja radica en el hecho de que únicamente opera con una desviación en la variable que se
controla. Esto sólo puede ser eliminado con la acción integral. Sin embargo, un PD puede soportar mayor
ganancia.

6.2.5. Implementación

Dentro de todas las acciones del controlador de tres términos, la acción derivativa es la más complicada
de implementar, y por eso muchos fabricantes no la utilizan. Los problemas de implementación radican en:
6.2. CONTROLADORES PID 69

El uso o no de un filtro. Esto con el fin de evitar daños en los actuadores y no amplificar ruidos de alta
frecuencia. Estos filtros pueden ser de primero o segundo orden, dependiendo del fabricante.

El punto en el cual la acción derivativa actúa, bien sea en la medida o en el error.

Si la acción derivativa actúa o no con la acción integral, lo cual depende del algoritmo que se utilice.

El punto de acción depende de si se hace regulación o tracking. En el primer caso, se requiere que el proceso
esté en un estado fijo a pesar de las perturbaciones, por lo que el set point es constante. En este caso, no
importa si la parte derivativa se encuentra a la salida del error o de la medida. Sin embargo, cuando se hace
tracking los cambios son bruscos, ya que el set point es variable, por lo que ubicar la parte derivativa con
respecto a la medida es mucho más útil. En estos casos, se suele recurrir también al uso del filtro, por lo que
el término derivativo vendrı́a siendo:
U (s) Kd τ d s
=−
Y (s) 1 + s τNd
Este serı́a un filtro ideal utilizando un sistema de primer orden con constante de tiempo τNd . Es claro en este
caso que si las frecuencias son bajas, i.e., s pequeño, se tiene que el factor que predomina es τ d s, mientras
que si las frecuencias son altas, i.e., s grande, el factor que predomina es ττdd = N , lo cual lo hace constante a
N
frecuencias altas (N se suele escoger entre 2 y 20). La salida del controlador en este caso serı́a para un PID
igual a  
1 Kd τ d s
U (s) = Kc 1 + E(s) − Y (s)
τi s 1 + s τNd

6.2.6. Sintetizando

Hasta este punto se han visto los controladores P, PI, PD, PID, y los parámetros asociados a ellos.
Se conoce el concepto de Kc , BP , τi , τiR , τd . Cabe recordar que la forma en la que se basan la mayorı́a de
conceptos de sintonización está basada en la función de transferencia ideal.
Kp
Si se tuviera un sistema de primer orden τ s+1 asociado a un controlador proporcional, se obtendrı́a

en malla cerrada que T (s) = τ ∗Ks+1 , donde

Kc Kp
K∗ =
1 + K c Kp
τ
τ∗ =
1 + K c Kp
Esto implicarı́a que el controlador proporcional modificarı́a el comportamiento dinámico del sistema, con-
servando el orden del mismo, pero modificando los valores de los parámetros asociados. Uno de los puntos
importantes es ver la contribución de Kc en el τ ∗ . Si Kc Kp > 0, entonces τ ∗ < τ , por lo que se harı́a más
rápida la respuesta del proceso.
Si en lugar de un regulador proporcional se tuviera un PI, la función de transferencia en lazo cerrado
vendrı́a siendo
Kp Kc (τi s + 1)
T (s) =
τi τ s2 + (τi + Kp Kc τi )s + Kc Kp
Es claro que se tiene un cero y dos polos. En el caso anterior, el efecto de P sólo era cambiar las caracterı́sticas
del proceso, i.e., sus parámetros. En el caso de un PI, se añaden un polo y un cero a la función de transferencia.
Si la entrada fuera un escalón unitario, y se factorizara el denominador. se tendrı́a algo de la forma

1 Kp Kc (τi s + 1)
C(s) =
s τ τi (s − r1 )(s − r2 )

Es decir que c(t) = A0 + A1 er1 t + A2 er2 t . Una serie de conclusiones se pueden obtener en este caso:

El cero puede forzar la existencia de un overshoot.


70 CAPÍTULO 6. SISTEMAS DE CONTROL RETROALIMENTADO

Si r1 y r2 son reales y negativos, el valor se aproxima a su valor final de forma exponencial.

Si r1 y r2 son complejos conjugados con parte real negativa, se tendrá una respuesta amortiguada
oscilatoria.

Si al menos uno de los valores r1 o r2 fuera positivo, se tiene un sistema inestable.

No hay offset en este caso.

En el caso de tener un PD en vez de un PI, T (s) tiene un cero y un polo, pero hace que la respuesta transitoria
exhiba error en estado estacionario como el proporcional. Este se va si se tiene un PID, caso en el cual se
tienen dos polos y dos ceros, y 0 error en estado estacionario.
Por lo tanto, se podrı́a decir que las caracterı́sticas de los controladores clásicos serı́an:

Control P: Acelera la respuesta del sistema de control pero posee un offset para todos los procesos, a
excepción lógica de un proceso de capacidad constante.

Control PI: Elimina offsets pero el sistema se vuelve más oscilatorio. El añadir la acción integral hace
que se aumente la inestabilidad si Kc aumenta.

Control PD: Anticipa y estabiliza pero tiene offset como el controlador P.

Control PID: El término I elimina el offset y las oscilaciones son compensadas por el término D. Sin
embargo, éstas amplifican las componentes de ruido de las señales.

6.3. Sintonización de Controladores PID


A continuación se revisan diversas estrategias conocidas para la sintonización de los controladores
PID.

6.3.1. Sintonización de Controladores PID: Método Manual

Es básicamente de ensayo y error en el campo y puede ser tedioso y prolongado en algunos casos. La
acción derivativa es particularmente difı́cil de sintonizar adecuadamente, por lo tanto, esta no es muy utili-
zada. La sintonización se inicia con valores lı́mites de los parámetros del P.I.D, variándolos consecutivamente
hasta lograr la respuesta deseada.
El método consta de los siguientes pasos:

Tomar valores lı́mites de los parámetros:

• Para Kc y τd valores pequeños


• El valor de τi debe ser grande.

Luego, se dobla el valor de Kc y se observa la respuesta. Se continua de esta misma forma hasta obtener
oscilaciones sostenidas (Kcu ). El valor final será Kc = Kcu /2.

Luego, se reduce el valor de τi a la mitad de su valor. Se observa su respuesta y se continua de la misma


forma hasta obtener oscilaciones sostenidas (τi∗ ). El valor final será τi = 2τi∗ .

Se realiza el mismo procedimiento con τd . Primero, se aumenta τd hasta obtener una respuesta oscila-
toria (τd∗ ), con lo que el valor final será τd = τd∗ /3.
6.3. SINTONIZACIÓN DE CONTROLADORES PID 71

Tipo De Regulador Kc τi τd
P 0,5Kcr - -
PI 0,45Kcr Pcr /1,2 -
PID 0,6Kcr 0,5Pcr 0,125Pcr

Tabla 6.1: Valores de los parámetros de los controladores para el método de malla cerrada.

6.3.2. Sintonización de Controladores PID: Ziegler/Nichols

Hasta el momento se ha visto la forma tı́pica de un controlador de tres términos, conocido como el
PID. Estos tipos de controladores se diseñan para mantener un nivel, o una temperatura, por ejemplo. En
general, se requiere que estos controladores sean: estables y robustos en lazo cerrado; que la influencia de
las perturbaciones no sea crı́tica; que la respuesta sea rápida y suave a cambios de set-point; y que no tenga
error en estado estable, entre otros. Sin embargo, aún no hemos dado detalles de cómo seleccionar cada una
de las constantes asociadas al controlador de tres términos. Lógicamente, estos valores van a estar asociados
directamente con las caracterı́sticas del proceso, y esto es lo que se conoce como sintonización.
Para poder sintonizar controladores, existen métodos heurı́sticos (aquellos que están asociados al
conocimiento que tengan los operadores de la planta), métodos matemáticos (los cuales requieren de un
modelo matemático del proceso), y un tercer método que combina las técnicas heurı́sticas y analı́ticas. Este
último método surgió en el año de 1942 cuando John G. Ziegler y Nathaniel B. Nichols propusieron unas
técnicas experimentales simples que permitiesen mejorar las caracterı́sticas de los controladores de la empresa
en la que ellos trabajaban (Taylor Instruments) [35]. Las técnicas desarrolladas tienen tres funciones básicas:

1. Se realiza un estı́mulo en el proceso.

2. Se identifica el modelo matemático de acuerdo a los resultados experimentales.

3. Se determinan los parámetros del controlador a partir de lo obtenido en 2.

Dentro de estas técnicas están las que son de:

Malla abierta requieren la operación del controlador en la opción MANUAL. Esta técnica no es la
adecuada para sistemas que en lazo abierto puedan tener un comportamiento inestable (e.g., reactores
quı́micos, o controles de nivel de lı́quidos).

Malla cerrada, los cuales operan con el controlador en la opción AUTOMATICO.

Ziegler/Nichols de Malla Cerrada

La idea de este método es trabajar el lazo de control en modo automático con una acción proporcional,
i.e., τi = ∞, τd = 0, y utilizar el criterio de estabilidad de Routh-Hurwitz asociado con el método de
sustitución directa para caracterizar el proceso con dos parámetros:

1. Ganancia última o crı́tica: Kcr .

2. Perı́odo último o crı́tico: Pcr .

En la Figura... se muestra el lazo tı́pico para la prueba en automático para este caso.
ANADIR FIGURA
La idea es entonces ir incrementando el valor de Kc desde 0 hasta un valor Kcr , el cual corresponde
al valor de ganancia en el cual la salida presenta oscilaciones sostenidas por primera vez (ver Figura...). El
perı́odo crı́tico corresponde al perı́odo de oscilación tal como se ve en la Figura... Si éstas no se presentan,
este método no deberı́a aplicarse. La Tabla 6.1 muestra los valores que se requieren para cada uno de los
tres controladores tı́picos que podrı́an sintonizarse bajo este método.
72 CAPÍTULO 6. SISTEMAS DE CONTROL RETROALIMENTADO

Tipo De Regulador Kc τi τd
P T /(L.K) - -
PI 0,9T /(L.K) 3,33L -
PID 1,2T /(L.K) 2L 0,5L

Tabla 6.2: Valores de los parámetros de los controladores para el método de malla abierta.

Ejemplo 6.3.1 Asumamos que

1
Gp (s) =
(s + 1)(0,5s + 1)(0,2s + 1)

Como bien se sabe, la estabilidad está definida por intermedio de la ecuación caracterı́stica del sistema, i.e.,
1 + Gp (s)Gc (s) = 0, lo que en este caso darı́a que

0,1s3 + 0,8s2 + 1,7s + 1 + Kc = 0

Si se utilizar el criterio de Routh-Hurwitz se ve que el sistema es estable si −1 < K c < 12,6 (aunque los
valores negativos de Kc no tengan mucho sentido práctico). Es claro que cuando la ganancia llega a su
lı́mite superior, se tienen oscilaciones sostenidas, ya que el sistema se volverı́a crı́ticamente estable. Para
comprobar esto, utilicemos el método de sustitución para hallar Kcr y Pcr . Para ello, se sustituye s = jω,
i.e.,
−0,1jω 3 − 0,8ω 2 + 1,7jω + 1 + Kc = 0

Se tendrı́a entonces una ecuación para la parte real y otra para la parte imaginaria, i.e.,

−0,1ω 3 + 1,7jω = 0

y
−0,8ω 2 + 1 + Kc = 0
√ 2π
Esto nos da que ωcr = 17, por lo que el Pcr = ωcr = 1,52 segundos, y Kcr = 12,6.

Este método suele utilizarse cuando el 10 % ≤ M P ≤ 60 % a entrada escalón unitario.

Ziegler/Nichols de Malla Abierta

El método de malla abierta pretende ajustar el controlador a partir del modelo del proceso. Para ello,
es necesario identificar el proceso utilizando una entrada paso en malla abierta como se ve en la Figura....
ANADIR FIGURA
Ziegler y Nichols se refieren a una curva de reacción, i.e., una curva en forma de S luego de aplicar la
entrada escalón unitario. Esto suele darse si la planta no incluye integrador(es) o polos dominantes complejos
conjugados. Si la respuesta no está en esta forma, el método no debe aplicarse. La respuesta del proceso en
este caso serı́a
C(s) Ke−Ls
=
U (s) Ts + 1
donde L se conoce como el tiempo de atraso, y T es la constante de tiempo del sistema medida como se
puede ver en la Figura....
ANADIR FIGURA
La Tabla 6.2 muestra los valores que se requieren para cada uno de los tres controladores tı́picos que
podrı́an sintonizarse bajo este método.
6.3. SINTONIZACIÓN DE CONTROLADORES PID 73

Tipo De Regulador  Kc τi τd


1 T 3T +L
P KhL 3T i - -
PI 1 T 10,8T +L
K L 12T L 30+3(L/T )
9+20(L/T ) -
 30T +4L  h i
1 T 6−2(L/T )
PD K L 24T - L 22+3(L/T )
 16T +3L 
PID 1
K
T
L 12T L 32+6(L/T )
13+8(L/T )
4L
11+2(L/T )

Tabla 6.3: Valores de los parámetros de los controladores para el método de Cohen y Coon.

rc Kc τi τd
5
0 a 0.1 K T 0
0,5
0.1 a 0.2 Krc T 0
0,5(1+0,5rc ) 0,5rc
0.2 a 0.5 Krc T (1 + 0,5rc ) T 0,5r c +1

Tabla 6.4: Valores de los parámetros de los controladores para el método del coeficiente de ajustabilidad .

6.3.3. Sintonización de Controladores PID: Cohen y Coon

Este método trabaja con la respuesta temporal del sistema a una entrada escalón, es muy parecido al
de Ziegler-Nichols y también utiliza el modelo de primer orden con tiempo muerto para hallar los parámetros.
Las reglas para la sintonı́a se encuentran matemáticamente establecidas. Una de las grandes ventajas de este
método es que se puede seleccionar un controlador PD, cosa que no se logra en los otros métodos. Los valores
de los parámetros se calculan basados en las relaciones de la Tabla 6.3.

6.3.4. Sintonización de Controladores PID: Método del Coeficiente de Ajusta-


bilidad

Los métodos de Ziegler - Nichols y de Cohen - Coon, son difı́ciles de aplicar en la práctica, porque llevan
a un comportamiento muy oscilatorio, por esto los instrumentistas implementaron una versión derivada de
estas reglas que también se basa en el modelo de primer orden con retardo, para hallar los coeficientes del
P.I.D se utiliza el coeficiente de ajustabilidad rc , definido como:

L
rc =
T
Se recomienda que 0,1 < rc < 1, pero con los valores de este coeficiente se encuentran relaciones especı́ficas
para los parámetros del P.I.D. como se ve en la Tabla 6.4. Para un valor más grande del coeficiente de
ajustabilidad, el sistema es imposible de controlar con un PID.

6.3.5. Sintonización de Controladores PID: Internal Model Control (IMC)

COMPLETAR

6.3.6. Sintonización de Controladores PID: Sı́ntesis Directa

Este método no parte de un algoritmo en particular para el controlador. Su objetivo es encontrar una
función de transferencia del controlador que cumpla con las especificaciones de lazo cerrado dadas. Para ello,
se utiliza el modelo de malla abierta del proceso. El problema es que con este método no necesariamente
se garantiza que el controlador va a existir en la vida real, pero sirve para tener una idea de qué tipo de
controlador podrı́a utilizarse. Para este caso se tiene el sistema de la Figura...
ANADIR FIGURA
74 CAPÍTULO 6. SISTEMAS DE CONTROL RETROALIMENTADO

La función de transferencia de lazo cerrado serı́a


C(s) Gc (s)Gp (s)
T (s) = =
R(s) 1 + Gc (s)Gp (s)

En el método de Ziegler/Nichols se ajustan los parámetros del controlador y se observa la respuesta para
ası́ hacerle ajustes finos a dichas constantes. Sin embargo, en el método de sı́ntesis directa lo que se hace es
despejar Gc (s), por lo que
T (s)
Gc (s) = (6.6)
Gp (s)(1 − T (s))
La Ecuación (6.6) será la del controlador, ya que uno tiene caracterı́sticas propias de diseño para T (s). La
Ecuación (6.6) se conoce como la ecuación de sı́ntesis, y lo difı́cil en este caso es la selección de T (s). Sin
embargo, algunas caracterı́sticas básicas que se tienen que cumplir son

El error en estado estable debe ser nulo.

La respuesta del sistema debe ser lo suficientemente rápida, pero el sobreimpulso debe ser lo más
pequeño posible.

T (s) tiene que ser una función simple matemáticamente hablando.

Las funciones de transferencia que generalmente se utilizan para cumplir estos objetivos son
1
T1 (s) = (6.7)
α1 s + 1
1
T1 (s) = (6.8)
(α2 s + 1)(α3 s + 1)
donde los αi s son las constantes de tiempo que determinan qué tan rápido responde el sistema. Si estos
parámetros son pequeños, el sistema no responde más rápido, aunque la ganancia del controlador se incre-
menta. Por ende, de acuerdo al proceso que se tenga, la selección de estos parámetros es bastante crı́tica.
Los dos tipos de controladores que aparecen al reemplazar (6.7) y (6.8) en (6.6) son

1 1
Gc (s) = (6.9)
Gp (s) α1 s

1 1
Gc (s) = (6.10)
Gp (s) s(α2 α3 s + α3 + α2 )
Nótese bien que el hecho de que se tenga un controlador con un polo en cero, hace que para una entrada
escalón, el error en estado estable tienda a 0.
1
Si Gp (s) = Kp , Gc (s) = α1 K ps
, por lo que el controlador serı́a similar a uno con acción integral, y α1
determina qué tan rápida serı́a la respuesta del sistema. Si,

Kp
Gp (s) =
τs + 1
y Gc (s) se selecciona de acuerdo a (6.9), se tiene un controlador PI, ya que

τ τs + 1
Gc (s) =
α1 Kp sτ
τ
Si lo comparamos con la ecuación ideal de un PI tendrı́amos que Kc = α1 K p y τi = τ .
En los dos casos previamente expuestos se trató de buscar una relación directa entre la forma del
controlador que se obtiene a partir del proceso y un controlador clásico. Es claro que en ocasiones se tienen
que hacer suposiciones fuertes (e.g., despreciar ciertos parámetros) para que el sistema se parezca a una de
las ecuaciones ideales que conocemos.
6.4. ALGORITMOS 75

6.4. Algoritmos
En general, los controladores comerciales utilizan algoritmos diferentes para implementar un PID. De
este tipo de algoritmo dependen los valores de los parámetros obtenidos mediante el método de sintonización
que se utilice.
Los algoritmos clásicos son:

Ideal:  
1
Gc (s) = KcI 1+ + τdI s (6.11)
τiI s

Paralelo o No Interactivo:
1
Gc (s) = KcP + + τdP s (6.12)
τiP s

Serie o Interactivo:  
1 
Gc (s) = KcS 1+ 1 + τdS s (6.13)
τiS s

Es claro que los métodos de sintonización vistos hasta el momento se basan en (6.11). Por lo tanto, se
tendrı́an que expresar (6.12) y (6.13) en términos de (6.11) para ası́ poder utilizar los parámetros que se
obtienen en los métodos de sintonización vistos.
Para (6.13), se tiene que   
τS 1
KcS 1 + Sd + S + τdS s
τi s τi
Este tipo de controladores se caracterizan porque las acciones derivativa e integral se aplican sucesivamente,
lo que hace que exista una fuerte interacción entre ambas acciones. Al comparar con un controlador ideal,
se tiene que  
τS
KcI = KcS 1 + dS
τi
τiI = τdS + τiS
1
τdI = 1 1
τdS
+ τiS

Por otro lado, el algoritmo paralelo (utilizado por Modicon, Siemens, Allan Braedley, entre otros) es similar al
ideal ya que tiene las tres acciones están actuando en forma independiente, pero su sintonización es diferente
ya que
KcI = KcP
τiI = KcP τiP
τdP
τdI =
KcP

6.5. PID Digital


CAMBIAR!!!!!
Para poder implementar un controlador de lazo sencillo, se requieren tres acciones básicas que un
procesador realizarı́a de forma permanente para controlar la planta.

Se hace una conversión de las señales análogas que provienen de los sensores utilizando un conversor
ADC.
Se procesan los datos, i.e., se hace el cálculo del algoritmo de control.
76 CAPÍTULO 6. SISTEMAS DE CONTROL RETROALIMENTADO

Finalmente, se envı́a el resultado a los actuadores en forma análoga utilizando un conversor DAC.

La secuencia de operación serı́a:

1. Esperar la interrupción de un reloj que serı́a el encargado de darle la orden al procesador de cada
cuánto se tienen que tomar datos. Esto serı́a el tiempo de muestreo T s .
2. Leer los datos del sensor.
3. Calcular la señal de control por medio de un algoritmo discretizado del PID.
4. Enviar el resultado a los actuadores.
5. Actualizar las variables del controlador modificadas por la discretización del algoritmo.
6. Repetir.

En la Figura 6.3 se puede observar un diagrama condensado de un sistema de control digital de un solo lazo.
Un ejemplo tı́pico más detallado es el que se muestra en la Figura...
u(t) y(t)

t
t

PROCESS

HOLD
SAMPLER

D/A COMPUTER A/D


u[n] y[n]

t t

Figura 6.3: Proceso de tomar una señal continua y(t) que es generada por el proceso, y convertirla en una
secuencia de números y[n]. El computador toma una decisión y la convierte en otra secuencia de números
u[n], los cuales se convierten luego en una señal continua u(t) que actúa sobre el proceso. Figura adaptada
de [2].

ANADIR FIGURA
Los computadores que se utilizan se conectan a los actuadores y al proceso por medio de conversores
de señal. La salida es procesada por un DAC durante un perı́odo fijo de tiempo T el cual se conoce como
el tiempo de muestreo (lo mismo sucede a la entrada). El muestreador es básicamente un interruptor que se
cierra cada T segundos por un instante corto de tiempo. Por ejemplo, en la Figura... se tiene un ejemplo,
que gráficamente darı́a algo como se ve en la Figura...
ANADIR FIGURAS
El DAC es un dispositivo que convierte la señal muestreada r ∗ (t) en una señal continua p(t). Por lo
general, el DAC se representa como un circuito de zero-order hold (ZOH) como se ve en la Figura...
ANADIR FIGURA
La función de transferencia del ZOH es
1 − e−sT
G0 (s) =
s
6.5. PID DIGITAL 77

La idea de este retenedor de orden cero es tomar el valor de r[kT ] y “retenerloçonstante por un tiempo
kT ≤ t < (k + 1)T , como se ve en la Figura... para k = 0.
ANADIR FIGURA
El muestreador y el ZOH pueden seguir acertadamente la señal de entrada si T es pequeño comparado
con los cambios transientes en la señal. Para una rampa y una exponencial se tendrı́a lo que se observa en
las Figuras...
ANADIR FIGURAS
Muy poco se pierde si se hace un muestreo entre instantes muy cercanos, mas sin embargo, mucho
se pierde si los puntos de muestreo se ubican demasiado lejos. Esto se da sobre todo en la conversión de la
señal muestreada a una continua. Si la frecuencia de muestreo

ωs =
T
es lo suficientemente grande comparada con la componente de frecuencia más alta en una señal continua,
entonces se puede afirmar que las caracterı́sticas de amplitud de la señal se preservan. Para evitar este tipo
de inconvenientes, asumamos que ω1 es la frecuencia máxima o ancho de banda de una señal x(t), i.e., no hay
componentes de frecuencia por encima de ω1 . El siguiente teorema conocido como el teorema de muestreo
de Nyquist, ilustra la escogencia de la frecuencia de muestreo de acuerdo al ancho de banda de la señal en
cuestión.

Theorem 6.5.1 Si ωs = T , i.e., la frecuencia de muestreo, cumple con
ωs > 2ω1
donde ω1 es la componente de frecuencia más alto en una señal continua x(t) (i.e., su ancho de banda),
entonces ésta puede ser reconstruida en su totalidad de la señal muestreada x ∗ (t).

Si esto se cumple, no habrá problemas de aliasing, fenómeno que se da cuando se crean nuevos componentes
de frecuencia debidos al muestreo. Si no, se pueden tener dos señales diferentes cuya reconstrucción serı́a
imposible (e.g., Figura 6.4).
Por lo general, se analiza el sistema en frecuencia utilizando la Transformada Z, la cual es un equiva-
lente de la transformada de Laplace en tiempo discreto, pero con
z = esT
En términos de estabilidad, esta transformación llevará a que un sistema muestreado es estable si todos los
polos de lazo cerrado de T (z) están ubicados dentro del cı́rculo unitario en el plano z. Criterios de estabilidad
como el de Jury se aplican en estos casos en lugar de Routh-Hurwitz. En términos de diagramas en bloques,
hay que tener mucho cuidado dónde se ubican los muestreadores, ya que las funciones de transferencia no
serı́an las mismas. En las Figuras... se muestra un ejemplo donde G(z)H(z) 6= GH(z).
ANADIR FIGURAS
Para poder implementar un PID en un procesador, es menester discretizar cada una de las funciones.
Por ende, necesitamos expresar las ecuaciones continuas en términos de ecuaciones de diferencias, lo cual
se puede hacer utilizando algoritmos posicionales e incrementales. Por simplicidad, veremos los primeros
únicamente.
El algoritmo posicional recibe su nombre porque éste determina directamente la posición que debe
tomar el actuador. Sea, la Ecuación (6.4) con ū = 0, y la integral de 0 a t. La aproximación de la integral se
da por medio de la regla rectangular o trapezoidal de una señal, i.e.,
Z n
1 t Ts X
e(τ )dτ ∼= e(hTs )
τi 0 τi
h=1
o Z t n
1 Ts X e(hTs − Ts ) + e(hTs )
e(τ )dτ ∼
=
τi 0 τi 2
h=1
78 CAPÍTULO 6. SISTEMAS DE CONTROL RETROALIMENTADO

0.8

0.6

0.4

0.2

−0.2

−0.4

−0.6

−0.8

−1
0 1 2 3 4 5 6 7 8 9 10

Figura 6.4: Figura adaptada de [2]), la cual muestra el efecto de aliasing utilizando dos diferentes señales
x1 (t) = sin(2πf1 t) (punteada) and x2 (t) = − sin(2πf2 t) (sólida), con sus respectivas frecuencias (f1 = 0,1 Hz,
f2 = 0,9 Hz, y fs = 1 Hz). Este es un excelente ejemplo de cómo el aliasing puede afectar la reconstrucción
perfecta de las señales

respectivamente. La Figura... muestra un ejemplo de cómo se calcuları́an dichas aproximaciones a partir de


un ejemplo gráfico.
ANADIR FIGURA
La acción derivativa tiene por aproximación
de(t) ∼ e(nTs ) − e(nTs − Ts )
τd = τd
dt Ts
Como se mencionó previamente, Ts corresponde al tiempo de muestreo. De esta forma, el PID ideal discre-
tizado se convertirı́a en
n
!
Ts X e[nTs ] − e[(n − 1)Ts ]
u[nTs ] = Kc e[nTs ] + e[hTs ] + τd
τi Ts
h=1

Observaciones:

Teniendo el controlador PID digital, para poderlo sintonizar utilizando alguno de los métodos vistos
previamente, se recurre a añadir T /2 al tiempo muerto del proceso, para ası́ poder utilizar dichos
criterios. Es decir, el nuevo tiempo muerto serı́a dependiente del tiempo de muestreo, i.e.,
T
L̄ = L +
2
Con ello, se estarı́a incluyendo el tiempo de muestreo en la selección de cada uno de los componentes.
En cuanto al desempeño, si el muestreo es muy lento/rápido, el PID puede no responder adecuadamente.
Una guı́a útil se puede resumir como:
• Obtener un modelo empı́rico del sistema.
• Para lograr en un controlador digital un desempeño cercano al de su contraparte continua, selec-
cione T ≤ 0,05(L + τ ), donde L y τ son el tiempo muerto y la constante de tiempo del sistema
de primer orden, respectivamente.
6.6. CRITERIOS DE DESEMPEÑO 79

• Determinar las constantes de sintonización utilizando Ziegler y Nichols por ejemplo, con L̄ = L+ T2 .
• Implementar y ajustar de forma más fina.

6.6. Criterios de Desempeño


Hasta este punto se han visto tres criterios fundamentales que uno suele buscar a la hora de diseñar
un controlador: estabilidad, criterios de estado estacionario, y respuesta dinámica del sistema. Otro de los
criterios que existen, aborda el desempeño de la integral de tiempo que puede ser utilizado par la escogencia
de los parámetros. Los más comunes son aquellos que involucran minimizar una función que contenga la
integral del error. Estos métodos clásicos son:

1. Integral Absolute Error (IAE) Z ∞


IAE = |e(t)|dt
0
En algunos casos se toma como lı́mite superior un tiempo t finito tal que se haya alcanzado el valor en
estado estacionario. Por lo general éste es igual al tiempo de establecimiento t s .
2. Integral Squared Error (ISE) Z ∞
ISE = e2 (t)dt
0
La idea en este caso es penalizar errores grandes.
3. Integral Time-weighted Absolute Error (ITAE)
Z ∞
IT AE = t|e(t)|dt
0

La idea en este caso es penalizar más los errores en tiempos grandes.


4. Integral Time-weighted Squared Error (ITSE)
Z ∞
IT SE = te2 (t)dt
0

La idea en este caso es penalizar errores grandes en tiempos largos.

ANADIR EJEMPLO
RT
En lı́neas generales, lo que se tiene es I = 0 f (e(t), r(t), y(t))dt, ya que no necesariamente tendrı́a
que ser el error, sino una combinación de cualquiera de las señales que se tengan a disposición.

6.7. Diseño con Pole Placement


En esta forma de diseño, se desea que los polos de lazo cerrado se ubiquen en lugares previamente
estipulados por la respuesta del sistema. Para un sistema con retroalimentación unitaria, controlador G c (s)
y proceso Gp (s), la ecuación caracterı́stica serı́a 1 + Gc Gp = 0. Si tuviéramos un sistema de primer orden y
un controlador PID ideal, la ecuación caracterı́stica vendrı́a siendo
Kc Kp τ d + τ 2 1 + K c Kp
τi s + τi s + 1 = 0
Kp Kc Kc Kp

Se tendrı́an entonces dos polos de lazo cerrado


s 2
−(1 + Kc Kp ) Kc Kp (1 + Kc Kp )τi τi (Kc Kp τd + τ )
r1,2 = ± −4
2(Kc Kp τd + τ ) 2(Kc Kp τd + τ ) Kc Kp Kc Kp
80 CAPÍTULO 6. SISTEMAS DE CONTROL RETROALIMENTADO

Como los valores de Kp y τ del proceso se conocen por lo general, la escogencia de Kc , τi , y τd nos lleva a
ubicar los polos donde se desee en el plano complejo.
Si se quisiera obtener una salida determinada, uno puede tener un polinomio caracterı́stico de base/guı́a
para la ubicación de los polos. Por ejemplo, para una ecuación de segundo orden, una función de transferencia
serı́a
1
τr2 s2 + 2ζr τr s + 1
Si τr = 4 y ζr = 0,5, en este caso se necesitarı́a que
Kc Kp τ d + τ
τi = 16
Kp Kc

1 + K c Kp
τi = 4
Kc Kp
Sin embargo, es claro que las respuestas no van a ser exactamente las mismas, ya que sólo se están escogiendo
los polos mientras que los ceros no se tienen en cuenta y estos pueden afectar el desempeño.
Capı́tulo 7

Variables de Estado: Introducción

Es gracias a la muerte que podemos ser felices porque sabemos que en algún momento todo va a
terminar Mario Vargas Llosa

Hasta el momento hemos analizado los sistemas desde el punto de vista de funciones de transferencia.
Hemos visto cómo los modelos matemáticos obtenidos por medio de leyes fı́sicas nos ayudan a modelar
relaciones de toda ı́ndole, además de brindarnos la posibilidad de estudiar dichos sistemas para obtener su
estabilidad y buscar métodos de control. Sin embargo, todo este estudio se ha basado en el hecho de que los
sistemas estudiados son lineales y están representados en el espacio s. Es sabido que cualquier sistema no
lineal se puede transformar en uno lineal por medio de métodos de linealización como los vistos previamente.
En este capı́tulo veremos otra forma de representar los sistemas por medio de las variables de estado. El
análisis que se hará en este y los subsiguientes capı́tulos se basa en los sistemas lineales, y su representación
por medio de ecuaciones diferenciales ordinarias. Primero se repasan los conceptos de variables de estado y su
relación con cualquier tipo de sistema, y luego se ahonda en la representación de sistemas lineales. Las notas
de este capı́tulo han sido sacadas de varios libros, dentro de los que se destacan [22, 31, 7, 11, 32, 12, 14, 30, 33].

7.1. Definición de Variables de Estado


El propósito de un modelo de variables de estado es desarrollar una representación que preserve la
relación entrada-salida, pero expresada en términos de n ecuaciones de primer orden. La principal ventaja
de este modelo es que las caracterı́sticas internas del sistema son representadas [28].
Un modelo de variables de estado es un conjunto de ecuaciones diferenciales de primer orden que están
acopladas, y usualmente se representa de forma vectorial. Supongamos que se tienen n variables de estado y
m entradas.
ẋi = fi (x1 , x2 , . . . , xn , u1 , u2 , . . . , um ) i = 1, . . . , n (7.1)
Si se transformase (7.1) en término de vectores, se tendrı́a que

ẋ = f (x, u, t)

donde x = [x1 , x2 , . . . , xn ]> , y u = [u1 , u2 , . . . , um ]> . En este caso f (·) es una función vectorial con n + m + 1
argumentos, de dimensión n.

7.1.1. Definiciones

Existen dos tipos de sistemas dinámicos. Aquellos que están descritos por ecuaciones diferenciales (i.e.,
aquellas que describen la evolución de los sistemas en tiempo continuo), y aquellos descritos por ecuaciones
de diferencias o iterated maps (i.e., aquellas dinámicas en tiempo discreto). A lo largo del curso se utilizarán

81
82 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN

ecuaciones diferenciales, y más especı́ficamente las ordinarias (las parciales no serán utilizadas) de la forma

ẋi = fi (x1 , x2 , . . . , xn , t), i = 1, . . . , n (7.2)

Con ẋi ≡ dxdt , y f (·) una función determinada por el problema a tratar. El sistema descrito por (7.25) puede
i

ser lineal o no lineal y depende tanto de x como de t.

Definition 11 El sistema descrito por (7.25) se dice que es un sistema autónomo si f i (·) no depende del
tiempo. En caso contrario, decimos que (7.25) es un sistema no autónomo o dependiente del tiempo.

Definition 12 El sistema
ẋi = fi (x1 , x2 , . . . , xn , t, u(t)) (7.3)
se dice que es un sistema forzado o con entrada. Si f (·) no depende de u(t) se tiene un sistema no forzado.

Definition 13 El vector x∗ ∈ Rn es un equilibrio del sistema no forzado (7.26) si

fi (t, x∗ ) = 0 ∀t ≥ 0, ∀i ∈ {1, . . . , n}

Si x∗ es un equilibrio de (7.26), y las condiciones inciales son xi (t0 ) = x∗i para todo t ≥ t0 , el sistema tiene
una solución única xi (t) = x∗i .
Es decir que si el sistema está en equilibrio desde el principio, éste no se moverá de ahı́.

Definition 14 El estado de un sistema dinámico es un conjunto de cantidades fı́sicas, cuyas especificaciones


(en ausencia de otro tipo de excitación) determina completamente la evolución del sistema [12].

Esto implicarı́a que el número de condiciones iniciales que deben ser especificadas constituye el orden del
sistema, y por ende el número de variables de estado necesarias para determinar el mismo.

Ejemplo 7.1.1 Sea


ẋ1 = x2 + x1
(7.4)
ẋ2 = 4 + x 2 x1
Los puntos de equilibrio del sistema estarı́an dados por (2, −2) y (−2, 2).

7.1.2. ODEs Lineales

Si la ecuación diferencial en (7.1) es lineal, ésta se puede escribir como

ẋ1 (t) = a11 (t)x1 (t) + . . . + a1n (t)xn (t) + b11 (t)u1 (t) + . . . + b1m (t)um (t)
ẋ2 (t) = a21 (t)x1 (t) + . . . + a2n (t)xn (t) + b21 (t)u1 (t) + . . . + b2m (t)um (t)
.. (7.5)
.
ẋn (t) = an1 (t)x1 (t) + . . . + ann (t)xn (t) + bn1 (t)u1 (t) + . . . + bnm (t)um (t)

La Ecuación (7.5) se puede reducir a nivel vectorial de tal forma que

ẋ(t) = A(t)x(t) + B(t)u(t) (7.6)

donde A(t) y B(t) son matrices de n × n y n × m, respectivamente. La Ecuación (7.6) se conoce como la
Ecuación de Estado. En este caso, A(t) y B(t) dependen del tiempo. En nuestro análisis, estas dos matrices
no dependerán por lo general del tiempo. En algunos casos se tienen también entradas exógenas (además de
las entradas de control) las cuales dependen del ambiente. En esos casos, la Ecuación (7.6) se transforma en

ẋ(t) = A(t)x(t) + B(t)u(t) + E(t)x0 (t)

donde x0 es un vector que reúne las entradas exógenas (e.g., perturbaciones, ruido), y E(t) es una matriz de
las ganancias que poseen dichas entradas.
7.1. DEFINICIÓN DE VARIABLES DE ESTADO 83

Finalmente, lo que nos interesa es la salida en la mayorı́a de los casos, más no el estado. Por ello, se
define un vector de salida y = [y1 , y2 , . . . , yr ]> y estarı́a dado por

y(t) = h(x(t), u(t))

Si se linealizara el sistema, este vector serı́a el observation vector, y la ecuación de salida o de observación
vendrı́a dada por
y(t) = C(t)x(t) + D(t)u(t) (7.7)
donde C(t) y D(t) son matrices de r × n y r × m, respectivamente.

Ejemplo 7.1.2 [12, 28] En este caso se tiene un modelo que corresponde a una masa M que está sujetada
a un amortiguador cuya constante de amortiguación es b y a un resorte cuya constante es k. La Figura7.1
muestra el sistema.

k b

fo y

Figura 7.1: Modelo mecánico que corresponde a una masa, sujetada por un amortiguador y un resorte. La
posición está dada por y, y se le aplica una fuerza inicial f0 .

Por intermedio de las leyes de Newton, sabemos que

d2 y(t) X
M = f (t)
dt2

Asumiendo que el sistema es lineal en todos sus componentes, se tiene que

d2 y(t) dy(t)
M +b + ky(t) = f0 (7.8)
dt2 dt
La Ecuación (7.8) es una representación de un sistema de segundo orden por intermedio de ecuaciones
diferenciales. Para poder hacer una representación en variables de estado, se necesita hacer un cambio de
variables de la siguiente forma.
x1 (t) = y(t)
(7.9)
x2 (t) = dy(t)dt
Por lo tanto
ẋ1 (t) = x2 (t)
d2 y(t) (7.10)
ẋ2 (t) = dt2

Utilizando (7.8) en (7.10), con el cambio de variables descrito en (7.9) se tiene que

ẋ1 (t) = x2 (t)


b k 1
ẋ2 (t) = −M x2 (t) − M x1 (t) + M f0

Las Figuras 7.2 y 7.3 muestran la implementación del sistema utilizando Simulink. La primera corres-
ponde al modelo utilizando diagrama en bloques donde sólo se pueden utilizar sumadores, integradores, y
ganancias. La segunda corresponde a la simulación del sistema para cuatro casos diferente. Como se puede
84 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN

observar, en los cuatro casos la posición final es la misma ( fk0 , i.e., 0.3125m), pero lo que varı́a es la respuesta
del sistema. Esto se debe a que los puntos de equilibrio serı́an x2 = 0 y x1 = k1 f0 . Entre más grande sea el
amortiguamiento, menos oscilaciones tiene el sistema, pero su respuesta pareciera ser más lenta. Es el mismo
caso de la velocidad, ya que ésta siempre llega a 0, pero con más o menos oscilaciones. Cabe aclarar que en
estos cuatro casos las otras variables permanecieron exactamente iguales. Un ejemplo de qué sucede cuando
se deja de aplicar una fuerza constante f0 se puede ver en la Figura 7.4. Claramente, en este caso, el sistema
cambia su punto de equilibrio luego de 19 segundos, ya que en ese momento f 0 = 0. Esto era de esperarse
debido a la fı́sica del sistema (i.e., se tiene un amortiguador).

f0 x2 x1

To Workspace2 To Workspace1 To Workspace

1/M
1 1
Step s s
Gain1
Integrator Integrator1 Scope

Gain

b/M

Gain2

k/M



 

 




 


 

!#"$
% !#& 
'
 !#(
)$* +
, !#&
- .
- /- (
)$0  * +

Figura 7.2: Modelo en Simulink que corresponde a la Figura 7.1.

Ejemplo 7.1.3 [12] Representar el sistema descrito en (7.11) por intermedio de diagramas de bloques.
ẋ1 (t) = a11 x1 + a12 x2 (t) + b11 u1 + b12 u2 (t)
(7.11)
ẋ2 (t) = a21 x1 + a22 x2 (t) + b21 u1 + b22 u2 (t)

7.2. Representación y Solución de Variables de Estado

7.2.1. Representación

Consideremos el siguiente sistema de n-ésimo orden [22]


y n + a1 y n−1 + . . . + an−1 ẏ + an y = u (7.12)
En este caso, y n corresponde a la n-ésima derivada de y. Para poder hacer una representación en término
de ecuaciones de estado, se asume que se conocen las condiciones iniciales y(0), ẏ(0), . . ., y n−1 (0), además
de la entrada u(t). Por lo tanto, el conjunto de n variables de estado será
x1 (t) = y(t)
x2 (t) = ẏ
..
.
dn−1 y(t)
xn (t) = dtn−1
7.2. REPRESENTACIÓN Y SOLUCIÓN DE VARIABLES DE ESTADO 85

Simulación para b=2. Velocidad (−−) Simulación para b=4. Posición (−)
1 0.6

0.8 0.5

0.4
0.6
0.3
0.4
0.2
0.2
0.1
0
0
−0.2 −0.1

−0.4 −0.2
0 5 10 15 20 0 5 10 15 20

Simulación para b=8, Velocidad (−−) Simulación para b=16, Posición (−)
0.4 0.35

0.3
0.3
0.25
0.2 0.2

0.1 0.15

0.1
0
0.05

−0.1 0
0 5 10 15 20 0 5 10 15 20

Figura 7.3: Simulación en Simulink del sistema descrito en la Figura 7.1. Para este caso se utilizaron los
parámetros f0 = 5N, M = 2kg, k = 16N/m, y cuatro valores para b. En la parte superior izquierda, se
tiene b = 2N.s/m; en la parte superior derecha, se tiene b = 4N.s/m; en la parte inferior izquierda, se tiene
b = 8N.s/m; y en la parte inferior derecha, se tiene b = 16N.s/m. En todos los casos se tiene que posición
está dada por la lı́nea (-), mientras que la velocidad es la lı́nea punteada (- -).

Es decir que la Ecuación (7.12) se puede escribir como


ẋ1 = x2
ẋ2 = x3
..
.
ẋn−1 = xn
ẋn = −an x1 − an−1 x2 − . . . − a1 xn + u
Lo que expresado en una forma matricial serı́a
      
ẋ1 0 1 0 ... 0 x1 0
 ẋ2   0 0 1 ... 0
 x2   0 
      
 ..   . .. .. ..
 ..   .. 
 .  =  .. . . .
 . + . u
      
 ẋn−1   0 0 0 ... 1   xn−1   0 
ẋn −an −an−1 −an−2 ... −a1 xn 1
La salida se obtiene mediante,  
x1
 
 x2 

y = 1 0 ... 0  .. 
 . 
xn
De esta forma, el sistema de orden n se ve representado por un conjunto de ecuaciones de estado y de salida
como las que se describen en (7.6) y (7.7).
86 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN

Entrada f0=5, únicamente los primeros 19 segundos


0.8

0.6

0.4

0.2

−0.2

−0.4

−0.6

−0.8
0 5 10 15 20 25 30 35 40

Figura 7.4: Simulación en Simulink del sistema descrito en la Figura 7.1, cuando únicamente se aplica una
fuerza f0 durante un determinado tiempo. Para este caso se utilizaron los parámetros f 0 = 5N, M = 2kg,
k = 16N/m, y b = 2N.s/m. La posición está dada por la lı́nea (-), mientras que la velocidad es la lı́nea
punteada (- -).

Otra representación más compleja es la que se describe en (7.13).

y n + a1 y n−1 + . . . + an−1 ẏ + an y = b0 un + b1 un−1 + . . . + bn−1 u̇ + bn u (7.13)

Como se puede observar, el problema en este caso es cómo definir las variables de estado de tal forma que
se eliminen las derivadas de u en (7.13). Para ello, se plantea la siguiente solución

x1 = y − β0 u
x2 = ẏ − β0 u̇ − β1 u = ẋ1 − β1 u
x3 = ÿ − β0 ü − β1 u̇ − β2 u = ẋ2 − β2 u
..
.
xn = y n−1 − β0 un−1 − β1 un−2 − . . . − βn−2 u̇ − βn−1 u = ẋn−1 − βn−1 u

Donde
β0 = b0
β1 = b 1 − a 1 β0
β2 = b 2 − a 1 β1 − a 2 β0
β3 = b 3 − a 1 β2 − a 2 β1 − a 3 β0
..
.
βn = bn − a1 βn−1 − . . . − an−1 β1 − an β0

Lo que expresado en una forma matricial serı́a


    
ẋ1 0 1 0 ... 0 x1  
β1
 ẋ2   0 0 1 ... 0  x2 

 ..



 .. .. .. ..

 ..
 
  β2 

 .  =  . . . .  . + .. u

 ẋn−1
     . 
  0 0 0 ... 1   xn−1 
βn
ẋn −an −an−1 −an−2 ... −a1 xn
7.2. REPRESENTACIÓN Y SOLUCIÓN DE VARIABLES DE ESTADO 87

La salida se obtiene mediante,


 
x1
 
 x2 

y = 1 0 ... 0  ..  + β0 u
 . 
xn

Ejemplo 7.2.1 Transforme la siguiente ecuación en términos de variables de estado

ÿ + a1 ẏ + a2 y = b0 ü + b1 u̇ + b2 u

Para ello, se utilizan las transformaciones vistas previamente, por lo cual

x1 = y − β0 u
x2 = ẏ − β0 u̇ − β1 u = ẋ1 − β1 u

donde
β0 = b0
β1 = b 1 − a 1 b0
β2 = b 2 − a 1 β1 − a 2 β0
Reemplazando, se obtiene que

ẋ1 = x2 − β1 u
x˙2 = ÿ − β0 ü − β1 u̇
= −a1 ẏ − a2 y + b0 ü + b1 u̇ + b2 u − b0 ü − b1 u̇ + a1 b0 u̇
= −a1 (x2 + b0 u̇ + β1 u) − a2 (x1 + b0 u) + b2 u + a1 b0 u̇
= −a1 x2 − a1 b0 u̇ − a1 β1 u − a2 x1 − a2 b0 u + b2 u + a1 b0 u̇
= −a1 x2 − a2 x1 − β2 u

7.2.2. Solución

Asumamos que se tiene la representación en el espacio de estado

ẋ(t) = Ax(t)

Esta ecuación se puede escribir como

ẋ1 (t) = a11 x1 (t) + . . . + a1n xn (t)


ẋ2 (t) = a21 x1 (t) + . . . + a2n xn (t)
..
.
ẋn (t) = an1 x1 (t) + . . . + ann xn (t)

Se asume que se conocen las condiciones iniciales del sistema (x(0)), por lo cual se podrı́a integrar a ambos
lados de la ecuación, para ası́ obtener
Rt
x1 (t) − x1 (0) = (a x (τ ) + . . . + a1n xn (τ )) dτ
R0t 11 1
x2 (t) − x2 (0) = 0
(a21 x1 (τ ) + . . . + a2n xn (τ )) dτ
..
.
Rt
xn (t) − xn (0) = 0
(a n1 (t)x 1 (τ ) + . . . + ann xn (τ )) dτ

Esto, escrito de forma matricial, se convierte en


Z t 
x(t) = Ax(τ )dτ + x(0) (7.14)
0
88 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN

Pero, qué es x(τ ) en (7.14)? Si observamos (7.14), x(τ ) viene siendo la solución de dicha ecuación cuando
x(t)|t=τ . En otras palabras, Z τ 
0 0
x(τ ) = Ax(τ )dτ + x(0) (7.15)
0

Reemplazando (7.15) en (7.14),


Z t Z τ   
x(t) = A Ax(τ 0 )dτ 0 + x(0) dτ + x(0)
0 0

Si se hiciera esto repetidamente, se obtiene que


Z Z tZ Z tZ Z !
t τ τ τ0
2 0 3 00 0
x(t) = I+ Adτ + A dτ dτ + A dτ dτ dτ + . . . x(0)
0 0 0 0 0 0

Como el sistema es lineal e invariante en el tiempo, la matriz A es constante, por lo que


 
A 2 t2 A 3 t3
x(t) = I + At + + + . . . x(0)
2! 3!

El término entre paréntesis es la aproximación en series de Taylor de una exponencial. Por lo tanto,

x(t) = eAt x(0) = Φ(t)x(0) (7.16)

El término Φ(t) = eAt se conoce como matriz de transición de estado. Esta matriz se conoce ası́ porque
transfiere el estado del sistema en tiempo 0 a tiempo t. En el paper [20] se deducen 19 diferentes formas de
computar dicha matriz.
Algunas propiedades de la matriz de transición de estado son

Φ(0) = I

Φ−1 (t) = Φ(−t)


Φk (t) = Φ(kt)
Φ(t1 + t2 ) = Φ(t1 )Φ(t2 )
Φ(t2 − t2 )Φ(t1 − t0 ) = eA(t2 −t0 )
Ahora, si se asume que el sistema tiene respuesta forzada, i.e.,

ẋ(t) = Ax(t) + Bu(t)

ẋ(t) − Ax(t) = Bu(t)


Multiplicando a ambos costados por e−At ,

e−At (ẋ(t) − Ax(t)) = e−At Bu(t)

Pero,
d −At 
e−At (ẋ(t) − Ax(t)) = e x(t)
dt
Integrando a ambos lados,
Z t
e−At x(t) = e−Aτ Bu(τ )dτ + x(0)
0

Por ende, la solución cuando se tiene respuesta forzada es


Z t
x(t) = eAt e−Aτ Bu(τ )dτ + eAt x(0) (7.17)
0
7.3. FUNCIONES DE TRANSFERENCIA 89

7.3. Funciones de Transferencia


Definition 15 La función de transferencia de un sistema lineal e invariante en el tiempo, es la relación en
frecuencia que existe entre la entrada y la salida cuando las condiciones iniciales son iguales a cero.

En esta definición, válida para sistemas lineales e invariantes en el tiempo, se tiene que para un sistema como
(7.18), la relación entre la entrada u y la salida y estará dado por una transformación en frecuencia de las
señales, siempre y cuando las condiciones iniciales sean nulas.
y n + a1 y n−1 + . . . + an−1 ẏ + an y = b0 um + b1 um−1 + . . . + bm−1 u̇ + bm u n≥m (7.18)
Esto serı́a,
L [salida]
H(s) =
L [entrada] CI=0
dónde L [·] es la transformada de Laplace. Aplicando esto a (7.18), se obtiene que
Y (s) b0 sm + b1 sm−1 + . . . + bm−1 s + bm
H(s) = = (7.19)
U (s) sn + a1 sn−1 + . . . + an−1 s + an
Cuál es la relación que existe entre la función de transferencia y la representación en variables de estado?
Tomemos la Ecuación (7.6), y aplicando la transformada de Laplace, se obtiene que
sX(s) − x(0) = AX(s) + BU (s)
Como se sabe que las condiciones iniciales son cero, se tiene que
sX(s) − AX(s) = BU (s)
Se asume que (sI − A) es no singular (porqué?), por lo que se deduce que
X(s) = (sI − A)−1 BU (s) (7.20)
Por otra parte, la transformada de y(t) en (7.7) viene siendo Y (s) = CX(s) + DU (s), por lo cual si reem-
plazamos X(s) en (7.20), se obtiene que la función de transferencia es
Y (s)
= C(sI − A)−1 B + D (7.21)
U (s)
Si se analiza la Ecuación (7.21) se puede observar que |sI − A| corresponde al polinomio caracterı́stico del
G(s)
sistema, ya que el resto de términos podrı́an ser agrupados de tal forma que H(s) = |sI−A| , por lo que los
valores propios de A son idénticos a los polos de H(s). Su rol es vital ya que las raı́ces del polinomio son las
raı́ces caracterı́sticas, o valores propios, o polos del sistema, los que determinan las principales caracterı́sticas
del comportamiento del sistema no forzado.
Se sabe que
A 2 t2 A 3 t3
Φ(t) = eAt = I + At + + + ...
2! 3!
Por lo tanto, la transformada de Laplace serı́a igual a
I A A2 A3
Φ(s) = + 2 + 3 + 4 + ...
s s s s
 
I A A2 A3
[sI − A]Φ(s) = [sI − A] + 2 + 3 + 4 + ...
s s s s
2
[sI − A]Φ(s) = I 2 + As + As2 + . . .
2 3
− As − As2 − As3 . . .
= I
Por lo tanto,
eAt = L −1 {(sI − A)−1 }
En la literatura, la matriz Φ(s) = (sI − A)−1 se conoce como el resolvent de A (o la matriz caracterı́stica).
Por lo tanto, los pasos a seguir a la hora de calcular la matriz de transición de estado son:
90 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN

1. Calcular (sI − A).


2. Obtener Φ(s) = (sI − A)−1 .
3. Tomar la transformada inversa de Laplace de Φ(s) elemento por elemento.

Recuerde que
adj(A) 1
A−1 = = (Cij )>
|A| |A|
dónde adj(A) es la matriz adjunta, o la matriz de cofactores, la cual tiene como coeficientes (C ij ) =
(−1)i+j Mij (Mij es la matriz que remueve la fila i y la columna j, para luego tomar el determinante).
El determinante de una matriz A de n × n se puede definir por medio de la expansión de Laplace con
respecto a una fila arbitraria i de la forma
n
X
detA = aij Cij
j=1

Esto también se puede hacer con respecto a una columna arbitraria k de la forma,
n
X
detA = aik Cik
i=1

Ejemplo 7.3.1 [4] Sea  


2 4 1
A= 3 0 2 
2 0 3
Se tiene entonces la siguiente serie de menores,

3 2
M12 = =5
2 3

2 1
M22 = =4
2 3

2 1
M32 = =1
3 2
Por lo tanto, los cofactores asociados serı́an C12 = (−1)3 5 = −5, C12 = (−1)4 4 = 4, y C32 = (−1)5 1 = −1.
Por lo tanto, usando la expansión de Laplace con respecto a la columna 2, se tiene que |A| = 4C 12 = −20.

Ejemplo 7.3.2 Calcular la matriz adjunta cuando se tiene una matriz cuadrada de n = 2, y n = 3.
 
a11 a12
A=
a21 a22
 
b11 b12 b13
B =  b21 b22 b23 
b31 b32 b33
 
a22 −a12
adj(A) =
−a21 a11
 
b11 b12 b13
B =  b21 b22 b23 
b31 b32 b33
 
b22 b23
− b12 b13 b12 b13


 b32 b33 b32 b33 b22 b23 
 
 b21 b23 b11 b13
− b11 b13 

adj(B) =  −
 b31 b33 b31 b33 b21 b23 
 
 b21 b22
− b11 b12 b11 b12


b31 b32 b31 b32 b21 b22
7.3. FUNCIONES DE TRANSFERENCIA 91

Ejemplo 7.3.3 [12] Hallar la matriz de transición de estado si las dinámicas de un motor DC con inercia
están dadas por
θ̇ = w
ẇ = −αw + βu
dónde α y β son constantes del motor.
 
At 1 (1 − e−αt )/α
e =
0 e−αt

Ejemplo 7.3.4 Considérese la función de transferencia asociada al diagrama de la Figura 7.5.

Y (s) a2 s 2 + a 1 s + a 0
= 3
U (s) s + b2 s2 + b1 s + b 0

U (s) Y (s)
1 2
s3 +b2 s2 +b1 s+b0 a2s + a1s + a0
V (s)

Figura 7.5: Diagrama en bloques.

Halle la representación de la forma

ẋ = Ax + Bu
y = Cx + Du

Se tiene entonces que


dv 3
+ b2 v̈ + b1 v̇ + b0 v = u
dt3
Tomando x1 = v, x2 = v̇, y x3 = v̈, se tiene entonces que
   
0 1 0 0
ẋ =  0 0 1 x +  0 u
−b0 −b1 −b2 1

Por otro lado, se tiene que


a2 v̈ + a1 v̇ + a0 v = y
Por lo tanto, se obtendrı́a que
y = [a0 a1 a2 ]x

Ejemplo 7.3.5 [29] Un calibrador óptico utilizado por la Chrysler Corporation, el cual se utiliza para
verificar el perfecto alineamiento de todos los componentes metálicos de varias clases de Sedan de cuatro
puertas, tiene unas dinámicas en lazo cerrado dadas por

ÿ + 5ẏ + 6y = f (t)

Asumiendo que f (t) = 0, y que y(0) = 1, ẏ(0) = 0, halle y(t).

Haciendo x1 (t) = y(t), y x2 (t) = ẋ1 (t), se tiene que


    
ẋ1 (t) 0 1 x1 (t)
=
ẋ2 (t) −6 −5 x2 (t)

y C = [1, 0]. Hallando la matriz de transición de estado


 
1 s+5 1
(sI − A)−1 =
s2 + 5s + 6 −6 s
92 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN
" #
s+5 1
(s+2)(s+3) (s+2)(s+3)
Φ(s) = −6 s
(s+2)(s+3) (s+2)(s+3)
 
3e−2t − 2e−3t e−2t − e−3t
Φ(t) =
−6e−2t + 6e−3t −2e−2t + 3e−3t
Como sabemos,    
x1 (t) x1 (0)
= Φ(t)
x2 (t) x2 (0)
Entonces,

y(t) = 3e−2t − 2e−3t

7.4. Formas Canónicas


En el siguiente ejemplo se muestra como una misma ecuación diferencial puede tener varias represen-
taciones en el espacio de estado. Porqué? Porque existen varios métodos para transformar las variables de
estado. De ahı́ que surjan diversos tipos de formas que se denominarán las formas canónicas.

Ejemplo 7.4.1 Encuentre la representación en el espacio de estado de


d3 y
+ 6ÿ + 11ẏ + 6y = 6u
dt3
Según lo visto en la sección anterior, se tiene que las matrices A, B, C, y D vienen dadas por
 
0 1 0
A= 0 0 1 
−6 −11 −6
 
0
B= 0 
6
 
C= 1 0 0
y D = 0. La matriz de transición de estado estarı́a dada en Laplace por
 2 
s + 6s + 11 s+6 1
1
(sI − A)−1 = 3  −6 s 2
+ 6s s 
s + 6s2 + 11s + 6
−6s −11s − 6 s2
Por lo que la función de transferencia serı́a
6
H(s) = C(sI − A)−1 B =
s3 + 6s2 + 11s + 6
Si partimos de la función de transferencia, se tiene que
3 6 3
Y (s) = s+1 U (s)
− s+2 U (s) + s+3 U (s)
= X1 (s) + X2 (s) + X3 (s)
Por lo que se tendrı́a una representación en el espacio de estado igual a
ẋ1 = −x1 + 3u
ẋ2 = −2x2 − 6u
ẋ3 = −3x3 + 3u
y = x 1 + x2 + x3
Por ende, se tendrı́an otro tipo de matrices A, B, C, y D.

El resultado del ejemplo anterior nos muestra claramente que una función de transferencia puede tener mu-
chas representaciones en el espacio de estado. A continuación se explicarán los métodos estándares conocidos
como representaciones CANÓNICAS, las cuales tienen varias propiedades que serán explotadas a lo largo
del curso.
7.4. FORMAS CANÓNICAS 93

7.4.1. First Companion Form: Forma Canónica Controlable

Arranquemos por definir las variables de estado para la siguiente función de transferencia
1
H(s) = (7.22)
sn + a1 sn−1 + . . . + an−1 s + an
Esto es equivalente a
y n + a1 y n−1 + . . . + an−1 y + an = u
Esta ecuación se puede ver como una serie de n integradores, donde la salida del último corresponderı́a a la
salida y, la salida del penúltimo seria ẏ, y ası́ sucesivamente. La Figura 7.6 muestra como serı́a el diagrama
en bloques para este caso.

Figura 7.6: Representación en diagramas en bloques de la Ecuación (7.22). Figura tomada de [12].

La representación en el espacio de estado viene dada por


ẋ1 = x2
ẋ2 = x3
..
.
ẋn−1 = xn
ẋn = −an x1 − an−1 x2 − . . . − a1 xn + u
y = x1
Si formásemos la matriz A, se puede ver que tiene una estructura especial: los coeficientes del denominador de
H(s) están en la última fila precedidos de un signo menos; el resto de valores son 0, excepto la “superdiagonal”
cuyos términos son 1. Este tipo de matrices se conocen como matrices que tienen una companion form.
La función de transferencia en (7.22) se modifica de tal forma que ahora, la función de transferencia
es
b0 sn + b1 sn−1 + . . . + bn−1 s + bn
H(s) = (7.23)
sn + a1 sn−1 + . . . + an−1 s + an
donde si el grado del numerador fuera menor o igual al grado del denominador, i.e., deg(num) ≤ deg(den),
entonces se dice que es una función de transferencia propia; si es estrictamente menor, entonces se dice que
es una función de transferencia estrictamente propia; y si es mayor, entonces se dice que la función de
transferencia es impropia.
Pero esta ecuación es equivalente a
Y (s) Z(s)
H(s) =
Z(s) U (s)
Z(s)
Por linealidad, U (s) serı́a equivalente a (7.22), mientras que se puede decir que

Y (s)
= b0 sn + b1 sn−1 + . . . + bn−1 s + bn
Z(s)
Ası́ pues, se tiene una parte que es idéntica a lo expuesto anteriormente, mientras que la segunda serı́a la
suma escalizada de las salidas de los integradores que se forman de acuerdo a lo visto previamente. Un
diagrama en bloques se puede ver en la Figura 7.7.
94 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN

Figura 7.7: Representación en diagramas en bloques de la Ecuación (7.23). Figura tomada de [12].

Las matrices A y B son las mismas que se definieron previamente, mientras que las matrices C y D
estarı́an dadas en este caso por el hecho de que

y = (bn − an b0 )x1 + (bn−1 − an−1 b0 )x2 + . . . + (b1 − a1 b0 )xn + b0 u

Esta ecuación se obtiene por los dos caminos directos que existen, i.e.,

a Uno que multiplica cada uno de los elementos.


b Otro que llega al sumador/restador y se ve multiplicado por b0 .

La estructura en este caso se conoce como la first canonical form. En control se le da el nombre de forma
canónica controlable.

Ejemplo 7.4.2 EJEMPLO

La forma canónica tiene las siguientes propiedades:

El polinomio caracterı́stico se puede determinar por la última lı́nea de A c , i.e.,

|λI − A| = 0 ⇒ an + an−1 λ + . . . + a1 λn = 0

Un sistema con esta estructura siempre es controlable, y su matriz de controlabilidad es full rank.

7.4.2. Second Companion Form: Forma Canónica Observable

En la first companion form los coeficientes del denominador de H(s) aparecı́an en alguna fila de la
matriz A. Existe otra forma en la que los coeficientes aparecen en alguna columna de dicha matriz. Tomando
(7.23), y factorizando, se obtiene que

sn (Y (s) − b0 U (s)) + sn−1 (a1 Y (s) − b1 U (s)) + . . . + (an Y (s) − bn U (s)) = 0

Dividiendo por sn y despejando Y (s), se tiene que


1 1
Y (s) = bo U (s) + (b1 U (s) − a1 Y (s)) + . . . + n (bn U (s) − an Y (s))
s s
El término s1i corresponde a la función de transferencia de una cadena de i integradores. La Figura 7.8 ilustra
este hecho.
7.4. FORMAS CANÓNICAS 95

Figura 7.8: Representación en diagramas en bloques de la forma canónica controlable. Figura tomada de
[12].

ẋ1 = x2 − a1 (x1 + b0 u) + b1 u
ẋ2 = x3 − a2 (x1 + b0 u) + b2 u
..
.
ẋn−1 = xn − an (x1 + b0 u) + bn−1 u
ẋn = −an (x1 + b0 u) + bn u
y = x 1 + b0 u

Si en la Figura 7.8 se numeran las variables de estado de izquierda a derecha (i.e., términos dentro de
cı́rculos en la figura?) se obtiene la forma
 
0 0 ... −an

 1 0 ... −an−1 

Ao = 
 0 1 ... −an−2 

 ... ... ... ... 
0 0 ... −a1
 
bn − a n b0

 bn−1 − an−1 b0 

Bo =  .. 
 . 
b1 − a 1 b0
 
Co = 0 0 ... 1

y Do = b0 . Esta es la que se conoce como la forma canónica observable. Si se comparan las matrices de la
sección anterior con estas, se tiene que Ac = A> > >
o , Bc = Co , y Cc = B o .

7.4.3. Jordan Form

Polos de H(s) Diferentes

La función de transferencia en (7.23) se convierte en


r1 r2 rn
b0 + + + ... +
s − s1 s − s2 s − sn

En algunos casos, para hallar los residuos de una función de transferencia, se puede recurrir a programas
como Matlab. A continuación se presenta cómo se deberı́a hacer para obtener dichos residuos de la expansión
en fracciones parciales.
96 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN

RESIDUE Partial-fraction expansion (residues).


[R,P,K] = RESIDUE(B,A) finds the residues, poles and direct term of
a partial fraction expansion of the ratio of two polynomials B(s)/A(s).
If there are no multiple roots,
B(s) R(1) R(2) R(n)
---- = -------- + -------- + ... + -------- + K(s)
A(s) s - P(1) s - P(2) s - P(n)
Vectors B and A specify the coefficients of the numerator and
denominator polynomials in descending powers of s. The residues
are returned in the column vector R, the pole locations in column
vector P, and the direct terms in row vector K. The number of
poles is n = length(A)-1 = length(R) = length(P). The direct term
coefficient vector is empty if length(B) < length(A), otherwise
length(K) = length(B)-length(A)+1.

If P(j) = ... = P(j+m-1) is a pole of multplicity m, then the


expansion includes terms of the form
R(j) R(j+1) R(j+m-1)
-------- + ------------ + ... + ------------
s - P(j) (s - P(j))^2 (s - P(j))^m

[B,A] = RESIDUE(R,P,K), with 3 input arguments and 2 output arguments,


converts the partial fraction expansion back to the polynomials with
coefficients in B and A.

Una forma de ver esta ecuación es utilizar diagramas en bloques como se puede ver en la Figura 7.9.

ẋ1 = s 1 x1 + u
ẋ2 = s 2 xs + u
..
.
ẋn = s n xn + u
y = r 1 x1 + r 2 x2 + . . . + r n xn + b0 u
En este caso  
s1 0 ... 0
 0 s2 ... 0 
A=
 ...

... ... ... 
0 0 . . . sn
 
1

 1 

B= .. 
 . 
1
 
C= r1 r2 ... rn
y D = b0 . Si las raı́ces son reales, se podrı́a implementar en hardware. En cualquier otro caso sólo servirı́a
desde un punto de vista teórico.

Polos de H(s) con Raı́ces Repetidas

Cuando el sistema tiene raı́ces repetidas, la expansión en términos de fracciones parciales no es tan
simple. En este caso, lo que se tiene es algo de la forma

H(s) = bo + H1 (s) + . . . + Hn̄ (s) (7.24)


7.4. FORMAS CANÓNICAS 97

Figura 7.9: Representación en diagramas en bloques de la forma canónica de Jordan cuando las raı́ces son
diferentes. Figura tomada de [12].

donde n̄ < n es el número de polos diferentes de H(s), y

r1,i r2,i rki ,i


Hi (s) = + + ... +
s − si (s − si )2 (s − si )ki

con ki como la multiplicidad del polo i (i = 1, . . . , n̄). El último término se puede ver como una cadena de
1
ki bloques idénticos con una función de transferencia del tipo s−s i
. En la Figura 7.10 se ilustra este hecho.
La representación serı́a

ẋ1,i = si x1,i + u
ẋ2,i = x1,i + si x2,i
..
.
ẋki ,i = xki −1,i + si xki ,i
yi = r1,i x1,i + r2,i x2,i + . . . + rki ,i xki ,i
98 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN

Figura 7.10: Representación en diagramas en bloques de la forma canónica de Jordan cuando las raı́ces son
repetidas. Figura tomada de [12].

En este caso si definimos xi = [x1,i , x2,i , . . . , xki ,i ]> , se tiene la siguiente representación

ẋi = A i xi + bi u
yi = C i xi

donde  
si 0 ... 0

 1 si ... 0 

Ai = 
 0 1 ... 0 

 ... ... ... ... 
0 0 . . . si
 
1

 0 

Bi =  .. 
 . 
0
 
C= r1,i r2,i ... rki ,i
La matriz Ai consiste en dos diagonales: la diagonal principal con los polos más una subdiagonal de unos.
En álgebra esto se conoce como la Jordan form (si se tomara otra nomenclatura, los unos irı́an en la parte
superior).
Por (7.24) se tienen n̄ subsistemas de este mismo calibre. Por lo tanto, el sistema general consistirı́a
en concatenar cada uno de ellos, definiendo x = [x1 , x2 , . . . , xn̄ ]> , con
 
A1 0 . . . 0
 0 A2 . . . 0 
A=  ... ... ... ... 

0 0 . . . An̄
 
B1
 B2 
 
B= . 
 .  .
Bn̄
 
C = C1 C2 . . . Cn̄
y D = b0 .
EJEMPLOS MATLAB/SIMULINK
7.5. EQUILIBRIO 99

7.5. Equilibrio
Asumamos que se tiene un sistema que puede ser descrito mediante la siguiente ecuación diferencial

ẋ = f (t, x) (7.25)

dónde x ∈ Rn es el estado del sistema, t ≥ 0, con una condición inicial x(t0 ) = x0 , siendo t0 el valor inicial del
tiempo. Por lo general, no existen reglas generales que permitan encontrar de manera explı́cita las soluciones
del sistema descrito mediante la Ecuación (7.25). En este caso, el análisis de este tipo de problemas se realiza
de dos formas: i) un análisis cuantitativo mediante el cual se haya de manera explı́cita la solución de (7.25)
utilizando métodos numéricos y aproximaciones; o ii) un análisis cualitativo, en el cual no se busca una
solución explı́cita de la solución de (7.25), sino que el sistema es estudiado gracias al comportamiento de
la familia de soluciones del problema en cuestión. Nosotros enfocaremos este tutorial en este segundo ı́tem,
ya que los resultados principales de este análisis incluyen las propiedades de estabilidad de un punto de
equilibrio (o posición de reposo), y el acotamiento de las soluciones de ecuaciones diferenciales de la forma
definida en (7.25).
Empecemos nuestro análisis por definir ciertas propiedades básicas en nuestro problema. La ecuación
diferencial que nos atañe está definida por intermedio de la Ecuación (7.25), dónde x ∈ R n . Para definir el
dominio de f tenemos que considerar dos opciones:

1. Si hablamos de resultados globales debemos asumir que f : R+ × Rn 7→ Rn , dónde R+ = [0, +∞) es


el dominio del tiempo.
2. Si estamos considerando resultados locales debemos asumir que f : R + × B(h) 7→ Rn , para un cierto
h tal que B(h) = {x ∈ Rn : |x| < h}, y | · | es cualquiera de las normas en Rn . Esto quiere decir que
estamos limitando nuestro análisis a una cierta bola de radio h donde está definido nuestro estado x.

Algunas veces se asume que t ∈ R, pero nosotros asumiremos en lo que resta que t ∈ [t 0 , +∞), dónde t0 ≥ 0.
En el siguiente análisis asumiremos que para un determinado t0 , y una condición inicial x(t0 ) = x0 , el sistema
de la Ecuación (7.25) posee una solución única que llamaremos φ(t, t 0 , x0 ). Esta solución está definida para
todo t ≥ t0 y depende de manera continua de los datos iniciales, i.e., (t0 , x0 ). Uno de los casos particulares en
los que esta aseveración es cierta es cuando f satisface la condición de Lipschitz que definimos a continuación.

Definition 16 Condición de Lipschitz: Sea D un conjunto tal que D ⊂ R n . Llamemos C(D) al conjunto
donde todos los elementos de f son continuos, i.e., f ∈ C(D). Decimos que f ∈ C(D) satisface la condición
de Lipschitz en D (con respecto a x) con constante Lipschitz L si

|f (t, x) − f (t, y)| ≤ L|x − y| (7.26)

para todo (t, x), (t, y) que pertenezcan a D. En este caso, la función f es continua según Lipschitz en x.

La Definición 16 es importante porque nos permite establecer el siguiente teorema.

Theorem 7.5.1 Existencia Local y única: Sea f (t, x) una función continua en todo t que satisface (7.26)
para todo x, y ∈ B = {x ∈ Rn : ||x − x0 || ≤ r} y para todo t ∈ [t0 , t1 ]. Existe pues un determinado δ > 0 tal
que la ecuación
ẋ = f (t, x) con x(t0 ) = x0
tiene una solución única sobre [t0 , t0 + δ].

Lo que nos quiere decir el Teorema 7.5.1 es que si para cierto xm → x0 , entonces la trayectoria φ(t, t0 , xm ) →
φ(t, t0 , x0 ) de manera uniforme en t en |t − t0 | ≤ δ para cierto δ > 0.
Una vez establecidas estas condiciones, podemos definir el punto de equilibrio.

Definition 17 Un punto xe ∈ Rn se dice que es un punto de equilibrio de la Ecuación (7.25) (en un tiempo
t∗ ∈ R+ ) si,
f (t∗ , xe ) = 0 ∀t ≥ t∗
100 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN

Nótese que para sistemas autónomos (aquellos en los cuales la Ecuación (7.25) no depende del tiempo), un
punto xe ∈ Rn es un punto de equilibrio en un determinado tiempo t∗ si y sólo si es un punto de equilibrio
para todo tiempo. Nótese también que si xe es un punto de equilibrio en t∗ , entonces la transformación
τ = t − t∗ reduce la Ecuación (7.25) a
dx
= f (τ + t∗ , x)

y por ende, xe es un punto de equilibrio en τ = 0. Es por ello que se asumirá que t∗ = 0, y omitiremos su
uso en lo que resta del documento. Además, si x(t0 ) = xe , el sistema está en reposo desde el inicio, por lo
cual no tiene porque desplazarse de su punto de equilibrio.
Ejemplo [14]: Consideremos el sistema descrito por

ẋ1 = x2
ẋ2 = − gl sin(x1 ) − k
m x2

dónde g, l, m, k > 0. Este sistema describe de forma simple el péndulo sin fricción, y como se puede ver tiene
infinitos puntos de equilibrio localizados en (πn, 0), n = 0, ±1, ±2, . . .. Fı́sicamente sólo tiene dos puntos de
equilibrio, y los demás son la repetición de los dos primeros.
Para poder definir ciertas caracterı́sticas de un punto de equilibrio, introducimos la siguiente definición.

Definition 18 Un punto xe de (7.25) se dice que es un punto de equilibrio aislado si existe una constante
r > 0 tal que B(xe , r) ⊂ Rn no contiene más puntos de equilibrio de (7.25) que xe . En este caso, la bola de
radio r y centro xe se define como B(xe , r) = {xe ∈ Rn : |x − xe | ≤ r}.

Como podemos observar, todos los puntos de equilibrio de la Ecuación (7.27) son aislados en R 2 . Sin embargo,
existen sistemas en los cuales los puntos de equilibro no son aislados.
Ejemplo [?]: Consideremos el sistema

ẋ1 = −ax1 + bx1 x2


ẋ2 = −bx1 x2

dónde a > 0 y b > 0 son constantes. Queda claro que x1e = 0, por lo cual cualquier punto en el eje positivo
de x2 es un punto de equilibrio de (7.27). Ası́ pues, el punto de equilibrio no es aislado.
Es claro que existen casos en los cuales no existen puntos de equilibrio. Por ejemplo, tomemos el
siguiente ejemplo
ẋ1 = 2 + sin(x1 + x2 ) + x1
ẋ2 = 2 + sin(x1 + x2 ) − x1
En lo que nos resta, asumiremos que los puntos de equilibrio son aislados. También asumiremos que el punto
aislado de equilibrio que analizaremos es xe = 0. Por qué? Asumamos que xe 6= 0 es un punto de equilibrio
de (7.25). Si definimos e = x − xe , entonces e = 0 es un punto de equilibrio de

ė = f (t, e + xe ) (7.27)

Como las propiedades de (7.27) y (7.25) son las mismas, podemos asumir que el punto de equilibrio está lo-
calizado en xe = 0, el cual es conocido como el punto de equilibrio trivial de (7.25).

7.6. Estabilidad y Acotamiento

7.6.1. Conceptos Locales

El siguiente análisis definirá la estabilidad de un punto de equilibrio x e = 0 de (7.25), mas no de


un conjunto de puntos de equilibrio. La razón primordial de ello es que si quisiéramos hacer lo último,
tendrı́amos que introducir el concepto de distancia, el cual puede llegar a confundir inicialmente al lector.
En una versión más detallada de este tutorial, es menester incluir este tipo de definiciones.
7.6. ESTABILIDAD Y ACOTAMIENTO 101

Definition 19 Se dice que el punto de equilibrio xe de (7.25) es estable en el sentido de Lyapunov


(SISL) si para cualquier  > 0 y cualquier t0 ∈ R+ existe un δ(, t0 ) > 0 tal que

|φ(t, t0 , x0 )| <  ∀t > t0 (7.28)

cuando
|x0 | < δ(, t0 ) (7.29)

Gráficamente esto podrı́a verse como en la Figura 7.11, para el caso de n = 2.

x2

φ(t,t0,x 0)

x1
δ(ε,t0)

Figura 7.11: SISL de un punto de equilibrio.

Cabe reafirmar que es el punto de equilibrio el que es estable, mas no el sistema. Además, como en
la definición se tienen que cumplir las Ecuaciones (7.28) y (7.29) para cualquier  > 0 y cualquier t 0 ∈ R+ ,
no es lógico tratar de probar que un punto de equilibrio es estable por medio de simulaciones. La simulación
sólo ayudarı́a para dar una intuición sobre lo que podrı́a suceder, mas no es en ningún caso una prueba
matemática.
En la Definición 19, δ(, t0 ) depende de  y t0 . Si δ es independiente de t0 , i.e., δ = δ(), entonces se
dice que el punto de equilibrio xe = 0 de (7.25) es uniformemente estable.

Definition 20 Se dice que el punto de equilibrio xe de (7.25) es asintóticamente estable (AS) si:

1. Es SISL.
2. Para cualquier t0 ≥ 0, existe un η(t0 ) > 0, tal que

lı́m φ(t, t0 , x0 ) = 0 si |x0 | < η(t0 )


t→∞

El dominio de atracción del punto de equilibrio xe de (7.25) es el conjunto de todas las condiciones
iniciales x0 ∈ Rn tales que φ(t, t0 , x0 ) → 0 cuando t → ∞ para un cierto t0 ≥ 0. Si la segunda condición es
válida, se dice que el punto de equilibrio xe de (7.25) es atraı́do.
Si η en la segunda condición no depende de t0 , y además el punto de equilibrio xe de (7.25) es
uniformemente estable, se dice que el punto de equilibrio xe de (7.25) es uniformemente asintóticamente
estable (UAS).

Cuál es la diferencia entre un punto de equilibrio que es SISL y uno que es AS? Cuando hablamos de SISL se
dice que el sistema tiene unas condiciones iniciales tales que si el sistema está cerca de su punto de equilibrio,
entonces al final el sistema se mantendrá cerca del punto de equilibrio. Sin embargo, en la definición de AS lo
que se tiene es que si el sistema arranca cercano al punto de equilibrio, entonces además de que la trayectoria
102 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN

se mantendrá cerca, ésta convergerá al punto de equilibrio.

Ejemplos:

ẋ = 0: Este sistema tiene un punto de equilibrio que es SISL, más en ningún momento es AS ya que
las trayectorias no convergen al punto de equilibrio.
ẋ = −ax: Si asumimos que a > 0, el punto de equilibrio es xe = 0, y como se puede ver este es SISL
pero además como la trayectoria es φ(t, t0 , x0 ) = x0 e−at , tomando el lı́mite en el infinito, se puede ver
que la trayectoria converge a 0, con lo cual es AS.

Este último ejemplo nos muestra una caracterı́stica adicional, y es cuán rápido las trayectorias con-
vergen al punto de equilibrio. A continuación la definimos.

Definition 21 El punto de equilibrio xe = 0 es exponencialmente estable (ES) si existe una constante


α > 0, y para cualquier  > 0, existe un δ() > 0 tal que
|φ(t, t0 , x0 )| ≤  exp−α(t−t0 )
para todo t ≥ t0 cuando |x0 | < δ() y t0 ≥ 0.

La Figura 7.12 muestra el comportamiento de φ(t, t0 , x0 ) en las vecindades de un punto de equilibrio xe = 0


que es ES.

φ(t)

ε e- αt
ε

x0
δ
t

Figura 7.12: ES de un punto de equilibrio.

Si un punto de equilibrio xe = 0 de (7.25) no es SISL, entonces se dice que es inestable. Sin embargo,
pueden existir casos en los que las soluciones de φ(t, t0 , x0 ) tienden a cero cuando t aumenta, por lo cual los
conceptos de inestabilidad y atracción pueden ser compatibles.
Hasta ahora sólo hemos considerado propiedades locales del punto de equilibrio. A continuación enun-
ciaremos ciertas propiedades globales.

7.6.2. Conceptos Globales

Definition 22 La solución de φ(t, t0 , x0 ) de (7.25) es acotada si existen un β > 0 tal que


|φ(t, t0 , x0 )| < β t ≥ t0
7.6. ESTABILIDAD Y ACOTAMIENTO 103

El sistema (7.25) posee estabilidad según Lagrange si para cada t0 ≥ 0 y x0 , la solución φ(t, t0 , x0 ) es acotada.

En la definición anterior β podı́a depender de t0 . Si esta constante es tal que para cualquier α > 0 y cualquier
t0 ∈ R+ , β = β(α) > 0 (independiente de t0 ), se tiene que si |x0 | < α, entonces |φ(t, t0 , x0 )| < β para todo
t ≥ t0 .

Definition 23 Las soluciones de la Ecuación (7.25) son uniformemente y últimamente acotadas


(UUB) si existe una constante B > 0 (que es la constante de acotamiento), y si para cualquier α > 0 y
t0 ∈ R+ , existe un T = T (α) (independiente de t0 ) tal que

|x0 | < α ⇒ |φ(t, t0 , x0 )| < β t ≥ t0 + T

Gráficamente esta última definición puede verse ilustrada en la Figura 7.13. Lo que se ilustra en esta figura
es que si bien se pueden llegar a tener oscilaciones elevadas en un principio, luego de un tiempo T (α), las
trayectorias se ven acotadas por una especie de cilindro de radio B.

φ(t)

x0
α B t

T(α)

Figura 7.13: UUB.

En la definición de AS si el dominio de atracción del punto de equilibrio x e = 0 es Rn , se dice que


xe = 0 de (7.25) es globalmente asintóticamente estable (GAS). Finalmente, el punto de equilibrio
xe = 0 de (7.25) es globalmente exponencialmente estable (GES) si existe un α > 0, y para cualquier
β > 0 existe un k(β) > 0 tal que |φ(t, t0 , x0 )| ≤ k(β)|x0 |e−α(t−t0 ) para todo t ≥ t0 cuando |x0 | < β.
104 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN
Capı́tulo 8

Variables de Estado: Diseño

Entre tenerle miedo a todo y tenerle miedo a mi propio miedo, elijo esto último, no se olvide que soy
policı́a y que si le tuviera miedo a todo no podrı́a trabajar. Pero si le tiene miedo a sus miedos su vida
se puede convertir en una observación constante del miedo, y si éstos se activan, lo que se produce es
un sistema que se alimenta a sı́ mismo, un rizo del que le resultarı́a difı́cil escapar, dijo la directora.
2666, Roberto Bolaño

Las notas de este capı́tulo han sido sacadas de varios libros, dentro de los que se destacan [22, 7, 11,
32, 12, 4].

8.1. Introducción
Normalmente estamos interesados en controlar el sistema con una señal de control u(t), que está ligada
a las variables de estado del sistema. Este controlador opera bajo la información disponible, y es un sistema
de compensación bastante utilizado para optimización de sistemas.
Los conceptos de controlabilidad y observabilidad fueron introducidos por R. E. Kalman en los años
50s para explicar porqué un método de diseño de compensadores para sistemas inestables por medio de la
cancelación de los polos en el semiplano derecho por ceros en el mismo semiplano no siempre funcionaba.
Kalman demostró que una cancelación perfecta polo-cero podrı́a resultar en un sistema inestable incluso
teniendo una función de transferencia estable.

Ejemplo 8.1.1 [12] Asumamos que se tiene el sistema descrito por las ecuaciones de estado,

ẋ1 = 2x1 + 3x2 + 2x3 + x4 + u


ẋ2 = −2x1 − 3x2 − 2u
ẋ3 = −2x1 − 2x2 − 4x3 + 2u
ẋ4 = −2x1 − 2x2 − 2x3 − 5x4 − u
y = 7x1 + 6x2 + 4x3 + 2x4

La función de transferencia está dada por

s3 + 9s2 + 26s + 24
H(s) = C(sI − A)−1 B =
s4 + 10s3 + 35s2 + 50s + 24
Factorizando, se puede ver como un sistema de cuarto orden se reduce a uno de primer orden de la forma

(s + 2)(s + 3)(s + 4) 1
H(s) = =
(s + 1)(s + 2)(s + 3)(s + 4) s+1

Porqué sucede esto?

105
106 CAPÍTULO 8. VARIABLES DE ESTADO: DISEÑO

Por intermedio de un cambio de variables (que se verá más adelante), el sistema puede ser escrito
como
ż1 = −z1 + u
ż2 = −2z2
ż3 = −3z3 + u (8.1)
ż4 = −4z4
y = z 1 + z2
El diagrama en bloques que se muestra en la Figura 8.1 nos ilustra que:

La variables z1 se ve afectada por la entrada u y es visible por la salida.


La variables z2 no se ve afectada por la entrada u, pero sı́ es visible por la salida.
La variables z3 se ve afectada por la entrada u, pero no es visible por la salida.
La variables z4 no se ve afectada por la entrada u y no es visible por la salida.

u z1
R
+ y

−1

R
+ z2

−2

R
+ z3

−3

R z4
+

−4

Figura 8.1: Diagrama en bloques para (8.1).

Como Kalman demostró, todo sistema de la forma genérica,


ẋ = Ax + Bu
y = Cx
puede ser transformado en susbistemas como los del ejemplo anterior. Para este caso especı́fico, se concluye
que
8.2. TRANSFORMACIÓN DE LAS VARIABLES DE ESTADO 107

1. El primer subsistema es controlable y observable.


La parte que es controlable se dice que es estabilizable, mientras que la que es observable se dice que
es detectable.

2. El segundo subsistema no es controlable, pero sı́ es observable.

3. El tercer subsistema es controlable, pero no es observable.

4. El último subsistema no es ni controlable ni observable.

La función de trasferencia está determinada sólo por el subsistema que es tanto controlable como observable.
Se dice que un sistema que contiene un subsistema NO controlable es NO controlable; un sistema que contiene
un subsistema NO observable es NO observable.
Si existe al menos una cancelación de polos y ceros inestables, cualquier perturbación llevarı́a al sistema
a volverse inestable. Sin embargo, en este caso no habrı́a problema ya que los polos eran todos estables, por
lo cual la cancelación polos/ceros no nos afectaba en deması́a.

8.2. Transformación de las Variables de Estado


Muy frecuentemente las variables de estado que se utilizan no son las mejores en la formulación de un
sistema dinámico
ẋ = Ax + Bu
y = Cx + Du
Esta es una de las razones por las que pasar de G(s) a (A, B, C, D) no es único (realization problem).
Si se escoge
z = Tx
ż = T ẋ
T −1 ż = Ax + Bu
T −1 ż = AT −1 z + Bu
Por lo que, la normal/modal canonical form viene siendo

ż = T AT −1 x + T Bu
y = CT −1 x + Du

Lo que se puede escribir de forma más sencilla como

ż = Āz + B̄u
y = C̄z + D̄u

Por ejemplo, en el caso de calcular eAt , si la matriz Ā fuera diagonal, entonces serı́a más sencillo calcular
eĀt que eAt , ya que los valores propios no se ven afectados bajo una transformación ideal, i.e.,

|λI − T AT −1 | = |T (λI − A)T −1 |


= |T ||λI − A||T −1 |
= |T ||T −1 ||λI − A|
= |λI − A|

El problema que surge entonces es escoger T de tal forma que Ā = T AT −1 sea diagonal.

Definition 24 Una valor propio λ ∈ C de A satisface

λe = Ae

donde A ∈ Rn×n , e ∈ Cn . Este último es el vector propio de A asociado con λ.


108 CAPÍTULO 8. VARIABLES DE ESTADO: DISEÑO

Una de los métodos para hallar T es utilizando la noción de vectores propios agrupados todos en la matriz
T −1 . Sin embargo, el método que se describe a continuación sólo es válido si los n valores propios son
diferentes, i.e., no existe ninguno que sea repetido.
Para hacer la explicación más sencilla, supongamos que A tiene tres vectores propios diferentes
e1 , e2 , e3 . A continuación escogemos las columnas de T −1 como cada uno de los vectores propios, i.e.,
 
| | |
T −1 =  e1 e2 e3 
| | |

Luego, se puede obtener T , y por lo tanto calcular Ā, la cual será una matriz diagonal que tendrá en su
diagonal los valores propios λi , i = 1, . . . , n. Esto nos permitirı́a encontrar la modal canonical form si es que
existe.

Ejemplo 8.2.1 Encontrar la modal canonical form del siguiente sistema, si es que existe.
   
−1 −2 3
ẋ = x+ u
0 −2 1
y = [2 − 6]x

En primera instancia, tendrı́amos que hallar los valores propios de A por medio de |λI − A| = 0, lo que en
este caso implica que λ = {−1, −2}.
Luego, para encontrar T se necesita encontrar una base de vectores propios, i.e., (λ i I − A)ei = 0,
i = 1, 2. Esto implica que si λ1 = −1 se puede escoger que e1 = (1, 0)> , y que si λ2 = −2 se puede escoger
que e2 = (2, 1)> . Por lo tanto se tendrı́a que
 
−1 1 2
T =
0 1

y
 
1 −2
T =
0 1
Por lo cual  
−1 0
−1
T AT =
0 −2
 
1
TB =
1

CT −1 = [2, −2]

Otra forma más sencilla de obtener la matriz T cuando los valores propios son todos diferentes, es utilizar
 
λ1 0 ... 0
 0 λ2 0 0 
 
Ā =  .. 
 0 0 . 0 
0 0 ... λn

Con  
1 1 ... 1

 λ1 λ2 ... λn 

T −1

= λ21 λ22 ... λ2n 

 .. .. .. .. 
 . . . . 
λ1n−1 λ2n−1 ... λnn−1
8.3. DISEÑO DE CONTROLADORES UTILIZANDO STATE FEEDBACK 109

Ejemplo 8.2.2 Encontrar la modal canonical form del siguiente sistema, si es que existe.
   
0 1 0 0
ẋ =  0 0 1 x +  0 u
−18 −27 −10 1
y = [1 0 0]x

En primera instancia, tendrı́amos que hallar los valores propios de A por medio de |λI − A| = 0, lo que en
este caso implica que λ = {−1, −3, −6}.
Si T se escoge como
 
1 1 1
T −1 =  −1 −3 −6 
1 9 36
Se puede comprobar que
 
−1 0 0
T AT −1 = Ā =  0 −3 0 
0 0 −6
 
1/10
B̄ =  −1/6 
1/15

C̄ = [1, 1, 1]
También podrı́a comprobarse que la escogencia de dicha matriz T se puede obtener por el método de los
vectores propios descrito previamente.

Vale resaltar nuevamente que los métodos descritos son válidos si se tienen n valores propios diferentes. Si uno
de los valores propios es repetido, el método falla, ya que no se tendrán n vectores propios independientes.
Otra de las cosas que valdrı́a resaltar es el hecho de que el polinomio ∆(λ) = |λI − A| = 0 corresponde
al polinomio caracterı́stico. Esto se hace más evidente cuando uno recuerda la definición de función de
transferencia que se utilizó previamente.

8.3. Diseño de Controladores Utilizando State Feedback


La idea general de hacer todas estas transformaciones y saber cuáles estados están disponibles con
respecto a la entrada, es poder diseñar controladores para que se cumplan ciertas caracterı́sticas. En lı́neas
generales, lo que se pretende es obtener una ganancia en función del estado, de tal forma que la entrada
cambie, y haciendo que los polos se ubiquen donde uno desea. La Figura 8.5 muestra cómo se retroalimentarı́a
el estado por medio de una ganancia K. La pregunta serı́a entonces, cuándo se puede utilizar la técnica
conocida como state-feedback para ubicar los polos de lazo cerrado en cualquier punto?

r u + R
x
+ B C y
− +

Figura 8.2: Realimentación de estado por medio de una ganancia K.


110 CAPÍTULO 8. VARIABLES DE ESTADO: DISEÑO

Ejemplo 8.3.1
   
−1 a 0
ẋ = x+ u
3 −2 1
La idea es poder diseñar un controlador lineal de la forma u = −Kx tal que los polos queden ubicados donde
se desee. Por lo tanto, l reemplazar u, se tendrı́a un sistema de la forma
 
−1 a
ẋ = x
3 − K1 −2 − K2

Los polos de lazo cerrado están determinados por el polinomio caracterı́stico, i.e.,

|λI − (A − BK)| = 0

λ2 + λ(K2 + 3) + 2 + K2 + a(K1 − 3) = 0
Supongamos que queremos que los polos de lazo cerrado estén ubicados en -2, -3, i.e.,

(λ + 2)(λ + 3) = 0

λ2 + 5λ + 6 = 0
2
Entonces, se tendrı́a finalmente que escoger K2 = 2, y K1 = a + 3, con a 6= 0.

Qué sucederı́a en el problema anterior si a = 0? En ese caso, no se pueden colocar los polos de lazo cerrado
donde uno lo desea, ya que el sistema no serı́a controlable. La siguiente definición ilustra mejor este concepto.

Definition 25 El sistema
ẋ = Ax + Bu
es controlable si y sólo si es posible transferir, por medio de la entrada u(t), el sistema de cualquier estado
inicial x(t) = x0 a cualquier otro estado x(T ) = xT en un tiempo finito T − t ≥ 0.

En R3 serı́a algo como se ve en la Figura 8.3.

x3

xf = x(T )
x0

x2

x1
Figura 8.3: Comportamiento de la definición de controlabilidad en R3 .
8.3. DISEÑO DE CONTROLADORES UTILIZANDO STATE FEEDBACK 111

Definition 26 El sistema
ẋ = Ax + Bu
se dice que es controlable si para cualquier polinomio αc (s) de orden n existe un único control u = −Kx
tal que el polinomio caracterı́stico de A − BK sea igual a αc (s).

Otra forma de comprobar si un sistema es controlable o no, es por medio de las caracterı́sticas algebráicas
de sus matrices. Para definir correctamente esto, se necesita recordar lo siguiente.

Theorem 8.3.1 El rango de una matriz A es el número de columnas (o filas) linealmente independientes.

Definition 27 Un conjunto de vectores {v1 , v2 , . . . , vn } son linealmente independientes si

α 1 v1 + . . . α n vn = 0 ⇒ α 1 = α 2 = . . . = α n = 0

Si no, son linealmente dependientes, ya que al menos un αi 6= 0 uno podrı́a expresar el vector asociado con
él como una combinación lineal en términos de los otros vectores.

Ejemplo 8.3.2 Los vectores [1, 3]> , [4, 5]> , [6, 4]> NO son independientes, porque se pueden escoger
α1 = −2, α2 = 2, y α3 = −1, tal que α1 [1, 3]> + α2 [4, 5]> + α3 [6, 4]> = 0.

Theorem 8.3.2 El sistema


ẋ = Ax + Bu A ∈ Rn×n
se dice que es controlable si rank(C) = n donde

. . .
C = [B .. AB .. . . . .. An−1 B]

es la matriz de controlabilidad.

Ejemplo 8.3.3 Dado el sistema


   
−1 0 1
ẋ = x+ u
0 −3 1

Determina si

1. El sistema es controlable?

2. Si es ası́, determine las ganancias K = [K1 , K2 ] tal que los polos de lazo cerrado estén ubicados en
λ ∈ {−2, −2}.

Una de las ventajas de las formas canónicas se puede ver a continuación. Si el sistema está en la forma
canónica controlable, se tiene que
 
0 1 0 ... 0
 0 0 1 ... 0 
 
A=
 . . . . . . . . . . . . . . . 

 0 0 0 ... 1 
−a0 −a1 −a2 . . . −an−1
 
0

 0 

B= .. 
 . 
1
112 CAPÍTULO 8. VARIABLES DE ESTADO: DISEÑO

Si se quisieran ubicar los polos en unos puntos determinados con K = [K1 , . . . , Kn ], los valores propios de
A − BK están dados por las raı́ces de |λI − (A − BK)| = 0, los cuales son

λn + (an−1 + Kn )λn−1 + (an−2 + Kn−1 )λn−2 + . . . + a0 + K1 = 0

Si se comparara con el polinomio deseado,

λn + β1 λn−1 + . . . + βn−1 λ + βn = 0

Por lo tanto, serı́a muy sencillo obtener los valores de las ganancias Ki , de la forma

K1 = β n − a 0

K2 = βn−1 − a1
Y ası́ sucesivamente.
Sin embargo, no es necesario transformar el sistema en la forma canónica controlable para hacer la
ubicación de polos. Se puede hacer esto directamente con el sistema (A, B) y luego calcular la ecuación
caracterı́stica con A − BK directamente.
Un test interesante con el cual se puede verificar la controlabilidad de un sistema es el PBH test.

.
Theorem 8.3.3 El par (A, B) es controlable si y sólo si rank[A − λI .. B] = n para todos los valores propios
de A.

El desarrollo hasta ahora se ha basado en state feedback u = −Kx. Se tendrı́a la misma libertad si se
escogieran los polos si se utilizara output feedback, u = −Ky?

Ejemplo 8.3.4 [22] Considere la función de transferencia

Y (s) 1
=
U (s) s(s + 1)(s + 2)

Se desea diseñar este servosistema para que lo polos en lazo cerrado estén ubicados en −2 ± j3,464 y −10.
Se supone que la configuración del sistema es la que se ve en la Figura 8.4.
x1
r + x2 y = Cx y = x1
K1 ẋ = Ax + Bu
+
− − − x3

K2

K3

Figura 8.4: Realimentación de estado con referencia.

El sistema en términos de las variables de estado se ve como


   
0 1 0 0
ẋ =  0 0 1 x +  0 u
0 −2 −3 1
y = [1 0 0]x

Y además, a partir de la Figura... es claro que u = −(K2 x2 + K3 x3 ) + K1 (r − x1 ) = −Kx + K1 r.


8.3. DISEÑO DE CONTROLADORES UTILIZANDO STATE FEEDBACK 113

En primera instancia tenemos que determinar si el sistema es controlable. Para ello, se define la
matriz de controlabilidad
2
C = [B  | AB | A B] 
0 0 1
=  0 1 −3 
1 −3 7
Por lo tanto, se puede ver que el rank(C) = 3, y por ende, el sistema es controlable. Ahora sı́ podemos mirar
el polinomio caracterı́stico |λI − (A − BK)| = 0, y compararlo con el deseado. De esta forma se obtienen los
dos polinomios a comparar, i.e.,

λ3 + λ2 (K3 + 3) − λ(2 − K2 ) + K1 = 0

Y el polinomio deseado serı́a


λ3 + 14λ2 + 56λ + 160 = 0
Por lo tanto, K = [160, 54, 11]. El sistema finalmente quedarı́a de la forma
   
0 1 0 0
ẋ =  0 0 1 x +  0 r
−160 −56 −14 160
y = [1 0 0]x

Para un sistema de una entrada y una salida, la fórmula de Ackermann es útil para calcular la matriz K de
u = −Kx, dada la ecuación caracterı́stica

q(λ) = λn + αn−1 λn−1 + . . . + α0

En este caso,
K = [0 0 . . . 1]C −1 q(A)
donde
q(A) = An + αn−1 An−1 + . . . + α0 I
y C es la matriz de controlabilidad.

Ejemplo 8.3.5 Se tiene una función de transferencia


Y (s) 1
= 2
U (s) s
determinar K tal que los polos estén ubicados en −1 ± j.

En este caso, el polinomio caracterı́stico serı́a de la forma

q(λ) = λ2 + 2λ + 2

Por lo tanto se tendrı́a que α1 = α0 = 2. La representación de estado está dada por


   
0 1 0
ẋ = x+ u
0 0 1

Por ende, la matriz de controlabilidad estarı́a dada por


 
0 1
C = [B|AB] =
1 0

Lo cual implica que el sistema es controlable (Nótese bien que para obtener K utilizando esta fórmula,
se requiere que la inversa de la matriz C exista, y esto se da esencialmente al garantizar que C
es full rank, i.e., cuando el sistema es controlable). Por lo tanto, podrı́amos calcular K de la forma

K = [0 1]C −1 q(A)
114 CAPÍTULO 8. VARIABLES DE ESTADO: DISEÑO

donde    
1 0 −1 0 1
C −1 = =
−1 −1 0 1 0
y
 2      
0 1 0 1 1 0 2 2
q(A) = +2 +2 =
0 0 0 0 0 1 0 2
Por lo tanto,
K = [2 2]

8.4. Diseño de Estimadores en el Espacio de Estado


En lo que hemos visto, es necesario tener acceso a todas las variables de estado. Recordemos que la
topologı́a de state feedback viene dada por el diagrama de la Figura 8.5.
r u + R
x
+ B C y
− +

Figura 8.5: Realimentación de estado por medio de una ganancia K.

Si recordáramos el ejemplo anterior, hay sistemas que no tienen todas sus variables de estado accesibles.
Por lo tanto, existen técnicas que proveen un estimado de los estados inaccesibles. Un sistema dinámico cuyas
variables son las variables de estado de otro sistema se conoce como un observador de este sistema. El término
fue acuñado por D. Luemberger en 1963, el cual demostró que para cualquier sistema lineal observable, se
puede diseñar un observador tal que el error de lo estimado (i.e., la diferencia entre el estado del sistema
actual y el observado), tiende a cero asintóticamente tan rápido como uno lo desee. Esta técnica de diseño
es equivalente al diseño de sistemas retroalimentados por pole placement.
Un observador es un dispositivo que reconstruye una señal, el cual provee el estimado de los estados
inaccequibles como e ve en la Figura 8.6.
r u y
+ Plant (A, B, C)


K Observer

Figura 8.6: Observador asociado con la planta.

Asumamos que existe una planta cuyo comportamiento está dado por

ẋ = Ax + Bu
y = Cx

La entrada u y la salida y están conectadas al sistema estimado como se muestra en la Figura 8.7.
Si el estado del sistema es ẑ, entonces por inspección se tiene

ẑ˙ = (A − LC)ẑ + Bu + Ly
8.4. DISEÑO DE ESTIMADORES EN EL ESPACIO DE ESTADO 115

u B

+
y L + ẑ˙ R ẑ ŷ
+ C
− +

Figura 8.7: Observador asociado con la planta.

Por lo tanto, el comportamiento dinámico de la diferencia entre los estados de los dos sistemas está dado por
ẑ˙ − ẋ = (A − LC)(ẑ − x)
Si se puede escoger L tal que A − LC tenga raı́ces con parte real negativa, entonces ẑ → x cuando t → ∞,
independientemente de la entrada u.

Definition 28 El sistema
ẋ = Ax + Bu
y = Cx
con condiciones iniciales x(0) = x0 es observable si el estado x(t) puede ser determinado por la entrada
u(s) y la salida y(s), 0 ≤ s ≤ t.

Theorem 8.4.1 El sistema


ẋ = Ax + Bu
y = Cx
. . . .
es observable si rank(O) = n, donde O = [C .. CA .. CA2 .. . . . .. CAn−1 ]> es la matriz de observabilidad.

Es claro que los polos del error de lazo cerrado ẑ˙ − ẋ = (A − LC)(z − x) pueden ser colocados en cualquier
posición (escogiendo L), siempre y cuando el par (A, C) sea observable.
Para un sistema de una entrada y una salida, también se pueden seleccionar los valores de L por medio
de la fórmula de Ackermann, con
L = [L1 L2 . . . Ln ]>
Si la ecuación caracterı́stica es
ρ(λ) = λn + βn−1 λn−1 + . . . + β0
En este caso,
L = ρ(A)O −1 [0 0 . . . 1]>
donde
ρ(A) = An + αn−1 An−1 + . . . + α0 I
y O es la matriz de observabilidad.

Ejemplo 8.4.1 Para el sistema    


2 3 0
ẋ = x+ u
−1 4 1
y = [1 0]x
asumamos que queremos tener un polinomio caracterı́stico de la forma
ρ(λ) = λ2 + 2ζωn λ + ωn2
donde ζ = 0,8 y ωn = 10.
Halle L para tal efecto.
116 CAPÍTULO 8. VARIABLES DE ESTADO: DISEÑO

Teniendo estos datos, se sabe entonces que β1 = 16 y que β0 = 100. Por ende, el polinomio caracterı́stico
utilizando la fórmula de Ackermann serı́a
 2      
2 3 2 3 1 0 133 66
ρ(A) = + 16 + 100 =
−1 4 −1 4 0 1 −22 177

donde  
1 0
O=
2 3
y  
−1 1 0
O =
−2/3 1/3
Por lo tanto,
L = [22 59]>
Esto se pudo haber obtenido como se habı́a venido haciendo hasta el momento.

Definition 29 El sistema
ẋ(t) = Ax + Bu
(8.2)
x(0) = x0
se dice que es stabilizable si existe una matriz K tal que para u = −Kx, el sistema en lazo cerrado

ẋ = (A − BK)x

es estable.

De manera informal, lo que nos plantea la definición es que (8.2) es stabilizable si y sólo si todos los modos
inestables son controlables.

Definition 30 El par (C, A) es detectable si existe una matriz L tal que A − LC, sea estable.

En otras palabras, desde el punto de vista de los valores propios se tiene que

λ{A − LC} = λ{A> − C > L> }

Entonces, (C, A) es detectable si y solo si (A> , C > ) es stabilizable.

8.5. Integrated Full-State Feedback and Observer


El compensador de variables de estado se construye a partir de la unión de la ley de control de lo que
se conoce como full-state feedback y el observador. El compensador se muestra en la Figura...
ANADIR FIGURA
Para el diseño se siguen los siguientes pasos:

1. Se asume que todas las variables de estado son medibles, y se utiliza una ley de control conocida como
full-state feedback control law. En realidad esto no es práctico ya que por lo general no es posible medir
todos los estados. En la práctica sólo algunos estados son medibles, o algunas combinaciones de ellos
existen.
2. Se construye un observador para estimar los estados que no se pueden sensar directamente, ni que
están disponibles como salidas. Estos observadores pueden ser full-state o de orden reducido (estos en
el caso que algunos estados estén disponibles como salidas, por lo cual no necesitan ser estimados).
3. Se requiere acoplar el observador con el full-state feedback control law. Esto último se conoce como
compensador.
8.5. INTEGRATED FULL-STATE FEEDBACK AND OBSERVER 117

4. Adicionalmente, se pueden considerar entradas de referencia para completar el diseño.

Para el 3er punto, se podrı́a tener que la ley de control está dada por

u(t) = −K x̂(t) (8.3)

Es esta una buena estrategia? Originalmente, K se diseñó para garantizar que el sistema en malla cerrada
fuera estable, i.e.,
det(λI − (A − BK)) = 0
tenı́a raı́ces ubicadas en el LHP. Si todos los estados estaban disponibles, entonces al seleccionar K para que
la premisa se cumpla, se tenı́a que x(t) → 0 cuando t → ∞ para cualquier condición inicial x(t 0 ). Ahora
bien, lo que se necesita es comprobar que con (8.3) el sistema sigue siendo estable. Para ello, se tiene que el
observador de estado viene dado por

x̂˙ = (A − BK − LC)x̂ + Ly (8.4)

como se ve en la Figura...
ANADIR FIGURA
El error de estimación utilizando el compensador de (8.4) darı́a que

ė = ẋ − x̂˙ = Ax + Bu − Ax̂ − Bu − Ly + LC x̂

Es decir
ė = (A − LC)e (8.5)
lo cual es equivalente al error de estimación que se obtuvo en el diseño del observador. Esto implica que el
error de estimación NO depende de la entrada.
Se tiene el sistema
ẋ = Ax + Bu
y = Cx
Si u = −Kx, entonces
ẋ = (A − BK)x + BKe (8.6)
donde x̂ = x − e. De forma matricial, combinando (8.5) y (8.6) tendrı́amos que
    
ẋ A − BK BK x
=
ė 0 A − LC e

El objetivo es verificar que la ley de control u = −K x̂ sigue siendo una buena solución para mantener el
sistema estable.
Para ello, recordemos que la ecuación caracterı́stica está dada por

det(λI − (A − BK))det(λI − (A − LC)) = 0

Si las raı́ces del polinomio det(λI − (A − BK)) = 0 están en el semi-plano izquierdo (lo cual es cierto por el
diseño de K), y si las raı́ces de det(λI − (A − LC)) = 0 están también en dicho semi-plano (lo cual es cierto
por el diseño del observador), entonces el sistema total serı́a estable. Por ende, el diseño de ambas cosas por
separado es válido, y esto se conoce como el separation principle.
Ası́ pues, todo se podrı́a resumir de la siguiente manera:

1. Determinar K tal que det(λI −(A−BK)) = 0 tenga raı́ces en el semi-plano izquierdo, y ubicar los polos
tal que se cumplan las especificaciones de diseño. La ubicación arbitraria de los polos está garantizada
por el hecho de que el sistema sea completamente controlable.
2. Determinar L tal que det(λI − (A − LC)) = 0 tenga raı́ces en el semi-plano izquierdo y ubicar polos
para cumplir los criterios de desempeño del observador. Esto se da porque el sistema es observable.
118 CAPÍTULO 8. VARIABLES DE ESTADO: DISEÑO

3. Conectar utilizando
u(t) = −K x̂
La función de transferencia del compensador serı́a

sX̂(s) = (A − BK − LC)X̂(s) + LY (s)

U (s) = −K X̂(s)
U (s) = (−K(sI − (A − BK − LC))−1 L)Y (s)
Capı́tulo 9

Control Multivariable

Lo expuesto en este capı́tulo está desglosado en el artı́culo [34]. Sin embargo, algunos ejemplo han
sido tomados de [1] y [31].

9.1. Introducción

Por lo general, en la industria siempre se tiene más de un lazo de control para poder fabricar sus
productos. Estos sistemas se conocen como sistemas multivariables o sistemas de múltiples entradas y salidas
(MIMO, por sus siglas en inglés). Algunos ejemplos comunes son:

Reactores quı́micos.

Columnas de destilación.

Intercambiadores de calor.

Por ejemplo, en un reactor quı́mico como el que se ve en la Figura..., las variables de interés son usualmente
la composición del producto y la temperatura de reacción.
ANADIR FIGURA
Por lo tanto, habrá un lazo dedicado a la composición, y otro a la temperatura. Sin embargo, cualquier
cambio en uno de los lazos estará afectando al otro por lo que ambos lazos deberán saber qué hace el otro
para ası́ poder cumplir sus objetivos de control. Este fenómeno es lo que se conoce como interacción de
lazo. Este tipo de interacciones debidas a la forma del proceso o a su diseño pueden causar problemas de
inestabilidad del sistema.

9.2. Análisis de los Sistemas Multivariables

9.2.1. Representación

Las técnicas de diseño de controladores se basa en modelos lineales por lo general por medio de
ecuaciones diferenciales que describen su comportamiento (también pueden existir métodos empı́ricos para
determinar la estructura del proceso).
Por lo general, este tipo de modelos se hace mediante aproximaciones de espacio de estado, o utilizando
el modelo de entrada/salida (i.e., funciones de transferencia).

119
120 CAPÍTULO 9. CONTROL MULTIVARIABLE

9.2.2. Modelos

Por lo general, los sistemas de dimensión elevada se pueden descomponer en subsistemas de 2 × 2, por
lo que la discusión a seguir se basará en procesos de dos entradas y dos salidas.
Estos modelos pueden asumir varios tipos de formas estructurales. Dos modelos comunes son las
representaciones P- y V-canonical que se muestran en la Figura...
ANADIR FIGURA
Con la estructura en P-canonical se tiene una interacción conocida como feedforwards, mientras que
la V-canonical posee un acople feedback. Los elementos Gkij corresponden a funciones de transferencia que
determinan las diversas relaciones entrada/salida.

P-canonical Representation

Como se puede ver en la Figura..., las salidas están determinadas por

y1 = u1 Gp11 + u2 Gp12

y2 = u1 Gp21 + u2 Gp22

Esto se puede ver de manera matricial como


y = Gp u

Es decir
    
y1 Gp11 Gp12 u1
=
y2 Gp21 Gp22 u2

V-canonical Representation

Como se puede ver en la Figura..., las salidas están determinadas por

y1 = (y2 Gv12 + u1 )Gv11

y2 = (y1 Gv21 + u2 )Gv22

Esto se puede ver de manera matricial como

y = [I − Gvm GvI ]−1 Gvm u

donde
 
y1
y=
y2
 
Gv11 0
Gvm =
0 Gv22
 
0 Gv12
GvI =
Gv21 0
 
u1
u=
u2
9.2. ANÁLISIS DE LOS SISTEMAS MULTIVARIABLES 121

Relación Entre Representaciones

Un sistema puede ser modelado utilizando cualquiera de las estructura P o V, y su relación está dada
por
Gp = [I − Gvm GvI ]−1 Gvm
siempre y cuando la inversa exista.
La pregunta que surgirı́a serı́a cuál de estas dos representaciones tendrı́a que utilizarse. No existen
reglas para ello, sin embargo, lo siguiente deberı́a ser tenido en cuenta:

1. Los parámetros del modelo deben ser determinados por los experimentos.
2. El modelo debe ser lo suficientemente representativo del proceso.
3. El modelo debe ser simple y que contenga la mayor cantidad de información.

Consideremos primero la V-canonical representation. No es posible obtener las matrices G vm y GvI a partir de
las pruebas de malla-abierta por ejemplo. Esto se debe a que un cambio en cualquiera entrada afectará todas
las otras I/O del sistema. Sin embargo, técnicas numéricas de identificación permitirán la obtención de las
funciones de transferencia de la V-canonical representation. Por otro lado, los procesos se ven afectados por
perturbaciones externas de carga. En la V-canonical representation se tiene que

y = [I − Gvm GvI ]−1 (Gvm + GD v)

donde  
GD1 0
GD =
0 GD2
y v es un vector de perturbaciones. Si se tuviesen las mismas perturbaciones de carga en P-canonical repre-
sentation esto darı́a
y = Gp u + GD v
Nótese que en este caso cada par de I/O está únicamente definido, y los elementos de las funciones de
transferencia Gp y GD se pueden determinar directamente por experimentación de lazo abierto. Además, en
la P-canonical representation el modelo es implı́citamente observable y controlable, i.e., las salidas pueden
ser medidas y las entradas pueden ser consideradas para control. Por lo tanto, de ahora en adelante nos
concentraremos en representaciones tipo P-canonical.

9.2.3. Problemas de Interacción

Preguntas como porqué se necesita el control multivariable, o cuáles son los efectos de la interacción
en el desempeño del sistema surgen en estos casos. Para poder ver el efecto de la interacción, asumamos que
se tiene el sistema de la Figura... con G21 = G12 = 0.
ANADIR FIGURA
Es decir, se tienen dos procesos G11 y G22 los cuales interactuan con unos controladores proporcionales.
Como no existirı́a acople entre los sistemas, se tendrı́an ecuaciones caracterı́sticas independientes de la forma

1 + Kc1 G11 = 0

1 + Kc2 G22 = 0
Si asumimos que los procesos G11 y G22 son de primer orden, con un controlador proporcional se tendrá un
sistema estable, independientemente de la magnitud de las ganancias K ci . Sin embargo, la ecuación carac-
terı́stica cuando G21 6= 0 y G12 6= 0 vendrı́a dada por

1 + Kc1 G11 + Kc2 G21 + Kc1 G11 Kc2 G22 − Kc1 Kc2 G12 G21 = 0

(1 + Kc1 G11 )(1 + Kc2 G22 ) − Kc1 Kc2 G12 G21 = 0


122 CAPÍTULO 9. CONTROL MULTIVARIABLE

Esta ecuación nos muestras que en este caso sı́ habrá un rango limitado de acción de las ganancias para que
exista estabilidad en el sistema.
El problema de la interacción puede ser disimuido por la escogencia de los acoples entrada/salida. Para
un sistema de 2×2, esto serı́a simple ya que u1 se acopla con y2 , y u2 con y1 , y si estos acoples no surten
efecto en el diseño entonces se acoplan u1 − y1 y u2 − y2 . Sin embargo, para sistemas de n dimensiones,
se tendrán que intentar n! acoples lo que hace imposible probar todas las posibilidades. Por lo tanto, es
importante evaluar cuantitativamente el grado de interacción entre lazos de control con el fin de estructurar
el esquema de control que contenga la menor interacción posible. Una técnica para ello es lo que se conoce
como el relative gain analysis technique.

9.2.4. Relative Gain Array

Bristol (REF Bristol 66) desarrolla una técnica que sirve para la selección de “manipulative-controlled
variable pairings”, ası́ como los comportamientos de las respuestas controladas (REF Skinskey 81). Este
método permite determinar si un par entrada/salida es una buena escogencia para implementar un contro-
lador SISO, ya que la interacción con otros lazos será despreciable. El análisis se basa en la construcción
del relative gain array (RGA), el cual se presenta a continuación para un sistema de 2 × 2 en la forma
p-canonical.
Sean Kij las ganancias de la función de transferencia Gij . Asumiendo que u2 permanece constante,
un cambio a entrada paso en u1 de magnitud ∆u1 , producirá un cambio ∆y1 en la salida y1 . Entonces, la
ganancia entre u1 y y1 cuando u2 es constante está dada por

∆y1
K11 |u2 =
∆u1 u2

Si ahora se mantiene constante y2 en vez de u2 , entonces un cambio en ∆u1 resultará en un cambio diferente
en y1 , y
∆y1
K11 |y2 =
∆u1 y2
Si bien las ganancias están definidas para el mismo par de variables, sus valores pueden ser diferentes ya que
se obtienen para diferente condiciones. Si existe interacción, entonces el cambio en y 1 debido al cambio en
u1 para los dos casos (i.e., u2 y y2 constantes) será diferente.
Se define
K11 |u2
λ11 =
K11 |y2
como el relative gain entre la salida y1 y la entrada u1 . Se tiene entonces que

Si λ11 = 0 entonces el cambio en u1 no influye en y1 . Por ende, no deberı́a ser utilizado para controlar
y1 .

Si λ11 = 1 entonces la ganancia entre la salida y1 y la entrada u1 no se ve afectada por el lazo y2 − u2 ,


i.e., no existe interacción.

Para un proceso de 2 × 2 se tienen los siguientes elementos



∆y1
K12 |u1 ∆u2
λ12 = = u1
K12 |y2 ∆y1
∆u2
y2

∆y2
K21 |u2 ∆u1
λ21 = = u2
K21 |y1 ∆y2
∆u1
y1
9.2. ANÁLISIS DE LOS SISTEMAS MULTIVARIABLES 123

∆y2
K22 |u1 ∆u2
λ22 = = u1
K22 |y1 ∆y2
∆u2
y1

Por lo que la matriz RGA serı́a  


λ11 λ12
Λ=
λ21 λ22
Para un sistema de n entradas y n salidas se tiene que

∆yi
Kij |u ∆uj
λij = = u
Kij |y ∆yi
∆uj
y

Los subı́ndices u y y significan que se tienen valores constantes para u m , m 6= j y yk , k 6= i, respectivamente.


Por lo que la matriz RGA serı́a  
λ11 λ12 . . . λ1n
Λ =  ...
 

λ21 λ22 ... λnn
Calcular todos estos elementos parecerı́a algo tedioso si no fuere porque:

La suma de todos los elementos en cada columna es 1, i.e.,


n
X
λij = 1, ∀j = 1, . . . , n
i=1

La suma de todos los elementos en cada fila es 1, i.e.,


n
X
λij = 1, ∀i = 1, . . . , n
j=1

Por lo tanto, en un sistema de 2 × 2, sólo se tiene que determinar un solo elemento del RGA, ya que los
demás se podrán encontrar a partir de éste, i.e.,

λ12 = 1 − λ11

λ21 = λ12
λ22 = λ11
De manera similar para un sistema de n × n, sólo se tienen que determinar (n − 1) × (n − 1) elementos.
Este método se basa en un procedimiento experimental. Una determinación analı́tica es posible si un
modelo en estado estable está disponible. Entonces si tenemos

y1 = K11 u1 + K12 u2

y2 = K21 u1 + K22 u2
donde Kij son las ganancias en estado estable de la matriz de funciones de transferencia. Entonces,

∂y1
K11 |u2 = = K11
∂u1 u2

Se sabe que
y2 − K21 u1
y1 = K11 u1 + K12
K2 2
124 CAPÍTULO 9. CONTROL MULTIVARIABLE

Entonces
∂y1 K12 K21
K11 |y2 = = K11 −
∂u1 y2 K22
Por lo tanto, si reemplazáramos obtenemos que
K11 K22
λ11 =
K11 K22 − K12 K21
De esta forma, los demás elementos de la matriz RGA podrán ser calculados.
Para un sistema de n × n, si se conoce la matriz de ganancias del proceso K, entonces

Λ = K. ∗ (K > )−1

donde .∗ corresponde a la multiplicación elemento por elemento.

9.2.5. Selección de Lazos Utilizando RGA

Una vez se tenga Λ, los siguientes casos pueden surgir:

1. Si λ11 = 0 entonces la matriz RGA tiene elementos en 0 en la diagonal principal y 1 en la no diagonal.


Es decir, que el control del sistema sólo se puede lograr agrupando y1 con u2 y y2 con u1 . El sistema
controlado resultante no tendrá interacción.
2. Si λ11 = 1 entonces el sistema no interactúa entre sı́, y los pares y1 − u1 y y2 − u2 son los que estarı́an
activos. Por ende, u1 (u2 ) no puede ser utilizado para controlar y2 (y1 ).
3. Si 0 < λ11 < 0,5 (e.g., λ11 = 0,25), entonces los elementos de la diagonal tendrán menos peso, i.e., el
mejor acople se dará entre y1 − u2 y y2 − u1 .
4. Si 0,5 < λ11 < 1, es el caso opuesto al anterior, i.e., los elementos que tendrán más peso se dará por el
acople de y1 − u1 y y2 − u2 .
5. Si λ11 > 1, entonces los elementos de la no-diagonal serán negativos. Si los pares y 1 − u1 y y2 − u2 se
toman en cuenta, se tendrı́a que
K11 |u2
λ11 = >1
K11 |y2
y
K22 |u1
λ22 = >1
K22 |y1
Suponiendo que K11 |u2 = 1, entonces 0 < K11 |y2 < 1, lo que implica que el cambio en y1 debido al
cambio en u1 es reducido si el lazo y2 − u2 está cerrado. Es decir que las respuestas controladas se
verán afectadas por la interacción del otro lazo. Entre mayor sea la ganancia relativa, mayor será el
efecto. Por lo tanto, el par en cuestión requerirá el uso de ganancias de controlador mayores. Los pares
y1 − u2 y y2 − u1 no son los adecuados para ello, ya que las ganancias son negativas. Esto implica que
las interacciones resultantes harán que las salidas controladas se desvı́en de donde se deseaba, y por lo
tanto el controlador no será el adecuado ya que fallará.

Estos son sólo algunos casos, pero si uno quisiera ser más riguroso tendrı́a que mirar los casos con diferente
número de I/O y perturbaciones, lo cual está fuera del alcance al que queremos llegar en esta clase. Sin
embargo, una regla general para la selección de los lazos de control serı́a:

Los lazos de control deberán tener pares I/O que tengan positive relative gains
con valores lo más cercanos posibles a 1.

El uso de las ganancias relativas para determinar el mejor acoplamiento I/O para control de un sistema
multivariable lleva a lo que se conoce como la estrategia de control “dominant interaction.”
9.3. CONTROL MULTIVARIABLE DESACOPLADO 125

Ejemplo 9.2.1 [1] Un sistema tiene una matriz de ganancias DC dadas por
 
−1 1,5 2,8
K = G(0) =  4 1,6 4 
0,15 2 −0,1

Cuáles serı́an los pares ideales?

La matriz RGA estarı́a dada por


 
0,26 0,0478 0,6922
RGA = K. ∗ K > =  0,7328 −0 − 0163 0,2835 
0,0073 0,9685 0,0242

Los pares recomendados en este caso serı́an y2 − u1 , y3 − u2 y y1 − u3 si se llegasen a utilizar controladores


PI SISO.

9.3. Control Multivariable Desacoplado


Otra aproximación para tratar interacciones entre los lazos de control es diseñar esquemas de control
que no interactúen entre sı́, i.e., desacoplados. La idea fundamental es eliminar completamente los efectos de
las interacciones de lazo. Esto se logra por medio de la especificación de redes de compensación conocidas
como desacopladas. El rol de estos desacopladores es descomponer un proceso multivariable en una serie
de subsistemas independientes de un solo lazo. Si esto se logra, entonces un desacople completo (o ideal)
ocurre y el proceso multivariable puede ser controlado utilizando controladores independientes de un solo
lazo. La Figura... ilustra el esquema generalmente utilizado en el desacople.
ANADIR FIGURA
La forma de la red de desacople ha sido la causa de cierta controversia, ya que existen diferentes tipos
de representaciones (e.g., P- o V-decouplers), de los cuales la más popular es el P-decoupler introducido por
Boksenbom and Hood , el cual se ve en la Figura...
ANADIR FIGURA
En este caso, G∗c corresponde a la matriz de elementos de desacople,
 ∗ 
Gc,11 G∗c,12
G∗c =
G∗c,21 G∗c,22

Por otro lado, la matriz G (2 × 2) es la matriz de funciones de transferencia del proceso descrita previamente,
la cual está asociada con unos vectores de entrada/salida u y y. Se introduce un vector de set points o
referencias, w = [w1 , w2 ]> , lo cual redunda en

y = Gu

u = G∗c (w − y)
y = GG∗c (w − y)
y = [I + GG∗c ]−1 GG∗c w
Para que los lazos individuales del sistema de malla cerrada sean independientes el uno del otro, se requiere
que
X = [I + GG∗c ]−1 GG∗c = diag(x1 , x2 )
i.e., X debe ser una matriz diagonal. Como la suma y el producto de dos matrices diagonales son diagonales,
y la inversa de una matriz diagonal también es diagonal, entonces este requisito se cumple si GG ∗c es diagonal,
i.e.,   ∗   
G11 G12 Gc,11 G∗c,12 q1 0
GG∗c = =
G21 G22 G∗c,21 G∗c,22 0 q2
126 CAPÍTULO 9. CONTROL MULTIVARIABLE

donde
q1 = G11 G∗c,11 + G12 G∗c,21
0 = G11 G∗c,12 + G12 G∗c,22
0 = G21 G∗c,11 + G22 G∗c,21
q2 = G21 G∗c,12 + G22 G∗c,22
Por lo tanto, si los elementos de la función de transferencia G se conocen, y teniendo especificados los
elementos de la diagonal de G∗c , entonces se pueden seleccionar los elementos de la no diagonal de G ∗c para
determinar el desacople. Esto implicarı́a que

G12 G∗c,22
G∗c,12 = −
G11

G21 G∗c,11
G∗c,21 = −
G22
Si los elementos del camino directo del desacoplador (i.e., G∗c,11 y G∗c,22 ) se toman como controladores PI por
ejemplo, entonces dadas las funciones de transferencia del proceso, la red de desacople se podrá especificar
totalmente. Esta técnica de diseño requiere un conocimiento total de G, y por lo tanto se enfatiza en
el uso de la P-canonical form, ya que como se dijo previamente esta representación puede ser obtenida
experimentalmente.
Nótese que esta estructura sólo estudia el problema del servomecanismo. El rechazo a perturbaciones
de carga requiere una aproximación diferente. Con esta configuración, si los elementos del forward path
(G∗c,11 y G∗c,22 ) se sintonizan online, entonces los elementos de compensación de la off-diagonal se tienen que
recalcular. Si bien este no es un gran problema si la estrategia se implemente en un microcontrolador, la
inter-dependencia de los elementos desacoplados se convierte en una desventaja cuando uno de los lazos se
coloca en modo manual. Para este caso, el efecto de desacople se pierde.
Otro método es el de Zalkind-Luyben. Previamente se discutió la necesidad del desacople con contro-
ladores de lazo independiente como se ve en la Figura...
ANADIR FIGURA
En este caso, se tienen dos bloques extra que representan los controladores del forward-loop. A diferen-
cia del caso anterior, la red de desacople forma una segunda post-compensación y permitirá más flexibilidad
en la implementación y commissioning1 del esquema de control non-interacting. Sea Gc la matriz del contro-
lador del forward path con salid u, por lo que

y = Gu∗

u∗ = G∗c u
u = Gc (w − y)
y = GG∗c Gc (w − y)
Como Gc es una matriz diagonal, el objetivo de desacople se logra si

X = GG∗c = diag[x1 , x2 ]

Es decir,  
1 G22 x1 −G12 x2
G∗c =G −1
X=
det(G) −G21 x1 G11 x2
La forma más simple se da con elementos unitarios en la diagonal, i.e.,

G∗c,11 = G∗c,22 = 1
1A form of payment to an agent for services rendered. Remuneration.
9.3. CONTROL MULTIVARIABLE DESACOPLADO 127

Lo que hace que


G12
G∗c,12 = −
G11
G21
G∗c,21 = −
G22
Lo que indican estas ecuaciones es que con este método los elementos de desacople son independientes de
los controladores del forward path. Por lo tanto, la sintonización online de los controladores no requiere
un rediseño de los elementos de desacople. Los modos del controlador se pueden cambiar de PI a PID por
ejemplo, y cualquiera de los forward paths se pueden colocar en manual sin pérdida de desacople. Nótese que
el desacople se hace entre la señal de control del forward path y las salidas del proceso, y no entre set points
y salidas, por lo que esta técnica no está restringida al servo-problema. Sin embargo, la matriz G tiene que
conocerse.
128 CAPÍTULO 9. CONTROL MULTIVARIABLE
Bibliografı́a

[1] Pedro Albertos and Antonio Sala. Multivariable control systems: an engineering approach. Springer
Verlag, 2004.

[2] Karl J. Åström and Björn Wittenmark. Computer Controlled Systems. Prentice Hall, New Jersey, NJ,
1997.

[3] S. Bennett. A brief history of automatic control. IEEE Control Systems Magazine, 16(3):17–25, 1996.

[4] W.L. Brogan. Modern control theory. Prentice-Hall, Inc. Upper Saddle River, NJ, USA, 1991.

[5] C.M. Close and D.K. Frederick. Modeling and analysis of dynamic systems. Wiley New York, 2001.

[6] J.J. D’Azzo and C.H. Houpis. Linear Control System Analysis and Design. McGraw-Hill, third edition
edition, 1988.

[7] Richard C. Dorf and Robert H. Bishop. Modern Control Systems. Addison-Wesley, Reading, MA, 1995.

[8] Asdrúbal Espitia. El PID Bajo Control. Asdrúbal Espitia Guerra, 1999.

[9] G.W. Evans. Bringing root locus to the classroom. IEEE Control Systems Magazine, 24(6):74–81, 2004.

[10] WR Evans. Control system synthesis by root locus method. Trans. AIEE, 69:66–69, 1950.

[11] Gene F. Franklin, J. David Powell, and Abbas Emami-Naeini. Feedback Control of Dynamic Systems.
Addison-Wesley, Reading, MA, 1994.

[12] B. Friedland. Control System Design: An Introduction to State-space Methods. McGraw-Hill, 1986.

[13] Edward W. Kamen and Bonnie S. Heck. Fundamentals of signals and systems using MATLAB. Prentice
Hall, Upper Saddle River, New Jersey, 1997.

[14] Hassan. K. Khalil. Nonlinear Systems. Prentice Hall, New Jersey, 1996.

[15] K.H. Lundberg. Pole-zero phase maps: visualization helps students develop s-plane intuition. IEEE
Control Systems Magazine, 25(1):84–87, 2005.

[16] T.E. Marlin. Process Control: Designing Processes and Control Systems for Dynamic Performance.
McGraw-Hill, 1995.

[17] S.J. Mason. Feedback Theory-Some Properties of Signal Flow Graphs. Proceedings of the IRE,
41(9):1144–1156, 1953.

[18] S.J. Mason. Feedback Theory-Further Properties of Signal Flow Graphs. Proceedings of the IRE,
44(7):920–926, 1956.

[19] N. Minorsky. Directional stability of automatically steered bodies. J. Am. Soc. Nav. Eng, 34:280, 1922.

[20] C. B. Moler and C.F.V. Loan. Nineteen dubious ways to compute the matrix exponential. SIAM Review,
20(4):801–836, 1978.

129
130 BIBLIOGRAFÍA

[21] R.M. Murray, K.J. Åström, S.P. Boyd, R.W. Brockett, and G. Stein. Future directions in control in an
information-rich world. IEEE Control Systems Magazine, 23(2):20 – 33, 2003.

[22] K. Ogata. Modern control engineering. Prentice-Hall, Inc. Upper Saddle River, NJ, USA, 1996.

[23] Katsuhiko Ogata. Discrete-Time Control Systems. Prentice Hall, New Jersey, NJ, 1987.
[24] B.A. Ogunnaike and W.H. Ray. Process dynamics, modeling, and control. Oxford University Press New
York, 1994.

[25] Alan V. Oppenheim and Alan S. Willsky. Signals and Systems. Prentice Hall, Upper Saddle River, New
Jersey, 1997.

[26] H. Özbay. Introduction to Feedback Control Theory. CRC Press, 1999.

[27] K.M. Passino. Biomimicry for Optimization, Control, and Automation. Springer-Verlag, London, 2005.

[28] C. Phillips and R. Harbor. Feedback Control Systems. Prentice Hall, 1996.

[29] F.H. Raven. Automatic Control Engineering. McGraw-Hill New York, 1995.

[30] S. Sastry. Nonlinear Systems: analysis, stability, and control. Springer, 1999.

[31] C.A. Smith and A.B. Corripio. Principles and practice of automatic process control. Wiley New York,
1985.

[32] Karl J. Åström and Richard M. Murray. Feedback Systems: An Introduction for Scientists and Engineers.
2007.

[33] S.H. Strogatz. Nonlinear dynamics and chaos. Addison-Wesley Reading, MA, 1994.

[34] MT Tham. Multivariable Control: An Introduction to Decoupling Control. In K. Warwick and D.Rees,
editors, Industrial Digital Control Systems, volume 1 of IEE Control Engineering Series 37, chapter 8,
pages 1–19. Peter Peregrinus, 1998.

[35] J.G. Ziegler and N.B. Nichols. Optimum settings for automatic controllers. Trans. ASME, 64(8):759–
768, 1942.

Вам также может понравиться