Академический Документы
Профессиональный Документы
Культура Документы
Nicanor Quijano
c Borrador Editado 30 de abril de 2010
Índice general
Contenido I
Prefacio 1
1. Introducción 3
1.1. Qué es Retroalimentación? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2. Qué es Control? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3. Historia del Control Automático . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1. Inicios del Control . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.2. Perı́odo Pre-Clásico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.3. Perı́odo Clásico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.4. Control Moderno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4. Ejemplos de Sistemas de Control Retroalimentado y Future Directions . . . . . . . . . . . . . 8
2. Modelamiento de Sistemas 9
2.1. Filosofı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2. Principios de Modelamiento Matemático . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2.1. Esquema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2.2. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3. Sistemas de Primer Orden y Controlador ON-OFF . . . . . . . . . . . . . . . . . . . . . . . . 15
2.4. Transformada de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4.1. Transformada Unilateral de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4.2. Propiedades de la Transformada de Laplace . . . . . . . . . . . . . . . . . . . . . . . 19
2.4.3. Solución de ODEs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.5. Funciones de Transferencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.6. Linealización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.7. Diagramas en Bloques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.7.1. Combinación en Serie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.7.2. Combinación en Paralelo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.7.3. Puntos de Partida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.7.4. Bloques con Sumadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
i
ii ÍNDICE GENERAL
v
vi ÍNDICE DE FIGURAS
4.4. Sistema de segundo orden [7]. En a) se tiene el grafo, mientras que en b) el diagrama en bloques. 44
4.5. Respuesta a entrada paso del sistema de segundo orden descrito por (4.3). En este caso, se
tiene que ζ = 0 para el panel superior izquierdo, ζ = 0,2 para el panel superior derecho,
ζ = 0,4 para el panel inferior izquierdo, y ζ = 0,8 para el panel inferior derecho. En todos los
casos, wn = 24. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.6. Respuesta a entrada paso del sistema de segundo orden descrito por (4.3) cuando ζ = 1 y
wn = 24. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.7. Respuesta a entrada paso del sistema de segundo orden descrito por (4.3) cuando ζ = 2 y
wn = 24. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
p
4.8. Ubicación de los polos en el plano-s [7]. Para este caso β = θ, σ = ζw n , y wd = wn 1 − ζ 2 . . 49
4.9. Curvas envolventes para la respuesta a entrada paso del sistema de segundo orden [22]. . . . . 50
4.10. Respuesta a entrada paso del sistema de segundo orden descrito por (4.7). En este caso,
K1 = 1, wn = 23,53, and ζ = 0,46. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.11. Relación entre M P y ζ. Además, se incluye la relación entre wn tp y el factor de amortigua-
miento [7]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.12. Diagrama en bloques. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.13. Respuesta a entrada paso del sistema de segundo orden diseñado para obtener los parámetros
MP y tp definidos en el ejercicio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.14. Ubicación de polos de un sistema de tercer orden en el plano-s [7]. . . . . . . . . . . . . . . . 53
4.15. a) Porcentaje de overshoot como función de ζ y ωn cuando un sistema de segundo orden posee
un cero. b) Respuesta a entrada paso para diversos valores de a/(ζωn ). A=5, B=2, C=1,
D=0.5, cuando ζ = 0,45 [7]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.16. Ubicación de los polos y ceros en el plano-s para un sistema de tercer orden [7]. . . . . . . . . 55
4.17. Respuesta a entrada paso para un sistema de tercer orden con un cero. Si se desprecia el polo
(-), el overshoot es mayor, pero su ts es menor. Si no se desprecia (–), se tiene que el overshoot
disminuye, haciendo que el tiempo de establecimiento aumente. . . . . . . . . . . . . . . . . . 55
4.18. Respuesta impulso para varias ubicaciones de las raı́ces en el plano-s. El complejo conjugado
no se muestra [7]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
6.1. Sistema de control tı́pico. La referencia o el set point viene siendo R(s), mientras que la
variable controlada es C(s). La perturbación es D(s). . . . . . . . . . . . . . . . . . . . . . . . 66
6.2. Sistema retroalimentado. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
6.3. Proceso de tomar una señal continua y(t) que es generada por el proceso, y convertirla en una
secuencia de números y[n]. El computador toma una decisión y la convierte en otra secuencia
de números u[n], los cuales se convierten luego en una señal continua u(t) que actúa sobre el
proceso. Figura adaptada de [2]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
6.4. Figura adaptada de [2]), la cual muestra el efecto de aliasing utilizando dos diferentes señales
x1 (t) = sin(2πf1 t) (punteada) and x2 (t) = − sin(2πf2 t) (sólida), con sus respectivas frecuen-
cias (f1 = 0,1 Hz, f2 = 0,9 Hz, y fs = 1 Hz). Este es un excelente ejemplo de cómo el aliasing
puede afectar la reconstrucción perfecta de las señales . . . . . . . . . . . . . . . . . . . . . . 78
ÍNDICE DE FIGURAS vii
7.1. Modelo mecánico que corresponde a una masa, sujetada por un amortiguador y un resorte.
La posición está dada por y, y se le aplica una fuerza inicial f0 . . . . . . . . . . . . . . . . . . 83
7.2. Modelo en Simulink que corresponde a la Figura 7.1. . . . . . . . . . . . . . . . . . . . . . . . 84
7.3. Simulación en Simulink del sistema descrito en la Figura 7.1. Para este caso se utilizaron los
parámetros f0 = 5N, M = 2kg, k = 16N/m, y cuatro valores para b. En la parte superior
izquierda, se tiene b = 2N.s/m; en la parte superior derecha, se tiene b = 4N.s/m; en la parte
inferior izquierda, se tiene b = 8N.s/m; y en la parte inferior derecha, se tiene b = 16N.s/m.
En todos los casos se tiene que posición está dada por la lı́nea (-), mientras que la velocidad
es la lı́nea punteada (- -). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
7.4. Simulación en Simulink del sistema descrito en la Figura 7.1, cuando únicamente se aplica una
fuerza f0 durante un determinado tiempo. Para este caso se utilizaron los parámetros f 0 = 5N,
M = 2kg, k = 16N/m, y b = 2N.s/m. La posición está dada por la lı́nea (-), mientras que la
velocidad es la lı́nea punteada (- -). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
7.5. Diagrama en bloques. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
7.6. Representación en diagramas en bloques de la Ecuación (7.22). Figura tomada de [12]. . . . 93
7.7. Representación en diagramas en bloques de la Ecuación (7.23). Figura tomada de [12]. . . . . 94
7.8. Representación en diagramas en bloques de la forma canónica controlable. Figura tomada de
[12]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
7.9. Representación en diagramas en bloques de la forma canónica de Jordan cuando las raı́ces son
diferentes. Figura tomada de [12]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
7.10. Representación en diagramas en bloques de la forma canónica de Jordan cuando las raı́ces son
repetidas. Figura tomada de [12]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
7.11. SISL de un punto de equilibrio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
7.12. ES de un punto de equilibrio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
7.13. UUB. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
6.1. Valores de los parámetros de los controladores para el método de malla cerrada. . . . . . . . . 71
6.2. Valores de los parámetros de los controladores para el método de malla abierta. . . . . . . . . 72
6.3. Valores de los parámetros de los controladores para el método de Cohen y Coon. . . . . . . . 73
6.4. Valores de los parámetros de los controladores para el método del coeficiente de ajustabilidad . 73
ix
x INDICE DE TABLAS
Prefacio
Estas notas de clase son para uso exclusivo de la clase. Este es un primer borrador, el cual contiene
muchos errores de toda ı́ndole. En muchos casos no le doy el crédito correspondiente a algunos resultados.
Sin embargo, una falta de referencia no significa que los resultados sean del todo originales. En efecto, todos
los resultados presentados en estas notas han sido tomados de libros y artı́culos que no necesariamente son
mı́os (a excepción de algunos ejemplos).
1
2 INDICE DE TABLAS
Capı́tulo 1
Introducción
Whenever you feel like criticizing any one,-he told me,- just remember that all the people in the world
haven’t had the advantages that you’ve had.
The Great Gatsby, F.S. Fitzgerald
El curso de sistemas de control se basa en un principio básico: retroalimentación 1 . En esta primera entrega
se brindan las definiciones necesarias para entender un sistema de control retroalimentado, además de una
historia breve del control automático y el futuro del área. Las siguientes notas han sido adaptadas a partir
de varios textos de control (e.g., [32], [12], [3], and [21]).
part of the output of a machine, system, or process (as for producing changes in an electronic circuit that improve performance
or in an automatic control device that provide self-corrective action) [1920]”
2 Un sistema cuyo comportamiento cambia con el tiempo debido a una respuesta o a un estı́mulo externo es un sistema
dinámico.
3 En inglés, los términos utilizados son open loop y closed loop, respectivamente
3
4 CAPÍTULO 1. INTRODUCCIÓN
Sistema 1 Sistema 2
Sistema 1 Sistema 2
un sensor serı́a amplificado por la retroalimentación, por lo que se necesitarı́a un filtro que responda a este
tipo de detalles. Otro problema cuando se tiene un sistema retroalimentado mal implementado es el hecho
de inestabilidad. Uno de los casos más comunes son los efectos de la realimentación positiva cuando la
amplificación de un micrófono es demasiado alta dentro de un salón. Este es un ejemplo de inestabilidad
debida a la retroalimentación, lo cual por supuesto, se quiere evitar, aunque no es sencillo. Esta es la
razón fundamental por la que la mayor parte del estudio de los sistemas retroalimentados está dedicada al
entendimiento de las dinámicas y las técnicas de diseño de sistemas dinámicos y su control.
Definition 1 Control es un dispositivo que por medio del uso de algoritmos y retroalimentación regula el
funcionamiento de un sistema.
Ası́ pues, se puede decir que control incluye ejemplos tales como controladores de “set point” en procesos
quı́micos, “fly-by-wire” en sistemas aeronáuticos, además de protocolos para el control de tráfico en la
Internet. En la actualidad, las aplicaciones que están emergiendo entre otras incluyen vehı́culos y robots
autónomos y sistemas bioinspirados. El área de control es esencialmente una ciencia que incluye información
de tipo análogo y digital.
La idea básica en un controlador moderno es sensar lo que está sucediendo en el sistema, comparar
el comportamiento de este con el objetivo inicial, corregir aquello que no esté saliendo bien, y enviar esta
información para que el sistema actúe. Es decir, es un sistema retroalimentado donde se sensa, se computa,
y se actúa para obtener el cambio deseado. El punto clave en este caso es diseñar un controlador que
asegure que las dinámicas del sistema en malla cerrada sean estables y que el resultado final sea siempre
el deseado. Para ello se necesitan técnicas de modelaje y análisis para capturar los elementos fı́sicos para
poder describir de manera adecuada el comportamiento de un sistema, para poderlo hacer robusto cuando
se tienen perturbaciones, ruido, y otras fallas debido a los componentes.
La figura 1.2 muestra un ejemplo de este tipo de sistemas. En ella se pueden observar los elementos
necesarios para sensar, computar, y actuar. En los sistemas de control moderno, el uso de computadores
es esencial, con lo cual se requieren components tales como conversores análogos y digitales (ADC y DAC
según sus siglas en inglés). Las perturbaciones que entran al sistema se modelan de varias formas (e.g., ruido,
1.3. HISTORIA DEL CONTROL AUTOMÁTICO 5
perturbaciones en el sistema). El algoritmo de control tiene que ser lo suficientemente robusto para poder
responder rápida y adecuadamente a este tipo de incertidumbres. Este algoritmo se conoce generalmente
como ley de control. Para poder diseñar de manera adecuada el controlador, por lo general es necesario tener
un buen modelo del sistema que se quiere controlar.
Hacia el final del renacimiento se descubrieron en occidente las ingeniosas ideas de sistemas de control
del perı́odo helénico, las cuales habı́an sido preservadas por la cultura islámica. A partir de ese momento,
nuevos inventos comenzaron a aparecer durante el siglo XVIII. Uno de los primeros ejemplos es el control
de temperatura en incubadoras (utilizando dispositivos autómaticos) propuesto por René-Antoine Ferchault
de Réamur. Durante el siglo XIX se inventaron varios dispositivos termostáticos, los cuales tenı́an como
caracterı́stica el hecho de que la potencia para operar el actuador era extraı́da del sistema de medida.
El más importante desarrollo de control durante el siglo XVIII fue la máquina de vapor. En 1788
Matthew Boulton le describió a su socio James Watt el mecanismo (flyball governor ) que le permitió a este
último controlar la velocidad de la máquina de vapor y reducir las variaciones de carga. El primer diseño se
realizó en Noviembre de 1788, y el controlador se utilizó por primera vez en 1789. Este sistema tiene varios
problemas: tiene un controlador proporcional que proporciona un único punto de operación; sólo puede
6 CAPÍTULO 1. INTRODUCCIÓN
funcionar a velocidades bajas; se necesita un mantenimiento permanente. Sin embargo, este fue uno de los
avances más importantes durante la revolución industrial.
Mejoras a este sistema se realizaron durante los primeros setenta años del siglo XIX, dentro de los
cuales se podrı́an rescatar aquellas patentadas por Siemens (1846; 1853), Porter (1858), y otros. En 1868
Maxwell publicó el paper “On Governors”, el cual describı́a un modelo matemático utilizando ecuaciones
diferenciales para controlar la turbina de vapor, y empezó a analizar la estabilidad del sistema. Por primera
vez se determinó que la estabilidad estaba dada por la ubicación de los polos de la ecuación caracterı́stica.
Maxwell determinó condiciones suficientes y necesarias para ecuaciones hasta de cuarto orden. En su época
su trabajo no fue tan valorado como lo fue en el siglo XX.
El trabajo que realizó Maxwell fue retomado por Routh, el cual publicó los primeros resultados en
1874. En 1877, Routh produce un tratado sobre “Stability of Motion.en el cual expone los principios de
estabilidad de lo que hoy se conoce como el criterio de estabilidad Routh-Hurwitz (su trabajo tomaba ideas
de Cauchy y Sturm, y en 1895 Hurwitz es el que deriva la misma idea independientemente).
La mayorı́a de los inventos de la época tenı́an que ver con control y estabilidad de temperatura,
presión, nivel, y velocidad de rotación de máquinas. Luego las aplicaciones comenzaron a realizarse en la
parte naval con la aparición de barcos navales y armas de guerra. Una de los primeros motores dirigidos y
controles de posición en malla cerrada fueron diseñados por Farcot en 1866, el cual sugirió por primera vez
el nombre de “servo-moteur.”
El desarrollo de la electricidad y su mejor comprensión, permitieron que se crearán más aplicaciones
en el área de control (se tenı́an más mecanismos para sensar y manipular señales, y por ende para crear
actuadores).
Las aplicaciones que se vieron en los primeros años del siglo XX eran de todo tipo (e.g., control de
voltage, corriente, regulación de frecuencia, control de velocidad de motores eléctricos, control de tempera-
tura, presión, y procesos industriales). Sin embargo, todos estos dispositivos que se diseñaron no poseı́an un
total entendimiento de las dinámicas, lo cual generó problemas. La única herramienta teórica que se tenı́a
era el análisis de estabilidad de Routh-Hurwitz, el cual implica conocer todos los parámetros del sistema,
además de no proveer herramientas para entender el grado de estabilidad.
En 1922, Nicholas Minorsky presentó por primera vez un análisis de control de posición, y formuló lo
que hoy se conoce como un controlador PID. Su análisis partió del estudio de cómo un capitán controlaba
la posición de su barco. Sin embargo, su trabajo carecı́a de herramientas a ser aplicadas.
Por la misma época, Harlod Black comenzó a estudiar el incremento de ancho de banda en las lı́neas de
transmisión telefónica, para que no hubiese tantas pérdidas y distorsión. El fue el primero en crear un circuito
con retroalimentación negativa. Su colaborador inmediato fue Harry Nyquist, cuyo paper “Regeneration
Theory”publicado en 1932 formula las bases del análisis que lleva su nombre. Este es uno de los papers más
importantes, ya que permite entender los beneficios de la retroalimentación negativa, y provee herramientas
para el análisis y diseño de sistemas de control sin que se requiriesen ecuaciones diferenciales (la sola respuesta
en frecuencia, combinada con los datos calculados permitı́an establecer el grado de estabilidad del sistema,
y también ayudaba a estimar los cambios necesarios para mejorar el desempeño).
Uno de los trabajos que se hicieron a la par del de Black, fue el de Clesson Mason en Foxboro. Mason
utilizó retroalimentación negativa, e hizo que por primera vez en 1928 una compañı́a tuviese controladores
con amplificación lineal o integral.
En diversos paı́ses se comenzó a entender y analizar los sistemas de control desde un punto de vista
más matemático. Los esfuerzos en los Estados Unidos se debieron más al esfuerzo que “Bell Telephone
Laboratories”puso en aras de obtener más ancho de banda. En 1940, Hendrik Bode, demostró que existe
una relación una atenuación caracterı́stica y el mı́nimo cambio de fase asociado con ella. A su vez, utilizó el
1.3. HISTORIA DEL CONTROL AUTOMÁTICO 7
punto (-1,0), en vez del (1,0) que originalmente utilizó Nyquist para introducir los conceptos de margen de
ganancia y de fase (además de las limitaciones de ganancia de ancho de banda).
En 1942 Ziegler y Nichols publicaron un paper describiendo cómo encontrar los parámetros adecuados
para un controlador PI y PID. Coon en los 50s, extendió dicha teorı́a que hoy se conoce como el método de
sintonización de Ziegler-Nichols.
Un tercer grupo en MIT encabezado por Hazen y Brown, desarrolló por primera vez el estudio de
diagramas en bloques, además de crear el primer simulador de sistemas de control por intermedio de un
analizador diferencial.
La segunda guerra mundial hizo que el área de control se centrara en temas especı́ficos, entre los cuales
se tiene la detección de posición de una aeronave, además de calcular su posición futura, y el movimiento
de un arma de alto calibre para poder dispararle. De acá se generaron varios temas de investigación teórica,
los cuales dieron pie al análisis de sistemas discretos (e.g., el trabajo de Tustin), y el estudio de sistemas
estocásticos de Norbert Wiener.
Al finalizar la guerra, casi todas las técnicas de control clásico se habı́an desarrollado (la única excep-
ción era el trabajo del lugar de las raı́ces de Walter Evans en 1948). Las metodologı́as de diseño realizadas
eran para sistemas lineales y de una sola entrada, con coeficientes constantes (lo que generaba problemas,
ya que los sistemas son no lineales y de múltiples entradas). Si bien las técnicas de respuesta en frecuencia
eran bastante utilizadas, algunos preferı́an la solución mediante ecuaciones diferenciales utilizando transfor-
madas de Laplace, ya que según los ingenieros de la época, ésta era más ajustada a la realidad. También se
comenzó a estudiar optimización, área en la que intervinieron personas de la talla de Bellman, y LaSalle.
Los misiles guiados, la conquista del espacio, y el desarrollo de los computadores marcaron el inicio de
esta nueva etapa de conocimiento del control. Ası́ pues, gracias a las ideas expuestas por Henri Poincaré en
torno a ecuaciones diferenciales de primer y segundo orden, se comenzó a estudiar todo desde el punto de
vista de “state-space”.
Richard Bellman entre 1948 y 1952, trabajando para la corporación RAND, estudió el problema de
asignar un misil a un objetivo determinado para que éste causara la mayor cantidad de daño posible. Esto
lo llevó a formular el principio de optimalidad y generó lo que se conoce como programación dinámica
(cuya máxima dificultad radica en la cantidad de memoria de cómputo que se requiere para resolver estos
problemas). Bellman utilizó formulaciones mecánicas como las expuestas por Lagrange y Hamilton para
poder resolver los problemas óptimos que se planteaban. A la par de Bellman, Pontryagin (1956) planteaba
el “maximum principle”, el cual sentó las bases de la teorı́a de control óptimo. Estas dos teorı́as permitieron
que se empezara a profundizar en problemas matemáticos del área de control. Lógicamente, el desarrollo de
los computadores incidieron en que muchos de los problemas pudiesen resolverse más rápido de lo que se
esperaba.
Kalman en los años cincuenta presentó un paper en el cual mostraba cómo problemas de control
multivariable estaban ligados a aquellos de filtros, lo cual abrı́a una nueva área de investigación dentro del
control (también se encuentra dentro de todo este desarrollo los aportes que hiciera Bucy tiempo después
para generar el famoso filtro Kalman-Bucy). Ası́ pues, se generaron conceptos tales como observabilidad
y controlabilidad, hoy utilizados extensamente en el desarrollo de controladores bajo el uso de sistemas
modelados a partir de variables de estado.
Después de estos primeros pasos, se empezaron a abrir otras áreas de investigación: control adaptativo;
control no lineal (con técnicas que van desde phase plane, describing functions, hasta teorı́a de estabilidad
de Lyapunov); técnicas dentro de las cuales se comienza a ver una influencia de varias áreas de la ciencia:
algoritmos genéticos, fuzzy logic, redes neuronales, y otras nuevas tales como foraging theory.
8 CAPÍTULO 1. INTRODUCCIÓN
Modelamiento de Sistemas
Entusiasmo es una palabra griega que significa “rozado por el ala de Dios”. El entusiasmo es eso. Un
roce, un instante
Historia Argentina, Rodrigo Fresán
En este capı́tulo se pretende entender cómo se modelan los sistemas dinámicos. Para ello, se empieza
con una reseña filosófica, para luego definir las ideas para el modelado matemático de un sistema. Se presentan
ejemplos y simulaciones para que el estudiante comience a familiarizarse con herramientas tales como Matlab
y Simulink. Las siguientes notas han sido adaptadas a partir de varios textos de control (e.g., [27, 22, 16, 12,
31, 28, 7]).
2.1. Filosofı́a
Cuando uno se enfrenta a un problema de control, por lo general se siguen ciertos procedimientos. La
Figura 2.1 nos da una primera idea de cómo modelar un sistema.
PROCESO
Ganar intuición y
entender la planta
MODELAR
Figura 2.1: Primeros pasos en el diseño de un sistema de control [27].
9
10 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS
El modelamiento es la base para diseñar un buen sistema de control. Sin un buen modelo no podrı́amos
diseñar un sistema de control que cumpla ciertas caracterı́sticas. Sin embargo, ningún modelo es perfecto,
lo cual ciertas veces dificulta el diseño. Lo bueno es que cualquier tipo de incertidumbre puede llegar a ser
modelada de tal forma que se incluya en el proceso de diseño. De esta forma, se estarı́a frente a un modelo
más completo, y por ende, se tendrı́an más herramientas a la hora del diseño de un controlador. En este
curso, sólo se utilizarán sistemas lineales e invariantes en el tiempo (LTI por sus siglas en inglés), ya que
estos nos dan una primera aproximación del modelo de un sistema. Otro tipo metodologı́a que se sigue por
lo general está descrito por la Figura 2.2.
PROCESO
Modelamiento físico
SYSID, APPROX
Approx (reducción,
linealización)
2.2.1. Esquema
Un esquema básico que deberı́a seguirse se define a continuación. En la siguiente sección se presenta
un ejemplo que nos lleva paso a paso con el fin de entender cada uno de los puntos expuestos en el siguiente
esquema.
1. Definir Objetivos
2. Preparar Información
2.2.2. Ejemplo
Objetivo: Determinar la respuesta dinámica del tanque a un cambio tipo escalón en la C A0 , ası́ como
la velocidad y forma de respuesta. Todo esto depende del volumen y del flujo. Una de las suposiciones que se
12 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS
tienen es que la salida no puede ser utilizada a no ser que el 90 % del cambio de concentración haya ocurrido.
Por lo tanto, otro de los objetivos es determinar cuánto tiempo se necesita para llegar a este valor.
Información: Para poder preparar la información, primero se identifica el sistema, y la manera más
sencilla de hacerlo es mediante un diagrama. Con ello se pueden identificar las variables y tener una idea de
los balances a formular. Para este caso, el sistema es el lı́quido en el tanque. El tanque ha sido bien diseñado
tal que la concentración sea uniforme en el lı́quido. Se asumirá luego que,
F0 = 0,086m3 /min.
V = 2,1m3 .
CAIN IT = 0,925mole/m3 .
Formulación: Primero, para poder formular el modelo, tenemos que seleccionar las variables de cuyo com-
portamiento queremos predecir. Una vez se tengan estas variables, las ecuaciones pueden ser deducidas
basados en principios fundamentales, como lo es la conservación. Estos balances de conservación son relacio-
nes que obedecen ciertos supuestos en sistemas fı́sicos. Estos balances de conservación se pueden ver por lo
general como,
ACC = IN - OUT + GENERA
donde si ACC 6= 0 para un well-mixed system, se tendrá una ODE, mientras que si ACC = 0 para un
well-mixed system, se tendrá una ecuación algebraica. Los más utilizados son los balances de masa y energı́a.
Balance de masa por componente: Acumulación del componente de masa = Comp Masa IN - Comp
Masa OUT + Generación del Componente de Masa.
Hay casos especı́ficos en los que se utiliza cada uno de los balances previamente descritos. A continuación se
da un ejemplo de los más utilizados.
Lógicamente, si se tienen varias variables, es claro que se pueden utilizar varios balances para poder obtener
el modelo matemático. En ciertos casos los balances no son suficientes, por lo que se utilizan ecuaciones que
pueden relacionar varias variables. Por ejemplo,
2.2. PRINCIPIOS DE MODELAMIENTO MATEMÁTICO 13
Estas relaciones dependen del problema en cuestión, ya que por lo general no son universalmente aplicables.
Finalmente, la formulación del modelo queda completa cuando se tiene el número adecuado de ecuacio-
nes. Para ello, existe un elemento conocido como grado de libertad (degree of freedom, DOF), el cual viene
dado por DOF = N V − N E, donde N V es el número de variables dependientes (i.e., variables que depen-
den del comportamiento del sistema y deberán ser evaluadas por medio de las ecuaciones del modelo), y
N E es el número de ecuaciones independientes. Si DOF = 0, el sistema está exactamente especificado; si
DOF < 0, el sistema está sobreespecificado, i.e., no existe una solución del modelo; si DOF > 0, el sistema
está subespecificado, i.e., existe un número infinito de soluciones.
Para el ejemplo en cuestión, como se tienen concentraciones, los balances de mas son adecuados. El
balance total de masa para un incremento de tiempo ∆t viene dado por,
donde ρ es la densidad. Dividiendo por ∆t, y tomando el lı́mite cuando tiende a 0, se tiene que la acumulación
de masa es igual a la masa de entrada menos la masa de salida, i.e.,
(ρV )(t+∆t) − (ρV )t
lı́m = F0 ρ − F 1 ρ
∆t→0 ∆t
d(ρV )
= F0 ρ − F 1 ρ
dt
dρ dV
V +ρ = F0 ρ − F 1 ρ
dt dt
dρ
Como la densidad es constante, dt = 0, por lo que se tendrı́a que
dV
= F0 − F1 (2.1)
dt
Es claro que F0 es una variables externa que no depende del comportamiento del sistema. Como el lı́quido
sale al rebosarse el lı́quido, entonces el flujo de salida F1 está correlacionado con el nivel del lı́quido. Para
ello se utiliza una ecuación de presa que viene dada por,
p
F1 = kF L − Lw , para L > Lw
donde M WA corresponde al peso molecular del componente A, CA está en moles/volumen del componente
A, y como no hay reacción quı́mica, la generación es igual a 0. Esto implicarı́a finalmente que,
dCA
M WA V = M WA F (CA0 − CA ) (2.3)
dt
14 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS
Por lo tanto, las Ecuaciones (2.2) y (2.3) describen nuestro sistema. Se tiene entonces que las variables son
CA y F1 , y las variables externas son F0 y CA0 , entonces el DOF = 0. Se tiene que tener en cuenta que los
parámetros no cambian con el tiempo, lo cual no es real, pero es válido siempre y cuando los cambios sean
lentos.
Solución Matemática: Una de las ventajas de una solución analı́tica es que se puede calcular
valores especı́ficos de la solución, ası́ como determinar las relaciones entre las variables y el comportamiento
del sistema.
El modelo en (2.3) es una ODE lineal de primer orden, que puede ser escrita como
dCA 1 1
+ C A = C A0 (2.4)
dt τ τ
donde τ = V /F = 24,7min, y se conoce como la constante de tiempo del sistema.
Para resolver este tipo de ecuaciones, se recurre a lo visto en ecuaciones diferenciales. Se sabe que
Rt1
dt
e 0 τ = et/τ (2.5)
1
et/τ CA (t) = CA0 τ et/τ + I
τ
donde I es una constante. Originalmente se ha asumido que si t = 0, y C A (0) = CAIN IT , por lo que
I = CAIN IT − CA0
Si la entrada u(t) es un escalón unitario, la salida serı́a y(t) = 1 − e−t/τ para t ≥ 0, lo que gráficamente serı́a
equivalente a lo que se ve en la Figura 2.4).
2.3. SISTEMAS DE PRIMER ORDEN Y CONTROLADOR ON-OFF 15
Como se puede ver, una de las caracterı́sticas primordiales de un sistema de primer orden es que si
t = τ , el valor de y(t) serı́a igual al 63.2 % del valor final, i.e.,
Se puede observar también que entre más pequeña sea la constante de tiempo τ , más rápida es la respuesta
del sistema. Otra caracterı́stica importante de este tipo de sistemas es que la lı́nea tangente en t = 0 es 1/τ ,
ya que
dy(t) 1 1
= e−t/τ
=
dt τ t=0 τ
Es claro también que si no se tuviese una entrada escalón unitario sino x(t) = Ku(t), entonces la salida serı́a
Para el caso del ejemplo en cuestión, CAIN IT = 0,925 y τ = 24,7min, lo cual nos brinda la rapidez con la
que responde el sistema. Todo esto depende del equipo (i.e., por el volumen V ), y la operación del proceso
(i.e., F ).
17◦ C ON y 23◦ C OFF; TINroom = 20◦ C, y el horno está apagado originalmente; La temperatura ambiente
es TA = 10◦ C.
Formulación: El sistema se define como el aire dentro de la casa. Para determinar la temperatura,
un balance de energı́a es necesario (como no hay material que se transmite, no se necesita hacer balance de
materia). La aplicación del balance de energı́a darı́a:
dY
= 0 − 0 + Q − Ws (2.6)
dt
Sin embargo, Ws = 0. Utilizando los principios de termodinámica y transferencia de calor, y sabiendo que
la acumulación de energı́a cinética y potencial son despreciables,
dU
dt = ρCV V dT
dt (2.7)
Q = −U A(T − TA ) + Qh
donde
0 T > 23
Qh = 1,5 × 106 T < 17
sin cambio 17 ≤ T ≤ 23
Por lo tanto las Ecuaciones (2.6) y (2.7) describen totalmente el sistema. El DOF es 0 ya que además se
tienen dos variables (i.e., T y Qh ), cuatro parámetros (i.e., U A, CV , V , y ρ), y una variable externa TA . La
ecuación que describirı́a finalmente todo el sistema es
dT
ρCV V = −U A(T − TA ) + Qh (2.8)
dt
Solución: Ordenando (2.8) se tiene que
dT 1 U ATA + Qh
+ T = (2.9)
dt τ ρCV V
La solución de (2.9) depende claramente del valor de Qh , por lo que
T − TIN IT = (TF IN AL − TIN IT )(1 − e−t/τ ) (2.10)
donde t es el tiempo desde el paso en Qh y τ = 0,34h de acuerdo a los valores asignados originalmente. El
valor de TF IN AL viene dado por
Qh 10◦ C cuando Qh = 0
TF IN AL = TA + =
UA 43,3◦ C cuando Qh = 1,5 × 106
El valor de TIN IT es el valor de temperatura cuando un paso en Qh ocurre.
En la Figura 2.6) se muestra un ejemplo de cómo serı́a la respuesta de un controlador ON-OFF.
2.4. TRANSFORMADA DE LAPLACE 17
donde s = σ + jw es una variable compleja. El término e−st es una exponencial decreciente que ayuda a la
convergencia del sistema. Existen ciertas limitantes en x(t) para que exista transformada de Laplace:
Definition 2 Una función x(t) es piecewise continuous en un intervalo finito si este intervalo puede ser
dividido en un número finito de subintervalos sobre los cuales la función es continuo y se tienen lı́mites por
izquierda y derecha de x(t).
Definition 3 Una función x(t) es de orden exponencial si existe una constante a tal que e −at |x(t)| esté aco-
tada para todo valor de t mayor que un valor finito T .
Esta última limitante impone la restricción de que σ, i.e., la parte real de s tiene que ser mayor a un lı́mite
inferior σa , para el cual el producto e−σa t |x(t)| es de orden exponencial. Esto es lo que se conoce como el
concepto de region of convergence (ROC).
Utilizando (2.11),
R∞
X(s) = x(t)e−st dt
0
R∞
= e−at e−st dt
0
R∞
= e−(s+a)t dt
0
1 1
= − s+a lı́mt→∞ e−((σ+a)+jw)t + s+a
z }| {
0 if σ + a > 0
1
X(s) =
s+a
esto es válido para Re{s} > −a.
Utilizando (2.11),
Z∞
X(s) = cos(wt)e−st dt
0
Por Euler cos(wt) se convierte en
∞
Z Z∞
1
X(s) = e(jw−s)t dt + e(−jw−s)t dt
2
0 0
1 1 1 1 1 1
X(s) = lı́m e(jw−s)t − lı́m e(−jw−s)t − −
2 jw − s t→∞ jw + s t→∞ 2 jw − s jw + s
Sin embargo,
lı́m e(jw−σ−jw)t = 0 if σ > 0
t→∞
s
L {cos(wt)u(t)} = s2 +w2
Utilizando (2.11),
Z∞
X(s) = te−st dt
0
Integrando por partes, y utilizando
Zb Zb
b
udv = [uv]a − vdu
a a
1
L {tu(t)} = s2 if Re{s} > 0
2.4. TRANSFORMADA DE LAPLACE 19
Linearidad
Si
L
x1 (t) ←→ X1 (s)
L
x2 (t) ←→ X2 (s)
Entonces,
L
a1 x1 (t) + a2 x2 (t) ←→ a1 X1 (s) + a2 X2 (s)
Corrimiento en tiempo
Si
L
x(t) ←→ X(s)
Entonces,
L
x(t − t0 ) ←→ X(s)e−st0
R∞
L {x(t − t0 )} = x(τ )e−s(τ +t0 ) dτ
0
R∞
= e−st0 x(τ )e−sτ dτ
0
= e−st0 X(s)
Si
L
x(t) ←→ X(s)
Entonces,
L
es0 t x(t) ←→ X(s − s0 )
Ejemplo 2.4.4
L
e3t x(t) ←→ X(s − 3)
L {cos(w0 t)x(t)} = L { 21 x(t) ejw0 t + e−jw0 t }}
= L { 12 x(t)ejw0 t } + L { 12 x(t)e−jw0 t }
1
= 2 X(s − jw0 ) + 12 X(s + jw0 )
20 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS
Time Scaling
Si
L
x(t) ←→ X(s)
Entonces,
L 1 s
x(at) ←→ X
|a| a
Proof: Por (2.11)
Z∞
L {x(at)} = x(at)e−st dt
0
1
Cambiando de variables y definiendo τ = at, a dτ = dt, entonces si a > 0
1
R∞ τ
L {x(at)} = a x(τ )e−s( a ) dτ
0 (2.12)
1 s
= aX a
Si a < 0, se tiene
Z∞
L {x(at)} = x(at)e−st dt
0
1
Cambiando de variables y definiendo τ = at, a dτ = dt,
1
R0 τ
L {x(at)} = a x(τ )e−s( a ) dτ
∞
R∞ τ (2.13)
= − a1 x(τ )e−s( a ) dτ
0
= − a1 X s
a
1 s
L {x(at)} = X
|a| a
Time Reversal
Si
L
x(t) ←→ X(s)
Entonces,
L
x(−t) ←→ X(−s)
Differentiation
Si
L
x(t) ←→ X(s)
Entonces,
dx(t) L
←→ sX(s) − x(0)
dt
2.4. TRANSFORMADA DE LAPLACE 21
Entonces,
dx(t)
L = sX(s) − x(0)
dt
Si
L
x(t) ←→ X(s)
Entonces,
dn x(t) L n
←→ s X(s) − sn−1 x(0) − sn−2 ẋ(0) − . . . − sxn−2 (0) − xn−1 (0)
dtn
donde xn−1 (0) corresponde a la derivada n − 1 de x evaluada en t = 0.
n o
dx(t)
Ejemplo 2.4.5 Sea x(t) = e−t u(t). Encuentre L dt .
Si
L
x(t) ←→ X(s)
Entonces,
L dN
tN x(t) ←→ (−1)N X(s)
dsN
Integration
Si
L
x(t) ←→ X(s)
Entonces,
Zt
L 1
x(λ)dλ ←→ X(s)
s
0
Convolución
Si
L
x1 (t) ←→ X1 (s)
L
x2 (t) ←→ X2 (s)
Entonces,
L
x1 (t) ∗ x2 (t) ←→ X1 (s)X2 (s)
En la Figura 2.7 tomada de [31] se pueden ver algunas de las transformadas tradicionales de Laplace.
.
Ejemplo 2.4.6 [29] Un calibrador óptico utilizado por la Chrysler Corporation, el cual se utiliza para
verificar el perfecto alineamiento de todos los componentes metálicos de varias clases de Sedan de cuatro
puertas, tiene unas dinámicas en lazo cerrado dadas por
ÿ + 5ẏ + 6y = f (t)
Primero tendrı́amos que colocar el sistema en términos de la transformada de Laplace como sigue
Esto es equivalente a
s+5 −2 3
Y (s) = = +
(s + 3)(s + 2) s+3 s+2
Tomando la transformada inversa de Laplace se obtiene finalmente que
r =
-2.0000
3.0000
p =
-3.0000
-2.0000
k =
[]
Para poder obtener la transformada inversa de Laplace se utilizan por lo general fracciones parciales.
24 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS
Polos Sencillos
Sea
n
N (s) X ki
P (s) = =
D(s) i=1
(s − pi )
donde
ki = [(s − pi )P (s)]|s=pi
siempre y cuando el grado del numerador sea menor a la del denominador.
Polos Múltiples
Sea
N (s) k11 k1r k21 k2m
P (s) = = + ... + r
+ + ... + + ...
D(s) (s − p1 ) (s − p1 ) (s − p2 ) (s − p2 )m
donde
k1r = [(s − p1 )r P (s)]|s=p1
1 di [(s − p1 )r P (s)]
k1i = i = 1, . . . , r − 1
i! dsi
s=pi
r =
2
1
-2
1
p =
-1
-1
0
0
k =
[]
%
2.4. TRANSFORMADA DE LAPLACE 25
ki ki+1 ∗
P (s) = + ki = ki+1
(s − (−α + jβ)) (s − (−α − jβ))
donde
ki = [(s + (α − jβ))P (s)]|s=−α+jβ
Por lo tanto,
p(t) = ki e(−α−jβ)t + ki∗ e(−α+jβ)t
p(t) = 2|ki |e−αt cos (βt + ]ki )
Ejemplo 2.4.9 [7] Se tiene un sistema simple de masa resorte como se ve en la Figura 2.8. Este sistema
representa, por ejemplo, un amortiguador de choques para un vehı́culo. En él se puede ver el diagrama de
cuerpo libre de la masa M , donde b es el amortiguamiento viscoso (i.e., la fuerza de fricción es linealmente
proporcional a la velocidad de la masa), y la constante de un resorte ideal k.
.
La ecuación diferencial vendrı́a dada por la suma de fuerzas actuando sobre M , i.e., utilizando la
segunda ley de Newton, X
Ma = F
(M s + b)y0 n(s)
Y (s) = = (2.14)
M s2 + bs + k d(s)
26 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS
Si d(s) = 0, estamos hablando de la ecuación caracterı́stica, porque las raı́ces de esta ecuación determinan
la caracterı́stica de la respuesta en tiempo. Las raı́ces de la ecuación caracterı́stica se conocen como polos o
singularidades del sistema. Las raı́ces de n(s) se denominan ceros.
Consideremos el caso cuando k/m = 2 y b/m = 3, por lo que
(s + 3)y0
Y (s) =
(s + 1)(s + 2)
.
Utilizando expansión en fracciones parciales se tiene
2 1
Y (s) = −
s+1 s+2
Tomando la transformada inversa de Laplace se obtiene finalmente que
Usualmente también se desea obtener el valor final o valor en estado estacionario. Para ello se utiliza
una de las propiedades más útiles de la transformada de Laplace, i.e., el teorema del valor final. Este se
puede ver como
lı́m y(t) = lı́m sY (s)
t→∞ s→0
Cabe aclarar que esto sólo es válido si lı́mt→∞ y(t) existe. Para el ejemplo en cuestión, es claro que lı́mt→∞ y(t) =
0, lo que implica que la posición final de la masa es la posición y = 0.
Podrı́amos ilustrar los puntos principales de la transformada de Laplace hasta ahora enunciados por
métodos gráficos. Para ello, tomemos la Ecuación (2.14) nuevamente, i.e.,
b
(s + M )y0
Y (s) = b k
s2 + ( M )s + M
donde ζ es la tasa de amortiguamiento (no tiene dimensiones), y ωn es la frecuencia natural del sistema. El
polinomio caracterı́stico serı́a
d(s) = s2 + 2ζωn s + ωw
2
=0
2.4. TRANSFORMADA DE LAPLACE 27
Cuando ζ = 1, las raı́ces son repetidas y reales. Esta última condición se conoce como amortigua-
miento crı́tico.
Para el caso cuando ζ > 1, la respuesta es subamortiguada, y las raı́ces de (2.15) se podrı́an escribir como
p
s1,2 = −ζωn ± jωw 1 − ζ2
Si graficáramos en el plano-s los polos y ceros de Y (s) obtendrı́amos lo que se ve en la Figura 4.8 [7].
donde θ = cos−1 ζ. Si asumimos que ωn es constante, las raı́ces complejas conjugadas variarı́an de-
pendiendo del valor de ζ como se ve en la Figura 2.11 [7].
Es claro que la respuesta transitoria aumentará sus oscilaciones a medida que las raı́ces tiendan al
eje jω, i.e., cuando ζ tiende a cero.
Si calculáramos la transformada inversa utilizando la expansión en fracciones parciales para el caso
en que ζ < 1, tendrı́amos que
k1 k1∗
Y (s) = +
s − s1 s − s2
donde p
s1 = −ζωn + jωw 1 − ζ2
p
s2 = −ζωn − jωw 1 − ζ2
Utilizando las ideas vistas previamente, obtenemos que
1 1 ζ
k1 = − y 0 − j y 0 p
2 2 1 − ζ2
28 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS
Figura 2.11: Representación cómo varı́a ζ en el plano-s cuando ωn se mantiene constante [7].
Por lo tanto,
1 1
|k1 | = y0 p
2 1 − ζ2
y
ζ
∠k1 = tan−1 p
1 − ζ2
Finalmente, la respuesta en tiempo serı́a igual a
!
1 −ζωn t
p ζ
y(t) = y0 p e cos ωn t 1 − ζ 2 + tan−1 p
1 − ζ2 1 − ζ2
Gráficamente, esto se verı́a como se observa en la Figura 2.12 [7].
.
Mı́rese ahora la relación entre la respuesta en tiempo y la ubicación de los polos y ceros en el plano-s.
Si ζωn varı́a, entonces la envolvente e−ζωn t también, por lo que la respuesta cambiarı́a. Entre más grande
sea el valor de ζωn , más rápido será el amortiguamiento de la respuesta. Esto implicarı́a desplazar bastante
los polos hacia la izquierda del plano-s.
Es claro que en aplicaciones de control se tendrán más polos, por lo que la respuesta transitoria
dependerá de la contribución de todos ellos. Estas ideas se analizarán más adelante.
2.5. FUNCIONES DE TRANSFERENCIA 29
En esta definición, válida para sistemas lineales e invariantes en el tiempo, se tiene que para un sistema como
(7.18), la relación entre la entrada u y la salida y estará dado por una transformación en frecuencia de las
señales, siempre y cuando las condiciones iniciales sean nulas.
Esto serı́a,
L [salida]
H(s) =
L [entrada] CI=0
dónde L [·] es la transformada de Laplace. Aplicando esto a (7.18), se obtiene que
Cabe aclarar que en realidad la respuesta de un sistema está dada por dos componentes:
n(s) p(s)
Y (s) = R(s) +
d(s) d(s)
| {z } | {z }
Respuesta a Estado Cero Respuesta a Entrada Cero
Respuesta Forzada Respuesta Natural
Función de Transferencia
Ejemplo 2.5.1 [7] Se tiene el sistema que se ve en la Figura 2.13 [7]. Obtener la función de transferencia
que relaciona la velocidad v1 (t) y la fuerza r(t).
2.6. Linealización
Las aproximaciones de un sistema no lineal a uno lineal se realiza para estudiar el comportamiento
local de un sistema, donde los efectos no lineales son pequeños y prácticamente despreciables. Para que
una ecuación sea lineal, cada uno de los términos no debe contener variables cuya potencia sea mayor que
uno. Existe una técnica de linealización mediante la cual es posible aproximar las ecuaciones no lineales
que se pueden analizar mediante la transformada de Laplace. La suposición básica es que la respuesta de
la aproximación lineal representa la respuesta del proceso en la región cercana a un punto de operación, al
rededor del cual se realiza la linealización [31, 7].
El manejo de las ecuaciones linealizadas se facilita en gran medida con la utilización de las variables
desviación, las que se definen como la diferencia entre el valor de la variable y su valor en un punto de
operación dado. Esto se podrı́a escribir como
x̂(t) = x(t) − x̄ (2.18)
En (2.18) se tiene que x(t) es la variable que se está analizando, y x̄ es el punto de operación al rededor
del que deseamos trabajar. En otras palabras, la variable desviación mide la diferencia entre el valor de la
variable y un valor de operación sobre el que deseamos trabajar (ver Figura 2.14 [31]).
.
La transformación del valor absoluto de una variable al de desviación equivale a mover el cero sobre
el eje de esa variable hasta el valor base, i.e., x̄. Se tiene que
dn x̂(t) dn x(t)
n
=
dt dtn
Supongamos que se tiene la ecuación diferencial
ẋ(t) = f (x(t))
La expansión por series de Taylor de la función no lineal f (x(t)) alrededor de un punto de operación x̄
está dada por
df (x(t)) 1 d2 f (x(t)) 2 1 d3 f (x(t))
f (x(t)) = f (x̄) + (x − x̄) + (x − x̄) + (x − x̄)3 + . . .
dx x=x̄ 2! dx2 x=x̄ 3! dx3 x=x̄
2.6. LINEALIZACIÓN 31
La aproximación lineal consiste en tomar únicamente los primeros elementos de la serie, i.e., aquellos que no
están elevados a ninguna potencia. Por lo tanto,
df (x(t))
f (x(t)) ' f (x̄) + (x − x̄) (2.19)
dx x=x̄
Ejemplo 2.6.1 [31] Linealizar la ecuación de Arrhenius para la dependencia de las tasas de reacción
quı́mica de la temperatura,
k(T ) = k0 e−E/RT
Supongamos que T̄ es el punto de operación alrededor del cual queremos linealizar. Tomando (2.19) se tiene
que
dk
k(T ) = k(T̄ ) + T̂
dt T =T̄
Es decir que
E
k(T ) = k(T̄ ) + k(T̄ ) T̂
RT̄ 2
Ejemplo 2.6.2 Analicemos el problema de un tanque acoplado con una válvula que se observa en la Figura...
ANADIR FIGURA
Primero, antes de plantear las ecuaciones diferenciales que nos ayudarı́an a entender el sistema,
recordemos cómo se modela un sistema hidráulico.
El flujo de lı́quido a través de una válvula que está totalmente abierta está dado por
r
∆P
q(t) = CV
G
P = ρgh + Pa (2.21)
donde A es el área del tanque, h la altura, ρ la densidad, g la gravedad, y P a es la presión atmosférica. La
presión P y el volumen V de un tanque están relacionados por dV dP = C como se observa en la Figura...
ANADIR FIGURA
Utilizando la regla de la cadena, se tiene que
dV dV dh
=
dP dh dP
32 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS
dV 1
= A(h)
dP ρg
1
Por lo tanto C = A(h) ρg .
Por otra parte, el volumen en función del tiempo está dado por
Z h
V (t) = V (0) + (qi (α) − qo (α))dα
0
dP 1
= (qi − qo )
dt C
√ √
Retomando el problema original, tenemos que ∆P1 = P1 − Pa , qo = K1 ∆P1 , y por lo tanto
1 p
Ṗ1 = (qi − K1 ∆P1 )
C1
¯ 1 , se obtiene que
Si linealizamos el sistema alrededor de los puntos de operación q̄o y ∆P
K1 ¯ 1)
qo = q̄o + p (∆P1 − ∆P
¯ 1
2 ∆P
¯ 1 = P̄1 − Pa , por lo que
Pero, ∆P
1
qo = q̄o + (P1 − P̄1 )
R1
Reemplazando en la ecuación diferencial, obtenemos que
1 1
Ṗˆ1 = q̂i − P̂1
C1 R1
Si se tomaran las funciones de transferencia de las variables desviación (asumiendo que los puntos de opera-
ción son las mismas condiciones iniciales para simplificar el problema), se obtendrı́an dos sistemas de primer
orden, i.e.,
P̂1 R1
=
q̂i 1 + sC1 R1
q̂o 1
=
q̂i 1 + sC1 R1
Para ver el comportamiento de este sistema, serı́a útil utilizar Simulink para ver el comportamiento tanto
del sistema no lineal y el lineal asumiendo que Pa = 3, P1 = 6, C1 = 5, y K1 = 2.
con x ∈ Rn , u, y ∈ R.
Asumamos que los puntos de operación son x = xe y u = ue . Para estudiar comportamientos locales
del sistema al rededor del punto de operación, se asume que las variables desviación x̂ = x − x e y û =
u − ue son señales pequeñas, tal que las perturbaciones no lineales al rededor del punto de operación pueden
ser despreciadas con respecto a los términos lineales. Utilizando el cambio de variables por las variables
2.7. DIAGRAMAS EN BLOQUES 33
desviación, y tomando w = y − h(xe , ue ), además del hecho que por series de Taylor, y despreciando los
términos de orden superior, se tiene que
∂f ∂f
f (x, u) = f (xe , ue ) + (xe , ue )x̂ + (xe , ue )û + . . .
∂x ∂u
Más formalmente, se puede definir la linealización Jacobiana del sistema no lineal (2.22) como
x̂˙ = Ax̂ + B û
w = C x̂ + Dû
donde A = ∂f ∂f ∂h ∂h
∂x |xe ,ue , B = ∂u |xe ,ue , C = ∂x |xe ,ue , y D = ∂u |xe ,ue . Es importante recalcar que sólo se
puede definir la linealización de un sistema con respecto a un punto de operación.
Es decir, si uno generalizara para una función con n variables xi , i = 1, . . . , n tendrı́amos que ésta se
linealiza como
n
X ∂f
f (x1 , . . . , xn ) = f (x̄1 , . . . , x̄n ) + (xk − x̄k ) (2.23)
∂xk
(x̄1 ,...,x̄n )
k=1
Figura 2.15: Algunas reglas útiles cuando se manejan diagramas en bloques [31, 22].
34 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS
Se dice que se tiene una combinación en serie cuando se tienen dos funciones de transferencia conec-
tadas una después de otra. En la Figura 2.16 [7] se muestra un sistema cuya salida X 3 (s) = X2 (s)G2 (s)
está conectada con un sistema que tiene una salida X2 (s) = X1 (s)G1 (s). Reemplazando W (s) en la primera
ecuación, se tiene que X3 (s) = X1 (s)G1 (s)G2 (s), lo que es equivalente al diagrama en bloques que también
se puede ver en la Figura 2.16 [7].
Cuando dos sistemas tienen una entrada en común, y sus salidas están “atadas” a un sumador, se
tiene una combinación en paralelo. Analı́ticamente, se tendrı́a que X 1 (s) = X(s)F1 (s), X2 (s) = X(s)F2 (s), y
Y (s) = X1 (s)+X2 (s). Ası́ pues, el diagrama en bloques se puede reducir tal que Y (s) = X(s)(F 1 (s)+F2 (s)).
Un pick-off point es un punto donde llega una variable y de ahı́ se divide en más de un bloque. Las
Figuras 2.17 y 2.18 [7] muestran un par de ejemplos.
En la Figura 2.21, G(s) se conoce como la forward transfer function, mientras que H(s) se conoce
como la feedback transfer function. El conjunto G(s)H(s) se conoce como la open-loop transfer function. La
función de transferencia que relaciona la entrada y la salida de un sistema retroalimentado como el que se
ve en la Figura 2.21 serı́a,
G(s)
T (s) =
1 ∓ G(s)H(s)
Figura 2.21: Ejemplo del álgebra de bloques para sistemas retroalimentados [7].
2.7.6. Ejemplos
Definition 6 Una rama es un segmento lineal dirigido que une dos nodos.
Definition 7 Un nodo de entrada (source) es un nodo que sólo tiene una rama saliente. Un nodo de salida
(sink) es un nodo que sólo tiene ramas entrantes. Un nodo mixto es aquel que tiene tanto ramas de entrada
y de salida. Un nodo suma las señales de todas las ramas entrantes y transmite esta suma a todas las ramas
salientes.
Definition 8 Un trayecto es una conexión entre ramas de un nodo a otro con las flechas en la misma
dirección. Es decir, todas las señales van en la misma dirección de un nodo a otro.
Un trayecto directo es aquel que conecta un nodo de entrada con un nodo de salida donde ningún nodo
se encuentra más de una vez.
Definition 9 Un lazo es una trayectoria cerrada (loop) en la cual ningún nodo se repite. Nótese que ningún
nodo de entrada puede ser parte de una trayectoria cerrada ya que cada nodo en un lazo debe tener al menos
una rama que llegue al nodo y al menos otra rama saliendo.
Se dice que un lazo es disyunto cuando no se tiene un nodo en común.
Definition 10 La ganancia del trayecto es el producto de las funciones de transferencia de todas las ramas
del trayecto.
Es claro que para un sistema dado pueden existir varias formas de realizar el diagrama de flujo. Para
determinar la relación entrada salida, se puede reducir el diagrama de flujo utilizando álgebra (similar a lo
que vimos previamente), o se puede utilizar le ley de Mason que definimos a continuación. La función de
transferencia entre un nodo de salida y uno de entrada, está dada por
n
1 X
F (s) = Pk ∆ k (2.24)
∆
k=1
Pero las lenguas son sustancias radioactivas que hunden sus raı́ces en nuestro corazón más primitivo,
en la oscura e irracional memoria de la horda. Rosa Montero
3.1. Introducción
Como se ha visto previamente, un sistema de control se compone de una serie de elementos que están
interconectados de tal forma que se obtiene una respuesta deseada del sistema. Ya que lo que uno desea
es conocido, una señal proporcional al error producido entre la señal deseada y la actual se puede generar
(ver Figura 4.1p213). Para ello, algún tipo de retroalimentación es necesaria, la cual redundará en un mejor
comportamiento del sistema. Es claro que este tipo de retroalimentación aparece en varios sistemas en la
naturaleza, como lo son los sistemas biológicos y fisiológicos.
ANADIR FIGURA
Para poder entender las ventajas y caracterı́sticas a la hora de introducir la retroalimentación, com-
paremos con un sistema en malla abierta como el de la Figura...
ANADIR FIGURA
En este caso, es claro que la perturbación TD (s) influye directamente Y (s), por lo que en ausencia
de retroalimentación, el sistema de control es bastante sensible a las perturbaciones y a los cambios en los
parámetros de G(s).
Por otro lado, un sistema retroalimentado negativamente serı́a como el que se observa en la Figura...
ANADIR FIGURA
A pesar de la complejidad, se tiene una serie de ventajas como:
37
38 CAPÍTULO 3. CARACTERÍSTICAS DE LOS SISTEMAS
Analizando (3.4) se puede ver que para un Gp (s) dado, si queremos minimizar el error, se necesita que S(s)
y C(s) sean lo más pequeños posibles. Sin embargo, ambas funciones dependen de G c (s), y además
S(s) + C(s) = 1
Por lo que no podrı́an minimizarse ambas funciones al tiempo. Para poder entender qué significa que una
función sea grande o no, analicemos la magnitud de L(s), i.e., |L(jω)| a lo largo de un rango de frecuencias
ω de interés. Para reducir la influencia de D(s) en E(s) se quiere que L(s) sea grande en el rango de
Gp (s)
frecuencias que caracterizan la perturbación. Por ende, 1+L(s) será pequeño, haciendo que la influencia de
D(s) disminuya. Al tener L(s) = Gc (s)Gp (s) se requiere que la magnitud de Gc (s) sea alta. Para atenuar la
influencia del ruido N (s) en E(s), se requiere que L(s) sea pequeño en el rango de frecuencias que caracterizan
L(s)
el ruido. Por ende, 1+L(s) será pequeño, haciendo que Gc (s) tenga que tener una magnitud pequeña en ese
mismo rango de frecuencias.
que en un sistema de malla cerrada esto podrı́a reducirse gracias al sensado de la salida en la entrada. Para
ello, la sensitivdad es de vital importancia.
Por ejemplo, si Gc Gp >> 1 para toda frecuencia, la salida serı́a Y (s) ≈ R(s) cuando D(s) = N (s) = 0.
Esto implicarı́a que la salida y la entrada serı́an similares, pero Gc Gp >> 1 causarı́a oscilaciones y se podrı́a
llegar a la inestabilidad del sistema.
El hecho de que aumente la magnitud de la ganancia de lazo, disminuye el efecto de G p (s) en la salida,
es de mucha utilidad. Por lo tanto, la primera ventaja de un sistema retroalimentado es que el efecto en las
variaciones de los parámetros del proceso Gp (s) se ve reducida.
Supongamos que la planta se ve sujeta a una serie de cambios en los parámetros (e.g., cambios del
ambiente, envejecimiento) de tal forma que la verdadera función de transferencia del proceso es
Consideremos los efectos que se producen en el error E(s) debidos a ∆Gp (s), asumiendo que D(s) = N (s) = 0,
y que sólo tenemos como entrada la referencia.
1
E(s) + ∆E(s) = R(s)
1 + Gc (s)(Gp (s) + ∆Gp (s))
Gc (s)∆Gp (s)
∆E(s) = − R(s)
(1 + Gc (s)(Gp (s) + ∆Gp (s)))(1 + Gc (s)Gp (s))
Gc (s)∆Gp (s)
∆E(s) ≈ − R(s)
(1 + L(s))2
Esto quiere decir que el error se ve reducido por un factor 1 + L(s), el cual por lo general se hace mucho más
grande que 1 en el rango de frecuencias de interés. Es decir que por lo general, 1 + L(s) ≈ L(s), haciendo
que
1 ∆Gp (s)
∆E(s) ≈ − R(s)
L(s) Gp (s)
La sensitividad se verá reducida para cambios en el proceso siempre y cuando L(s) sea grande, i.e., sensi-
tividad S(s) menor. Para este caso, la sensitividad del sistema se define como la proporción de cambio
en la función de transferencia del sistema a cambios en el Gp (s) para pequeños cambios incrementales. Es
decir, si la función de transferencia del sistema es
Y (s)
T (s) =
R(s)
∆T (s)/T (s)
S(s) =
∆Gp (s)/Gp (s)
En el lı́mite, para pequeños cambios, esta ecuación se convierte en
La sensitividad en malla abierta a cambios de la planta Gp (s) es igual a 1. Demostremos que en malla
cerrada, se tiene lo mismo obtenido previamente.
Gc (s)Gp (s)
T (s) =
1 + Gc (s)Gp (s)
SαT (s) = SG
T
p
(s)SαGp (s)
Cuando la función de transferencia del sistema depende de un parámetro α que está sujeto a variaciones del
estado, i.e.,
N (s, α)
T (s) =
D(s, α)
Su función de sensitividad estarı́a dada por
∂ ln T (s) ∂ ln N (s, α) ∂ ln D(s, α)
SαT (s) = = − = SαN (s) − SαD (s)
∂ ln α ∂ ln α α0 ∂ ln α α0
Ejemplo 3.3.1 Se tiene el sistema en malla cerrada con retroalimentación negativa unitaria y ganancia de
lazo 1+K−K a
a (β+1)
como se ve en la Figura...
ANADIR FIGURA
La función de transferencia está dada por
−Ka
1+Ka (β+1) −Ka
T (s) = =
1 − 1+KK a
a (β+1)
1 + Ka β
Hemos renunciado a buscar un mundo perfecto quizá porque sabemos que la perfección es imposible y a
lo mejor indeseable. Todos aspiramos con las justas a ser sobrevivientes dignos y nos resignamos con
humor a las injusticias, la corrupción y la violencia que vemos a diario. Alonso Cueto
Antes de iniciar con el diseño de los controladores, necesitamos entender cómo se comportan los
sistemas con respecto a diversas entradas. Los sistemas que analizaremos son sistemas lineales e invariantes
en el tiempo (LTI), por lo cual se utilizará la transformada de Laplace para poder analizar el comportamiento
de sistemas de primero y segundo orden. Luego, se muestra que los sistemas de orden superior son una
combinación de las respuestas de primer y segundo orden. Las entradas más comunes en los sistemas de
control, de las cuales cuatro se ilustran en la Figura 4.1. Estas serı́an:
Entrada paso (escalón unitario): Este tipo de entrada se encuentra en varios sistemas como lo son
sistemas de temperatura donde se quiere conservar la misma temperatura en algún lugar determinado.
Entrada rampa: En el aterrizaje automático de un avión, la aeronave sigue una entrada rampa que le
indicará la pendiente de planeación a seguir (por lo general es igual a 3). Otro ejemplo que se encuentra
en la industria es el del tratamiento del calentamiento del acero. La temperatura se incrementa de forma
gradual a lo largo del tiempo.
Entrada sinusoidal: Su utilidad no parece evidente a simple vista, ya que por lo general no se requiere
que un sistema “siga” este tipo de señales. Sin embargo, si se conoce la respuesta de este tipo de
entradas en sistemas LTI para todas las frecuencias, se podrá tener una descripción más completa del
sistema. De esta forma, se podrán diseñar compensadores o controladores para un sistema.
Hay otro tipo de entradas que se pueden utilizar como son las parabólicas, o aquellas que podrı́an ser
descritas de forma general como
r(t) = tn
Es claro que como su transformada de Laplace es
n!
R(s) =
sn+1
su respuesta estará relacionada con otras señales de prueba.
En el siguiente análisis se verá que la respuesta en tiempo de un sistema está compuesto de dos
elementos: (i) la respuesta transitoria (o respuesta natural), que es aquella que representa la forma como se
va desde el estado inicial hasta el estado final, y (ii) la respuesta en estado estacionario (o entrada forzada),
que representa el comportamiento del sistema cuando el tiempo tiende a infinito.
Para el siguiente análisis, se presentan ejemplos y simulaciones en Matlab y Simulink. Las siguientes
notas han sido adaptadas a partir de varios textos de control (e.g., [22, 31, 28, 7]).
41
42 CAPÍTULO 4. RESPUESTA DE LOS SISTEMAS
8
1.5
6
1
4
0.5
2
0 0
0 2 4 6 8 10 0 2 4 6 8 10
tiempo tiempo
80
0.5
60
0
40
−0.5
20
−1 0
0 2 4 6 8 10 0 2 4 6 8 10
tiempo tiempo
Si se tiene una entrada paso, entonces R(s) = 1s por lo que, utilizando fracciones parciales, C(s) se
vuelve igual a
K K
C(s) = −
s s + τ1
Tomando la transformada inversa de Laplace, se obtiene que
t
c(t) = K 1 − e− τ (4.2)
donde ctr (t) corresponde a la respuesta que va del estado inicial al estado final, y c ss (t) corresponde a la
manera como se comporta la salida del sistema conforme t → ∞.
La Figura 4.2 ilustra el resultado de (4.2) cuando K = 1, y τ = 10. En (4.2) la primera parte de
t
la respuesta corresponde a la respuesta en estado estacionario, mientras que la segunda parte, i.e., Ke − τ
corresponde a la respuesta transitoria del sistema. Esto se debe a que si tomamos el lı́mite cuando t tiende
a infinito de (4.2) , obtenemos que
lı́m c(t) = lı́m sC(s) = K
t→∞ s→0
4.1. SISTEMAS DE PRIMER ORDEN 43
Por lo cual K corresponde al valor final o el valor en estado estable. La constante τ se conoce como la
constante de tiempo, y como se puede observar en la figura, después de 4τ o 5τ el sistema ya está cerca del
valor final. Por lo general, para t ≥ 4τ la respuesta permanece dentro del 2 % del valor final.
Step Response
0.9
0.8
0.7
0.6
Amplitude
0.5
0.4
0.3
0.2
0.1
0
0 10 20 30 40 50 60 70 80
Time (sec)
Figura 4.2: Respuesta a entrada paso del sistema de primer orden (4.1) cuando K = 1, y τ = 10. La lı́nea
punteada roja representa el valor final cuando se ha cumplido el primer τ , mientras que la punteada negra
representa el valor final cuando se han cumplido 2τ .
Otro punto interesante a analizar es lo que puede verse en la Figura 4.2. Cuando t = τ , el valor final
es igual al 63.2 % del valor final, ya que c(τ ) = K − Ke−1 = 0,632K. Cuando t = 2τ se llega al 86.5 % del
valor final. Estos dos puntos se representan en la Figura 4.2. Ası́ pues, cuando la constante de tiempo τ es
pequeña, la respuesta es más rápida, y esto se puede ver porque la pendiente de la curva en t = 0 es igual a
K
τ .
K Kτ Kτ
C(s) = − +
s 2 s s + τ1
La Figura 4.3 muestra un par de ejemplos de este tipo de respuesta. Para este caso, Kt − Kτ corresponde al
t
estado estacionario, mientras que Kτ e− τ corresponde a la respuesta natural. El error en este caso vendrı́a
dado por e(t) = Kr(t) − c(t), por lo que
t
e(t) = Kτ + Kτ e− τ
Tomando el lı́mite de esta señal, tendremos que lı́mt→∞ e(t) = Kτ . Por lo tanto, entre más pequeño Kτ
menor será la diferencia entre la entrada y la salida en estado estacionario. Esto se puede apreciar más
claramente si comparamos las dos gráficas en la Figura 4.3. En el panel superior el valor del error es 10,
mientras que en el segundo caso es igual a 1. De esta forma, se puede observar claramente como el error
disminuye.
44 CAPÍTULO 4. RESPUESTA DE LOS SISTEMAS
80
70
60
50
Amplitude
40
30
20
10
0
0 10 20 30 40 50 60 70 80
Time (sec)
80
70
60
50
Amplitude
40
30
20
10
0
0 10 20 30 40 50 60 70 80
Time (sec)
Figura 4.3: Respuesta a entrada rampa del sistema de primer orden (4.1) cuando K = 1, y τ = 10 para el
panel superior, y τ = 1 para el panel inferior.
C(s) wn2
= 2 (4.3)
R(s) s + 2ζwn s + wn2
Esta forma se conoce como la forma estándar del sistema de segundo orden. Para el caso especı́fico del
servosistema descrito previamente, wn2 = K B
J , y 2ζwn = 2σ = J . El término wn se conoce como la frecuencia
natural no amortiguada, ζ es el factor de amortiguamiento relativo del sistema, y σ es la atenuación.
√ El
factor de amortiguamiento relativo ζ es el cociente real B y el amortiguamiento crı́tico B c = 2 JK.
Figura 4.4: Sistema de segundo orden [7]. En a) se tiene el grafo, mientras que en b) el diagrama en bloques.
C(s) wn2
=
R(s) (s + ζwn + jwd )(s + ζwn − jwd )
p
donde la frecuencia natural amortiguada del sistema wd es igual a wd = wn 1 − ζ 2 . Si R(s) es una entrada
paso, se tiene que
2
wn
C(s) = s(s+ζwn +jwd )(s+ζwn −jwd )
1 s+2ζwn
= s − s2 +2ζwn +wn2
1 s+ζwn ζwn
= s − (s+ζwn )2 +wd2 − (s+ζw )2 +w 2
n d
Por lo tanto, !
−ζwn t ζ
c(t) = 1 − e cos(wd t) − e−ζwn t sin(wd t)
p
(1 − ζ 2 )
√ C
Si se utiliza la identidad trigonométrica C cos β + D sin β = C 2 + D2 sin β + tan−1 D , se obtiene
p !
1 −ζwn t −1 (1 − ζ 2 )
c(t) = 1 − p e sin wd t + tan (4.4)
(1 − ζ 2 ) ζ
De (4.4) se puede deducir que la frecuencia de oscilación por parte de la respuesta transitoria es igual a w d ,
i.e., depende directamente de ζ. Si analizáramos la señal de error para este caso, obtendrı́amos que
Como se puede ver, la señal de error presenta una oscilación amortiguada, por lo que si t → ∞, entonces no
existe error. El único caso crı́tico serı́a si ζ = 0, donde se tiene una oscilación permanente, con una frecuencia
wn (porqué?). Un ejemplo de cómo serı́a la respuesta en tiempo para diversos casos se ilustra en la Figura
4.5.
Si los dos polos de (4.3) son iguales, el sistema tendrı́a que ζ = 1, por lo que a entrada paso se tiene
que
wn2
C(s) =
s(s + wn )2
46 CAPÍTULO 4. RESPUESTA DE LOS SISTEMAS
1.8
1.4
1.6
1.2
1.4
1
1.2
1 0.8
0.8
0.6
0.6
0.4
0.4
0.2
0.2
0 0
0 2 4 6 8 10 12 14 16 18 20 0 2 4 6 8 10 12 14 16 18 20
1.2 1.2
1 1
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0 0
0 2 4 6 8 10 12 14 16 18 20 0 2 4 6 8 10 12 14 16 18 20
Figura 4.5: Respuesta a entrada paso del sistema de segundo orden descrito por (4.3). En este caso, se tiene
que ζ = 0 para el panel superior izquierdo, ζ = 0,2 para el panel superior derecho, ζ = 0,4 para el panel
inferior izquierdo, y ζ = 0,8 para el panel inferior derecho. En todos los casos, w n = 24.
Esto parte de la base que si ζ = 1, tocarı́a aproximar uno de los factores de (4.4) a
sin(wd t)
lı́m p = wn t
ζ→1 1 − ζ2
La Figura 4.6 muestra un ejemplo de como responderı́a el sistema para este caso.
Figura cuando ξ = 1
1
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
0 2 4 6 8 10 12 14 16 18 20
Figura 4.6: Respuesta a entrada paso del sistema de segundo orden descrito por (4.3) cuando ζ = 1 y w n = 24.
4.2. SISTEMAS DE SEGUNDO ORDEN 47
En este caso, los dos polos de la función de transferencia en (4.3) son reales negativos y diferentes.
Para una entrada paso, se tiene que
wn2
C(s) = p p
s(s + ζwn + wn ζ 2 − 1)(s + ζwn − wn ζ 2 − 1)
La transformada inversa de Laplace nos da
−s1 t
wn e e−s2 t
c(t) = 1 + p − (4.6)
2 ζ2 − 1 s1 s2
p p
donde s1 = ζwn + wn ζ 2 − 1 y s2 = ζwn − wn ζ 2 − 1. Si se analiza (4.6) se puede ver que se tienen
dos factores exponenciales que decaen. Entre más grande es el valor de ζ, uno de las exponenciales decae
más rápidamente (s2 serı́a considerablemente menor a s1 , por lo que la exponencial asociada a este polo
podrı́a “despreciarse”). El efecto que tiene s2 en el sistema serı́a muchı́simo más relevante, por lo cual (4.6)
se aproxima mediante
C(s) s2
=
R(s) s + s2
Esta respuesta es similar a la respuesta de un sistema de primer orden. La Figura 4.7 muestra un ejemplo
de esta situación.
Figura cuando ξ = 2
1
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
0 2 4 6 8 10 12 14 16 18 20
Figura 4.7: Respuesta a entrada paso del sistema de segundo orden descrito por (4.3) cuando ζ = 2 y w n = 24.
Entrada Impulso
Para este caso, se asumirá que se tiene una función de transferencia de la forma
k
H(s) =
s2 + 2ζwn s + wn2
tr : tiempo de subida. Es el tiempo que se necesita para subir del 10 al 90 por ciento del valor final (como
se muestra en la Figura 4.10). Sin embargo, esta definición aplica más para el caso sobreamortiguado.
La definición que se utilizará acá es el tiempo que toma la señal de pasar del 0 al 100 % del valor final.
Utilizando (4.4), tenemos que el tiempo de subida viene dado cuando c(t r ) = 1. Esto quiere decir que
p !
1 −ζwn tr −1 (1 − ζ 2 )
1 = c(t) = 1 − p e sin wd tr + tan
(1 − ζ 2 ) ζ
En la Figura 4.8 se muestra una solución gráfica para poder despejar la tangente en la ecuación anterior.
Eso serı́a igual a
1 wd
tr = tan−1
wd −σ
Entonces,
π−β
tr = wd
4.2. SISTEMAS DE SEGUNDO ORDEN 49
p
Figura 4.8: Ubicación de los polos en el plano-s [7]. Para este caso β = θ, σ = ζw n , y wd = wn 1 − ζ 2.
tp : tiempo de pico. Es el tiempo que se requiere para que la respuesta alcance el primer pico del
overshoot.
Para esto, se tiene que hallar la derivada de c(t) evaluada en tp , ya que esta será igual a 0.
dc
=0
dt t=tp
Esto es equivalente a
wn
p e−ζwn tp sin wd tp = 0
1 − ζ2
Lo que darı́a que sin wd tp = 0, por lo que wd tp = 0, π, 2π, . . .. Como el tp corresponde al primer pico,
π
tp = wd
Si el sistema es sobreamortiguado, el tiempo de pico no estarı́a definido, y en este caso el diseño suele
tener en cuenta tr .
M P : Máximo pico porcentual. Es el valor del máximo pico de la respuesta medido con respecto al
valor de estado estable. El valor se define por lo general como
c(tp ) − c(∞)
MP = × 100 %
c(∞)
Por lo tanto,
50 CAPÍTULO 4. RESPUESTA DE LOS SISTEMAS
− √ ζπ
MP = e 1−ζ 2 × 100 %
ts : tiempo de asentamiento. Es el tiempo que se requiere para que la respuesta del sistema llegue a un
rango dentro del cual se considera que el sistema está en estado estable. Por lo general se utilizan las
reglas del 2 y el 5 % (i.e., estar dentro del 2 o el 5 % del valor final).
−ζwn t
e
Si se analiza el sistema, se puede ver que las curvas 1± √ son las curvas envolventes de la respuesta
1−ζ 2
transitoria (ver Figura 4.9). Por lo tanto, la constante de tiempo de estas curvas es τ = ζw1 n . Como
bien se mencionaba previamente, el ts depende de la tolerancia, i.e., ±2 % o ±5 % del valor final. Si
es el 2 % del valor final, se tendrá que esperar 4τ para que el sistema ingrese dentro de esta banda,
mientras que si es el 5 %, se tendrá que esperar 3τ para que el sistema llegue a este rango. En el primer
caso,
4
ts = ζwn , 2%
3
ts = ζwn , 5%
Figura 4.9: Curvas envolventes para la respuesta a entrada paso del sistema de segundo orden [22].
A partir de todo esto, es claro que si uno desea una respuesta rápida, wn debe ser grande. Además,
para limitar M P y reducir ts , ζ no debe ser demasiado pequeño. La Figura 4.11 ilustra cómo serı́a la relación
en este caso.
4.2. SISTEMAS DE SEGUNDO ORDEN 51
Step Response
1.4
1.2
MP
DC gain
1
0.8
Amplitude
0.6
0.4
0.2
tr
0
tp ts
Time (sec)
Figura 4.10: Respuesta a entrada paso del sistema de segundo orden descrito por (4.7). En este caso, K 1 = 1,
wn = 23,53, and ζ = 0,46.
Figura 4.11: Relación entre M P y ζ. Además, se incluye la relación entre wn tp y el factor de amortiguamiento
[7].
C(s) K
= 2
R(s) s + s(1 + KKh ) + K
Si comparamos con (4.3), se puede deducir que wn2 = K y que 2ζwn = 1 + KKh . Utilizando las ecuaciones
para M P y tp podemos obtener los valores de ζ y wn , para luego obtener las variables deseadas. En este caso,
52 CAPÍTULO 4. RESPUESTA DE LOS SISTEMAS
K
1 1
s2+s
R(s) C(s)
Transfer Fcn
Subsystem
1+sKh
se tiene que
− √ ζπ
e 1−ζ 2 = 0,2
Despejando, se obtiene que ζ = 0,456. Como
π
tp =
wd
Por lo que al despejar se obtiene que wn = 3,53. Con esto se tiene que K = 12,46 y Kh = 0,1781. La Figura
4.13 muestra el resultado de la simulación utilizando estos valores. Es claro que los parámetros de diseño
fueron cumplidos.
Step Response
1.4
System: untitled1
Peak amplitude: 1.2
Overshoot (%): 20
At time (sec): 0.988
1.2
System: untitled1
System: untitled1 Final Value: 1
Settling Time (sec): 2.36
1
System: untitled1
Rise Time (sec): 0.442
0.8
Amplitude
0.6
0.4
0.2
0
0 0.5 1 1.5 2 2.5 3 3.5 4
Time (sec)
Figura 4.13: Respuesta a entrada paso del sistema de segundo orden diseñado para obtener los parámetros
MP y tp definidos en el ejercicio.
entrada paso se puede asemejar a lo visto previamente, haciendo algunas suposiciones (de esta forma, no es
necesario obtener la transformada inversa de Laplace para determinar el comportamiento del sistema).
Por ejemplo, tomemos el sistema de tercer orden,
1
T (s) =
(s2 + 2ζs + 1)(γs + 1)
Si se mostrara el comportamiento en el plano-s se obtendrı́a lo que se observa en la Figura 4.14, el cual
serı́a un sistema normalizado con wn = 1. Clement en (falta ref...) demostró que la performance del sistema
calculada por M P y ts se podrı́a asemejar a un sistema de orden dos cuando
1
≥ 10|ζwn |
γ
Es decir, que la respuesta de un sistema de tercer orden puede aproximarse a uno de segundo orden por sus
1
raı́ces dominantes siempre y cuando la parte real de dichas raı́ces sea menor que 10 de la parte real de la
tercer raı́z.
Por otro lado cabe aclarar que el análisis de un sistema de segundo orden es válido si la función
de transferencia no tiene ceros finitos, ya que si estos están localizados relativamente cerca de los polos
complejos dominantes, la respuesta transitoria del sistema se verı́a altamente afectada. Por ejemplo, si se
tiene un sistema cuya función de transferencia es de la forma
2
ωn
a (s + a)
T (s) = 2
(s + 2ζωn s + ωn2 )
El porcentaje de overshoot a una respuesta escalón unitario será función del término a/ζ, cuando ζ ≤ 1,
como se puede ver en la Figura 4.15.
Otro ejemplo de lo que puede suceder cuando se le añade un polo y un cero adicional se tiene en el
siguiente caso. Asuma que se tiene un sistema cuya función de transferencia es de la forma
2
ωn
a (s + a)
T (s) = 2
(s + 2ζωn s + ωn2 )(1 + τ s)
54 CAPÍTULO 4. RESPUESTA DE LOS SISTEMAS
Figura 4.15: a) Porcentaje de overshoot como función de ζ y ωn cuando un sistema de segundo orden posee
un cero. b) Respuesta a entrada paso para diversos valores de a/(ζωn ). A=5, B=2, C=1, D=0.5, cuando
ζ = 0,45 [7].
Cuyos polos y ceros pueden afectar la respuesta transitoria del sistema. Si a ζω n y τ 1/(ζωn ), entonces
el polo y el cero no tendrán mucho efecto sobre la respuesta a entrada paso. Sin embargo, si se tuviera un
sistema donde
62,5(s + 2,5)
T (s) =
(s2 + 6s + 25)(s + 6,25)
Entonces, sı́ habrı́a inconvenientes. Por ejemplo, la ubicación de los polos en el plano-s serı́a la que se observa
en la Figura 4.16.
Nótese que la ganancia DC es igual a 1 (i.e., T (0) = 1), por lo que se espera tener un error en estado
estacionario nulo a entrada paso. A su vez, se tiene que ζωn = 3, τ = 0,16, y a = 2,5. Si quisiéramos
despreciar el polo real, la función de transferencia serı́a
10(s + 2,5)
T (s) =
(s2 + 6s + 25)
donde el factor de 62.5 cambió por el de 10 para preservar el valor DC de la función. Es claro que en este
caso se tendrı́a que ζ = 0,6, y ωn = 5, lo que implicarı́a que se tienen polos dominantes acompañados de
un cero con a/(ζωn ) = 0,833. Utilizando Matlab, se tiene que el M P = 55 %, y el ts = 1,33 segundos. Sin
embargo, si graficáramos la respuesta a entrada paso del sistema, se ve que se obtiene un overshoot mucho
menor (i.e., 38 %), y que el ts aumenta a 1.6 segundos (ver Figura 4.17). Es decir que los efectos de un tercer
polo en T (s) hacen que se amortigüe el overshoot, pero que se aumente el tiempo de establecimiento. Por lo
tanto, no se puede despreciar el tercer polo en este caso.
4.4. UBICACIÓN DE LAS RAÍCES EN EL PLANO-S Y LA RESPUESTA TRANSITORIA 55
Figura 4.16: Ubicación de los polos y ceros en el plano-s para un sistema de tercer orden [7].
Step Response
1.6
System: T2
Peak amplitude: 1.54
Overshoot (%): 54.4
1.4 At time (sec): 0.353
System: T1
Peak amplitude: 1.38
Overshoot (%): 37.9
At time (sec): 0.565
1.2
System: T2
Settling Time (sec): 1.47
1
System: T1
Settling Time (sec): 1.59
Amplitude
0.8
0.6
0.4
0.2
0
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
Time (sec)
Figura 4.17: Respuesta a entrada paso para un sistema de tercer orden con un cero. Si se desprecia el polo
(-), el overshoot es mayor, pero su ts es menor. Si no se desprecia (–), se tiene que el overshoot disminuye,
haciendo que el tiempo de establecimiento aumente.
P Para un sistema de malla cerrada, los polos de T (s) son las raı́ces de ∆(s) y a su vez los polos de
k k (s)∆k (s), por lo que la respuesta transitoria del sistema estarı́a descrita por las raı́ces de ∆(s) (i.e.,
P
los polos y ceros de T (s) están incluidos en ∆(s)).
La salida de un sistema con ganancia 1 a entrada paso unitaria, donde no hay raı́ces repetidas se
puede expresar como
M N
1 X Ai X Bk + C k
C(s) = + +
s i=1 s + σi s + 2αk s + (αk2 + ωk2 )
2
k=1
donde Ai , Bk , Ck son constantes. Las raı́ces del sistema serı́an s = −σi y s = −αk ± jωk , por lo que al tomar
la transformada inversa se tendrı́a una respuesta transitoria que serı́a la suma de varios términos, i.e.,
M
X N
X
−σi t
c(t) = 1 + Ai e + Dk e−αk t sin ωk t + θk
i=1 k=1
Figura 4.18: Respuesta impulso para varias ubicaciones de las raı́ces en el plano-s. El complejo conjugado
no se muestra [7].
A medida que se vaya tomando experiencia, se va a ver que la ubicación de los ceros también es
fundamental en la respuesta del sistema. Los polos de T (s) determinan los modos particulares que estarán
presentes en la respuesta, mientras que los ceros establecerán un peso relativo en cada uno de los modos.
Por ejemplo, mover un cero cerca de un polo reducirá la contribución relativa del modo correspondiente al
polo. El ejemplo siguiente ilustra mejor estos detalles (ver ppt para el ejemplo...).
Capı́tulo 5
Me costaba entender que no tenı́a que caerle bien a todos para ser respetado, ni tampoco que el agrado
o desagrado que nos procura una persona es algo caprichoso, incapaz de ser explicado sólo por la razón
La materia del deseo, Edmundo Paz Soldán
Uno de los problemas que se tiene a la hora de diseñar los controladores, es el de la estabilidad. Un
sistema puede ser estable o inestable, pero al interactuar con otros dispositivos, las caracterı́sticas pueden
cambiar. Existen varios métodos, que sirven de base para el desarrollo de controladores.
Criterio de estabilidad Routh-Hurwitz: este criterio fue de los primeros métodos de estabilidad desa-
rrollados. Su importancia radicaba en la consecución del número de raı́ces con parte real positiva, con
lo que se podı́a determinar si un sistema era o no estable. Se dice que un sistema es de fase mı́nima si
todos los polos y ceros están ubicados en el semiplano izquierdo del plano s (si al menos uno se ubica
en el semiplano derecho, se dicen de fase no mı́nima).
Criterio del lugar de las raı́ces: Evans desarrolló un método gráfico que permitı́a entender más clara-
mente cómo se desplazaban los polos y ceros de la ecuación caracterı́stica. Durante muchos años su
uso fue fundamental para el desarrollo de controladores, y en la actualidad existen herramientas de
computador que permiten graficar lugares de las raı́ces complejos.
Diagramas de Bode y Nyquist: Estas dos herramientas también permiten observar el comportamiento
de un sistema desde un punto de vista práctico.
En el siguiente análisis se presentan ejemplos y simulaciones en Matlab y Simulink, además de la teorı́a del
criterio de estabilidad de Routh-Hurwitz, además de una extensión a la parte robusta como lo es el método
de Kharitonov. Las siguientes notas han sido adaptadas a partir de varios artı́culos y textos de control
(e.g., [10, 22, 9, 15, 31, 28, 7, 26]).
C(s) G(s)
=
R(s) 1 + G(s)H(s)
o
C(s) b0 sm + b1 sm−1 + . . . + bm−1 s + bm
= m≤n (5.1)
R(s) a0 sn + a1 sn−1 + . . . + an−1 s + an
donde el denominador se conoce como la ecuación caracterı́stica del sistema. Las raı́ces de esta ecuación
definen la estabilidad del sistema, por lo que éstas tienen que estar en el semi-plano izquierdo del plano
57
58 CAPÍTULO 5. ESTABILIDAD DE LOS SISTEMAS
s. Las ventajas del método establecido paralelamente por E. J. Routh y A. Hurwitz es que no se tienen
que factorizar el denominador para encontrar exactamente la ubicación de las raı́ces. El método original se
desarrollo en términos de los determinantes, pero para explicar de una manera más clara, se utilizará una
forma más sencilla que involucra un conjunto de elementos en forma de filas y columnas. En (5.1), se elimina
cualquier raı́z cero (i.e., an 6= 0), y se hace el análisis siempre y cuando todos los coeficientes ai sean positivos,
cuando uno está interesado en estabilidad absoluta del sistema (esto se debe a que si se tienen a i ≤ 0 y al
menos un aj > 0, entonces al menos existe una raı́z imaginaria o con una parte real positiva, lo cual implica
que el sistema es inestable).
1 G(s) 1
R(s) C(s)
G(s)
H(s)
H(s)
a0 sn + a1 sn−1 + . . . + an−1 s + an = 0
sn a0 a2 a4 a6
n−1
s a1 a3 a5 a7
sn−2 b1 b2 b3 ...
sn−3 c1 c2 c3 ...
.. .. .. .. ..
. . . . .
s2 e1 e2
s f1
s0 e2
donde b1 = a1 a2a−a 1
0 a3
, b2 = a1 a4a−a 1
0 a5
, b3 = a1 a6 −a0 a7
a1 , y ası́ sucesivamente. Por ejemplo, c1 = b1 a3 −b2 a1
b1 ,
b1 a5 −b3 a1 b1 a7 −b4 a1
c2 = b1 , y c3 = b1 , entre otros.
El criterio de estabilidad de Routh-Hurwitz propone que el número de raı́ces con parte real positiva
en la ecuación caracterı́stica es equivalente al número de cambios de signo en los coeficientes de la primera
columna de la “matriz”formada previamente. Si todos los coeficientes en esta primera columna son positivos,
entonces el sistema es estable.
a0 s 3 + a 1 s 2 + a 2 s + a 3 = 0
s3 a0 a2
s2 a1 a3
a1 a2 −a0 a3
s a1
s0 a3
Por lo tanto, para que el sistema sea estable, se requiere que a1 a2 > a0 a3 .
5.1. CRITERIO DE ESTABILIDAD ROUTH-HURWITZ 59
1. Caso 1: Si un término en la primera columna es cero, pero el resto no, el cero se sustituye por un valor
pequeño que se denominará .
2. Caso 2: Si toda una fila de elementos es igual a cero, ésta tiene que ser sustituida por la derivada de
la fila anterior.
Ejemplo 5.1.6 Hallar el rango de Kc en la Figura 5.2 para que el sistema sea estable.
0.016 50
1 Kc 1
3s+1 30s+1
R(s) C(s)
Kc Transfer Fcn1 Transfer Fcn2
Transfer Fcn
1
10s+1
s3 900 43
s2 420 1 + 0,8Kc
17160−720Kc
s 420
s0 1 + 0,8Kc
Por lo tanto el rango de Kc tiene que ser −1,25 < Kc < 23,83.
Ejemplo 5.1.7 Se tiene un proceso inestable cuya función de transferencia viene dada por
1
P (s) =
(s − 1)(s2 + 2s + 2)
K(s + 2)
G(s) =
s+3
tal que el sistema en malla cerrada unitaria con retroalimentación negativa sea estable. Halle el rango de K
para que esto se logre.
3 < K < 14
68 − K − K 2 > 0
Por lo que se tiene que √
68,25 − 0,5
3<K<
7,76
Ejemplo 5.1.8 Halle el rango de K en función de T para que el sistema sea estable para el sistema de la
Figura 5.3.
La ecuación caracterı́stica, está dada por
s + 1 + Ke−T s = 0
1 Ke^(Ts)/(s+1) 1
R(s) C(s)
Kc
En frecuencia, un desplazamiento en tiempo, implica multiplicar el sistema por una exponencial e −sT . Para
poder hacer el análisis, se utilizan aproximaciones, dentro de las cuales, la más conocida es la aproximación
de Padé. En general, la aproximación de Padé de orden n viene dada por
Pn
−T s (−1)k ck T k sk
Pd (s) = e = k=0
Pn k k
k=0 ck T s
donde
(2n − k)!n!
ck = k = 0, . . . , n
2n!k!(n − k)!
Por ejemplo, para n = 1, c0 = 1 y c1 = 1/2. Es decir que la aproximación de Padé de primer orden viene
dada por
1 − T2 s
e−sT =
1 + T2 s
Para n = 2, se tiene que c0 = 1, c1 = 1/2 y c2 = 1/12, por lo que se tendrı́a que
T (T s)2
1− s+
Pd (s) = e−sT = 2 12
(T s)2
T
1+ 2 s+ 12
Esto implica finalmente que K > −1 y K < 1 + T2 . Se puede ver claramente que a medida que T aumenta, el
rango de ganancia disminuye, por lo cual el tiempo muerto influye bastante en la estabilidad de los sistemas.
A su vez, supongamos que de acuerdo al conocimiento que se tiene de la planta se sabe que se tienen unos
rangos para cada uno de los parámetros, i.e., Kp ∈ [0,8, 1,3], ζ ∈ [0,2, 0,3] y ωn ∈ [10, 12].
La función de transferencia se puede escribir entonces como
q0
P (s) = 2
r0 s + r 1 s + r 2
donde q0 ∈ [0,8, 1,3], r0 ∈ [1, 1], r1 ∈ [4, 7,2], y r2 ∈ [100, 144]. Es claro entonces que se tendrı́an una gran
cantidad de posibilidades para formar una única función de transferencia del sistema.
Generalizando, se puede ver que cualquier función de transferencia que tenga incertidumbre en sus
parámetros se puede escribir de la forma
Np (s) q0 sm + q1 sm−1 + . . . + qm
Pq,r (s) = =
Dp (s) r0 sn + r1 sn−1 + . . . + rn
donde qk ∈ [qk− , qk+ ] para todo k = 0, . . . , m, y rl ∈ [rl− , rl+ ] para todo l = 0, . . . , n. Los − y + corresponden
a los lı́mites inferiores y superiores de los parámetros, respectivamente. Las plantas P q,r (s) con esta clase de
incertidumbres se conocen como interval plants. Si se tiene un sistema retroalimentado como el que se ve en
Nc (s)
la Figura..., con C(s) = D c (s)
, la función de transferencia vendrı́a dada por
Nc (s)Np (s)
T (s) =
Dc (s)Dp (s) + Nc (s)Np (s)
Por lo que el sistema serı́a robustamente estable si todas las raı́ces de la ecuación caracterı́stica D c (s)Dp (s) +
Nc (s)Np (s) = 0 están ubicadas en el semi-plano izquierdo para todas las posibles combinaciones de P (s) ∈
Pq,r (s).
ANADIR FIGURA
Theorem 5.1.1 Teorema de Kharitanov Todos los polinomios en χa son estables sı́ y sólo sı́ los siguien-
tes cuatro polinomios son estables
− + + − −
a1 (s) = a− 2 3 4
n + an−1 s + an−2 s + an−3 s + an−4 s + an−5 s + . . .
5
+ − − + +
a2 (s) = a+
n + a n−1 s + a n−2 s 2
+ a n−3 s 3
+ a n−4 s 4
+ a n−5 s 5
+ ...
− + + 2 − 3 − 4 + 5
a3 (s) = an + an−1 s + an−2 s + an−3 s + an−4 s + an−5 s + . . .
− − + + −
a4 (s) = a+ 2 3 4
n + an−1 s + an−2 s + an−3 s + an−4 s + an−5 s + . . .
5
5.1. CRITERIO DE ESTABILIDAD ROUTH-HURWITZ 63
En la literatura, los polinomios a1 (s), . . . , a4 (s) se conocen como los polinomios de Kharitanov. Por medio
del teorema de Kharitanov, la robustez en estabilidad puede ser obtenida al aplicar el teorema de estabilidad
de Routh-Hurwitz a cada uno de los cuatro polinomios. Si se ve desde el punto de vista de complejidad, el
hecho de haber reducido todo el espacio de posibilidades a sólo tener que observar el comportamiento en
estos cuatro polinomios es un gran logro.
64 CAPÍTULO 5. ESTABILIDAD DE LOS SISTEMAS
Capı́tulo 6
Dicen que la manera más limpia y sana de salir de un presente que agobia y que no vislumbra ningún
futuro es poner marcha atrás e internarse en el pasado. Sólo el pasado, con sus hechos y recuerdos,
podrá esclarecer lo que hoy nos parece tan enredado y oscuro. Quizás. Pero entiendo a los que se
niegan a rebobinar hacia cualquier lado. Si algo tenı́amos en común todos nosotros era que no
querı́amos ni mirar ni sentir. Nuestra única convicción era no volver a tener ninguna.
Por favor, Rebobinar, Alberto Fuguet
2. “Comparar”la variable medida con el valor deseado o set-point para obtener la desviación (que serı́a la
señal de error, o la señal de error retroalimentado).
3. Utilizando esta señal de error, el controlador procesará dicho valor y su salida será la alimentación del
proceso.
4. Esta salida, antes de ir al proceso pasa por un elemento final de control, el cual se encarga de transmitir
dicha señal en las unidades determinadas al proceso.
65
66 CAPÍTULO 6. SISTEMAS DE CONTROL RETROALIMENTADO
2
D(s)
Gp(s) 1
1 Gc(s) Gv(s)
R(s) C(s)
Proceso
Controlador Válvula
Elemento final de control
Gt(s) Gs(s)
Transmisor Sensor
Elemento Secundario Elemento Primario
Figura 6.1: Sistema de control tı́pico. La referencia o el set point viene siendo R(s), mientras que la variable
controlada es C(s). La perturbación es D(s).
1 G(s) 1
R(s) C(s)
G(s)
H(s)
H(s)
La función de transferencia que relaciona el error E(s) en la Figura... con la entrada está dado por
E(s) 1
=
R(s) 1 + G(s)H(s)
donde el término G(s)H(s) se conoce como la función de transferencia de lazo abierto. Por lo general, esta
función se puede escribir como
1
ess = lı́m sR(s)
s→0 1 + G(s)H(s)
Definamos Kp = lı́ms→0 G(s)H(s), por lo que tendrı́amos varios casos dependiendo el tipo de entrada del
sistema.
6.2. CONTROLADORES PID 67
El controlador proporcional es el más simple (sin contar con el controlador ON-OFF). La ecuación
tı́pica está dada por
u(t) = ū + Kc (r(t) − y(t)) = ū + Kc e(t) (6.1)
donde u(t) corresponde a la salida del controlador (por lo general estarı́a dada en unidades de psi o mA);
ū es el valor base (este valor es la salida del controlador cuando el error es 0. Generalmente se fija durante
la calibración del controlador); Kc es la ganancia del controlador, y e(t) es la señal de error. Por lo general,
asumiremos que ū = 0.
Como se puede ver, si y(t) se incrementa de tal forma que supere a r(t), el error se vuelve negativo,
y por ende u(t) decrece. Por otra parte, la salida del controlador es proporcional al error, y esta ganancia
determina cuánto se modifica la salida.
Es claro que como sólo tiene un valor que ajustar, se hace más sencillo. Pero como se vio en la sección
anterior, existe un error en estado estacionario, dependiendo de la entrada que se tenga, y el proceso que se
está controlando.
En algunos casos, los controladores reales no utilizan el término ganancia sino que utilizan el concepto
de Banda Proporcional (BP). Esta es inversamente proporcional a la ganancia K c , y se define como
100
BP =
Kc
En algunos textos se conoce también como porcentaje de banda proporcional. Por lo tanto, la ecuación en
este caso serı́a,
100
u(t) = ū + e(t) (6.2)
BP
Es claro que las Ecuaciones (6.1) y (6.2) son totalmente diferentes, por lo que se tiene que tener saber muy
bien qué tipo de controlador se está utilizando.
ANADIR EJEMPLO
Para evitar ese error en estado estable, se añade un elemento que tiene en cuenta lo que sucede y ha
sucedido en términos del error. Esta acción integral o de reajuste tiene como consecuencia que la Ecuación
(6.1) se convierta en Z
Kc
u(t) = ū + Kc e(t) + e(t)dt (6.3)
τi
68 CAPÍTULO 6. SISTEMAS DE CONTROL RETROALIMENTADO
donde τi corresponde al tiempo de integración o reajuste (por lo general su valor se da en minutos por
repeticiones). Si se ve gráficamente, este valor serı́a la respuesta que le toma al controlador en repetir la
acción proporcional (ver Figura...).
ANADIR FIGURA
Tanto menor sea τi , más pronunciada es la curva de respuesta, lo que implica que la respuesta del
controlador es más rápida. Otra forma de verlo es que si τi es pequeño, mayor será el término constante
delante de la integral, por lo que se le dará más importancia al controlador. Además, recuérdese que la integral
es como una suma, por lo que a medida que e(t) cambia, se van integrando todos los valores presentes y
anteriores, por lo que el controlador tiende a cambiar su respuesta. Cuando e(t) = 0, la integral no es
necesariamente cero, ya que tiene en cuenta los términos anteriores.
Algunos fabricantes utilizan un término conocido como la rapidez de reajuste, que corresponde a
1
τir = τi .
Al añadir un tercer término como lo es una acción derivativa, se está ajustando la rapidez de deri-
vación o de preactuación. Este nuevo término tiene como fin anticipar hacia donde va el proceso durante
la observación de la rapidez para el cambio del error, i.e., su derivada. En este caso, la Ecuación (6.3) se
convierte en Z
Kc de(t)
u(t) = ū + Kc e(t) + e(t)dt + Kc τd (6.4)
τi dt
donde el término τd corresponde a la rapidez de derivación, y está dado por lo general en minutos.
Los controladores PID se utilizan en procesos donde las constantes de tiempo son muy largas. En
procesos en los que las constantes son cortas, existe una mayor susceptibilidad al ruido, por lo que la
derivada tenderı́a a amplificarlo. Esto se ve más claramente al obtener una función de transferencia de (6.4)
cuando ū =, i.e.,
U (s) 1
= Kc 1 + + τd s
E(s) τi s
En la práctica, esta función de transferencia no se suele implementar, sobre todo por lo que se dijo sobre
el término derivativo. Más adelante veremos otro tipo de funciones de transferencias que sı́ se suelen im-
plementar. En general, el uso de filtros y configuraciones diferentes ayudan a la implementación de dichos
controladores.
Este tipo de controlador se utiliza en procesos donde sólo es posible utilizar controladores proporcio-
nales, pero que cuentan con cierto tipo de anticipación. La ecuación caracterı́stica para este caso es
de(t)
u(t) = ū + Kc e(t) + Kc τd (6.5)
dt
Su mayor desventaja radica en el hecho de que únicamente opera con una desviación en la variable que se
controla. Esto sólo puede ser eliminado con la acción integral. Sin embargo, un PD puede soportar mayor
ganancia.
6.2.5. Implementación
Dentro de todas las acciones del controlador de tres términos, la acción derivativa es la más complicada
de implementar, y por eso muchos fabricantes no la utilizan. Los problemas de implementación radican en:
6.2. CONTROLADORES PID 69
El uso o no de un filtro. Esto con el fin de evitar daños en los actuadores y no amplificar ruidos de alta
frecuencia. Estos filtros pueden ser de primero o segundo orden, dependiendo del fabricante.
Si la acción derivativa actúa o no con la acción integral, lo cual depende del algoritmo que se utilice.
El punto de acción depende de si se hace regulación o tracking. En el primer caso, se requiere que el proceso
esté en un estado fijo a pesar de las perturbaciones, por lo que el set point es constante. En este caso, no
importa si la parte derivativa se encuentra a la salida del error o de la medida. Sin embargo, cuando se hace
tracking los cambios son bruscos, ya que el set point es variable, por lo que ubicar la parte derivativa con
respecto a la medida es mucho más útil. En estos casos, se suele recurrir también al uso del filtro, por lo que
el término derivativo vendrı́a siendo:
U (s) Kd τ d s
=−
Y (s) 1 + s τNd
Este serı́a un filtro ideal utilizando un sistema de primer orden con constante de tiempo τNd . Es claro en este
caso que si las frecuencias son bajas, i.e., s pequeño, se tiene que el factor que predomina es τ d s, mientras
que si las frecuencias son altas, i.e., s grande, el factor que predomina es ττdd = N , lo cual lo hace constante a
N
frecuencias altas (N se suele escoger entre 2 y 20). La salida del controlador en este caso serı́a para un PID
igual a
1 Kd τ d s
U (s) = Kc 1 + E(s) − Y (s)
τi s 1 + s τNd
6.2.6. Sintetizando
Hasta este punto se han visto los controladores P, PI, PD, PID, y los parámetros asociados a ellos.
Se conoce el concepto de Kc , BP , τi , τiR , τd . Cabe recordar que la forma en la que se basan la mayorı́a de
conceptos de sintonización está basada en la función de transferencia ideal.
Kp
Si se tuviera un sistema de primer orden τ s+1 asociado a un controlador proporcional, se obtendrı́a
∗
en malla cerrada que T (s) = τ ∗Ks+1 , donde
Kc Kp
K∗ =
1 + K c Kp
τ
τ∗ =
1 + K c Kp
Esto implicarı́a que el controlador proporcional modificarı́a el comportamiento dinámico del sistema, con-
servando el orden del mismo, pero modificando los valores de los parámetros asociados. Uno de los puntos
importantes es ver la contribución de Kc en el τ ∗ . Si Kc Kp > 0, entonces τ ∗ < τ , por lo que se harı́a más
rápida la respuesta del proceso.
Si en lugar de un regulador proporcional se tuviera un PI, la función de transferencia en lazo cerrado
vendrı́a siendo
Kp Kc (τi s + 1)
T (s) =
τi τ s2 + (τi + Kp Kc τi )s + Kc Kp
Es claro que se tiene un cero y dos polos. En el caso anterior, el efecto de P sólo era cambiar las caracterı́sticas
del proceso, i.e., sus parámetros. En el caso de un PI, se añaden un polo y un cero a la función de transferencia.
Si la entrada fuera un escalón unitario, y se factorizara el denominador. se tendrı́a algo de la forma
1 Kp Kc (τi s + 1)
C(s) =
s τ τi (s − r1 )(s − r2 )
Es decir que c(t) = A0 + A1 er1 t + A2 er2 t . Una serie de conclusiones se pueden obtener en este caso:
Si r1 y r2 son complejos conjugados con parte real negativa, se tendrá una respuesta amortiguada
oscilatoria.
En el caso de tener un PD en vez de un PI, T (s) tiene un cero y un polo, pero hace que la respuesta transitoria
exhiba error en estado estacionario como el proporcional. Este se va si se tiene un PID, caso en el cual se
tienen dos polos y dos ceros, y 0 error en estado estacionario.
Por lo tanto, se podrı́a decir que las caracterı́sticas de los controladores clásicos serı́an:
Control P: Acelera la respuesta del sistema de control pero posee un offset para todos los procesos, a
excepción lógica de un proceso de capacidad constante.
Control PI: Elimina offsets pero el sistema se vuelve más oscilatorio. El añadir la acción integral hace
que se aumente la inestabilidad si Kc aumenta.
Control PID: El término I elimina el offset y las oscilaciones son compensadas por el término D. Sin
embargo, éstas amplifican las componentes de ruido de las señales.
Es básicamente de ensayo y error en el campo y puede ser tedioso y prolongado en algunos casos. La
acción derivativa es particularmente difı́cil de sintonizar adecuadamente, por lo tanto, esta no es muy utili-
zada. La sintonización se inicia con valores lı́mites de los parámetros del P.I.D, variándolos consecutivamente
hasta lograr la respuesta deseada.
El método consta de los siguientes pasos:
Luego, se dobla el valor de Kc y se observa la respuesta. Se continua de esta misma forma hasta obtener
oscilaciones sostenidas (Kcu ). El valor final será Kc = Kcu /2.
Se realiza el mismo procedimiento con τd . Primero, se aumenta τd hasta obtener una respuesta oscila-
toria (τd∗ ), con lo que el valor final será τd = τd∗ /3.
6.3. SINTONIZACIÓN DE CONTROLADORES PID 71
Tipo De Regulador Kc τi τd
P 0,5Kcr - -
PI 0,45Kcr Pcr /1,2 -
PID 0,6Kcr 0,5Pcr 0,125Pcr
Tabla 6.1: Valores de los parámetros de los controladores para el método de malla cerrada.
Hasta el momento se ha visto la forma tı́pica de un controlador de tres términos, conocido como el
PID. Estos tipos de controladores se diseñan para mantener un nivel, o una temperatura, por ejemplo. En
general, se requiere que estos controladores sean: estables y robustos en lazo cerrado; que la influencia de
las perturbaciones no sea crı́tica; que la respuesta sea rápida y suave a cambios de set-point; y que no tenga
error en estado estable, entre otros. Sin embargo, aún no hemos dado detalles de cómo seleccionar cada una
de las constantes asociadas al controlador de tres términos. Lógicamente, estos valores van a estar asociados
directamente con las caracterı́sticas del proceso, y esto es lo que se conoce como sintonización.
Para poder sintonizar controladores, existen métodos heurı́sticos (aquellos que están asociados al
conocimiento que tengan los operadores de la planta), métodos matemáticos (los cuales requieren de un
modelo matemático del proceso), y un tercer método que combina las técnicas heurı́sticas y analı́ticas. Este
último método surgió en el año de 1942 cuando John G. Ziegler y Nathaniel B. Nichols propusieron unas
técnicas experimentales simples que permitiesen mejorar las caracterı́sticas de los controladores de la empresa
en la que ellos trabajaban (Taylor Instruments) [35]. Las técnicas desarrolladas tienen tres funciones básicas:
Malla abierta requieren la operación del controlador en la opción MANUAL. Esta técnica no es la
adecuada para sistemas que en lazo abierto puedan tener un comportamiento inestable (e.g., reactores
quı́micos, o controles de nivel de lı́quidos).
La idea de este método es trabajar el lazo de control en modo automático con una acción proporcional,
i.e., τi = ∞, τd = 0, y utilizar el criterio de estabilidad de Routh-Hurwitz asociado con el método de
sustitución directa para caracterizar el proceso con dos parámetros:
En la Figura... se muestra el lazo tı́pico para la prueba en automático para este caso.
ANADIR FIGURA
La idea es entonces ir incrementando el valor de Kc desde 0 hasta un valor Kcr , el cual corresponde
al valor de ganancia en el cual la salida presenta oscilaciones sostenidas por primera vez (ver Figura...). El
perı́odo crı́tico corresponde al perı́odo de oscilación tal como se ve en la Figura... Si éstas no se presentan,
este método no deberı́a aplicarse. La Tabla 6.1 muestra los valores que se requieren para cada uno de los
tres controladores tı́picos que podrı́an sintonizarse bajo este método.
72 CAPÍTULO 6. SISTEMAS DE CONTROL RETROALIMENTADO
Tipo De Regulador Kc τi τd
P T /(L.K) - -
PI 0,9T /(L.K) 3,33L -
PID 1,2T /(L.K) 2L 0,5L
Tabla 6.2: Valores de los parámetros de los controladores para el método de malla abierta.
1
Gp (s) =
(s + 1)(0,5s + 1)(0,2s + 1)
Como bien se sabe, la estabilidad está definida por intermedio de la ecuación caracterı́stica del sistema, i.e.,
1 + Gp (s)Gc (s) = 0, lo que en este caso darı́a que
Si se utilizar el criterio de Routh-Hurwitz se ve que el sistema es estable si −1 < K c < 12,6 (aunque los
valores negativos de Kc no tengan mucho sentido práctico). Es claro que cuando la ganancia llega a su
lı́mite superior, se tienen oscilaciones sostenidas, ya que el sistema se volverı́a crı́ticamente estable. Para
comprobar esto, utilicemos el método de sustitución para hallar Kcr y Pcr . Para ello, se sustituye s = jω,
i.e.,
−0,1jω 3 − 0,8ω 2 + 1,7jω + 1 + Kc = 0
Se tendrı́a entonces una ecuación para la parte real y otra para la parte imaginaria, i.e.,
−0,1ω 3 + 1,7jω = 0
y
−0,8ω 2 + 1 + Kc = 0
√ 2π
Esto nos da que ωcr = 17, por lo que el Pcr = ωcr = 1,52 segundos, y Kcr = 12,6.
El método de malla abierta pretende ajustar el controlador a partir del modelo del proceso. Para ello,
es necesario identificar el proceso utilizando una entrada paso en malla abierta como se ve en la Figura....
ANADIR FIGURA
Ziegler y Nichols se refieren a una curva de reacción, i.e., una curva en forma de S luego de aplicar la
entrada escalón unitario. Esto suele darse si la planta no incluye integrador(es) o polos dominantes complejos
conjugados. Si la respuesta no está en esta forma, el método no debe aplicarse. La respuesta del proceso en
este caso serı́a
C(s) Ke−Ls
=
U (s) Ts + 1
donde L se conoce como el tiempo de atraso, y T es la constante de tiempo del sistema medida como se
puede ver en la Figura....
ANADIR FIGURA
La Tabla 6.2 muestra los valores que se requieren para cada uno de los tres controladores tı́picos que
podrı́an sintonizarse bajo este método.
6.3. SINTONIZACIÓN DE CONTROLADORES PID 73
Tabla 6.3: Valores de los parámetros de los controladores para el método de Cohen y Coon.
rc Kc τi τd
5
0 a 0.1 K T 0
0,5
0.1 a 0.2 Krc T 0
0,5(1+0,5rc ) 0,5rc
0.2 a 0.5 Krc T (1 + 0,5rc ) T 0,5r c +1
Tabla 6.4: Valores de los parámetros de los controladores para el método del coeficiente de ajustabilidad .
Este método trabaja con la respuesta temporal del sistema a una entrada escalón, es muy parecido al
de Ziegler-Nichols y también utiliza el modelo de primer orden con tiempo muerto para hallar los parámetros.
Las reglas para la sintonı́a se encuentran matemáticamente establecidas. Una de las grandes ventajas de este
método es que se puede seleccionar un controlador PD, cosa que no se logra en los otros métodos. Los valores
de los parámetros se calculan basados en las relaciones de la Tabla 6.3.
Los métodos de Ziegler - Nichols y de Cohen - Coon, son difı́ciles de aplicar en la práctica, porque llevan
a un comportamiento muy oscilatorio, por esto los instrumentistas implementaron una versión derivada de
estas reglas que también se basa en el modelo de primer orden con retardo, para hallar los coeficientes del
P.I.D se utiliza el coeficiente de ajustabilidad rc , definido como:
L
rc =
T
Se recomienda que 0,1 < rc < 1, pero con los valores de este coeficiente se encuentran relaciones especı́ficas
para los parámetros del P.I.D. como se ve en la Tabla 6.4. Para un valor más grande del coeficiente de
ajustabilidad, el sistema es imposible de controlar con un PID.
COMPLETAR
Este método no parte de un algoritmo en particular para el controlador. Su objetivo es encontrar una
función de transferencia del controlador que cumpla con las especificaciones de lazo cerrado dadas. Para ello,
se utiliza el modelo de malla abierta del proceso. El problema es que con este método no necesariamente
se garantiza que el controlador va a existir en la vida real, pero sirve para tener una idea de qué tipo de
controlador podrı́a utilizarse. Para este caso se tiene el sistema de la Figura...
ANADIR FIGURA
74 CAPÍTULO 6. SISTEMAS DE CONTROL RETROALIMENTADO
En el método de Ziegler/Nichols se ajustan los parámetros del controlador y se observa la respuesta para
ası́ hacerle ajustes finos a dichas constantes. Sin embargo, en el método de sı́ntesis directa lo que se hace es
despejar Gc (s), por lo que
T (s)
Gc (s) = (6.6)
Gp (s)(1 − T (s))
La Ecuación (6.6) será la del controlador, ya que uno tiene caracterı́sticas propias de diseño para T (s). La
Ecuación (6.6) se conoce como la ecuación de sı́ntesis, y lo difı́cil en este caso es la selección de T (s). Sin
embargo, algunas caracterı́sticas básicas que se tienen que cumplir son
La respuesta del sistema debe ser lo suficientemente rápida, pero el sobreimpulso debe ser lo más
pequeño posible.
Las funciones de transferencia que generalmente se utilizan para cumplir estos objetivos son
1
T1 (s) = (6.7)
α1 s + 1
1
T1 (s) = (6.8)
(α2 s + 1)(α3 s + 1)
donde los αi s son las constantes de tiempo que determinan qué tan rápido responde el sistema. Si estos
parámetros son pequeños, el sistema no responde más rápido, aunque la ganancia del controlador se incre-
menta. Por ende, de acuerdo al proceso que se tenga, la selección de estos parámetros es bastante crı́tica.
Los dos tipos de controladores que aparecen al reemplazar (6.7) y (6.8) en (6.6) son
1 1
Gc (s) = (6.9)
Gp (s) α1 s
1 1
Gc (s) = (6.10)
Gp (s) s(α2 α3 s + α3 + α2 )
Nótese bien que el hecho de que se tenga un controlador con un polo en cero, hace que para una entrada
escalón, el error en estado estable tienda a 0.
1
Si Gp (s) = Kp , Gc (s) = α1 K ps
, por lo que el controlador serı́a similar a uno con acción integral, y α1
determina qué tan rápida serı́a la respuesta del sistema. Si,
Kp
Gp (s) =
τs + 1
y Gc (s) se selecciona de acuerdo a (6.9), se tiene un controlador PI, ya que
τ τs + 1
Gc (s) =
α1 Kp sτ
τ
Si lo comparamos con la ecuación ideal de un PI tendrı́amos que Kc = α1 K p y τi = τ .
En los dos casos previamente expuestos se trató de buscar una relación directa entre la forma del
controlador que se obtiene a partir del proceso y un controlador clásico. Es claro que en ocasiones se tienen
que hacer suposiciones fuertes (e.g., despreciar ciertos parámetros) para que el sistema se parezca a una de
las ecuaciones ideales que conocemos.
6.4. ALGORITMOS 75
6.4. Algoritmos
En general, los controladores comerciales utilizan algoritmos diferentes para implementar un PID. De
este tipo de algoritmo dependen los valores de los parámetros obtenidos mediante el método de sintonización
que se utilice.
Los algoritmos clásicos son:
Ideal:
1
Gc (s) = KcI 1+ + τdI s (6.11)
τiI s
Paralelo o No Interactivo:
1
Gc (s) = KcP + + τdP s (6.12)
τiP s
Serie o Interactivo:
1
Gc (s) = KcS 1+ 1 + τdS s (6.13)
τiS s
Es claro que los métodos de sintonización vistos hasta el momento se basan en (6.11). Por lo tanto, se
tendrı́an que expresar (6.12) y (6.13) en términos de (6.11) para ası́ poder utilizar los parámetros que se
obtienen en los métodos de sintonización vistos.
Para (6.13), se tiene que
τS 1
KcS 1 + Sd + S + τdS s
τi s τi
Este tipo de controladores se caracterizan porque las acciones derivativa e integral se aplican sucesivamente,
lo que hace que exista una fuerte interacción entre ambas acciones. Al comparar con un controlador ideal,
se tiene que
τS
KcI = KcS 1 + dS
τi
τiI = τdS + τiS
1
τdI = 1 1
τdS
+ τiS
Por otro lado, el algoritmo paralelo (utilizado por Modicon, Siemens, Allan Braedley, entre otros) es similar al
ideal ya que tiene las tres acciones están actuando en forma independiente, pero su sintonización es diferente
ya que
KcI = KcP
τiI = KcP τiP
τdP
τdI =
KcP
Se hace una conversión de las señales análogas que provienen de los sensores utilizando un conversor
ADC.
Se procesan los datos, i.e., se hace el cálculo del algoritmo de control.
76 CAPÍTULO 6. SISTEMAS DE CONTROL RETROALIMENTADO
Finalmente, se envı́a el resultado a los actuadores en forma análoga utilizando un conversor DAC.
1. Esperar la interrupción de un reloj que serı́a el encargado de darle la orden al procesador de cada
cuánto se tienen que tomar datos. Esto serı́a el tiempo de muestreo T s .
2. Leer los datos del sensor.
3. Calcular la señal de control por medio de un algoritmo discretizado del PID.
4. Enviar el resultado a los actuadores.
5. Actualizar las variables del controlador modificadas por la discretización del algoritmo.
6. Repetir.
En la Figura 6.3 se puede observar un diagrama condensado de un sistema de control digital de un solo lazo.
Un ejemplo tı́pico más detallado es el que se muestra en la Figura...
u(t) y(t)
t
t
PROCESS
HOLD
SAMPLER
t t
Figura 6.3: Proceso de tomar una señal continua y(t) que es generada por el proceso, y convertirla en una
secuencia de números y[n]. El computador toma una decisión y la convierte en otra secuencia de números
u[n], los cuales se convierten luego en una señal continua u(t) que actúa sobre el proceso. Figura adaptada
de [2].
ANADIR FIGURA
Los computadores que se utilizan se conectan a los actuadores y al proceso por medio de conversores
de señal. La salida es procesada por un DAC durante un perı́odo fijo de tiempo T el cual se conoce como
el tiempo de muestreo (lo mismo sucede a la entrada). El muestreador es básicamente un interruptor que se
cierra cada T segundos por un instante corto de tiempo. Por ejemplo, en la Figura... se tiene un ejemplo,
que gráficamente darı́a algo como se ve en la Figura...
ANADIR FIGURAS
El DAC es un dispositivo que convierte la señal muestreada r ∗ (t) en una señal continua p(t). Por lo
general, el DAC se representa como un circuito de zero-order hold (ZOH) como se ve en la Figura...
ANADIR FIGURA
La función de transferencia del ZOH es
1 − e−sT
G0 (s) =
s
6.5. PID DIGITAL 77
La idea de este retenedor de orden cero es tomar el valor de r[kT ] y “retenerloçonstante por un tiempo
kT ≤ t < (k + 1)T , como se ve en la Figura... para k = 0.
ANADIR FIGURA
El muestreador y el ZOH pueden seguir acertadamente la señal de entrada si T es pequeño comparado
con los cambios transientes en la señal. Para una rampa y una exponencial se tendrı́a lo que se observa en
las Figuras...
ANADIR FIGURAS
Muy poco se pierde si se hace un muestreo entre instantes muy cercanos, mas sin embargo, mucho
se pierde si los puntos de muestreo se ubican demasiado lejos. Esto se da sobre todo en la conversión de la
señal muestreada a una continua. Si la frecuencia de muestreo
2π
ωs =
T
es lo suficientemente grande comparada con la componente de frecuencia más alta en una señal continua,
entonces se puede afirmar que las caracterı́sticas de amplitud de la señal se preservan. Para evitar este tipo
de inconvenientes, asumamos que ω1 es la frecuencia máxima o ancho de banda de una señal x(t), i.e., no hay
componentes de frecuencia por encima de ω1 . El siguiente teorema conocido como el teorema de muestreo
de Nyquist, ilustra la escogencia de la frecuencia de muestreo de acuerdo al ancho de banda de la señal en
cuestión.
2π
Theorem 6.5.1 Si ωs = T , i.e., la frecuencia de muestreo, cumple con
ωs > 2ω1
donde ω1 es la componente de frecuencia más alto en una señal continua x(t) (i.e., su ancho de banda),
entonces ésta puede ser reconstruida en su totalidad de la señal muestreada x ∗ (t).
Si esto se cumple, no habrá problemas de aliasing, fenómeno que se da cuando se crean nuevos componentes
de frecuencia debidos al muestreo. Si no, se pueden tener dos señales diferentes cuya reconstrucción serı́a
imposible (e.g., Figura 6.4).
Por lo general, se analiza el sistema en frecuencia utilizando la Transformada Z, la cual es un equiva-
lente de la transformada de Laplace en tiempo discreto, pero con
z = esT
En términos de estabilidad, esta transformación llevará a que un sistema muestreado es estable si todos los
polos de lazo cerrado de T (z) están ubicados dentro del cı́rculo unitario en el plano z. Criterios de estabilidad
como el de Jury se aplican en estos casos en lugar de Routh-Hurwitz. En términos de diagramas en bloques,
hay que tener mucho cuidado dónde se ubican los muestreadores, ya que las funciones de transferencia no
serı́an las mismas. En las Figuras... se muestra un ejemplo donde G(z)H(z) 6= GH(z).
ANADIR FIGURAS
Para poder implementar un PID en un procesador, es menester discretizar cada una de las funciones.
Por ende, necesitamos expresar las ecuaciones continuas en términos de ecuaciones de diferencias, lo cual
se puede hacer utilizando algoritmos posicionales e incrementales. Por simplicidad, veremos los primeros
únicamente.
El algoritmo posicional recibe su nombre porque éste determina directamente la posición que debe
tomar el actuador. Sea, la Ecuación (6.4) con ū = 0, y la integral de 0 a t. La aproximación de la integral se
da por medio de la regla rectangular o trapezoidal de una señal, i.e.,
Z n
1 t Ts X
e(τ )dτ ∼= e(hTs )
τi 0 τi
h=1
o Z t n
1 Ts X e(hTs − Ts ) + e(hTs )
e(τ )dτ ∼
=
τi 0 τi 2
h=1
78 CAPÍTULO 6. SISTEMAS DE CONTROL RETROALIMENTADO
0.8
0.6
0.4
0.2
−0.2
−0.4
−0.6
−0.8
−1
0 1 2 3 4 5 6 7 8 9 10
Figura 6.4: Figura adaptada de [2]), la cual muestra el efecto de aliasing utilizando dos diferentes señales
x1 (t) = sin(2πf1 t) (punteada) and x2 (t) = − sin(2πf2 t) (sólida), con sus respectivas frecuencias (f1 = 0,1 Hz,
f2 = 0,9 Hz, y fs = 1 Hz). Este es un excelente ejemplo de cómo el aliasing puede afectar la reconstrucción
perfecta de las señales
Observaciones:
Teniendo el controlador PID digital, para poderlo sintonizar utilizando alguno de los métodos vistos
previamente, se recurre a añadir T /2 al tiempo muerto del proceso, para ası́ poder utilizar dichos
criterios. Es decir, el nuevo tiempo muerto serı́a dependiente del tiempo de muestreo, i.e.,
T
L̄ = L +
2
Con ello, se estarı́a incluyendo el tiempo de muestreo en la selección de cada uno de los componentes.
En cuanto al desempeño, si el muestreo es muy lento/rápido, el PID puede no responder adecuadamente.
Una guı́a útil se puede resumir como:
• Obtener un modelo empı́rico del sistema.
• Para lograr en un controlador digital un desempeño cercano al de su contraparte continua, selec-
cione T ≤ 0,05(L + τ ), donde L y τ son el tiempo muerto y la constante de tiempo del sistema
de primer orden, respectivamente.
6.6. CRITERIOS DE DESEMPEÑO 79
• Determinar las constantes de sintonización utilizando Ziegler y Nichols por ejemplo, con L̄ = L+ T2 .
• Implementar y ajustar de forma más fina.
ANADIR EJEMPLO
RT
En lı́neas generales, lo que se tiene es I = 0 f (e(t), r(t), y(t))dt, ya que no necesariamente tendrı́a
que ser el error, sino una combinación de cualquiera de las señales que se tengan a disposición.
Como los valores de Kp y τ del proceso se conocen por lo general, la escogencia de Kc , τi , y τd nos lleva a
ubicar los polos donde se desee en el plano complejo.
Si se quisiera obtener una salida determinada, uno puede tener un polinomio caracterı́stico de base/guı́a
para la ubicación de los polos. Por ejemplo, para una ecuación de segundo orden, una función de transferencia
serı́a
1
τr2 s2 + 2ζr τr s + 1
Si τr = 4 y ζr = 0,5, en este caso se necesitarı́a que
Kc Kp τ d + τ
τi = 16
Kp Kc
1 + K c Kp
τi = 4
Kc Kp
Sin embargo, es claro que las respuestas no van a ser exactamente las mismas, ya que sólo se están escogiendo
los polos mientras que los ceros no se tienen en cuenta y estos pueden afectar el desempeño.
Capı́tulo 7
Es gracias a la muerte que podemos ser felices porque sabemos que en algún momento todo va a
terminar Mario Vargas Llosa
Hasta el momento hemos analizado los sistemas desde el punto de vista de funciones de transferencia.
Hemos visto cómo los modelos matemáticos obtenidos por medio de leyes fı́sicas nos ayudan a modelar
relaciones de toda ı́ndole, además de brindarnos la posibilidad de estudiar dichos sistemas para obtener su
estabilidad y buscar métodos de control. Sin embargo, todo este estudio se ha basado en el hecho de que los
sistemas estudiados son lineales y están representados en el espacio s. Es sabido que cualquier sistema no
lineal se puede transformar en uno lineal por medio de métodos de linealización como los vistos previamente.
En este capı́tulo veremos otra forma de representar los sistemas por medio de las variables de estado. El
análisis que se hará en este y los subsiguientes capı́tulos se basa en los sistemas lineales, y su representación
por medio de ecuaciones diferenciales ordinarias. Primero se repasan los conceptos de variables de estado y su
relación con cualquier tipo de sistema, y luego se ahonda en la representación de sistemas lineales. Las notas
de este capı́tulo han sido sacadas de varios libros, dentro de los que se destacan [22, 31, 7, 11, 32, 12, 14, 30, 33].
ẋ = f (x, u, t)
donde x = [x1 , x2 , . . . , xn ]> , y u = [u1 , u2 , . . . , um ]> . En este caso f (·) es una función vectorial con n + m + 1
argumentos, de dimensión n.
7.1.1. Definiciones
Existen dos tipos de sistemas dinámicos. Aquellos que están descritos por ecuaciones diferenciales (i.e.,
aquellas que describen la evolución de los sistemas en tiempo continuo), y aquellos descritos por ecuaciones
de diferencias o iterated maps (i.e., aquellas dinámicas en tiempo discreto). A lo largo del curso se utilizarán
81
82 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN
ecuaciones diferenciales, y más especı́ficamente las ordinarias (las parciales no serán utilizadas) de la forma
Con ẋi ≡ dxdt , y f (·) una función determinada por el problema a tratar. El sistema descrito por (7.25) puede
i
Definition 11 El sistema descrito por (7.25) se dice que es un sistema autónomo si f i (·) no depende del
tiempo. En caso contrario, decimos que (7.25) es un sistema no autónomo o dependiente del tiempo.
Definition 12 El sistema
ẋi = fi (x1 , x2 , . . . , xn , t, u(t)) (7.3)
se dice que es un sistema forzado o con entrada. Si f (·) no depende de u(t) se tiene un sistema no forzado.
fi (t, x∗ ) = 0 ∀t ≥ 0, ∀i ∈ {1, . . . , n}
Si x∗ es un equilibrio de (7.26), y las condiciones inciales son xi (t0 ) = x∗i para todo t ≥ t0 , el sistema tiene
una solución única xi (t) = x∗i .
Es decir que si el sistema está en equilibrio desde el principio, éste no se moverá de ahı́.
Esto implicarı́a que el número de condiciones iniciales que deben ser especificadas constituye el orden del
sistema, y por ende el número de variables de estado necesarias para determinar el mismo.
ẋ1 (t) = a11 (t)x1 (t) + . . . + a1n (t)xn (t) + b11 (t)u1 (t) + . . . + b1m (t)um (t)
ẋ2 (t) = a21 (t)x1 (t) + . . . + a2n (t)xn (t) + b21 (t)u1 (t) + . . . + b2m (t)um (t)
.. (7.5)
.
ẋn (t) = an1 (t)x1 (t) + . . . + ann (t)xn (t) + bn1 (t)u1 (t) + . . . + bnm (t)um (t)
donde A(t) y B(t) son matrices de n × n y n × m, respectivamente. La Ecuación (7.6) se conoce como la
Ecuación de Estado. En este caso, A(t) y B(t) dependen del tiempo. En nuestro análisis, estas dos matrices
no dependerán por lo general del tiempo. En algunos casos se tienen también entradas exógenas (además de
las entradas de control) las cuales dependen del ambiente. En esos casos, la Ecuación (7.6) se transforma en
donde x0 es un vector que reúne las entradas exógenas (e.g., perturbaciones, ruido), y E(t) es una matriz de
las ganancias que poseen dichas entradas.
7.1. DEFINICIÓN DE VARIABLES DE ESTADO 83
Finalmente, lo que nos interesa es la salida en la mayorı́a de los casos, más no el estado. Por ello, se
define un vector de salida y = [y1 , y2 , . . . , yr ]> y estarı́a dado por
Si se linealizara el sistema, este vector serı́a el observation vector, y la ecuación de salida o de observación
vendrı́a dada por
y(t) = C(t)x(t) + D(t)u(t) (7.7)
donde C(t) y D(t) son matrices de r × n y r × m, respectivamente.
Ejemplo 7.1.2 [12, 28] En este caso se tiene un modelo que corresponde a una masa M que está sujetada
a un amortiguador cuya constante de amortiguación es b y a un resorte cuya constante es k. La Figura7.1
muestra el sistema.
k b
fo y
Figura 7.1: Modelo mecánico que corresponde a una masa, sujetada por un amortiguador y un resorte. La
posición está dada por y, y se le aplica una fuerza inicial f0 .
d2 y(t) X
M = f (t)
dt2
d2 y(t) dy(t)
M +b + ky(t) = f0 (7.8)
dt2 dt
La Ecuación (7.8) es una representación de un sistema de segundo orden por intermedio de ecuaciones
diferenciales. Para poder hacer una representación en variables de estado, se necesita hacer un cambio de
variables de la siguiente forma.
x1 (t) = y(t)
(7.9)
x2 (t) = dy(t)dt
Por lo tanto
ẋ1 (t) = x2 (t)
d2 y(t) (7.10)
ẋ2 (t) = dt2
Utilizando (7.8) en (7.10), con el cambio de variables descrito en (7.9) se tiene que
Las Figuras 7.2 y 7.3 muestran la implementación del sistema utilizando Simulink. La primera corres-
ponde al modelo utilizando diagrama en bloques donde sólo se pueden utilizar sumadores, integradores, y
ganancias. La segunda corresponde a la simulación del sistema para cuatro casos diferente. Como se puede
84 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN
observar, en los cuatro casos la posición final es la misma ( fk0 , i.e., 0.3125m), pero lo que varı́a es la respuesta
del sistema. Esto se debe a que los puntos de equilibrio serı́an x2 = 0 y x1 = k1 f0 . Entre más grande sea el
amortiguamiento, menos oscilaciones tiene el sistema, pero su respuesta pareciera ser más lenta. Es el mismo
caso de la velocidad, ya que ésta siempre llega a 0, pero con más o menos oscilaciones. Cabe aclarar que en
estos cuatro casos las otras variables permanecieron exactamente iguales. Un ejemplo de qué sucede cuando
se deja de aplicar una fuerza constante f0 se puede ver en la Figura 7.4. Claramente, en este caso, el sistema
cambia su punto de equilibrio luego de 19 segundos, ya que en ese momento f 0 = 0. Esto era de esperarse
debido a la fı́sica del sistema (i.e., se tiene un amortiguador).
f0 x2 x1
1/M
1 1
Step s s
Gain1
Integrator Integrator1 Scope
Gain
b/M
Gain2
k/M
!#"$
% !#&
'
!#(
)$* +
, !#&
- .
- /- (
)$0 * +
Ejemplo 7.1.3 [12] Representar el sistema descrito en (7.11) por intermedio de diagramas de bloques.
ẋ1 (t) = a11 x1 + a12 x2 (t) + b11 u1 + b12 u2 (t)
(7.11)
ẋ2 (t) = a21 x1 + a22 x2 (t) + b21 u1 + b22 u2 (t)
7.2.1. Representación
Simulación para b=2. Velocidad (−−) Simulación para b=4. Posición (−)
1 0.6
0.8 0.5
0.4
0.6
0.3
0.4
0.2
0.2
0.1
0
0
−0.2 −0.1
−0.4 −0.2
0 5 10 15 20 0 5 10 15 20
Simulación para b=8, Velocidad (−−) Simulación para b=16, Posición (−)
0.4 0.35
0.3
0.3
0.25
0.2 0.2
0.1 0.15
0.1
0
0.05
−0.1 0
0 5 10 15 20 0 5 10 15 20
Figura 7.3: Simulación en Simulink del sistema descrito en la Figura 7.1. Para este caso se utilizaron los
parámetros f0 = 5N, M = 2kg, k = 16N/m, y cuatro valores para b. En la parte superior izquierda, se
tiene b = 2N.s/m; en la parte superior derecha, se tiene b = 4N.s/m; en la parte inferior izquierda, se tiene
b = 8N.s/m; y en la parte inferior derecha, se tiene b = 16N.s/m. En todos los casos se tiene que posición
está dada por la lı́nea (-), mientras que la velocidad es la lı́nea punteada (- -).
0.6
0.4
0.2
−0.2
−0.4
−0.6
−0.8
0 5 10 15 20 25 30 35 40
Figura 7.4: Simulación en Simulink del sistema descrito en la Figura 7.1, cuando únicamente se aplica una
fuerza f0 durante un determinado tiempo. Para este caso se utilizaron los parámetros f 0 = 5N, M = 2kg,
k = 16N/m, y b = 2N.s/m. La posición está dada por la lı́nea (-), mientras que la velocidad es la lı́nea
punteada (- -).
Como se puede observar, el problema en este caso es cómo definir las variables de estado de tal forma que
se eliminen las derivadas de u en (7.13). Para ello, se plantea la siguiente solución
x1 = y − β0 u
x2 = ẏ − β0 u̇ − β1 u = ẋ1 − β1 u
x3 = ÿ − β0 ü − β1 u̇ − β2 u = ẋ2 − β2 u
..
.
xn = y n−1 − β0 un−1 − β1 un−2 − . . . − βn−2 u̇ − βn−1 u = ẋn−1 − βn−1 u
Donde
β0 = b0
β1 = b 1 − a 1 β0
β2 = b 2 − a 1 β1 − a 2 β0
β3 = b 3 − a 1 β2 − a 2 β1 − a 3 β0
..
.
βn = bn − a1 βn−1 − . . . − an−1 β1 − an β0
ÿ + a1 ẏ + a2 y = b0 ü + b1 u̇ + b2 u
x1 = y − β0 u
x2 = ẏ − β0 u̇ − β1 u = ẋ1 − β1 u
donde
β0 = b0
β1 = b 1 − a 1 b0
β2 = b 2 − a 1 β1 − a 2 β0
Reemplazando, se obtiene que
ẋ1 = x2 − β1 u
x˙2 = ÿ − β0 ü − β1 u̇
= −a1 ẏ − a2 y + b0 ü + b1 u̇ + b2 u − b0 ü − b1 u̇ + a1 b0 u̇
= −a1 (x2 + b0 u̇ + β1 u) − a2 (x1 + b0 u) + b2 u + a1 b0 u̇
= −a1 x2 − a1 b0 u̇ − a1 β1 u − a2 x1 − a2 b0 u + b2 u + a1 b0 u̇
= −a1 x2 − a2 x1 − β2 u
7.2.2. Solución
ẋ(t) = Ax(t)
Se asume que se conocen las condiciones iniciales del sistema (x(0)), por lo cual se podrı́a integrar a ambos
lados de la ecuación, para ası́ obtener
Rt
x1 (t) − x1 (0) = (a x (τ ) + . . . + a1n xn (τ )) dτ
R0t 11 1
x2 (t) − x2 (0) = 0
(a21 x1 (τ ) + . . . + a2n xn (τ )) dτ
..
.
Rt
xn (t) − xn (0) = 0
(a n1 (t)x 1 (τ ) + . . . + ann xn (τ )) dτ
Pero, qué es x(τ ) en (7.14)? Si observamos (7.14), x(τ ) viene siendo la solución de dicha ecuación cuando
x(t)|t=τ . En otras palabras, Z τ
0 0
x(τ ) = Ax(τ )dτ + x(0) (7.15)
0
El término entre paréntesis es la aproximación en series de Taylor de una exponencial. Por lo tanto,
El término Φ(t) = eAt se conoce como matriz de transición de estado. Esta matriz se conoce ası́ porque
transfiere el estado del sistema en tiempo 0 a tiempo t. En el paper [20] se deducen 19 diferentes formas de
computar dicha matriz.
Algunas propiedades de la matriz de transición de estado son
Φ(0) = I
Pero,
d −At
e−At (ẋ(t) − Ax(t)) = e x(t)
dt
Integrando a ambos lados,
Z t
e−At x(t) = e−Aτ Bu(τ )dτ + x(0)
0
En esta definición, válida para sistemas lineales e invariantes en el tiempo, se tiene que para un sistema como
(7.18), la relación entre la entrada u y la salida y estará dado por una transformación en frecuencia de las
señales, siempre y cuando las condiciones iniciales sean nulas.
y n + a1 y n−1 + . . . + an−1 ẏ + an y = b0 um + b1 um−1 + . . . + bm−1 u̇ + bm u n≥m (7.18)
Esto serı́a,
L [salida]
H(s) =
L [entrada] CI=0
dónde L [·] es la transformada de Laplace. Aplicando esto a (7.18), se obtiene que
Y (s) b0 sm + b1 sm−1 + . . . + bm−1 s + bm
H(s) = = (7.19)
U (s) sn + a1 sn−1 + . . . + an−1 s + an
Cuál es la relación que existe entre la función de transferencia y la representación en variables de estado?
Tomemos la Ecuación (7.6), y aplicando la transformada de Laplace, se obtiene que
sX(s) − x(0) = AX(s) + BU (s)
Como se sabe que las condiciones iniciales son cero, se tiene que
sX(s) − AX(s) = BU (s)
Se asume que (sI − A) es no singular (porqué?), por lo que se deduce que
X(s) = (sI − A)−1 BU (s) (7.20)
Por otra parte, la transformada de y(t) en (7.7) viene siendo Y (s) = CX(s) + DU (s), por lo cual si reem-
plazamos X(s) en (7.20), se obtiene que la función de transferencia es
Y (s)
= C(sI − A)−1 B + D (7.21)
U (s)
Si se analiza la Ecuación (7.21) se puede observar que |sI − A| corresponde al polinomio caracterı́stico del
G(s)
sistema, ya que el resto de términos podrı́an ser agrupados de tal forma que H(s) = |sI−A| , por lo que los
valores propios de A son idénticos a los polos de H(s). Su rol es vital ya que las raı́ces del polinomio son las
raı́ces caracterı́sticas, o valores propios, o polos del sistema, los que determinan las principales caracterı́sticas
del comportamiento del sistema no forzado.
Se sabe que
A 2 t2 A 3 t3
Φ(t) = eAt = I + At + + + ...
2! 3!
Por lo tanto, la transformada de Laplace serı́a igual a
I A A2 A3
Φ(s) = + 2 + 3 + 4 + ...
s s s s
I A A2 A3
[sI − A]Φ(s) = [sI − A] + 2 + 3 + 4 + ...
s s s s
2
[sI − A]Φ(s) = I 2 + As + As2 + . . .
2 3
− As − As2 − As3 . . .
= I
Por lo tanto,
eAt = L −1 {(sI − A)−1 }
En la literatura, la matriz Φ(s) = (sI − A)−1 se conoce como el resolvent de A (o la matriz caracterı́stica).
Por lo tanto, los pasos a seguir a la hora de calcular la matriz de transición de estado son:
90 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN
Recuerde que
adj(A) 1
A−1 = = (Cij )>
|A| |A|
dónde adj(A) es la matriz adjunta, o la matriz de cofactores, la cual tiene como coeficientes (C ij ) =
(−1)i+j Mij (Mij es la matriz que remueve la fila i y la columna j, para luego tomar el determinante).
El determinante de una matriz A de n × n se puede definir por medio de la expansión de Laplace con
respecto a una fila arbitraria i de la forma
n
X
detA = aij Cij
j=1
Esto también se puede hacer con respecto a una columna arbitraria k de la forma,
n
X
detA = aik Cik
i=1
Ejemplo 7.3.2 Calcular la matriz adjunta cuando se tiene una matriz cuadrada de n = 2, y n = 3.
a11 a12
A=
a21 a22
b11 b12 b13
B = b21 b22 b23
b31 b32 b33
a22 −a12
adj(A) =
−a21 a11
b11 b12 b13
B = b21 b22 b23
b31 b32 b33
b22 b23
− b12 b13 b12 b13
b32 b33 b32 b33 b22 b23
b21 b23 b11 b13
− b11 b13
adj(B) = −
b31 b33 b31 b33 b21 b23
b21 b22
− b11 b12 b11 b12
b31 b32 b31 b32 b21 b22
7.3. FUNCIONES DE TRANSFERENCIA 91
Ejemplo 7.3.3 [12] Hallar la matriz de transición de estado si las dinámicas de un motor DC con inercia
están dadas por
θ̇ = w
ẇ = −αw + βu
dónde α y β son constantes del motor.
At 1 (1 − e−αt )/α
e =
0 e−αt
Y (s) a2 s 2 + a 1 s + a 0
= 3
U (s) s + b2 s2 + b1 s + b 0
U (s) Y (s)
1 2
s3 +b2 s2 +b1 s+b0 a2s + a1s + a0
V (s)
ẋ = Ax + Bu
y = Cx + Du
Ejemplo 7.3.5 [29] Un calibrador óptico utilizado por la Chrysler Corporation, el cual se utiliza para
verificar el perfecto alineamiento de todos los componentes metálicos de varias clases de Sedan de cuatro
puertas, tiene unas dinámicas en lazo cerrado dadas por
ÿ + 5ẏ + 6y = f (t)
El resultado del ejemplo anterior nos muestra claramente que una función de transferencia puede tener mu-
chas representaciones en el espacio de estado. A continuación se explicarán los métodos estándares conocidos
como representaciones CANÓNICAS, las cuales tienen varias propiedades que serán explotadas a lo largo
del curso.
7.4. FORMAS CANÓNICAS 93
Arranquemos por definir las variables de estado para la siguiente función de transferencia
1
H(s) = (7.22)
sn + a1 sn−1 + . . . + an−1 s + an
Esto es equivalente a
y n + a1 y n−1 + . . . + an−1 y + an = u
Esta ecuación se puede ver como una serie de n integradores, donde la salida del último corresponderı́a a la
salida y, la salida del penúltimo seria ẏ, y ası́ sucesivamente. La Figura 7.6 muestra como serı́a el diagrama
en bloques para este caso.
Figura 7.6: Representación en diagramas en bloques de la Ecuación (7.22). Figura tomada de [12].
Y (s)
= b0 sn + b1 sn−1 + . . . + bn−1 s + bn
Z(s)
Ası́ pues, se tiene una parte que es idéntica a lo expuesto anteriormente, mientras que la segunda serı́a la
suma escalizada de las salidas de los integradores que se forman de acuerdo a lo visto previamente. Un
diagrama en bloques se puede ver en la Figura 7.7.
94 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN
Figura 7.7: Representación en diagramas en bloques de la Ecuación (7.23). Figura tomada de [12].
Las matrices A y B son las mismas que se definieron previamente, mientras que las matrices C y D
estarı́an dadas en este caso por el hecho de que
Esta ecuación se obtiene por los dos caminos directos que existen, i.e.,
La estructura en este caso se conoce como la first canonical form. En control se le da el nombre de forma
canónica controlable.
|λI − A| = 0 ⇒ an + an−1 λ + . . . + a1 λn = 0
Un sistema con esta estructura siempre es controlable, y su matriz de controlabilidad es full rank.
En la first companion form los coeficientes del denominador de H(s) aparecı́an en alguna fila de la
matriz A. Existe otra forma en la que los coeficientes aparecen en alguna columna de dicha matriz. Tomando
(7.23), y factorizando, se obtiene que
Figura 7.8: Representación en diagramas en bloques de la forma canónica controlable. Figura tomada de
[12].
ẋ1 = x2 − a1 (x1 + b0 u) + b1 u
ẋ2 = x3 − a2 (x1 + b0 u) + b2 u
..
.
ẋn−1 = xn − an (x1 + b0 u) + bn−1 u
ẋn = −an (x1 + b0 u) + bn u
y = x 1 + b0 u
Si en la Figura 7.8 se numeran las variables de estado de izquierda a derecha (i.e., términos dentro de
cı́rculos en la figura?) se obtiene la forma
0 0 ... −an
1 0 ... −an−1
Ao =
0 1 ... −an−2
... ... ... ...
0 0 ... −a1
bn − a n b0
bn−1 − an−1 b0
Bo = ..
.
b1 − a 1 b0
Co = 0 0 ... 1
y Do = b0 . Esta es la que se conoce como la forma canónica observable. Si se comparan las matrices de la
sección anterior con estas, se tiene que Ac = A> > >
o , Bc = Co , y Cc = B o .
En algunos casos, para hallar los residuos de una función de transferencia, se puede recurrir a programas
como Matlab. A continuación se presenta cómo se deberı́a hacer para obtener dichos residuos de la expansión
en fracciones parciales.
96 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN
Una forma de ver esta ecuación es utilizar diagramas en bloques como se puede ver en la Figura 7.9.
ẋ1 = s 1 x1 + u
ẋ2 = s 2 xs + u
..
.
ẋn = s n xn + u
y = r 1 x1 + r 2 x2 + . . . + r n xn + b0 u
En este caso
s1 0 ... 0
0 s2 ... 0
A=
...
... ... ...
0 0 . . . sn
1
1
B= ..
.
1
C= r1 r2 ... rn
y D = b0 . Si las raı́ces son reales, se podrı́a implementar en hardware. En cualquier otro caso sólo servirı́a
desde un punto de vista teórico.
Cuando el sistema tiene raı́ces repetidas, la expansión en términos de fracciones parciales no es tan
simple. En este caso, lo que se tiene es algo de la forma
Figura 7.9: Representación en diagramas en bloques de la forma canónica de Jordan cuando las raı́ces son
diferentes. Figura tomada de [12].
con ki como la multiplicidad del polo i (i = 1, . . . , n̄). El último término se puede ver como una cadena de
1
ki bloques idénticos con una función de transferencia del tipo s−s i
. En la Figura 7.10 se ilustra este hecho.
La representación serı́a
ẋ1,i = si x1,i + u
ẋ2,i = x1,i + si x2,i
..
.
ẋki ,i = xki −1,i + si xki ,i
yi = r1,i x1,i + r2,i x2,i + . . . + rki ,i xki ,i
98 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN
Figura 7.10: Representación en diagramas en bloques de la forma canónica de Jordan cuando las raı́ces son
repetidas. Figura tomada de [12].
En este caso si definimos xi = [x1,i , x2,i , . . . , xki ,i ]> , se tiene la siguiente representación
ẋi = A i xi + bi u
yi = C i xi
donde
si 0 ... 0
1 si ... 0
Ai =
0 1 ... 0
... ... ... ...
0 0 . . . si
1
0
Bi = ..
.
0
C= r1,i r2,i ... rki ,i
La matriz Ai consiste en dos diagonales: la diagonal principal con los polos más una subdiagonal de unos.
En álgebra esto se conoce como la Jordan form (si se tomara otra nomenclatura, los unos irı́an en la parte
superior).
Por (7.24) se tienen n̄ subsistemas de este mismo calibre. Por lo tanto, el sistema general consistirı́a
en concatenar cada uno de ellos, definiendo x = [x1 , x2 , . . . , xn̄ ]> , con
A1 0 . . . 0
0 A2 . . . 0
A= ... ... ... ...
0 0 . . . An̄
B1
B2
B= .
. .
Bn̄
C = C1 C2 . . . Cn̄
y D = b0 .
EJEMPLOS MATLAB/SIMULINK
7.5. EQUILIBRIO 99
7.5. Equilibrio
Asumamos que se tiene un sistema que puede ser descrito mediante la siguiente ecuación diferencial
ẋ = f (t, x) (7.25)
dónde x ∈ Rn es el estado del sistema, t ≥ 0, con una condición inicial x(t0 ) = x0 , siendo t0 el valor inicial del
tiempo. Por lo general, no existen reglas generales que permitan encontrar de manera explı́cita las soluciones
del sistema descrito mediante la Ecuación (7.25). En este caso, el análisis de este tipo de problemas se realiza
de dos formas: i) un análisis cuantitativo mediante el cual se haya de manera explı́cita la solución de (7.25)
utilizando métodos numéricos y aproximaciones; o ii) un análisis cualitativo, en el cual no se busca una
solución explı́cita de la solución de (7.25), sino que el sistema es estudiado gracias al comportamiento de
la familia de soluciones del problema en cuestión. Nosotros enfocaremos este tutorial en este segundo ı́tem,
ya que los resultados principales de este análisis incluyen las propiedades de estabilidad de un punto de
equilibrio (o posición de reposo), y el acotamiento de las soluciones de ecuaciones diferenciales de la forma
definida en (7.25).
Empecemos nuestro análisis por definir ciertas propiedades básicas en nuestro problema. La ecuación
diferencial que nos atañe está definida por intermedio de la Ecuación (7.25), dónde x ∈ R n . Para definir el
dominio de f tenemos que considerar dos opciones:
Algunas veces se asume que t ∈ R, pero nosotros asumiremos en lo que resta que t ∈ [t 0 , +∞), dónde t0 ≥ 0.
En el siguiente análisis asumiremos que para un determinado t0 , y una condición inicial x(t0 ) = x0 , el sistema
de la Ecuación (7.25) posee una solución única que llamaremos φ(t, t 0 , x0 ). Esta solución está definida para
todo t ≥ t0 y depende de manera continua de los datos iniciales, i.e., (t0 , x0 ). Uno de los casos particulares en
los que esta aseveración es cierta es cuando f satisface la condición de Lipschitz que definimos a continuación.
Definition 16 Condición de Lipschitz: Sea D un conjunto tal que D ⊂ R n . Llamemos C(D) al conjunto
donde todos los elementos de f son continuos, i.e., f ∈ C(D). Decimos que f ∈ C(D) satisface la condición
de Lipschitz en D (con respecto a x) con constante Lipschitz L si
para todo (t, x), (t, y) que pertenezcan a D. En este caso, la función f es continua según Lipschitz en x.
Theorem 7.5.1 Existencia Local y única: Sea f (t, x) una función continua en todo t que satisface (7.26)
para todo x, y ∈ B = {x ∈ Rn : ||x − x0 || ≤ r} y para todo t ∈ [t0 , t1 ]. Existe pues un determinado δ > 0 tal
que la ecuación
ẋ = f (t, x) con x(t0 ) = x0
tiene una solución única sobre [t0 , t0 + δ].
Lo que nos quiere decir el Teorema 7.5.1 es que si para cierto xm → x0 , entonces la trayectoria φ(t, t0 , xm ) →
φ(t, t0 , x0 ) de manera uniforme en t en |t − t0 | ≤ δ para cierto δ > 0.
Una vez establecidas estas condiciones, podemos definir el punto de equilibrio.
Definition 17 Un punto xe ∈ Rn se dice que es un punto de equilibrio de la Ecuación (7.25) (en un tiempo
t∗ ∈ R+ ) si,
f (t∗ , xe ) = 0 ∀t ≥ t∗
100 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN
Nótese que para sistemas autónomos (aquellos en los cuales la Ecuación (7.25) no depende del tiempo), un
punto xe ∈ Rn es un punto de equilibrio en un determinado tiempo t∗ si y sólo si es un punto de equilibrio
para todo tiempo. Nótese también que si xe es un punto de equilibrio en t∗ , entonces la transformación
τ = t − t∗ reduce la Ecuación (7.25) a
dx
= f (τ + t∗ , x)
dτ
y por ende, xe es un punto de equilibrio en τ = 0. Es por ello que se asumirá que t∗ = 0, y omitiremos su
uso en lo que resta del documento. Además, si x(t0 ) = xe , el sistema está en reposo desde el inicio, por lo
cual no tiene porque desplazarse de su punto de equilibrio.
Ejemplo [14]: Consideremos el sistema descrito por
ẋ1 = x2
ẋ2 = − gl sin(x1 ) − k
m x2
dónde g, l, m, k > 0. Este sistema describe de forma simple el péndulo sin fricción, y como se puede ver tiene
infinitos puntos de equilibrio localizados en (πn, 0), n = 0, ±1, ±2, . . .. Fı́sicamente sólo tiene dos puntos de
equilibrio, y los demás son la repetición de los dos primeros.
Para poder definir ciertas caracterı́sticas de un punto de equilibrio, introducimos la siguiente definición.
Definition 18 Un punto xe de (7.25) se dice que es un punto de equilibrio aislado si existe una constante
r > 0 tal que B(xe , r) ⊂ Rn no contiene más puntos de equilibrio de (7.25) que xe . En este caso, la bola de
radio r y centro xe se define como B(xe , r) = {xe ∈ Rn : |x − xe | ≤ r}.
Como podemos observar, todos los puntos de equilibrio de la Ecuación (7.27) son aislados en R 2 . Sin embargo,
existen sistemas en los cuales los puntos de equilibro no son aislados.
Ejemplo [?]: Consideremos el sistema
dónde a > 0 y b > 0 son constantes. Queda claro que x1e = 0, por lo cual cualquier punto en el eje positivo
de x2 es un punto de equilibrio de (7.27). Ası́ pues, el punto de equilibrio no es aislado.
Es claro que existen casos en los cuales no existen puntos de equilibrio. Por ejemplo, tomemos el
siguiente ejemplo
ẋ1 = 2 + sin(x1 + x2 ) + x1
ẋ2 = 2 + sin(x1 + x2 ) − x1
En lo que nos resta, asumiremos que los puntos de equilibrio son aislados. También asumiremos que el punto
aislado de equilibrio que analizaremos es xe = 0. Por qué? Asumamos que xe 6= 0 es un punto de equilibrio
de (7.25). Si definimos e = x − xe , entonces e = 0 es un punto de equilibrio de
ė = f (t, e + xe ) (7.27)
Como las propiedades de (7.27) y (7.25) son las mismas, podemos asumir que el punto de equilibrio está lo-
calizado en xe = 0, el cual es conocido como el punto de equilibrio trivial de (7.25).
cuando
|x0 | < δ(, t0 ) (7.29)
x2
φ(t,t0,x 0)
x1
δ(ε,t0)
Cabe reafirmar que es el punto de equilibrio el que es estable, mas no el sistema. Además, como en
la definición se tienen que cumplir las Ecuaciones (7.28) y (7.29) para cualquier > 0 y cualquier t 0 ∈ R+ ,
no es lógico tratar de probar que un punto de equilibrio es estable por medio de simulaciones. La simulación
sólo ayudarı́a para dar una intuición sobre lo que podrı́a suceder, mas no es en ningún caso una prueba
matemática.
En la Definición 19, δ(, t0 ) depende de y t0 . Si δ es independiente de t0 , i.e., δ = δ(), entonces se
dice que el punto de equilibrio xe = 0 de (7.25) es uniformemente estable.
Definition 20 Se dice que el punto de equilibrio xe de (7.25) es asintóticamente estable (AS) si:
1. Es SISL.
2. Para cualquier t0 ≥ 0, existe un η(t0 ) > 0, tal que
El dominio de atracción del punto de equilibrio xe de (7.25) es el conjunto de todas las condiciones
iniciales x0 ∈ Rn tales que φ(t, t0 , x0 ) → 0 cuando t → ∞ para un cierto t0 ≥ 0. Si la segunda condición es
válida, se dice que el punto de equilibrio xe de (7.25) es atraı́do.
Si η en la segunda condición no depende de t0 , y además el punto de equilibrio xe de (7.25) es
uniformemente estable, se dice que el punto de equilibrio xe de (7.25) es uniformemente asintóticamente
estable (UAS).
Cuál es la diferencia entre un punto de equilibrio que es SISL y uno que es AS? Cuando hablamos de SISL se
dice que el sistema tiene unas condiciones iniciales tales que si el sistema está cerca de su punto de equilibrio,
entonces al final el sistema se mantendrá cerca del punto de equilibrio. Sin embargo, en la definición de AS lo
que se tiene es que si el sistema arranca cercano al punto de equilibrio, entonces además de que la trayectoria
102 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN
Ejemplos:
ẋ = 0: Este sistema tiene un punto de equilibrio que es SISL, más en ningún momento es AS ya que
las trayectorias no convergen al punto de equilibrio.
ẋ = −ax: Si asumimos que a > 0, el punto de equilibrio es xe = 0, y como se puede ver este es SISL
pero además como la trayectoria es φ(t, t0 , x0 ) = x0 e−at , tomando el lı́mite en el infinito, se puede ver
que la trayectoria converge a 0, con lo cual es AS.
Este último ejemplo nos muestra una caracterı́stica adicional, y es cuán rápido las trayectorias con-
vergen al punto de equilibrio. A continuación la definimos.
φ(t)
ε e- αt
ε
x0
δ
t
Si un punto de equilibrio xe = 0 de (7.25) no es SISL, entonces se dice que es inestable. Sin embargo,
pueden existir casos en los que las soluciones de φ(t, t0 , x0 ) tienden a cero cuando t aumenta, por lo cual los
conceptos de inestabilidad y atracción pueden ser compatibles.
Hasta ahora sólo hemos considerado propiedades locales del punto de equilibrio. A continuación enun-
ciaremos ciertas propiedades globales.
El sistema (7.25) posee estabilidad según Lagrange si para cada t0 ≥ 0 y x0 , la solución φ(t, t0 , x0 ) es acotada.
En la definición anterior β podı́a depender de t0 . Si esta constante es tal que para cualquier α > 0 y cualquier
t0 ∈ R+ , β = β(α) > 0 (independiente de t0 ), se tiene que si |x0 | < α, entonces |φ(t, t0 , x0 )| < β para todo
t ≥ t0 .
Gráficamente esta última definición puede verse ilustrada en la Figura 7.13. Lo que se ilustra en esta figura
es que si bien se pueden llegar a tener oscilaciones elevadas en un principio, luego de un tiempo T (α), las
trayectorias se ven acotadas por una especie de cilindro de radio B.
φ(t)
x0
α B t
T(α)
Entre tenerle miedo a todo y tenerle miedo a mi propio miedo, elijo esto último, no se olvide que soy
policı́a y que si le tuviera miedo a todo no podrı́a trabajar. Pero si le tiene miedo a sus miedos su vida
se puede convertir en una observación constante del miedo, y si éstos se activan, lo que se produce es
un sistema que se alimenta a sı́ mismo, un rizo del que le resultarı́a difı́cil escapar, dijo la directora.
2666, Roberto Bolaño
Las notas de este capı́tulo han sido sacadas de varios libros, dentro de los que se destacan [22, 7, 11,
32, 12, 4].
8.1. Introducción
Normalmente estamos interesados en controlar el sistema con una señal de control u(t), que está ligada
a las variables de estado del sistema. Este controlador opera bajo la información disponible, y es un sistema
de compensación bastante utilizado para optimización de sistemas.
Los conceptos de controlabilidad y observabilidad fueron introducidos por R. E. Kalman en los años
50s para explicar porqué un método de diseño de compensadores para sistemas inestables por medio de la
cancelación de los polos en el semiplano derecho por ceros en el mismo semiplano no siempre funcionaba.
Kalman demostró que una cancelación perfecta polo-cero podrı́a resultar en un sistema inestable incluso
teniendo una función de transferencia estable.
Ejemplo 8.1.1 [12] Asumamos que se tiene el sistema descrito por las ecuaciones de estado,
s3 + 9s2 + 26s + 24
H(s) = C(sI − A)−1 B =
s4 + 10s3 + 35s2 + 50s + 24
Factorizando, se puede ver como un sistema de cuarto orden se reduce a uno de primer orden de la forma
(s + 2)(s + 3)(s + 4) 1
H(s) = =
(s + 1)(s + 2)(s + 3)(s + 4) s+1
105
106 CAPÍTULO 8. VARIABLES DE ESTADO: DISEÑO
Por intermedio de un cambio de variables (que se verá más adelante), el sistema puede ser escrito
como
ż1 = −z1 + u
ż2 = −2z2
ż3 = −3z3 + u (8.1)
ż4 = −4z4
y = z 1 + z2
El diagrama en bloques que se muestra en la Figura 8.1 nos ilustra que:
u z1
R
+ y
−1
R
+ z2
−2
R
+ z3
−3
R z4
+
−4
La función de trasferencia está determinada sólo por el subsistema que es tanto controlable como observable.
Se dice que un sistema que contiene un subsistema NO controlable es NO controlable; un sistema que contiene
un subsistema NO observable es NO observable.
Si existe al menos una cancelación de polos y ceros inestables, cualquier perturbación llevarı́a al sistema
a volverse inestable. Sin embargo, en este caso no habrı́a problema ya que los polos eran todos estables, por
lo cual la cancelación polos/ceros no nos afectaba en deması́a.
ż = T AT −1 x + T Bu
y = CT −1 x + Du
ż = Āz + B̄u
y = C̄z + D̄u
Por ejemplo, en el caso de calcular eAt , si la matriz Ā fuera diagonal, entonces serı́a más sencillo calcular
eĀt que eAt , ya que los valores propios no se ven afectados bajo una transformación ideal, i.e.,
El problema que surge entonces es escoger T de tal forma que Ā = T AT −1 sea diagonal.
λe = Ae
Una de los métodos para hallar T es utilizando la noción de vectores propios agrupados todos en la matriz
T −1 . Sin embargo, el método que se describe a continuación sólo es válido si los n valores propios son
diferentes, i.e., no existe ninguno que sea repetido.
Para hacer la explicación más sencilla, supongamos que A tiene tres vectores propios diferentes
e1 , e2 , e3 . A continuación escogemos las columnas de T −1 como cada uno de los vectores propios, i.e.,
| | |
T −1 = e1 e2 e3
| | |
Luego, se puede obtener T , y por lo tanto calcular Ā, la cual será una matriz diagonal que tendrá en su
diagonal los valores propios λi , i = 1, . . . , n. Esto nos permitirı́a encontrar la modal canonical form si es que
existe.
Ejemplo 8.2.1 Encontrar la modal canonical form del siguiente sistema, si es que existe.
−1 −2 3
ẋ = x+ u
0 −2 1
y = [2 − 6]x
En primera instancia, tendrı́amos que hallar los valores propios de A por medio de |λI − A| = 0, lo que en
este caso implica que λ = {−1, −2}.
Luego, para encontrar T se necesita encontrar una base de vectores propios, i.e., (λ i I − A)ei = 0,
i = 1, 2. Esto implica que si λ1 = −1 se puede escoger que e1 = (1, 0)> , y que si λ2 = −2 se puede escoger
que e2 = (2, 1)> . Por lo tanto se tendrı́a que
−1 1 2
T =
0 1
y
1 −2
T =
0 1
Por lo cual
−1 0
−1
T AT =
0 −2
1
TB =
1
CT −1 = [2, −2]
Otra forma más sencilla de obtener la matriz T cuando los valores propios son todos diferentes, es utilizar
λ1 0 ... 0
0 λ2 0 0
Ā = ..
0 0 . 0
0 0 ... λn
Con
1 1 ... 1
λ1 λ2 ... λn
T −1
= λ21 λ22 ... λ2n
.. .. .. ..
. . . .
λ1n−1 λ2n−1 ... λnn−1
8.3. DISEÑO DE CONTROLADORES UTILIZANDO STATE FEEDBACK 109
Ejemplo 8.2.2 Encontrar la modal canonical form del siguiente sistema, si es que existe.
0 1 0 0
ẋ = 0 0 1 x + 0 u
−18 −27 −10 1
y = [1 0 0]x
En primera instancia, tendrı́amos que hallar los valores propios de A por medio de |λI − A| = 0, lo que en
este caso implica que λ = {−1, −3, −6}.
Si T se escoge como
1 1 1
T −1 = −1 −3 −6
1 9 36
Se puede comprobar que
−1 0 0
T AT −1 = Ā = 0 −3 0
0 0 −6
1/10
B̄ = −1/6
1/15
C̄ = [1, 1, 1]
También podrı́a comprobarse que la escogencia de dicha matriz T se puede obtener por el método de los
vectores propios descrito previamente.
Vale resaltar nuevamente que los métodos descritos son válidos si se tienen n valores propios diferentes. Si uno
de los valores propios es repetido, el método falla, ya que no se tendrán n vectores propios independientes.
Otra de las cosas que valdrı́a resaltar es el hecho de que el polinomio ∆(λ) = |λI − A| = 0 corresponde
al polinomio caracterı́stico. Esto se hace más evidente cuando uno recuerda la definición de función de
transferencia que se utilizó previamente.
r u + R
x
+ B C y
− +
Ejemplo 8.3.1
−1 a 0
ẋ = x+ u
3 −2 1
La idea es poder diseñar un controlador lineal de la forma u = −Kx tal que los polos queden ubicados donde
se desee. Por lo tanto, l reemplazar u, se tendrı́a un sistema de la forma
−1 a
ẋ = x
3 − K1 −2 − K2
Los polos de lazo cerrado están determinados por el polinomio caracterı́stico, i.e.,
|λI − (A − BK)| = 0
λ2 + λ(K2 + 3) + 2 + K2 + a(K1 − 3) = 0
Supongamos que queremos que los polos de lazo cerrado estén ubicados en -2, -3, i.e.,
(λ + 2)(λ + 3) = 0
λ2 + 5λ + 6 = 0
2
Entonces, se tendrı́a finalmente que escoger K2 = 2, y K1 = a + 3, con a 6= 0.
Qué sucederı́a en el problema anterior si a = 0? En ese caso, no se pueden colocar los polos de lazo cerrado
donde uno lo desea, ya que el sistema no serı́a controlable. La siguiente definición ilustra mejor este concepto.
Definition 25 El sistema
ẋ = Ax + Bu
es controlable si y sólo si es posible transferir, por medio de la entrada u(t), el sistema de cualquier estado
inicial x(t) = x0 a cualquier otro estado x(T ) = xT en un tiempo finito T − t ≥ 0.
x3
xf = x(T )
x0
x2
x1
Figura 8.3: Comportamiento de la definición de controlabilidad en R3 .
8.3. DISEÑO DE CONTROLADORES UTILIZANDO STATE FEEDBACK 111
Definition 26 El sistema
ẋ = Ax + Bu
se dice que es controlable si para cualquier polinomio αc (s) de orden n existe un único control u = −Kx
tal que el polinomio caracterı́stico de A − BK sea igual a αc (s).
Otra forma de comprobar si un sistema es controlable o no, es por medio de las caracterı́sticas algebráicas
de sus matrices. Para definir correctamente esto, se necesita recordar lo siguiente.
Theorem 8.3.1 El rango de una matriz A es el número de columnas (o filas) linealmente independientes.
α 1 v1 + . . . α n vn = 0 ⇒ α 1 = α 2 = . . . = α n = 0
Si no, son linealmente dependientes, ya que al menos un αi 6= 0 uno podrı́a expresar el vector asociado con
él como una combinación lineal en términos de los otros vectores.
Ejemplo 8.3.2 Los vectores [1, 3]> , [4, 5]> , [6, 4]> NO son independientes, porque se pueden escoger
α1 = −2, α2 = 2, y α3 = −1, tal que α1 [1, 3]> + α2 [4, 5]> + α3 [6, 4]> = 0.
. . .
C = [B .. AB .. . . . .. An−1 B]
es la matriz de controlabilidad.
Determina si
1. El sistema es controlable?
2. Si es ası́, determine las ganancias K = [K1 , K2 ] tal que los polos de lazo cerrado estén ubicados en
λ ∈ {−2, −2}.
Una de las ventajas de las formas canónicas se puede ver a continuación. Si el sistema está en la forma
canónica controlable, se tiene que
0 1 0 ... 0
0 0 1 ... 0
A=
. . . . . . . . . . . . . . .
0 0 0 ... 1
−a0 −a1 −a2 . . . −an−1
0
0
B= ..
.
1
112 CAPÍTULO 8. VARIABLES DE ESTADO: DISEÑO
Si se quisieran ubicar los polos en unos puntos determinados con K = [K1 , . . . , Kn ], los valores propios de
A − BK están dados por las raı́ces de |λI − (A − BK)| = 0, los cuales son
λn + β1 λn−1 + . . . + βn−1 λ + βn = 0
Por lo tanto, serı́a muy sencillo obtener los valores de las ganancias Ki , de la forma
K1 = β n − a 0
K2 = βn−1 − a1
Y ası́ sucesivamente.
Sin embargo, no es necesario transformar el sistema en la forma canónica controlable para hacer la
ubicación de polos. Se puede hacer esto directamente con el sistema (A, B) y luego calcular la ecuación
caracterı́stica con A − BK directamente.
Un test interesante con el cual se puede verificar la controlabilidad de un sistema es el PBH test.
.
Theorem 8.3.3 El par (A, B) es controlable si y sólo si rank[A − λI .. B] = n para todos los valores propios
de A.
El desarrollo hasta ahora se ha basado en state feedback u = −Kx. Se tendrı́a la misma libertad si se
escogieran los polos si se utilizara output feedback, u = −Ky?
Y (s) 1
=
U (s) s(s + 1)(s + 2)
Se desea diseñar este servosistema para que lo polos en lazo cerrado estén ubicados en −2 ± j3,464 y −10.
Se supone que la configuración del sistema es la que se ve en la Figura 8.4.
x1
r + x2 y = Cx y = x1
K1 ẋ = Ax + Bu
+
− − − x3
K2
K3
En primera instancia tenemos que determinar si el sistema es controlable. Para ello, se define la
matriz de controlabilidad
2
C = [B | AB | A B]
0 0 1
= 0 1 −3
1 −3 7
Por lo tanto, se puede ver que el rank(C) = 3, y por ende, el sistema es controlable. Ahora sı́ podemos mirar
el polinomio caracterı́stico |λI − (A − BK)| = 0, y compararlo con el deseado. De esta forma se obtienen los
dos polinomios a comparar, i.e.,
λ3 + λ2 (K3 + 3) − λ(2 − K2 ) + K1 = 0
Para un sistema de una entrada y una salida, la fórmula de Ackermann es útil para calcular la matriz K de
u = −Kx, dada la ecuación caracterı́stica
En este caso,
K = [0 0 . . . 1]C −1 q(A)
donde
q(A) = An + αn−1 An−1 + . . . + α0 I
y C es la matriz de controlabilidad.
q(λ) = λ2 + 2λ + 2
Lo cual implica que el sistema es controlable (Nótese bien que para obtener K utilizando esta fórmula,
se requiere que la inversa de la matriz C exista, y esto se da esencialmente al garantizar que C
es full rank, i.e., cuando el sistema es controlable). Por lo tanto, podrı́amos calcular K de la forma
K = [0 1]C −1 q(A)
114 CAPÍTULO 8. VARIABLES DE ESTADO: DISEÑO
donde
1 0 −1 0 1
C −1 = =
−1 −1 0 1 0
y
2
0 1 0 1 1 0 2 2
q(A) = +2 +2 =
0 0 0 0 0 1 0 2
Por lo tanto,
K = [2 2]
Si recordáramos el ejemplo anterior, hay sistemas que no tienen todas sus variables de estado accesibles.
Por lo tanto, existen técnicas que proveen un estimado de los estados inaccesibles. Un sistema dinámico cuyas
variables son las variables de estado de otro sistema se conoce como un observador de este sistema. El término
fue acuñado por D. Luemberger en 1963, el cual demostró que para cualquier sistema lineal observable, se
puede diseñar un observador tal que el error de lo estimado (i.e., la diferencia entre el estado del sistema
actual y el observado), tiende a cero asintóticamente tan rápido como uno lo desee. Esta técnica de diseño
es equivalente al diseño de sistemas retroalimentados por pole placement.
Un observador es un dispositivo que reconstruye una señal, el cual provee el estimado de los estados
inaccequibles como e ve en la Figura 8.6.
r u y
+ Plant (A, B, C)
−
ẑ
K Observer
Asumamos que existe una planta cuyo comportamiento está dado por
ẋ = Ax + Bu
y = Cx
La entrada u y la salida y están conectadas al sistema estimado como se muestra en la Figura 8.7.
Si el estado del sistema es ẑ, entonces por inspección se tiene
ẑ˙ = (A − LC)ẑ + Bu + Ly
8.4. DISEÑO DE ESTIMADORES EN EL ESPACIO DE ESTADO 115
u B
+
y L + ẑ˙ R ẑ ŷ
+ C
− +
Por lo tanto, el comportamiento dinámico de la diferencia entre los estados de los dos sistemas está dado por
ẑ˙ − ẋ = (A − LC)(ẑ − x)
Si se puede escoger L tal que A − LC tenga raı́ces con parte real negativa, entonces ẑ → x cuando t → ∞,
independientemente de la entrada u.
Definition 28 El sistema
ẋ = Ax + Bu
y = Cx
con condiciones iniciales x(0) = x0 es observable si el estado x(t) puede ser determinado por la entrada
u(s) y la salida y(s), 0 ≤ s ≤ t.
Es claro que los polos del error de lazo cerrado ẑ˙ − ẋ = (A − LC)(z − x) pueden ser colocados en cualquier
posición (escogiendo L), siempre y cuando el par (A, C) sea observable.
Para un sistema de una entrada y una salida, también se pueden seleccionar los valores de L por medio
de la fórmula de Ackermann, con
L = [L1 L2 . . . Ln ]>
Si la ecuación caracterı́stica es
ρ(λ) = λn + βn−1 λn−1 + . . . + β0
En este caso,
L = ρ(A)O −1 [0 0 . . . 1]>
donde
ρ(A) = An + αn−1 An−1 + . . . + α0 I
y O es la matriz de observabilidad.
Teniendo estos datos, se sabe entonces que β1 = 16 y que β0 = 100. Por ende, el polinomio caracterı́stico
utilizando la fórmula de Ackermann serı́a
2
2 3 2 3 1 0 133 66
ρ(A) = + 16 + 100 =
−1 4 −1 4 0 1 −22 177
donde
1 0
O=
2 3
y
−1 1 0
O =
−2/3 1/3
Por lo tanto,
L = [22 59]>
Esto se pudo haber obtenido como se habı́a venido haciendo hasta el momento.
Definition 29 El sistema
ẋ(t) = Ax + Bu
(8.2)
x(0) = x0
se dice que es stabilizable si existe una matriz K tal que para u = −Kx, el sistema en lazo cerrado
ẋ = (A − BK)x
es estable.
De manera informal, lo que nos plantea la definición es que (8.2) es stabilizable si y sólo si todos los modos
inestables son controlables.
Definition 30 El par (C, A) es detectable si existe una matriz L tal que A − LC, sea estable.
En otras palabras, desde el punto de vista de los valores propios se tiene que
1. Se asume que todas las variables de estado son medibles, y se utiliza una ley de control conocida como
full-state feedback control law. En realidad esto no es práctico ya que por lo general no es posible medir
todos los estados. En la práctica sólo algunos estados son medibles, o algunas combinaciones de ellos
existen.
2. Se construye un observador para estimar los estados que no se pueden sensar directamente, ni que
están disponibles como salidas. Estos observadores pueden ser full-state o de orden reducido (estos en
el caso que algunos estados estén disponibles como salidas, por lo cual no necesitan ser estimados).
3. Se requiere acoplar el observador con el full-state feedback control law. Esto último se conoce como
compensador.
8.5. INTEGRATED FULL-STATE FEEDBACK AND OBSERVER 117
Para el 3er punto, se podrı́a tener que la ley de control está dada por
Es esta una buena estrategia? Originalmente, K se diseñó para garantizar que el sistema en malla cerrada
fuera estable, i.e.,
det(λI − (A − BK)) = 0
tenı́a raı́ces ubicadas en el LHP. Si todos los estados estaban disponibles, entonces al seleccionar K para que
la premisa se cumpla, se tenı́a que x(t) → 0 cuando t → ∞ para cualquier condición inicial x(t 0 ). Ahora
bien, lo que se necesita es comprobar que con (8.3) el sistema sigue siendo estable. Para ello, se tiene que el
observador de estado viene dado por
como se ve en la Figura...
ANADIR FIGURA
El error de estimación utilizando el compensador de (8.4) darı́a que
ė = ẋ − x̂˙ = Ax + Bu − Ax̂ − Bu − Ly + LC x̂
Es decir
ė = (A − LC)e (8.5)
lo cual es equivalente al error de estimación que se obtuvo en el diseño del observador. Esto implica que el
error de estimación NO depende de la entrada.
Se tiene el sistema
ẋ = Ax + Bu
y = Cx
Si u = −Kx, entonces
ẋ = (A − BK)x + BKe (8.6)
donde x̂ = x − e. De forma matricial, combinando (8.5) y (8.6) tendrı́amos que
ẋ A − BK BK x
=
ė 0 A − LC e
El objetivo es verificar que la ley de control u = −K x̂ sigue siendo una buena solución para mantener el
sistema estable.
Para ello, recordemos que la ecuación caracterı́stica está dada por
Si las raı́ces del polinomio det(λI − (A − BK)) = 0 están en el semi-plano izquierdo (lo cual es cierto por el
diseño de K), y si las raı́ces de det(λI − (A − LC)) = 0 están también en dicho semi-plano (lo cual es cierto
por el diseño del observador), entonces el sistema total serı́a estable. Por ende, el diseño de ambas cosas por
separado es válido, y esto se conoce como el separation principle.
Ası́ pues, todo se podrı́a resumir de la siguiente manera:
1. Determinar K tal que det(λI −(A−BK)) = 0 tenga raı́ces en el semi-plano izquierdo, y ubicar los polos
tal que se cumplan las especificaciones de diseño. La ubicación arbitraria de los polos está garantizada
por el hecho de que el sistema sea completamente controlable.
2. Determinar L tal que det(λI − (A − LC)) = 0 tenga raı́ces en el semi-plano izquierdo y ubicar polos
para cumplir los criterios de desempeño del observador. Esto se da porque el sistema es observable.
118 CAPÍTULO 8. VARIABLES DE ESTADO: DISEÑO
3. Conectar utilizando
u(t) = −K x̂
La función de transferencia del compensador serı́a
U (s) = −K X̂(s)
U (s) = (−K(sI − (A − BK − LC))−1 L)Y (s)
Capı́tulo 9
Control Multivariable
Lo expuesto en este capı́tulo está desglosado en el artı́culo [34]. Sin embargo, algunos ejemplo han
sido tomados de [1] y [31].
9.1. Introducción
Por lo general, en la industria siempre se tiene más de un lazo de control para poder fabricar sus
productos. Estos sistemas se conocen como sistemas multivariables o sistemas de múltiples entradas y salidas
(MIMO, por sus siglas en inglés). Algunos ejemplos comunes son:
Reactores quı́micos.
Columnas de destilación.
Intercambiadores de calor.
Por ejemplo, en un reactor quı́mico como el que se ve en la Figura..., las variables de interés son usualmente
la composición del producto y la temperatura de reacción.
ANADIR FIGURA
Por lo tanto, habrá un lazo dedicado a la composición, y otro a la temperatura. Sin embargo, cualquier
cambio en uno de los lazos estará afectando al otro por lo que ambos lazos deberán saber qué hace el otro
para ası́ poder cumplir sus objetivos de control. Este fenómeno es lo que se conoce como interacción de
lazo. Este tipo de interacciones debidas a la forma del proceso o a su diseño pueden causar problemas de
inestabilidad del sistema.
9.2.1. Representación
Las técnicas de diseño de controladores se basa en modelos lineales por lo general por medio de
ecuaciones diferenciales que describen su comportamiento (también pueden existir métodos empı́ricos para
determinar la estructura del proceso).
Por lo general, este tipo de modelos se hace mediante aproximaciones de espacio de estado, o utilizando
el modelo de entrada/salida (i.e., funciones de transferencia).
119
120 CAPÍTULO 9. CONTROL MULTIVARIABLE
9.2.2. Modelos
Por lo general, los sistemas de dimensión elevada se pueden descomponer en subsistemas de 2 × 2, por
lo que la discusión a seguir se basará en procesos de dos entradas y dos salidas.
Estos modelos pueden asumir varios tipos de formas estructurales. Dos modelos comunes son las
representaciones P- y V-canonical que se muestran en la Figura...
ANADIR FIGURA
Con la estructura en P-canonical se tiene una interacción conocida como feedforwards, mientras que
la V-canonical posee un acople feedback. Los elementos Gkij corresponden a funciones de transferencia que
determinan las diversas relaciones entrada/salida.
P-canonical Representation
y1 = u1 Gp11 + u2 Gp12
y2 = u1 Gp21 + u2 Gp22
Es decir
y1 Gp11 Gp12 u1
=
y2 Gp21 Gp22 u2
V-canonical Representation
donde
y1
y=
y2
Gv11 0
Gvm =
0 Gv22
0 Gv12
GvI =
Gv21 0
u1
u=
u2
9.2. ANÁLISIS DE LOS SISTEMAS MULTIVARIABLES 121
Un sistema puede ser modelado utilizando cualquiera de las estructura P o V, y su relación está dada
por
Gp = [I − Gvm GvI ]−1 Gvm
siempre y cuando la inversa exista.
La pregunta que surgirı́a serı́a cuál de estas dos representaciones tendrı́a que utilizarse. No existen
reglas para ello, sin embargo, lo siguiente deberı́a ser tenido en cuenta:
1. Los parámetros del modelo deben ser determinados por los experimentos.
2. El modelo debe ser lo suficientemente representativo del proceso.
3. El modelo debe ser simple y que contenga la mayor cantidad de información.
Consideremos primero la V-canonical representation. No es posible obtener las matrices G vm y GvI a partir de
las pruebas de malla-abierta por ejemplo. Esto se debe a que un cambio en cualquiera entrada afectará todas
las otras I/O del sistema. Sin embargo, técnicas numéricas de identificación permitirán la obtención de las
funciones de transferencia de la V-canonical representation. Por otro lado, los procesos se ven afectados por
perturbaciones externas de carga. En la V-canonical representation se tiene que
donde
GD1 0
GD =
0 GD2
y v es un vector de perturbaciones. Si se tuviesen las mismas perturbaciones de carga en P-canonical repre-
sentation esto darı́a
y = Gp u + GD v
Nótese que en este caso cada par de I/O está únicamente definido, y los elementos de las funciones de
transferencia Gp y GD se pueden determinar directamente por experimentación de lazo abierto. Además, en
la P-canonical representation el modelo es implı́citamente observable y controlable, i.e., las salidas pueden
ser medidas y las entradas pueden ser consideradas para control. Por lo tanto, de ahora en adelante nos
concentraremos en representaciones tipo P-canonical.
Preguntas como porqué se necesita el control multivariable, o cuáles son los efectos de la interacción
en el desempeño del sistema surgen en estos casos. Para poder ver el efecto de la interacción, asumamos que
se tiene el sistema de la Figura... con G21 = G12 = 0.
ANADIR FIGURA
Es decir, se tienen dos procesos G11 y G22 los cuales interactuan con unos controladores proporcionales.
Como no existirı́a acople entre los sistemas, se tendrı́an ecuaciones caracterı́sticas independientes de la forma
1 + Kc1 G11 = 0
1 + Kc2 G22 = 0
Si asumimos que los procesos G11 y G22 son de primer orden, con un controlador proporcional se tendrá un
sistema estable, independientemente de la magnitud de las ganancias K ci . Sin embargo, la ecuación carac-
terı́stica cuando G21 6= 0 y G12 6= 0 vendrı́a dada por
1 + Kc1 G11 + Kc2 G21 + Kc1 G11 Kc2 G22 − Kc1 Kc2 G12 G21 = 0
Esta ecuación nos muestras que en este caso sı́ habrá un rango limitado de acción de las ganancias para que
exista estabilidad en el sistema.
El problema de la interacción puede ser disimuido por la escogencia de los acoples entrada/salida. Para
un sistema de 2×2, esto serı́a simple ya que u1 se acopla con y2 , y u2 con y1 , y si estos acoples no surten
efecto en el diseño entonces se acoplan u1 − y1 y u2 − y2 . Sin embargo, para sistemas de n dimensiones,
se tendrán que intentar n! acoples lo que hace imposible probar todas las posibilidades. Por lo tanto, es
importante evaluar cuantitativamente el grado de interacción entre lazos de control con el fin de estructurar
el esquema de control que contenga la menor interacción posible. Una técnica para ello es lo que se conoce
como el relative gain analysis technique.
Bristol (REF Bristol 66) desarrolla una técnica que sirve para la selección de “manipulative-controlled
variable pairings”, ası́ como los comportamientos de las respuestas controladas (REF Skinskey 81). Este
método permite determinar si un par entrada/salida es una buena escogencia para implementar un contro-
lador SISO, ya que la interacción con otros lazos será despreciable. El análisis se basa en la construcción
del relative gain array (RGA), el cual se presenta a continuación para un sistema de 2 × 2 en la forma
p-canonical.
Sean Kij las ganancias de la función de transferencia Gij . Asumiendo que u2 permanece constante,
un cambio a entrada paso en u1 de magnitud ∆u1 , producirá un cambio ∆y1 en la salida y1 . Entonces, la
ganancia entre u1 y y1 cuando u2 es constante está dada por
∆y1
K11 |u2 =
∆u1 u2
Si ahora se mantiene constante y2 en vez de u2 , entonces un cambio en ∆u1 resultará en un cambio diferente
en y1 , y
∆y1
K11 |y2 =
∆u1 y2
Si bien las ganancias están definidas para el mismo par de variables, sus valores pueden ser diferentes ya que
se obtienen para diferente condiciones. Si existe interacción, entonces el cambio en y 1 debido al cambio en
u1 para los dos casos (i.e., u2 y y2 constantes) será diferente.
Se define
K11 |u2
λ11 =
K11 |y2
como el relative gain entre la salida y1 y la entrada u1 . Se tiene entonces que
Si λ11 = 0 entonces el cambio en u1 no influye en y1 . Por ende, no deberı́a ser utilizado para controlar
y1 .
Por lo tanto, en un sistema de 2 × 2, sólo se tiene que determinar un solo elemento del RGA, ya que los
demás se podrán encontrar a partir de éste, i.e.,
λ12 = 1 − λ11
λ21 = λ12
λ22 = λ11
De manera similar para un sistema de n × n, sólo se tienen que determinar (n − 1) × (n − 1) elementos.
Este método se basa en un procedimiento experimental. Una determinación analı́tica es posible si un
modelo en estado estable está disponible. Entonces si tenemos
y1 = K11 u1 + K12 u2
y2 = K21 u1 + K22 u2
donde Kij son las ganancias en estado estable de la matriz de funciones de transferencia. Entonces,
∂y1
K11 |u2 = = K11
∂u1 u2
Se sabe que
y2 − K21 u1
y1 = K11 u1 + K12
K2 2
124 CAPÍTULO 9. CONTROL MULTIVARIABLE
Entonces
∂y1 K12 K21
K11 |y2 = = K11 −
∂u1 y2 K22
Por lo tanto, si reemplazáramos obtenemos que
K11 K22
λ11 =
K11 K22 − K12 K21
De esta forma, los demás elementos de la matriz RGA podrán ser calculados.
Para un sistema de n × n, si se conoce la matriz de ganancias del proceso K, entonces
Λ = K. ∗ (K > )−1
Estos son sólo algunos casos, pero si uno quisiera ser más riguroso tendrı́a que mirar los casos con diferente
número de I/O y perturbaciones, lo cual está fuera del alcance al que queremos llegar en esta clase. Sin
embargo, una regla general para la selección de los lazos de control serı́a:
Los lazos de control deberán tener pares I/O que tengan positive relative gains
con valores lo más cercanos posibles a 1.
El uso de las ganancias relativas para determinar el mejor acoplamiento I/O para control de un sistema
multivariable lleva a lo que se conoce como la estrategia de control “dominant interaction.”
9.3. CONTROL MULTIVARIABLE DESACOPLADO 125
Ejemplo 9.2.1 [1] Un sistema tiene una matriz de ganancias DC dadas por
−1 1,5 2,8
K = G(0) = 4 1,6 4
0,15 2 −0,1
Por otro lado, la matriz G (2 × 2) es la matriz de funciones de transferencia del proceso descrita previamente,
la cual está asociada con unos vectores de entrada/salida u y y. Se introduce un vector de set points o
referencias, w = [w1 , w2 ]> , lo cual redunda en
y = Gu
u = G∗c (w − y)
y = GG∗c (w − y)
y = [I + GG∗c ]−1 GG∗c w
Para que los lazos individuales del sistema de malla cerrada sean independientes el uno del otro, se requiere
que
X = [I + GG∗c ]−1 GG∗c = diag(x1 , x2 )
i.e., X debe ser una matriz diagonal. Como la suma y el producto de dos matrices diagonales son diagonales,
y la inversa de una matriz diagonal también es diagonal, entonces este requisito se cumple si GG ∗c es diagonal,
i.e., ∗
G11 G12 Gc,11 G∗c,12 q1 0
GG∗c = =
G21 G22 G∗c,21 G∗c,22 0 q2
126 CAPÍTULO 9. CONTROL MULTIVARIABLE
donde
q1 = G11 G∗c,11 + G12 G∗c,21
0 = G11 G∗c,12 + G12 G∗c,22
0 = G21 G∗c,11 + G22 G∗c,21
q2 = G21 G∗c,12 + G22 G∗c,22
Por lo tanto, si los elementos de la función de transferencia G se conocen, y teniendo especificados los
elementos de la diagonal de G∗c , entonces se pueden seleccionar los elementos de la no diagonal de G ∗c para
determinar el desacople. Esto implicarı́a que
G12 G∗c,22
G∗c,12 = −
G11
G21 G∗c,11
G∗c,21 = −
G22
Si los elementos del camino directo del desacoplador (i.e., G∗c,11 y G∗c,22 ) se toman como controladores PI por
ejemplo, entonces dadas las funciones de transferencia del proceso, la red de desacople se podrá especificar
totalmente. Esta técnica de diseño requiere un conocimiento total de G, y por lo tanto se enfatiza en
el uso de la P-canonical form, ya que como se dijo previamente esta representación puede ser obtenida
experimentalmente.
Nótese que esta estructura sólo estudia el problema del servomecanismo. El rechazo a perturbaciones
de carga requiere una aproximación diferente. Con esta configuración, si los elementos del forward path
(G∗c,11 y G∗c,22 ) se sintonizan online, entonces los elementos de compensación de la off-diagonal se tienen que
recalcular. Si bien este no es un gran problema si la estrategia se implemente en un microcontrolador, la
inter-dependencia de los elementos desacoplados se convierte en una desventaja cuando uno de los lazos se
coloca en modo manual. Para este caso, el efecto de desacople se pierde.
Otro método es el de Zalkind-Luyben. Previamente se discutió la necesidad del desacople con contro-
ladores de lazo independiente como se ve en la Figura...
ANADIR FIGURA
En este caso, se tienen dos bloques extra que representan los controladores del forward-loop. A diferen-
cia del caso anterior, la red de desacople forma una segunda post-compensación y permitirá más flexibilidad
en la implementación y commissioning1 del esquema de control non-interacting. Sea Gc la matriz del contro-
lador del forward path con salid u, por lo que
y = Gu∗
u∗ = G∗c u
u = Gc (w − y)
y = GG∗c Gc (w − y)
Como Gc es una matriz diagonal, el objetivo de desacople se logra si
X = GG∗c = diag[x1 , x2 ]
Es decir,
1 G22 x1 −G12 x2
G∗c =G −1
X=
det(G) −G21 x1 G11 x2
La forma más simple se da con elementos unitarios en la diagonal, i.e.,
G∗c,11 = G∗c,22 = 1
1A form of payment to an agent for services rendered. Remuneration.
9.3. CONTROL MULTIVARIABLE DESACOPLADO 127
[1] Pedro Albertos and Antonio Sala. Multivariable control systems: an engineering approach. Springer
Verlag, 2004.
[2] Karl J. Åström and Björn Wittenmark. Computer Controlled Systems. Prentice Hall, New Jersey, NJ,
1997.
[3] S. Bennett. A brief history of automatic control. IEEE Control Systems Magazine, 16(3):17–25, 1996.
[4] W.L. Brogan. Modern control theory. Prentice-Hall, Inc. Upper Saddle River, NJ, USA, 1991.
[5] C.M. Close and D.K. Frederick. Modeling and analysis of dynamic systems. Wiley New York, 2001.
[6] J.J. D’Azzo and C.H. Houpis. Linear Control System Analysis and Design. McGraw-Hill, third edition
edition, 1988.
[7] Richard C. Dorf and Robert H. Bishop. Modern Control Systems. Addison-Wesley, Reading, MA, 1995.
[8] Asdrúbal Espitia. El PID Bajo Control. Asdrúbal Espitia Guerra, 1999.
[9] G.W. Evans. Bringing root locus to the classroom. IEEE Control Systems Magazine, 24(6):74–81, 2004.
[10] WR Evans. Control system synthesis by root locus method. Trans. AIEE, 69:66–69, 1950.
[11] Gene F. Franklin, J. David Powell, and Abbas Emami-Naeini. Feedback Control of Dynamic Systems.
Addison-Wesley, Reading, MA, 1994.
[12] B. Friedland. Control System Design: An Introduction to State-space Methods. McGraw-Hill, 1986.
[13] Edward W. Kamen and Bonnie S. Heck. Fundamentals of signals and systems using MATLAB. Prentice
Hall, Upper Saddle River, New Jersey, 1997.
[14] Hassan. K. Khalil. Nonlinear Systems. Prentice Hall, New Jersey, 1996.
[15] K.H. Lundberg. Pole-zero phase maps: visualization helps students develop s-plane intuition. IEEE
Control Systems Magazine, 25(1):84–87, 2005.
[16] T.E. Marlin. Process Control: Designing Processes and Control Systems for Dynamic Performance.
McGraw-Hill, 1995.
[17] S.J. Mason. Feedback Theory-Some Properties of Signal Flow Graphs. Proceedings of the IRE,
41(9):1144–1156, 1953.
[18] S.J. Mason. Feedback Theory-Further Properties of Signal Flow Graphs. Proceedings of the IRE,
44(7):920–926, 1956.
[19] N. Minorsky. Directional stability of automatically steered bodies. J. Am. Soc. Nav. Eng, 34:280, 1922.
[20] C. B. Moler and C.F.V. Loan. Nineteen dubious ways to compute the matrix exponential. SIAM Review,
20(4):801–836, 1978.
129
130 BIBLIOGRAFÍA
[21] R.M. Murray, K.J. Åström, S.P. Boyd, R.W. Brockett, and G. Stein. Future directions in control in an
information-rich world. IEEE Control Systems Magazine, 23(2):20 – 33, 2003.
[22] K. Ogata. Modern control engineering. Prentice-Hall, Inc. Upper Saddle River, NJ, USA, 1996.
[23] Katsuhiko Ogata. Discrete-Time Control Systems. Prentice Hall, New Jersey, NJ, 1987.
[24] B.A. Ogunnaike and W.H. Ray. Process dynamics, modeling, and control. Oxford University Press New
York, 1994.
[25] Alan V. Oppenheim and Alan S. Willsky. Signals and Systems. Prentice Hall, Upper Saddle River, New
Jersey, 1997.
[27] K.M. Passino. Biomimicry for Optimization, Control, and Automation. Springer-Verlag, London, 2005.
[28] C. Phillips and R. Harbor. Feedback Control Systems. Prentice Hall, 1996.
[29] F.H. Raven. Automatic Control Engineering. McGraw-Hill New York, 1995.
[30] S. Sastry. Nonlinear Systems: analysis, stability, and control. Springer, 1999.
[31] C.A. Smith and A.B. Corripio. Principles and practice of automatic process control. Wiley New York,
1985.
[32] Karl J. Åström and Richard M. Murray. Feedback Systems: An Introduction for Scientists and Engineers.
2007.
[33] S.H. Strogatz. Nonlinear dynamics and chaos. Addison-Wesley Reading, MA, 1994.
[34] MT Tham. Multivariable Control: An Introduction to Decoupling Control. In K. Warwick and D.Rees,
editors, Industrial Digital Control Systems, volume 1 of IEE Control Engineering Series 37, chapter 8,
pages 1–19. Peter Peregrinus, 1998.
[35] J.G. Ziegler and N.B. Nichols. Optimum settings for automatic controllers. Trans. ASME, 64(8):759–
768, 1942.