Вы находитесь на странице: 1из 32

Una breve introducción al control de sistemas

lineales

José Fermi Guerrero Castellanos

Verano 2011
Índice general

1. Introducción 2

2. Control en el espacio de estado 4


2.1. Conceptos preliminares . . . . . . . . . . . . . . . . . . . . . . 4
2.2. Espacio de estados . . . . . . . . . . . . . . . . . . . . . . . . 5
2.3. Representación de estado de sistemas dinámicos diferenciales 7
2.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.4.1. Sistema Masa Resorte Amortiguador . . . . . . . . . . 9
2.4.2. Péndulo simple . . . . . . . . . . . . . . . . . . . . . . 10
2.4.3. Transformaciones Lineales . . . . . . . . . . . . . . . . 11
2.5. Estabilidad de un sistema LTI . . . . . . . . . . . . . . . . . . 12
2.6. Solución de la ecuación de estado . . . . . . . . . . . . . . . . 14

3. Controlabilidad 15
3.0.1. Criterio General de Controlabilidad . . . . . . . . . . 16
3.0.2. Control de mı́nima energı́a . . . . . . . . . . . . . . . 17
3.0.3. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . 17

4. Control por retroalimentación de estado 21


4.1. Diseño del lazo de retroalimentación para sistemas monova-
riables en forma controlable . . . . . . . . . . . . . . . . . . . 23
4.1.1. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.2. Representación en la forma controlable . . . . . . . . . . . . . 27
4.3. Diseño de servosistemas . . . . . . . . . . . . . . . . . . . . . 29
4.3.1. Regulador lineal cuadrático LQR (problema del hori-
zonte infinito) . . . . . . . . . . . . . . . . . . . . . . . 30

1
Capı́tulo 1

Introducción

El control automático es una rama de los sistemas dinámicos, hermana


del tratamiento de señales y de las telecomunicaciones. Su objetivo principal
es manipular las variables de entrada de un sistema dado, con el objetivo de
que la salida de éste siga a una señal o una trayectoria de referencia determi-
nada. En apenas aproximadamente cincuenta años el control automático ha
detonado un interés no sólo cientı́fico y tecnológico, sino también económico,
ya que a diferencia de otras disciplinas, el control automático trasciende las
fronteras de los campos tradicionales de la ingenierı́a y se involucra direc-
tamente con la mecánica, eléctrica, quı́mica, biologı́a, informática medicina,
etc.
Las Ecuaciones Diferenciales Ordinarias, introducidas por Sir Isaac New-
ton en el siglo XVII se han convertido en una poderosa y profunda herra-
mienta para comprender y controlar los fenómenos en este mundo. A finales
del siglo XIX Henri Poincaré introdujo el enfoque cualitativo en las ecua-
ciones diferenciales ordinarias, conociéndose este enfoque como los Sistemas
Dinámicos. Poincaré intuyó la necesidad de una teorı́a general de los sistemas
dinámicos en función de conjuntos de ecuaciones diferenciales de primer or-
den, e introdujo la ahora familiar idea de considerar el conjunto de variables
del sistema como la trayectoria de un punto en un espacio n-dimensional.
Este enfoque al problema de sistemas dinámicos rápidamente se popularizo
y se conoció como el método del espacio de estado, donde el concepto de va-
riable de estado se mostro fundamental. Las variables de estado representan
la mı́nima cantidad de información y nos resumen todo el pasado dinámico
del sistema y es todo lo que necesitamos conocer para poder predecir su
evolución futura frente a cualquier señal de entrada que le apliquemos. La
utilización del tratamiento del espacio de estados condujo rápidamente a

2
una comprensión más profunda de los problemas cientı́ficos y matemáticos
del control automático y su introducción hace del Control Automático una
disciplina cientı́fica y madura. En los años 60 y ante la importancia creciente
de los métodos del espacio de estados, el cientı́fico R.E. Kalman investiga
la relación entre las representaciones en el espacio de estado y la función de
transferencia, motivando la introducción de los conceptos estructurales fun-
damentales para la comprensión de los sistemas dinámicos: controlabilidad
y observabilidad. A partir de estas consideraciones el estudio de los sistemas
lineales invariantes en el tiempo, tanto en tiempo continuo como discreto,
es sin lugar a dudas uno de los recursos que cualquier especialista en control
automático debe estudiar y por supuesto dominar.
El curso de Sistemas lineales que será impartido en la Maestrı́a en cien-
cias en Ingenierı́a pretende abordar los temas necesarios para una compren-
sión de los sistemas dinámicos lineales utilizando un formalismo de espacio
de estados. El curso contendrá un gran material teórico, pero será desarro-
llado alrededor de ejemplos ilustrativos no convencionales y de aplicación
industrial. El amplio uso del software MATLAB/ Simulink conjuntamente
con el Toolbox Virtual Reality para la simulación de sistemas dinámicos,
permitirá al alumno comprender y asimilar los conocimientos vistos en cla-
se. Al final del curso el alumno será capaz de analizar la estabilidad de un
sistema lineal, analizar la controlabilidad y observabilidad de un sistema
dado y entonces proponer y diseñar controladores por retroalimentación de
estado. Además, el alumno tendrá las competencias necesarias para diseñar
sensores virtuales por medio del diseño de observadores de estado y utili-
zarlos dentro del lazo de control, garantizando la estabilidad exponencial
del sistema completo. El alumno deberá mostrar las competencias adquiri-
das en un proyecto final que implique todos los pasos del diseño de control
utilizando las técnicas de control lineal.

3
Capı́tulo 2

Control en el espacio de
estado

2.1. Conceptos preliminares


Si tratamos de precisar el concepto de sistemas dinámicos, podrı́amos
decir burdamente que se trata del estudio de sistemas deterministas, es de-
cir, consideramos situaciones que dependan de algún parámetro dado, que
frecuentemente suponemos es el tiempo, y que varı́an de acuerdo a leyes
establecidas. De manera que el conocimiento de la situación en un momento
dado, nos permite reconstruir el pasado y predecir el futuro.
Siendo un poco más formales, se puede decir que un sistema dinámico es un
modo de describir el recorrido a lo largo del tiempo de todos los puntos de
un espacio dado S. Matemáticamente S puede ser el espacio euclidiano o un
subconjunto abierto de un espacio euclidiano. Un sistema dinámico para S
nos dice que para cada x ∈ S, donde x está una unidad de tiempo más tarde,
dos unidades de tiempo más tarde y ası́ sucesivamente. Denotaremos estas
nuevas posiciones de x como x(1), x(2) respectivamente. En el instante cero,
x = x(0). Una unidad antes del instante cero está en x(−1). Si se extrapola
para cubrir todos los números reales, se obtiene una trayectoria x(t) ∀t ≥ 0 .

Definición 1 (Sistema Dinámico) Un sistema dinámico es una aplica-


ción φ : G × S −→ S de clase C ∞ , donde S un conjunto abierto en el espa-
cio euclidiano tal que escribiendo φ(t, x) = φt (x), la aplicación φt : S −→ S
satisface:

φ0 : S −→ S es la función identidad.

4
φs ◦ φt = φs+t , ∀s, t ∈ R

De lo anterior es claro que los sistemas dinámicos evolucionan en el


tiempo y su comportamiento en el futuro depende de la condiciones iniciales.
En general estudiamos dos tipos de sistemas:

Tiempo continuo, i.e., t ∈ R

Tiempo discreto, i.e., t ∈ Z

En cada caso, existen muchas aplicaciones que se pueden poner en el esquema


de un sistema dinámico:
Tiempo continuo

Ecuaciones diferenciales ordinarias (EDO)

Ecuaciones de difusión

Procesos estocásticos

Tiempo discreto

Métodos iterativos

Iteración de Mapas

Como se puede ver en la definición de un sistema dinámico es un tanto


abstracta, por lo que podemos acudir a diferentes áreas de la matemática
para obtener representaciones equivalentes. Por mencionar algunas tenemos
la representación de sistemas dinámicos en la geometrı́a diferencial, en la
topologı́a , análisis matemático y en particular la representación mediante
ecuaciones diferenciales ordinarias (EDO) de las cuales se desprenden dos
formalismos:

Función de transferencia (Descripción entrada-salida)

Espacio de estados

2.2. Espacio de estados


La teorı́a moderna del control está basada en el conocimiento del com-
portamiento interno de los sistemas, reflejado en las variables que influyen
en su dinámica. Estas variables constituyen el concepto de estado del siste-
ma. El conocimiento de la evolución de todas las variables que influyen en

5
la dinámica del sistema, permite efectuar un control más potente de esta y
su utilización en sistemas más complejos.
La teorı́a moderna del control se desarrolla para solventar algunos de los
problemas en los que presenta fuertes limitaciones la denominada teorı́a
clásica, basada en el modelado de la función de transferencia de los sistemas
dinámicos lineales de parámetros constantes. Las ventajas de la teorı́a mo-
derna del control en contraposición a la teorı́a clásica son fundamentalmente
las siguientes:

Es aplicable a sistemas multivariables en los que existe un elevado


grado de interacción entre las variables del sistema.

Es aplicable a sistemas con relaciones no lineales.

Es aplicable a sistemas en los que sus parámetros varı́an en el tiempo


a velocidades comparables con la evolución de sus variables.

Es aplicable a sistemas complejos de control, en los que existe un


gran número de variables internas que condicionan el comportamiento
futuro de la salida.

Definición 2 (Estado de un Sistema) Se define el estado de un sistema


como la mı́nima cantidad de información necesaria en un instante para que,
conociendo la entrada a partir de ese instante, se pueda determinar la salida
en cualquier instante posterior.

Definición 3 (Variables de estado) La cantidad mı́nima de información


que define el estado viene representada por un conjunto de variables xi ,
i = 1, ..., n cuyos valores dependen del instante t considerado, denominadas
variables de estado del sistema.

Definición 4 (Vector de estado) Sean x1 (t), ..., xn (t) variables de esta-


do de un sistema dinámico. Con esto podemos definir una función vectorial
x : A ⊆ R −→ Rn tal que t 7−→ (x1 (t), ..., xn (t)) de forma equivalente
x(t) = (x1 (t), ..., xn (t)). Por comodidad diremos simplemente que x(t) ∈ Rn
es el vector de estado.

Ahora, si representamos al conjunto de variables de entrada mediante el


vector u(t), la anterior definición puede representarse de forma matemática
como:
x(t) = Ψ(t, t0 , x(t0 ), u(t)) (2.1)

6
Al hablar del vector de estado, bien podemos preguntarnos a que espacio
vectorial pertenece, por lo que respondemos a esa cuestión en la siguiente
definición.

Definición 5 (Espacio de estados) Es el espacio vectorial en el cual cual-


quier vector de estado toma valores, teniendo tanto la misma dimensión que
el número de elementos de dicho vector.
Las trayectorias que describe el vector de estado del sistema dentro del espa-
cio de estado están sujetas a las siguientes condiciones ligadas a la definición
de estado del sistema:
1. Unicidad:
∀t ≥ t0 , x0 = x(t0 ), u(τ )t0 ≤ τ ≤ t ⇒ x(t) es única
2. Continuidad:
Las trayectorias en el espacio de estado son funciones continuas:
lı́mt→t0 x(t) = x(t0 ), ∀t, t0
3. Transitividad:
Se considera en un trayectoria en el espacio de estado de tres tiempos
t0 , t1 , t2 el valor del estado en estos tiempos está relacionado por esta
propiedad de transición:
Ψ(t2 , t0 , x(t0 ), u(τ )) = x(t2 ) = Ψ(t2 , t1 , x(t1 ), u(τ ))
Ψ(t1 , t0 , x(t0 ), u(τ )) = x(t1 )
Ψ(t2 , t0 , x(t0 ), u(τ )) = Ψ(t2 , Ψ(t1 , t0 , x(t0 ), u(τ )), u(τ )). Esto significa
que para conocer el estado en el instante t2 da lo mismo conocer el
estado en t0 y la entrada entrante entre t0 y t2 que conocer el estado
en t1 y la entrada entrante entre t1 y t2 .
4. Causabilidad:
En el estado y la salida son causales; x(t) e y(t) dependen de los valores
de la entrada únicamente en instantes anteriores al instante t.

2.3. Representación de estado de sistemas dinámi-


cos diferenciales
Los sistemas dinámicos diferenciales se caracterizan porque pueden ser
representados por una ecuación que incluye la información del estado y que
es de la forma:
ẋ(t) = f (t, x(t), u(t)) (2.2)

7
y(t) = η(t, x(t), u(t)) (2.3)
la ecuación (2.2) se le llama ecuación de estado, la cual representa la
dinámica de la evolución del estado del sistema y la ecuación (2.3) se le lla-
ma ecuación de salida. La solución de (2.2) da lugar a la Ecuación (2.1).
El sistema representado por (2.2) puede ser, variante o invariante en el tiem-
po o puede ser no lineal o lineal. En lo que sigue de este texto nosotros
consideraremos solamente sistemas lineales e invariantes en el tiempo. Por
lo tanto, es pertinente mencionar las siguientes definiciones.

Definición 6 (Sistemas dinámicos invariantes) Un sistema, con un es-


tado inicial dado por x0 = x(t0 ) sometido a una entrada u1 (τ ), t0 < τ < t,
y que produce como salida la señal y1 (t), se dice que es invariable si ∀T ,
partiendo del mismo estado x0 pero en el instante t0 + T ; excitado con una
entrada u2 (τ + T) = u1 (τ ), t0 < τ < t, responde a una salida que es
y2 (t + τ ) = y1 (t).

Para saber si un si un sistema dinámico dado es lineal o no, es nece-


sario ver si cumple con el principio de superposición, el cual consiste en lo
siguiente:

Definición 7 (Principio de superposición) Se tiene un sistema que par-


tiendo de un estado inicial x1 (t0 ), con una entrada u1 (τ ), t0 ≤ τ ≤ t,
responde con una salida y1 (t), y a partir de ese estado inicial x2 (t0 ) con
la entrada u2 (τ ), t0 ≤ τ ≤ t, responde con otra salida y2 (t). Se dice
que dicho sistema es lineal si ∀a, b ∈ R, partiendo de un estado inicial
x3 (t0 ) = ax1 (t0 ) + bx2 (t0 ), con una entrada u3 (t0 ) = au1 (t0 ) + bu2 (t0 ),
t0 ≤ τ ≤ t, la salida es y3 (t0 ) = ay1 (t0 ) + by2 (t0 ).

Esta propiedad de linealidad en sistemas diferenciales se traduce en que


las funciones f y η de (2.2),(2.3) son lineales con respecto a x y u. Esta
propiedad de linealidad se verifica si y solo si las ecuaciones del modelo de
estado se pueden expresar en forma matricial. Esto es:

ẋ = A(t)x(t) + B(t)u(t) (2.4)

y(t) = C(t)x(t) + D(t)u(t) (2.5)


donde:

x(t) ∈ Rn es el vector de estado.


u(t) ∈ Rm es el vector de entradas.

8
y(t) ∈ Rp es el vector de salidas.
A(t) ∈ Rn×n es la matriz del sistema.
B(t) ∈ Rn×m es la matriz de entrada.
C(t) ∈ Rp×n es la matriz de salida.
D(t) ∈ Rp×m (en la mayorı́a de los casos se anula).

Si el sistema representado por (2.4) y (2.5) es invariante, entonces las


matrices A, B, C, D son contantes y entonces decimos que el sistema es
lineal invariante en el tiempo LTI (por sus siglas en ingles de Linear Time
Invariant). En consecuencia, (2.4) y (2.5) se escriben simplemente:

ẋ(t) = Ax(t) + Bu(t) (2.6)


y(t) = Cx(t) + Du(t) (2.7)

2.4. Ejemplos
2.4.1. Sistema Masa Resorte Amortiguador
Consideremos el sistema masa-resorte-amortiguador mostrado en la fi-
gura 3.3, donde la posición es denotada por q, siendo q = 0 la posición de
reposo del resorte. Aplicando las leyes de Newton, el sistema está modelado

Figura 2.1: Sistema masa-resorte-amortiguador

por la siguiente ecuación diferencial de segundo orden.


mq̈ = −kq − cq̇ + F (2.8)
siendo k la constante de restitución del resorte y c la constante de viscosa.
En este caso se tomo una relación lineal entre la fuerza de fricción del amor-
tiguador y la velocidad (para grandes velocidades está relación es no lineal).

9
Como comentamos anteriormente, la idea de espacio de estados es transfor-
mar una ecuación diferencial ordinaria de orden n, en n ecuaciones diferen-
ciales ordinarias de orden uno. Para este sistema, se tendrá entonces, dos
ecuaciones diferenciales ordinarias de orden uno. Seleccionemos las siguien-
tes variables de estado:
 
x1 = q ẋ1 = q̇

x2 = q̇ ẋ2 = q̈

De esta forma, la representación en variables de estado del sistema (2.8) es:



ẋ1 = x2
k c F (2.9)
ẋ2 = − m x1 − m x2 + m

y en forma matricial
      
ẋ1 0 1 x1 0
= k c + 1 F (2.10)
ẋ2 −m −m x2 m

Note que este sistema es LTI, puesto que es lineal (cumple con el principio de
superposición y además puede representarse en forma matricial) e invariante
en el tiempo (sus parámetros son constantes).

2.4.2. Péndulo simple


Consideremos el sistema péndulo simple mostrado en la figura 2.2.

Figura 2.2: Péndulo simple

10
El modelo dinámico del sistema de la figura 2.2 dado por

J θ̈ = −mgl sin θ − bθ̇ + Γ (2.11)

donde
J: Momento de inercia

m: Masa del péndulo

g: Fuerza de Gravedad

l: Longitud al centro de masa de péndulo

b: Fricción del péndulo

Γ: Par aplicado.
Seleccionemos las siguientes variables de estado:
 
x1 = θ ẋ1 = θ̇

x2 = θ̇ ẋ2 = θ̈

De esta forma, la representación en variables de estado del sistema (2.11)


es: 
ẋ1 = x2
(2.12)
ẋ2 = − mgl b Γ
J sin x1 − J x2 + J
Note que el sistema no se puede representar de manera matricial, debido al
término sin x1 , entonces el sistema es no lineal.

Observación 1 En un apartado posterior veremos como podemos obtener


un modelo lineal del péndulo, alrededor de sus puntos de equilibrio.

2.4.3. Transformaciones Lineales


En el apartado anterior vimos la representación de sistemas dinámicos
invariantes en el tiempo (LTI). Sin embargo, la representación en el espa-
cio de estados de un sistema cualquiera puede ser de diferentes maneras
sin afectar el comportamiento del sistema. En este apartado veremos co-
mo podemos transformar la representación de un sistema por medio de una
transformación lineal. Se parte de una representación cualquiera de estado
x
ẋ(t) = Ax(t) + Bu(t)
y(t) = Cx(t) + Du(t)

11
y se define una matriz T ∈ Rn×n con la particularidad de que no sea singular.
Se define un nuevo vector de estado a partir de x mediante la expresión:

x(t) = Tx̃(t) ⇒ x̃(t) = T−1 x(t) (2.13)

derivando x̃(t), se tiene

˙
x̃(t) = Ṫ−1 x(t) + T−1 ẋ(t)
puesto que la matriz T es constante se obtiene
˙
x̃(t) = T−1 [Ax(t) + Bu(t)]
= T−1 [ATx̃(t) + Bu(t)]
= T−1 ATx̃(t) + T−1 Bu(t)

La ecuación de salida es simplemente

y(t) = CTx̃(t) + Du(t)

Ası́ la nueva representación del sistema es:


˙
x̃(t) = Ãx(t) + B̃u(t)
y(t) = C̃x̃(t) + Du(t)

donde

à = T−1 AT
B̃ = T−1 B
C̃ = CT
D̃ = D

2.5. Estabilidad de un sistema LTI


En este apartado veremos las condiciones que debe cumplir un sistema
representado en espacio de estados para decir que es asintóticamente estable.
Se parte de la expresion de un sistema LTI:

ẋ(t) = Ax(t) + Bu(t)


y(t) = Cx(t) + Du(t)

12
Ahora se encontrará la función de transferencia a partir de esta ecuación de
estado y para eso se toma la transformada de Laplace y se establecerá la
relación entre la entrada y la salida. En principio todas las variables son
vectores:

sX(s) − x(0) = AX(s) + BU(s)


donde x(0) es el vector de condiciones iniciales. Si x(0) = 0 y tomado D = 0,
entonces tenemos
[sI − A]X(s) = BU(s)

X(s) = [sI − A]−1 BU(s)


Y(s) = CX(s) = C[sI − A]−1 BU(s)

entonces la función de transferencia es

Y(s) Adj[sI − A]T


G(s) = = C[sI − A]−1 B = C B (2.14)
U(s) det([sI − A])
se concluye que el polinomio caracterı́stico del sistema es

P (s) = det([sI − A]) (2.15)

por lo que los polos del sistema coinciden con los valores propios de la matriz
A.
polos = valores propios de A

Observación 2 Observe que el polinomio caracteristico sólo depende de la


matriz A, también ha de ser ası́ con la estabilidad del sistema. La posición
de los ceros del sistema viene dada por las matrices A, B, C.

Teorema 1 Considere el sistema LTI


ẋ(t) = Ax(t) + Bu(t)
y(t) = Cx(t) + Du(t)

este sistema es asintóticamente estable si y solo si la parte real de los valores


propios de la matriz A son estrictamente menores que cero.

13
2.6. Solución de la ecuación de estado
La solución de la ecuación 2.6 está dada por la expresión:
Z t
x(t) = eA(t−t0 ) x(t0 ) + eA(t−τ ) Bu(τ )dτ
t0
Z t
(2.16)
= Φ(t, t0 )x(t0 ) + Φ(t, τ )Bu(τ )dτ
t0

El primer término corresponde la evolución libre del sistema y el cual depen-


de de las condiciones iniciales, el segundo término corresponde a la evolución
debida a la entrada exterior.
La matriz Φ(t, t0 ) = eA(t−t0 ) se le llama matriz de transición y como su
nombre lo indica es la matriz que se encarga de hacer pasar de un estado a
otro.

Observación 3 Note que la solución de la ecuación de estado se basa en el


cálculo de la matriz de transición.

Observación 4 La matriz de transición, para un sistema cualquiera puede


ser calculada por:

Transformada de Laplace

Transformación lineal (Método de Jordan)

Estos métodos fueron explicados en la presentaciones dadas en el curso, con


sus correspondientes ejemplos.

Observación 5 La matriz de transición tiene propiedades muy interesantes


las cuales fueron mencionadas en las diapositivas del curso.

14
Capı́tulo 3

Controlabilidad

El estudio de la controlabilidad de un sistema determina los puntos del


espacio de estado que pueden ser alcanzados por un sistema actuando so-
bre las entradas de éste; puntos que determinan los denominados estados
controlables. Este estudio abarca dos cuestiones a tener en cuenta:

Considerando un sistema, un estado inicial y un estado final, se desea


determinar la existencia de una entrada que lleve al sistema entre
ambos en un tiempo finito.

Si un sistema no es controlable, la siguiente cuestión que surge es


determinar los puntos del espacio de estado que pueden ser alcanzados
partiendo de un estado inicial dado.

Definición 8 (Controlabilidad de un punto en un instante de tiempo)


Se dice que un punto en el espacio de estado de un sistema, x1 , es controlable
desde el estado x0 en [t0 , t1 ] si existe una entrada u definida en el intervalo
[t0 , t1 ] tal que transfiera el estado del sistema desde x0 en t0 hasta x1 en t1 .

Definición 9 (Controlabilidad de un sistema en un intervalo de tiempo)


Un sistema se dice controlable en [t0 , t1 ] si todos los puntos de su espacio de
estado son controlables en [t0 , t1 ].

Definición 10 (Sistema controlable) Un sistema se dice controlable si


todos los puntos del espacio de estado son controlables.

Definición 11 (Conjunto alcanzable o controlable) Sea el sistema


lineal
ẋ = Ax(t) + Bu(t)

15
Se define el conjunto alcanzable como el conjunto de todos los puntos xf tal
que existe una entrada u(t), 0 ≤ t ≤ T , que lleve al sistema de x(0) = x0 a
x(T ) = xf , i. e.,

R(x0 , ≤ T ) = {xf ∈ Rn |∃u(t) : x0 7−→ xf }

Figura 3.1: Conjunto controlable

3.0.1. Criterio General de Controlabilidad


Si el sistema multivariable es descrito por la relación ẋ = Ax(t) + Bu(t),
hemos visto que al instante t1 el estado se escribe como:
Z t1
A(t1 −t0 )
x(t1 ) = e x(t0 ) + eA(t1 −τ ) Bu(τ )dτ (3.1)
t0
Está ultima
P ecuación puede ser reescrita utilizando la formula de Sylves-
ter: eAt = n−1 b
i=0 i (t)A i

n−1
X Z t−1
A(t1 −t0 ) i
x(t1 ) = e x(t0 ) + AB bi (t)u(τ )dτ (3.2)
i=0 t0

o también

 Rt 
1
b0 (t 1 − τ )u(τ )dτ
 Rtt01
 t0 b1 (t1 − τ )u(τ )dτ 

n−1  = x(t1 ) + eA(t1 −t0 ) x(t0
 
B AB · · · A B   ..
.

 
R t1
b
t0 n−1 1 (t − τ )u(τ )dτ
(3.3)
el cual es un sistema de n ecuaciones algebraicas lineales que posee una
solución única si y solo si la matriz B AB · · · An−1 B es de rango


pleno.

16
Teorema 2 (Criterio de Controlabilidad de Kalman) Sea el sistema
lineal con un ecuación de estado:

ẋ = Ax(t) + Bu(t)

es controlable si y solo si la matriz de controlabilidad Qc , definida de la


siguiente forma:
B AB · · · An−1 B
 
(3.4)
es de rango máximo, es decir, n.

Teorema 3 (Controlabilidad de sistemas lineales) En general un sis-


tema lineal (variante o invariante en el tiempo) con un ecuación de estado:

ẋ = A(t)x(t) + B(t)u(t)

es controlable en [t0 , t1 ] si y solo si la matriz W(t1 , t0 ) definida por:


Z t1
Wc (t1 , t0 ) = Φ(t1 , τ )B(τ )BT (τ )ΦT (t1 , τ )dτ (3.5)
t0

es no singular. A esta matriz se le conoce como el Gramiano de controlabi-


lidad.

3.0.2. Control de mı́nima energı́a


Sin entrar en todos los detalles, resulta que la ley de control definida por:
T (t −t)
u(t) = −B T eA 1
Wc−1 (t1 , t0 )(eAt1 x0 − x1 ) (3.6)

es la que usa mı́nima energı́a en transferir x0 a x1 en el tiempo t1 .

3.0.3. Ejemplos
Péndulo invertido
Considere el sistema mostrado en la figura.
Las ecuaciones de movimiento para este sistema son no lineales y son
dadas por:

(M + m)p̈ − ml cos θθ̈ = −cṗ − ml sin θθ̇2 + F


(J + ml2 )θ̈ − ml cos θp̈ = −γ θ̇ + mgl sin θ

17
Figura 3.2: Sistema masa-resorte-amortiguador

Linearlizando alrededor del punto de equilibrio xe = (p, 0, 0, 0) obtene-


mos:
 
0 0 1 0
 0 0 0 1 
A=
 2 2

m l g
 0 0 0

µ 
Mt mgl
0 µ 0 0
 
0
 0 
B  Jt 
 
 µ 
lm
µ

donde µ = Mt Jt − m2 l2 , Mt = M + m y Jt = J + ml2 . La matriz de


controlabilidad resulta en:

Q = [B AB A2 B A3 B] ∈ R4×4
2 4 4
El determinante de esta matriz es det(Q) = g lµ4m 6= 0 entonces Q es de
rango pleno y el sistema es controlable. La controlabilidad garantiza que
existe un control u capaz de llevar la posición del carro a una posición p y
el ángulo y sus derivadas a cero, en un tiempo finito.

Plataforma de suspensión
La figura muestra una plataforma de las utilizadas para estudiar sistemas
de suspensión para automóviles. Las constantes de los resortes se asumen
1 y los coeficientes de fricción viscosa 2 y 1 respectivamente. Tomando los

18
desplazamientos de la posición de equilibrio de los extremos de la platafor-
ma como variables de estado, tenemos que la siguiente ecuación de estados
describe este sistema:

Figura 3.3: Sistema masa-resorte-amortiguador

   
−0,5 0 0,5
ẋ = x+ u
0 −1 1
Puesto que los valores propios son reales y negativos, si la posicion inicial
de la plataforma es diferente del equilibrio, la plataforma regresara a ese
equilibrio de manera exponencial. La pregunta es: ¿Es posible encontrar
una fuerza que lleve la plataforma a su posición de equilibrio en 2 seg?
Calculando el rango de la matriz de controlabilidad, tenemos:
 
0,5 −0,25
rank[A B] = rank =2
1 −1
Entonces, el sistema es controlable y para cualquier x(0), existe una entrada
que transfiera al sistema de x(0) a su posición de equilibrio en 2 segundos.
Calculando la matriz

2 
e−0,5τ e−0,5τ
Z    
0 0,5  0
Wc (2, 0) = 0,5 1 dτ
0 0 e−τ 1 0 e−τ
 
0,2162 0,3167
Wc (2, 0) =
0,3167 0,4908
Ası́ la fuerza

e−0,5(2−τ ) e−1 0
    
0 10
Wc−1 (2)

u2 (t) = − 0, 5 1
0 e(2−τ ) 0 e−2 −1

19
u2 (t) = −58,82e0,5t + 27, 96et
para t ∈ [0, 2] lleva al estado del sistema de x(0) = [10, −1] a [0, 0] en 2
segundos.

Actividades
1. Realice una simulación para comprobar el resultado anterior.

2. Calcule la fuerza necesaria para transferir el estado de x0 al equilibrio


en 4 segundos.

3. ¿Cual sera la fuerza necesaria si t → ∞ ?

4. Analicé la controlabilidad del sistema, asumiendo que los resortes y


los coeficientes de fricción viscosa son iguales a 1.

20
Capı́tulo 4

Control por
retroalimentación de estado

En este capı́tulo se va a estudiar el control de un sistema mediante la


retroalimentación de sus variables de estado, poniendo de manifiesto la po-
tencia de esta estructura de control para fijar las caracterı́sticas del compor-
tamiento dinámico de un sistema. Primeramente se realiza un análisis de la
dinámica del sistema cuando se efectúa la retroalimentación de sus variables
de estado mediante una matriz constante, después se aborda el diseño de la
matriz de retroalimentación del estado con el objeto de fijar el comporta-
miento dinámico del sistema, justificando la asignación directa de los polos
de la parte controlable del sistema.

Consideremos el sistema dinámico LTI


ẋ(t) = Ax(t) + Bu(t) (4.1)
y(t) = Cx(t) + Du(t) (4.2)
el cual es representado por la figura 4.1
Se desea encontrar una estructura de control u tal que el comportamiento
dinámico del sistema 2.6 sea el deseado.

La estructura que se propone es


u = −Kx + kr r (4.3)
donde la matriz K se llama matriz de retroalimentación de estados y
kr es una precompensación para que el sistema alcance el estado estacionario
en la señal de referencia r.

21
Figura 4.1: Diagrama de bloques del sistema 2.6

La estructura de control 4.3 aplicada al sistema 2.6 está represemtada


por la figura 4.2.

Figura 4.2: Diagrama de bloques del sistema con control por retroalimenta-
ción de estado

Ahora, sustituyendo la estructura de control 4.3 en el sistema 2.6, se


tiene lo siguiente: ẋ(t) = Ax(t) + Bu(t) ⇒ ẋ(t) = Ax(t) + B(−Kx + kr r)
⇒ ẋ(t) = (A − BK)x(t) + Bkr r

⇒ ẋ(t) = Ax(t) + Bkr r (4.4)

donde A = A − BK y le llamamos A aumentada.

22
Kx: Feed-back
Kr r: Feed-Forward
Se ha obtenido un ”nuevo”sistema LTI, cuya matriz es A, matriz que da
información acerca de la dinámica del sistema.
Por el teorema ??, si los valores propios de la matriz del sistema 4.4 tienen
parte real estrictamente negativa, entonces el sistema 4.4 serán estable.

Observación 6 Note que objetivo en el diseño del control, es encontrar la


matriz de retroalimentación K tal que A tenga todos los valores propios con
parte real estrictamente menor que cero, i.e Re(vp(A) < 0.

4.1. Diseño del lazo de retroalimentación para sis-


temas monovariables en forma controlable
Considere el sistema representado por la siguiente función de transferen-
cia:
Y (s) 1
H(s) = = n n−1
(4.5)
U (s) s + an−1 s + an−2 sn−2 + · · · + a1 s + a0
La ecuación diferencial correspondiente a esta función de transferencia es:

yn + an−1 y n−1 + an−2 y n−2 + ... + a1 ẏ + a0 y = u (4.6)

donde, y es la respuesta del sistema, u es la señal de entrada a la que es


sometida el sistema.
Despejando la derivada de mayor orden, se tiene que:

y n = −an−1 y n−1 − an−2 y n−2 − ... − a1 ẏ − a0 y + u (4.7)

escogiendo las siguientes variables de estado, tenemos:

x1 = y
 

 
 ẋ1 = x2



 x 2 = ẏ 


 ẋ2 = x3
 .  .

 

. =⇒ .
. .

 


 


 x = y (n−2) 
 ẋ = xn
n−1
 n−1

 

xn = y (n−1) ẋn = −an−1 xn − an−2 xn−1 − ... − a1 x2 − a0 x1 + u

(4.8)

23
Expresando en forma matricial el cambio de variable 4.8, se tiene lo
siguiente:

ẋ1 0 1 0 . . . 0 x1 0
      
 ẋ2   0 0 1 . . . 0   x2   0 
      
 .   . . . . .  .   . 
      
 . = . . . . .   . + .  u
      
 .   . . . . .  .   . 
      
 ẋn−1   0 0 0 . . . 1   xn−1   0 
ẋn −a0 −a1 . . . −an−2 −an−1 xn 1
(4.9)
La ecuación de salida se deduce de la función de transferencia para la cual
la salida es Y (s), en el dominio del tiempo esta señal es y(t) = x1 . En
consecuencia la ecuación de salida es:
x1
 
 x2 
 
 . 
 
 .  = Cx(t)
y(t) = (1 0 · · · 0)  (4.10)

 . 
 
 xn−1 
xn

Ahora si se retroalimenta como mencionamos anteriormente, pero consi-


derando que r = 0, es decir, queremos llevar todas la variables de estado (y
en consecuencia la salida) a cero tenemos que la ley de control es u = −Kx.
Aplicando está ley de control sobre el sistema 4.10, se obtiene la matriz

24
aumentada A − BK, siguiente:

0 1 0 . . . 0
 
0
 
 0 0 1 . . . 0 

 .
  0 
. . . .   

 .
  . 
. . . .   
A=  .
− .  (k1 k2 · · · kn )
. . . .   

 0
  . 
0 0 . . . 1   

 −a0 −a1
  0 
. . . −an−2 −an−1 
1

0 1 0 . . . 0
 

 0 0 1 . . . 0 


 . . . . . 

=
 . . . . . 


 . . . . . 

 0 0 0 . . . 1 
−k1 − a0 −k2 − a1 . . . −kn−1 − an−2 −kn − an−1
(4.11)

La matriz de salida C permanece sin cambios. La función de transferen-


cia de este sistema retroalimentado tiene como coeficientes del numerador
los mismos que tenı́a la función de transferencia sin retroalimentar y como
coeficientes del denominador los que aparecen en la ultima fila de la matriz
aumentada.
1
G(s) =
sn + (kn + an−1 )sn−1 + (kn−1 + an−2 )sn−2 + · · · + (k2 + a1 )s + (k1 + a0 )

Observación 7 Observe que con la matriz K se modifican los polos del


sistema original como sea conveniente, lo que implica modificar la dinámica
del sistema. Lo único que el diseñador debe hacer, es decidir es la ubicación
de los polos del sistema retroalimentado (valores propios de A).

Observación 8 Observe que utilizando una ley de control de la forma u =


Kx, no se modifican los ceros del sistema original (la función de transferen-
cia de este sistema retroalimentado tiene como coeficientes del numerador
los mismos que tenı́a la función de transferencia sin retroalimentar) enton-
ces no se modifica el comportamiento del sistema en estado estacionario.
En un apartado posterior, veremos como poder modificar esto, de tal forma
que la salida siga una señal de referencia. Esto es lo que se le conoce como
diseño de un servosistema.

25
Observación 9 Observe que el diseño del control parte del hecho que todas
la variables de estado son medibles. En el próximo capı́tulo se abordará el
caso en el cual algunas de las variables de estado no son medibles, por lo
que se necesitará diseñar un observador de estado que permita estimar estas
variables, las cuales, entonces, podrán ser utilizadas por el controlador para
estabilizar a todo el sistema.

4.1.1. Ejemplos
Ejemplo 1
Sea la función de transferencia:
3s + 5
H(s) =
s3 + 3s2 + 7s + 1
Se desea diseñar un control por retroalimentación de estado tal que situé los
polos del sistema en lazo cerrado en s1,2 = −1±j y s3 = −10. Observe que el
del denominador de la función de transferencia en lazo cerrado, tendrá que
ser de la siguiente forma:

P (s) = (s + 10)(s2 + 2s + 2) = s3 + 12s2 + 22s + 20

en consecuencia el vector K se calcula de la siguiente forma

20 = 1 + k1
22 = 7 + k2
12 = 3 + k3

y entonces K = [19 15 9].

Ejemplo 2 (Sistema Masa-Resorte-Amortiguador) Considere el


sistema Masa-Resorte-Amortiguador visto anteriormente, con señal de con-
trol u=F. Con fines de simplicidad, se considera que m = c = k = 1,
obteniendo el siguiente modelo en espacio de estados
      
ẋ1 0 1 x1 0
= + u (4.12)
ẋ2 −1 −1 x2 1

El objetivo es utilizar una ley de control de la forma u = −Kx y encontrar


K tal que el sistema en lazo cerrado tenga valores propios λ1,2 = −3 ± j.
Entonces el polinomio caracterı́stico (deseado) del sistema en lazo cerrado
es:

26
P (λ) = (λ + 3 − j)(λ + 3 + j) = λ2 + 6λ + 82
Por otro lado, el polinomio caracterı́stico de la matriz aumentada es:

PLC (λ) = det(Iλ − Ā) = det(Iλ − (A − BK)) = λ2 + λ(1 + k2 ) + (1 + k1 )

I es la matriz identidad con dimensiones iguales a las de la matriz A. Ahora


igualando los coeficientes P (λ) y PLC (λ) podemos obtener los valores de ki .

82 = 1 + k1
6 = 1 + k2

y entonces K = [5 81].

Observación 10 En el anterior ejemplo, la selección de variables de estado


permite expresar al sistema en su forma controlable, como en 4.10, sin em-
bargo un sistema cualquiera puede tener una infinidad de representaciones,
por lo que para poder utilizar la metodologı́a vista anteriormente, es necesa-
rio expresar al sistema en la forma controlable, lo cual se obtiene por medio
de una transformación lineal. En la siguiente sección veremos como realizar
tal cambio de variable.

4.2. Representación en la forma controlable


En este apartado se aborda la metodologı́a que permite expresar cual-
quier sistema LTI en su forma controlable, también conocida como repre-
sentación en variables de fase. Partiendo de la matriz de controlabilidad:

An−1 B
 
Qc = B AB · · · n×n
se supone que el sistema es controlable, ası́ que rango(Qc ) = n y por lo
tanto Q−1
c existe:
 T 
e1
 eT 
 2 
Q−1
c =  .. 
 . 
eTn

27
A partir de la última fila de esta matriz, se construye una matriz que se le
denominará Tc−1 , y que es la inversa de la matriz de transformación. Esta
matriz de construye de la siguiente forma:

eTn
 
 eT A 
n
Tc−1 =  ..
 

 . 
eTn An−1
La matriz de cambio es Tc , la inversa de está última. Si con está matriz se
hace una transformación de estado, se obtiene el sistema representado en la
forma controlable ( representación en variables de fase) a partir de cualquier
otra representación.

x(t) = Tc x̃(t)

0 1 0 . . . 0
 

 0 0 1 . . . 0 


 . . . . . 

. . . . .
à = Tc−1 ATc = 
 


 . . . . . 


 0 0 0 . . . 1 

 −a0 −a1 . . . −an−2 −an−1 

0
 

 0 

 . 
−1
 
B̃ = Tc B = 
 . 


 . 

 0 
1
Si se aplica a estas matrices, el procedimiento descrito en el apartado
anterior, se obtiene una matriz de retroalimentación K̃, correspondiente a
la representación en forma controlable ( representación en variables de fase)
, que se han de convertir a las variables medibles o accesibles del sistema,
según se muestra en la figura 4.3. La señal de control entonces viene dada
por:

u = K̃x̃(t) = K̃Tc−1 x(t) ⇒ K = K̃Tc−1

28
K̃ Tc−1
x̃(t)

K
Figura 4.3: Transformación de la matriz de retroalimentación K

4.3. Diseño de servosistemas


En el apartado anterior se hizo la suposición de que r = 0, teniendo
una ley de control de la forma u = −Kx. Ahora veremos el caso para
r 6= 0 y entonces la ley de control es como mencionamos al inicio, esto es,
u = −Kx + kr r. Antes de continuar mencionemos la siguiente definición.

Definición 12 (Punto de equilibrio) Se dice que un punto xe , en el es-


pacio de estado es un punto de equilibrio del sistema, si tiene la propiedad de
que independientemente de cual sea la condición inicial de la trayectoria del
vector de estado, ésta converge a xe y permanece en él para todo el tiempo
futuro.

Observación 11 Observe que ẋe = 0 ya que en ese punto el sistema no se


mueve.

Cuando r 6= 0 lo que se busca es que la salida del sistema siga una


señal de referencia deseada, i.e. y → r, esto es lo que se le conoce como
un servosistema. Si la matriz K ha sido encontrada tal que el la matriz del
sistema en lazo cerrado tenga los valores propios en las posiciones deseadas,
entonces, el vector de estado tiende a un punto de equilibrio, i.e. x → xe .
Entonces por la observación 12 se tiene que:

⇒ 0 = Axe + Bkr r

⇒ −Bkr r = Axe
⇒ xe = −Ā−1 Bkr r

29
por lo que la salida del sistema viene dada por:
y = Cxe
⇒ y = −CĀ−1 Bkr r
Ahora, dado que el objetivo es que y → r cuando t → ∞, para que esto
¯
suceda es necesario que la matriz kr sea:
kr = (CĀ−1 B)−1 = (C(A − BK)−1 B)−1 (4.13)
Ejemplo
Consideremos el ejemplo del sistema Masa-Resorte-Amortiguador y supon-
gamos que queremos estabilizar el sistema a una posición constante x1 =
y = 2. En este caso es necesario utilizar la ley de control u = −Kx + kr r. La
matriz K = [5 81] ya fue encontrada en el ejemplo anterior. Ahora se tiene
que que encontrar kr . Note que la matriz A y B son conocidas y además en
este caso la salida del sistema es x1 es decir la posición, entonces, C = (1 0).
Usando la relación 4.13, se tiene, que kr = 6.

4.3.1. Regulador lineal cuadrático LQR (problema del hori-


zonte infinito)
Considere la siguiente función de costo
Z ∞
J= [xT Qx x + uT Qu u]dt (4.14)
0

El objetivo es minimizar la función J (ecuación 4.14) sujeta a la restricción:


ẋ(t) = Ax(t) + Bu(t)
donde Qx , Qu son matrices simétricas definidas positivas, llamadas matrices
de ponderación.
La función de costo 4.14 representa un compromiso entre la distancia del
estado al origen y la magnitud de la señal de control u que lleva al vector
de estado a un punto de equilibrio.
Escogiendo Qx y Qu , podemos balancear la velocidad de convergencia con
la magnitud del control.
La solución al problema de control óptimo (sin demostración) es
u = −Q−1 T
u B Px (4.15)
donde P ∈ Rn×n : P > 0 y satisface la ecuación algebraica de Riccati
PA + AT P − PBQ−1 T
u B P + Qx = 0

30
Observación 12 (Matriz de retroalimentación K óptima) La solución
al problema del control óptimo 4.15 también resuelve de forma óptima el pro-
blema de control por retroalimentación de estados, ya que nos da la matriz
de retroalimentación K optimizada mediante la expresión: K = −Q−1 T
u B P.

Observación 13 (LQR en Matlabr) La función en Matlab que resuelve


el problema del control óptimo y nos da la matriz K de retroalimentación
óptima es:
K = lqr(A, B, C, D)

31

Вам также может понравиться