Вы находитесь на странице: 1из 8

Control adaptable, Entrega 1.

Según los autores de [1], la no validez de los modelos lineales y la necesidad por
descripciones más precisas de los procesos en cuanto a incertidumbres en los insumos,
los valores de los parámetros y la estructura del sistema, enfocaron la atención de los
investigadores en crear controladores precisos, dando lugar a áreas nuevas en el control
automático como la adaptable, auto-optimizadora y sistemas de auto organización.

1.1. Teoría de sistemas:

Según los autores de [1], un sistema está definido como una agregación de objetos que
están unidos por alguna interacción. Cuando uno o más aspectos de un sistema cambian
con el tiempo, se considera que el sistema es dinámico. El primer paso para evaluar un
sistema, es identificar las variables de interés y luego ver cómo estas interaccionan, los
elementos de un sistema están dados por:

 Entradas: Las entradas según [1], están descritas por aquellas influencias que se
originan fuera del sistema y actúan sobre él, pero estas no se ven afectadas por
lo que sucede en el sistema. El símbolo matemático de estas entradas es 𝑢(𝑡).
Los valores de la entrada, están definidos en un conjunto viable 𝑈, el cual
contiene todos los valores que puede tomar la entrada.
 Salidas: Las variables de interés que son afectadas por la acción de dichas
entradas, se denominan salidas 𝑦(𝑡) y dichas salidas, pertenecen a un conjunto
viable 𝑌, este conjunto engloba los posibles valores que pueden tomar las
salidas. A cada valor del conjunto 𝑈 le pertenece uno en 𝑌.
 Estado: El concepto de estado fue introducido, para predecir el comportamiento
del sistema en el futuro, basado en un valor en la entrada 𝑢(𝑡) En un tiempo 𝑡0 .

Un sistema dinámico puede ser representado como se muestra en la ecuación 1:

𝒙̇ (𝒕) = 𝒇(𝒙(𝒕), 𝒖(𝒕), 𝜽, 𝒕); 𝒚(𝒕) = 𝒉(𝒙(𝒕), 𝜽, 𝒕) (𝟏)

Donde 𝑥̇ (𝑡) representa la evolución de los estados en el tiempo, 𝑦(𝑡) la salida del sistema,
𝜃 los parámetros del modelo y 𝑢(𝑡) las entradas del sistema. Un sistema lineal puede ser
representado por la ecuación (2):

̇ = 𝑨(𝜽, 𝒕)𝒙(𝒕) + 𝑩(𝜽, 𝒕)𝒖(𝒕) ; 𝒚(𝒕) = 𝑯(𝜽, 𝒕)𝒙(𝒕) (𝟐)


𝒙(𝒕)

Cuando el sistema pierde la dependencia con el tiempo, las matrices A,B,H empiezan a
depender solamente de los parámetros. Según la definición dada en [1] los parámetros
son constantes en un experimento específico, los cuales pueden variar de experimento a
experimento.

En algunos modelos, no es posible decidir cuando algún 𝜽𝒊 es una entrada o un


parámetro variable en el tiempo. .
Con las descripciones de los sistemas dados por las ecuaciones (1) y (2) es mejor
clasificar 𝜃 como un parámetro variable en el tiempo, esto permite aplicar técnicas lineales
sobre el sistema. Normalmente 𝜃 se debe reajustar de acuerdo al cambio de algunas
variables del sistema, por lo tanto theta se actualiza de acuerdo a cada realimentación de
la salida 𝜽̇ = 𝒉𝒌+𝟏 (𝒚𝟏 , 𝒚𝟐 , . . , 𝒚𝒏 ), al theta cambiar con el tiempo se convierte en un
estado y por lo tanto hay que estar chequeando controlabilidad, observabilidad,
optimalidad, etc.

En los años 50’s, se creo la teoría del control óptimo, donde se desarrolló la función de
costo mostrada en (3):
𝑇
𝐽 = 𝑥 𝑇 𝐹𝑥 + ∫ 𝑥 𝑇 𝑄𝑥 + 𝑢𝑇 𝑅𝑢 𝑑𝑡
0

El objetivo de este índice, era escoger la acción de control adecuada que minimice la
función de costo mostrada en (3). Este problema se resuelve tiempo a tiempo, cada vez
que se realimentan los estados al sistema, de esta forma se encuentra el índice.

1.2. Sistemas adaptables:

El control adaptable, se refiere al control de sistemas parcialmente conocidos. Cuando se


va a controlar un proceso, el diseñador rara vez conoce el comportamiento de los
parámetros del sistema y más cuando ocurren perturbaciones externas. Por lo tanto los
autores de [1], citan una definición de un sistema adaptable como un sistema de control,
el cual es capaz de monitorear su propio desempeño y ajustar sus parámetros en
dirección a un mejor desempeño.

Antiguamente, los sistemas adaptables se clasificaban en 1) adaptación pasiva, 2)


adaptación señal de entrada, 3) adaptación de la variable del sistema, 4) adaptación
característica del sistema, 5) adaptación extrema.

 La primera clase contiene aquellos sistemas, en los que el diseño inteligente de un


controlador invariante en el tiempo resulte en desempeño satisfactorio, ante
amplias variaciones en el entorno.
 La segunda clase contiene aquellos sistemas, en los que modifican sus
parámetros de acuerdo con las características de la señal de entrada. Entre los
métodos para diseñar el controlador para este tipo de sistemas, está el método de
ganancias programadas, donde se conoce o se caracteriza la entrada.
 Los sistemas 3 y 4, son en los cuales la acción de control es ajustada basándose
en medidas del sistema mientras que este se encuentra en operación. La
diferencia entre los sistemas tipo 3 y tipo 4 erradica en que en los tipo 3 el ajuste
se realiza de acuerdo a las variables que se pueden medir del sistema, mientras
que en la 4 la obtención de los parámetros del controlador, depende de las
características del sistema.
 Los sistemas tipo 5, se consideran subconjuntos de los sistemas tipo 3.

Una de las definiciones mejor aceptadas de adaptable, es la citada por [1] para hacerlo
definieron tres tipos diferentes de control, estocástico, determinístico y adaptable:

 Cuando el proceso que se va a controlar, está totalmente especificado y el


controlador tiene información completa del comportamiento de las entradas, se
dice que el control es determinístico (Se tiene la funcion completamente construida
de los estados).
 Cuando el proceso tiene parámetros inciertos pero se conocen sus funciones de
distribución, se dice que el control es estocástico.
 Cuando el proceso, tiene información desconocida no se conocen las mismas
propiedades del modelo que en los casos de estocástico y determinístico (ni
distribuciones, ni parámetros), solo se conoce la salida del proceso, para esto el
controlador tiene que aprender a mejorar su rendimiento a través de la
observación de la salida. A medida que el proceso se desarrolla, la información se
vuelve disponible y las decisiones se pueden ir mejorando, a esto se le llama
control adaptable.

1.3. Parámetros adaptables y estructura de sistemas adaptables:

Cuando un sistema dinámico es descrito por la ecuación (1), la incertidumbre puede surgir
debido a la falta de conocimiento de algunos de los sistemas ó parámetros que son
elementos de un vector o de algunas funciones 𝑓𝑖 [1]. Esto quiere decir que los
parámetros pertenecen a un vector o a una función del sistema dinámico, según los
autores, los parámetros pueden ser cambiados para mantener el control deseado, cuando
los elementos del vector son cambiados, son parámetros adaptables y cuando son
cambiados los elementos de 𝑓𝑖 , se dice que el sistema es estructuralmente adaptable.

Según lo anterior, las ecuaciones (1) y (2) se pueden reescribir como:

𝒙̇ (𝒕) = 𝒇(𝒙(𝒕), 𝒖(𝒕), 𝜽, 𝒑, 𝒕); 𝒚(𝒕) = 𝒉(𝒙(𝒕), 𝜽, 𝒑, 𝒕) (𝟑)

̇ = 𝑨(𝜽, 𝒕, 𝒑)𝒙(𝒕) + 𝑩(𝜽, 𝒕, 𝒑)𝒖(𝒕) ; 𝒚(𝒕) = 𝑯(𝜽, 𝒕, 𝒑)𝒙(𝒕) (𝟒)


𝒙(𝒕)

Donde 𝜃 son los parámetros, que están bajo control del diseñador mientras que 𝑝, son
parámetros desconocidos, constantes o que varían con el tiempo de manera distinta a los
estados, a distintas velocidades podría ser.
Se supone que los parámetros 𝜃, deben de compensar el efecto de los parámetros
desconocidos 𝑝.

1.4. Control directo e indirecto:

Los autores de [1], empiezan a definir el control dual y este problema se presenta
cuando se tienen plantas con características desconocidas. Este problema de control
según los autores de [1] integra los problemas de control e identificación, ya que si se
tiene un bajo grado de identificación de la planta, los resultados de la respuesta pueden
ser pobres.

Luego de definir el control dual, existen dos tipos de soluciones para este tipo de
problemas, inicialmente se tiene el control indirecto. Este método de solución consiste
en estimar los parámetros de la planta on-line y luego estimar los parámetros del
controlador basados en esta estimación, como ejemplo de esto se tiene el método de
sensibilidad. Posteriormente se tiene el control directo y esta solución consiste en no
esforzarse identificando la planta, pero sí que los parámetros del controlador cumplan con
un índice de desempeño específico para este tipo de control, se tiene el método de
perturbación de parámetros.

1.4.1. Método de perturbación de parámetros:

Como para el control directo, se debe de medir un índice de desempeño, en caso de que
se tenga el proceso operando y que el controlador que se instale mejore el índice uno
debe de seguir alterando los controles en la misma dirección, mientras que si empeora los
controles se deben alterar en dirección opuesta. La implementación del método depende
de la estabilidad del sistema global.

1.4.2. Método de sensibilidad:

La incertidumbre de un sistema puede tomar varias formas, como por ejemplo la


incertidumbre paramétrica la cual surge mientras los productos están siendo
manufacturados y los efectos de variación combinados, pueden afectar el comportamiento
del sistema. Por lo tanto se recurre a este tipo de métodos los cuales son más analizados
a profundidad en [1], para ajustar los parámetros del controlador de manera óptima.

1.5. Modelo de referencia adaptable y reguladores de autoajuste:

El objetivo de un controlador, es el de determinar una entrada 𝑢(𝑡), para mantener la


salida de la planta en un valor deseado 𝑒 = 𝑦𝑝 − 𝑦𝑚 , donde 𝑦𝑝 es la salida de la planta, 𝑦𝑚
es el valor en el que quiero mantener mi salida y e es el error, la diferencia entre ambas.
Cuando 𝑦𝑚 es constante, el problema solo se trata de mantener el proceso en un punto
específico, siendo esta variable se trata de seguir una referencia. De acuerdo a lo
anteriormente descrito, cuando 𝑦𝑚 es constante, se tiene un problema de reguladores de
autoajuste (en sus siglas en inglés STR self tunning regulator), mientras que teniendo un
problema de seguimiento de referencia se tiene un problema de modelo de referencia
adaptable (en sus siglas en inglés MRAS model reference adaptive systems) MRAS.
1.5.1. Modelo de referencia:

El objetivo de utilizar modelos de referencia, es que la respuesta deseada de la planta


esté en términos de la salida del modelo elegido. Este modelo puede ser lineal o no lineal

Para efectos prácticos se prefiere que el sistema sea lineal invariante en el tiempo. El
modelo de referencia esta descrito por:

𝒚𝒎̇ = 𝑨𝒎 𝒚𝒎 (𝟓)

Cuando se tiene un sistema con varias salidas:

𝒙𝒑̇ = 𝑨𝒑 𝒙𝒑 + 𝑩𝒑 𝒖𝒑 (𝟔)

𝒚𝒑 = 𝑨𝒑 𝒙𝒑

Por teoría de programación cuadrática, se minimiza el índice de desempeño del


controlador mediante una función del error cuadrático dado en [1], se tiene que:

𝒖(𝒕) = 𝑲𝒎 𝒚𝒎 (𝒕) + 𝑲𝒑 𝒙𝒑 (𝒕) (𝟕)

1.5.2. Modelo de identificación:

Los modelos matemáticos son indispensables en diversas áreas del conocimiento, desde
áreas sociales hasta física, química, etc. Los modelos de base fenomenológica hacen que
el modelo reproduzca de manera efectiva el comportamiento del sistema observado.
Diferente a este tipo de modelos, existen ecuaciones diferenciales o ecuaciones de
diferencia que reproducen la entrada y la salida el proceso, esto se logra simplemente
minimizando el error entre el proceso y el modelo, a esto se le llama modelo identificado.

1.5.3. Modelos de referencia con entradas:

Para este inciso, se propone el modelo que se muestra en la ecuación (8):

𝒙𝒎̇ = 𝑨𝒎 𝒙𝒎 + 𝑩𝒎 𝒓 ; 𝒚𝒎 = 𝑪𝒎 𝒙𝒎 (𝟖)

𝑨𝒎 es una matriz estable y constante de nxn elementos, 𝑩𝒎 y 𝑪𝒎 son matrices


constantes de dimensiones apropiadas, r corresponde a la señal que se le aplica de
entrada al modelo de referencia. El objetivo de utilizar los elementos 1.5.2. Es el de poder
encontrar una acción de control que haga que la planta mostrada en (6) sea lo más
parecida al modelo a medida que avanza el tiempo. Según los autores de [1], una buena
aproximación para que las ecuaciones (8) y (6) tengan la misma solución, se muestra en
la ecuación (9):

𝒖(𝒕) = 𝑲𝒑 𝒙𝒑 (𝒕) + 𝑲𝒎 𝒙𝒎 (𝒕) + 𝑲𝒓 𝒓(𝒕) (𝟗)

1.5.4. Control adaptable por modelo de referencia:


El objetivo de este controlador es producir una señal de entrada, teniendo el control
acceso a la salida y que a medida que avanza el tiempo la salida de la planta con la
entrada suministrada por el controlador, se haga lo más parecida posible a la salida.
Según los autores de [1] los posibles valores que tome la señal de entrada deben estar
acotados, asi mismo el modelo de referencia tiene que tener alguna restricción debido a la
restricción en la entrada que pueda tener la planta. Según los autores de [1], se busca
que idealmente el controlador sea lineal y en los casos en que los parámetros de este
sean constantes, se considera que el controlador es lineal e invariante en el tiempo.

El objetivo del control por modelo de referencia es mover 𝜃 durante la evolución del
sistema, hasta que la salida de la planta y del modelo sean iguales.

Ilustración 1, Figura 1.10 tomada de [1] Control adaptable directo e indirecto

Como se muestra en la ilustración 1 ambos esquemas parecen ser idénticos, la diferencia


erradica en que el esquema b tiene un bloque de identificación, mientras que el esquema
a no lo tiene. Esto sirve como una guía para observar que el error de control en a es
directamente utilizado para obtener los parámetros del controlador (Recordar lo del índice
de desempeño), mientras que el error de identificación es utilizado para encontrar el
parámetro de identificación y con este parámetro, se realiza el ajuste del controlador.

1.5.5. Controladores de autoajuste:

El STR cae dentro de los problemas de control adaptable indirecto, donde según la
definición dada por Kalman [1], este controlador consiste en un estimador de parámetros,
un un controlador lineal y un bloque que determina los parámetros del controlador, desde
los parámetros estimados.

1.6. Sistemas adaptables estables:

Inicialmente se define que un sistema no es autónomo cuando las entradas externas se


encuentran presentes en este, luego los autores [1] complementan la definición, diciendo
que las propiedades de los sistemas como estabilidad, controlabilidad, observabilidad y
optimalidad se fueron desarrollando en este tipo de sistemas y en sistemas no lineales.
Como se cita anteriormente, luego de haber diseñado los parámetros del controlador se
verifica la estabilidad de este. El estudio de la estabilidad toma fuerza para los sistemas
adaptables de sus ecuaciones diferenciales no lineales correspondientes. En [1],
proponen una estrategia para diseñar sistemas adaptables, la cual erradica en que estos
son estables para ciertos valores de un parámetro 𝛾 y este pertenece a un conjunto 𝑆𝛾 ,
con esto la dinámica de los parámetros, estaría dada por 𝜃̇ = 𝑔(𝑥, 𝜃, 𝛾, 𝑡).

Luego de garantizar la estabilidad del sistema, se eligen los parámetros óptimos del
controlador, para este objetivo se debe encontrar 𝛾𝑜𝑝𝑡 . En la metodología establecida por
[1] prima asegurar la estabilidad del sistema, para luego con esta garantía encontrar la
respuesta óptima. Esto quiere decir que para la ley adaptable, primero se debe garantizar
que el sistema cumpla ciertas propiedades de estabilidad.

1.6.1. Modelos de error:

El primer paso para garantizar estabilidad en la aproximación de un sistema adaptable, es


escoger la ley adaptable para sintonizar los parámetros del controlador. Inicialmente para
esto se definen dos tipos de errores, el error en los estados y el error en los parámetros
como sigue:

𝒆(𝒕) = 𝒙(𝒕) − 𝒙∗ (𝒕) (𝟏𝟎)

∅(𝒕) = 𝜽(𝒕) − 𝜽∗ (𝟏𝟏)

Donde 𝑥 ∗ (𝑡) corresponde a la trayectoria deseada y 𝜃 ∗ es un vector desconocido que


garantiza que el sistema adaptable persiga exactamente al modelo de referencia.

𝒆̇ (𝒕) = 𝒇𝟏 (𝒆(𝒕), ∅(𝒕), 𝒕) (𝟏𝟐)

∅̇(𝒕) = 𝒇𝟐 (𝒆(𝒕), 𝒕) (𝟏𝟑)

𝜽̇(𝒕) = 𝒇𝟐 (𝒆(𝒕), 𝒕) (𝟏𝟒)

Las ecuaciones (12) y (13), corresponden a las dinámicas del error en los estados y los
parámetros. La ley adaptable, se determina a partir de (13) y (14).
Referencias

[1] Narendra, Kumpati S., and Anuradha M. Annaswamy. Stable adaptive systems.
Courier Corporation, 2012.

Вам также может понравиться