Академический Документы
Профессиональный Документы
Культура Документы
Según los autores de [1], la no validez de los modelos lineales y la necesidad por
descripciones más precisas de los procesos en cuanto a incertidumbres en los insumos,
los valores de los parámetros y la estructura del sistema, enfocaron la atención de los
investigadores en crear controladores precisos, dando lugar a áreas nuevas en el control
automático como la adaptable, auto-optimizadora y sistemas de auto organización.
Según los autores de [1], un sistema está definido como una agregación de objetos que
están unidos por alguna interacción. Cuando uno o más aspectos de un sistema cambian
con el tiempo, se considera que el sistema es dinámico. El primer paso para evaluar un
sistema, es identificar las variables de interés y luego ver cómo estas interaccionan, los
elementos de un sistema están dados por:
Entradas: Las entradas según [1], están descritas por aquellas influencias que se
originan fuera del sistema y actúan sobre él, pero estas no se ven afectadas por
lo que sucede en el sistema. El símbolo matemático de estas entradas es 𝑢(𝑡).
Los valores de la entrada, están definidos en un conjunto viable 𝑈, el cual
contiene todos los valores que puede tomar la entrada.
Salidas: Las variables de interés que son afectadas por la acción de dichas
entradas, se denominan salidas 𝑦(𝑡) y dichas salidas, pertenecen a un conjunto
viable 𝑌, este conjunto engloba los posibles valores que pueden tomar las
salidas. A cada valor del conjunto 𝑈 le pertenece uno en 𝑌.
Estado: El concepto de estado fue introducido, para predecir el comportamiento
del sistema en el futuro, basado en un valor en la entrada 𝑢(𝑡) En un tiempo 𝑡0 .
Donde 𝑥̇ (𝑡) representa la evolución de los estados en el tiempo, 𝑦(𝑡) la salida del sistema,
𝜃 los parámetros del modelo y 𝑢(𝑡) las entradas del sistema. Un sistema lineal puede ser
representado por la ecuación (2):
Cuando el sistema pierde la dependencia con el tiempo, las matrices A,B,H empiezan a
depender solamente de los parámetros. Según la definición dada en [1] los parámetros
son constantes en un experimento específico, los cuales pueden variar de experimento a
experimento.
En los años 50’s, se creo la teoría del control óptimo, donde se desarrolló la función de
costo mostrada en (3):
𝑇
𝐽 = 𝑥 𝑇 𝐹𝑥 + ∫ 𝑥 𝑇 𝑄𝑥 + 𝑢𝑇 𝑅𝑢 𝑑𝑡
0
El objetivo de este índice, era escoger la acción de control adecuada que minimice la
función de costo mostrada en (3). Este problema se resuelve tiempo a tiempo, cada vez
que se realimentan los estados al sistema, de esta forma se encuentra el índice.
Una de las definiciones mejor aceptadas de adaptable, es la citada por [1] para hacerlo
definieron tres tipos diferentes de control, estocástico, determinístico y adaptable:
Cuando un sistema dinámico es descrito por la ecuación (1), la incertidumbre puede surgir
debido a la falta de conocimiento de algunos de los sistemas ó parámetros que son
elementos de un vector o de algunas funciones 𝑓𝑖 [1]. Esto quiere decir que los
parámetros pertenecen a un vector o a una función del sistema dinámico, según los
autores, los parámetros pueden ser cambiados para mantener el control deseado, cuando
los elementos del vector son cambiados, son parámetros adaptables y cuando son
cambiados los elementos de 𝑓𝑖 , se dice que el sistema es estructuralmente adaptable.
Donde 𝜃 son los parámetros, que están bajo control del diseñador mientras que 𝑝, son
parámetros desconocidos, constantes o que varían con el tiempo de manera distinta a los
estados, a distintas velocidades podría ser.
Se supone que los parámetros 𝜃, deben de compensar el efecto de los parámetros
desconocidos 𝑝.
Los autores de [1], empiezan a definir el control dual y este problema se presenta
cuando se tienen plantas con características desconocidas. Este problema de control
según los autores de [1] integra los problemas de control e identificación, ya que si se
tiene un bajo grado de identificación de la planta, los resultados de la respuesta pueden
ser pobres.
Luego de definir el control dual, existen dos tipos de soluciones para este tipo de
problemas, inicialmente se tiene el control indirecto. Este método de solución consiste
en estimar los parámetros de la planta on-line y luego estimar los parámetros del
controlador basados en esta estimación, como ejemplo de esto se tiene el método de
sensibilidad. Posteriormente se tiene el control directo y esta solución consiste en no
esforzarse identificando la planta, pero sí que los parámetros del controlador cumplan con
un índice de desempeño específico para este tipo de control, se tiene el método de
perturbación de parámetros.
Como para el control directo, se debe de medir un índice de desempeño, en caso de que
se tenga el proceso operando y que el controlador que se instale mejore el índice uno
debe de seguir alterando los controles en la misma dirección, mientras que si empeora los
controles se deben alterar en dirección opuesta. La implementación del método depende
de la estabilidad del sistema global.
Para efectos prácticos se prefiere que el sistema sea lineal invariante en el tiempo. El
modelo de referencia esta descrito por:
𝒚𝒎̇ = 𝑨𝒎 𝒚𝒎 (𝟓)
𝒙𝒑̇ = 𝑨𝒑 𝒙𝒑 + 𝑩𝒑 𝒖𝒑 (𝟔)
𝒚𝒑 = 𝑨𝒑 𝒙𝒑
Los modelos matemáticos son indispensables en diversas áreas del conocimiento, desde
áreas sociales hasta física, química, etc. Los modelos de base fenomenológica hacen que
el modelo reproduzca de manera efectiva el comportamiento del sistema observado.
Diferente a este tipo de modelos, existen ecuaciones diferenciales o ecuaciones de
diferencia que reproducen la entrada y la salida el proceso, esto se logra simplemente
minimizando el error entre el proceso y el modelo, a esto se le llama modelo identificado.
𝒙𝒎̇ = 𝑨𝒎 𝒙𝒎 + 𝑩𝒎 𝒓 ; 𝒚𝒎 = 𝑪𝒎 𝒙𝒎 (𝟖)
El objetivo del control por modelo de referencia es mover 𝜃 durante la evolución del
sistema, hasta que la salida de la planta y del modelo sean iguales.
El STR cae dentro de los problemas de control adaptable indirecto, donde según la
definición dada por Kalman [1], este controlador consiste en un estimador de parámetros,
un un controlador lineal y un bloque que determina los parámetros del controlador, desde
los parámetros estimados.
Luego de garantizar la estabilidad del sistema, se eligen los parámetros óptimos del
controlador, para este objetivo se debe encontrar 𝛾𝑜𝑝𝑡 . En la metodología establecida por
[1] prima asegurar la estabilidad del sistema, para luego con esta garantía encontrar la
respuesta óptima. Esto quiere decir que para la ley adaptable, primero se debe garantizar
que el sistema cumpla ciertas propiedades de estabilidad.
Las ecuaciones (12) y (13), corresponden a las dinámicas del error en los estados y los
parámetros. La ley adaptable, se determina a partir de (13) y (14).
Referencias
[1] Narendra, Kumpati S., and Anuradha M. Annaswamy. Stable adaptive systems.
Courier Corporation, 2012.