Академический Документы
Профессиональный Документы
Культура Документы
TESIS DE PREGRADO
Autor
Director
ÍNDICE
Introducción 9
1.1.1. Operativa 13
1.3.3. Perceptrón 28
1.3.4 Backpropagation 31
2. Control Adaptable 40
6. Conclusiones 87
7. Referencias Bibliográficas 88
5
Lista de Figuras
Lista de Tablas
RESUMEN
En este trabajo se pretende ilustrar de una manera muy comprensible para el lector, la
teoría del control neuronal adaptable comenzando con el capítulo uno, en el que se
habla sobre la teoría básica de redes neuronales, para así pasar al capítulo dos en el que
se trata sobre el control adaptable y el neurocontrol. Por otra parte, el capítulo tres
contiene información sobre los sistemas de control multivariable, y finalmente en el
capítulo cuatro se muestra una aplicación usando un controlador neuronal simple y el
desarrollo de un PID neuronal para un caso SISO, para luego aplicar el controlador
neuronal simple descentralizado a la solución de un caso de control multivariable sobre
un sistema de control, el cual es una torre de destilación. Luego se realiza una
comparación de desempeño sobre el sistema mencionado contra un controlador PI
secuencial. También se hace una reproducción del algoritmo Backpropagation en el
SIMULINK de MATLAB, el cual tiene mucha importancia en los algoritmos
neuronales.
Para enriquecer un poco más el tema tratado en este trabajo, se comparan los resultados
encontrados en los controles neuronales, contra los resultados encontrados con los
reguladores PID clásicos.
9
Introducción
Ahora bien, pueden aprovecharse las características de las redes neuronales artificiales
(RNA) con las del control adaptable, para crear un nuevo tipo de controladores
denominado ‘control neuronal adaptable’ o más brevemente, ‘neurocontrol’.
través del entrenamiento, sin tener información a priori sobre los parámetros del
sistema.
La relevancia del uso de las redes neuronales en control se debe principalmente a que
casi todos los procesos difíciles de controlar son no lineales, pero son pocos los diseños
de control para sistemas no lineales que son usados en la práctica. A pesar de los muy
buenos resultados que se han reportado en las investigaciones que se han efectuado y la
gran cantidad de esquemas de control que se han probado, las aplicaciones industriales
del neurocontrol no son aún una rutina y la mayoría de los esquemas diseñados se han
implementado sólo en ambientes académicos o en investigación industrial.
En este trabajo se pretende ilustrar de una manera muy comprensible para el lector, la
teoría del control neuronal adaptable comenzando con el capítulo 1, en el que se habla
sobre la teoría básica de redes neuronales para así pasar al capítulo 2 en el que se trata
sobre el control adaptable y el neurocontrol. Por otra parte, el capítulo 3 contiene
información sobre los sistemas de control multivariable, y finalmente en el capítulo 4 se
muestra una aplicación usando un controlador neuronal simple y el desarrollo de un PID
neuronal para un caso SISO, para luego aplicar el controlador neuronal simple
descentralizado a la solución de un caso de control multivariable sobre un sistema de
control, el cual es una torre de destilación. Luego se realiza una comparación de
desempeño sobre el sistema mencionado contra un controlador PI secuencial. También
se hace una reproducción del algoritmo Backpropagation en el SIMULINK de
MATLAB, el cual tiene mucha importancia en los algoritmos neuronales.
Para enriquecer un poco más el tema tratado en este trabajo, se comparan los resultados
encontrados en los controles neuronales, contra los resultados encontrados con los
reguladores PID clásicos.
11
CAPÍTULO 1
4. Es altamente paralelo
2. Reconocimiento de patrones
3. Planeamiento
5. Predicción
6. Control y optimización
7. Filtrado de señales
1.1.1 Operativa
El sistema nervioso esta compuesto por una red de células (neuronas), ampliamente
interconectadas entre si. En las neuronas, la información fluye desde las dendritas hacia
el axón, atravesando el soma. Tal como se muestra en la siguiente figura.
14
Cada neurona recibe impulsos procedentes de otras neuronas (entradas) a través de las
dendritas, que están conectados a las salidas de otras neuronas por las sinapsis. Las
sinapsis, alteran la efectividad con la que la señal es transmitida a través de un
parámetro (el peso). El aprendizaje resulta de la modificación de estos pesos. Que unido
al procesamiento de información de la neurona determinan el mecanismo básico de la
memoria. El soma de la neurona recibe todas estas entradas y emite una señal de salida,
si la entrada total supera el valor umbral. Esta salida se transmite a través del axón
desde donde se propaga mediante diferencias de potencial a las dendritas de otras
neuronas [3].
Existen varias formas de nombrar una neurona artificial, es conocida como nodo,
neuronodo, celda, unidad o elemento de procesamiento (PE); En la figura 1.4 se observa
un PE en forma general y su similitud con una neurona biológica
El modelo de una neurona artificial es una imitación del proceso de una neurona
biológica, puede también asemejarse a un sumador hecho con un amplificador
operacional tal como se ve en la siguiente figura.
De la observación detallada del proceso biológico se han hallado los siguientes análogos
con el sistema artificial:
Las señales de entrada a una neurona artificial X1,X2,..,Xn son variables continuas en
lugar de pulsos discretos, como se presentan en una neurona biológica. Cada señal de
entrada pasa a través de una ganancia o peso, estos pesos pueden ser positivos
(excitatorios), o negativos (inhibitorios), el nodo sumatorio acumula todas las señales de
entradas multiplicadas por los pesos o ponderadas y las pasa a la salida a través de una
función umbral o función de transferencia [4].
Cada neurona j tiene en cada instante t un valor de activación a j (t ) , que puede ser
discreto o continuo.
A cada neurona j llegan las salidas de todas las i neuronas que están conectadas a ella,
N
modificadas por los pesos de conexión w ji de cada una por Net j = ∑ yi w ji donde los
i =1
pesos w ji son una magnitud asociada a cada conexión de la neurona j con las i a las que
se encuentran conectadas sus entradas.
Además del conjunto de neuronas, la representación necesita considerar los estados del
sistema en un tiempo t. esto especifica por un vector de N números reales A(t), que
representa el estado de activación del conjunto de neuronas.
Es necesario además saber los criterios o reglas que siguen las neuronas para alcanzar
estos estados de activación. Esto depende de dos factores:
17
• La señal que envía cada neurona a sus vecinas depende de su propio estado de
activación.
Así como es necesaria una regla que combine las entradas a una neurona con los pesos
de sus conexiones, también se requiere una regla que combine las entradas con el estado
actual de la neurona, para producir un nuevo estado de activación. Esta función, f,
produce un nuevo estado a partir del estado a j (t ) .
a j (t + 1) = f (a j (t ), Net j ) (1.2)
y j (t + 1) = f (Net j ) = f (∑
i =1
N
w ji * yi ) (1.3)
y j (t + 1) = f (Net j + b j ) = f (∑ N
i =1
w ji * xi + b j ) (1.4)
La ecuación 1.4 se puede entender mas fácilmente observando la figura 1.6 que aparece
a continuación
18
Las conexiones entre neuronas de una red tienen asociado un peso, que es el que hace
que la red adquiera conocimiento.
Una neurona recibe un conjunto de señales que le dan información del estado de
activación de todas las neuronas con las que se encuentra conectada. Cada conexión
(sinapsis) entre la neurona i y la neurona j esta ponderada por un peso W ji .
Donde wij son los pesos sinápticos que ponderan las entradas xi y b j es el umbral. f
es la función de activación de la neurona y n es el numero total de pesos sinápticos
conectados a la entrada de la neurona.
que el vector de entrada es un vector fila de R elementos. Las entradas van a la matriz
de pesos W, la cual tiene R columnas y sólo una fila para el caso de una sola neurona.
Una constante 1 entra a la neurona multiplicada por la ganancia escalar b. La salida de
la red a es en este caso un escalar, si la red tuviera más de una neurona Y, sería un
vector. A continuación en la figura 1.7 se muestra una grafica a modo de ejemplo de
cómo funciona una neurona artificial.
Entre las neuronas que componen la red existe un conjunto de conexiones que las unen.
Cada neurona transmite señales a aquellas que están conectadas con su salida. Asociada
a cada unidad U j hay una función de salida f j (a j (t )) , que transforma el estado actual
de activación a j (t ) en una señal de salida y j (t ) ; es decir:
y j (t ) = f j (a j (t )) (1.5)
En consecuencia, el vector que contiene las salidas de todas las neuronas en un instante t
es:
Los sistemas neuronales artificiales imitan la estructura del hardware del sistema
nervioso, con la intención de construir sistemas de procesamiento de información
paralelos, distribuidos y adaptables, que puedan presentar un cierto comportamiento
“inteligente”.
21
Cada neurona realiza una función matemática. Las neuronas se agrupan en capas,
constituyendo una red neuronal. Una determinada red neuronal esta construida y
entrenada para llevar a cabo una labor especifica. Finalmente, una o varias redes, mas
las interfaces con el entorno, conforman el sistema global.
• Las unidades de entrada reciben señales desde el entorno. Estas entradas (que
son entradas a la red) pueden provenir de sensores o de otros sectores del
sistema.
• Las unidades ocultas son aquellas cuyas entradas y salidas se encuentran dentro
del sistema, es decir, no tienen contacto con el exterior.
La conectividad entre los nodos de una red esta relacionada con la forma en que las
salidas de las neuronas están organizadas para convertirse en entradas de otras neuronas.
La señal de salida de un nodo puede ser una entrada de otro elemento de proceso, o
incluso ser una entrada de si mismo en una conexión auto recurrente.
22
Cuando ninguna salida de las neuronas de una capa es entrada de neuronas del mismo
nivel o de niveles procedentes, se dice que la red tiene propagación hacia delante como
la red que se muestra en la figura 1.10. En caso contrario se dice que la red es de
propagación hacia atrás. Las redes de propagación hacia atrás como se muestra en la
figura 1.11 que tienen lazos cerrados se dice que son sistemas recurrentes.
Figura 1.10 Estructura de una red multinivel con las conexiones hacia adelante
• Capas ocultas: Estas capas son aquellas que no tienen contacto con el medio
exterior, sus elementos pueden tener diferentes conexiones y son éstas las que
determinan las diferentes topologías de la red.
Una red de una sola capa con un número S de neuronas, se observa en la figura 1.11 en
la cual, cada una de las R entradas es conectada a cada una de las neuronas, la matriz de
pesos tiene ahora S filas.
Ahora, si se considera una red con varias capas, o red multicapa, cada capa tendrá su
propia matriz de peso W, su propio vector de ganancias b, un vector de entradas netas n,
y un vector de salida a. tal como se muestra en la siguiente figura.
• Aprendizaje estocástico
∆w ji = αyi (d j − y j ) (1.7)
Donde
actual anterior
∆w ji = w ji − w ji (1.8)
En este aprendizaje la función del supervisor se reduce a indicar mediante una señal de
refuerzo si la salida obtenida se ajusta a la deseada (éxito = +1, fracaso = -1), y en
función de ello se ajustan los pesos.
Este tipo de aprendizaje consiste básicamente en realizar cambios aleatorios a los pesos
de las conexiones de la red y evaluar su efecto a partir de objetivo deseado y de
distribuciones de probabilidad.
Las redes neuronales de entrenamiento supervisado son las más populares. Los datos
para el entrenamiento están constituidos por varios pares de patrones de entrenamiento
de entrada y de salida. El hecho de conocer la salida implica que el entrenamiento se
beneficia de la supervisión de un maestro. Dado un nuevo patrón de entrenamiento, en
la etapa (m + 1)-ésima, los pesos se adaptan de la siguiente forma [7]:
1.3.3 Perceptrón
Es un modelo de Red Neuronal artificial que representa la forma más simple de una red
neuronal utilizada para la clasificación de patrones que son linealmente separables, es
decir, patrones que se encuentran en lados opuestos de un “hiperplano”. Para
comprender su funcionamiento se debe estudiar el comportamiento de una sola neurona.
Un ejemplo para dos entradas puede verse en la Figura-1.18.
Donde la neurona realiza la suma ponderada de las entradas, resta el umbral y pasa el
resultado a una función de transferencia de tipo escalón. La regla de decisión es
responder 1 cuando el patrón pertenece a la clase R, o –1 si es a la clase F. Por tanto, la
salida dependerá de la entrada neta a la neurona de salida y del umbral b = U. Este
modelo sólo es capaz de discriminar patrones muy sencillos linealmente separables.
Para dos entradas la separación se realiza por una línea recta, para tres mediante un
plano, y para n mediante un “hiperplano”. Como puede deducirse de lo expuesto, no se
han definido realimentaciones entre neuronas, ya que el objetivo de clasificar patrones
en la forma que se ha apuntado no la requiere. Este hecho facilitará el análisis de la red
ya que hará innecesaria la realización de estudios de estabilidad. Facilitará, así mismo,
la definición de unos mecanismos de aprendizaje razonablemente simples [9].
29
El proceso de aprendizaje del Perceptrón puede definirse en tres reglas, las cuales
cubren la totalidad de combinaciones de salidas y sus correspondientes valores
esperados. Estas reglas utilizando la función de transferencia hardlim, se expresan como
sigue:
Las tres condiciones anteriores pueden ser escritas en forma compacta y generalizarse
para la utilización de las funciones de transferencia hardlim o hardlims, generalización
que es posible introduciendo el error en las reglas de aprendizaje del Perceptrón:
e =t −a (1.13)
Por lo tanto:
e = 1 → w1nuevo = w1viejo + p
e = −1 → w1nuevo = w1viejo − p (1.14)
e = 0 → w1nuevo = w1viejo
30
Las capacidades del Perceptrón multicapa con dos y tres capas y con una única neurona
en la capa de salida se muestran en la Tabla 1.2 extraída del libro de Hilera J y Martínez
V [12]. En la segunda columna se muestra el tipo de región de decisión que se puede
formar con cada una de las configuraciones, en la siguiente se indica el tipo de región
que se formaría para el problema de la XOR, en las dos últimas columnas se muestran
las regiones formadas para resolver el problema de clases mezcladas y las formas más
generales para cada uno de los casos [11].
31
1.3.4 Backpropagation
4. Se calcula la salida actual de la red, para ello se presentan las entradas a la red y
se va calculando la salida que presenta cada capa hasta llegar a la capa de salida
( y1 , y 2 ,..., y k ) . Los pasos son los siguientes:
a) Se determinan las entradas netas para las neuronas ocultas procedentes de las
neuronas de entrada.
m
Net = ∑ w hji x pi + bih
h
pj (1.17)
i =1
b) Se aplica la función de activación a cada una de las entradas de la neurona oculta
para obtener su respectiva salida.
m
y pj = f jh N pjh = ∑ hji x pi + bih (1.18)
i =1
c) Se realizan los mismos cálculos para obtener las respectivas salidas de las neuronas
de la capa de salida.
m
N o
pk = ∑ wkjo y pj + bko ; (1.19)
j =1
m
y pk = f ko N opk = ∑ wkjo y pj + bko (1.20)
j =1
e = (d pk − y pk ) (1.21)
33
∆wkjo (t + 1) = miuδ pk
o
y pj (1.24)
Este algoritmo utiliza también una función de error asociada a la red, buscando el
estado estable de mínimo. Por esto, realimenta el error del sistemas para realizar la
modificación de los pesos en un valor proporcional al gradiente decreciente de dicha
función de error.
El método que sigue la regla delta generalizada para ajustar los pesos en actualizarlos
de forma proporcional a la delta o diferencia entre la salida deseada y la obtenida
( salida deseada – salida obtenida)
Dada una neurona U i y la salida que produce, yi , tal como se muestra en la figura 1.21
34
El cambio que se produce en el peso de la conexión que une la salida de dicha neurona
con la unidad U j (w ji ) para un patrón de aprendizaje p determinado es:
∆w ji (t + 1) = αδ pj y pi (1.17)
Según esto, en el caso de que U j no sea una neurona de salida, el error que se produce
esta en función del error que se comete en las neuronas que reciben como entrada la
salida de U j :
35
Donde el rango k cubre todas aquellas neuronas a las que esta conectada la salida de
U j . De esta forma, el error que produce en una neurona oculta es la suma de los errores
que se producen en las neuronas a las que esta conectada la salida de ésta,
multiplicando cada uno de ellos por el peso de la conexión.
w ji (t + 1) = w ji (t ) + αδ pj y pi + β (w ji (t ) − wi (t − 1)) =
(1.20)
∆w ji (t + 1) = αδ pj y pi + β∆w ji (t )
Donde:
δ pj = ∑ δ pk wkj f ' (Net j ) (1.24)
k
El cual presenta una mejora en la atenuación del error y la convergencia de los pesos
iniciales hasta encontrar los pesos óptimos se muestran en la siguiente grafica.
Donde se puede observar la mejora con respecto a la primer red neuronal simulada y la
convergencia de los pesos de la capa de entrada se muestra en la siguiente grafica.
CAPÍTULO 2
2. Control Adaptable
De acuerdo con lo anterior, la decisión tomada provoca una acción inmediata que se
traduce en cambios de señales de control.
El control adaptable está diseñado para que varíe la señal de control cuando cambian las
condiciones ambientales y se verifique el funcionamiento óptimo siempre. Sin embargo
cuando un sistema adaptable puede reconocer situaciones anteriores y utiliza lo
aprendido para lograr mantener el nivel óptimo se le conoce como un sistema con
aprendizaje que es un nivel más alto que el control adaptable, pues no necesita volver a
pasar por el proceso de adaptación que experimentó la primera vez [14].
cambiarse los parámetros del controlador ante cambios en las características del
proceso. Su esquema de funcionamiento se presenta en la siguiente figura [15].
Los modelos más exitosos realizados hasta el momento, recurriendo a la fusión de estas
dos teorías incluyen desde la identificación hasta controladores de optimización
utilizando modelos del proceso.
NN : min J (w ) (2.1)
A continuación se presentan de forma general las diferentes arquitecturas para los usos
de las redes neuronales en el campo del control:
- Neurocontroladores Indirectos.
- Neurocontroladores Directos.
Su arquitectura básica es muy simple, tanto la señal de control como los estados de la
planta son muestreados y conforman el vector de entrada a la red. La salida de la red se
calcula y se compara con las mediciones de la salida de la planta. La diferencia entre
esas dos cantidades es usada para ajustar el vector de ajuste de pesos tendiente a reducir
el error de la red. En la figura 2.5 se enseña su esquema de funcionamiento [19].
El objetivo con este modelado es formular un controlador tal, que junto con la
arquitectura de la planta se conforme una sola función de transferencia. Inevitablemente
los errores del modelado perturban dicha función, por lo que se recurre al uso de un
precompensador en adición del controlador lineal, lo cual generalmente provee buen
rendimiento para una amplia gama de plantas no lineales [20].
46
Este tipo de modelado utiliza una estructura similar al modelado inverso, donde existe
una función de transferencia única, solo que el método propuesto es diferente. Un
modelo de la planta básico es construido como primer paso, la diferencia entre la
respuesta de la planta y la salida deseada es usada para generar la señal de error la cual
es pasada hacia atrás desde el modelo básico con el objeto de ajustar los parámetros del
nuevo modelo inverso [21].
Modelado de Operador
El algoritmo de aprendizaje esta ejecutándose en paralelo con una planta conducida por
un operador experto y sus respuestas forman la salida deseada de la red. Estas señales de
entrenamiento contienen altas cantidades de ruido dado que el operador usa diferentes
acciones para entradas similares, por lo que la señal deberá filtrarse antes de que los
algoritmos convencionales de aprendizaje para la red sean aplicados [22].
47
Las redes neuronales de tipo feedforward como redes recurrentes, se recomiendan para
la identificación de sistemas dinámicos. El desarrollo de redes neuronales para
identificación, se ha realizado sobre arquitecturas clásicas de tipo perceptron multicapa
donde la dinámica del sistema se representa por datos pasados, tanto de entradas como
de salidas del sistema que son alimentadas a la entrada de la red. En el caso lineal esto
equivaldría a un modelo ARX. Las redes neuronales recurrentes no requieren del uso
de señales retardadas pues tienen dinámica interna propia.
Una aproximación obvia para el sistema modelado es elegir una estructura de red
neuronal que desempeñe la misma función. Denotando por ym la salida de la red se
tiene:
Los esquemas de control indirecto (figura 2.10) tienen su nombre debido a la necesidad
de un modelo neuronal de la planta para obtener el controlador. Este modelo puede
servir para propagar los errores hacia atrás y permitir el aprendizaje del controlador o
para generar un modelo invertido de la planta.
- Neurocontrol robusto.
51
CAPÍTULO 3
Sin embargo, la presencia del efecto de”interacción” hará que el desempeño de un lazo
afecte al de los otros y viceversa. En otras palabras, la interacción complica la
sintonización de los lazos de manera independiente. Existe otro esquema para resolver
el problema del control de sistemas multivariables y se basa en el uso de un solo
controlador que manipula simultáneamente todas las variables manipuladas cuando
algún o algunas variables controladas se alejan de su set-point. De esta forma se
consigue compensar por el efecto de interacción. Este esquema se muestra en la
siguiente figura [25].
Como se puede ver claramente cada una de las entradas (u1, u2) tiene influencia sobre
las salidas (y1, y2). La magnitud de tal influencia depende de las ganancias de las
funciones de transferencia. En principio si se diseña los lazos de control de manera
independiente (suponiendo los apareamientos u1 → y1, u2 → y2) se tiene el siguiente
esquema:
Sin embargo, si la interacción entre las entradas/salidas esta presente el efecto sobre el
sistema de control que se representaría como se muestra en la siguiente figura:
54
Figura 3.6 Esquema de interacción entre las entradas sobre las salidas
Cuando el sistema multivariable presenta interacción puede no ser tan claro que
apareamiento seleccionar. Para entender este problema supongamos que llevamos a
cabo el siguiente experimento [26]:
Observaciones.
Una medida adecuada del grado de interacción del proceso (suponiendo que u1
controlara a y1 ) está dada por el siguiente cociente:
∆y1u ∆y1u
λ11 = λ11 = (3.4)
∆y1* ∆y1u + ∆y1r
Esta cantidad proporciona una medida del grado de interacción que ocurre cuando u1
controla a y1 , y cuando u2 controla a y2 .
Usando los valores del índice λ11 resulta más claro como analizar el efecto de un cierto
apareamiento sobre la interacción y desempeño del lazo cerrado ya que se esta
interesado en elegir el apareamiento con menor grado de interacción.
• ( λ11 = 1) Esto implica que ∆y1r = 0 y por lo tanto cero interacción en el sistema
multivariable. En consecuencia seleccionado el acoplamiento:
u1 → y1
u2 → y2
• ( λ11 = 0) En este caso esto significa que ∆y1u = 0; o sea que u1 no tiene ningún
efecto sobre y1 . Por lo tanto el lazo u1 → y1 no sirve para el propósito de
56
• ( λ11 > 1) En este caso ∆y1r tiene signo contrario del que tiene ∆y1u (sin
embargo, es menor en valor absoluto). En casos con λ11 muy grande y positiva
el efecto de la interacción prácticamente cancela el efecto de u1 sobre y1 . Por
esta razón pueden requerirse valores grandes de la acción de control para este
propósito. En general el apareamiento u1 → y1 no seria bueno.
• ( λ11 < 0) Esta situación surge cuando ∆y1r tiene signo contrario del que
presenta ∆y1u (además ∆y1r es mayor en valor absoluto a ∆y1u ). El
apareamiento u1 → y1 no es recomendable ya que la dirección del efecto de u1
sobre y1 a lazo abierto es la respuesta a la correspondiente dirección con el lazo
cerrado. No se recomienda usar apareamientos de este tipo.
• (0 < λ11 < 1) Este caso corresponde a ∆y1u y ∆y1r respondiendo en el mismo
sentido. Para λ11 > .5 nótese que ∆y1u > ∆y1r (el efecto directo es mayor que el
efecto de interacción). Si λ11 < .5 entonces ∆y1r > ∆y1u (la interacción domina
el efecto directo). Cuando λ11 = .5 entonces ∆y1u > ∆y1r y ambos efectos son
igualmente importantes [27].
∂y
a = i : todos los lazos abiertos
∂u
j
∂y
b = i : todos los lazos abiertos, excepto i ≠ j
∂u
j
a
λij = (3.5)
b
λ 11 λ 12 ... λ1n
λ λ 22 ... λ2n
21
. . ... .
Λ = (3.6)
. . ... .
. . ... .
λ n1 λn2 ... λ nn
Para mostrar la forma de evaluar la RGA se puede usar el caso simple del siguiente
sistema de 2x2:
Como en análisis clásico de la RGA se realiza en estado estacionario esto significa que:
lim(s → 0) g ij (s ) = K ij (3.8)
y1 (s ) = K11u1 (s ) + K12 u2 (s )
(3.9)
y 2 (s ) = K 21u1 (s ) + K 22 u2 (s )
∂y1
∂u1 o
λ11 = (3.10)
∂y1
∂u1 c
Donde el numerador denota la ganancia con todos los lazos abiertos mientras que el
denominador denota la misma ganancia pero con el lazo 2 cerrado. Entonces:
∂y
K11 = 1 (3.11)
∂u1 o
58
∂y
Para evaluar el término 1 recordemos que en esta ocasión el lazo 2 permanece
∂u1 c
cerrado. Por lo tanto, cuando se logre mantener a y2 en su set-point deseado, ocurrirá
que:
y2 = 0
la acción de control que se debe aplicar para lograr este propósito está dada por:
K 21
u2 = − u1 (3.12)
K 22
ahora bien, la acción de control u2 ejercerá un efecto sobre la respuesta y1, la cual
puede obtenerse sustituyendo u2 en la ecuación que define la respuesta para y1:
− K 21
y1 = K11u1 + K12 u1 (3.13)
K
22
esta ecuación representa, por lo tanto, el efecto de u1 sobre y1 cuando el lazo 2 está
cerrado:
∂y1 K K K K
= K11 − 12 21 = K11 1 − 12 21 (3.14)
∂u1 c K 22 K11 K 22
Denotando
K12 K 21
ζ = (3.15)
K11 K 22
Se tiene
∂y1
= K11 (1 − ζ ) (3.16)
∂u1 c
K11
λ11 =
K11 (1 − ζ )
o bien
59
1
λ11 = (3.17)
(1 − ζ )
de manera semejante se pueden evaluar el resto de los elementos de la RGA:
−ζ
λ12 = =λ λ11 = λ22 (3.18)
(1 − ζ ) 21
Entonces la matriz de RGA (Λ) estará dada por:
1 −ζ
(1 − ζ ) (1 − ζ )
Λ= (3.19)
−ζ 1
(1 − ζ ) (1 − ζ )
La suma de los elementos individuales de la RGA (λij) siempre es igual a 1, ya sea que
dichos elementos sean sumados horizontalmente o verticalmente. Esto puede apreciarse
mas claramente en el ejemplo examinado definiendo
1
λ = λ11 = (3.20)
(1 − ζ )
Entonces la matriz de RGA estará dada por
λ 1− λ
Λ= (3.21)
1 − λ λ
lim(s → 0) G (s ) = K (3.22)
Cuyos elementos son las ganancias individuales Kij. La matriz Λ puede obtenerse
aplicando la siguiente ecuación:
Λ = K (K −1 )
T
(3.23)
CAPÍTULO 4
p = [a, b, θ ]
T
Donde
Para ilustrar esta teoría a continuación se mostraran algunos ensayos variando los
parámetros del CNS
61
Variación en a
Observaciones
Variación en b
Observaciones
63
Variación en θ
1
E (t ) = (( yd (t ) − y(t ) )2 = 1 e 2 (t ) (4.2)
2 2
z (k )
p (k + 1) = p (k ) + ηe(k ) (4.3)
1 + z (k ) z (k )
T
Donde
2
dE (T ) = ∂E ∂y ∂u p = −η Φ (u , p )
•
• 2 ∂y 2
E (t ) = e (t ) (4.5)
dt ∂y ∂u ∂p T ∂u
•
Desde η >0 entonces E (t ) ≤ 0 , ∀t > 0 . De aquí se concluye que de la teoría de
estabilidad de Lyapunov la función del error esta decrementando a medida que el
tiempo esta creciendo. En otras palabras por usar los parámetros de sintonía del
algoritmo, el controlador neuronal simple es capaz de producir entradas de control
adaptable convenientes tal que la salida del sistema pueda alcanzar la salida deseada
asintoticamente. También de esta función se puede ver que de aquí se toma parte de esta
para poder tener la función candidata de Lyapunov.
•
= η ( )Φ ( ( ) ( )) ∂
( )
(4.6)
∂ ( )
Donde η es la rata de aprendizaje, esta determina la velocidad de convergencia de la
señal y a un valor muy alto de η , ocurrirá un sobre impulso en la respuesta del sistema.
∂y(t ) ∂y(t )
p ≡ [a, b, θ ]T , es el vector de parámetros y sign , es el signo de .
∂u(t ) ∂u(t )
∂u
Φ(u(t ), p(t )) , es definida como ;
∂p
T
∂u u 1 u(t ) u(t ) 1 u(t ) u(t )
Φ(u(t), p(t)) ≡ = , a(e(t ) −θ )1− 1+ ,− ab1− 1+ (4.7)
∂p a 2 a a 2 a a
Las propiedades de convergencia del sistema en lazo cerrado son explicadas por el
siguiente teorema
TEOREMA (CHEN 2001): asumiendo que z (k ) es limitado. Con 0<η <2; entonces
cuando los parámetros de aprendizaje del algoritmo son aplicados, el vector de
parámetros del controlador p converge su optimo local p* asintóticamente, donde
NL(0, p * ) = ud (entrada de control deseada) y e( p * ) = 0 [29].
Una prueba teórica del teorema es propuesta por Chen (2001). Para aplicar lo anterior
SNC algoritmo de aprendizaje de parámetros, se debe calcular el z (k ) en cada instante
iterativo. Según la definición de z (k ) vista anteriormente, el cálculo es basado en las
evaluaciones de la función de sensibilidad Φ(u (k ), p(k )) y el gradiente de la salida del
proceso con respecto a la entrada de control ∂y (k ) / ∂u (k ) . La evaluación de la función
de sensibilidad es simple, mientras que la determinación de la derivada parcial depende
de las características del proceso en el punto de operación para ser controladas (Chen et
al., 1999). Para eludir la dificultad de estimar con exactitud el valor del gradiente, Chen
(2001) ha sugerido sustituir z (k ) con z (k ) = sign((∂y (k )) / ∂u (k ))Φ (u (k ), p(k )) en la
implementación practica del CNS. La sustitución de ∂y (k ) / ∂u (k ) por su valor en signo
(dirección de respuesta del sistema) conduce a un simple algoritmo de aprendizaje para
el control directo de adaptación ya que utiliza la dirección de respuesta del sistema en
lugar de su valor.
Donde para una señal de entrada onda cuadrada con periodo de 10 segundos se tiene
como respuesta lo siguiente.
Para un caso MIMO, en el bucle i, la SNC-i se utiliza para producir la salida del
controlador a través de la siguiente función no lineal
zi
pi (t ) = ηi ei , i = 1,2,.., n (4.9)
1 + ziT zi
68
Donde
Luego
u~i 1 ~ u~ 1 u~ u~ T
u
Φ(u~i , pi ) ≡ ∂u~i / pi = , ai (ei (t ) − θi )1 − 1 + ,− ai bi 1 − 1 +
i i i i
(4.11)
ai 2 ai ai 2 ai ai
Otra alternativa para realizar este objetivo de control puede lograrse también con la
implementación de un PID neuronal tal como lo explica la siguiente sección.
El PID neuronal es un nuevo tipo de controlador con red neuronal multicapa en la que
las neuronas tienen acción proporcional, integral o derivativa y el controlador está
optimizado para sistemas no lineales y con grandes constantes de tiempo de retardo por
el acondicionamiento del algoritmo Backpropagation. Es decir, el PID neuronal
combina el algoritmo convencional del PID con el poder del aprendizaje de las redes
neuronales [30].
Este controlador consiste de una neurona proporcional una integral y una derivativa en
la capa oculta. Las cuales se definen de la siguiente manera:
Neurona proporcional
Si una neurona proporcional es la j-esima neurona en la red y esta tiene n-1 entradas,
para un tiempo k, la entrada de una neurona es:
n −1
u j (k ) = ∑ wij * xi (k ) (4.12)
i =1
69
Donde xi (k ) son las salidas de n-1 neuronas de entrada y wij son los pesos.
xi (k ) = u j (k ) (4.13)
Neurona integral
Si una neurona integral es la j-esima neurona en una red. La entrada de una neurona
integral es la misma que la de una neurona proporcional. La función de entrada-salida
de una neurona integral es:
t
x j (t ) = ∫ u j (t )dt → x j (k ) = x j (k + 1) + u j (k ) (4.14)
0
Neurona derivativa
Si una neurona derivativa es la j-esima neurona en una red. La entrada de una neurona
derivativa es la misma que la de una neurona proporcional. La función de entrada-salida
de una neurona derivativa es:
du j (t )
x j (t ) = → x j (k ) = u j (k ) − u j (k − 1) (4.15)
dt
1
E (k ) = [r (k ) − y (k )]2 = 1 e 2 (k ) (4.16)
2 2
∂E (k )
wi2 (k + 1) = wi2 (k ) − η2 = wi2 (k ) + η2δ ' (k )qi (k ) (4.17)
∂wi (k )
2
y (k ) − y (k − 1)
δ ' (k ) = e(k )sgn (4.18)
u (k − 1) − u (k − 2 )
∂E (k )
wij1 (k + 1) = wij2 (k ) − η1 = wij1 (k ) + η1δ i (k )rj (k ) (4.19)
∂wi1 (k )
qi (k ) − qi (k − 1)
δ i (k ) = δ ' (k )wi2 sgn (4.20)
xi (k ) − xi (k − 1)
Con respuesta
Para este algoritmo se utilizo momento y una rata de aprendizaje de 0.1 para los pesos
de aprendizaje de la capa de entrada a la capa oculta y 0.0115 para el peso de la neurona
proporcional, 0.00575 para la neurona integral y 0.01 para la neurona derivativa.
72
CAPÍTULO 5
Donde cada variable de entrada tiene una relación con cada variable de salida de la
forma
(5.1)
Como se puede observar el sistema es matricial y de orden 2*2. También, las funciones
de transferencia son de primer orden y poseen tiempo muerto. Además, los parámetros
de cada una de las plantas son constantes.
Como no está disponible un modelo analítico para el proceso, solo se tienen las
ganancias en estado estable del proceso como información a priori, las cuales se
representan como Kij
12.8 18.9
K= (5.3)
6.6 19.4
0.1570 − 0.0534
( K −1 ) T = (5.4)
− 0.1529 0.1036
Esta matriz muestra que existe una interacción de lazo fuerte y que el mejor
emparejamiento de las variables controladas y las variables manipuladas es: y1
controlada por u1 y y2 controlada por u2.
• La sintonización de los otros lazos de control dependerá del resto de las funciones de
transferencia del sistema ajenas al lazo principal.
• El desacople es mucho menos sensible a los errores en el modelo por lo que está más
extendido.
(5.6)
De esto se puede concluir que por medio de los desacopladores estáticos, haciendo uso
de un desacople total, el sistema multivariable se vuelve un sistema diagonal, es decir
todas las componentes de la matriz de ganancias son cero excepto su diagonal, lo cual
simplifica de gran manera el sistema y efectivamente puede verse como un conjunto de
sistemas SISO.
Para este caso se hace uso de un desacople total de los lazos como ya se explicó. Se
debe calcular los desacopladores de la siguiente forma:
Gij ( s ) K ij
Dij = − lim =− (5.7)
S →0 Gii ( s ) K ii
76
Para el proceso estudiado las ganancias de los desacopladores son D21 = -0.34 y D12 = -
∂yi (t )
1.48. Además, el signo de la derivada puede ser calculado fácilmente
∂ui (t )
conociendo el signo de Kii. Para este caso, se tiene que:
∂y1 ∂y 2
sign = K11 = 1 y sign = K 22 = 1 (5.8)
∂u1 ∂u 2
Aquí, los parámetros ai, bi, θi, de las dos neuronas es posible ajustarlos mediante la
siguiente regla de adaptación:
∂y (t )
pi (t ) = ηi ei (t )φ (ui (t ), pi (t )) sign i , para un sistema matricial de 2 * 2 i = 1,2
∂ui (t )
T
∂u i (t ) u i 1 u i u i 1 u i u i
φ (ui (t ), pi (t )) = = , ai (ei (t ) − θ i )1 − 1 + ,− aibi 1 − 1 +
∂pi (t ) ai 2 ai ai 2 ai ai
De igual forma i = 1, 2.
Figura 5.7 Simulación del sistema en lazo cerrado con la planta de parámetros fijos
Con una respuesta
78
De las últimas dos gráficas es posible observar como actúan los desacopladores en el
sistema, dado que para un cambio en el SET-POINT del lazo 1 la salida y2 del proceso
se mantiene en cero, mientras que la salida y1 que corresponde al lazo realimentado 1
persigue al escalón hasta estabilizarse. Todo esto ocurre en un tiempo de 0s a 400s.
También, se observa que para un cambio en el SET-POINT en un tiempo de 800s en la
entrada que corresponde al lazo 2, la señal y2 del sistema responde al escalón, mientras
que la y1 no es afectada por dicho cambio. Por lo tanto, se concluye que el sistema está
correctamente desacoplado. Además, se puede decir que los dos controladores
neuronales funcionan de manera correcta, debido a que las dos salidas controladas
presentan pocos sobreimpulsos y se estabilizan en un tiempo muy corto.
Ahora, se registrarán los resultados obtenidos para los parámetros de cada neurona, sus
respectivos errores y esfuerzos de control. Para el controlador SNC1, se tiene:
Figura 5.11 a1 Vs. Tiempo (seg.) Figura 5.12 b1 Vs. Tiempo (seg.)
Figura 5.13 Θ1 Vs. Tiempo (seg.) Figura 5.14 Error1 Vs. Tiempo (seg.)
80
Figura 5.18 Θ2 Vs. Tiempo (seg.) Figura 5.19 Error2 Vs. Tiempo (seg.)
De estas últimas simulaciones es posible concluir que los parámetros del modelo
convergen a un valor especifico, Además, los errores son demasiado pequeños y los
esfuerzos de control se pueden implementados fácilmente. De todo lo anterior se debe a
que se garantiza estabilidad por Lyapunov.
Ahora se comparará la respuesta obtenida con los CNS con un controlador PI secuencial
para el mismo proceso.
Figura 5.22 Salida y1 Vs. Tiempo (seg.) Figura 5.23 Salida y2 Vs. Tiempo (seg.)
En estas dos últimas graficas se comparan las respuestas del sistema con el controlador
neuronal (Línea color rojo) y controlador PI secuencial (Línea azul) donde es posible
observar que ambos controladores son muy buenos. Aunque, la única diferencia que hay
entre los dos es que el controlador PI presenta menos sobreimpulsos que el neuronal.
A continuación, se registran los resultados obtenidos cuando se trabaja con una planta
variante. El sistema en Simlink es similar al que se obtiene cuando se trabaja con una
82
planta con parámetros fijos. Lo único que cambia es que se debe calcular
desacopladotes para cada momento en que cambian las ganancias K de la planta.
La planta es la siguiente:
Figura 5.29 Simulación del sistema en lazo cerrado con la planta de parámetros
variantes
84
1 2
K =
0.5 1.1
1 2 11 − 5 11 − 10
λ = Kx( K −1 ) T = x =
0.5 1.1 − 20 10 − 10 11
1.5 2.1
K =
0 .7 1 .2
Los desacopladores para este sistema se calculan de igual forma como si se estuviera
trabajando con una planta con parámetros fijos.
D21 = -0.04545
D12 = -2
De 10seg. en adelante
D21 = -0.5833
D12 = -1.4
Por otra parte, es importante decir que en todas las simulaciones fue necesario incluir
ruido en la señal de entrada, debido a que este tipo de señal obliga a la neurona a
funcionar correctamente.
Al trabajar con una planta variante regulada con controladores CNS, es posible decir
que todo este sistema puede ser utilizado para obligar a la planta a que siga un modelo
de referencia. Esto se ve a continuación.
86
Figura 5.32 Salida y1 Vs. Tiempo (seg.) Figura 5.33 Salida y2 Vs. Tiempo (seg.)
El éxito de obtener buenos resultados depende en gran parte de las condiciones iniciales
con las que empiece el sistema a operar.
87
6. Conclusiones
• Las redes neuronales son una teoría que junto a otras técnicas de inteligencia
artificial ha generado soluciones muy confiables a problemas de Ingeniería, los
cuales a pesar de poder ser solucionados por métodos tradicionales, encuentran
en las redes neuronales una alternativa que es fácil de implementar y altamente
segura por su robustez.
• Las redes neuronales son una teoría y como tal presentan aún algunas
limitaciones, pero su facilidad de implementación y la calidad en la información
que entregan como respuesta, son la motivación suficiente para que su estudio y
desarrollo en la ingeniería de control continúe.
7. Referencias Bibliográficas
[1] Villanueva, Maria del Rosario (2002) las redes neuronales artificiales y su
importancia como herramienta en la toma de decisiones [en línea]. Disponible desde:
hppt:// sisbib.unmsm.edu.pe/bibVirtual/Tesis/Basic/Villanueva_EM/Contenido.htm
[accesado el 17 de enero del 2009]
[4] Tanco, Fernando (s.f) Introducción a las redes neuronales artificiales [en línea].
Disponible desde: http:// www.secyt.frba.utn.edu.ar/gia/RNA.pdf [accesado el 4 de enero
de 2009]
[6] (s.n) “Introducción a las redes neuronales aplicadas”. [en línea]. Disponible desde:
http:// halweb.uc3m.es/esp/Personal/personas/jmmarin/esp/DM/tema3dm.pdf [accesado
el 8 de enero de 2009]
[9] Peguero, Juan Carlos (2003) control de una planta de tratamiento de aguas
residuales mediante redes neuronales [en línea]. Disponible desde: http://
dialnet.unirioja.es/servlet/oaites?codigo=248 [accesado el 13 de enero del 2009]
[14] (s.n) (s.f) “Control Moderno” [en línea]. Disponible desde: http://
proton.ucting.udg.mx/materias/moderno/u56.htm [accesado el 22 de enero de 2009]
[24] (s.n) (2002)” Control de sistemas multivariables” [en línea] Disponible desde:
http://www.elai.upm.es/spain/Asignaturas/ControlProcesos/archivos/Transparencias/Te
ma4.pdf [accesado el 26 de enero del 2009]
[29] Chen, Chyi-Tsong y Hwang, Chyi (2006). “Direct adaptive process control based on
using a single neuron controller: survey and some new results”. Journal of the Chinese
Institute of Engineers, Vol. 29, No. 2, pp. 289-299.
[30] Shu, Huailin y Guo, Xiucai (1997). "decoupling control of multivariable time-
varying systems based on pid neural network". Department of electrical automation
engineering of China.
[31] Chen, Chyi-Tsong y Yen, Jia-Hwang (1998). "Multivariable Process Control Using
Decentralized Single Neural Controllers". Journal of Chemical Engineering of Japan,
Vol 31, No. 1,pp. 14-20.