Вы находитесь на странице: 1из 21

CONTROL POR MEDIO DE REDES NEURONALES SISTEMAS AVANZADOS DE CONTROL

PRESENTADO A: Jose Thomas Buitrago

PRESENTADO POR: Luis Genaro Marulanda Gonzalez

CODIGO: 0732263-3746

UNIVERSIDAD DEL VALLE

Santiago de Cali, Noviembre de 2010

CONTROL POR MEDIO DE REDES NEURONALES

1. INTRODUCCION Con las Redes Neuronales Artificiales (RNAs) se busca la solucin de problemas complejos, no como una secuencia de pasos, sino como la evolucin de sistemas de computacin inspirados en el cerebro humano, y dotados por tanto de cierta "inteligencia", los cuales no son sino la combinacin de elementos simples de proceso (neuronas) interconectados, que operando de forma paralela, consiguen resolver problemas relacionados con el reconocimiento de formas o patrones, prediccin, codificacin, control y optimizacin, entre otras aplicaciones. En sntesis, las RNAs son una herramienta computacional que puede utilizarse en un gran nmero y variedades de aplicaciones, tanto comerciales como militares e ingenieriles. La combinacin de RNAs e ingeniera y tecnologa permite un tipo de inteligencia con infinitas aplicaciones en la industria y la sociedad. 2. NEURONAS REALES El cerebro consta de un gran nmero (aproximadamente 1011 ) de elementos altamente interconectados (aproximadamente 1014 conexiones por elemento), llamados neuronas. Las neuronas tienen cuatro componentes principales: las dendritas, el cuerpo de la clula o soma, el axn y la sinapsis.

Figura 1. Neurona Biolgica

Dendritas: son el rbol receptor de la red, son como fibras nerviosas que cargan de seales elctricas el cuerpo de la clula. Cuerpo de la clula o Soma: Realiza la suma de las seales de entrada. Axn: Es una fibra larga que lleva la seal desde el cuerpo de la clula hacia otras neuronas Sinapsis: El punto de contacto entre un axn de una neurona y las dendritas de otra neurona El cerebro humano est constituido por un conjunto de neuronas, donde una neurona no puede hacer nada a menos que la influencia colectiva de todas sus entradas alcance un punto crtico llamado Umbral. Neuronas como procesadores de informacin sencillos De manera simplista las dendritas constituyen el canal de entrada de la informacin, el soma es el rgano de cmputo, el axn corresponde al canal de salida, y a la vez enva informacin a otras neuronas. Cada neurona recibe informacin de aproximadamente 10.000 neuronas y enva impulsos a cientos de ellas algunas neuronas reciben la informacin directamente del exterior. El cerebro se modela durante el desarrollo de un ser vivo. Algunas cualidades del ser humano no son innatas, sino adquiridas por la influencia de la informacin que del medio externo se proporciona a sus sensores. Tres conceptos clave a emular Procesamiento paralelo, derivado de que los miles de millones de neuronas que intervienen, por ejemplo en el proceso de ver, estn operando en paralelo sobre la totalidad de la imagen. Memoria distribuida, mientras que en un computador la informacin est en posiciones de memoria bien definidas, en las redes neuronales biolgicas dicha informacin est distribuida por la sinapsis de la red, existiendo una redundancia en el almacenamiento, para evitar la prdida de informacin en caso de que una sinapsis resulte daada. Adaptabilidad al entorno, por medio de la informacin de las sinapsis. Por medio de esta adaptabilidad se puede aprender de la experiencia y es posible generalizar conceptos a partir de casos particulares. El elemento bsico de un sistema neuronal biolgico es la neurona. Un sistema neuronal biolgico est compuesto por millones de neuronas organizadas en capas. En la emulacin

de dicho sistema neuronal biolgico, por medio de un sistema neuronal artificial, se puede establecer una estructura jerrquica similar a la existente en el cerebro. El elemento esencial seria la neurona artificial, la cual se organizara en capas. Varias capas constituirn una red neuronal. Finalmente una red neuronal junto con los interfaces de entrada y salida constituir el sistema global de proceso.

3. REDES NEURONALES ARTIFICIALES Las redes neuronales artificiales quedan integradas dentro de las tcnicas conexionistas, lo cual significa que el funcionamiento de cada uno de sus componentes elementales es idntico, y la complejidad funcional se obtiene mediante una gran interconectividad entre estos elementos. Esto recuerda en gran manera la organizacin de los sistemas biolgicos, donde simples neuronas se conectan entre s para formar sistemas ms o menos complejos. Es por este motivo que al componente elemental de las redes neuronales artificiales se le denomina neurona. Al igual que su homloga biolgica, una neurona artificial recibe informacin, bien sea de sensores o de otras neuronas; posteriormente realiza unas operaciones simples, y finalmente transmite el resultado a otras neuronas vecinas. La ventaja de las redes neuronales artificiales frente a sistemas matemticos o expertos es que la funcin gana complejidad cuanto mayor es el nmero y las combinaciones de estas. Al igual que las neuronas biolgicas, la muerte o deterioro de una neurona afecta cuantitativamente, pero no cualitativamente. Esto les confiere caractersticas que las hacen muy adecuadas para la realizacin de tareas tales como identificacin, reconocimiento de patrones y sobre todo control. Modelo Estndar de una neurona artificial

Figura 2. Modelo de una Neurona

Una neurona artificial recibe una serie de entradas, representadas por el vector . En primer lugar, suman estas entradas multiplicadas cada una de ellas por un peso diferente . Al resultado se le suma un valor constante denominado polarizacin representado por , es una ganancia que refuerza la salida del sumador, finalmente se le aplica una funcin de activacin denominada . La funcin de activacin es tpicamente alguna de las siguientes:

Tabla1. Funciones de activacin

La propiedad fundamental de las redes neuronales artificiales es que el valor de los pesos y las polarizaciones son ajustables, con lo que esta puede responder de forma diferente a unas mismas entradas. Esto les confiere la capacidad de asociar un conjunto de patrones de entrada-salida, cuando estos se les presentan de forma secuencial. Este proceso se denomina aprendizaje, adaptacin o entrenamiento de la red. Si los patrones corresponden las entradas y a las salidas de una planta, el aprendizaje puede realizarse, adems, al mismo tiempo que la planta recibe las entradas y genera las salidas. Este tipo de aprendizaje se denomina en lnea (on-line). Una vez finalizado el aprendizaje o entrenamiento, la red puede predecir una salida a partir de la misma entrada, sin necesidad de la planta. Este tipo de funcin se denomina identificacin. Ahora bien, la red ha de ser capaz de predecir una salida a partir de cualquier entrada, aun cuando no se le haya presentado en la fase de aprendizaje. Esta caracterstica se denomina generalizacin. Arquitectura de las redes neuronales artificiales Se denomina arquitectura a la topologa, estructura o patrn de conexin de una red neuronal. En una red neuronal artificial los nodos se conectan por medio de sinapsis, estando el comportamiento de la red determinado por la estructura de conexiones sinpticas. Estas conexiones sinpticas son direccionales, es decir, la informacin solamente puede propagarse en un nico sentido (desde la neurona pre-sinptica a la pos-sinptica).

En general las neuronas se suelen agrupar en unidades estructurales que denominaremos capas. El conjunto de una o ms capas constituye la red neuronal. Se distinguen tres tipos de capas: De entrada: Una capa de entrada, tambin denominada sensorial, est compuesta por neuronas que reciben datos o seales procedentes del entorno. De salida: Una capa de salida se compone de neuronas que proporcionan la respuesta de la red neuronal. Ocultas: Una capa oculta no tiene una conexin directa con el entorno, es decir, no se conecta directamente ni a rganos sensores ni a actuadores. Este tipo de capa oculta proporciona grados de libertad a la red neuronal gracias a los cuales es capaz de representar mas fehacientemente determinadas caractersticas del entorno que trata de modelar.

Figura 3. Arquitectura unidireccional con tres capas de neuronas: una capa de entrada, una capa Oculta y una capa de salida

Teniendo en cuenta diversos conceptos se pueden establecer diferentes tipos de arquitecturas neuronales. As considerando su estructura podemos hablar de: Redes mono capa (1 capa): Esta red est conformada por una capa de seales de entrada y una capa de seales de salida. Es llamada red de una sola capa ya que solo se toma en cuenta nicamente aquella donde se realiza alguna operacin, la cual corresponde a la capa de salida. Se utiliza tpicamente en tares relacionadas con la auto asociacin. Redes multicapa (n capas): Es aquella que dispone de conjuntos de neuronas agrupadas en varios niveles o capas como (2,3,, n) niveles o capas. En este caso, una forma para

distinguir la capa a la que pertenece la neurona, consistir en fijarse en el origen de las seales que recbela entrada y el destino de la seal de salida. Teniendo en cuenta el flujo de datos, podemos distinguir entre: Redes unidireccionales (feedforward): en las redes unidireccionales la informacin circula en un nico sentido. Redes recurrentes o realimentadas (feedback): en las redes recurrentes o realimentadas la informacin puede circular entre las distintas capas de neuronas en cualquier sentido, incluso en el de salida-entrada.

Figura 4. Diferentes arquitecturas de redes neuronales

La Figura 4 muestra dos ejemplos de arquitectura, uno corresponde a una red monocapa y recurrente y el otro a una red multicapa y unidireccional. Tipos de redes neuronales con conexin o propagacin hacia adelante (Feedforward) Existen varios tipos de redes con conexin hacia adelante, pero se analizara nicamente algunas, como por ejemplo: PERCEPTRON ADALINE Y MADALINE BACKPROPAGATION (retro-propagacin)

PERCEPTRON: Fue uno de los primeros modelos de redes neuronales con conexin hacia adelante, consiste en una sola neurona con pesos variable y un umbral, como funcin de activacin se usa la funcin limite duro. Un perceptron imita una neurona tomando la suma ponderada de sus entradas y enviando a la salida un 1 si la salida es ms grande que algn valor umbral ajustable o una salida 0 si ocurre lo contrario.

Figura 5. RNA perceptron

Las entradas (P1, P2,.., Pn) y los pesos (W1, W2,., Wn) que se ilustran en la figura 5 son normalmente valores reales que pueden ser positivos o negativos. Cuando alguna caracterstica Xi tiende a causar la activacin del perceptron, el peso Wi ser positivo; si la caracterstica Xi inhibe al perceptron, entonces el peso Wi ser negativo. ADALINE Y MADALINE: las redes ADALINE (Adaptive Linear Neuron) o (Adaptive Linear Element) y MADALINE (Multiple Adaline) son similares a las Perceptron, excepto en su funcin de activacin, en este caso la funcin utilizada es la funcin lineal. La red Adaline est limitada a una nica salida, mientras que la Madaline puede tener varias capas. La diferencia fundamental respecto al perceptron se refiere a su mecanismo de aprendizaje. Adaline y Madaline utilizan la regla de Widrow Hoff o regla de mnimo error cuadrtico medio (LMS).

Figura 6. RNA Adaline

BACKPROPAGATION (retro-propagacin): la red de retropropagacion tambin conocida como perceptron multicapa (MutiLayer Perceptron), est formada por varias capas de neuronas. Una vez que se ha aplicado un patrn a la entrada de red como estimulo, esta se propaga desde la primera capa a travs de las capas superiores de la red, hasta generar una salida. La seal de la salida se compara con la salida deseada y se calcula una seal de error para cada una de las salidas.

Figura 7. RNA Backprpagation

Donde: R= # de elementos en el vector de entrada S= # de neuronas en la capa

El perceptron multicapa tiene tres caractersticas fundamentales que la distinguen de las dems redes: A. El modelo de cada neurona incluye una funcin de activacin no lineal, la cual debe ser derivable en todo el rango. La funcin de activacin ms usada en este caso es la Sigmoidal, su uso tiene una motivacin biolgica por presentar n estado refractario de una neurona real. Como funciones de activacin tambin pueden ser usadas las funciones log-sigmoide (logsig), tan-sigmoide (tansig) y la funcin lineal (purelin).

B. La red contiene varias capas ocultas que no corresponden a la capa de entrada ni a la capa de salida, lo que le posibilita el aprender tareas complejas que son extradas progresivamente de las entradas. C. La red presenta un alto grado de conectividad, la cual est determinada por la cantidad de pesos existentes.

4. ENTRENAMIENTO DE LAS REDES NEURONALES Una de las principales caractersticas de las RNA es su capacidad de aprendizaje. El entrenamiento de las RNA muestra algunos paralelismos con el desarrollo intelectual de los seres humanos. No obstante aun cuando parece que se ha conseguido entender el proceso de aprendizaje conviene ser moderado porque el aprendizaje de las RNA est limitado. El objetivo del entrenamiento de una RNA es conseguir que una aplicacin determinada, para un conjunto de entradas produzca el conjunto de salidas deseadas o mnimamente consistentes. El proceso de entrenamiento consiste en la aplicacin secuencial de diferentes conjuntos o vectores de entrada para que se ajusten los pesos de las interconexiones segn un procedimiento predeterminado. Durante la sesin de entrenamiento los pesos convergen gradualmente hacia los valores que hacen que cada entrada produzca el vector de salida deseado. Los algoritmos de entrenamiento o los procedimientos de ajuste de los valores de las conexiones de las RNA se pueden clasificar en dos grupos: Supervisado y No Supervisado. Entrenamiento Supervisado: estos algoritmos requieren el emparejamiento de cada vector de entrada con su correspondiente vector de salida. El entrenamiento consiste en presentar un vector de entrada a la red, calcular la salida de la red, compararla con la salida deseada, y el error o diferencia resultante se utiliza para realimentar la red y cambiar los pesos de acuerdo con un algoritmo que tiende a minimizar el error. Las parejas de vectores del conjunto de entrenamiento se aplican secuencialmente y de forma cclica. Se calcula el error y el ajuste de los pesos por cada pareja hasta que el error para el conjunto de entrenamiento entero sea un valor pequeo y aceptable. Entrenamiento No Supervisado: los sistemas neuronales con entrenamiento supervisado han tenido xito en muchas aplicaciones y sin embargo tienen muchas crticas debido a que desde el punto de vista biolgico no son muy lgicos. Resulta difcil creer que existe un mecanismo en el cerebro que compare las salidas deseadas con las salidas reales. En el caso de que exista, de dnde provienen las salidas deseadas?

Los sistemas no supervisados son modelos de aprendizaje ms lgicos en los sistemas biolgicos, estos sistemas de aprendizaje no supervisado no requieren de un vector de salidas deseadas y por tanto no se realizan comparaciones entre las salidas reales y salidas esperadas. El conjunto de vectores de entrenamiento consiste nicamente en vectores de entrada. El algoritmo de entrenamiento modifica los pesos de la red de forma que produzca vectores de salida consistentes. El proceso de entrenamiento extrae las propiedades estadsticas del conjunto de vectores de entrenamiento y agrupa en clases los vectores similares. Existe una gran variedad de algoritmos de entrenamiento hoy en da. La gran mayora de ellos han surgido de la evolucin del modelo de aprendizaje no supervisado que propuso Hebb (1949). El modelo propuesto por Hebb se caracteriza por incrementar el valor del peso de la conexin si las dos neuronas unidas son activadas o disparadas. L a ley de Hebb se representa segn la ecuacin:

5. CONTROL MEDIANTE REDES NEURONALES ARTIFICIALES Los principios de control basados en redes neuronales se pueden resumir en cinco estructuras: Control Supervisado: La red aprende un conjunto de entradas y las salidas deseadas, y puede de esta forma identificar un sistema dinmico. Control Inverso Directo: La red aprende la dinmica inversa de un sistema, de modo que aplicando la seal, la red puede calcular la accin de control a realizar. Retropropagacion de Utilidad: Permite optimizar la funcin de transferencia. Requiere de un modelo del sistema a controlar, el cual puede ser otra red neuronal. Crtico Adaptativo: Al igual que el esquema anterior, sirve para optimizar una funcin de transferencia, pero sin necesidad de un modelo de planta, o por lo menos, sin que sea necesario un modelo determinista. El crtico, consiste normalmente en otra red, es el encargado de evaluar el comportamiento de la red principal, para que de esta forma pueda adaptar sus pesos.

6. SIMULACION DE LA PLANTA DE NIVEL DEL LABORATORIO CON RNA La simulacin que se presenta a continuacin se realiza en SIMULINK, el planteamiento del problema consiste en encontrar un mecanismo de control para la planta de nivel del laboratorio. Anlisis Planta lazo Abierto: En el laboratorio se pudo realizar el modelado de la planta en lazo abierto, y se determino que su funcin de transferencia corresponda a la siguiente:

1.56 70.5 + 1

El resultado de la simulacin en lazo abierto fue el siguiente:

Figura8. Modelo Planta nivel en lazo abierto

Figura9. Simulacin Modelo Planta nivel en lazo abierto Claramente se puede observar que el sistema es inestable y presenta un gran error.

Anlisis Planta lazo cerrado: N el laboratorio se pudo observar que al cerrar el lazo por efector del Sample Holder la funcin de trasferencia cambiaba su grado, al analizar el tiempo de establecimiento y su error se pudo determinar que su funcin de trasferencia corresponda a: = 2 2 + 2 + 2

0.031740985 + 0.31605584 + 0.031740985

Figura10. Modelo Planta nivel en lazo cerrado

Figura11. Simulacion planta lazo cerrado ante varios escalones

Figura12. Simulacin planta lazo cerrado ante un escaln

Se puede observar claramente que el sistema realimentado si presenta control, sin embargo el sistema presenta un gran error, algo de oscilamiento y sobrepaso. Control por RNAS: Para poder hacer uso de las RNAs en simulink debemos ubicarnos es la librera Neural Network ToolBox y luego en Control Systems.

Figura13. Ubicacin de la Neural Network ToolBox en la Library Browser de simulink

Luego de ubicarnos en control systems, nos aparecera diferentes bloques parael uso de las RNAs.

Figura14. Ubicacin de los controladores por RNAs

En este caso se utilizo el NARMA-L2 controller.

Figura15. Modelo de la planta con RNA

Para definir los parmetros de nuestra RNA le damos click en el controlador NARMA-L2, se desplegara el siguiente cuadro

Figura16. Parametros de la RNA

Figura16. Simulink Plant Model

Luego de definir la arquitectura de lare, los parametros de entrenamiento y el modelo de la planta, debemos darle click en Generate Training Data.

Figura17. Visualizacin de las entradas y salidas de la planta de referencia de la RNA

Luego de finalizada la smulacion, es decir, luego de terminado el nuemro de pruebas de entreno, debemos darle click en Accept Data, nos aparecera el siguiente cuadro,indicandonos que ahora se puede dar inicio al entrenamiento de la red, para ello le damos click en Train Network.

Figura17. Parmetros de la RNA terminado el test1

Nos apareceran los siguientes cuadros, donde se nos mostrara el resultado de los entrenamientos.

Figura18. Resultados del entrenamiento

Terminado el entrenamiento de la RNA se puede dar inicio al uso de la misma en la planta, los resultados obtenidos fueron.

Figura19. Simulacin planta nivel con RNA

Claramente se puede observar que la RNA genero una gran disminucin del error, las oscilaciones y una considerable reduccin del tiempo de establecimiento. 7. ARTICULO IEEE: Sliding Mode Control of NonLinear Systems Using Gaussian Radial Basis Function Neural Networks, IEEE. 0-7803-7044.2001 En el artculo se presenta un control adaptativo que utiliza una red neuronal con funciones de base radial. La salida de la red neuronal es la seal de control y su aprendizaje se logra por medio de planos deslizantes, lo cual le da robustez al sistema de control adaptativo.

Figura20. Esquema del sistema completo

El diagrama de la Figura 20 muestra el esquema del sistema completo utilizando la red de base radial. A partir del error y su derivada, se calcula un plano deslizante llamado Sp,

luego aplicando una funcin se obtiene el error de la seal de control c, y con base en sta se actualizan los pesos de la red de base radial, la cual hace las veces de controlador.

Figura21. Estructura de la Red

La red neuronal consta de una capa de entrada, una capa oculta y una capa de salida (Figura 21). En la primera capa se tiene como entradas el error, la derivada del error y una constante, la capa oculta est formada por neuronas con funciones de base radial y la capa de salida es una neurona con funcin lineal. Los pesos entre la capa de entrada y la oculta no reciben entrenamiento y su valor es de uno. El entrenamiento de los pesos de la capa oculta a la de salida se realiza utilizando un plano deslizante, como se muestra en la seccin del algoritmo de aprendizaje. El error y la derivada del error se obtienen como:

Donde X es la salida de la planta y Xd es la salida deseada. La salida de cada neurona de la capa oculta, la cual esta formada por funciones de base radial es:

Donde Uj son las entradas de la red (e,, kte) y Yi es la salida de las neurona i-sima. Cij son los centros de las funciones radiales y ij son los anchos de las mismas.

La salida total de la red se define por:

Donde wi denota el peso i de entrenamiento, y representa la salida total de la red. El aprendizaje se logra calculando el plano deslizante Sp y el error de la seal de control

ec como en (5) y (6)

Donde es la seal de control deseada y como sta no est disponible, es necesaria la expresin del lado derecho. Con ec se calcula el cambio en los pesos de la red neuronal de manera similar a:

8. CONCLUSIONES S e pudo comprender el principio bsico de las RNAs. Se pudo determinar que su naturaleza las hace aptas para el uso en diferentes disciplinas pero sobre todo en el reconocimiento de patrones y el control. En cuanto a la simulacin se presento un mtodo de control usando RNAs, el cual fue fcil de implementar y presento buen comportamiento.

9. BIBLIOGRAFIA
IEEE CONTROL MAGAZINE. NEURAL NETWORKS for Self-Learning Control Systems, Derrick H. Nguyen and Bernard Widrow REDES NEURONALES Y SUS APLICACIONES, Xabier Basogain Olbe S. Haykin (1999). Neural Networks. A Comprehensive Foundation, Prentice-hall

Вам также может понравиться