Вы находитесь на странице: 1из 358

UNIVERSIDAD DE VIGO DEPARTAMENTO DE INGENIERIA QUIMICA

ALGORITMOS EFICIENTES PARA LA OPTIMIZACION DINAMICA DE PROCESOS DISTRIBUIDOS. por Eva Balsa Canto

Memoria presentada para optar al grado de Doctor por la Universidad de Vigo. Abril, 2001.

Autorizacion

Los Doctores Julio Rodr guez Banga, Cient co Titular del Instituto de Investigaciones Marinas de Vigo (C.S.I.C.), y Antonio Alvarez Alonso, Profesor Titular del Departamento de Ingenier a Qu mica de la Universidad de Vigo,

CERTIFICAN: que la memoria adjunta, titulada `'Algoritmos e cientes para la optimizacion dinamica de procesos distribuidos", que para optar al grado de Doctor en Qu mica presenta Da. Eva Balsa Canto, ha sido realizada bajo su inmediata direccion en el Instituto de Investigaciones Marinas del C.S.I.C.. Y considerando que constituye trabajo de Tesis, autorizan su presentacion en la Universidad de Vigo. Y para que conste, expedimos el presente certi cado en Vigo, a diecisiete de abril del dos mil uno.

Dr. Julio Rodr guez Banga

Dr. Antonio Alvarez Alonso

Agradecimientos
Han sido muchos los que de una manera u otra han contribuido al desarrollo de esta tesis. Es por ello, que dedico estas primeras l neas a expresar mi mas sincero agradecimiento: A mis directores, los Doctores Julio Rodr guez Banga y Antonio Alvarez Alonso, por haberme brindado la oportunidad de realizar este trabajo, por su apoyo y dedicacion y, muy especialmente, por haberme ense~ado lo que se acerca de simulacion n y optimizacion de procesos. Al Doctor Vassilios Vassiliadis, por haber contribuido de manera decisiva al desarrollo de los metodos de optimizacion de segundo orden, y por haber hecho, junto a todos los compa~eros del departamento de Ingenier a Qu mica de la Universidad n de Cambridge, mi estancia en el Reino Unido mas agradable. A los Doctores Nico Scheerlinck y Bart Nicola , de la Universidad Catolica de Lovaina al Doctor Jose Saa y a Isidro Sanchez y Javier Vazquez. Todos ellos han participado en diversos aspectos del cap tulo de esta memoria dedicado al procesamiento termico con hornos microondas-conveccion, tanto en el desarrollo de modelos y herramientas de simulacion, como en la realizacion del montaje experimental que ha permitido la validacion de los resultados. Este trabajo se ha enmarcado en el desarrollo de un proyecto nanciado por la Comunidad Europea (FAIR CT96-1192) y una extension nanciada por la Comision Interministerial de Ciencia y Tecnolog a (CICyT, ALI97-1939-CE). Durante este per odo he disfrutado, ademas, de una beca predoctoral concedida por la Excma. Diputacion de Pontevedra. A PSE Ltd. por la concension de una licencia academica para el uso de gPROMS. A mi compa~era Carmen por haberme aclarado muchos aspectos de los procesos n qu micos y de biotecnolog a que se consideran en este trabajo y, ademas, por contribuir, junto a otros compa~eros Marigel, Isa, Cruz y un largo etcetera, a un d a a n d a mas ameno. A Fran, ademas, por facilitarme la impresion de esta tesis. A mis amigas, Bego~a y Patricia, y a mis amigos de Lugo, por todos estos a~os de n n buenos momentos. A mis padres, Mariano y Gloria, y mis hermanas, Montse y Cecilia, porque sin ellos, ni esta tesis, ni otras muchas cosas, habr an sido posibles. Y a Mart n, por su apoyo e in nita paciencia.

ii

iii

A mis padres y a mis hermanas. A Mart n.

iv

Resumen
Muchos de los procesos de la industria qu mica, biotecnologica y alimentaria transcurren en modo discontinuo o semicontinuo. Por ello, su descripcion debe realizarse mediante modelos dinamicos constituidos por ecuaciones diferenciales y algebraicas frecuentemente no lineales. A menudo, es preciso ademas incorporar la dependencia espacial de las variables de estado relevantes mediante sistemas de ecuaciones en derivadas parciales (procesos distribuidos). A n de calcular las mejores pol ticas de operacion de dichos procesos (control optimo), es preciso disponer de tecnicas de optimizacion dinamica robustas y e cientes con las que hacer frente a las di cultades que surgen de la presencia de restricciones sobre estados y controles y al caracter multimodal (no convexo) derivado de posibles discontinuidades y a la no linealidad intr nseca de estos procesos. En la primera parte de esta memoria se realiza una revision bibliogra ca del estado actual del modelado y simulacion dinamica de procesos. Igualmente, se presentan los conceptos clave de la optimizacion (estacionaria y dinamica) de procesos, prestando especial atencion al estado actual de los metodos de control optimo desde el punto de vista de la ingenier a de procesos. Asimismo, se justi ca la eleccion del esquema de parametrizacion de control como el punto de partida de esta tesis. Dicho esquema transforma el problema original de control optimo en un problema de programacion no lineal con restricciones (NLP), que requiere ademas la resolucion de un problema de valor inicial (dinamica del sistema) para cada evaluacion. En esta tesis se ha perseguido aumentar la e ciencia y robustez de la resolucion del NLP externo, as como disminuir en lo posible el coste computacional de la resolucion del problema de valor inicial. En la segunda parte de este trabajo se presenta el desarrollo de nuevos metodos de optimizacion dinamica basados en el esquema de parametrizacion de control con dos tipos de metodolog as. Por una parte, se desarrollan nuevos metodos deterministas locales que hacen uso del calculo e ciente de las sensibilidades parametricas de primer y segundo orden para evaluar de forma muy e ciente el gradiente y el Hessiano v

vi

Resumen

(o Hessiano proyectado) de la funcion objetivo. Por otra parte, dada la frecuente no convexidad del NLP, se propone la combinacion de un metodo global de tipo estocastico con un metodo determinista local, formando un metodo h brido, a n de sumar sus ventajas a la vez que se evitan varios de sus inconvenientes. Estas nuevas metodolog as se aplican a la solucion de diversos problemas de complejidad creciente, tomados de la bibliograf a reciente y de gran interes en los sectores qu mico y biotecnologico, incluyendo problemas multi-objetivo, y procesos de una y varias etapas. Por ultimo, en la tercera parte de esta memoria se presenta la aplicacion de estos nuevos metodos a la resolucion de problemas de optimizacion dinamica de procesos distribuidos. Para la resolucion de los problemas de valor inicial, se considera el uso del metodo numerico de las l neas y el metodo de elementos nitos, que transforman las ecuaciones en derivadas parciales originales en un conjunto de ecuaciones diferenciales y algebraicas de dimension elevada. Estas metodolog as se aplican al calculo de las pol ticas optimas de operacion de un conjunto de problemas distribuidos, incluyendo dos de especial relevancia para la industria alimentaria: la esterilizacion termica de alimentos y el procesamiento termico de alimentos en hornos mixtos microondas-conveccion. En el caso de microondas estas pol ticas se validan experimentalmente con un prototipo construido al efecto. Dado que el proceso de simulacion de sistemas distribuidos requiere un tiempo de computacion signi cativo, en el ultimo cap tulo se presenta una metodolog a que, basada en la proyeccion del modelo distribuido sobre hiperplanos de dimension baja, permite reducir su orden manteniendo sus propiedades de representacion. Las grandes ventajas del uso de modelos de orden reducido se ilustran con su aplicacion a la simulacion, dise~o y optimizacion dinamica del proceso de esterilizacion termica n de alimentos.

Objetivos
El objetivo fundamental de esta tesis ha sido el desarrollo de metodos avanzados de optimizacion dinamica de procesos distribuidos, buscando estrategias mas e cientes y robustas que las existentes en la actualidad. Para ello se ha elegido el esquema de parametrizacion de control y se han jado los siguientes subobjetivos: Desarrollar un metodo determinista local, basado en el uso de informacion de segundo orden, con el n de aumentar la velocidad de convergencia. Desarrollar un metodo h brido de optimizacion global, basado en la combinacion de un metodo estocastico y un metodo determinista local, para la resolucion de problemas multimodales (no convexos). Evaluar dichos metodos mediante su aplicacion a la resolucion de un amplio conjunto de problemas representativos de optimizacion dinamica, tanto de procesos concentrados como distribuidos, prestando especial atencion a la esterilizacion termica de alimentos y al procesamiento termico en hornos mixtos microondas-conveccion. Validar experimentalmente las pol ticas optimas obtenidas para el caso del procesamiento termico de alimentos en hornos mixtos microondas-conveccion. Acelerar la resolucion de problemas de optimizacion dinamica de sistemas distribuidos mediante el uso de modelos de orden reducido.

vii

viii

Objetivos

Indice
Agradecimientos Resumen Objetivos Indice Indice de tablas Indice de guras Notacion i v vii ix xv xix xxv

Introduccion
1 Modelado y simulacion dinamica de procesos
1.1 Desarrollo y tipos de modelos . . . . . . . . . . . . . . . . . . . . . 1.2 Solucion de ecuaciones diferenciales ordinarias (ODEs) . . . . . . . 1.2.1 Metodo expl cito de Euler . . . . . . . . . . . . . . . . . . . 1.2.2 Metodos Runge-Kutta . . . . . . . . . . . . . . . . . . . . . 1.2.3 Metodo de Adams . . . . . . . . . . . . . . . . . . . . . . . 1.2.4 Metodo impl cito de Euler . . . . . . . . . . . . . . . . . . . 1.2.5 Metodos BDF . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.6 Codigos de resolucion de ODEs . . . . . . . . . . . . . . . . 1.2.7 RK vs BDF en problemas con discontinuidades . . . . . . . 1.3 Solucion de ecuaciones diferenciales ordinarias y algebraicas (DAEs) 1.4 Solucion de ecuaciones en derivadas parciales (PDEs) . . . . . . . . 1.4.1 Metodo de diferencias nitas . . . . . . . . . . . . . . . . . . 1.4.2 Metodo numerico de las l neas (NMOL) . . . . . . . . . . . . ix . . . . . . . . . . . . .

1
10 13 13 15 17 17 18 18 19 19 20 22 22

Indice

1.4.3 Metodos de residuo ponderado . . . . . . . . . . . . . . . . . . 23 1.4.4 Metodo de elementos nitos . . . . . . . . . . . . . . . . . . . 25 1.4.5 Metodos espectrales . . . . . . . . . . . . . . . . . . . . . . . . 27

2 Optimizacion estacionaria
2.1 2.2 2.3 2.4 2.5

Formulacion del problema de optimizacion no lineal (NLP) Generalidades . . . . . . . . . . . . . . . . . . . . . . . . . Condiciones de optimalidad . . . . . . . . . . . . . . . . . Manejo de restricciones . . . . . . . . . . . . . . . . . . . . Metodos de optimizacion local . . . . . . . . . . . . . . . . 2.5.1 Solucion del problema unidimensional . . . . . . . . 2.5.2 Metodos directos . . . . . . . . . . . . . . . . . . . 2.5.3 Metodos indirectos . . . . . . . . . . . . . . . . . . 2.6 Metodos de optimizacion global . . . . . . . . . . . . . . . 2.6.1 Metodos deterministas . . . . . . . . . . . . . . . . 2.6.2 Metodos estocasticos . . . . . . . . . . . . . . . . . 3.1 Formulacion matematica . . . . . . . . . 3.2 Breve revision historica . . . . . . . . . . 3.3 Metodos de optimizacion dinamica . . . 3.3.1 Programacion dinamica . . . . . 3.3.2 Principio maximo de Pontryagin . 3.3.3 Metodos directos . . . . . . . . . 3.4 Estudio comparativo . . . . . . . . . . . 3.5 Parametrizacion de control (CVP) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

29

30 31 33 35 36 37 37 38 43 45 47 52 54 55 55 56 60 62 64

3 Optimizacion dinamica

51

Nuevos metodos CVP mas e cientes y robustos


4 Metodos de segundo orden
4.1 4.2 4.3 4.4 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . Sensibilidades parametricas de primer orden . . . . . . . . Sensibilidades parametricas de segundo orden . . . . . . . Metodos de Hessiano: quasi-Newton . . . . . . . . . . . . . 4.4.1 Implementacion practica . . . . . . . . . . . . . . . 4.4.2 Aplicacion a problemas en parametros concentrados 4.4.3 Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

67
69
70 70 73 75 75 76 83

Indice

xi . 84 . 87 . 89 . 92 . 96 . 99 . 101 . 101 . 102 . 115 . 118 . 122 . 123 . 126 . 127 . 142 . 142 . 144 . 144 . 149 . 155

4.5 Metodo de Newton Truncado . . . . . . . . . . . . . . . . . . . . . 4.5.1 Implementacion practica de TNHp . . . . . . . . . . . . . . 4.5.2 Algunas particularidades acerca de la resolucion de IVPs . . 4.5.3 TNHp vs TNfd . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.4 TNHp: resolucion de problemas en parametros concentrados 4.5.5 Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6 RTNHp: Control optimo de procesos qu micos y bioqu micos . . . . 4.6.1 RTNHp: TNHp con re nado . . . . . . . . . . . . . . . . . . 4.6.2 Optimizacion dinamica de bioreactores . . . . . . . . . . . . 4.6.3 Optimizacion de procesos qu micos de dimension elevada . . 4.7 Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5 Optimizacion dinamica mediante un metodo h brido


5.1 Introduccion . . . . . . . . . . . . . . . . . . . . 5.2 Optimizacion multiobjetivo . . . . . . . . . . . 5.3 Desarrollo de un metodo h brido (HyMDO) . . 5.3.1 Seleccion del metodo estocastico . . . . . 5.3.2 Seleccion del metodo determinista local . 5.3.3 Ajuste del metodo h brido . . . . . . . . 5.4 Optimizacion dinamica con el metodo HyMDO 5.4.1 Optimizacion de procesos de una etapa . 5.4.2 Optimizacion de procesos multietapa . . 5.5 Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

121

Aplicacion a procesos distribuidos


6 Optimizacion dinamica de procesos distribuidos con TNHp
6.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . 6.1.1 Transferencia de calor . . . . . . . . . . . . . . . 6.1.2 Difusion de materia . . . . . . . . . . . . . . . . . 6.2 Metodo numerico de las l neas (NMOL) . . . . . . . . . . 6.3 Simulacion del IVP extendido para procesos distribuidos 6.3.1 Jacobiano del IVP extendido . . . . . . . . . . . . 6.3.2 Simulacion con un integrador disperso . . . . . . 6.3.3 Caso particular: Dinamica lineal en los estados . 6.4 Implementacion practica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

157
. 160 . 161 . 163 . 164 . 170 . 171 . 173 . 174 . 176

159

xii

Indice

6.5 Optimizacion dinamica de procesos distribuidos: ejemplos . . . . . 6.5.1 Control de la temperatura de una barra . . . . . . . . . . 6.5.2 Control optimo del calentamiento de un cilindro . . . . . . 6.5.3 Difusion a traves de una membrana . . . . . . . . . . . . . 6.5.4 Optimizacion de la esterilizacion de conservas de alimentos 6.6 Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . .

. 176 . 176 . 181 . 183 . 185 . 189 . 192 . 195 . 197 . 198 . 200 . 201 . 201 . 202 . 203 . 203 . 204 . 205 . 206 . 207 . 208 . 219

7 Control optimo de hornos microondas-conveccion

7.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2 Problemas del calentamiento con microondas . . . . . . . . . . . . 7.3 Modelo matematico del proceso . . . . . . . . . . . . . . . . . . . 7.3.1 Modelos de complejidad media . . . . . . . . . . . . . . . . 7.3.2 Modelos rigurosos: ecuaciones de Maxwell . . . . . . . . . 7.4 Simulacion del proceso . . . . . . . . . . . . . . . . . . . . . . . . 7.4.1 Resolucion numerica de las ecuaciones de Maxwell . . . . . 7.4.2 Resolucion numerica de la ecuacion de conduccion de calor 7.5 Problema de optimizacion dinamica . . . . . . . . . . . . . . . . . 7.5.1 Formulacion general . . . . . . . . . . . . . . . . . . . . . 7.5.2 Resolucion con TNHp . . . . . . . . . . . . . . . . . . . . 7.5.3 Problemas considerados . . . . . . . . . . . . . . . . . . . 7.6 Desarrollo de un controlador robusto . . . . . . . . . . . . . . . . 7.7 Validaciones experimentales . . . . . . . . . . . . . . . . . . . . . 7.8 Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.9 Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

191

8 Optimizacion de procesos distribuidos: modelos reducidos

8.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222 8.2 Obtencion de modelos de orden reducido para procesos distribuidos . 224 8.2.1 Expansion de Karhunen-Loeve . . . . . . . . . . . . . . . . . . 226 8.2.2 POD de un conjunto de datos . . . . . . . . . . . . . . . . . . 228 8.2.3 Proyeccion sobre el espacio reducido . . . . . . . . . . . . . . 231 8.2.4 Condiciones frontera no homogeneas . . . . . . . . . . . . . . 232 8.2.5 Presencia de terminos no lineales . . . . . . . . . . . . . . . . 233 8.2.6 Generacion del modelo reducido de forma automatica: ejemplo ilustrativo . . . . . . . . . . . . . . . . . . . . . . . . . . . 235 8.3 Aplicacion al procesamiento termico de alimentos . . . . . . . . . . . 239 8.4 Esterilizacion termica de alimentos envasados . . . . . . . . . . . . . 242

221

Indice

xiii . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244 . 246 . 248 . 255 . 257 . 259 . 262

8.4.1 Dise~o del proceso . . . . . . . . . . . . . . . . . . n 8.4.2 Optimizacion dinamica . . . . . . . . . . . . . . . . 8.4.3 Obtencion del modelo de orden reducido . . . . . . 8.4.4 Validacion del modelo de orden reducido . . . . . . 8.4.5 Resultados del problema de dise~o . . . . . . . . . n 8.4.6 Resultados del problema de optimizacion dinamica 8.5 Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . .

Conclusiones Apendices
Apendice I . Apendice II . Apendice III Apendice IV Apendice V . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

263
. 271 . 275 . 279 . 283 . 289

269

Referencias

Publicaciones resultantes de este trabajo . . . . . . . . . . . . . . . . 323

295

xiv

Indice

Indice de Tablas
1.1 Tipos de ecuaciones en derivadas parciales. . . . . . . . . . . . . . . . 21 4.1 Niveles de tolerancia de integracion y optimizacion . . . . . . . . . . 77 4.2 Resultados obtenidos con metodos tipo quasi-Newton para la optimizacion dinamica del Oscilador de van der Pol. . . . . . . . . . . . . 78 4.3 Resultados obtenidos con metodos tipo quasi-Newton para la optimizacion dinamica del problema de mezcla de catalizadores. . . . . . 80 4.4 Resultados obtenidos con metodos tipo quasi-Newton para la optimizacion dinamica del problema de Nishida. . . . . . . . . . . . . . . 82 4.5 Comparacion de integradores en la resolucion de problemas de optimizacion dinamica con el metodo TNHp. . . . . . . . . . . . . . . . 91 4.6 Resultados obtenidos para el caso del Oscilador de van der Pol con el metodo TNHp. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 4.7 Resultados obtenidos para el problema de mezcla de catalizadores con el metodo TNHp. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 4.8 Resultados obtenidos para el problema de Nishida con el metodo TNHp. 97 4.9 Resumen de resultados obtenidos por distintos metodos. . . . . . . . 100 4.10 Resultados obtenidos con el TNHp para el caso P 4.4a. . . . . . . . . 105 4.11 Resultados obtenidos con el RTNHp para el caso P 4.4a (r = 2 int toli=10;6, int tolf =10;8). . . . . . . . . . . . . . . . . . . . . . . 106 4.12 Resultados obtenidos con el TNHp para el caso P 4.4b. . . . . . . . . 106 4.13 Resultados obtenidos con el RTNHp para el caso P 4.4b (r = 2 int toli=10;6, int tolf =10;8). . . . . . . . . . . . . . . . . . . . . . . 106 4.14 Resultados obtenidos con el TNHp para el caso P 4.4c. . . . . . . . . 107 4.15 Resultados obtenidos con el RTNHp para el caso P 4.4c (r = 2 int toli=10;6, int tolf =10;8). . . . . . . . . . . . . . . . . . . . . . . 107 4.16 Tabla resumen de resultados para la optimizacion dinamica del bioreactor de Park-Ramirez. . . . . . . . . . . . . . . . . . . . . . . . . . . 108 xv

xvi

Indice de Tablas

4.17 Resultados presentados por Tholudur y Ramirez (1997) para el bioreactor de Lee-Ramirez. . . . . . . . . . . . . . . . . . . . . . . . . . . 111 4.18 Resultados obtenidos con el TNHp para el caso P 4.5a. . . . . . . . . 112 4.19 Resultados obtenidos con el RTNHp para el caso P 4.5a (r = 2 int toli=10;6, int tolf =10;8). . . . . . . . . . . . . . . . . . . . . . . 112 4.20 Resultados obtenidos con el TNHp para el caso P 4.5b. . . . . . . . . 112 4.21 Resultados obtenidos con el RTNHp para el caso P 4.5b (r = 2 int toli=10;6, int tolf =10;8). . . . . . . . . . . . . . . . . . . . . . . 113 4.22 Resultados obtenidos con el TNHp para el caso P 4.5c. . . . . . . . . 113 4.23 Resultados obtenidos con el RTNHp para el caso P 4.5c (r = 2 int toli=10;6, int tolf =10;8). . . . . . . . . . . . . . . . . . . . . . . 113 4.24 Resultados obtenidos en la optimizacion dinamica del problema del P 4.6a con el metodo TNHP. . . . . . . . . . . . . . . . . . . . . . . . 116 4.25 Resultados obtenidos con el RTNHp para el caso P 4.6a (r = 2 int toli=10;7, int tolf =10;8). . . . . . . . . . . . . . . . . . . . . . . 116 4.26 Resultados obtenidos en la optimizacion dinamica del problema del P 4.6b con el metodo TNHP. . . . . . . . . . . . . . . . . . . . . . . . 117 4.27 Resultados obtenidos con el RTNHp para el caso P 4.6b (r = 2 int toli=10;7, int tolf =10;8). . . . . . . . . . . . . . . . . . . . . . . 117 4.28 Tabla resumen de resultados para la optimizacion dinamica del CSTR.118 5.1 Resultados obtenidos para la optimizacion dinamica del proceso de pirolisis con metodos estocasticos. . . . . . . . . . . . . . . . . . . . . 130 5.2 Resultados obtenidos para la optimizacion dinamica del proceso de Denbigh con metodos estocasticos. . . . . . . . . . . . . . . . . . . . 132 5.3 Resultados obtenidos para la optimizacion dinamica del proceso de obtencion de etanol con metodos estocasticos. . . . . . . . . . . . . . 134 5.4 Resultados obtenidos para la optimizacion dinamica del proceso de obtencion de penicilina con metodos estocasticos. . . . . . . . . . . . 135 5.5 Resultados obtenidos para la optimizacion dinamica del sistema lineal con metodos estocasticos. . . . . . . . . . . . . . . . . . . . . . . . . 136 5.6 Resultados obtenidos para la optimizacion dinamica del problema del CSTR con metodos estocasticos. . . . . . . . . . . . . . . . . . . . . . 138 5.7 Resultados obtenidos para la optimizacion dinamica del problema del desplazamiento de dos farmacos con metodos estocasticos, caso P 5:7a. 139

Indice de Tablas

xvii

5.8 Resultados obtenidos para la optimizacion dinamica del problema del desplazamiento de dos farmacos con metodos estocasticos, caso P 5:7b. 139 5.9 Tabla resumen de resultados para problemas de una etapa y tiempo nal libre. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 5.10 Tabla resumen de resultados problemas de una etapa de tiempo nal m nimo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146 5.11 Resumen de resultados para el problema de la columna de destilacion. 153 5.12 Estudio del efecto de SC 2 y el punto inicial en la convergencia del metodo HyMDO. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154 6.1 6.2 6.3 6.4 6.5 Resultados de simulacion del IVP extendido para un proceso distribuido.178 Resultados obtenidos para el problema de calentamiento de una barra.180 Resultados para el problema de control de la temperatura en un cilindro.182 Resultados para el problema de difusion a traves de una membrana. . 184 Resultados obtenidos para el problema de esterilizacion con el metodo TNHp. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187

7.1 Propiedades termof sicas del cilindro de patata. . . . . . . . . . . . . 208 7.2 Resultados obtenidos para el calentamiento optimo de una patata. . . 210 8.1 Parametros del problema de esterilizacion de pate de cerdo. . . . . . . 244

xviii

Indice de Tablas

Indice de Figuras
1 2 Clasi cacion de los subsectores de la industria de procesos. . . . . . . 3 Esquema de objetivos y aplicaciones de la ingenier a de procesos. . . . 5 1.1 Esquema gra co del desarrollo de una ecuacion de balance. . . . . . . 10 1.2 Estudio de estabilidad y precision del metodo de Euler: solucion segun el metodo de Euler (l nea discontinua) vs solucion real (l nea continua). 15 1.3 Comparacion metodo de diferencias nitas y elementos nitos. . . . . 26 3.1 Parametrizacion de control. . . . . . . . . . . . . . . . . . . . . . . . 65 3.2 Esquema de resolucion del problema de optimizacion dinamica mediante parametrizacion de control, seguido en este trabajo. . . . . . . 66 4.1 Oscilador de van der Pol: Per l de control optimo obtenido con un metodo quasi-Newton y variables de estado correspondientes. . . . . . 4.2 Mezcla de catalizadores: Per l de control optimo obtenido con un metodo quasi-Newton y variables de estado correspondientes. . . . . . 4.3 Problema de Nishida: Per l de control optimo obtenido con un metodo quasi-Newton y variables de estado correspondientes. . . . . . . . . . 4.4 Diagrama de ujo del metodo de Newton Truncado. . . . . . . . . . . 4.5 Implementacion practica de los metodos de segundo orden. . . . . . . 4.6 Estudio comparativo de las curvas de convergencia de los metodos TNHp y TNfd para la resolucion del problema CSTR (tomando como referencia J = 21:812). . . . . . . . . . . . . . . . . . . . . . . . . . . 4.7 Estudio comparativo de las curvas de convergencia de los metodos TNHp y TNfd para la resolucion el problema del oscilador de van der Pol (tomando como referencia J = 2:8673). . . . . . . . . . . . . . . 4.8 Comparacion de pol ticas optimas de operacion obtenidas con TNHp y TNfd para la resolucion del problema de mezcla de catalizadores. . 4.9 Pol tica de operacion ( = 100) para el caso de mezcla de catalizadores segun Dolan y More (2001). . . . . . . . . . . . . . . . . . . . . . . . xix 79 81 83 86 88 93 94 95 96

xx

Indice de Figuras

4.10 Pol tica de operacion optima para el caso P 4.1 ( = 500, J = 2:86728). 98 4.11 Pol tica de operacion optima para el problema P 4.2 ( = 150, J = 0:0480556). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 4.12 Pol tica de operacion optima para el problema P 4.3 ( = 150, J = 1:00891). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 4.13 Pol ticas de operacion optimas para los casos P 4.4a ( = 120, J = 93:441), P 4.4b ( = 120, J = 32:663) y P 4.4c ( = 120, J = 32:467) respectivamente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 4.14 Pol ticas de operacion optimas para los casos P 4.5a ( = 120, J = 6:1516), P 4.5b ( = 120, J = 5:75711) y P 4.5c ( = 120, J = 5:56789) respectivamente. . . . . . . . . . . . . . . . . . . . . . . . . 114 4.15 Pol ticas de operacion optima para el problema P 4.6a ( = 120, J = 20:0955). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 4.16 Pol ticas de operacion optima para el problema P 4.6b ( = 66, J = 21:8167). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 5.1 Ejemplo ilustrativo de la de nicion de puntos no dominantes o Pareto optimal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124 5.2 Comportamiento t pico de un metodo determinista local, uno estocastico y un h brido en la resolucion de un problema unidimensional multimodal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126 5.3 Curva Pareto para el proceso de pirolisis. . . . . . . . . . . . . . . . . 131 5.4 Curvas de convergencia de los metodos estocasticos en la resolucion de problemas P 5:1 a P 5:7b. . . . . . . . . . . . . . . . . . . . . . . . 141 5.5 Comportamiento t pico del metodo h brido. . . . . . . . . . . . . . . 143 5.6 Ajuste del metodo h brido para la resolucion del problema de obtencion de penicilina. . . . . . . . . . . . . . . . . . . . . . . . . . . . 144 5.7 Per les de control optimo y estados correspondientes para los problemas de tiempo nal libre (P 5:1-P 5:4). . . . . . . . . . . . . . . . . . 147 5.8 Per les de control optimo y estados correspondientes para los problemas de tiempo nal m nimo (P 5:5-P 5:7b). . . . . . . . . . . . . . . . 148 5.9 Esquema de operacion de un proceso multietapa. . . . . . . . . . . . 149 5.10 Esquema de una columna de destilacion. . . . . . . . . . . . . . . . . 151 5.11 Comportamiento t pico del metodo HyMDO: Valor objetivo frente a las tolerancias SC 1 y SC 2. . . . . . . . . . . . . . . . . . . . . . . . . 154

Indice de Figuras

xxi

5.12 Per l de control y fraccion molar de los componentes principales (1 y 6) correspondientes, para el problema de destilacion. . . . . . . . . . 155 6.1 Esquema de resolucion del problema de optimizacion dinamica mediante metodos CVP. . . . . . . . . . . . . . . . . . . . . . . . . . . . 165 6.2 Esquema de aplicacion del metodo NMOL para un problema unidimensional. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166 6.3 Estructura basica del Jacobiano de los sistemas de ODEs obtenidos de aplicar NMOL (casos 1D y 2D). . . . . . . . . . . . . . . . . . . . 170 6.4 Comportamiento de LSODES en la simulacion de sistemas distribuidos con sensibilidades. . . . . . . . . . . . . . . . . . . . . . . . . . . 179 6.5 Per l de control y distribucion de temperaturas en el proceso de calentamiento de una barra ( = 320, J = 4:4 10;5). . . . . . . . . . . 180 6.6 Per l de control para el calentamiento de una barra unidimensional obtenido con gOPT ( = 80). . . . . . . . . . . . . . . . . . . . . . . 180 6.7 Aplicacion del metodo NMOL a la simulacion del problema de calentamiento de un cilindro. . . . . . . . . . . . . . . . . . . . . . . . . . 182 6.8 Per l de control y distribucion de temperaturas en el proceso de calentamiento de un cilindro ( = 40, J = 3:73 104). . . . . . . . . . . 182 6.9 Esquema del proceso de difusion a traves de una membrana. . . . . . 183 6.10 Per l de control y distribucion de concentraciones correspondiente en el problema de difusion a traves de una membrana. . . . . . . . . . . 185 6.11 Per l de control optimo para el problema de esterilizacion obtenido con TNHp, = 14, J = 0:4713. . . . . . . . . . . . . . . . . . . . . . 188 6.12 Distribucion de temperaturas a tiempo nal para el problema de esterilizacion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188 6.13 Distribucion de retencion de nutrientes a tiempo nal para el problema de esterilizacion. . . . . . . . . . . . . . . . . . . . . . . . . . . 188 7.1 Espectro electromagnetico. . . . . . . . . . . . . . . . . . . . . . . . . 192 7.2 Esquema basico de un horno microondas. . . . . . . . . . . . . . . . . 193 7.3 Ejemplo de distribucion de potencia en el interior del horno (plano vertical). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194 7.4 Distribucion real de temperaturas en los planos medios de un cilindro y un paralelep pedo: calentamiento solo con microondas. . . . . . . . 195 7.5 Distribucion real de temperaturas en los planos medios de un cilindro y un paralelep pedo: calentamiento solo por conveccion forzada. . . . 196

xxii

Indice de Figuras

7.6 Pantalla t pica mostrando la temperatura dentro del horno, la potencia del microondas y la potencia de la conveccion forzada. . . . . . . . 207 7.7 Situacion de los alimentos en el interior del horno. Seleccion de planos medios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208 7.8 Curva Pareto para el calentamiento de un cilindro de patata P 7:1. . . 209 7.9 Comparacion de tiempos de calculo de los distintos metodos para el problema P 7:1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209 7.10 Per les de control y distribucion nal de temperaturas para el caso del calentamiento de un cilindro de patata. . . . . . . . . . . . . . . . 211 7.11 Per les de control y temperaturas maxima y m nima para el calentamiento de un cilindro de gel TX-151 (tf = 600s). . . . . . . . . . . . 212 7.12 Distribucion real de temperaturas en el plano medio de un cilindro: calentamiento mixto optimo. . . . . . . . . . . . . . . . . . . . . . . . 212 7.13 Per les de control optimos para el calentamiento de un paralelep pedo, modelo lineal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213 7.14 Distribucion de temperaturas en el interior de un paralelep pedo a tiempo nal, modelo lineal. . . . . . . . . . . . . . . . . . . . . . . . . 213 7.15 Malla utilizada para la simulacion del calentamiento de un paralelep pedo, caso no lineal. Cortes a de N. Scheerlinck, Univ. de Lovaina. . . . . . 215 7.16 Curvas de convergencia del metodo ICRS/DS en la solucion del problema P 7:5. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215 7.17 Per les de control optimos para el calentamiento de un paralelep pedo, modelo no lineal. . . . . . . . . . . . . . . . . . . . . . . . . . . . 216 7.18 Distribucion de temperaturas en el interior de un paralelep pedo a tiempo nal: calentamiento mixto optimo. . . . . . . . . . . . . . . . 216 7.19 Distribucion de temperaturas en el plano medio de un paralelep pedo: calentamiento mixto optimo. . . . . . . . . . . . . . . . . . . . . . . . 217 7.20 Distribucion real de temperaturas en el plano medio de un paralelep pedo: calentamiento mixto optimo. . . . . . . . . . . . . . . . . . . 217 7.21 Per l optimo de calentamiento de un paralelep pedo: solo conveccion. 218 7.22 Distribucion de temperaturas en el interior de un paralelep pedo a tiempo nal, solo conveccion (modelo nolineal). . . . . . . . . . . . . 218 7.23 Distribucion real de temperaturas en el plano medio de un paralelep pedo: calentamiento solo conveccion optimo. . . . . . . . . . . . . . 218 8.1 Evolucion de un sistema dinamico disipativo. . . . . . . . . . . . . . . 226

Indice de Figuras

xxiii

8.2 Resultado t pico de la simulacion de la variable transformada ! en el caso del calentamiento de una esfera. Estos snapshots seran utilizados para la generacion del modelo reducido. . . . . . . . . . . . . . . . . 237 8.3 Energ a capturada por las primeras autofunciones emp ricas en el problema de calentamiento de una esfera. . . . . . . . . . . . . . . . . 237 8.4 Cuatro primeras autofunciones emp ricas para el caso del calentamiento de una esfera. . . . . . . . . . . . . . . . . . . . . . . . . . . 238 8.5 Comparacion de los modelos nominal (l neas) y reducido (s mbolos) en la simulacion del proceso de calentamiento de una esfera. . . . . . 239 8.6 Per l de temperatura t pico (CRT) durante un proceso de esterilizacion.245 8.7 Snapshots t picos para la variable ! en el problema de esterilizacion. 249 8.8 Snapshots t picos para la variable en el problema de esterilizacion. 249 8.9 Snapshots t picos para la variable lnCN en el problema de esterilizacion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250 8.10 Energ a capturada por las primeras autofunciones emp ricas en el problema de esterilizacion de alimentos. . . . . . . . . . . . . . . . . 250 8.11 Autofunciones emp ricas para la descripcion de la variable ! en el problema de esterilizacion. . . . . . . . . . . . . . . . . . . . . . . . . 251 8.12 Autofunciones emp ricas para la descripcion de la variable en el problema de esterilizacion. . . . . . . . . . . . . . . . . . . . . . . . 252 8.13 Autofunciones emp ricas para la descripcion de la variable lnCN en el problema de esterilizacion. . . . . . . . . . . . . . . . . . . . . . . 253 8.14 Comparacion de los modelos nominal (l neas) y reducido (s mbolos): simulacion de la distribucion de temperaturas en el proceso de esterilizacion (se muestran las T en varios puntos del alimento). . . . . . 256 8.15 Comparacion de los modelos nominal (l nea) y reducido (s mbolo): simulacion de la letalidad en el punto cr tico. . . . . . . . . . . . . . 256 8.16 Comparacion de los modelos nominal (l nea) y reducido (s mbolo): simulacion de la retencion volumica media de nutrientes. . . . . . . . 256 8.17 Resultados obtenidos con el modelos reducido para el problema de dise~o del proceso de esterilizacion: retencion de nutrientes. . . . . . 258 n 8.18 Resultados obtenidos con el modelos reducido para el problema de dise~o del proceso de esterilizacion: tiempo de calentamiento. . . . . 258 n 8.19 Per l de control optimo y temperatura en el punto cr tico para el proceso de esterilizacion de alimentos. Resultados obtenidos con el modelo reducido. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260

xxiv

Indice de Figuras

8.20 Evolucion temporal de la retencion volumica media de nutrientes correspondiente a la pol tica optima de operacion. . . . . . . . . . . . . 260 8.21 Evolucion temporal de la letalidad en el punto cr tico correspondiente a la pol tica optima de operacion. . . . . . . . . . . . . . . . . . . . 260 8.22 Comparacion de las curvas de convergencia de la optimizacion del proceso de esterilizacion utilizando el modelo nominal y el modelo reducido. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261

Notacion
Abreviaturas
BDF CG CP CVP DAEs FE HyMDO IDP int tol IVP KKT K-L Mt ncg nf ng nh ni NLP NMOL nnz NRO Nv ODEs opt tol Metodo de integracion que hace uso de la backward di erentiation formula Metodo de gradiente conjugado Metodo de parametrizacion total Metodo de parametrizacion de control Ecuaciones diferenciales ordinarias y algebraicas Metodo de elementos nitos Metodo h brido estocastico-determinista para optimizacion dinamica Metodo de programacion dinamica iterativa Tolerancia de integracion Problema de valor inicial Condiciones de optimalidad de Karush-Kunh-Tucker Expansion de Karhunen-Loeve Metodo de optimizacion Numero de iteraciones del metodo de gradiente conjugado Numero de evaluaciones de la funcion objetivo Numero de evaluaciones del gradiente Numero de evaluaciones del Hessiano Numero de iteraciones que realiza el metodo de optimizacion Problema de optimizacion no lineal Metodo numerico de las l neas Numero de elementos no nulos de una matriz Numero de iteraciones de re nado Nivel de tolerancias de optimizacion e integracion Ecuaciones diferenciales ordinarias Tolerancia de optimizacion

En esta seccion solo se incluye una relacion de las abreviaturas y s mbolos mas utilizados a lo largo de esta memoria.

xxv

xxvi PDAEs PDEs POD qN RK y RKF RTNHp

Notacion

SC 1 y SC 2
SQP Tcpu TN TNFd TNHp

Ecuaciones en derivadas parciales, diferenciales ordinarias y algebraicas Ecuaciones en derivadas parciales Proper orthogonal decomposition Metodo quasi-Newton Metodos de integracion Runge-Kutta y Runge-KuttaFehlberg Metodo de Newton truncado con re namiento para optimizacion dinamica Tolerancias de optimizacion para los metodos estocastico y determinista respectivamente Metodo de programacion cuadratica secuencial Tiempo de computacion Metodo de Newton truncado Metodo de Newton truncado con calculo para optimizacion dinamica (diferencias nitas) Metodo de Newton truncado para optimizacion dinamica (exacto)

S mbolos
ai

dk f F1 , F2 , F3 g h H
J J0 Jtot

ceq

cin

L n

p req y rin R s

t, t0 y tf

Coe cientes temporales modelos de orden reducido Vector de restricciones de camino de igualdad y desigualdad Vector que depende de la direccion de busqueda Vector de ecuaciones diferenciales ordinarias Condiciones frontera de primer, segundo y tercer orden Vector de restricciones algebraicas de desigualdad Vector de restricciones algebraicas de igualdad Hessiano de la funcion objetivo con respecto a las variables de decision Funcion objetivo Valor de la funcion objetivo correspondiente al vector v0 Funcion objetivo total en problemas multiobjetivo Jacobiano de un conjunto de ODEs Lagrangiano Dimension del vector de ecuaciones diferenciales ordinarias Vector de direcciones conjugadas Vector de restricciones puntuales de igualdad y desigualdad Matriz de correlacion Direccion de busqueda Tiempo, tiempo inicial y tiempo nal

Notacion

xxvii

u uL y uU v v0 , v k y v w wL y wU x x yx xt y _ y z _ z z0
E

x ~

Vector de variables de control L mites inferior y superior para las variables de control Vector de variables de decision Vector inicial, intermedio y nal en la solucion del problema de optimizacion Vector de parametros independientes del tiempo L mites inferior y superior para los parametros independientes del tiempo Solucion aproximada de una ecuacion en derivadas parciales Vector de variables de estado distribuidas Primera y segunda derivadas espaciales del vector de variables x Derivada parcial con respecto al tiempo de las variables distribuidas Vector de variables de estado no distribuidas Derivada con respecto al tiempo de las variables no distribuidas Vector de variables dependientes del tiempo Derivada temporal de las variables z Vector de condiciones iniciales Dimension del vector de restricciones de igualdad Vector de ecuaciones en derivadas parciales, ordinarias y algebraicas Vector de condiciones iniciales Hamiltoniano del sistema Dimension del vector de restricciones de desigualdad Nucleo de una ecuacion integral lineal Operador espacial lineal Residuo en los metodos de residuo ponderado Dimension del vector de parametros independientes del tiempo Operador espacial general Vector de autovalores Multiplicadores de Lagrange Nivel de discretizacion espacial en los metodos NMOL y FE Nivel de discretizacion de control Dimension del vector de variables de decision Dimension del vector de variables de control Vectores de funciones espaciales Dominio espacial de de nicion del proceso Vector de coordenadas espaciales

F F0
H I K L R

~
',

xxviii

Notacion

Introduccion

Industria e ingenier a de procesos


La industria de procesos se dedica a la transformacion de recursos naturales (materias primas) en productos de utilidad, mediante operaciones que implican cambios f sicos y/o qu micos y que estan reguladas por los principios fundamentales de conservacion de masa, momento y energ a. Un proceso consta de una o varias de estas operaciones. Este sector industrial cuenta con un alto nivel de diversi cacion, rami candose en diversos subsectores segun el tipo de materias primas con las que operan o el tipo de productos que obtienen. En la gura 1 se representa gra camente una posible clasi cacion de los distintos subsectores, aunque las multiples interacciones entre unos y otros no permiten establecer unas fronteras claras.

Industria de procesos Qumica Bsica


Especialidades

Agroalimentaria Biotecnolgica Farmacutica

Bioqumica

Figura 1: Clasi cacion de los subsectores de la industria de procesos. Por ejemplo, en la industria alimentaria son frecuentes los procesos de fermentacion (fabricacion de quesos, yogures etc.) que tambien se usan, con otros nes, en la industria biotecnologica (p. ej. obtencion de antibioticos). Igualmente, algunos procesos de preservacion de alimentos que se llevan a cabo en la industria agroalimentaria hacen uso de productos qu micos organicos o inorganicos generados por la industria qu mica. Por otro lado, existen multitud de operaciones comunes en los subsectores biotecnologico y alimentario: esterilizacion, centrifugacion, cromatograf a, dialisis, etc.

4 En terminos generales, la industria qu mica basica se encarga de la produccion de productos destinados principalmente a otras industrias de transformacion (acidos, bases, sales organicas e inorganicas, etc.), mientras que la qu mica de especialidades se dedica a la obtencion de productos tales como papel, carburantes, pinturas, tintes, pol meros y otros productos de alto valor a~adido (perfumes, cosmeticos, etc.). La n industria agroalimentaria se dedica a la transformacion de materias primas de origen vegetal y/o animal en nuevos alimentos y a su tratamiento con el n de transformarlos en productos con la calidad requerida para su consumo. Por ultimo, la industria biotecnologica y bioqu mica, incluye todo tipo de procesos que hacen uso o guardan relacion con sistemas biologicos, y se dedican, por ejemplo, a la elaboracion de farmacos, algunos aditivos alimentarios, etc. Las mayores exigencias del mercado, tanto en calidad como en cantidad de producto, la mayor demanda de exibilidad operacional, el aumento del coste de la energ a y la incorporacion de legislaciones y regulaciones que exigen mayor proteccion del medio ambiente, son algunos de los factores que han llevado a la industria de procesos a realizar grandes inversiones en investigacion con el n de minimizar costes, disminuir el impacto ambiental y aumentar la e ciencia energetica. La ingenier a de procesos persigue la consecucion de estos objetivos mediante la aplicacion de tecnicas sistematicas, asistida por ordenadores, para el estudio completo de procesos, incluyendo su control y seguridad, la proteccion del medio ambiente y el uso e ciente de la energ a, desde los puntos de vista de desarrollo, dise~o n y operacion (Bogle, 2000). En la gura 2, se resumen las necesidades fundamentales de la industria de procesos as como las distintas herramientas de la ingenier a de procesos que contribuiran a cubrir dichas necesidades.

Modelado y simulacion de procesos


Tradicionalmente, los ingenieros de procesos hac an uso de la intuicion y la experiencia de muchos a~os para modi car ciertos aspectos de sus plantas y encontrar n unas condiciones de operacion, probablemente no optimas, pero si adecuadas para los objetivos mas inmediatos de la empresa. Sin embargo, la complejidad y variedad de los procesos ha crecido de manera sorprendente en las ultimas decadas y cualquier intento de mejorar el rendimiento de un proceso en algun sentido requiere explorar con precision el espacio de condiciones de operacion o la viabilidad de nuevas alternativas. Para ello, sera necesario un mecanismo de representacion del proceso que caracterice los aspectos mas relevantes de su comportamiento y que sea ademas lo su cientemente preciso para

Flexibilidad de planta Mayor cantidad y mayor calidad

Reduccin consumo energa

Reduccin impacto ambiental Nuevos productos

Ingeniera de procesos

Desarrollo nuevos modelos Simulacin Anlisis Planificacin

Control robusto Optimizacin Monitorizacin Diagnstico

Figura 2: Esquema de objetivos y aplicaciones de la ingenier a de procesos. las aplicaciones de interes (Aris, 1993). Estos mecanismos de representacion son los modelos matematicos que, en general, se basan en las leyes f sicas de conservacion de masa, energ a y momento y en las ecuaciones constitutivas asociadas a transformaciones cineticas y propiedades f sicas. La mayor a de los procesos de los sectores biotecnologico y alimentario, de interes en esta tesis, transcurren en modo discontinuo (por lotes, o en batch) o semicontinuo, permitiendo la obtencion de productos de alto valor a~adido, y de varios productos n en una unica planta (plantas multiproposito). Los procesos discontinuos son inherentemente dinamicos y, por lo tanto, sus modelos matematicos estan formados por sistemas de ecuaciones algebraicas y diferenciales ordinarias (DAEs) (Pantelides et al., 1988). Sin embargo, muchos procesos qu micos y bioqu micos tienen ademas un caracter distribuido, esto es, al menos algunas de sus variables de estado estan distribuidas de forma espacial (Silebi y Schiesser, 1992 Aris, 1993 Oh, 1995) de manera que no solo dependen del tiempo sino que, ademas, dependen de la posicion y, por lo tanto, estan descritos, en general, por conjuntos de ecuaciones diferenciales ordinarias, ecuaciones en derivadas parciales y ecuaciones algebraicas (PDAEs). Dentro de este ultimo grupo se incluyen muchos de los procesos relacionados con la tecnolog a de alimentos (Singh y Heldman, 1993), y en particular con tecnicas

6 de preservacion basadas en el procesamiento termico, objeto de particular atencion en esta tesis. Por ultimo, en este tipo de procesos es habitual la presencia de discontinuidades (p.ej., eventos discretos), por lo que se han desarrollado modelos denominados h bridos, que combinan cualquiera de los modelos dinamicos anteriores con dichas discontinuidades (Barton y Pantelides, 1994). Estos modelos matematicos suelen ser muy complejos y en la mayor a de los casos no sera posible encontrar soluciones anal ticas, lo que ha motivado el desarrollo de herramientas informaticas adecuadas para su resolucion numerica (simulacion). En este sentido, han sido muchos los metodos numericos que se han desarrollado tanto para la resolucion de DAEs (Lioen y Swart, 1999) como para la resolucion de sistemas mas complejos descritos por PDAEs y sistemas h bridos (Schiesser, 1994 Ascher y Petzold, 1998 Langtangen, 1999). En la actualidad se dispone ademas de diversas herramientas de desarrollo de modelos y simulacion de procesos dinamicos con entornos amigables para el usuario (Jensen y Gani, 1998). Algunas permiten la simulacion de procesos distribuidos poco complicados a partir de la transformacion de PDAEs en DAEs mediante el uso de distintas tecnicas de discretizacion, destacando gPROMS (PSE Ltd., Londres, Reino Unido) y ACM (Aspen Custom Modeler, Aspentech, Cambridge, Ma, USA). La evolucion de estas herramientas a entornos cada vez mas so sticados que incluyan librer as de operaciones basicas de las industrias biotecnologica y alimentaria, as como nuevas metodolog as de simulacion mas e ciente de procesos distribuidos, permitiendo la generacion automatica de modelos de orden reducido, contribuiran al mejor desarrollo y comprension de los procesos.

Optimizacion y control
La simulacion de procesos no es un n en s misma, sino que se dedica habitualmente a la optimizacion de algun aspecto del dise~o o la operacion del proceso. En terminos n generales optimizar consiste en calcular los valores de ciertas variables de decision con el n de maximizar o minimizar una cierta funcion (o funcional), cumpliendo un conjunto de restricciones. En el contexto de procesos, las variables de decision incluyen distintos parametros relacionados con el dise~o del proceso y/o variables que representan acciones ejercin das desde el exterior (controles). En cuanto a los objetivos, estos dependeran del tipo de problema de optimizacion a resolver, pudiendo estar relacionado con el dise~o, la n con guracion o la operacion del proceso (Biegler et al., 1997). Estos objetivos estan relacionados, en general, con la minimizacion de la energ a consumida, del coste de

7 produccion, del tiempo de proceso o bien con la maximizacion de la cantidad y/o calidad de producto. Recientemente, se han dedicado grandes esfuerzos a la resolucion de problemas que simultanean todos estos objetivos. Estos son los llamados problemas de s ntesis (Grossmann et al., 1999 Lin y Floudas, 2000), que en el caso de procesos en estado estacionario resultan en problemas de optimizacion no lineal que incluyen variables enteras y reales (Mixed Integer Non Linear Programming, MINLP). La optimizacion de la operacion de procesos dinamicos requiere el calculo de las pol ticas optimas de operacion (variables de control del proceso) con el n de minimizar (o maximizar) un cierto funcional. La busqueda en este caso se hace en espacios de funciones, lo que implica un grado de complejidad superior. Aunque originalmente su solucion pertenece al campo del analisis variacional, la di cultad derivada del caracter no lineal de la mayor a de los procesos de interes, y sobre todo de la presencia de restricciones (San y Stephanopoulos, 1989 Cuthrell y Biegler, 1989 Banga y Seider, 1996) han llevado al desarrollo de tecnicas alternativas basadas en la parametrizacion de los estados y/o del control, transformando as el problema original en un problema de programacion no lineal (NLP). Por ultimo, el proceso debe dotarse de esquemas de regulacion y control capaces de cancelar los efectos negativos que, sobre la operacion, puedan tener posibles perturbaciones u otras eventualidades tales como fallos inesperados o escenarios de puesta en marcha o parada, garantizando el cumplimiento de los objetivos marcados. El control de procesos es una tarea compleja, ya que se enfrenta al problema de la falta de instrumentacion adecuada que permita obtener datos en l nea acerca del estado de sistema. Sera necesario pues el uso de tecnicas de identi cacion y estimacion que permitan predecir el estado del sistema a partir de un numero, generalmente limitado, de medidas. De esta forma, un controlador puede de nirse como un dispositivo que invirtiendo la dinamica de la planta, determina e implementa la cantidad de accion necesaria para devolver los estados relevantes del proceso a los valores de nidos por la consigna. Esta consigna correspondera al estado calculado a traves de la resolucion de un problema de optimizacion dinamica.

Motivacion
La optimizacion de procesos constituye un area de investigacion muy activa, como lo prueba la enorme cantidad de trabajos publicados en las ultimas decadas. Tres han sido los enfoques principales (Biegler, 2000) adoptados por los distintos investigadores:

8 El puramente matematico, que se centra en el estudio teorico de la optimizacion (condiciones de optimalidad, existencia de soluciones, etc.). El del analisis numerico que se orienta al desarrollo e implementacion de nuevos metodos de optimizacion e cientes. El mas practico (ingenieril), orientado a la resolucion robusta y able de problemas reales. Esta tesis se enmarca en un punto intermedio entre el enfoque numerico y practico, centrandose en el estudio y desarrollo de nuevas alternativas para la optimizacion dinamica de procesos distribuidos, y en su aplicacion a casos de interes industrial, en especial de las areas biotecnologica y alimentaria. En los ultimos a~os se han presentado una gran variedad de metodos, cada vez n mas e cientes y robustos, con el n ultimo de utilizarlos en aplicaciones en tiempo real. Sin embargo, el estado actual en el contexto de sistemas dinamicos distribuidos tiene todav a muchas carencias, originadas por: El uso de metodos de optimizacion poco e cientes, en el sentido de que requieren un elevado numero de evaluaciones de la funcion objetivo (es decir, de simulaciones) para alcanzar una solucion. El uso de metodos de simulacion que, en aras de la precision, implican un elevado coste computacional para cada evaluacion. Este trabajo se centrara pues en la mejora del rendimiento y robustez del proceso de optimizacion, desarrollando metodos alternativos que intenten reducir estas dos di cultades: por una parte, presentando nuevas estrategias de optimizacion, tanto locales como globales, mas e cientes y robustas y, por otra, desarrollando metodos mas e cientes de simulacion de procesos distribuidos.

Cap tulo 1 Modelado y simulacion dinamica de procesos

El modelo matematico de un proceso consiste en un conjunto de ecuaciones (tanto las derivadas de leyes f sicas de conservacion como las de tipo constitutivo) con el que pretende imitar el comportamiento de dicho proceso. En este cap tulo se presentan los aspectos mas relevantes del desarrollo de modelos dinamicos para el caso general de procesos distribuidos. Estos modelos estan formados por sistemas de ecuaciones en derivadas parciales, diferenciales ordinarias y algebraicas (PDAEs) cuya solucion e ciente sera de vital importancia para el posterior calculo de las pol ticas optimas de operacion. Sin embargo, la solucion de PDAEs requiere, en la mayor a de los casos, el uso de tecnicas numericas que, como se vera, consisten en transformar las PDEs en un sistema de ODEs o DAEs, que se podra resolver utilizando una herramienta de integracion adecuada. Es por ello que, para comenzar, se revisan los metodos mas relevantes para la resolucion de ODEs y DAEs, para nalizar con un repaso de las tecnicas mas habituales para la resolucion numerica de PDEs. 9

10

Cap tulo 1. Modelado y simulacion dinamica de procesos

1.1 Desarrollo y tipos de modelos


Los modelos matematicos surgen de la necesidad de imitar de alguna manera el comportamiento de procesos bajo un numero su cientemente elevado de condiciones (Aris, 1993). Para la construccion de un modelo se necesita tener un conocimiento detallado tanto de cada una de las partes individuales que forman el sistema como de las interacciones existentes entre ellas, aproximandose tanto mas el modelo a la realidad cuanto mas detallado sea dicho conocimiento. Sin embargo, en muchos casos, para que un modelo sea manejable es necesario renunciar a algunos elementos que componen el sistema y/o a algunas de las interrelaciones entre ellos. Aunque son frecuentes los llamados modelos emp ricos que, en general, suponen la aproximacion del comportamiento del sistema a partir de datos experimentales y regresiones que relacionan las distintas variables del sistema entre s , la mayor a de los modelos se basan en las leyes f sicas de conservacion de masa, energ a y momento. La mayor parte de las ecuaciones constituyen, pues, balances de alguna entidad que se crea o se destruye durante el proceso. En la gura 1.1 (adaptacion del original por Jensen y Gani, 1998), se presenta un esquema gra co del desarrollo de una ecuacion de balance de cualquiera de las entidades masa, momento o energ a.
Volumen de control

Acumulacin Elemento de volumen Entrada Salida

Generacin

Figura 1.1: Esquema gra co del desarrollo de una ecuacion de balance.

1.1. Desarrollo y tipos de modelos

11

La forma generica de las ecuaciones resultantes sera: Acumulacion= Flujo entrada - Flujo salida + Generacion donde la generacion puede ser de tipo interno o externo, via por ejemplo reactiva en el primer caso, o debido a la presencia de campos externos, tales como electrico, magnetico o gravitatorio, en el segundo. Los parametros de los modelos se calculan, habitualmente, a partir de datos experimentales. Sin embargo, en muchas ocasiones no es posible medir las habitualmente llamadas magnitudes fundamentales, por lo que se usan otras alternativas que nos permiten determinar las primeras. As , la masa, energ a y momento se pueden caracterizar mediante la densidad, concentracion, temperatura, presion y velocidad de ujo, que se pueden medir con mas facilidad. Las relaciones entre unas y otras vendran dadas por las ecuaciones constitutivas del medio. Estas ecuaciones constitutivas seran de tipo termodinamico, tales como equilibrio de fases, ecuaciones de estado, cineticas etc. Los modelos de los procesos qu micos concentrados en regimen transitorio estaran formados por sistemas mixtos de ecuaciones algebraicas y diferenciales ordinarias (DAEs) (Pantelides et al., 1988). Los sistemas de DAEs se pueden clasi car segun el ndice, es decir, el numero de veces que hay que derivar un sistema de DAEs para que se convierta en un sistema de ODEs. Los sistemas de ndice 1 se comportan de manera similar a los sistemas de ODEs y se pueden resolver utilizando metodolog as parecidas. Los sistemas de ndice superior aunque menos frecuentes en la practica, s aparecen en algunos casos (Pantelides et al., 1988) lo que ha llevado a que en los ultimos a~os se hayan desarrollado tecnicas de reduccion de ndice (Jarvis, 1993 y n Feehery, 1998) que permiten considerar este tipo de sistemas de forma mas sencilla. Cuando las variables del proceso no solo dependen del tiempo, sino que ademas dependen de la posicion, es necesario aplicar los balances microscopicos en todo el dominio de de cinicion. Surgen, entonces, ecuaciones en derivadas parciales, muchas veces combinadas con DAEs, constituyendo sistemas de PDAEs.

Formulacion matematica de un modelo


La formulacion matematica general de estos modelos es como sigue: (1.1) donde x e y son los vectores de variables de estado, es decir, aquellas que surgen en los terminos de acumulacion de los balances y nos indican el estado del sistema. Las _ F (x x x xt y y t) = 0

12

Cap tulo 1. Modelado y simulacion dinamica de procesos

primeras son distribuidas, es decir, dependen tanto del tiempo como de la posicion ( ) y las segundas solo dependen del tiempo. Por otra parte x = @ x=@ , x = _ @ 2 x=@ 2 , xt = @ x=@t, y = dy=dt. Para garantizar la existencia de una solucion al sistema 1.1, es necesario imponer condiciones iniciales y condiciones frontera de la forma: Condiciones iniciales: F 0(x(t0 ) y(t0) t0) = 0 (1.2) Condiciones frontera: De primer orden, tambien llamadas de Dirichlet:

x( t) = F1 ( t)
De segundo orden, o de Neumann:

(1.3)

xn ( t) = F2 ( t)
De orden mixto o de Robin:

(1.4)

f1 ( )x( t) + f2( )xn( t) = F3 ( t)

(1.5)

donde n es el vector normal a la super cie. La solucion anal tica de este sistema es posible unicamente en un numero muy reducido de problemas. En general los problemas distribuidos que se consideraran en este trabajo estan relacionados con el procesamiento termico de alimentos. Desafortunadamente los modelos de estos procesos son muy no lineales (Fryer, 1994 Verboven et al., 1997) y la solucion anal tica queda descartada. Muchos investigadores se han dedicado al desarrollo de tecnicas e cientes que nos permitan su resolucion numerica. En los libros de Schiesser (1994) y Langtangen (1999) se examinan algunas de las metodolog as mas utilizadas para el caso particular de problemas relacionados con el procesamiento termico, Jaluria y Torrance (1986) y Chandra y Singh (1995) hacen un estudio de la aplicacion de distintos metodos.

1.2. Solucion de ecuaciones diferenciales ordinarias (ODEs)

13

1.2 Solucion de ecuaciones diferenciales ordinarias (ODEs)


Para comenzar, se considera la solucion de sistemas de ecuaciones diferenciales ordinarias, ya que, ademas de constituir una parte muy importante de los modelos de procesos qu micos, son, en muchas ocasiones, la base de la resolucion numerica de sistemas de ecuaciones en derivadas parciales. El objetivo sera resolver sistemas de ecuaciones de la forma: _ z = f (z t) t t0 tf ] z(t0 ) = z0
2

(1.6)

_ con z z z0 2 R n. Integrando ambos lados de la ecuacion resulta:

z = z0 +

Z tf
t0

f (z t)dt

(1.7)

En general, todos los metodos de resolucion numerica de ODEs se basan en la idea de resolver numericamente la integral en la ec. (1.7). Para ello se divide el eje temporal en un numero de intervalos nt de duracion t y se calculan los valores de las variables dependientes en un intervalo dado, en funcion de sus valores en intervalos adyacentes. Las condiciones iniciales impuestas al sistema constituyen el punto de partida de todos los metodos. El valor de t controla, de alguna manera, la precision del resultado, es decir, el error cometido en relacion a la solucion anal tica, si existiese, del problema. Sin embargo, tan importante como la precision es la estabilidad del metodo, que como se vera, es un factor de vital importancia en la resolucion de los llamados problemas r gidos (sti ), caracterizados por tener constantes temporales muy separadas. Estos dos conceptos determinan la eleccion de un metodo u otro para la resolucion de un determinado problema y por lo tanto, la descripcion de cada metodo se acompa~a de un breve analisis de precision y estabilidad. n

1.2.1 Metodo expl cito de Euler


Es el primer y mas sencillo de los metodos para la resolucion de ODEs. Aproxima la derivada temporal mediante el uso de diferencias nitas resultando en una formula recursiva que permite el calculo de la variable dependiente a partir de su valor en el intervalo anterior:

14

Cap tulo 1. Modelado y simulacion dinamica de procesos

zi+1 = zi + t f (zi ti) i = 1 : : : nt


8

(1.8)

Precision
Se denominara z a la solucion \real" del problema. El analisis de precision del metodo pretende predecir la diferencia que habra entre la solucion numerica y la solucion real. En el caso del metodo de Euler es facilmente comprobable (Silebi y Schiesser, 1992) que el error es proporcional a t ya que es un metodo de primer orden. El error total vendra dado por = (tf ; t0 ) t lo que lleva a elevar el numero de intervalos notablemente para aumentar la precision del resultado.

Estabilidad
Para hacer el estudio de estabilidad se considera un problema muy sencillo cuya solucion anal tica es conocida: _ z = Az (1.9) donde A es una matriz de coe cientes constantes con autovalores . Por simplicidad se estudiara el caso unidimensional cuya solucion anal tica es z(t) = z0e t que suponiendo que < 0, decae exponencialmente con el tiempo. Aplicando la formula general del metodo de Euler (ec. (1.8)) para la resolucion de la ecuacion se obtiene zi+1 = zi (1 + t) que, en principio, no se parece a una funcion exponencial. Si se analiza en detalle la solucion, es facil deducir que para ciertos valores del producto t, la solucion se vuelve inestable (ej., t = ;3), su magnitud crece con el tiempo, y para otros, (ej. t = ;2) es estable pero oscilatoria. Estos resultados llevan a concluir que la reduccion del tama~o de paso no conduce n siempre a una mejor solucion, sino que hay que tener en cuenta, ademas, cierto criterio de estabilidad del metodo, que para el caso de Euler se expresa en la forma:
j

t <2
j

(1.10)

En la gura 1.2, se ilustran los conceptos de precision y estabilidad en la solucion del problema (1.9) con A = = ;1, para distintas condiciones iniciales y distintos valores de t. Es importante resaltar que a medida que se requiere mayor precision, el numero de pasos y, por lo tanto, el coste computacional, crecen notablemente.

1.2. Solucion de ecuaciones diferenciales ordinarias (ODEs)

15

10 5 z(t) 0 -5 -10

t=2.0

10 5 z(t) 0 -5 -10 0

t=1.5

6 8 Tiempo

10

12

6 8 Tiempo

10

12

10 5 z(t) 0 -5 -10

t=0.5

10 5 z(t) 0 -5 -10 0

t=0.05

6 8 Tiempo

10

12

6 8 Tiempo

10

12

Figura 1.2: Estudio de estabilidad y precision del metodo de Euler: solucion segun el metodo de Euler (l nea discontinua) vs solucion real (l nea continua). En general sera el criterio de precision el que determinara el valor de t. De hecho, en la mayor a de las ocasiones es posible que la solucion sea estable pero imprecisa lo que llevara a una reduccion de su valor. Sin embargo, en los problemas r gidos, con constantes temporales muy distintas, es decir, autovalores muy separados, el tama~o n de paso vendra determinado precisamente por el criterio de estabilidad, llegando, en ocasiones, a ser tan peque~o, que su solucion mediante el metodo de Euler es n prohibitiva.

1.2.2 Metodos Runge-Kutta


La convergencia lenta del metodo de Euler y lo restringido de su region de estabilidad absoluta llevan a considerar metodos de orden de convergencia mayor. La primera opcion que se podr a plantear consiste en aproximar la solucion por un desarrollo

16

Cap tulo 1. Modelado y simulacion dinamica de procesos

en serie de Taylor, que en el caso unidimensional resultar a: q q t2 2 zi+1 = zi + t dz (ti ) + 2! d z (ti ) + : : : + qt! d z (ti) (1.11) dt dt2 dtq o lo que es lo mismo: q;1 q;1 t2 (1.12) zi+1 = zi + tf (ti ) + 2! df (ti ) + : : : + (q t 1)! d q;f (ti ) dt ; dt 1 El metodo de Euler aproxima la pendiente de la funcion f en el intervalo ti ; ti+1 , por un valor constante, su valor en ti , es decir, se queda en la aproximacion de primer orden, lo que implica la necesidad de un numero de intervalos (nt) muy elevado y en una perdida de e ciencia muy importante. Lamentablemente la ec. (1.12) no es muy util para desarrollar metodos de orden superior ya que requiere las derivadas de la funcion f , informacion, en general, no disponible. Sin embargo, todav a es posible aumentar mas la precision, sin usar las derivadas. Para ello se tomara un numero superior de puntos intermedios colocados de manera determinada que permitiran aproximar de alguna manera las derivadas en la expresion polinomica (1.12). Esta es la base de los metodos Runge-Kutta de orden superior, entre los cuales el mas utilizado es el de orden 4 (RK4), tambien llamado clasico ya que fue el desarrollado por los matematicos alemanes Runge y Kutta a nales del siglo XIX (Iserles, 1996). Se ha demostrado que los metodos RK son mas precisos que un metodo de Euler a igualdad de tama~o de paso, y que esta precision aumenta a medida que aumenta n el orden del metodo. Sin embargo, es facil demostrar que el criterio de estabilidad apenas se modi ca: si para el metodo de Euler la condicion era j tj < 2 para el metodo RK4 resulta j tj < 2:785 (Silebi y Schiesser, 1992), lo que no aumenta demasiado su rango de aplicacion a problemas r gidos.

Metodos Runge-Kutta adaptativos


La estabilidad y e ciencia de los metodos RK pueden aumentarse permitiendo utilizar un tama~o de paso variable. Para ello sera necesario estimar el error cometido n mediante una de los dos estrategias siguientes (Quarteroni et al., 2000): n 1. Usar el mismo metodo RK con dos tama~os de paso distintos, normalmente t y 2 t, y calcular la diferencia entra los dos resultados. Esta posibilidad requiere muchas operaciones en cada paso y se ha descartado por su ine ciencia. 2. Usar dos metodos RK de ordenes consecutivos: el calculo de la diferencia entre los dos valores de zi+1 obtenidos por ambos metodos permite determinar el

1.2. Solucion de ecuaciones diferenciales ordinarias (ODEs)

17

error local cometido por el de orden inferior y reajustar el tama~o de paso si n es que esta por encima de una cierta tolerancia pre jada. Una implementacion de esta idea es el llamado metodo Runge;Kutta; Fehlberg (RKF45), que calcula dos estimaciones, una de orden 4 y otra de orden 5, utilizando para ambos casos los mismos valores de las constantes, lo que reduce el coste computacional de chequear el error. Este metodo ha resultado ser muy e ciente permitiendo incluso la solucion de sistemas r gidos.

1.2.3 Metodo de Adams


En los metodos expuestos se calcula zi+1 a partir de zi, prescindiendo de la informacion que aportan los valores calculados con anterioridad (zi;1 zi;2:::). Existe una variedad de metodos, multipaso, que s hace uso de esa informacion del pasado. Los metodos de Adams se basan en integrar las funciones polinomicas de interpolacion de f en un numero de puntos q + 1. La formula general de estos metodos es como sigue:

zi+1 = zi + t

q X j =;1

bj fn;j

(1.13)

Los mas populares son los metodos de Adams-Bashforth (revisados en Quarteroni et al. 2000), metodos expl citos que han probado ser muy precisos.

1.2.4 Metodo impl cito de Euler


Los metodos impl citos son ligeramente distintos a los vistos hasta ahora (expl citos), ya que necesitan no solo el valor de la funcion z en un numero determinado de puntos sino que ademas necesitan el de su derivada en el punto de interes. La formula general del metodo es como sigue: (1.14) Es preciso resaltar que aunque muy parecida a la formula del metodo de Euler expl cito (ec. (1.8)) la evaluacion de f en este caso es precisamente en el instante i +1 de ah el termino impl cito. Estos metodos necesitan, por lo tanto, la resolucion de un sistema de ecuaciones no lineal, mediante una tecnica adecuada, habitualmente el metodo de Newton. Como se ve a en las secciones anteriores, el metodo expl cito de Euler, y en general, todos los metodos expl citos, pueden llegar a ser inestables para ciertos

zi+1 = zi + t f (zi+1 ti+1)

18

Cap tulo 1. Modelado y simulacion dinamica de procesos

valores de t. De hecho cada metodo presenta una region de estabilidad fuera de la cual el comportamiento sera erroneo. Sin embargo los metodos impl citos son incondicionalmente estables. Asimismo son mas exactos, permitiendo intervalos temporales mas largos, pero requieren la solucion de un sistema de ecuaciones en cada t lo que en la mayor a de los casos es muy costoso desde el punto de vista computacional. A partir del desarrollo del metodo impl cito de Euler se han desarrollado otros metodos impl citos como Runge-Kutta impl cito (que es una extension del metodo Runge-Kutta tradicional pero que hace uso expl cito del Jacobiano del sistema) o el metodo de Adams-Moulton y el popular BDF (backward di erentiation formula).

1.2.5 Metodos BDF


Desarrollados por Gear (1971), no son mas que una generalizacion del metodo impl cito de Euler:
q ;1 X k=0

zi+1 =

k zi;k +

t 0 f (zi+1 ti+1)

(1.15)

donde q es el orden del metodo y k y 0 son constantes para un orden dado. Estas constantes determinaran el buen funcionamiento del metodo en terminos de precision y estabilidad. En su trabajo, Gear presenta los valores adecuados para los casos q 6. Visto de otra forma, en realidad este metodo aproxima el valor de f (zi+1 ti+1) mediante el uso de informacion de los valores de z en instantes anteriores y es esta idea precisamente la que le da el nombre de diferencias anteriores (backward di erences). Estos y otros metodos se revisan ampliamente en el libro de Ascher y Petzold (1998).

1.2.6 Codigos de resolucion de ODEs


Algunos de los codigos mas populares para la resolucion numerica de ODEs son: RKF45: metodo Runge-Kutta-Fehlberg, implementado en FORTRAN por Watts y Shampine (Sandia laboratories, Albuquerque,USA)1 . LSODE: metodo de Gear (BDF), tambien implementado en FORTRAN por Hindmarsh (1983)2.
1 2

RKF45: http://www.netlib.org/sfmm/rkf45.f LSODE: http://www.netlib.org/odepack/lsode.f

1.3. Solucion de ecuaciones diferenciales ordinarias y algebraicas (DAEs) 19

LSODA: modi cacion de LSODE por Petzold (1983) permitiendo el cambio de un metodo Adams a uno BDF dependiendo de la rigidez del problema3.

1.2.7 RK vs BDF en problemas con discontinuidades


Como se ha visto los metodos BDF son multipaso, es decir, necesitan un numero de valores iniciales que en un principio no poseen. Tradicionalmente, para calcular estos valores se utilizaba un metodo de Euler impl cito (BDF de primer orden) durante los primeros pasos hasta poder aumentar el orden del metodo BDF. Esto, sin embargo, resulto ser muy impreciso y se buscaron otras alternativas tales como la inicializacion con metodos Runge-Kutta para la resolucion de sistemas de ODEs (Gear, 1980). En ese trabajo se concluye que este tipo de tecnicas resulta muy valiosa en particular cuando los metodos RK operan en zonas no r gidas lo que por otra parte, es muy habitual. Sin embargo, considerese ahora un problema en el que existen un cierto numero de discontinuidades, como por ejemplo las que surgen de simular ciertos per les de control con escalones. Si el numero de discontinuidades es su cientemente elevado, el tama~o de paso de un metodo RK, mas que estar limitado por la region de n estabilidad, estara limitado por el intervalo entre dos discontinuidades lo que lo hace competitivo frente a metodos BDF. Esto se con rma en el trabajo de Keeping (1995), donde se presenta una comparacion entre un metodo RK expl cito y un metodo BDF para la solucion de un problema con discontinuidades. De los resultados obtenidos se extrae que a medida que el numero de discontinuidades aumenta el comportamiento del metodo BDF empeora con respecto al del RK. Como alternativa, sugieren un metodo h brido RK-BDF valido para resolucion de sistemas de DAEs, que presenta muy buen comportamiento.

1.3 Solucion de ecuaciones diferenciales ordinarias y algebraicas (DAEs)


Todos los metodos vistos hasta el momento son validos para la resolucion de sistemas de ODEs. En particular, los adaptativos y los impl citos resuelven problemas r gidos que aparecen frecuentemente en la simulacion de procesos distribuidos tras su discretizacion. Sin embargo, como ya se ha comentado con anterioridad, muchos
3

LSODA: http://www.netlib.org/odepack/lsoda.f

20

Cap tulo 1. Modelado y simulacion dinamica de procesos

de los modelos que aparecen en ingenier a de procesos estan constituidos en realidad por conjuntos de ecuaciones diferenciales ordinarias y algebraicas (DAEs). Gear (1971) amplio la aplicacion de los metodos BDF a la solucion de problemas expresados en DAEs mediante la resolucion del sistema de ecuaciones (ec. (1.15)), debidas a la resolucion de las ODEs, y las AEs presentes originalmente en el problema, de manera simultanea mediante el metodo de Newton. El uso de BDF no es la unica posibilidad y muchos de los sistemas de DAEs pueden resolverse utilizando los metodos que se consideraron para la solucion de problemas r gidos, es decir, los metodos impl citos y los expl citos de paso variable (Petzold, 1982 Brenan et al., 1989) con las modi caciones adecuadas. Para la resolucion de DAEs se dispone de una gran variedad de codigos (Lioen y Swart, 1999). Algunos ejemplos son: DDASSL: desarrollado por Petzold (1982), es un metodo BDF implementado en Fortran4. DASOLV: desarrollado por Jarvis y Pantelides (1992), es un metodo BDF que incluye ademas rutinas adecuadas para la resolucion de sistemas dispersos5 . RADAU5: metodo Runge-Kutta impl cito de orden 5 (descrito en Hairer y Wanner, 1996)6. GELDA: metodo para la resolucion de sistemas de DAEs lineales de ndice arbitrario, dispone de una version basada en Runge-Kutta y otra basada en BDF (Kunkel et al., 1997) 7.

1.4 Solucion de ecuaciones en derivadas parciales (PDEs)


La expresion general de una ecuacion en derivadas parciales es de la forma: (x) = 0 (1.16) siendo un operador diferencial y x la variable distribuida (temperatura, concentracion, velocidad etc.)8 .
DDASSL: http://www.netlib.org/slatec/src/ddassl.f DASOLV: http://titan.princeton.edu/MINOPT/solvers.html#DASOLV 6 RADAU5:http://www.unige.ch/math/folks/hairer/software.html 7 GELDA: http://www-user.tu-chemnitz.de/ mehrmann/gelda/ 8 Notese que indica aqu cada una de las componentes del vector x, no se incluyen sub ndices por simplicidad en la notacion
4 5
x

1.4. Solucion de ecuaciones en derivadas parciales (PDEs)

21

En general se distinguira entre operadores lineales y no lineales y, dentro de los primeros, entre el pticos, hiperbolicos y parabolicos. En la tabla 1.1 se muestran sus formas generales y algunos ejemplos. Tipo Orden en El ptica 2 Parabolica 2 er orden Hiperbolica 1 1 Hiperbolica 2o orden 2 Orden en t Ejemplo 0 Ec. de Laplace: r2x = 0 1 Ec. de Fourier: xt = kr2 x 1 Ec. de adveccion: xt = ;vrx 2 Ec. de ondas: xtt = c2r2 x

Tabla 1.1: Tipos de ecuaciones en derivadas parciales.

En muchos casos practicos aparecen tambien combinaciones de estos como por ejemplo en la ecuacion de conveccion: xt = ;vrx + r2 x. Debido a la falta de un metodo universal para la resolucion exacta de ecuaciones en derivadas parciales, se han invertido grandes esfuerzos en desarrollar metodos numericos que permitan su resolucion aproximada. Estos metodos han ido evolucionando de manera muy rapida a medida que ha aumentado la capacidad computacional, y hoy en d a estan su cientemente desarrollados como para permitir la resolucion de problemas muy complejos. Aqu se revisan los metodos mas empleados prestando especial atencion a sus respectivas ventajas e inconvenientes. En primer lugar se consideran dos metodos especialmente faciles de utilizar, el metodo de diferencias nitas y el metodo numerico de las l neas. Ambos aproximan las derivadas espaciales utilizando diferencias nitas. A continuacion se revisaran otros metodos que con el n de transformar el problema original de dimension in nita en uno de dimension nita, es decir, en un conjunto de ODEs (o DAEs), realizan una proyeccion de las PDEs en un conjunto nito de funciones espaciales que contienen la informacion necesaria acerca de la geometr a del sistema. A estos metodos se les denomina de residuo ponderado (weighted residual methods) entre los que se destaca el metodo de Galerkin. El tipo de funcion espacial elegida determina el tipo de metodo: en general, pueden ser funciones locales como, por ejemplo, en el caso de los metodos de elementos nitos o pueden ser globales como en el caso de las autofunciones asociadas al operador espacial.

22

Cap tulo 1. Modelado y simulacion dinamica de procesos

1.4.1 Metodo de diferencias nitas


Probablemente es el primer metodo numerico utilizado en la resolucion de problemas en derivadas parciales. Existe documentacion en la que se prueba que Gauss utilizo este metodo. Su uso se generalizo con la aparicion de los primeros ordenadores, y la bibliograf a sobre el mismo es abundante en los a~os 60. n El primer paso para la aplicacion del metodo es discretizar el dominio espacial de de nicion de la ecuacion en un numero variable de puntos o nodos mediante una malla rectangular. El dominio temporal tambien se discretiza. Como resultado se obtiene un sistema de ecuaciones algebraicas, que puede resolverse de forma secuencial o simultanea dependiendo del esquema de discretizacion elegido. En general, el valor de una variable dependiente en una posicion y un tiempo determinados se calculara en funcion de sus valores en posiciones e instantes adyacentes. Como resultado se obtendran un conjunto de ecuaciones algebraicas cuya solucion sera el valor de la variable dependiente en cada uno de esos nodos. Este tipo de metodos se estudia ampliamente en los libros de Carnahan et al. (1979) y Smith (1985) para problemas de todo tipo, y en el de Jaluria y Torrance (1986) con enfasis en su aplicacion a la solucion de problemas relacionados con transferencia de calor. La principal ventaja del metodo de diferencias nitas radica en su facil implementacion y aplicacion. Sin embargo, solo resulta practico para problemas con geometr a y condiciones frontera sencillas. Por otra parte, la precision del resultado depende en gran medida del numero de nodos utilizados, es decir, del numero de ecuaciones, lo que conlleva, en ocasiones, tiempos de computacion excesivos. En la actualidad, la tendencia es a desarrollar metodos que unicamente discretizan el dominio del espacio, resultando as en ecuaciones diferenciales ordinarias, facil y e cientemente resolubles por cualquiera de los metodos presentados en la seccion 1.2.

1.4.2 Metodo numerico de las l neas (NMOL)


Basado en este concepto surge el metodo numerico de las l neas (Schiesser, 1991), que utiliza una malla espacial para aproximar los valores de la derivada temporal de la variable dependiente, de manera que el resultado sera un conjunto de ecuaciones diferenciales ordinarias que se resolvera utilizando un metodo como los vistos anteriormente. La precision del metodo dependera del numero de elementos de la discretizacion

1.4. Solucion de ecuaciones en derivadas parciales (PDEs)

23

espacial y del metodo de resolucion del sistema de ODEs resultante. Es importante resaltar que, en ocasiones, este sistema de ODEs resulta ser r gido precisamente debido a la discretizacion espacial. En este caso sera necesario utilizar un metodo adaptativo o un metodo impl cito como los considerados en la seccion 1.2. Sin embargo, los sistemas de ODEs resultantes suelen tener dimension elevada, dependiendo del nivel de discretizacion y por supuesto, de la dimension espacial del problema, lo cual limita la aplicacion de ciertos metodos. Por ejemplo, el uso de metodos BDF garantiza la estabilidad de la solucion, sin embargo es necesario el calculo del Jacobiano del sistema y, en terminos generales, esto puede ser muy costoso (Schiesser, 1991). En ese caso el uso de metodos que usan informacion sobre la dispersion del problema, como por ejemplo LSODES9 (Hindmarsh, 1983), seran de gran utilidad. Nuevas implementaciones del NMOL tratan de mejorar su precision a traves del uso de mallas adaptativas que permiten re nar la discretizacion all donde el problema lo requiere a medida que se evoluciona en el tiempo. En Li (1998) y Li y Petzold (1999) se realiza un analisis detallado de estas tecnicas y se presentan algunas mejoras. Otros autores han aumentado la e ciencia simulando de manera paralela varias \l neas" o, lo que es lo mismo, varias ODEs (Rice y Lujan, 2000), en combinacion con metodos adaptativos.

1.4.3 Metodos de residuo ponderado


Se presentan brevemente las caracter sticas generales de los metodos de residuo ponderado ya que constituyen la base, como se ha dicho, de muchas estrategias de resolucion de PDEs. Estos metodos parten de la formulacion general de la ecuacion en derivadas parciales (ec. (1.16)), de nida en un dominio espacial con frontera suave con condiciones frontera de los tipos generales vistos en la seccion 1.1 (ecs. (1.3)(1.5)) y que aqu se expresan de forma abreviada:
B

(x) = 0

(1.17)

donde se asume que las condiciones B son constantes en el tiempo. La clave de este tipo de metodos es la separacion de variables: se asume que la solucion del problema se puede aproximar, con la precision deseada, por una serie de la forma:
9

LSODES: http://www.netlib.org/odepack/

24

Cap tulo 1. Modelado y simulacion dinamica de procesos


k X i=1

x= ~

ai(t)'i( )

(1.18)

donde x es la aproximacion del campo x, los coe cientes ai son funciones temporales ~ y 'i( ) son funciones espaciales, habitualmente denominadas funciones base o de prueba, que veri can las condiciones frontera y que suelen ser ortogonales entre s . Una vez seleccionado el tipo de funciones espaciales que, como se vera, pueden ser locales o globales, el objetivo sera minimizar la diferencia entre la funcion real x( t) y la aproximacion x( t). Aunque el error k x ; x k no se puede calcular, s ~ ~ es posible calcular el residuo que resulta de aplicar el operador ( ) a la funcion x: ~
R

= (~) x

(1.19)

y se asume que, si se minimiza este residuo, se minimiza tambien el error entre las funciones real y aproximada. De hecho, esto es demostrable en algunos casos sencillos (Langtangen, 1999). El metodo mas utilizado para minimizar el residuo es el denominado de residuo ponderado y consiste en encontrar los coe cientes temporales tales que la media ponderada de R en el dominio se anule para un conjunto de funciones de prueba Wi que, en principio, pueden coincidir, o no, con las funciones 'i. Esto es equivalente a imponer la condicion de que el residuo sea ortogonal a las funciones Wi, que matematicamente se formula:

donde (f g) = fgd , es el denominado producto interior del correspondiente espacio de Hilbert. Queda por determinar que sucede con las condiciones frontera. En este sentido, si el operador espacial diferencial es de orden 2m a todas aquellas condiciones frontera de orden menor que m, se les denominara esenciales (por ejemplo condiciones de Dirichlet) ya que las funciones de prueba deben veri carlas necesariamente. En el caso de restricciones cuyo orden sea superior o igual a m las restricciones se dicen naturales ya que se incorporan de manera natural en el metodo de residuo ponderado (Langtangen, 1999). A continuacion se consideran varios tipos de metodos que se enmarcan en el de residuo ponderado, y cuyas diferencias radican en la eleccion de las funciones Wi .

(R Wi ) =

Z
R

Wi d = 0

(1.20)

1.4. Solucion de ecuaciones en derivadas parciales (PDEs)

25

Metodo de colocacion
En este caso se toman funciones Wi = ( ; i), donde la ( ; i) es la funcion delta de Dirac centrada en un punto i . El resultado es un conjunto de ecuaciones que fuerzan a que el residuo se anule en esos puntos prede nidos. Se podr a pensar que el metodo de diferencias nitas que se considero en la seccion 1.4.1 es un caso particular de este.

Metodo de m nimos cuadrados


En este caso las funciones de peso son Wi = @Ri , lo que equivale a minimizar @c (R R) en problemas en estado estacionario. En el caso dinamico habra que utilizar funciones de prueba temporales, ademas de las espaciales, lo que hace su utilizacion mas complicada (Fletcher, 1984).

Metodo de Galerkin
Las funciones de peso Wi coinciden con las funciones base 'i. En este caso se puede ver que el resultado es un conjunto de ecuaciones diferenciales cuya variable @ independiente es el tiempo. Para ello supongase, por ejemplo un operador @t ; L, donde L( ) es el operador espacial, imponiendo la condicion (1.20) resulta: d (' x) = (' L(~)) (1.21) i x dt i ~ o lo que es lo mismo:
k X

('j 'i) daj = ('j L('i)) dt i=1 i=1

k X

j = 1 ::: k

(1.22)

El conjunto (1.22) no es mas que un conjunto de k ecuaciones diferenciales ordinarias facilmente resoluble con algunos de los metodos vistos. Un estudio comparativo de los distintos metodos de residuo ponderado lleva a la conclusion de que el metodo de Galerkin produce resultados de mayor precision y su rango de aplicacion es mas amplio que el del resto de los metodos (Fletcher, 1984).

1.4.4 Metodo de elementos nitos


Se trata de un metodo de residuos ponderados que consiste en combinar el metodo de Galerkin con funciones de interpolacion locales, generalmente polinomios de orden

26

Cap tulo 1. Modelado y simulacion dinamica de procesos

bajo, lo que permite resolver de manera sencilla problemas especi cados en dominios con geometr as complicadas (en O~ate et al. 1991, se recopilan distintos trabajos y n aplicaciones del metodo de elementos nitos). De forma similar al metodo de diferencias nitas, el dominio espacial se discretiza de alguna forma. La malla de discretizacion espacial esta formada por un conjunto de elementos compuestos, generalmente, por el mismo numero de vertices y aristas, pero que pueden adoptar formas diferentes. De esta manera, la malla puede adaptarse mejor a formas irregulares. Las funciones espaciales se calculan utilizando polinomios de interpolacion (funciones de forma) entre los distintos vertices. Las funciones globales Wi son polinomios que se anulan en la mayor a de los elementos salvo en el considerado. En el caso de problemas bidimensionales los elementos son, habitualmente, triangulares mientras que en los problemas tridimensionales suelen ser tetraedricos. Como ejemplo, se presenta en la gura 1.3 una comparacion entre las mallas generadas por el metodo de diferencias nitas y el de elementos nitos en un caso bidimensional. En ella se aprecia la mayor e ciencia del metodo de elementos nitos sobre el de diferencias nitas, al necesitar menos nodos para asegurar el mismo grado de precision.

Figura 1.3: Comparacion metodo de diferencias nitas y elementos nitos. En los trabajos de Fletcher(1984) y de Langtangen (1999) se examinan diversos aspectos de la aplicacion del metodo de elementos nitos. Otros metodos alternativos que surgen como modi caciones del metodo de elementos nitos son el metodo de volumenes nitos, en el que el dominio se divide en peque~as regiones llamadas volumenes de control (discutidos, por ejemplo, en n Schiesser, 1994), o el metodo de elementos frontera (BEM, ver por ejemplo Chen y

1.4. Solucion de ecuaciones en derivadas parciales (PDEs)

27

Zhou, 1992) que transforma el operador diferencial de nido en el dominio de frontera en operadores integrales de nidos unicamente en la frontera de manera que solo la frontera es discretizada y por lo tanto se reduce el coste computacional. Si se comparan los metodos de diferencias nitas (FD), elementos nitos (FEM) y elementos frontera (BEM) se deduce que para geometr as regulares el metodo FD es generalmente el mas facil de aplicar. No obstante, generalmente requiere modi caciones especiales para considerar ciertas di cultades que habitualmente aparecen en los problemas con fronteras irregulares. Aunque los metodos FEM y BEM son mas complicados de implementar, permiten resolver estos casos de manera mas sencilla.

1.4.5 Metodos espectrales


Estos metodos hacen uso del metodo de Galerkin con funciones 'i de nidas globalmente, ortogonales entre s y que veri can las condiciones de contorno. La principal ventaja de estos metodos sobre los anteriores es que los modelos obtenidos tienen un tama~o mas reducido, y por lo tanto, el tiempo de simulacion disminuye notablen mente. La naturaleza de las funciones de prueba tiene un impacto muy importante en la precision de los metodos espectrales (Gottlieb y Orszag, 1977). Entre los distintos tipos de funciones utilizadas destacan: Autofunciones del operador espacial: aplicable en problemas en los que el operador espacial es sencillo y tambien lo es la geometr a del sistema. Funciones trigonometricas: expanden la solucion en terminos de senos y cosenos. Tienen la propiedad de ser diferenciables un numero in nito de veces y son especialmente adecuadas para los casos con condiciones frontera periodicas. Tienen muy buen comportamiento en la aproximacion de funciones suaves sin embargo en casos con discontinuidades o condiciones frontera no periodicas su convergencia es muy mala (Wycko , 1995) resultando en el fenomeno denominado de Gibbs. Polinomios de Legendre o de Chebyche . Los primeros presentan problemas de convergencia mientras que los segundos, aunque bastante robustos, no son totalmente ortogonales, lo que a~ade imprecision e implica un mayor tiempo n para la resolucion del problema.

28

Cap tulo 1. Modelado y simulacion dinamica de procesos

Expansion de Karhunen-Loeve (K-L)


Incluido dentro de los metodos espectrales, este metodo ha alcanzado un gran auge en los ultimos a~os debido al exito con el que ha resuelto ciertos problemas no n lineales relacionados con la dinamica uidos (Sirovich, 1987 Berkooz, et al. 1993 Bangia et al., 1997 entre otros). Este metodo, tambien denominado Proper Orthogonal Decomposition (POD), permite calcular las llamadas autofunciones emp ricas a partir de una matriz de datos que caracterizan la dinamica del sistema. Estas funciones no tiene expresion anal tica. No obstante, son totalmente ortonormales y facilmente aplicables a cualquier tipo de geometr a y operador. Por otra parte, tienen la propiedad de ser la base optima, requiriendo el menor numero de funciones prueba para obtener una precision dada, lo que las convierte en las funciones base mas atractivas para la resolucion de problemas en PDEs de manera muy e ciente.

Cap tulo 2 Optimizacion estacionaria

El problema de optimizacion consiste en calcular el conjunto de variables (denominadas de decision) tales que minimizan (o maximizan) una cierta funcion objetivo o de coste. Si bien se pueden hacer diversas clasi caciones de problemas de optimizacion, existen dos que merece la pena destacar: Segun la linealidad y el tipo de variables de decision: optimizacion lineal, no lineal, combinatoria y mixta. Segun la naturaleza de la funcion objetivo: optimizacion local y global. La solucion de estos problemas en general no es trivial y es por ello que se han desarrollado numerosas tecnicas que permiten la solucion de los distintos tipos de problemas. A lo largo del cap tulo se revisaran los metodos mas relevantes para la optimizacion de problemas no lineales, tanto locales como globales. En primer lugar se plantean algunas generalidades en relacion a la evaluacion de metodos y se establecen las condiciones de optimalidad, tanto para problemas sin restricciones como problemas generales con restricciones. Dado que en la mayor a de los problemas practicos, las variables de decision estan sometidas a restricciones, se comentaran brevemente algunos aspectos practicos acerca del manejo de restricciones. Se naliza con una revision de los metodos mas relevantes de optimizacion no lineal, tanto locales como globales. 29

30

Cap tulo 2. Optimizacion estacionaria

2.1 Formulacion del problema de optimizacion no lineal (NLP)


El problema de optimizacion no lineal (nonlinear programming problem, NLP) se formula como sigue: Encontrar el vector de variables de decision v que minimiza la funcion

J (v)
y que veri ca las restricciones:

(2.1) (2.2) (2.3)

hi (v) = 0 i gi(v) 0 i

2 E 2 I

donde J es una funcion escalar de varias variables v 2 R ~ que se denominara funcion objetivo o coste. hi y gi son tambien funciones escalares que determinan el espacio de valores posibles para v, son las denominadas restricciones de igualdad y desigualdad, respectivamente. Notese que los problemas de optimizacion, se formulan, habitualmente, como problemas de minimizacion para los problemas de maximizacion basta con cambiar el signo de la funcion objetivo. Dentro de esta formulacion general se incluyen algunos casos especiales mas sencillos tales como: Problema de optimizacion no lineal sin restricciones. Problemas lineales (linear programming, LP): aquellos en los que la funcion objetivo y las restricciones son lineales. Problemas con restricciones lineales: aquellos en los que las restricciones son lineales.

{ Problemas quadraticos (quadratic programming, QP): subconjunto de los


anteriores, incluyen aquellos problemas en los que la funcion objetivo es cuadratica y las restricciones lineales. El problema de interes para esta tesis es el mas general, esto es, el NLP con restricciones, es decir, aquellos tipos de problemas en los que tanto la funcion objetivo como las restricciones son no lineales.

2.2. Generalidades

31

Como se vera una de las di cultades mas habituales en la resolucion de problemas de este tipo es la multimodalidad, es decir, la presencia de varias soluciones, que se denominaran locales, frente a la mejor de todas ellas que es la global. Esto llevara al uso de metodos especiales (metodos de optimizacion global) que intentan evitar las limitaciones de otros metodos que tienden a quedarse \atrapados" en soluciones locales (metodos de optimizacion local).

2.2 Generalidades
En la resolucion de problemas de optimizacion sin restricciones, los metodos locales buscan un vector v 2 R ~ tal que J (v ) < J (v) para todos los valores de v cercanos a v . En el caso de metodos globales el objetivo es mas ambicioso y se pretende encontrar el valor v de entre todos los posibles valores de v. Todos ellos son procesos iterativos que partiendo de un valor inicial para las variables (v0 ), generan una secuencia de valores, habitualmente llamada mapa del algoritmo, que minimiza la funcion objetivo hasta alcanzar la solucion dentro de una tolerancia preespeci cada. El metodo de iteracion se suele expresar en la forma: vk+1 = vk + dk (2.4) en donde vk+1 es el valor actual de aproximacion al optimo y dk una funcion que dependera de la direccion de busqueda, siendo la manera en que se calcula dk la que distingue el tipo de metodo de optimizacion. En una primera clasi cacion se distinguira entre metodos deterministas y metodos probabil sticos o estocasticos, tanto locales como globales. En cuanto a los metodos deterministas, suelen buscar la veri cacion de las condiciones de optimalidad. Estos metodos calculan las direcciones de busqueda de manera sistematica y en muchos casos requieren el calculo del gradiente o el gradiente y el Hessiano de la funcion objetivo y garantizan, en la mayor parte de los problemas, convergencia dentro de un nivel de precision especi cado. Dentro de este tipo de metodos los habra locales y globales. Los primeros, generalmente muy rapidos, encuentran uno de los, posiblemente, multiples m nimos de la funcion considerada, mientras que los segundos localizan el mejor de todos esos m nimos. Por supuesto, en el caso de los problemas convexos, el optimo local coincide con el global y un metodo local sera su ciente. Notese que, para el problema general, no existe ningun metodo que garantice la optimalidad en tiempo nito (Guus et al, 1995). El segundo grupo de metodos (estocasticos) no usan informacion sobre la estructura del problema. Hacen uso de secuencias pseudo-aleatorias y valores previos de

32

Cap tulo 2. Optimizacion estacionaria

la funcion objetivo para calcular las direcciones de busqueda. En general, tienen caracter global y convergen al optimo con probabilidad aproximandose a 1 a medida que el numero de iteraciones (k) aumenta. A la hora de seleccionar un metodo en favor de otro, hay que tener en cuenta una serie de aspectos: generalidad y robustez, sensibilidad a parametros, e ciencia y, por ultimo, velocidad de convergencia (Bazaraa et al., 1993): 1. Generalidad y robustez: La generalidad del algoritmo se re ere al rango de problemas al que se puede aplicar. La robustez se re ere a la capacidad de resolver los problemas para los que el algoritmo ha sido desarrollado con cierta precision e independientemente del punto inicial elegido. 2. Sensibilidad a parametros: La mayor a de los algoritmos requieren la seleccion, a priori, de algunos parametros. Normalmente estos parametros guardan relacion con el tama~o de paso, factores de aceleracion y criterio de n convergencia, entre otros. A este respecto, se preferira un metodo cuya solucion sea lo mas insensible posible a esta seleccion. 3. E ciencia: Este criterio esta relacionado con el tiempo invertido en la preparacion del problema para su optimizacion y el tiempo de computacion requerido para su solucion. En este sentido se pueden utilizar criterios basados en numero de iteraciones, numero de evaluaciones de la funcion objetivo o bien tiempo total de computacion1. 4. Convergencia: Aunque no siempre es posible calcularla, se de ne aqu la velocidad de convergencia (V ) teorica: lim jjvk+1 ; v jqj = V < 1 k!1 v ; v
k

(2.5)

Si q = 1 y V < 1, la secuencia se dice que tiene convergencia lineal si q > 1 o si q = 1 y V = 0, entonces se habla de convergencia superlineal y si q = 2 entonces la convergencia es cuadratica. En general este criterio de convergencia solo se puede utilizar para los metodos deterministas que requieren del gradiente o del Hessiano para calcular dk .
En este trabajo, usaremos este ultimo criterio, por considerarlo el mas objetivo. Para que la comparacion con otros autores sea razonable, todos los tiempos de calculo se transforman a la misma maquina (PC Pentium III/450Mhz, utilizado en este trabajo) y para ello se utilizara el numero de MFlops de cada ordenador segun la rutina Linpack-100. Valores tabulados en http://www.netlib.org/performance/html/PDStop.html
1

2.3. Condiciones de optimalidad

33

Para garantizar y mejorar la convergencia de algunos algoritmos, dk se modi ca mediante el uso de lo que habitualmente se llama busqueda lineal (line search) o bien un metodo de region de con anza (trust region) (ver por ejemplo, Nash y Sofer, 1996). En el primer caso dk = k sk y en el segundo dk = s siendo k s k 4k . El metodo de busqueda lineal es el mas antiguo y mas utilizado y en los libros de optimizacion se dedica especial atencion a la solucion de este problema ya que condiciona la e ciencia del algoritmo total.

2.3 Condiciones de optimalidad


La manera mas sencilla de derivar las condiciones de optimalidad comienza por realizar un desarrollo en serie de Taylor de la funcion objetivo J (v) en torno al optimo (v ) (Edgar y Himmelblau, 1988): 1 J (v) = J (v )+ T J (v )(v v )+ 2 (v v )T 2J (v )(v v )+ 3(v v )+: : : (2.6)
r ; ; r ; O ;

Teniendo en cuenta que un m nimo local es aquel que veri ca que J (v) ; J (v ) 0 en una vecindad de v , de la expresion anterior se deduce que una condicion de m nimo ha de ser necesariamente:
r

J (v ) = 0 (2.7) Sin embargo, esta condicion solo garantiza un punto estacionario. Para determinar si es un maximo, un m nimo o un punto de silla, habra que analizar el Hessiano de la funcion, resultando (para un m nimo):
)>0 (2.8) Es importante resaltar que estas condiciones se han calculando suponiendo que el punto v puede estar en cualquier lugar en el espacio (R ~). Sin embargo, en los casos practicos lo normal es que este sometido a algun tipo de restriccion, y las condiciones anteriores ya no son validas. Supongase que el problema de optimizacion responde a la formulacion general que se presentaba en la seccion 2.1 en la que las variables de decision estaban sujetas a una serie de restricciones. En ese caso se de nira un punto v como factible si veri ca esas restricciones y no factible en otro caso. En cuanto a las restricciones de desigualdad se denominan activas cuando se cumple la igualdad e inactivas en otro caso.
r

2 J (v

34

Cap tulo 2. Optimizacion estacionaria

En la mayor parte de los casos, tanto la funcion objetivo como las restricciones seran funciones no lineales de las variables de decision ya que los modelos cuadraticos o lineales son demasiado simpli cados para la mayor a de las aplicaciones practicas. Por lo tanto, los resultados fundamentales procederan del desarrollo del calculo matematico en el siglo XVIII, siendo el concepto basico el de Lagrangiano y los multiplicadores de Lagrange. La caracterizacion de las condiciones necesarias de optimalidad en problemas restringidos se generalizo a partir de los resultados de Lagrange en el conocido teorema de Karush-Kuhn-Tucker, que recopila y estructura un conjunto de investigaciones llevadas a cabo por numerosos autores en los a~os cuarenta, entre los que tambien n ha de citarse a Fritz John. Para detalles sobre su desarrollo ver por ejemplo Nash y Sofer (1996) o Bazaraa et al. (1993) donde se hace un analisis riguroso del calculo de las condiciones de optimalidad para los casos con restricciones lineales y no lineales. Aqu se presentan las condiciones Karush-Kunh-Tucker (KKT) en su formulacion mas general para el problema planteado en las ecs. (2.1)-(2.3): Asumiendo que los gradientes de las restricciones de igualdad y desigualdad son linealmente independientes en el optimo v (condicion de regularidad) existe un vector ( h, g ) de multiplicadores de Lagrange de tal forma que:
r

J (v ) +
g g (v i i

E X
i=1

hh (v i i g i

)+

I X
i=1

g g (v i i

)=0
I

(2.9) (2.10)

)=0

0 i = 1 :::

La expresion g gi(v ) = 0 se denomina habitualmente complementary slackness i condition y distingue entre restricciones activas e inactivas. Sea I = i : gi (v ) = 0 el conjunto de restricciones activas, entonces las condiciones KKT de primer orden pueden escribirse en la forma:
r

J (v ) +

E X
i=1 g i

hh (v i i

)+

X
i2I

g g (v i i

)=0

(2.11) (2.12)

0 i2I

Supongase ahora que tanto la funcion objetivo como las restricciones son dos veces diferenciables, y que v es un punto tal que veri ca la condicion KKT de primer orden y que los valores de los multiplicadores en ese punto son h y g . Se de ne el Lagrangiano del sistema como sigue:

2.4. Manejo de restricciones

35

L(v) = J (v) + h T h(v) + g T g(v) (2.13) Sea C el cono de direcciones d tales que gi(v )T d = 0 para los ndices i cuyos multiplicadores de Lagrange son positivos, gi(v )T d 0 para los ndices i restantes y hi(v )T d = 0 para todas las restricciones de igualdad. Entonces las condiciones KKT de segundo orden (para un m nimo) pueden escribirse de la forma:
r r r

dT 2L(v )d > 0 d = 0 C
r 8 6 2

(2.14)

2.4 Manejo de restricciones


La forma en que se manejan las restricciones es un aspecto muy relevante en el desarrollo de metodos de optimizacion, ya que su presencia es muy frecuente en las aplicaciones reales. Las estrategias mas habituales en el manejo de restricciones se pueden clasi car en dos grandes grupos: Las que transforman el problema original con restricciones en uno sin restricciones o en una secuencia de problemas convexos sin restricciones. Aqu se incluyen los metodos de penalizacion y los metodos de programacion cuadratica sucesiva (SQP). Otro tipo de metodos que se puede incluir en este grupo es el denominado de penalizacion por exclusion (death penalty) que descarta los puntos no factibles, utilizando, para ello, factores de penalizacion muy elevados. Estos metodos son ampliamente utilizados en combinacion tanto con metodos de optimizacion locales como globales estocasticos. Las que intentan resolver el problema directamente mediante el uso de tecnicas espec cas como el metodo de gradiente reducido (generalized reduced gradient) y la mayor a de los metodos deterministas globales. Dado que la mayor a de los metodos se dise~aron para la resolucion de problemas n sin restricciones, una de las tecnicas mas frecuentes consiste en usar funciones de penalizacion (penalty functions) que incluyen a la funcion original y un termino de penalizacion que depende de la violacion de las restricciones y de un parametro que cuanti ca la proximidad al punto factible. Matematicamente:
P

(v ) = J (v) + p(k)P (h g)

(2.15)

36

Cap tulo 2. Optimizacion estacionaria

donde p(k) es el parametro de penalizacion que en ocasiones se mantiene constante a lo largo del proceso de optimizacion o se puede modi car en cada iteracion y P (h g) es una medida de la violacion de las restricciones. La forma de la funcion P determina el tipo de metodo de penalizacion, de entre los que merece la pena destacar dos tipos de metodos: Metodos que generan mapas de puntos no factibles alcanzando una solucion al problema original asintoticamente. Destacan los metodos de penalizacion cuadratica, en los que P es una suma ponderada del cuadrado de las violaciones de las restricciones, o los de penalizacion exacta, en los que P es la suma ponderada de los valores absolutos de las violaciones de las restricciones. Metodos denominados de punto interior (interior point methods), que generan secuencias de puntos factibles. Tambien denominados metodos de barrera, hacen uso de las funciones de barrera (penalty barrier functions), que evitan que los puntos generados sean no factibles. Estas funciones son de tipo logar tmico y aunque en su version clasica solo se pod an aplicar a restricciones de desigualdad, hoy d a existen versiones modi cadas que permiten su aplicacion a cualquier tipo de restriccion (Polyak, 1992 Vassiliadis y Floudas, 1997). Un metodo alternativo es el denominado de los multiplicadores (ver por ejemplo Nocedal y Wright, 1999). Este metodo hace uso de un Lagrangiano modi cado con un termino cuadratico en la violacion de las restricciones, de nido de tal forma que garantiza que el Hessiano del Lagrangiano sea positivo de nido en un punto estacionario v . Una vez encontrado el vector v que minimiza el Lagrangiano aumentado, se actualizan los multiplicadores de Lagrange, y as sucesivamente hasta encontrar los valores optimos. La principal limitacion de este metodo es que requiere la solucion de una secuencia de problemas de optimizacion.

2.5 Metodos de optimizacion local


Aqu se plantean diversas estrategias, como se ha dicho, originalmente desarrolladas para resolver problemas sin restricciones pero que se adaptan facilmente a la resolucion de problemas con restricciones mediante el uso de metodos de penalizacion. Los metodos deterministas calculan la direccion de busqueda de manera sistematica y segun el tipo de informacion que usan para su calculo, se distingue entre

2.5. Metodos de optimizacion local

37

los que solo hacen uso de la funcion objetivo, directos, y los que usan informacion adicional (gradiente o gradiente y Hessiano) o indirectos.

2.5.1 Solucion del problema unidimensional


Aunque los problemas practicos no son, en general, unidimensionales, la mayor a de los algoritmos de optimizacion multidimensional emplean el metodo de busqueda lineal para aumentar su e ciencia y veri car las restricciones de tipo l mite. Este metodo requiere la solucion de un problema de optimizacion unidimensional: una vez calculada la direccion de busqueda por cualquiera de los metodos que se veran a continuacion, se resolvera el problema de encontrar el valor de que minimiza J (v + s)2 . De entre los unidimensionales, el mas popular, que no hace uso mas que de la funcion objetivo, es el metodo de Fibonacci que reduce el espacio de busqueda en cada iteracion hasta llegar a una solucion que veri ca cierto criterio (este y otros metodos se revisan en los libros de Fletcher (1987) o Edgar y Himmelblau (1988).

2.5.2 Metodos directos


En cuanto a los metodos directos (direct methods o derivative free methods) para la resolucion de problemas multidimensionales son bastante populares los de Hooke y Jeeves y Rosenbrock, revisados, por ejemplo, en el libro de Fletcher (1987). Sin embargo el que ha demostrado mejores cualidades es el simplex o la modi cacion que de el hicieron Nelder y Mead (Edgar y Himmelblau, 1988) . Todos ellos se basan en el uso de patrones de busqueda: por ejemplo en el caso de Hooke y Jeeves, se usan los ejes coordenados y las direcciones que resultan de unir dos puntos de la secuencia. En el metodo de Rosenbrock, se usan ~ direcciones ortogonales linealmente independientes. El metodo simplex, genera guras geometricas de ~ + 1 vertices, llamadas simplex, en el espacio de busqueda, y sustituye el vertice de peor funcion objetivo por otro nuevo generando as un nuevo simplex. El metodo de Nelder y Mead es una modi cacion del metodo simplex, en el que el tama~o n de los simplex es exible, pudiendo expandirse o reducirse a lo largo del proceso de busqueda. Por ultimo, cabe mencionar el metodo complex, que es una modi cacion del metodo simplex pero que permite resolver problemas con restricciones de desigualdad (Reklaitis et al., 1983).
En lo sucesivo denota simplemente funcion objetivo de un problema sin restricciones, en el caso de problemas con restricciones =P .
2
J J

38

Cap tulo 2. Optimizacion estacionaria

La principal desventaja de estas estrategias radica en el hecho de que a medida que ~ aumenta, pierden e ciencia y es por este motivo que durante algunos a~os n quedaron relegados a un segundo plano. Sin embargo Wright (1996) propone la recuperacion de este tipo de estrategias directas y presenta nuevas modi caciones al metodo de Nelder y Mead que aumentan su e ciencia. Lewis et al. (2000) revisan el pasado y el presente de los metodos de busqueda directa, y proponen nuevas metodolog as que permiten la resolucion de problemas con restricciones generales (Lewis y Torczon, 2000). Sin embargo, incluso en estos metodos mejorados, el numero de evaluaciones de la funcion objetivo sigue siendo muy elevado y para problemas en los que la evaluacion de la funcion objetivo es costosa son muy ine cientes.

2.5.3 Metodos indirectos


Como alternativas que requieren menor numero de evaluaciones de la funcion objetivo surgen los metodos indirectos, que hacen uso de informacion extra que facilita el acercamiento al optimo.

Metodos del gradiente


El metodo de gradiente clasico, o del descenso mas rapido (steepest descent), propuesto por Cauchy en el siglo XIX, usa el negativo del gradiente de la funcion objetivo como direccion de busqueda, s = ;rJ (v). Se puede probar su convergencia al optimo con velocidad lineal (Nash y Sofer, 1996). Su comportamiento es muy bueno sobre todo en los primeros pasos, acercandose rapidamente a la solucion. Sin embargo, una vez cerca genera direcciones en ocasiones casi ortogonales, produciendo un zig-zag que lo vuelve muy lento e ine ciente.

Metodos de segundo orden


El resto de los metodos deterministas basan el calculo de la direccion de busqueda en la solucion de un sistema de ecuaciones no lineal. Existen diversos metodos para la resolucion de sistemas de ecuaciones no lineales. Aqu se describe muy brevemente el metodo de Newton ya que ha resultado ser muy e ciente y constituye la base de la mayor a de los metodos de optimizacion no lineal. Sea un sistema de ecuaciones M(v) = 0. El metodo de Newton es un metodo iterativo que genera una secuencia de soluciones basandose en una aproximacion lineal de la funcion M:
M

(vk + s) = M(vk ) + rM(vk )s

(2.16)

2.5. Metodos de optimizacion local

39

Resolviendo ahora el sistema resulta:


M

(vk ) + rM(vk )s = 0

s=

;rM

(vk );T M(vk )

(2.17) (2.18)

El nuevo elemento en la secuencia sera:

vk+1 = vk

; rM

(vk );T M(vk )

Los metodos de optimizacion que se veran a continuacion hacen uso del metodo de Newton para la resolucion de la ecuacion de optimalidad de primer orden (ec. (2.7)). Por consiguiente, la direccion de busqueda vendra dada por la expresion, que a partir de este momento denominaremos ecuacion de Newton:
r

2 J (vk )sk

= ;rJ (vk )

(2.19) (2.20)

resultando:

sk = ( 2J (vk ));1 J (vk )


; r r

en donde aparece el Hessiano de la funcion objetivo, lo cual es deseable ya que mejora las propiedades de convergencia (Fletcher, 1987), alcanzando convergencia cuadratica en la proximidad de la solucion. Sin embargo, utilizar la direccion de busqueda tal como aparece en la expresion (2.20), metodo de Newton tradicional, tiene algunas limitaciones: El Hessiano podr a ser singular o no ser de nido positivo en algun momento, bien durante el proceso de optimizacion o en la solucion obtenida. En el primer caso, se pueden utilizar tecnicas de modi cacion del Hessiano para transformarlo en una matriz de nida positiva, de manera que as se garantizar a una direccion de busqueda descendente (Gill et al., 1981). En el segundo caso, una vez se ha obtenido un punto estacionario se puede comprobar si es un punto de in exion mediante peque~as perturbaciones de n la solucion y observando que sucede con la funcion en un entorno del punto hallado. Este metodo no es muy riguroso. Sin embargo en la practica es muy util. Si la dimension del problema de optimizacion (~) es elevada el calculo del Hessiano (o su inverso) puede ser inviable o, como m nimo, muy costoso.

40

Cap tulo 2. Optimizacion estacionaria

Como alternativas se presentan los metodos de Newton modi cados que hacen uso de metodos de busqueda lineal para garantizar la convergencia y los quasiNewton que, en general, tratan de aproximar la direccion de Newton asintoticamente. Los metodos quasi-Newton son bastante populares, en el sentido de que han sido utilizados para la resolucion de un gran numero de problemas con exito. Hay diversos tipos, pero todos ellos se basan en aproximar el Hessiano por una matriz B, que se actualiza en cada iteracion, y calcular la direccion de busqueda mediante la solucion de una ecuacion de Newton aproximada:

J (vk ) (2.21) El tipo de metodo quasi-Newton viene determinado por las condiciones impuestas a la matriz Bk , que en general se destinaran a mantener las mejores propiedades del Hessiano, es decir, que sea simetrica y de nida positiva. Destacan los llamados metodos del grupo Broyden, basados en el uso de la formula BFGS (desarrollada por Broyden, Fletcher, Goldfarb y Shano en 1970) para actualizar el inverso de la matriz Bk . Simultaneamente se presento, con el mismo n, la llamada formula de Davidon-Fletcher-Powell (DFP). Sin embargo el mismo Powell recomendar a el uso de la BFGS por ser mas robusta y tener mejores propiedades de convergencia (Bazaraa et al., 1993).
;r

Bk sk =

Metodos para la resolucion de problemas de dimension elevada


Los metodos presentados hasta ahora manejan matrices (bien el Hessiano o sus aproximaciones) habitualmente densas y de dimension en ocasiones elevada requieren, ademas, un gran numero de operaciones por iteracion (proporcional a ~3 o ~2), lo que limita su aplicacion a problemas de dimension reducida. En los ultimos a~os se han dedicado grandes esfuerzos al desarrollo de metodos n cuyos requerimientos sean menores y permitan la resolucion e ciente de problemas de dimension elevada ya que son estos los problemas mas habituales en la practica. Los mas populares son el metodo de Gradiente Conjugado no lineal (Nonlinear Conjugate Gradient method, CG), originalmente desarrollado para sistemas lineales por Hestenes y Stiefel (1952) y revisado con gran detalle para problemas no lineales en el libro de Hestenes (1980) el metodo BFGS de memoria limitada (Limited memory BFGS, L-BFGS Liu y Nocedal, 1989) y el metodo de Newton Truncado (Truncated Newton, TN Nash, 1984). Aqu no se presentan detalles sobre el funcionamiento de estos metodos. Sin embargo, s es conveniente destacar las virtudes de cada uno de ellos, para concluir,

2.5. Metodos de optimizacion local

41

de alguna manera, cual ser a el mas adecuado para la resolucion de un determinado problema. El metodo de gradiente conjugado, se basa en la resolucion de la ecuacion de Newton de manera iterativa generando direcciones de busqueda mutuamente conjugadas con respecto al Hessiano. Solo requiere una memoria aproximada de 4~ lo que lo hace un rme candidato para la resolucion de problemas de dimension elevada. Sin embargo, realiza un elevado numero de evaluaciones de la funcion objetivo lo que para algunos problemas puede ser una limitacion importante. El L-BFGS esta basado en el metodo BFGS original que aproximaba el inverso del Hessiano del sistema utilizando la formula que le da nombre. Sin embargo, este metodo requer a guardar en memoria toda la matriz y operar con ella, lo que para problemas grandes resultaba muy costoso. En el metodo L-BFGS, sin embargo, esta matriz se calcula mediante la reserva en memoria de una serie de vectores correspondientes a un numero m de iteraciones, que la de nen expl citamente y que dependen exclusivamente de v y del gradiente de la funcion a minimizar. El TN esta basado en la resolucion aproximada de la ecuacion de Newton (ec. (2.20)) utilizando un metodo iterativo, habitualmente el metodo de gradiente conjugado, que se para (trunca) antes de llegar a la solucion. Consta, pues, de dos iteraciones, una exterior en la que se genera una secuencia de puntos utilizando direcciones de busqueda cuyo calculo requiere una iteracion interna para resolver aproximadamente la ecuacion de Newton. En el trabajo de Nash y Nocedal (1991) y en el de Baysal et al. (1999) se hace un analisis comparativo de estos tres metodos, CG, L-BFGS y TN, estudiando las ventajas y desventajas de cada uno de ellos en la resolucion mas de 100 problemas de hasta 10000 variables, en el primero, y en la resolucion de problemas relacionados con la con guracion de moleculas grandes, en el segundo. En el primero se concluye que CG realiza muchas mas evaluaciones de la funcion objetivo. As pues, en los problemas de dimension elevada, en los que el coste de computacion para evaluar la funcion objetivo sea reducido, este tipo de algoritmos puede resultar de utilidad pero en caso contrario no son competitivos. Esto se con rma en el trabajo de Baysal et al. (1999) donde el metodo CG es claramente inferior (hasta 4 veces mas lento) dado que el calculo de las funciones objetivo y sus gradientes es bastante costoso. En cuanto a la comparacion entre L-BFGS y TN, en ambos trabajos se concluye que ninguno de los dos es claramente superior aunque s podr an establecerse ciertas pautas de comportamiento de cada uno de ellos que los hacen mas o menos adecua-

42

Cap tulo 2. Optimizacion estacionaria

dos segun el tipo de problema. L-BFGS, tiende a utilizar menos evaluaciones de la funcion objetivo y su gradiente, sin embargo en terminos de tiempo de computacion ninguno de los dos resulta vencedor, ya que el TN realiza menos iteraciones compensando as el coste superior de cada una de ellas. Por ultimo, el metodo TN resolvio con exito todos los problemas mientras que L-BFGS fallo en algunas ocasiones. La e ciencia relativa del TN deriva de que realiza muy pocas iteraciones y por lo tanto, cualquier mejora que se pueda introducir a la iteracion interior, resulta en un aumento considerable de e ciencia. Algunas de estas posibles mejoras estan contempladas en el trabajo de Nash (2000). Hasta ahora se han presentado metodos indirectos que permiten la resolucion de problemas sin restricciones o problemas con restricciones mediante el uso de funciones de penalizacion. Sin embargo, como se comento en la seccion 2.4, existen metodos desarrollados para la resolucion de problemas con restricciones a traves del uso de las condiciones de optimalidad de KKT y son los que se presentan a continuacion.

Programacion cuadratica sucesiva


Los metodos basados en programacion cuadratica sucesiva (SQP) no transforman el problema original con restricciones en uno sin restricciones sino que transforman el problema en una sucesion de problemas cuadraticos con restricciones lineales (Gill et al., 1981). Estan basados en la aplicacion del metodo de Newton a las condiciones de optimalidad de Karush-Kunh-Tucker (ec. (2.11)) y por lo tanto, presentan las mismas virtudes y limitaciones que el metodo de Newton tradicional. Estos metodos necesitaran un metodo de busqueda en l nea para mejorar sus propiedades de convergencia. Para ello se usara un funcion de merito (merit function) dado que los puntos generados son no factibles y hay que encontrar una solucion de compromiso entre reducir la funcion objetivo o reducir la violacion de las restricciones. Los metodos SQP han demostrado una gran e ciencia en la resolucion de problemas cuya funcion objetivo y las restricciones son suaves, es decir, se aproximan de manera satisfactoria por funciones cuadraticas. Este tipo de estrategias resuelve, como se ha dicho, una secuencia de problemas cuadraticos, en los que en cada iteracion se requiere la resolucion de un sistema de

2.6. Metodos de optimizacion global

43

ecuaciones generalmente grande, para calcular la direccion de busqueda tanto para las variables de optimizacion como para los multiplicadores de Lagrange. Esto puede ser terriblemente costoso y por lo tanto, en los ultimos a~os se han dedicado muchos n esfuerzos al desarrollo de estrategias e cientes, similares a las que se vieron en el caso sin restricciones, para el metodo de Newton. Una revision sobre estos y otros aspectos puede encontrarse en los trabajos de Boggs y Tolle (1996) y en Nocedal y Wright (1999).

Metodo de gradiente reducido generalizado


Una caracter stica propia de los metodos SQP es que solo veri can las restricciones en el l mite, es decir, que los distintos puntos generados pueden ser, o no, factibles. Esto, evidentemente, no siempre es deseable y como alternativa se presentaron los metodos llamados de gradiente reducido (reduced-gradient methods). A diferencia del metodo SQP, el metodo de gradiente reducido esta dise~ado para n la resolucion de problemas con restricciones de igualdad. Por lo tanto, usaran variables asociadas (slack variables) para transformar las restricciones de desigualdad en restricciones de igualdad. Para el calculo de la direccion de busqueda utiliza el llamado gradiente reducido generalizado, que no es mas que una combinacion del gradiente de la funcion objetivo y un pseudo-gradiente que se calcula a partir del gradiente de la funcion objetivo y el jacobiano de las restricciones (Bazaraa et al., 1993). Por otra parte, dado que en este caso todos los puntos son factibles, en la busqueda lineal se utilizara la funcion objetivo como funcion de merito. Esto permite calcular la velocidad de convergencia, que en general, sera cuadratica. Ambas estrategias son validas. Sin embargo, la principal desventaja del metodo de gradiente reducido radica precisamente en el hecho de que calcular soluciones factibles en todas las iteraciones es muy costoso en terminos de tiempo computacional lo que ha hecho que la mayor a de los usuarios se haya decantado por el uso de metodos de penalizacion o SQP.

2.6 Metodos de optimizacion global


El nexo comun a todos los metodos descritos hasta ahora es que buscan optimos locales. Sin embargo, en muchas ocasiones los problemas a resolver son multimodales (no convexos) y es necesario utilizar estrategias globales que permitan encontrar el mejor de estos optimos locales. En la bibliograf a se han propuesto diversos metodos

44

Cap tulo 2. Optimizacion estacionaria

tanto deterministas como estocasticos para buscar optimos globales. La mayor a se recogen en lo libros de Horst y Pardalos (1995), Pinter (1996) y Floudas (2000). En esas revisiones se discuten tecnicas de caracter general que presentan un rango de aplicabilidad elevado. Sin embargo, el tipo de problema a resolver delimita el tipo de metodo a utilizar. En primer lugar se revisan aqu los tipos de problemas y los posibles metodos a utilizar para luego estudiar con algo mas de detalle las distintas tecnicas. Se distinguen los siguientes tipos de problemas: Problemas combinatorios: incluyen variables enteras y/o reales y tienen un numero nito de soluciones habitualmente muy elevado. Si la funcion es lineal, el problema se puede resolver exactamente con metodos adecuados para la resolucion de problemas mixtos que usan por ejemplo la tecnica de ramicacion y poda (branch and bound, BB). Algunos metodos heur sticos como templado simulado (simulated annealing, SA), busqueda tabu (tabu search, TS) y algoritmos geneticos (genetic algorithms, GAs) se han aplicado con bastante exito a la resolucion aproximada de este tipo de problemas. Problemas no lineales sin restricciones, o con restricciones tipo l mite, multimodales. Para su solucion se han desarrollado numerosas estrategias deterministas basadas en el llamado particionamiento que requieren normalmente algun procesado previo del problema con el n de transformarlo en una combinacion de problemas mas sencillos. Por otra parte, se han desarrollado varios metodos que resuelven este tipo de problemas de manera heur stica, estos incluyen los antes mencionados SA y GAs, adaptados para variables de decision reales y otros como los clustering methods o los de busqueda aleatoria (random search). Por ultimo estan los problemas multimodales no lineales con restricciones. Estos no han recibido tanta atencion como los anteriores ya que en general son mas complicados. Sin embargo, al igual que suced a con los problemas unimodales, muchos de los metodos anteriores se pueden aplicar a la solucion de este tipo de problemas en combinacion, por ejemplo, con funciones de penalizacion. Una primera clasi cacion permite distinguir entre metodos deterministas y metodos estocasticos.

2.6. Metodos de optimizacion global

45

2.6.1 Metodos deterministas


Los metodos deterministas globales, al igual que los locales, hacen uso de informacion acerca de la estructura del problema y poseen algunas propiedades de convergencia teoricas para ciertas estructuras. En cualquier caso, es preciso subrayar que no existe ningun metodo de convergencia asegurada al optimo global en tiempo nito para el problema general. Entre las multiples estrategias deterministas que se han presentado para la resolucion de problemas de optimizacion global destacan: rami cacion y poda (branch and bound), metodos basados en la aritmetica de intervalos (interval methods) y algoritmos de planos de corte (cutting plane methods). Los metodos de rami cacion y poda comienzan considerando el problema original con la region factible completa (problema ra z). Se aplican entonces estrategias para calcular l mites inferiores (lower-bounding) y superiores (upper-bounding) al problema ra z. Si ambos l mites coinciden dentro de una tolerancia, entonces se ha encontrado la solucion y el proceso termina. Si no es as , la region factible se divide en dos o mas regiones generando subproblemas que se convierten en los llamados hijos. El algoritmo se aplica de manera recursiva a todos los hijos generando un arbol de subproblemas. Si se encuentra una solucion a uno de los subproblemas, se trata de una solucion factible pero no necesariamente el optimo global. Dado que la solucion es factible se puede usar para \podar" el resto del arbol eliminando todas aquellas ramas cuyo l mite inferior quede por encima. El proceso continua hasta que todas las ramas del arbol han sido evaluadas o podadas. En la actualidad el mas popular de estos metodos parece ser el BB desarrollado por Adjiman et al. (1998). Un caso particular aplicado a la resolucion de problemas cuadraticos es el metodo denominado Generalized Benders Decomposition implementado, por ejemplo, en GOP de Floudas y Visweswaran (1990), que resuelve el problema original a traves de la solucion de un arbol de problemas convexos. El uso de este metodo requiere cierta labor de preprocesado del problema: por ejemplo, los terminos no lineales deben transformarse en sumas de terminos lineales, bilineales, convexos, etc. Es decir, terminos faciles de manejar, lo que di culta su uso para problemas generales. Este tipo de metodos se ha aplicado en los ultimos a~os a la resolucion de problen mas relacionados con el dise~o y control de procesos en ingenier a qu mica: Floudas n (1999) Sahinidis y Tawarmalani (2000) e incluso a la optimizacion dinamica de cierto tipo de problemas en Esposito y Floudas (2000 a y b) . Los metodos de intervalos estan basados en una busqueda exhaustiva y adaptativa del dominio. La idea general es combinar los principios del metodo de rami-

46

Cap tulo 2. Optimizacion estacionaria

cacion y poda y la aritmetica de intervalos que, en esencia, se basa en el hecho de que un punto v se puede especi car como un intervalo v ; v + ] y desarrolla las operaciones aritmeticas propias entre intervalos3. En particular, los l mites inferior y superior que requiere el metodo de rami cacion y poda, se obtienen directamente de la evaluacion de las funciones mediante el uso de la aritmetica de intervalos lo que implica que los resultados se encuentran en cajas a cada paso del algoritmo. Las ideas basicas sobre la aplicacion de los metodos de intervalos se revisan en el art culo de Ratschek y Rokne (1995). En ese trabajo se discuten diversas posibilidades, entre las que destacan el metodo de Newton de intervalos para problemas diferenciables y sin restricciones y tecnicas h bridas en que se combinan las tecnicas de intervalos con algoritmos locales directos para casos no diferenciables y con restricciones. En los ultimos a~os se ha intentado mejorar la e ciencia de estos metodos. As , n por ejemplo, en Leclerc (1992) se sugieren diversas ideas para mejorar su e ciencia a traves del uso de tecnicas de aceleracion y de la paralelizacion del metodo en Casado et al. (2000), se proponen tecnicas de subdivision de intervalos en las cercan as del optimo que parecen mejorar sustancialmente la e ciencia. Algunas de estas ideas y otra nuevas han sido implementadas en lo que se ha llamado GlobSol y ParaGlobsol (Kearfott4) y aplicadas a la solucion de problemas reales en Corlis y Kearfott (1999). Los metodos de planos de corte fueron propuestos por Tuy en los a~os 60 n para la resolucion de problemas de optimizacion con restricciones lineales. La idea se basa en el hecho de que en presencia de restricciones lineales el optimo estara en un vertice de la region factible. El metodo comienza en uno de estos vertices y sus bordes constituyen un cono que incluye la region factible. A continuacion se va reduciendo el tama~o del cono mediante el uso de \cortes" que permiten eliminar n regiones no candidatas al optimo global. En cada corte se resuelve un subproblema que dara lugar a otro cono y as sucesivamente hasta encontrar la solucion. La principal limitacion de estos metodos es que pueden requerir un numero in nito de cortes o generar soluciones c clicas no llegando a converger (Floudas y Visweswaran, 1995). Aqu se han presentado las tecnicas mas utilizadas, sobre todo las dos primeras. Existen otras, como por ejemplo las denominadas outer approximation o inner approximation en las que el problema se aproxima por funciones cuadraticas que se van re nando sucesivamente. Este tipo de estrategias se usa habitualmente en comPara mas detalles en aritmetica de intervalos revisar la pagina web http://cs.utep.edu/intervalcomp/main.html 4 Informacion e informes relacionados: http://www.mscs.mu.edu/ globsol/
3

2.6. Metodos de optimizacion global

47

binacion con rami cacion y poda. Aunque la mayor a de estos metodos han resultado ser bastante robustos el esfuerzo computacional requerido crece muy rapidamente, en ocasiones exponencialmente, con el tama~o del problema. Por ello muchos de estos metodos deben n completarse con algun tipo de metodo local para mejorar su e ciencia (Pinter, 1996).

2.6.2 Metodos estocasticos


Las principales limitaciones de los metodos deterministas globales han llevado al uso, cada vez mayor, de metodos estocasticos debido fundamentalmente a que no requieren una estructura de problema determinada, son faciles de implementar y utilizar, y son aplicables a un rango muy amplio de problemas. Su principal limitacion radica en que no es posible demostrar su convergencia al optimo global, unicamente en un sentido probabil stico asintotico a medida que el numero de iteraciones tiende a in nito. Historicamente, quizas el primer metodo global de este tipo fue el basado en el uso de metodos locales partiendo de un numero su cientemente grande de valores iniciales (multistart procedure) generados aleatoriamente. La mejor solucion se consideraba una buena aproximacion del optimo global. Los metodos de clustering aparecen en los a~os 70 como una modi cacion mas e ciente de los anteriores, n que permiten localizar regiones que representan vecindades de los optimos locales y evitan as busquedas redundantes. La principal limitacion de estos metodos es el elevado coste computacional. A partir de estas primeras estrategias se han generado otras nuevas que en general se pueden clasi car en dos grupos: las llamadas secuenciales, que generan un punto en cada nueva iteracion, y las basadas en poblaciones, que generan un conjunto de puntos en cada iteracion.

Metodos estocasticos secuenciales adaptativos


Los metodos mas sencillos son los llamados de busqueda aleatoria (random search). Estos algoritmos producen secuencias de puntos de busqueda siguiendo una determinada distribucion probabil stica. Cada punto se genera aleatoriamente en funcion del punto anterior y se acepta si se mejora el objetivo o con cierta probabilidad si no se mejora. En este grupo se incluyen el popular \escalado al cerro" (hill climbing) y el \templado simulado" (simulated annealing, SA). En los metodos tipo escalado al cerro, se pasa de un punto a otro unicamente en el caso de que se mejore el valor de la funcion objetivo. Estos algoritmos adop-

48

Cap tulo 2. Optimizacion estacionaria

tan muchas formas diferentes, segun la dimension del problema a resolver, metodo para establecer la direccion de busqueda, etc. Su principal limitacion consiste en la convergencia local, que con frecuencia se produce, al optimo mas cercano al punto inicial. Para evitar la convergencia local Maza y Yuret (1994) presentan el llamado Dynamic Hill Climbing (DHC) que opera en dos iteraciones de manera que la exterior controla precisamente la convergencia a un optimo global mediante un metodo semejante al multistart. Dentro de los metodos de busqueda aleatoria se enmarcan por ejemplo los tradicionales Luus-Jaakola (Luus y Jaakola, 1973), utilizado todav a hoy por ejemplo en la resolucion de problemas de optimizacion dinamica (Bojkov et al., 1993 Luus y Hennessy, 1999) o el metodo de busqueda aleatoria controlada (Controlled Random Search, CRS) (Goulcher y Casares, 1978) y sus modi caciones (ICRS, Banga y Casares, 1987), ampliamente utilizado en los ultimos a~os para la optimizacion n dinamica de procesos (Banga y Seider, 1996 Banga et al., 2000 entre otros). El metodo de templado simulado, propuesto por Kirkpatrick et al.(1983), se podr a incluir dentro del grupo de los escaladores. Su fundamento es una analog a del proceso termodinamico por el cual los metales se calientan o enfr an hasta alcanzar un estado cristalino de m nima energ a. Se plantea un paralelismo entre el comportamiento de las moleculas en el interior del solido, que van colocandose en los diferentes niveles energeticos, y las soluciones intermedias por las que pasa el algoritmo hasta alcanzar la solucion. Cada punto se genera a partir del anterior, y si mejora la funcion objetivo se acepta incondicionalmente. En cambio, si no la mejora se puede aceptar con una cierta probabilidad. Dicha probabilidad esta basada en la analog a con el proceso f sico de enfriamiento y sera funcion de la temperatura. Entre los trabajos recientes destaca el de T. Wang (2000) donde se presenta el llamado CSA que combina el metodo SA con el metodo de los multiplicadores de Lagrange para manejar restricciones. Por ultimo, se han presentado otros tipos de metodos que de alguna manera pretenden introducir conocimiento o memoria en la busqueda. Destaca el de busqueda tabu (Tabu Search, TS) (Glover, 1986). Sin embargo, hasta el momento, este metodo solo se ha utilizado en problemas de optimizacion combinatoria.

Metodos estocasticos basados en poblaciones


n Como alternativas a estos metodos, en los ultimos a~os se han desarrollado nuevos algoritmos heur sticos que toman su inspiracion de la seleccion natural y de la supervivencia del mas fuerte. Son las llamadas estrategias evolutivas (evolutionary

2.6. Metodos de optimizacion global

49

algorithms, EAs) o algoritmos geneticos (genetic algorithms, GAs). Estos algoritmos fueron introducidos en los a~os 70 por Holland y han sido aplicados a n problemas practicos por primera vez por Goldberg, que los revisa extensamente en Goldberg (1989). Los algoritmos geneticos establecen una analog a entre el conjunto de soluciones de un problema y el conjunto de individuos de una poblacion natural, codi cando la informacion de cada solucion a modo de cromosoma (Michalewicz, 1996). Se introduce una funcion de evaluacion de los cromosomas, que habitualmente se denomina de calidad ( tness) y que esta basada en la funcion objetivo del problema. Por otra parte se introduce un mecanismo de seleccion de manera que los cromosomas con mejor funcion objetivo se seleccionan para construir nuevas generaciones a traves de los procesos de mutacion y recombinacion. En los primeros trabajos las soluciones se representaban por cadenas binarias. Este tipo de representacion de los datos permite entender muy facilmente los conceptos de mutacion y recombinacion. En las implementaciones actuales se usan representaciones en punto otante que para muchos problemas son mas naturales. Basado tambien en la idea de evolucion surge el metodo de Di erential Evolution5 (Storn y Price, 1997). Este metodo se basa en la generacion de nuevos puntos a traves del calculo de diferencias entre miembros de una poblacion. Este metodo ha demostrado su capacidad en un rango muy elevado de aplicaciones de ah su creciente popularidad. Es importante destacar que el uso de este tipo de algoritmos ha crecido de forma espectacular en los ultimos a~os. Especial mencion merecen los llamados n algoritmos memeticos (Memetic Algorithms) (Moscato, 1989) tambien basados en poblaciones y que han resultado ser mucho mas rapidos que los algoritmos geneticos tradicionales al menos para algunas clases de problemas. Basicamente, combinan metodos de busqueda local con el operador de recombinacion con el n de introducir informacion y conocimiento en la busqueda. Pero, una vez mas, estos metodos se han desarrollado para la solucion de problemas combinatorios. Por ultimo, algunos autores han buscado otras fuentes de inspiracion para el desarrollo de nuevos metodos de optimizacion global. En particular Dorigo et al. (1992) y Bonabeau et al. (2000) se inspiran en el comportamiento de las comunidades de hormigas. Estas tienen la habilidad de encontrar el camino mas corto desde el hormiguero a la comida y vuelta, a pesar de no tener nocion de direccion. El origen de esta habilidad se encuentra en el hecho de que segregan feromonas que permiten marcar el camino a seguir, de tal forma que la probabilidad de seguir un
5

Di erential Evolution: http://www.icsi.berkeley.edu/~ storn/code.html

50

Cap tulo 2. Optimizacion estacionaria

camino u otro aumenta a medida que aumenta la cantidad de feromonas depositada en tal camino. Estas son las ideas basicas en las que se sustentan los llamados ant colony methods. Inicialmente desarrollados para la resolucion de problemas combinatorios, muy recientemente han aparecido las primeras modi caciones para la resolucion de problemas NLP (Jayaraman et al., 2000).

Cap tulo 3 Optimizacion dinamica

El problema de optimizacion dinamica, tambien llamado de control optimo en lazo abierto, consiste en calcular las trayectorias temporales que deben seguir ciertas variables manipulables (controles) para alcanzar un cierto objetivo, normalmente formulado como la maximizacion o minimizacion de una funcion de coste. En este cap tulo se presenta la formulacion matematica del tipo general de problema que se considerara a lo largo de este trabajo. Asimismo se revisaran los metodos numericos que se han planteado a lo largo del tiempo para la resolucion de este tipo de problemas, con especial enfasis en los metodos mas utilizados en la actualidad. Por ultimo, se comparan las distintas metodolog as para la resolucion de problemas tanto en parametros concentrados como distribuidos, lo que justi cara la seleccion del metodo de parametrizacion de control como punto de partida para el desarrollo de nuevos metodos de optimizacion dinamica.

51

52

Cap tulo 3. Optimizacion dinamica

3.1 Formulacion matematica


En este trabajo se considera la resolucion del problema optimizacion dinamica de procesos distribuidos, entendiendo como tales aquellos cuyas variables de estado, o algunas de ellas, dependen del tiempo y de la posicion. El problema general de optimizacion dinamica puede formularse como sigue: Encontrar u(t) w y tf con el n de minimizar el funcional:

J = (x( tf ) y(tf ) tf ) +

Z tf
t0

L(x( t) y(t) u(t) w

t)dt

(3.1)

con una serie de restricciones dinamicas que constituyen el modelo matematico del proceso: _ F (x x x xt y y u w t) = 0 (3.2) donde F 2 R es el conjunto de PDAEs , 2 R 3 son las variables espaciales, x( t) 2 X R son las variables de estado que dependen tanto del tiempo como de la posicion, y(t) 2 Y R es el subconjunto de variables que _ depende unicamente del tiempo, x = @ x=@ , x = @ 2 x=@ 2, xt = @ x=@t, y = dy=dt, u 2 U R son las variables de control (entradas al sistema) y w 2 W R son parametros independientes del tiempo. Las relaciones entre las distintas variables incluidas en el vector F expresan la dinamica del sistema. La mayor a de estas ecuaciones representan balances de alguna entidad creada o destruida en el proceso a estudiar. Las ecuaciones diferenciales surgen de la descripcion de balances de materia o energ a transitorios y las ecuaciones algebraicas describen procesos en equilibrio o de nen propiedades f sicas del sistema. En el caso de procesos distribuidos, las variables que describen el estado del sistema son ademas funciones del espacio. El resultado es un conjunto de ecuaciones algebraicas, diferenciales y en derivadas parciales (PDAEs). Los valores de las variables al comienzo del proceso deben estar expresados por un numero su ciente y no redundante de condiciones iniciales para asegurar la resolucion del sistema de PDAEs:

F 0 (x(t0) y(t0) u(t0 ) w t0) = 0

(3.3)

Sin embargo, para poder resolver las ecuaciones en derivadas parciales, es preciso, ademas, imponer condiciones frontera al sistema, tal y como se comento en el cap tulo 1, y que de forma abreviada se expresan:

3.1. Formulacion matematica

53

(x u w

t) = 0

(3.4)

Durante su operacion, los procesos deben satisfacer ciertos requerimientos: de seguridad (por ejemplo rangos de temperaturas, presiones, concentraciones de productos qu micos, que no entra~en riesgos), de produccion (por ejemplo especi can ciones en la calidad o cantidad de producto nal, en duracion del proceso, etc.), de impacto ambiental (impuestos por las regulaciones ambientales) y algunos otros que son inherentes a la operacion o de caracter economico. Con el n de expresar estas condiciones, se imponen restricciones sobre las distintas variables y parametros que afectan al desarrollo del proceso. De entre estas restricciones las habra que deben veri carse en determinados momentos del proceso (son las denominadas restricciones puntuales, point constraints), a tiempo nal (endpoint constraints) o bien durante todo el tiempo de procesamiento (restricciones de camino, path constraints). Un primer tipo de restricciones puede afectar a diversas variables (tanto de estado como de control) del proceso y se expresan como sigue:

req (x( k rin(x( k ceq (x( cin(x(

tk ) y(tk ) u(tk ) w tk ) = 0 tk ) y(tk ) u(tk ) w tk ) 0 t) y(t) u(t) w t) = 0 t) y(t) u(t) w t) 0

(3.5) (3.6) (3.7) (3.8)

en donde las ecs. (3.5) y (3.6) corresponden a las restricciones puntuales, incluyendo las de tiempo nal (tk = tf ) y las ecs. (3.7) y (3.8) expresan las restricciones de camino. Por ultimo, un segundo tipo de restricciones, que tambien deben veri carse durante todo el tiempo de proceso, son las que afectan unicamente a las variables de control y a los parametros invariantes con el tiempo, y que normalmente expresan rangos de validez:

uL u(t) uU wL w wU

(3.9) (3.10)

54

Cap tulo 3. Optimizacion dinamica

3.2 Breve revision historica


El problema de optimizacion dinamica de un proceso, tal como se expuso con anterioridad, consiste en decidir que valores, dentro de unos posibles, han de tomar ciertas variables manipulables (controles) para obtener el mejor resultado para un cierto criterio. El interes por la optimizacion dinamica no es nuevo. El primer problema de optimizacion fue planteado por J. Bernoulli a la comunidad cient ca del siglo XVII, y consist a en calcular la trayectoria que tendra que describir un movil, sometido a la fuerza peso y deslizandose sin rozamiento por dicha trayectoria, para desplazarse entre dos puntos de un plano vertical, en tiempo m nimo. El propio Bernoulli, Leibniz, L'Hospital y Newton resolvieron independientemente el problema llegando a la conocida \braquistocrona" y al desarrollo del calculo de variaciones. Sin embargo su interes fue mas alla y poco despues el propio Bernoulli asegurar a, a la luz de los descubrimientos de sus contemporaneos, que los sistemas naturales se comportan de la forma mas sencilla, es decir, aquella que lleva a optimizar (maximizar o minimizar) alguna cantidad: tiempo, energ a, etc. Y as por ejemplo, el Principio de Fermat (s. XVII) sobre la propagacion de la luz, establece que el camino que sigue un rayo de luz entre dos puntos es tal que minimiza el tiempo. Los trabajos de Euler y Hamilton concluyeron que un sistema se mueve de tal forma que minimiza la integral temporal de la diferencia entre la energ a cinetica y potencial (s. XVIII). Dado que los sistemas naturales evolucionan de manera optima, parece logico desarrollar sistemas arti ciales que permitan manipular de alguna manera los distintos procesos y llevarlos as a alcanzar un optimo bajo algun criterio. La primera aplicacion practica de la optimizacion surge antes de la Segunda Guerra Mundial, con la necesidad de maximizar el rendimiento del escaso armamento disponible en el ejercito Britanico. A partir de ese momento, el numero de aplicaciones se ha multiplicado y es en los a~os 50 cuando se proponen por primera vez dos metodos n para la resolucion practica del problema de optimizacion dinamica: En 1957, R. Bellman, propuso la aplicacion de la llamada programacion dinamica para la resolucion de problemas de optimizacion de procesos en estado estacionario. Esta tecnica se adaptar a mas tarde para la resolucion de casos dinamicos. Y ya en 1958, L.S. Pontryagin desarrollo el principio maximo que lleva su nombre, y basandose en el calculo de variaciones desarrollado por L. Euler (1707-1783), resuelve el problema de tiempo m nimo utilizando una funcion de control de tipo

3.3. Metodos de optimizacion dinamica

55

todo/nada (on/o o bang-bang). Mas tarde en los a~os 60, R. Kalman y sus colaboradores, publicaron un trabajo n en el que discuten el problema de control optimo en lazo cerrado para un determinado grupo de problemas y proponen las ecuaciones de dise~o del regulador cuadratico n lineal (LQR). Durante las ultimas decadas, se han desarrollado diversas tecnicas de tipo directo que, aproximando las variables de estado y de control del sistema, permiten resolver, de manera mas sencilla el problema de optimizacion dinamica.

3.3 Metodos de optimizacion dinamica


Dado el interes que ha despertado el problema de optimizacion dinamica y las particularidades de los procesos, cada vez mas complejos, que se han ido considerando en los ultimos a~os, han sido muchos los metodos publicados para su resolucion. Sin n embargo, todos ellos se pueden clasi car en tres grandes grupos: metodos de programacion dinamica, metodos indirectos (donde se enmarca el principio maximo de Pontryagin) y metodos directos, que incluyen los de parametrizacion total y los de parametrizacion de control.

3.3.1 Programacion dinamica


Brevemente, los metodos de programacion dinamica estan basados en las condiciones de optimalidad de Bellman, es decir, encontrar la pol tica optima pasa por encontrar soluciones optimas para un numero dado de etapas sucesivas. Inicialmente desarrollado para la solucion de problemas estacionarios, su aplicacion a problemas dinamicos resulta en la llamada ecuacion de Hamilton-Jacobi-Bellman, que es una ecuacion no lineal en derivadas parciales que, salvo para casos muy particulares, no tiene solucion anal tica. Aunque en sus comienzos se hizo bastante popular, ya que supuso una de las primeras tecnicas sistematicas para la resolucion de estos problemas, para la mayor a de las aplicaciones practicas requiere un elevado tiempo de computacion, lo que relega su uso a casos en los que el numero de etapas es peque~o y los posibles n valores de control en cada etapa tambien lo son (Siouris, 1996 Bryson y Ho, 1988). En 1989, Luus propone el uso de un metodo denominado programacion dinamica iterativa (Iterative Dynamic Programming, IDP) que se basa en aplicar el principio de Bellman de manera iterativa. El metodo consiste en generar mallas para el control y los estados. A continuacion se optimiza en primer lugar el ultimo elemento

56

Cap tulo 3. Optimizacion dinamica

de control. Una vez encontrado el optimo, se optimiza el penultimo dejando el valor del ultimo elemento jo y as sucesivamente hasta generar el per l de control optimo secuencialmente hacia atras, es decir, hasta llegar a t0 . El proceso se repetira un numero de iteraciones pre jado. Para evitar buscar en un espacio in nito de soluciones, inicialmente se generan un numero de trayectorias de control posibles y a continuacion se generan una serie de nuevas trayectorias, permitiendo peque~as n modi caciones de las anteriores, de entre las que se seleccionara la mejor como la optima. Este metodo ha sido aplicado a la resolucion de problemas en parametros concentrados (por ejemplo, Luus, 1990 Bojkov y Luus, 1994 a y b Dadebo y McAuley, 1995 Tholudur y Ramirez, 1997 Sayer et al., 2000) con cierto exito en cuanto a resultados se re ere. Sin embargo, el coste computacional es muy elevado limitando su aplicacion a problemas de dimension peque~a. n En los libros de Bertsekas (1995 I y II) se puede encontrar una revision extensa del desarrollo y aplicacion de las estrategias basadas en programacion dinamica.

3.3.2 Principio maximo de Pontryagin


Los metodos indirectos intentan resolver el problema original a traves de la aplicacion del principio maximo de Pontryagin. Estan basados en el calculo del Hamiltoniano (H) del sistema, que depende de la funcion objetivo y de las restricciones, incluyendo la dinamica del sistema, asociadas al objetivo a traves de las llamadas variables adjuntas (adjoint variables). La solucion al problema pasa por resolver las condiciones necesarias de optimalidad (ver por ejemplo, Bryson y Ho, 1988). Con el n de ilustrar el procedimiento de obtencion de las condiciones de optimalidad, se considera el ejemplo sencillo de la optimizacion dinamica de un proceso descrito por ODEs en donde no aparecen restricciones de los tipos (3.5)-(3.8) y el tiempo nal esta jado. El proceso a optimizar esta descrito por un conjunto de ODEs de la forma: _ z = f (z u t) con las condiciones iniciales: (3.11) (3.12) (3.13)

z(t0) = z0
Z tf
t0

y la funcion objetivo a minimizar tiene la forma general:

J = (z(tf ) tf ) +

L(z(t) u(t) t)dt

3.3. Metodos de optimizacion dinamica

57

La dinamica del sistema corresponde a un conjunto de restricciones de manera que, igual que en el caso estacionario, se de ne un vector de variables , que en este caso seran funciones del tiempo, y se adjuntan a la funcion objetivo J resultando:
f ; g

Z tf ~ _ J = (z(tf ) tf ) + L(z(t) u(t) t) + T f (z u t) z dt (3.14) t0 Con el n de simpli car la formulacion se de nira el Hamiltoniano del sistema como sigue:
H

= L(z(t) u(t) t) +

T f (z

u t)

(3.15)

sustituyendo en la expresion (3.14) e integrando por partes resulta: ~ J = (z(tf ) tf )


;

T (t

f )z(tf ) +

T (t

0 )z(t0 ) +

Z tf
t0

fH

(z(t) u(t) t) + _ T zgdt (3.16)

Dado que las variables de decision son las funciones del tiempo u se calcula la ~ variacion que experimenta J ante peque~as variaciones en u: n ~ J = (@z @

"

T)

#
t=tf

Z tf @ z]t=t0 + t ( @ z + _ T ) z + @ u u dt (3.17) @ 0
f H H g

Si se eligen las variables adjuntas de tal forma que anulen los terminos en z se simpli ca notablemente la expresion (3.17): _ = ; @ H = ; @L ; @z @z con la condicion a tiempo nal:
T (t f) = T @f

@z

(3.18)

@ (3.19) @ z(tf ) ~ En un maximo o en un m nimo las variaciones de J (ec. (3.16)) con respecto a las variables de decision u deben anularse. Teniendo en cuenta ademas las expresiones (3.18) y (3.19) queda:
H

u=0

(3.20) (3.21)

y ademas para garantizar que se trata de un m nimo debe veri carse que:
H

uu

58

Cap tulo 3. Optimizacion dinamica

Por lo tanto para el caso de tiempo nal jo sin restricciones la aplicacion del principio maximo de Pontryagin resulta en la resolucion del sistema de ecuaciones diferenciales original (ec. (3.11)) mas las ecuaciones de Euler-Lagrange que dependen de las variables adjuntas (ec. (3.18)). Como consecuencia, el problema original se transforma en un problema de condiciones iniciales para los estados (ec. (3.12)) y nales para las variables adjuntas (ec. (3.19)) (Two Point Boundary Value Problem, TPBVP). Excepto en casos muy particulares, sera necesario emplear metodos numericos para resolver este tipo de problemas. Sin embargo, aunque la resolucion de problemas de condicion inicial (Initial Value Problems, IVP) esta al orden del d a, las condiciones de optimalidad resultan, al menos, en TPBVPs y sera necesario el uso de metodolog as espec cas, hasta el momento, menos desarrolladas. Las tecnicas mas utilizadas son las basadas en metodos de linealizacion (quasilinearization methods) (Miele y Wang, 1993) que radican en resolver una sucesion de TPBVPs lineales (relativamente sencillos), a traves, por ejemplo de la ecuacion matricial de Riccati. Sin embargo las matrices resultantes son densas y, para aplicaciones realistas, el coste computacional crece rapidamente. Otra posibilidad, consiste en usar metodos de gradiente para el calculo de secuencias de control hasta veri car las condiciones de optimalidad. Los metodos de gradiente muestran muy buen comportamiento en las primeras iteraciones sin embargo la convergencia es muy lenta lo que hizo que estos metodos se abandonasen rapidamente para ser sustituidos por metodos que usasen informacion de segundo orden. Es conveniente considerar el analisis de tres casos particulares que aparecen con cierta frecuencia en aplicaciones de ingenier a qu mica:

Per les de control tipo bang-bang


En aquellos procesos en los que tanto la funcion objetivo como las dinamicas dependen linealmente de las variables de estado y de las de control, no existira solucion a no ser que se especi quen restricciones sobre los estados o l mites sobre las variables de control. Si solo se imponen l mites sobre las variables de control, es logico suponer que la solucion estara precisamente en esos l mites, es decir, que la trayectoria temporal de las variables de control pasara de su valor maximo a su valor m nimo, resultando en lo que habitualmente se denomina per l todo-nada (bang-bang). Para resolver este tipo de problemas hay que estudiar los cambios de signo de

3.3. Metodos de optimizacion dinamica

59

las variables adjuntas. Salvo en casos muy sencillos, encontrar los instantes en los que se producen estos cambios sera complicado.

Arcos singulares
Existen problemas en los que en ciertos intervalos temporales se cumple la primera condicion de optimalidad (Hu = 0) pero la matriz Huu es singular. Esto sucede en problemas en los que el Hamiltoniano es no lineal en los estados pero lineal en los controles, lo que es muy habitual por ejemplo en bioreactores discontinuos, cuya solucion suele ser una combinacion bang-singular-bang (Bonvin, 1998). Para resolver estos problemas hay que imponer nuevas condiciones sobre las derivadas del Hamiltoniano que permitan obtener una expresion de las variables de control.

Restricciones en los estados


En presencia de restricciones en el calculo de las condiciones de optimalidad apareceran nuevas variables adjuntas y la solucion del problema se complica. Por ejemplo, en el caso de restricciones a tiempo nal, habra que calcular una serie de parametros extra, para hacer cumplir estas condiciones: son las llamadas condiciones laterales (side conditions). Si las restricciones son puntuales (ecs. (3.5), (3.6)) o de camino (ecs. (3.7), (3.8)), la solucion se complica todav a mas, ya que hay que determinar que restricciones estan activas y cuando. Aparecen estados intermedios jos y el problema resultante es un Multi-Point Boundary Value Problem (MPBVP) todav a mas dif cil de resolver que el TPBVP. Por ultimo, en cuanto a la aplicacion del principio maximo de Pontryagin a sistemas distribuidos en los ultimos a~os se han publicado numerosos trabajos que n incluyen en su mayor a diversos aspectos teoricos (Bonnans y Zidani, 1999 Raymond y Zidani, 1999 Casas y Troltzsch, 1999 Mart nez et al., 2000). En cuanto a su aplicacion practica existen dos posibilidades: Resolver las condiciones de optimalidad para procesos distribuidos que resultan en, al menos, TPBVPs pero en sistemas de PDEs (ver por ejemplo Ramirez, 1994 Neittaanmaki y Tiba, 1994). Una vez calculadas las condiciones de optimalidad se discretiza el problema con las condiciones de optimalidad tanto

60

Cap tulo 3. Optimizacion dinamica

en el tiempo como en el espacio, convirtiendose as en un conjunto de ecuaciones algebraicas que se resolvera siguiendo alguna de las tecnicas propuestas anteriormente. Transformar el problema original en PDEs en un sistema de DAEs y aplicar lo expuesto anteriormente para sistemas en parametros concentrados. En Neittaanmaki y Tiba (1994) se recopilan algunos problemas resueltos de esta forma. El principio maximo ha sido utilizado para la resolucion de problemas reales en trabajos como los de Nadkarni y Hatton (1985), Bermudez y Mart nez (1994) y Mart nez et al. (2000).

3.3.3 Metodos directos


Los llamados metodos directos transforman el problema de dimension in nita original en un problema de optimizacion no lineal de dimension nita (nonlinear programming problem, NLP) que puede ser resuelto con un metodo de optimizacion no lineal estandar. Para ello, en el caso de parametrizacion total (complete parameterization, CP) se discretizan tanto las variables de estado como las variables de control y en el caso de parametrizacion de control (control vector parameterization, CVP) solo se discretizan las variables de control.

Parametrizacion total
Este metodo fue propuesto por Polak (1971), quien sugirio la idea de discretizar las variables de control y aproximar las ecuaciones diferenciales por ecuaciones algebraicas utilizando el metodo de diferencias nitas. El resultado era un problema de optimizacion no lineal con restricciones que se pod a resolver con un algoritmo NLP adecuado. Unos a~os despues, Tsang et al. (1975) proponen el uso de un metodo de colon cacion, en lugar de diferencias nitas, para aumentar la e ciencia y la calidad de los resultados. Biegler (1984) sugiere el uso de polinomios de Lagrange para aproximar las variables de estado y de control, utilizando un metodo de programacion cuadratica secuencial (sequential quadratic programming, SQP) para resolver el NLP, en lo que llamo SOCOLL. Mas tarde, el uso de elementos nitos tanto para las variables de estado como de control (Cuthrell y Biegler, 1987) mejorar an los resultados anteriores. Von Stryk (1993) presento DIRCOL, herramienta de optimizacion dinamica basada en parametrizacion total, que hace uso de un metodo de colocacion

3.3. Metodos de optimizacion dinamica

61

para las variables de estado y control y resuelve el NLP resultante usando un metodo SQP estandar. Es en este hecho precisamente en donde aparece una de las principales limitaciones del metodo de parametrizacion total: el tama~o de los problemas NLP suele n ser muy grande, y la necesidad de calcular el gradiente y el Hessiano de la funcion objetivo y de las restricciones supone un elevado coste computacional, sobre todo en aplicaciones realistas. Para superar estos problemas, en los ultimos a~os se han publicado una serie de n trabajos enfocados al aumento de la e ciencia de estos metodos, que proponen dos tipos de estrategias (revisadas en Barclay et al., 1997) segun el tipo de problemas a resolver: Para problemas con muchos grados de libertad, es decir, con varias variables de control, el uso de informacion de primer y segundo order completa (fullspace SQP) aprovechando la informacion acerca de su estructura y dispersion para aumentar la e ciencia del algoritmo (Lucia et al., 1990). Para problemas dinamicos de dimension elevada, es decir, mayor numero de estados que de variables de control, utilizar los llamados SQP reducidos, que hacen uso de proyecciones o aproximaciones de porciones del Hessiano. Alkaya et al. (1999) hacen una revision, con numerosas referencias bibliogra cas, de distintas posibilidades a este respecto. El metodo de parametrizacion total junto con metodos SQP modi cados ha sido utilizado con exito para la solucion de multiples problemas practicos en parametros concentrados. Al margen de los trabajos ya mencionados, que tambien incluyen aplicaciones, Cervantes y Biegler (1998) aplicaron esta estrategia para la optimizacion de diversos procesos qu micos (p.ej., destilacion continua y destilacion reactiva) Lang, et al. (1999) optimizaron un proceso de cristalizacion discontinua, etc. En cuanto su aplicacion a la optimizacion de procesos distribuidos, no han sido muchas, destacando los trabajos de Goldberg y Troltzsch (1997), Kleis y Sachs (2000), Mittelmann y Maurer (2000) y Cervantes et al. (2000).

Parametrizacion del control


Estos metodos se basan en discretizar unicamente la variable (o variables) de control, transformando el problema original en un problema de optimizacion no lineal cuya resolucion requiere la simulacion del modelo dinamico (PDAEs) en cada iteracion.

62

Cap tulo 3. Optimizacion dinamica

Esta estrategia ha sido utilizada para la optimizacion dinamica de procesos en parametros concentrados por numerosos investigadores, ya que como se vera en la seccion 3.4, ofrece ciertas ventajas sobre los otros metodos. En particular, en procesos qu micos y bioqu micos, destacan los trabajos de Bojkov et al. (1993) Vassiliadis et al. (1994 a y b) Banga y Seider (1996) Banga et al. (1997) Carrasco y Banga (1997) Feehery y Barton (1998) Zhou et al. (2001), entre otros. En los ultimos a~os este es el metodo que, preferentemente, se ha empleado para n la optimizacion dinamica de procesos distribuidos (Banga et al., 1991 Banga et al., 1994 Petzold et al., 1996 Blatt y Schittkowski, 1997 Saa et al., 1998 Quirijns et al., 2000) ya que ha resultado ser el metodo mas e ciente.

3.4 Estudio comparativo


Es dif cil hacer una comparacion de metodos en la que uno de ellos destaque por encima de los otros bajo todos los puntos de vista. Todos ellos se han empleado para la optimizacion de sistemas descritos por DAEs. No obstante, todos tienen cualidades positivas y negativas para la optimizacion dinamica de procesos distribuidos. Como ya se ha dicho, los metodos basados en programacion dinamica, aunque con buenos resultados para problemas sencillos, resultan ser muy ine cientes cuando se comparan con otras metodolog as. En el trabajo de Fikar et al. (1998), se hace una comparacion de los metodos IDP y CVP para la resolucion de dos problemas relacionados con la optimizacion dinamica de un proceso de destilacion concluyendo que el metodo de parametrizacion de control combinado con un metodo de gradiente es signi cativamente mas rapido. Esto imposibilita el uso de IDP para la optimizacion de procesos descritos por PDAEs ya que, en principio, las limitaciones en tiempo de computacion que surgen en problemas en parametros concentrados, se incrementaran en problemas distribuidos. En cuanto a los metodos de optimizacion dinamica basados en formulaciones de tipo variacional (a partir del Principio Maximo de Pontryagin) son extremadamente dif ciles de usar en la practica, especialmente cuando existen restricciones sobre las variables de estado. Como ya se ha dicho la principal di cultad surge en la resolucion de los problemas con restricciones, donde, incluso a nivel teorico, existen varias estrategias posibles (Hartl et al., 1995). Para evitar los problemas que surgen en presencia de restricciones de camino y l mites en las variables de control, Bell y Sargent (2000), proponen el uso de variables auxiliares (slack variables) para manejar las restricciones de desigualdad (ecs. (3.6) y (3.8)) y funciones de penalizacion de barrera (penalty barrier functions) para manejar

3.4. Estudio comparativo

63

los l mites en las variables de optimizacion (ecs. (3.9) y (3.10)). Transforman as el problema original con restricciones en un nuevo problema sin restricciones, cuya solucion resulta, una vez mas, en un TPBVP que hay que resolver numericamente. Como posibles alternativas quedan los metodos directos: el metodo de parametrizacion total y el metodo de parametrizacion de control. En relacion a cual de los dos metodos es mejor, todav a no se ha llegado a un acuerdo. Los principales criterios a tener en cuenta son, por una parte la facilidad de implementacion y uso y, por otra, la e ciencia y su facilidad para considerar restricciones de camino (Feehery, 1998). En cuanto a la facilidad de uso, el metodo CVP (tambien llamado secuencial), resulta mejor para problemas de dimension grande (es decir, numero de estados elevado). La solucion de este tipo de problemas, que incluye los problemas distribuidos, con el metodo de parametrizacion total (o simultaneo) supone el uso de tecnicas especiales para determinar los valores iniciales para el proceso de resolucion del problema de optimizacion no lineal, lo que determina de manera de nitiva la convergencia del metodo. Por otra parte, los metodos de tipo CVP pueden aprovechar las ventajas de los integradores dispersos para resolver de manera muy e ciente estos IVPs. De hecho, se puede demostrar que el metodo de colocacion empleado en la parametrizacion total es equivalente a utilizar un metodo Runge-Kutta impl cito (Cuthrell y Biegler, 1989), y este tipo de metodos no siempre es e ciente viendose superado en algunos tipos de problemas por los integradores basados en metodos BDF. En cuanto a la e ciencia, es dif cil extraer una conclusion. Para problemas grandes, los metodos secuenciales son mas atractivos. Sin embargo, muchos metodos de optimizacion requieren el uso del gradiente, y en ocasiones del Hessiano de la funcion objetivo, y su calculo puede ralentizar el proceso de optimizacion. El principal atractivo del uso del metodo de CP es, precisamente, el modo en que se consideran las restricciones de camino, ya que en esta metodolog a se minimiza la funcion objetivo y la violacion de las restricciones simultaneamente. Sin embargo, en Feehery (1998) y Feehery y Barton (1998), se presentan dos nuevas estrategias e cientes para resolver el problema de las restricciones de camino en el caso de metodos de parametrizacion de control. Por todos estos motivos en este trabajo se utilizara el metodo de parametrizacion de control por su facilidad de uso y por su e ciencia y robustez. Hasta el momento es el mas empleado en la resolucion de problemas de optimizacion dinamica de procesos distribuidos.

64

Cap tulo 3. Optimizacion dinamica

3.5 Parametrizacion de control (CVP)


Como ya se comento, el metodo de parametrizacion de control transforma el problema original de dimension in nita en un problema de optimizacion no lineal de dimension nita, mediante la aproximacion de la variable de control de la forma: donde v es un vector de parametros. En el trabajo de Goh y Teo (1988) y en los que all se citan, se establecieron las bases del metodo de parametrizacion de control. El intervalo temporal to tf ] se divide en un numero de elementos , y la funcion de control se aproxima tomando valores de control constantes. En Vassiliadis (1993), la duracion del proceso se divide en un numero de intervalos , que pueden ser de igual o distinta longitud, y las variables de control se aproximan utilizando polinomios de Lagrange en cada intervalo. Matematicamente las variables de control estan expresadas en funcion de nuevos parametros independientes del tiempo que son los coe cientes polinomicos. Para una variable de control uj en uno de los elementos i la aproximacion polinomica de orden Mj viene dada por:

u = u(v)

(3.22)

u(ji)(t) =

Mj X k=1

uijk`(kMj ) ( (i) ) t

ti;1 ti]

(3.23) (3.24)

siendo el tiempo normalizado en el elemento i: (i) = t ; ti;1 ti ; ti;1 y los polinomios de Lagrange de orden Mj :

`(kMj ) = 1 Mj = 1 Mj Y k `(kMj ) = Mj 2
;
0

(3.25) (3.26)

k =1 k k =k
0 06

con i = 1 : : : , j = 1 : : : y k = 1 : : : Mj . La seleccion de los puntos normalizados k no afecta a la solucion ya que aproximaciones diferentes del mismo orden son equivalentes. Sin embargo, resulta util seleccionar 1 = 0 y Mj = 1, y los elementos intermedios se colocan de manera arbitraria o bien equidistantes. De esta forma, para aproximaciones de ordenes Mj = 1 o Mj = 2, es decir, elementos constantes o lineales, resulta sencillo veri car los l mites de las variables de control.
0

3.5. Parametrizacion de control (CVP)

65

Sin embargo, para aproximaciones de orden mayor deben establecerse relaciones entre los distintos parametros polinomicos que complican la solucion del problema de optimizacion. Es por ello que, en general, las aproximaciones mas convenientes son las de ordenes inferiores, tal como se muestra en la Figura 3.1.
Control Aproximacin lineal ( )

Aproximacin con elementos constantes ) (escalones) (

t0 t1

t2 Tiempo

t -1

tf

Figura 3.1: Parametrizacion de control. El problema de optimizacion dinamica se ha transformado en un problema de optimizacion no lineal en el que las variables son, ahora, el conjunto formado por los parametros invariantes con el tiempo w y los coe cientes de las aproximaciones polinomicas uijk . De niremos pues el vector de variables de optimizacion:

v = w uijk ]T
j

(3.27)

siendo v 2 V R ~, donde el valor de ~ = f ( Mj ). El nuevo problema de optimizacion a resolver se formula de la siguiente manera: Encontrar el vector de parametros v y tf que minimiza la funcion objetivo:

J = (x( tf ) z(tf ) tf ) +
sujeto al conjunto de PDAEs:

Z tf
t0

L(x( t) z(t) v

t)dt

(3.28)

_ F (x x x x t z z v t ) = 0

(3.29)

66

Cap tulo 3. Optimizacion dinamica

y probablemente a restricciones de camino o de punto tales como las presentadas en la formulacion general (seccion 3.1). Por ultimo, los parametros podran tomar valores maximos y m nimos que dependeran del orden del polinomio utilizado. En el caso particular de utilizar elementos constantes (orden 0), resultan:

wL w wU uL uijk uU

(3.30) (3.31)

El esquema general del proceso de resolucion del nuevo problema de optimizacion se presenta en la Figura 3.2 donde se observa que consta de dos iteraciones: una iteracion externa que resuelve el NLP y una iteracion interna que se encarga de calcular el valor de la funcion objetivo (ec. (3.1)) y las posibles restricciones resolviendo el IVP (ecs. (3.29)).
v

Resolucin del IVP (iteracin interna)

PDAEs Resolucin del NLP (iteracin externa) Objetivos y restricciones

Convergencia No

? Si

Solucin

Figura 3.2: Esquema de resolucion del problema de optimizacion dinamica mediante parametrizacion de control, seguido en este trabajo.

Nuevos metodos CVP mas e cientes y robustos

67

Cap tulo 4 Metodos de segundo orden

En este cap tulo se desarrollan dos nuevas estrategias de optimizacion dinamica basadas en el metodo CVP y en metodos deterministas que hacen uso de informacion de segundo orden exacta para la resolucion de NLPs. Los metodos que se proponen se han desarrollado para la resolucion de problemas cuya dinamica viene expresada en DAEs sin que esto suponga una limitacion, como se vera, para su posterior aplicacion a procesos distribuidos dado que, como se presentaba en el cap tulo 1, la resolucion de PDEs puede pasar por su transformacion en DAEs. Tras una breve revision en la que se repasan los distintos metodos para el calculo del gradiente de la funcion objetivo con respecto a las variables de decision, se presenta el calculo original de las sensibilidades parametricas de segundo orden. Este conjunto de ecuaciones permitira el calculo de la informacion de segundo orden exacta que lleva al desarrollo de dos tipos de metodos deterministas locales: uno que hace uso del Hessiano y otro que hace uso del Hessiano proyectado. Como primeros resultados, se presenta la optimizacion dinamica de varios procesos concentrados tomados de la bibliograf a. Esto permitira comparar los resultados obtenidos con los de otros autores y evaluar as la calidad de los metodos desarrollados en este trabajo. 69

70

Cap tulo 4. Metodos de segundo orden

4.1 Introduccion
Como se ha visto en el cap tulo 2, los metodos deterministas locales han sido tradicionalmente considerados como los mas e cientes para la resolucion de determinados problemas, en particular, aquellos que no son multimodales y cuya funcion objetivo tiene expresion anal tica y es diferenciable. La aplicacion de estos metodos requiere, en la mayor a de los casos, el calculo del gradiente de la funcion objetivo con respecto a las variables de decision. Es por ello que el calculo del gradiente para sistemas dinamicos ha sido objeto de estudio de muchos investigadores resultando en el desarrollo de varias metodolog as que se analizan en el trabajo de Rosen y Luus (1991) y posteriormente en el de Vassiliadis (1993). Aqu se resumen sus conclusiones. Tres son los metodos posibles para el calculo del gradiente: el uso de las llamadas ecuaciones adjuntas (adjoint equations), el metodo de diferencias nitas y el metodo de sensibilidades parametricas. El metodo de diferencias nitas permite calcular informacion de primer orden de manera muy sencilla y es facilmente implementable. Sin embargo, la precision obtenida depende del valor del parametro de perturbacion elegido, lo que lo puede hacer impracticable para ciertos tipos de problemas o para los casos en los que el numero de parametros de optimizacion es elevado. El metodo de las ecuaciones adjuntas permite el calculo del gradiente, pero a menudo el sistema de DAEs esta mal condicionado y su solucion, incluso en los casos en los que no hay mal condicionamiento, no es sencilla. Por otra parte, ha resultado ser muy ine ciente, sobre todo en los problemas en los que la dimension del modelo dinamico es elevada. El calculo de sensibilidades requiere la integracion de un mayor numero de ecuaciones, sin embargo, hoy en d a existen tecnicas que permiten su resolucion de manera muy e ciente. Ademas, el sistema de DAEs resultante es mas estable que el sistema que resulta de utilizar ecuaciones adjuntas lo que ha llevado a que sea este, en general, el metodo preferido.

4.2 Sensibilidades parametricas de primer orden


La idea de usar sensibilidades parametricas para sistemas dinamicos no es nueva. Por ejemplo, Dunker (1984) considera el uso de sensibilidades de primer orden con aplicacion al estudio parametrico de cineticas, prestando atencion a como pueden

4.2. Sensibilidades parametricas de primer orden

71

ser evaluadas e cientemente. Leis y Kramer (1985) presentaron el desarrollo teorico de este metodo, indicando claramente que el sistema de DAEs original y el de sensibilidades de primer orden tienen el mismo Jacobiano, lo que se puede aprovechar para aumentar la e ciencia de su resolucion. Caracotsios y Stewart (1985), presentaron algunos trabajos que continuaban con las l neas de sus predecesores y una implementacion en DASSL (Petzold, 1982) que, como se ve a en el cap tulo 1, es un integrador basado en BDF. Siguiendo estos trabajos, se han hecho avances signi cativos en la implementacion del calculo y simulacion de sensibilidades de primer orden para sistemas de DAEs. Jarvis (1993) describe varios avances en la aplicacion de metodos BDF en la integracion del sistema conjunto. En el trabajo de Vassiliadis (1993) se hace uso de sensibilidades parametricas de primer orden para calcular, de manera e ciente, el gradiente de la funcion objetivo con respecto a las variables de decision y se presenta su aplicacion a la resolucion de un conjunto de problemas de optimizacion dinamica. Keeping y Pantelides (1995) introducen algunos avances en la paralelizacion de la evaluacion de las sensibilidades y muestran un aumento en la velocidad de calculo muy signi cativa. Maly y Petzold (1996) presentan algunos nuevos resultados tanto en aspectos teoricos como en la implementacion practica de la evaluacion e ciente de sensibilidades. En trabajos mas recientes, Li y Petzold (1999) hacen especial hincapie en casos en los que el numero de parametros es elevado destacando el desarrollo de nuevos codigos programados en MPI (message passage interface) que permiten la resolucion en paralelo del sistema extendido. Galan et al. (1999) realizaron el calculo de sensibilidades de primer orden para sistemas h bridos discretos-continuos y, continuando con este trabajo, Tolsma y Barton (2000), desarrollaron nuevos codigos para resolver ciertos problemas que pueden surgir en casos en los que aparecen discontinuidades ocultas.

Derivacion matematica
Considerese un proceso dinamico distribuido. Tras aplicar cualquiera de los metodos vistos en el cap tulo 1, resultara un conjunto de DAEs de la forma:

f (_ z u w) = 0n z
con las condiciones iniciales:

t0 tf ]

(4.1) (4.2)

z(t0) = z0 (w)

72

Cap tulo 4. Metodos de segundo orden

_ donde: z z 2 R n son las nuevas variables de estado y sus derivadas temporales respectivamente. El vector z incluye las variables y que solo dependen del tiempo y las resultantes de aplicar el metodo de Galerkin (en cualquiera de sus versiones) o el NMOL a las variables distribuidas x. u 2 R son las variables de control , y w 2 R es el vector de parametros invariantes con el tiempo. Las funciones f son tales que: f : R n R n R R 7! R n. Dependiendo de la implementacion, las variables de control se pueden aproximar, utilizando el metodo CVP, por algun tipo de aproximacion que incluye algunos o todos los parametros en el conjunto v: (4.3) segun el procedimiento habitual del metodo de parametrizacion de control (Vassiliadis, 1993) descrito en detalle en la seccion 3.3.3. Por ejemplo, para el caso de una parametrizacion constante donde el nivel de discretizacion es , v es un vector que incluye las componentes de las variables de control en cada elemento temporal mas los parametros invariantes con el tiempo presentes en la formulacion del problema, es decir, su dimension sera ~ = + . Las sensibilidades de primer orden resultan de aplicar la regla de la cadena al sistema de nido por las ecs. (4.1)-(4.2) con respecto a los parametros v: _ @f @z + @f @z + @f @u + @f = 0 _ @z @v @z @v @u @v @v n y las condiciones iniciales: @ z (t ) = @ z0 (v) @v 0 @v El Jacobiano del sistema en 4.4 es la matriz: " # @f @f _ @z @z
~

u = u(v)

(4.4) (4.5) (4.6)

que es la misma que la que resulta en los pasos de integracion de las ecs. (4.1), como ya se se~ala en el trabajo de Leis y Kramer (1985). Este es el concepto clave n de la integracion e ciente de las ecs. (4.4) simultaneamente con las ecs. (4.1): no es preciso calcular el Jacobiano para las sensibilidades, por lo que la resolucion del sistema total de DAEs se puede hacer de una forma desacoplada y muy e ciente.

4.3. Sensibilidades parametricas de segundo orden

73

4.3 Sensibilidades parametricas de segundo orden


Como se comento en el capitulo 2, el uso de informacion de segundo orden (Hessiano) favorece notablemente a la velocidad de convergencia de los metodos de optimizacion alcanzandose, al menos, convergencia superlineal. Aqu se presenta el calculo de sensibilidades parametricas de segundo orden que permitiran, como se vera, el calculo del Hessiano exacto para sistemas dinamicos. En el campo de las sensibilidades de segundo orden, excluyendo las calculadas por el metodo de diferencias nitas, cabe citar a Guay y McClean (1995), que presentaron una sencilla formulacion para el caso de ODEs. Aqu se presenta la derivacion original y rigurosa de las sensibilidades de segundo orden para sistemas generales de DAEs. Una segunda diferenciacion de las ecs. (4.4) y (4.5) con respecto a v resulta:

9 8" < @ f # @2z " @ f # @2z = _ : @ z I ~ @ v2 + @ z I ~ @ v2 + _ 82 ! 3" # < _ _ @ z T 5 @2f @ z + @2f @ z + @2f @ u + @2f + 4In +: _ _ _ _ @v @ z2 @ v @ z@ z @ v @ u@ z @ v @ v@ z 2 ! 3" # _ @ z T 5 @2f @ z + @2f @ z + @2f @ u + @2f + + 4In _ @v @ z@ z @ v @ z2 @ v @ u@ z @ v @ v@ z 2 " # ! 3" # _ @ f I @ 2 u + 4I @ u T 5 @2f @ z + @2f @ z + @2f @ u + @2f + + n _ @ u ~ @ v2 @v @ z@ u @ v @ z@ u @ v @ u2 @ v @ v@ u " 2 #9 _ @ f @ z + @2f @ z + @2f @ u + @2f = = 0 + @ z@ v @ v @ z@ v @ v @ u@ v @ v @ v2 (4.7) n ~ ~ t t0 tf ] _
2

con las condiciones iniciales:

@ 2 z (t ) = @ 2 z0 (v) @ v2 0 @ v2

(4.8)

La parte de la ec. (4.7) en el segundo par de llaves (\fg") representa lo que sera la

74

Cap tulo 4. Metodos de segundo orden

parte derecha de la ecuacion y depende de productos1 de tensores que corresponden a las derivadas de primer y segundo orden del sistema original de ecs. (4.1).

Hessiano proyectado
A primera vista no se aprecia el parecido entre las expresiones de las sensibilidades de primer y segundo orden. En esta seccion se aclara este punto presentando, como primer paso, el producto de un vector invariante con el tiempo p 2 R ~ con las matrices de orden 2 (Hessianos) para cada estado, es decir, con @2vz2i para todo @ t 2 t0 tf ]. En primer lugar, el resultado de la ec. (4.7) es multiplicado por p para obtener:

8 < :

9 =

8 < p+:

9 =

p = 0n ~

(4.9)

de donde, comparando terminos, y reordenando, se obtiene la siguiente expresion: @ f ST + @ f ST + A(_ z u v) = 0 _ z (4.10) n ~ _ @z @z siendo A(_ z u v) la matriz de dimension n ~ dada por: z

82 < A(_ z u v) = : 4In z 2 + 4In

_ _ @ z T 5 @2f @ z + @2f @ z + @2f @ u + @2f + _ _ _ _ @v @ z2 @ v @ z@ z @ v @ u@ z @ v @ v@ z

! 3"

! 3" # _ @ z T 5 @2f @ z + @2f @ z + @2f @ u + @2f + _ @v @ z@ z @ v @ z2 @ v @ u@ z @ v @ v@ z " # 2 2 !T 3 " 2 # _ @ f I @ u + 4I @ u 5 @ f @ z + @2f @ z + @2f @ u + @2f + + @ u ~ @ v2 n _ @v @ z@ u @ v @ z@ u @ v @ u2 @ v @ v@ u " 2 #9 _ @ f @ z + @2f @ z + @2f @ u + @2f = p + _ (4.11) @ z@ v @ v @ z@ v @ v @ u@ v @ v @ v2
1

El s mbolo \ " es el llamado producto matricial de Kronecker, que se de ne:

A B

0 B B B B B @

a1 a

B 2 1B
1

a1 a

.. .

B 2 2B
2

a1 n;1

an;1 an

1B B 1

.. .

an;1 an

2B B 2

.. .

a2 n

.. .

B ;1 B

a1 n a
n

an;1 n;1 an n;1

B B

an

an n

B 1 2 B C C C .. C . C BA ;1 B
n

4.4. Metodos de Hessiano: quasi-Newton

75

_ y donde S S 2 R n ~ son las matrices cuyas columnas son, respectivamente, los _ productos matriz-vector si si 2 R n, con: 2 2 _ si = @ vz2i p si = @ vz_2i p i = 1 : : : n 8t 2 t0 tf ] (4.12) @ @ Finalmente, las condiciones iniciales para estas nuevas ecuaciones vienen dadas por:
0 pT h @2z01 (v)i 1 @ v2 B C ... B C T =B C (S(t0 )) B C @ h2 iA
(4.13)

Con estos resultados, esta claro que las ecs. (4.10) constituyen un conjunto de sensibilidades de primer orden, similar a la ec. (4.4). La unica complicacion surge en el calculo del termino de la derecha ;A(z z u v) que, a primera vista, parece _ requerir un esfuerzo signi cativo. Sin embargo, el aprovechamiento de su estructura y su posible caracter disperso pueden reducirlo notablemente. El calculo de las matrices de segundo orden para cada zi i = 1 : : : n se puede ver, en terminos de la ec. (4.7), como la resolucion ~ veces de la ec. (4.10), cada una de las cuales con p = ei, siendo ei vectores unidad. De la solucion del problema iesimo resultan las columnas de @2vz2i (o sus las, ya que estas matrices son simetricas). @

pT

@ z0 n (v) @ v2

4.4 Metodos de Hessiano: quasi-Newton


Como ya se ha dicho, el calculo de las sensibilidades de segundo orden, presentado en este trabajo, permite el calculo e ciente del Hessiano exacto de la funcion objetivo y, por lo tanto, sera la clave del desarrollo de una nueva estrategia de optimizacion dinamica basada en el metodo de parametrizacion de control y un metodo de optimizacion no lineal tipo quasi-Newton.

4.4.1 Implementacion practica


Para que la aplicacion de este nuevo metodo sea lo mas sencilla posible para el usuario, se ha automatizado el proceso mediante un programa en MathematicaTM (notebook) que, partiendo de las ecuaciones originales y sus condiciones iniciales (ecs. (4.1) y (4.2)) genera las sensibilidades de primer y segundo orden mediante diferenciacion simbolica y crea el codigo Fortran o C en formato adecuado para su resolucion con un integrador estandar, como por ejemplo LSODA o DASSL (Hindmarsh, 1983 Petzold, 1983).

76

Cap tulo 4. Metodos de segundo orden

Una vez generadas las rutinas con dichas ecuaciones, y siguiendo el esquema presentado en la gura 3.2, se elige un metodo de resolucion de problemas NLP adecuado. Se han usado con exito las rutinas de optimizacion de la librer a IMSL (1995), que minimizan una funcion de ~ variables sujetas a l mites usando metodos quasi-Newton. Con el n de comprobar el efecto que produce el uso del Hessiano exacto se seleccionaron tres rutinas que di eren en los requerimientos en cuanto a gradiente y Hessiano: Metodo qN-1.- DBCONF: usa un gradiente calculado por diferencias nitas (no hace uso de las sensibilidades de primer y segundo orden). Por lo tanto, el IVP esta formado unicamente por las n ecuaciones diferenciales originales. Metodo qN-2.- DBCONG: Requiere el calculo de gradiente exacto: el problema de valor inicial esta constituido ahora por el sistema original y el sistema de sensibilidades de primer orden (ecs. (4.1) y (4.4)). Metodo qN-3.- DBCOAH: Requiere el gradiente y Hessiano que en esta implementacion se obtiene mediante la integracion del IVP extendido, es decir, un total de n + n ~ + n ~ ~ ecuaciones diferenciales. Dado que el Hessiano es una matriz simetrica no es necesario integrar todas las sensibilidades de segundo orden, de manera que solo se integran las correspondientes a una seccion triangular. Se demostrara que el uso de informacion de segundo orden obtenida a traves del calculo de las sensibilidades presentadas aumenta la robustez del metodo de optimizacion. Para ello se consideraran varios problemas estandar tomados de la bibliograf a del area.

4.4.2 Aplicacion a problemas en parametros concentrados


En esta seccion se presenta la solucion de tres problemas de optimizacion dinamica con los metodos qN-1, qN-2 y qN-3, respectivamente. Con el n de estudiar los efectos de las tolerancias de optimizacion e integracion, se consideran tres niveles segun gura en la tabla 4.1. Se estudiara tambien el efecto de la discretizacion de control, y para ello se han considerado 4 niveles de discretizacion para las variables de control ( = 5 7 10 15) para cada problema y metodo. Los resultados se presentan en las tablas 4.2;4.4, donde se usa la siguiente notacion: es el nivel de discretizacion de la variable de control (en los problemas

4.4. Metodos de Hessiano: quasi-Newton

77

Nivel Integracion Optimizacion N1 10;5 10;3 N2 10;7 10;5 N3 10;9 10;7 Tabla 4.1: Niveles de tolerancia de integracion y optimizacion considerados ~ = , ya que solo hay una variable de control), Nv es el nivel de integracion, Mt es el metodo, J es el valor de la funcion objetivo en el optimo, ni es el numero de iteraciones que realiza el codigo de optimizacion, nf , ng y nh son el numero de evaluaciones de la funcion objetivo, el gradiente y el Hessiano, respectivamente y Tcpu es el tiempo de computacion (en segundos) en un PC Pentium III/450 MHz (62 M ops, segun Linpack-100)2.
P

4.1: Oscilador de van der Pol

Este es un problema clasico considerado como test para metodos de optimizacion. Ha sido resuelto por multitud de autores como, por ejemplo, Morison (1984), Gritsis (1990), Vassiliadis (1993), Tanartkit y Biegler (1995), entre otros. La formulacion del problema de optimizacion es como sigue: sujeto a la dinamica del sistema: 2 y1 = 1 ; y2 y1 ; y2 + u _ y2 = y1 _ 2 2 y3 = y1 + y2 + u2 _ y a los l mites en la variable de control:
;

min J = y3(tf ) u( )

(4.14) (4.15) (4.16) (4.17) (4.18)

0:3 u(t) 1:0

con el vector de condiciones iniciales y(0) = 0 1 0 ]T , y 0 t tf con tf = 5. Como valor inicial para las variables de optimizacion se toma un per l de control constante u0(t) = 0:7, y los resultados obtenidos mediante los tres metodos y para los distintos niveles de tolerancia y discretizacion se resumen en la tabla 4.2.
Programa Fortran para la resolucion de un sistema de 100 100 ecuaciones lineales por el metodo de Gauss, habitualmente utilizado como referencia
2

78

Cap tulo 4. Metodos de segundo orden

Nv Mt L1 qN-1 qN-2 qN-3 L2 qN-1 qN-2 qN-3 L3 qN-1 qN-2 qN-3 Nv Mt L1 qN-1 qN-2 qN-3 L2 qN-1 qN-2 qN-3 L3 qN-1 qN-2 qN-3

=5 J 3:7724110 3:1244086 3.1244117 3:9361915 3:1244198 3.1244206 3:1244274 3:1244207 3.1244207 = 10 J 3:8151326 2:9260927 2.9261666 4:6532216 2:9261880 2.9261879 2:9990286 2:9261881 2.9261881

ni nf ng nh Tcpu 4 8 5 0:12 10 13 11 0:06


; ;

4 7 12 5 16 13 5

5 38 15 6 38 16 6

5 4 0.09 8 ; 0:32 13 ; 0:12 6 5 0.14 18 ; 0:64 14 ; 0:14 6 5 0.17


; ;

ni nf ng nh Tcpu 4 25 5 0:23 8 11 9 0:23


4 6 10 5 13 12 5 5 35 13 6 32 15 6

5 4 0.32 7 ; 0:12 11 ; 0:26 6 5 0.58 15 ; 0:87 13 ; 0:41 6 5 0.81

=7 J 3:8151326 2:9880627 2.9881236 3:6131949 2:9989599 2.9881205 2:9990286 2:9989606 2.9881206 = 15 J 4:0438623 3:5197676 2.8928487 4:8838627 2:9343444 2.8928992 2:9596461 2:9434537 2.8929002

ni nf ng nh Tcpu 3 4 25 5 0:26 12 16 13 0:12


; ;

4 26 11 5 13 14 5

5 91 16 6 32 20 9

5 4 27 ; 12 ; 6 5 15 ; 15 ; 6 5
; ;

0.14 0:26 0:17 0.55 0:23 0:29 0.52

ni nf ng nh Tcpu 4 18 5 0:81 5 7 6 0:20


4 2 12 5 17 13 5 5 24 15 6 60 18 6 5 4 3 ; 13 ; 6 5 18 ; 14 ; 6 5

1.07 1:07 0:58 2.06 4:85 0:26 2.87

Tabla 4.2: Resultados obtenidos con metodos tipo quasi-Newton para la optimizacion dinamica del Oscilador de van der Pol. De los resultados se extrae que el metodo qN-1 invierte un gran esfuerzo computacional para alcanzar valores suboptimos incluso utilizando tolerancias estrictas. Esto se debe, claramente, al uso de un gradiente aproximado por diferencias nitas. Por el contrario, los metodos qN-2 y qN-3 se comportan muy bien, siendo el metodo qN-3 superior. Esto es particularmente evidente en el caso de = 15, donde el metodo qN-2 no converge a una solucion aceptable mientras que el metodo qN-3 converge al objetivo en 4-5 iteraciones incluso para valores de tolerancia menos estrictos, ya que hace uso de informacion de primer y segundo orden exactas. El per l de control optimo para valor de discretizacion = 15 y nivel de tolerancia L3, as como las variables de estado correspondientes se presentan en la gura 4.1.
Todos los resultados referentes al tiempo de computacion ( ), incluidos en este cap tulo, se expresan en segundos y corresponden a un PC Pentium III/450Mhz).
3
Tcpu

4.4. Metodos de Hessiano: quasi-Newton

79

Control u 1.1 0.9 0.7 0.5 0.3 0.1 -0.1 -0.3 1.0 2.0 3.0 4.0 3.0 2.5 2.0 1.5 1.0 0.5 0.0 5.0 -0.5 -1.0

Variables de estado y3

y2 1.0 y1 Tiempo 2.0 3.0 4.0 5.0

Tiempo

Figura 4.1: Oscilador de van der Pol: Per l de control optimo obtenido con un metodo quasi-Newton y variables de estado correspondientes.

4.2: Mezcla de catalizadores

El problema considera un reactor de ujo de piston, con dos catalizadores, donde tienen lugar las siguientes reacciones:

S1 * S2 )

; !

S3

El objetivo es encontrar la mezcla optima de los dos catalizadores para maximizar la produccion de la especie S3. Propuesto inicialmente por Gunn y Thomas (1965), fue considerado tambien por otros autores como Logsdon (1990) y Vassiliadis (1993). La formulacion matematica es como sigue: sujeto a: max J = 1 ; y1(tf ) ; y2(tf ) u( ) (4.19)

y1 = u (10y2 y1) _ y2 = u (y1 10y2) (1 u) y2 _


; ; ; ;

(4.20) (4.21) (4.22)

y los l mites para la variable de control: 0 u(t) 1 con condiciones iniciales y(0) = 1 0 ]T , y con 0 t tf , tf = 1. Como valor inicial para el metodo de optimizacion se uso u0(t) = v0 = 0:17, y los resultados obtenidos se presentan en la tabla 4.3.

80

Cap tulo 4. Metodos de segundo orden

Nv Mt L1 qN-1 qN-2 qN-3 L2 qN-1 qN-2 qN-3 L3 qN-1 qN-2 qN-3 Nv Mt L1 qN-1 qN-2 qN-3 L2 qN-1 qN-2 qN-3 L3 qN-1 qN-2 qN-3

=5 J 0.0453216 0.0475994 0.0476516 0.0388323 0.0476516 0.0476517 0.0452864 0.0476516 0.0476516 = 10 J 0.0448889 0.0479706 0.0480194 0.0460454 0.0480134 0.0480237 0.0477757 0.0480134 0.0480238

ni nf ng nh Tcpu 5 11 7 - 0.09 19 20 20 - 0.12


4 1 28 5 2 30 5 5 26 29 6 23 33 6 5 2 29 6 8 31 6 4 5 5

0.09 0.06 0.20 0.20 0.32 0.43 0.23

ni nf ng nh Tcpu 5 12 7 - 0.35 20 21 21 - 0.23


6 8 49 9 6 61 10 7 35 51 10 22 65 11 7 9 50 10 8 62 11 6 9 10

0.49 1.39 1.02 1.04 1.33 1.80 1.51

=7 J 0.0445168 0.0480104 0.0480516 0.0440223 0.0480521 0.0480521 0.0459102 0.0480521 0.0480521 = 15 J 0.0445474 0.0477499 0.0480238 0.0438642 0.0480549 0.0480552 0.0424346 0.0480552 0.0480553

ni nf ng nh Tcpu 7 23 9 - 0.26 19 20 20 - 0.14


6 5 39 8 5 41 11 7 16 40 9 21 42 13 7 7 40 9 7 42 12 6 8 10

0.26 0.49 0.46 0.58 0.64 0.67 1.02

ni nf ng nh Tcpu 4 8 6 - 0.26 15 16 16 - 0.55


10 20 53 15 3 66 19 11 45 54 16 18 70 20 11 22 54 16 5 67 20 10 15 19

1.51 9.12 2.70 5.78 2.47 4.73 10.51

Tabla 4.3: Resultados obtenidos con metodos tipo quasi-Newton para la optimizacion dinamica del problema de mezcla de catalizadores. Tal y como se observaba en el caso anterior, el metodo qN-1 es incapaz de llegar a soluciones aceptables, realizando un numero elevado de evaluaciones de la funcion objetivo que en ocasiones resultan en tiempos de computacion equivalentes a los requeridos por qN-2 o qN-3 para llegar al optimo. Los metodos qN-2 y qN-3 alcanzan buenos resultados, siendo una vez mas el metodo qN-3 el mas e ciente en terminos de numero de iteraciones y evaluaciones. A pesar de las diferencias en numero de evaluaciones, los tiempos de computacion del metodo qN-3 son comparables a los requeridos por el qN-2, ya que el calculo de la informacion de segundo orden exacta es bastante costoso. Esto es especialmente notable en el caso de = 15 en el que qN-2 alcanza una solucion mas rapidamente (aunque ligeramente peor) lo que indica peque~os problemas de convergencia debido al uso de diferencias nitas. n En la gura 4.2 se presenta el per l de control optimo obtenido con el metodo qN-3, para nivel de discretizacion = 15 y nivel de tolerancia L3 as como las variables de estado correspondientes a ese control optimo.

4.4. Metodos de Hessiano: quasi-Newton

81

1.1 0.9 0.7

Control u

1.0 0.8 0.6

Variables de estado y1

0.5 0.3 0.1 -0.1 0.0 0.2 0.4 0.6 Tiempo 0.8 1.0 0.4 0.2 y2 0.0 0.0 0.2 0.4 0.6 Tiempo 0.8 1.0

Figura 4.2: Mezcla de catalizadores: Per l de control optimo obtenido con un metodo quasi-Newton y variables de estado correspondientes.
P

4.3: Problema de Nishida


min J = u( )
4 X

Este problema fue presentado por Nishida et al. (1976) y se formula como sigue:
i=1

yi2(tf )

(4.23)

sujeto a:

y1 = _ y2 = _ y3 = _ y4 = _

0:5y1 + 5y2 ;5y1 ; 0:5y2 + u ;0:6y3 + 10y4 ;10y3 ; 0:6y4 + u


;

(4.24) (4.25) (4.26) (4.27)

y los l mites para la variable de control: 1:0 u +1:0 (4.28) con las condiciones iniciales: yi(0) = 10, i = 1 : : : 4, y con 0 t tf , tf = 4:2. Como per l inicial de control para la optimizacion se tomo u0(t) = v0 = 0:0 y los resultados obtenidos se resumen en la tabla 4.4 donde se observa un patron de comportamiento semejante al de los problemas anteriores.
;

82

Cap tulo 4. Metodos de segundo orden

Nv Mt L1 qN-1 qN-2 qN-3 L2 qN-1 qN-2 qN-3 L3 qN-1 qN-2 qN-3 Nv Mt L1 qN-1 qN-2 qN-3 L2 qN-1 qN-2 qN-3 L3 qN-1 qN-2 qN-3

=5 J 4.2930712 3.0486480 3.0486480 3.0756979 3.0497825 3.0497824 3.5501229 3.0497835 3.0497835 = 10 J 4.2928681 1.6709727 1.6715155 2.0826751 1.6716994 1.6716299 1.9573821 1.6716309 1.6716309

ni nf ng nh Tcpu 1 21 2 - 0.29 12 13 13 - 0.32


6 8 12 6 3 12 6 7 39 13 7 33 13 7 7 9 13 7 4 13 7 6 6 6

0.49 1.31 0.46 2.6 1.02 2.4 3.9

ni nf ng nh Tcpu 1 21 2 - 0.58 15 16 16 - 3.2


14 10 15 14 13 15 14 15 34 16 15 42 16 15 15 11 16 15 14 16 15 14 14 14

4.18 2.70 1.31 6.59 7.17 1.89 9.93

=7 J 4.1519554 3.5450668 3.5452666 4.1110154 3.5460495 3.5460481 4.2938651 3.5460517 3.5460517 = 15 J 1.6368032 1.2344903 1.2344903 2.1299251 1.2346949 1.2346948 1.7088882 1.2346974 1.2346974

ni nf ng nh Tcpu 2 22 3 - 0.52 12 13 13 - 0.43


7 4 12 7 1 7 7 8 12 13 8 37 8 8 8 6 13 8 2 8 8 7 7 7 7

1.02 2.6 0.67 1.54 3.4 2.38 2.38

ni nf ng nh Tcpu 10 20 11 - 4.5 19 20 20 - 1.94


16 6 19 16 10 19 16 17 36 20 17 24 20 17 17 7 20 17 11 20 17 16 16 16

12.45 5.54 3.02 20.50 7.52 4.58 30.34

Tabla 4.4: Resultados obtenidos con metodos tipo quasi-Newton para la optimizacion dinamica del problema de Nishida. En este problema, el metodo qN-1 falla claramente y no alcanza mas que soluciones suboptimas, mientras que los metodos qN-2 y qN-3 alcanzan soluciones comparables. Es preciso resaltar que en este caso, a pesar de realizar un menor numero de iteraciones, el metodo qN-3 invierte mas tiempo de computacion debido al coste de evaluar la informacion de segundo orden. Por supuesto, esta limitacion podr a solucionarse con una evaluacion e ciente, probablemente en paralelo, de las sensibilidades. En la gura 4.3 se presentan tanto el per l de control optimo como la evolucion de los estados correspondientes.

4.4. Metodos de Hessiano: quasi-Newton

83

1.5 1.0 0.5 0.0 -0.5 -1.0 -1.5

Control u

15.0 10.0 5.0 0.0 -5.0 -10.0

Variables de estado y1 y2 y3 y4

0.0

1.0

2.0 Tiempo

3.0

4.0

-15.0

0.0

1.0

2.0 Tiempo

3.0

4.0

Figura 4.3: Problema de Nishida: Per l de control optimo obtenido con un metodo quasi-Newton y variables de estado correspondientes.

4.4.3 Conclusiones
Los resultados obtenidos muestran claramente que el comportamiento de un algoritmo basado en CVP para la solucion de problemas de optimizacion dinamica se mejora notablemente mediante el uso de informacion de segundo orden exacta. El numero de evaluaciones de la funcion objetivo y gradiente se reducen considerablemente y los resultados nales son, al menos, tan buenos como los obtenidos por metodos que usan gradiente exacto y un Hessiano aproximado por diferencias nitas. De los resultados obtenidos se extrae la conclusion de que un nivel de tolerancias adecuado es de nitivo para la correcta resolucion del problema. Esto es especialmente relevante para metodos que hacen uso de diferencias nitas (qN-1 y qN-2). Los tiempos de computacion obtenidos son peque~os. Sin embargo, crecen n rapidamente con la dimension del problema y con el nivel de discretizacion debido, fundamentalmente, al calculo y manejo del Hessiano completo. Este coste podr a reducirse a traves de una simulacion e ciente de las sensibilidades de segundo orden, resolviendolas en paralelo. Sin embargo, existe otra posibilidad aprovechando que, como se ve a en el cap tulo 2, se han desarrollado metodos de optimizacion que usan proyecciones del Hessiano y que estan especialmente indicados para la resolucion de problemas de dimension elevada. Esta idea se estudiara en las siguientes secciones.

84

Cap tulo 4. Metodos de segundo orden

4.5 Metodo de Newton Truncado


El metodo de Newton Truncado (TN), como ya se comento en el cap tulo 2, fue propuesto por Nash (1984) como una alternativa e ciente para la resolucion de problemas de optimizacion de dimension elevada. Consiste, esencialmente, en resolver el sistema de ecuaciones de Newton (2.20) de manera aproximada. Aqu se presenta, con algo mas de detalle, el funcionamiento del metodo de Newton Truncado para poder clari car en que forma se puede aprovechar el uso de sensibilidades parametricas de segundo orden calculadas en la seccion 4.3. En el metodo TN, la direccion de busqueda se calcula mediante la resolucion del sistema de ecuaciones de Newton:
r

2 J (vk )sk

= ;rJ (vk )

Hs = b

(4.29)

Esta resolucion puede hacerse de manera exacta con metodos como el de reduccion de Gauss. Sin embargo, y con el n de ahorrar esfuerzo computacional, el metodo de Newton Truncado hace uso del metodo de Gradiente Conjugado. El metodo de gradiente conjugado (GC) se presento en el cap tulo 2 como un algoritmo de optimizacion y, efectivamente, para la resolucion de sistemas de ecuaciones, resuelve un problema de minimizacion cuadratico4 equivalente:

min

1 (s) = 2 sT Hs ; bT s

(4.30)

El metodo GC basa la resolucion de ese problema de minimizacion en la busqueda de direcciones conjugadas, es decir, direcciones tales que:

pT Hp = 0

(4.31)

El hecho de que los vectores sean conjugados proporciona unas propiedades muy atractivas que facilitan enormemente la resolucion del sistema de ecuaciones, transformandolo en un problema de minimizacion de un sumatorio de problemas unidimensionales. Aqu no se detallan los pasos para llegar a este nuevo problema, simplemente se indica que inicialmente se asume que un vector solucion se puede expresar como una combinacion lineal de estos vectores:

s0 =
4

aipi

(4.32)

Notese que en el m nimo el gradiente debe anularse, lo que para una funcion cuadratica equivale a un sistema de ecuaciones.

4.5. Metodo de Newton Truncado

85

El metodo GC asume que la solucion se puede expresar en funcion de un conjunto de direcciones conjugadas y los coe cientes ai , e itera hasta reducir lo que se denomina residuo krik = kb ; Hsk hasta un cierto valor su cientemente peque~o GC . n Es importante destacar el hecho de que este sistema de ecuaciones se resolvera en cada iteracion para el calculo de la direccion de busqueda, es decir, el metodo de Newton Truncado realiza dos iteraciones: una externa, que se denotara por k, en la que genera una secuencia de puntos que minimizan la funcion objetivo J (v), y otra interna i en la que se calcula la direccion de busqueda a traves del metodo de gradiente conjugado. Para clari car este punto en la gura 4.4 se presenta un diagrama de ujo donde se describen ademas los pasos del metodo de gradiente conjugado en detalle. En el se observa en el diagrama de ujo que no se require toda la matriz H, es decir, el Hessiano, sino que basta con su proyeccion sobre un vector p. Para el caso de sistemas dinamicos, esta informacion se puede obtener de manera muy e ciente, a partir del producto matriz-vector estudiado en la seccion 4.3. Es decir, mediante el uso de las expresiones (4.10) y (4.13), se puede obtener, con un coste computacional equivalente al del calculo del gradiente, la informacion exacta requerida por el metodo de Newton Truncado. Se presenta aqu este metodo, que se denominara TNHp, para la resolucion de problemas de optimizacion dinamica y se estudian sus propiedades a traves de la solucion de un conjunto de problemas tomados de la bibliograf a.

y sustituyendo en la expresion (4.30), resulta un nuevo problema de minimizacion donde las variables son los coe cientes ai, y dado que el problema es muy sencillo la aplicacion de la primera condicion de optimalidad resulta en una expresion para los ai: T pi ai = pb Hp (4.33) T
i i

86

Cap tulo 4. Metodos de segundo orden

v k+1=v k+sk Convergencia ? Si || J(vi ) ||< Iteracin externa Si


TN

Solucin v*

No

Gradiente Conjugado : si+1=si +ai p i Convergencia Si ? ||ri ||< No b i =r i Tr i /r i-1Tr i-1 p i =r i + b i p i-1 ai = r i Tr i /p i TA p i si+1=si +ai p i r i+1=r i -ai A p i

s* k

GC

Iteracin interna

Figura 4.4: Diagrama de ujo del metodo de Newton Truncado.

4.5. Metodo de Newton Truncado

87

4.5.1 Implementacion practica de TNHp


Como en el caso de los metodos tipo quasi-Newton, se ha desarrollado un procedimiento automatico con el n de facilitar el uso del metodo TNHp. Este procedimiento consta de dos pasos: 1er Paso.- A partir del sistema inicial de DAEs se generan las sensibilidades de primer orden y segundo orden proyectadas. Esto se consigue mediante el uso de un codigo MathematicaTM 3.0 que, como ya se comento con anterioridad, permite realizar manipulacion simbolica. Se construye as un problema de valor inicial extendido y se crean, tambien de manera automatica, las correspondientes rutinas Fortran (o C) adecuadas para su solucion con un integrador estandar. Este IVP extendido esta constituido por n ecuaciones que describen la dinamica del sistema, n ~ sensibilidades de primer orden, y n ~ sensibilidades de segundo orden proyectadas. Notese que el sistema que se resolv a para calcular gradiente y Hessiano exactos en el metodo quasi-Newton (qN-3) consist a en n + n ~ + n ~ ~, de manera que el numero de ecuaciones se ha reducido de manera muy notable. 2o Paso.- Se resuelve el problema de optimizacion no lineal mediante el metodo de Newton Truncado haciendo uso de la informacion Hp obtenida por integracion del IVP derivado en el paso 1. Para ello se ha modi cado el metodo TN desarrollado por Nash (1984), que hac a este calculo por diferencias nitas, dando lugar a un nuevo metodo de optimizacion dinamica que se denominara TNHp. Con el n de clari car estos pasos, en la gura 4.5 se muestra un esquema del proceso de optimizacion dinamica mediante el uso de informacion de segundo orden, tanto a traves del uso de TNHp como para el uso del metodo qN-3 que se presentaba en la seccion 4.4.

88

Cap tulo 4. Metodos de segundo orden

1er PASO
Dinmica del problema

Manipulacin simblica

IVP extendido: dinmica + 1erorden + 2 orden

2 PASO
Simulacin IVP Extendido

Estados z (t)

1er orden s1(t)

2 orden s2(t)

Objetivo y Restricciones

Gradiente

Hessiano / Hp

Optimizador (e.j. TN, qN)

Nuevo v

u(v,t)

Figura 4.5: Implementacion practica de los metodos de segundo orden.

4.5. Metodo de Newton Truncado

89

4.5.2 Algunas particularidades acerca de la resolucion de IVPs


Desde el punto de vista de la optimizacion, un metodo de paso jo puede ser suciente para la resolucion del IVP. Sin embargo, en la mayor a de las aplicaciones practicas es necesario un metodo de paso variable para lograr una buena e ciencia. Por otro lado, la solucion de un metodo de paso variable puede no ser todo lo suave que ser a deseable debido precisamente a los metodos de control de tama~o n de paso. Esto puede perjudicar seriamente al optimizador, llevandolo a converger a soluciones no optimas. Como se ha visto, ademas, estos problemas crecen a medida que aumenta el nivel de discretizacion lo que lleva a la necesidad de evaluar cuidadosamente el integrador a utilizar para la resolucion del IVP interno de los metodos tipo CVP. Por otra parte, el numero de iteraciones internas que realiza el metodo TN resulta en una mejor o peor direccion de busqueda de manera que es muy importante que la integracion del sistema de segundo orden sea precisa y no lleve a cometer peque~os n errores que deterioren sus propiedades de convergencia. Aqu se presenta una comparacion de metodos de resolucion de ODEs5, basados en las distintas formulaciones que se presentaron en el cap tulo 1. Para ello se han resuelto varios problemas para un conjunto de valores de , con diversos metodos y con distintos niveles de tolerancia de integracion y optimizacion. El comportamiento es similar en todos los problemas considerados, por lo que aqu se presenta unicamente un resumen de los resultados correspondientes a la solucion de los problemas del oscilador de van der Pol (P 4.1), Nishida (P 4.2) y un reactor que opera en modo semicontinuo (P 4.4) cuya formulacion se presentara mas tarde en este cap tulo. Para este estudio se han seleccionado, de entre los mas utilizados del momento, los siguientes integradores: RKF45, implementado en FORTRAN por Watts y Shampine6, metodo de tipo Runge-Kutta adaptativo, que permite la solucion de sistemas de ODEs poco o nada r gidos. LSODA, metodo que cambia de Adams a BDF automaticamente, dependiendo de la rigidez del sistema de ODEs (Petzold, 1983)7.
En el caso de problemas cuya dinamica esta descrita por DAEs, habr a que hacer un analisis comparativo entre un metodo BDF y, probablemente, un metodo RK impl cito. 6 RKF45: http://www.netlib.org/sfmm/rkf45.f 7 LSODA: http://www.netlib.org/odepack/lsoda.f
5

90

Cap tulo 4. Metodos de segundo orden

DDASSLSO, metodo BDF que permite la resolucion de DAEs y el calculo e ciente de sensibilidades con respecto a parametros, desarrollado por Petzold8 . En la tabla 4.5 se resumen los resultados de TNHp (obtenidos para un nivel de tolerancias L2 segun la tabla 4.1), donde P , indica el problema de optimizacion considerado Mt, el integrador utilizado de entre los citados anteriormente , el nivel de discretizacion de la variable de control ni =nf =ncg , el numero de iteraciones, evaluaciones de la funcion objetivo e iteraciones internas realizadas en la optimizacion % error, el tanto por ciento de error cometido en el resultado nal relativo9 al mejor obtenido por los tres metodos, que se se~alara con un . Por ultimo, RCPU repren senta el cociente entre el tiempo de calculo utilizado por el metodo considerado y el mas rapido (que se indicara #). De los resultados se deduce que, efectivamente, la calidad de la integracion afecta a los resultados de optimizacion, aunque no se han observado demasiadas diferencias en cuanto al valor objetivo salvo en el caso P 4.2 con nivel de discretizacion = 120, en el que LSODA y DDASSLS0 presentan convergencia a un optimo local. Sin embargo, s son apreciables las diferencias en tiempo de computacion: por ejemplo DDASSLS0 y LSODA pueden llegar a ser en torno a 10 y 3 veces mas lentos, respectivamente, que RKF45, que parece tener, en terminos generales, un mejor comportamiento. Tambien se observa que el numero de iteraciones internas no se ve, en general, afectado por el metodo de integracion lo que indica un buen comportamiento en la resolucion del sistema extendido. Sin embargo, hay que destacar que s aparecen diferencias a medida que aumenta el nivel de discretizacion y especialmente en el P 4.4 que presenta, ademas, un arco singular, por lo que la precision de las iteraciones internas es mas relevante. Se concluye, pues, que para el caso de ODEs poco o nada r gidas, el metodo RKF45 parece ser el mejor candidato para la resolucion de los IVP extendidos y por lo tanto, sera este el que se empleara en la resolucion de los problemas que as lo permitan.

8 9

DDASSLSO:ftp://ftp.cs.umn.edu/users/tmaly/DASSLSO/ El error relativo se calcula segun la expresion % = 100j


error

;J j

4.5. Metodo de Newton Truncado

91

P P

4.1 15 25 50 100

4.2 15 30 60 120

4.4 15 25 60 120

Mt (IVP) ni=nf =ncg % error RCPU RKF45 7/8/29 2 10;4 # LSODA 7/8/27 3 10;4 2.1 DDASSLS0 7/8/29 * 4.6 ;4 RKF45 7/8/29 6 10 # LSODA 7/8/29 5 10;4 2.9 DDASSLS0 7/8/29 * 5.6 ;3 RKF45 8/9/31 1 10 # LSODA 8/9/31 1 10;3 3.1 DDASSLS0 8/9/31 * 5.0 RKF45 11/12/41 4 10;3 # LSODA 11/12/41 4 10;3 3.0 DDASSLS0 11/12/41 * 4.0 ;3 RKF45 15/16/39 2 10 # LSODA 15/16/39 2 10;3 1.6 DDASSLS0 15/16/39 * 10.0 ;3 RKF45 30/31/91 5 10 # LSODA 30/31/90 5 10;3 1.6 DDASSLS0 30/31/91 * 10.1 ;3 RKF45 60/61/184 9 10 # LSODA 60/61/185 4 10;3 1.7 DDASSLS0 60/61/184 * 9.6 RKF45 120/121/382 * # LSODA 101/102/322 2.9 1.3 DDASSLS0 115/116/378 1.4 7.2 RKF45 13/18/52 * 1.6 LSODA 8/15/29 2 10;2 # DDASSLS0 7/12/29 2 10;2 5.8 RKF45 11/17/54 * 1.2 LSODA 11/17/42 6 10;3 # DDASSLS0 9/13/39 7 10;3 4.4 RKF45 14/19/57 4 10;3 # LSODA 16/21/68 * 1.3 ;3 3.8 DDASSLS0 13/26/55 5 10 RKF45 14/28/80 8 10;3 # LSODA 18/24/82 4 10;3 1.1 DDASSLS0 24/27/108 * 3.5

Tabla 4.5: Comparacion de integradores en la resolucion de problemas de optimizacion dinamica con el metodo TNHp.

92

Cap tulo 4. Metodos de segundo orden

4.5.3 TNHp vs TNfd


El objetivo de esta seccion es destacar como el uso de informacion de segundo orden exacta aumenta la robustez del proceso de optimizacion frente al uso de un esquema en diferencias nitas. Para ello se han resuelto un conjunto de problemas para los tres niveles de tolerancia habituales, con el metodo exacto (TNHp) y con el metodo que hace uso de diferencias nitas (TNFd). Los resultados re ejan un comportamiento irregular del metodo TNfd. En terminos generales, el metodos TNfd, presenta tres tipos de comportamientos no deseables: No converge en absoluto, probablemente calculando direcciones de ascenso, o converge a soluciones suboptimas. Esto es especialmente notable cuando el numero de variables de control, o el nivel de discretizacion aumenta, o bien cuando se utiliza el nivel de tolerancias menos estricto (L1). Para ilustrar el problema de convergencia a soluciones suboptimas, se presenta en la gura 4.6 una comparacion de ambos metodos en la resolucion de un problema de optimizacion con varias variables de control, que se considerara mas adelante en este trabajo (CSTR, reactor de tanque agitado que opera en continuo). Es importante destacar el hecho de que para muchos de los problemas considerados en este trabajo, el metodo TNFd presento problemas de divergencia, sobre todo en los casos en los que el punto inicial esta mas alejado de la solucion y para niveles de discretizacion elevados. Presenta peores propiedades de convergencia, realizando demasiadas iteraciones y/o evaluaciones. Debido a las posibles imprecisiones cometidas en el calculo de los productos Hp mediante diferencias nitas, las direcciones de busqueda calculadas son de peor calidad que las generadas por el metodo exacto, lo que lleva a una iteracion interna mas costosa, resultando un elevado numero de evaluaciones para llegar a la solucion. Esto es especialmente relevante en los casos en los que el punto inicial esta mas alejado de la solucion. Como ejemplo donde se re eja muy bien este comportamiento se muestran, en la gura 4.7, los per les de convergencia de ambos metodos para la resolucion del problema del oscilador del van der Pol con varios niveles de discretizacion de control.

4.5. Metodo de Newton Truncado

93

NIT 0 -0.1 TNHp (=11) log10[(J-J*)/J*] -0.6 -1.1 -1.6 -2.1 -2.6 TNfd (=11) 10 20 30 40 50

0 0 -0.5 log10[(J-J*)/J*] -1 -1.5 -2 -2.5 -3

20

40

NIT 60

100

120

TNHp (=44) TNfd (=44)

0 -0.2 -0.7 log10[(J-J*)/J*] -1.2 -1.7 -2.2 -2.7 -3.2 -3.7

50

NIT 100

150

200

TNHp (=66) TNfd (=66)

Figura 4.6: Estudio comparativo de las curvas de convergencia de los metodos TNHp y TNfd para la resolucion del problema CSTR (tomando como referencia J = 21:812).

94

Cap tulo 4. Metodos de segundo orden

1.0 0.5 0.0 -0.5 -1.0 -1.5 -2.0 -2.5 -3.0

log10[(J-J*)/J*] TNHp (=25) TNfd (=25)

5 log10[(J-J*)/J*]

10

15 NIT

20

25

30

1.0 0.5 0.0 -0.5 -1.0 -1.5 -2.0 -2.5 -3.0 -3.5

TNHp (=50) TNfd (=50)

10 log10[(J-J*)/J*]

20

NIT

30

40

50

1.0 0.0 -1.0 -2.0 -3.0 -4.0 -5.0 0 10 20 30 40 NIT 50 60

TNHp (=200) TNfd (=200)

70

80

Figura 4.7: Estudio comparativo de las curvas de convergencia de los metodos TNHp y TNfd para la resolucion el problema del oscilador de van der Pol (tomando como referencia J = 2:8673).

4.5. Metodo de Newton Truncado

95

Converge a per les de control con mucho \ruido". Esto es especialmente importante en los casos en los que hay arcos singulares, el Hamiltoniano del sistema es insensible al control y eso se traduce habitualmente en problemas de convergencia para los metodos deterministas. Para re ejar este aspecto se muestra en la gura 4.8 la comparacion de los per les optimos obtenidos por ambos metodos en la resolucion del problema de mezcla de catalizadores.
=5
1 0.8 Control u 0.6 0.4 0.2 0 TNHp TNfd Control u

=30
1 0.8 0.6 0.4 0.2 0 0 TNHp TNfd

0.2

0.4 0.6 Tiempo

0.8

0.2

0.4 0.6 Tiempo

0.8

1 0.8 Control u 0.6 0.4 0.2 0 0 0.2

=50
TNHp TNfd Control u

1 0.8 0.6 0.4 0.2

=100
TNHp TNfd

0.4 0.6 Tiempo

0.8

0.2

0.4 0.6 Tiempo

0.8

Figura 4.8: Comparacion de pol ticas optimas de operacion obtenidas con TNHp y TNfd para la resolucion del problema de mezcla de catalizadores. Para el valor de = 100 se observa el buen comportamiento del TNHp frente al TNfd: una informacion de Hessiano exacta parece la clave para obtener per les suaves en los arcos singulares. Tambien otros metodos que no usan informacion de segundo orden obtenida mediante diferencias nitas, pero s a partir de aproximaciones, presentan problemas de este tipo, como se re eja en la gura 4.9, lo que viene a con rmar esta hipotesis.

96

Cap tulo 4. Metodos de segundo orden

1.0 0.8 Control, u 0.6 0.4 0.2 0 0 20 40 60 80 Tiempo 100

Figura 4.9: Pol tica de operacion ( = 100) para el caso de mezcla de catalizadores segun Dolan y More (2001).

4.5.4 TNHp: resolucion de problemas en parametros concentrados


Habiendo concluido que la combinacion del metodo TNHp y el integrador RKF45 constituyen una estrategia prometedora para la resolucion de problemas de optimizacion dinamica, se considera en esta seccion la resolucion de los problemas tipo test considerados en la seccion 4.4.2: oscilador de van der Pol (P 4.1), mezcla de catalizadores (P 4.2) y el problema de Nishida (P 4.3). Para cada uno de ellos se consideran varios niveles de discretizacion y dos puntos iniciales para comprobar, ademas, la robustez del metodo. Los resultados obtenidos se presentan en las tablas 4.6- 4.8 utilizando la siguiente notacion: es el nivel de discretizacion de la variable de control ni =nf =ncg , indican el numero de iteraciones, evaluaciones de la funcion e iteraciones internas respectivamente J , es el valor de la funcion objetivo y Tcpu es el tiempo de computacion en segundos. En cada caso, se indica, ademas, el valor de la funcion objetivo correspondiente al per l de control inicial (J0 ). Los per les de control optimo obtenidos se representan en las guras 4.10-4.12.

4.5. Metodo de Newton Truncado

97

u0(t) = 0:7, J0 = 5:43815 ni =nf =ncg J 25 7=8=29 2:87631 50 8=9=31 2:86942 100 11=12=41 2:86787 200 16=17=62 2:86769 500 47=48=161 2:86728

u0(t) = 0:1, J0 = 15:14833 Tcpu ni=nf =ncg J Tcpu 0:3 25 10=11=44 2:87631 0:5 1:6 50 9=17=34 2:86937 1:6 5 100 13=21=48 2:86778 5 32 200 21=29=63 2:86739 34 314 500 59=60=177 2:86728 360
;

Tabla 4.6: Resultados obtenidos para el caso del Oscilador de van der Pol con el metodo TNHp.

u0(t) = 0:17, J0 = 0:0338832 ni=nf =ncg J 25 11=12=27 0:0480527 50 23=24=65 0:0480554 100 40=41=101 0:0480555 150 61=62=149 0:0480556

Tcpu 0:2 0:9 4:5 15:6

u0(t) = 0:95, J0 = 0:0040861 ni=nf =ncg J 25 14=15=43 0:0480527 50 22=23=56 0:0480553 100 41=42=99 0:0480555 150 61=62=142 0:0480556

Tcpu 0:2 0:8 4:6 15:1

Tabla 4.7: Resultados obtenidos para el problema de mezcla de catalizadores con el metodo TNHp.

u0(t) = 0:0, J0 = 4:29386 ni=nf =ncg J 25 25=26=81 1:11371 50 50=51=156 1:01746 100 100=101=318 1:01397 150 150=151=468 1:00891

Tcpu 0:5 1:6 16:0 28:0

u0(t) = 0:5, J0 = 4:41397 ni =nf =ncg J 25 25=26=75 1:11371 50 50=51=151 1:01745 100 100=101=316 1:01397 150 150=151=472 1:012275
;

Tcpu 0:4 1:6 8:0 16:3

Tabla 4.8: Resultados obtenidos para el problema de Nishida con el metodo TNHp.

98

Cap tulo 4. Metodos de segundo orden

1 0.8
Control, u

0.6 0.4 0.2 0

-0.2 0 0.5 1 1.5 2 2.5 3 Tiempo 3.5 4 4.5 5

Figura 4.10: Pol tica de operacion optima para el caso P 4.1 ( = 500, J = 2:86728).
1 0.8
Control, u

0.6 0.4 0.2 0 0.0

0.2

0.4 0.6 Tiempo

0.8

1.0

Figura 4.11: Pol tica de operacion optima para el problema P 4.2 ( = 150, J = 0:0480556).
1.5 1
Control, u

0.5 0 1.0 2.0 3.0 4.0

-0.5 -1 -1.5 Tiempo

Figura 4.12: Pol tica de operacion optima para el problema P 4.3 ( = 150, J = 1:00891).

4.5. Metodo de Newton Truncado

99

4.5.5 Conclusiones
Se han resuelto tres problemas t picos de optimizacion dinamica de diferentes caracter sticas con el n de evaluar la calidad del metodo propuesto (TNHp). Para ello se han considerado varios niveles de discretizacion y dos puntos iniciales diferentes. Recordando los criterios de evaluacion de metodos de optimizacion que se ve an en la primera seccion del cap tulo 2 y aplicandolos al metodo TNHp se concluye: 1. Generalidad y robustez: El metodo es aplicable a un conjunto de problemas bastante diverso incluyendo casos muy no lineales. Sin embargo, al tratarse de un metodo determinista, no sera aconsejable para la resolucion de problemas multimodales. En cuanto a robustez, ha alcanzado practicamente los mismos resultados desde distintos puntos iniciales, incluso puntos muy lejanos, para todos los casos considerados, lo que demuestra un comportamiento robusto. 2. E ciencia: Para evaluar la e ciencia del metodo se compararan los resultados con aquellos obtenidos por otros metodos, como el qN-3, presentado tambien en este trabajo, o los metodos IDP, Luus-Jaakola y DAEOPT a traves de los resultados publicados por otros autores. En la tabla 4.9 se presenta un resumen de resultados para todos los casos considerados, utilizando la siguiente notacion: P , indica el caso de optimizacion dinamica Mt, indica el metodo utilizado para resolver el problema /Aprox., indica el nivel de discretizacion y el tipo de aproximacion utilizados (como tipos de aproximacion se distinguen, c y l que indican aproximacion utilizando elementos constantes y lineales respectivamente, por ultimo algunos metodos utilizan elementos de longitud variable (v-c o v-l) J , indica el valor optimo alcanzado y Tcpu indica el tiempo de computacion en segundos en un Pentium/III a 450MHz (los valores tomados de la bibliograf a han sido transformados teniendo en cuenta las tablas de transformacion del Linpack 10010).

10

http://www.netlib.org/performance/html/PDStop.html

100

Cap tulo 4. Metodos de segundo orden

/Aprox. J Tcpu (s) P 10/v-l 2:868095 29 15/c 2:8929002 2:87 100/c 2:86787 5 500/c 2:86728 314 P 4.2 DAEOPT (Vassiliadis, 1993) 6/v-c 0:0480557 2:5 Varios (Dolan y More,2001) varios/c 0:047186 ; 0:048069 1:6 ; 1027 qN-3 15/c 0:0480553 10:5 TNHp 50/c 0:0480554 0:9 150/c 0:0480556 15.6 P 4.3 qN-3 15/c 1:2346948 20:5 TNHp 25/c 1.11371 0.5 150/c 1:00891 28
P

Mt 4.1 DAEOPT (Vassiliadis, 1993) qN-3 TNHp

Tabla 4.9: Resumen de resultados obtenidos por distintos metodos. Observando los resultados detallados en la tabla, se concluye que el metodo TNHp demuestra ser muy e ciente en la resolucion de los tres problemas considerados no solo en valores de J alcanzados sino tambien en tiempos de computacion. En particular en el problema P 4.1 el TNHp alcanza un valor objetivo mejor que el obtenido usando DAEOPT (metodo CVP basado en un SQP reducido que hace uso de informacion de primer orden exacta) practicamente 6 veces mas rapido. En el problema P 4.2, su comportamiento no es tan bueno: si se comparan los valores objetivo resulta ligeramente peor que el presentado por Vassiliadis (1993). En cuanto a los valores que aparecen en el trabajo de Dolan y More (2001), son muy variados, y los propios autores reconocen que son oscilatorios, con per les de control muy ruidosos, como ya se mostraba en la gura 4.9. Por ultimo en cuanto al caso P 4.3, no hay resultados de otros autores que permitan ofrecer una comparacion mas detallada. Sin embargo, una vez mas TNHp resulta muy superior al qN-3, alcanzando un mejor valor objetivo 40 veces mas rapido. Por otra parte hay que destacar su superioridad frente al metodo qN-3, presentado tambien en este trabajo, a pesar de realizar un numero mas elevado de evaluaciones tanto de la funcion objetivo como del gradiente y de la informacion de segundo orden. Notese tambien que el aumento en el nivel de discretizacion produce un incremento no lineal del tiempo de computacion dado que el numero de iteraciones

4.6. RTNHp: Control optimo de procesos qu micos y bioqu micos

101

internas del metodo TN crece tambien rapidamente. Esto con rma una vez mas que una evaluacion mas e ciente de las sensibilidades de segundo orden es vital para reducir los tiempos de computacion.

4.6 RTNHp: Control optimo de procesos qu micos y bioqu micos


En la seccion anterior se considero la optimizacion dinamica de tres problemas clasicos para evaluar la calidad del metodo TNHp. Como resultado se ha concluido que es una herramienta muy e ciente y robusta, permitiendo alcanzar niveles de discretizacion elevados en tiempos de computacion razonables. Aqu se considerara la solucion de tres nuevos problemas mas complicados. En estos problemas, las pol ticas de control optimo no son suaves, y su caracter caprichoso implica que es necesario recurrir a niveles de discretizacion elevados para obtener una buena precision. Los dos primeros consisten en la optimizacion dinamica de dos bioreactores que operan en modo semicontinuo, y el tercero es un proceso qu mico que tiene lugar en un reactor de tanque agitado que opera en continuo. Se pretende resolver los tres para valores de elevados, lo que implica problemas de optimizacion no lineal de dimension elevada. Por ello se propone aqu un metodo de re nado del nivel de discretizacion que se combina con el TNHp dando lugar a lo que denominamos RTNHp.

4.6.1 RTNHp: TNHp con re nado


Con el n de obtener niveles de discretizacion elevados, reduciendo todo lo posible el coste computacional, se presenta el metodo RTNHp que consiste en re-optimizar sucesivamente con valores crecientes de . En este metodo es necesario indicar tanto el valor inicial como nal de as como los niveles de tolerancia de optimizacion. El metodo RTNHp procede siguiendo los pasos que se detallan a continuacion: Paso 1.- Valor inicial del per l de control (habitualmente un per l plano, tal y como se considero en los casos anteriores, u0(t) = uini) Paso 2.- Seleccionar los valores inicial y nal para el nivel de discretizacion ( i, f ) y para las tolerancias de integracion (int toli , int tolf ). Las tolerancias de optimizacion se calculan a partir de las de integracion en la forma: opt toli =tol ratio int toli y opt tolf =tol ratio int tolf . Elegir ademas un parametro r usado para incrementar el nivel de discretizacion de una optimizacion a la otra.

102

Cap tulo 4. Metodos de segundo orden

Paso 3.- Calcular el numero de optimizaciones (NRO) y el paso de reduccion de la 1 tolerancia tol usando las expresiones fi = r(NRO;1) y tol = NRO (int toli ; int tolf ) Paso 4.- Optimizacion inicial (k = 1): calcular, usando TNHp, el per l optimo para u1(t) que corresponde al nivel de discretizacion inicial i y las tolerancias int toli , opt toli. Paso 5.-Bucle de optimizacion re nando el nivel de discretizacion, k=2 Si (k <= NRO) entonces k = k;1 r Reducir la tolerancia de integracion: int tolk = int tolk;1- tol Ajustar la tolerancia de optimizacion: opt tolk = int tolk tol ratio Optimizacion k: usando uk;1 como per l inicial, calculo de uk usando TNHp k =k+1 Fin Algunos valores t picos para los parametros del metodo RNTHp son i = 15 ; 20, r = 2, tol ratio = 100:0. A continuacion se aplica este metodo a la solucion de varios problemas de di cultad media-alta.

4.6.2 Optimizacion dinamica de bioreactores


El problema de optimizacion dinamica de bioreactores que operan en modo semicontinuo (fed-batch) ha recibido especial atencion en los ultimos a~os ya que su uso n se ha extendido mucho debido a sus ventajas con respecto a los que operan en modo discontinuo (batch). En particular, los bioreactores semicontinuos no solo permiten una mayor produccion sino que ademas son mas facilmente controlables mediante la manipulacion de la corriente de alimentacion. El esquema basico de estos bioreactores consiste en alimentar a una serie de microorganismos (X) presentes en el bioreactor mediante una alimentacion de caudal variable para la obtencion de un cierto producto. Los microorganismos, mediante un medio adecuado (alimentacion, F), consumen los nutrientes (sustrato, S) y los invierten en generar energ a, en reproducirse y en generar componentes biologicos (prote nas, etc.) alguno de los cuales constituye el producto deseado (P). De forma esquematica (Shuler y Kargi, 1992):

S+X

P + nX

4.6. RTNHp: Control optimo de procesos qu micos y bioqu micos

103

El problema de optimizacion dinamica de estos bioreactores es una tarea dif cil ya que sus modelos son habitualmente muy no lineales y en ocasiones hay restricciones sobre los estados. La variable manipulable es, normalmente, la alimentacion (F) y, como ya se comento en el cap tulo 3, los per les optimos suelen ser de tipo bang-singular-bang (Modak et al., 1986 Bonvin, 1998) lo que complica su solucion notablemente. Algunos autores, tales como San y Stephanopoulos (1984, 1989), Lim et al. (1986), Hong (1986), Modak et al. (1989) y Shioya (1992) , utilizaron el principio maximo de Pontryagin para la resolucion de problemas de este tipo. Dado que las combinaciones en un per l bang-singular-bang son variadas (Lim et al., 1986) y la secuencia depende tanto del tipo de proceso como de las condiciones iniciales, el problema consiste en encontrar los tiempos en los que se producen los cambios y la forma del per l. Para ello estos autores han propuesto ciertas tecnicas y condiciones sobre el Hamiltoniano para poder calcular las pol ticas de operacion. Sin embargo el uso del principio maximo sigue siendo muy complicado. De hecho, en el trabajo de San y Stephanopoulos (1989) se reconocen estas di cultades y se presenta como alternativa el uso de la concentracion de sustrato (S) como variable de control para evitar as la aparicion de arcos singulares. Otros autores como Luus (1992), Gupta (1995), Tholudur y Ramirez (1997), se decantan por el uso del metodo IDP, mientras que la mayor a de los investigadores usan metodos directos en combinacion con distintos algoritmos de optimizacion no lineal. As por ejemplo, Andres-Toro et al. (1997) y Roubos et al. (1999) optaron por el uso de algoritmos geneticos Vassiliadis (1993, 1994 a) hace uso de un metodo determinista de primer orden por ultimo Banga et al.(1994), Banga y Seider (1996), Banga et al.(1997) y Carrasco y Banga (1997) hacen uso de algoritmos estocasticos. Aqu se presenta el uso de los metodos TNHp y RTNHp para la resolucion de dos casos de estas caracter sticas comparando los resultados con los publicados por otros investigadores.
P

4.4: Bioreactor de Park y Ramirez

El problema fue formulado originalmente por Park y Ramirez y ha sido resuelto por varios autores (Yang y Wu, 1994 Luus, 1995 Banga et al., 1995 Tholudur y Ramirez, 1997). El objetivo es maximizar la prote na segregada en un cultivo de una levadura (microorganismo). El modelo dinamico tiene en cuenta el crecimiento de los microorganismos y la generacion de producto (polipeptidos en este caso) mediante los

104

Cap tulo 4. Metodos de segundo orden

balances de masa y cineticas que se presentan en las ecuaciones (4.34)-(4.41):

donde y1 e y2 son, respectivamente, la concentracion de prote na y polipetido total (L;1 ), y3 es la densidad de microorganismos (g=L), y4 es la concentracion de sustrato (g=L) , y5 es el volumen en el reactor (L) y u es la alimentacion de nutriente (glucosa) (L=h). El problema de optimizacion dinamica consiste en encontrar u(t) en el intervalo t 2 t0 tf ] para maximizar: J = y1(tf )y5(tf ) (4.42) donde J es la masa total de prote na producida a tiempo nal. Las condiciones iniciales son:

u y1 = g1 (y2 y1) y y1 _ 5 uy y2 = g2y3 y 2 _ 5 uy y3 = g3y3 y 3 _ 5 u y4 = 7:3g3y3 + y (20 y4) _ 5 y5 = u _ g1 = 0:4:75g3g 12 + 3 4 g2 = 0:1y+ y exp ( 5y4) 4 21:87y4 g3 = (y + 0:4) (y + 62:5)
; ; ; ; ; ; ;

(4.34) (4.35) (4.36) (4.37) (4.38) (4.39) (4.40) (4.41)

y(0) = 0 0 1 5 1]

(4.43)

Con el n de poder comparar los resultados obtenidos con los presentados en la bibliograf a se consideraran tres casos particulares:
P

4.4a: resuelto por Vassiliadis (1993), con tiempo nal tf = 22 h y veri cando la restriccion en el volumen a tiempo nal:

y5(tf ) 14:35
y los l mites:

(4.44)

0 u 10 (4.45) Para obtener una solucion factible se ha usado una funcion de penalizacion cuadratica como las presentadas en la seccion 2.4.

4.6. RTNHp: Control optimo de procesos qu micos y bioqu micos


P

105

4.4b: resuelto por Luus (1992) y Banga et al. (1995), con tiempo nal tf = 15 h y las restricciones en la variable de control: 0 u 2:0
P

(4.46)

4.4c: el mismo que P 4.4b, pero con peque~as modi caciones en el modelo n introducidas por Tholudur y Ramirez (1997), y con los l mites en la variable de control: 0 u 2:5 (4.47) Todos ellos se han resuelto utilizando TNHp con varios niveles de discretizacion y RTNHp en el modo descrito. Los resultados se presentan en las tablas 4.10-4.15 siguiendo la notacion habitual. En las tablas de resultados obtenidos con el metodo RTNHp se a~ade una columna para indicar el numero de optimizacion (NRO) y los n valores de evaluaciones y tiempo de computacion son acumulativos. En relacion al uso del TNHP se han considerado dos tolerancias de integracion (10;7 y 10;8), con el n de evaluar su impacto en el resultado nal. El per l inicial elegido es u0 = 0:5, y los resultados aparecen en las tablas 4.10 para el caso P 4.4a 4.12 el caso P4.4b y 4.14 para el caso P 4.4c. En relacion a la optimizacion con RTNHp se han elegido 10;6 y 10;8 como valores inicial y nal para la tolerancia de integracion respectivamente. Los resultados aparecen en las tablas 4.11, 4.13 y 4.15. Como referencia, los resultados presentados en la bibliograf a reciente se resumen en la tabla 4.16.

int tol : 10;7 ni=nf =ncg 15 9=14=31 30 10=14=42 60 16=23=79 120 19=27=95

int tol : 10;8 J Tcpu ni =nf =ncg 92.977 6.4 15 16=21=68 93.377 22 30 15=18=65 93.388 118 60 15=19=74 93.441 388 120 23=30=114

J Tcpu 92.998 16 93.381 40 93.382 132 93.442 592

Tabla 4.10: Resultados obtenidos con el TNHp para el caso P 4.4a. Para el caso P 4.4a, se observa que el metodo TNHp converge a muy buenos resultados rapidamente incluso para valores elevados de ( ). No se perciben diferencias muy importantes entre los resultados obtenidos por los dos niveles de tolerancia aunque el uso de tolerancias mas estrictas aumenta el coste computacional.

106

Cap tulo 4. Metodos de segundo orden

NRO 1 2 3 4 5

15 30 60 120 240

ni=nf =ncg 7=12=28 15=30=54 18=43=67 26=63=117 29=70=133

J 92.974 93.358 93.379 93.442 93.553

Tcpu 3.9 14.2 30.8 220 496

Tabla 4.11: Resultados obtenidos con el RTNHp para el caso P 4.4a (r = 2 int toli=10;6, int tolf =10;8). En cuanto a la solucion con RTNHp, es claro que los resultados mejoran notablemente, ya que no solo permite mejorar los valores de la funcion objetivo sino que ademas el tiempo de computacion se reduce de manera considerable.

int tol : 10;7 ni=nf =ncg 15 12=26=50 30 21=31=118 60 27=33=168 120 24=28=121

int tol : 10;8 J Tcpu ni=nf =ncg 32.028 7.4 15 15=27=59 32.574 38.7 30 24=34=144 32.662 159 60 29=36=215 32.663 366 120 35=41=205

J 32.028 32.574 32.662 32.691

Tcpu 7.4 59.0 270 759

Tabla 4.12: Resultados obtenidos con el TNHp para el caso P 4.4b.

NRO 1 2 3 4 5

20 40 80 160 320

ni=nf =ncg 8=22=35 21=38=120 31=55=188 44=76=249 45=77=264

J 32.388 32.633 32.656 32.688 32.689

Tcpu 7.7 51.2 150 428 657

Tabla 4.13: Resultados obtenidos con el RTNHp para el caso P 4.4b (r = 2 int toli=10;6, int tolf =10;8). Con respecto al caso P 4.4b, el comportamiento es semejante, aunque el uso de tolerancias de integracion y optimizacion mas estrictas parece tener mas relevancia que en el caso anterior.

4.6. RTNHp: Control optimo de procesos qu micos y bioqu micos

107

int tol : 10;7 ni=nf =ncg 15 16=30=60 30 23=62=69 60 19=60=79 120 19=39=92

int tol : 10;8 J Tcpu ni =nf =ncg 32.110 7.5 15 16=30=60 32.269 21 30 20=64=66 32.443 72.6 60 18=50=76 32.467 241 120 31=59=207

J Tcpu 32.110 8.3 32.269 27 32.443 86 32.472 729

Tabla 4.14: Resultados obtenidos con el TNHp para el caso P 4.4c.

NRO 1 2 3 4 5

20 40 80 160 320

ni=nf =ncg 16=36=66 34=63=139 45=94=236 46=99=238 49=109=256

J 32.170 32.388 32.478 32.479 32.480

Tcpu 12.3 43 165 177 451

Tabla 4.15: Resultados obtenidos con el RTNHp para el caso P 4.4c (r = 2 int toli=10;6, int tolf =10;8). Por ultimo, para el caso P 4.4c, en concordancia con los resultados obtenidos en los dos casos anteriores, tanto TNHP como RTNHp convergen rapidamente a muy buenas soluciones. En este caso el uso de tolerancias mas estrictas apenas in uye salvo en el caso = 120 en que el objetivo experimenta una ligera mejor a. Los resultados presentados en la tabla 4.15 re ejan, una vez mas, que RTNHp alcanza soluciones, en ocasiones, mejores, y siempre con menor coste computacional.

108

Cap tulo 4. Metodos de segundo orden

/Aprox. J Tcpu (s) P 4.4a 10/v-c 93.232 128 10/v-l 93:361 85 TNHp 30/c 93:377 22 RTNHp 60/c 93:379 30.8 240/c 93:553 496 P 4.4b SA (Yang y Wu,1994) ** 32:681 N.D. 11 IDP (Luus, 1994) ** 32:64 N.D. IDP (Luus, 1995) ** 32:686 4808 ICRS/DS (Banga et al. 1995) 7/v-l 32:562 18 ; 53 TNHp 120/c 32:691 759 RTNHP 160/c 32:688 428 P 4.4c FIDP (Tholudur y Ramirez, 1997) 50 ; 200/c 32:31 ; 32:47 N:D: TNHp 60/c 32:443 75 RTNHp 40/c 32:388 44 320/c 32:480 451
P

Mt DAEOPT (Vassiliadis, 1993)

Tabla 4.16: Tabla resumen de resultados para la optimizacion dinamica del bioreactor de Park-Ramirez. Si se comparan los resultados con los obtenidos por otros autores, se observa que para el caso P 4.4a, el mejor valor obtenido (J = 93:553), se obtiene en tan solo 513 s, destacando el hecho de que, con el metodo RTNHp, en menos de ha alcanzado un valor objetivo de J = 93:358. Para el caso P 4.4b, se observa que, una vez mas, tanto con TNHp como con RTNHp se mejoran los resultados en terminos de funcion objetivo, con reducciones en el tiempo de computacion de hasta 11 veces respecto a los valores presentados en la bibliograf a. De manera semejante, en el caso P 4.4c, los resultados obtenidos con TNHp y RTNHp, son comparables o mejores que los obtenidos por otros autores. Algunos ejemplos de per les optimos se muestran en las guras 4.13. Es importante resaltar la suavidad de estos per les frente a los encontrados por otros autores, que se han visto obligados a utilizar tecnicas manuales de ltrado (como por ejemplo FIDP) para suavizar los per les debido a la presencia de picos en las soluciones originales.

4.6. RTNHp: Control optimo de procesos qu micos y bioqu micos

109

1.5

P 4.4a (=120, J=93.441)

Control, u

0.5

10

15 Tiempo (h)

20

25

2 1.6
Control, u

P 4.4b (=120, J=32.663)

1.2 0.8 0.4 0 0 2.5 2

Tiempo (h)

10

15

P 4.4c (=120, J=32.467)

Control, u

1.5 1 0.5 00

10 Tiempo (h)

15

Figura 4.13: Pol ticas de operacion optimas para los casos P 4.4a ( = 120, J = 93:441), P 4.4b ( = 120, J = 32:663) y P 4.4c ( = 120, J = 32:467) respectivamente.

110
P

Cap tulo 4. Metodos de segundo orden

4.5: Bioreactor de Lee y Ramirez

Este problema fue formulado por Lee y Ramirez (1994) y considerado mas tarde por otros autores, como Tholudur y Ramirez (1996) y Carrasco y Banga (1997), que indicaron que la funcion objetivo era muy poco sensible a las modi caciones en las variables de control. Para subsanar este problema Tholudur y Ramirez (1997) presentaron un modelo modi cado en el que parece aumentar esta sensibilidad. Esta es la formulacion que se considerara en este trabajo. En este caso dos son las corrientes de entrada al reactor, una es la alimentacion y la otra es un inductor que modi ca la velocidad de crecimiento de los microorganismos favoreciendo la produccion de prote na. El objetivo es maximizar el bene cio del proceso, es decir, la diferencia entre el valor del producto obtenido (prote na) y el coste del inductor: Encontrar u1(t) y u2(t) en t 2 t0 tf ] para maximizar:

J = y4(tf )y1(tf ) Q
;

Z tf
t0

u2(t)dt

(4.48) (4.49) (4.50) (4.51) (4.52) (4.53) (4.54) (4.55)

sujeto a la dinamica del proceso:

y1 = u1 + u2 _ + y2 = (y3 y5 y6 y7)y2 u1 y u2 y2 _ 1 u1 C f u1 + u2 y Y ;1 (y y y y )y y3 = y n _ 3 5 6 7 2 y1 3 1 + y4 = Rfp(y3 y5)y2 u1 y u2 y4 _ 1 u2 C f u1 + u2 y y5 = y i _ y1 5 1 y6 = k1 y6 _ y7 = k2 (1 y7) _


; ; ; ; ; ; ;

con:

y3 y + y R (y )] 2 14:35 + y3 + y3 =111:5 6 7 R 5 0 RR = 0:22:22 y + 5 + : Rfp = 14:35 +0y233yy32=111:5 00::0005+ yy5 022 5 3+ 3 0:09y5 k1 = k2 = 0:034 + y
=
5

(4.56) (4.57) (4.58) (4.59)

4.6. RTNHp: Control optimo de procesos qu micos y bioqu micos

111

donde las variables de estado son el volumen del reactor y1, la densidad de microorganismos y2, la concentracion de nutrientes y3, la concentracion de prote na y4, la concentracion del inductor y5, y el efecto que produce el inductor sobre el crecimiento de los microorganismos viene dado por y6 y y7. Las dos variables de control son la corriente de glucosa u1 y la de inductor u2. Q es la razon entre el coste del inductor y el valor de produccion de prote na. El tiempo nal de operacion se toma como tf = 10 h. Las condiciones iniciales son:

y(0) = 1 0:1 40 0 0 1 0]T


Y los l mites en las variables de control: 0 0

(4.60)

u1(t) 1 u2(t) 1

(4.61) (4.62)

Tholudur y Ramirez usaron el metodo IDP (Iterative Dynamic Programming) de Luus y su FIDP (Filtered Iterative Dynamic Programming) para la resolucion de este problema, considerando tres posibles valores de Q. En particular, Q = 0 (sin considerar el coste del inductor), Q = 2:5 y Q = 5:0, casos que aqu se denominaran P 4.5a, P 4.5b y P 4.5c respectivamente. En su trabajo concluyen que el metodo FIDP tiene ventajas sobre el IDP, sobre todo en lo concerniente a la suavidad de los per les encontrados. Sus resultados se resumen en la tabla 4.17. Case P 4.5a P 4.5b P 4.5c Q 0.0 2.5 5.0 J 6.16 5.77 5.58

Tabla 4.17: Resultados presentados por Tholudur y Ramirez (1997) para el bioreactor de LeeRamirez. En esta tesis, para los tres casos se utilizo un per l de control inicial constante (u1 0 = u2 0 = 0:5). Dado que en el caso del bioreactor de Park y Ramirez no se notaron mayores incidencias en el uso de tolerancias de integracion mas estrictas y despues de observar el mismo comportamiento en la solucion de este problema aqu

112

Cap tulo 4. Metodos de segundo orden

solo se presentan los resultados obtenidos para una tolerancia de integracion 10;7 (relativa y absoluta). Estos resultados aparecen en las tablas 4.18, 4.20 y 4.22 para el metodo TNHp y 4.19, 4.21 y 4.23 para el metodo RTNHp.

int tol : 10;7 ni=nf =ncg 5 20=40=58 10 32=62=97 20 54=94=212 40 103=150=435

J 6.1271 6.1482 6.1508 6.1515

Tcpu 3.4 15.5 90 610

Tabla 4.18: Resultados obtenidos con el TNHp para el caso P 4.5a.

NRO 1 2 3 4

15 30 60 120

ni=nf =ncg 40=71=150 43=79=164 50=90=232 51=92=234

J 6.15127 6.15151 6.15159 6.15160

Tcpu 44 58 260 298

Tabla 4.19: Resultados obtenidos con el RTNHp para el caso P 4.5a (r = 2 int toli=10;6, int tolf =10;8).

int tol : 10;7 ni =nf =ncg 5 16=38=43 10 20=35=62 20 34=39=106 40 61=69=170

J 5.7441 5.7551 5.7568 5.7571

Tcpu 2.8 8.5 42 209

Tabla 4.20: Resultados obtenidos con el TNHp para el caso P 4.5b.

4.6. RTNHp: Control optimo de procesos qu micos y bioqu micos

113

NRO 1 2 3 4

15 30 60 120

ni=nf =ncg 24=32=93 34=42=134 35=43=146 44=56=230

J 5.75668 5.75706 5.75706 5.75711

Tcpu 23 61 80 1152

Tabla 4.21: Resultados obtenidos con el RTNHp para el caso P 4.5b (r = 2 int toli=10;6, int tolf =10;8).

int tol : 10;7 ni=nf =ncg 5 13=38=33 10 21=35=78 20 30=37=89 40 61=63=201

J 5.5600 5.5666 5.5678 5.5679

Tcpu 2.3 10 35 246

Tabla 4.22: Resultados obtenidos con el TNHp para el caso P 4.5c.

NRO 1 2 3 4

15 30 60 120

ni=nf =ncg 30=31=96 36=43=142 40=51=165 43=58=180

J 5.56772 5.56782 5.56788 5.56789

Tcpu 25 63 140 354

Tabla 4.23: Resultados obtenidos con el RTNHp para el caso P 4.5c (r = 2 int toli=10;6, int tolf =10;8). Notese que los resultados obtenidos son muy semejantes a los proporcionados en el trabajo de Tholudur y Ramirez (1997), y los tiempos de computacion son muy reducidos (en este sentido no es posible hacer una comparacion ya que estos autores no incluyen los tiempos de calculo en su trabajo). Como ejemplo, se han calculado soluciones dentro de un 0:001% del mejor valor obtenido usando FIDP, en menos de 1 minuto para el caso de P 4.5a y menos de 30 s para P 4.5b y P 4.5c usando RTNHp. Esto es especialmente destacable dado que el problema tiene dos variables de control.

114

Cap tulo 4. Metodos de segundo orden

Algunos ejemplos de per les de control para los tres casos se muestran en las guras 4.14.
P 4.5a (=120, J=6.1516) 1 0.8 0.6 0.6 0.4 0.4 0.2 0 0.2 0 4 5 6 7 Tiempo (h) P 4.5b (=120, J=5.75711) 1 2 3 8 9 10 0 0 1 2 3 4 5 6 7 Tiempo (h) 8 9 10 u1 1 0.8 u2

0.3 0.25 0.2

0.1 u1 0.08 0.06 u2

0.15 0.1 0.05 0 0 0.35 0.3 0.25 0.2 0.15 0.1 0.05 0.01 0.03 0.02 1 2 3 4 5 6 Tiempo (h) 7 8 9 10 0.04 0.02 0 0 0.05 u1 0.04 u2

4 5 6 7 Tiempo (h)

9 10

P 4.5c (=120, J=5.56789)

0 0

4 5 6 Tiempo (h)

9 10

5 6 7 Tiempo (h)

10

Figura 4.14: Pol ticas de operacion optimas para los casos P 4.5a ( = 120, J = 6:1516), P 4.5b ( = 120, J = 5:75711) y P 4.5c ( = 120, J = 5:56789) respectivamente.

4.6. RTNHp: Control optimo de procesos qu micos y bioqu micos

115

4.6.3 Optimizacion de procesos qu micos de dimension elevada


Para nalizar este cap tulo se considera la optimizacion dinamica de un proceso qu mico caracterizado por un modelo no lineal y la presencia de cuatro variables de control y ocho variables de estado. El problema consiste en calcular el maximo bene cio economico en la operacion de un reactor qu mico. El proceso consiste en cinco reacciones qu micas que tienen lugar simultaneamente en un reactor de tanque agitado isotermico. El problema fue considerado por primera vez por Jensen (1964) y revisado en los trabajos de Lapidus y Luus (1967), Luus (1990) y Bonjkov et al. (1993). La formulacion matematica del problema es como sigue: sujeto a:
; ;

max J = y8(tf ) u( )

(4.63) (4.64) (4.65) (4.66) (4.67) (4.68) (4.69) (4.70) (4.71)

y1 = u4 (u1 + u2 + u4)y1 17:6y1y2 23y1y6u3 _ y2 = u1 (u1 + u2 + u4)y2 17:6y1y2 146y2y3 _ y3 = u2 (u1 + u2 + u4)y3 73y2y3 _ y4 = (u1 + u2 + u4)y4 + 35:2y1y2 51:3y4y5 _ y5 = (u1 + u2 + u4)y5 + 219y2y3 51:3y4y5 _ y6 = (u1 + u2 + u4)y6 + 102:6y4y5 23y1y6u3 _ y7 = (u1 + u2 + u4)y7 + 46y1y6u3 _ y8 = 5:8 (u1 + u2 + u4)y1 u4] 3:7u1 4:1u2 + (u1 + u2 + u4) _ (23y4 + 11y5 + 28y6 + 35y7) 5u2 0:099 3
; ; ; ; ; ; ; ; ; ; ; ; ; ; ; ; ; ;

y con las condiciones iniciales: y(0) = 0:1883 0:2507 0:0467 0:0899 0:1804 0:1394 0:1046 0:0000 ]T y 0 t 0:2 (h). Los l mites en las variables de control: 0 0 0 0

u1(t) u2(t) u3(t) u4(t)

20 6 4 20

(4.72) (4.73) (4.74) (4.75)

116

Cap tulo 4. Metodos de segundo orden

Con el n de comparar los resultados con los obtenidos con otras metodolog as se considera la solucion de dos casos. El primero considera unicamente tres variables de control (P 4.6a) dejando el valor de u4 jado a 6.0, el segundo caso considera las cuatro variables de control (P 4.6b) tal como se indica en la formulacion del problema.

Tres variables de control ( 4.6a)


P

Este caso fue resuelto por Luus (1990) usando IDP. Los resultados obtenidos con el TNHp y con el RTNHp se presentan en las tablas 4.24 y 4.25 respectivamente.

u0 (t) = 10 3 2 ]T , J0 = 16:8537 u0(t) = 5 4 3 ]T , J0 = 10:9170


10 20 40 60 120

Ni=Nf =ncg 20=38=89 22=33=108 27=34=146 39=41=210 76=79=352

J 20:0895 20:0928 20:0932 20:0943 20:0945

Tcpu 3:4 10 38 57 410

10 20 40 60 120

Ni=Nf =ncg 19=22=78 25=36=116 28=40=148 44=48=233 86=98=450

J Tcpu 20:0895 3 20:09384 11 20:0944 32 20:0949 62 20:0955 510

Tabla 4.24: Resultados obtenidos en la optimizacion dinamica del problema del P 4.6a con el metodo TNHP.

NRO 1 2 3 4

10 20 40 80

ni=nf =ncg 19=22=78 26=39=120 32=55=167 34=63=171

J 20.0895 20.0938 20.0953 20.0955

Tcpu 3 8 30 43

Tabla 4.25: Resultados obtenidos con el RTNHp para el caso P 4.6a (r = 2 int toli=10;7, int tolf =10;8).

Cuatro variables de control ( 4.6b)


P

Este caso fue resuelto por Luus (1990) y Bojkov et al. (1993). Los resultados obtenidos en este trabajo con los metodos TNHp y RTNHp se presentan en las tablas 4.26 y 4.27 respectivamente. Los per les de control optimos obtenidos para cada uno de los casos se presentan en las guras 4.15 y 4.16.

4.6. RTNHp: Control optimo de procesos qu micos y bioqu micos

117

Ni=Nf =ncg J Tcpu 11 44=50=264 21:7572 15 22 67=75=346 21:7824 47 44 116=117=705 21:7953 307 66 195=200=1224 21:8134 622 Tabla 4.26: Resultados obtenidos en la 4.6b con el metodo TNHP.
P

u0 (t) = 10 3 2 6 ]T , J0 = 16:8537 u0(t) = 5 4 3 6 ]T , J0 = 10:9170

Ni=Nf =ncg J Tcpu 11 33=41=174 21:7154 10 22 72=81=450 21:7957 64 44 139=144=786 21:8157 259 66 190=194=1679 21:8167 600 optimizacion dinamica del problema del
J 21.4333 21.7629 21.8043 21.8071 Tcpu 6.7 38 100 119

NRO 1 2 3 4

10 20 40 80

ni=nf =ncg 22=26=124 53=61=334 66=79=440 68=86=445

Tabla 4.27: Resultados obtenidos con el RTNHp para el caso P 4.6b (r = 2 int toli=10;7, int tolf =10;8).
20 18 16 14 12 10 8 6 4 2 0 0 20 18 16 14 u1 12 10 u2 8 6 4 u3 0.04 0.08 0.12 Tiempo (h) 0.16 0.2 2 0 0 u1 u2 u3 u4

0.04

0.08 0.12 Tiempo (h)

0.16

0.2

Figura 4.15: Pol ticas de operacion optima para el problema P 4.6a ( = 120, J = 20:0955).

Figura 4.16: Pol ticas de operacion optima para el problema P 4.6b ( = 66, J = 21:8167).

En la tabla 4.28 se incluyen los resultados obtenidos por los autores antes mencionados lo que permite comparar con los obtenidos en este trabajo.

118

Cap tulo 4. Metodos de segundo orden

4.6a

Mt IDP (Luus, 1990)


TNHp RTNHP

4.6b

IDP (Luus, 1990) LJ (Bojkov et al. 1993) TNHp RTNHp

/Aprox. 10/c 40/c 10/c 40/c 40/c 80=c 11/c 11/c 11/c 80/c

J Tcpu (s) 20.0895 1278 20:0953 20:0895 3:4 20:0932 38 20:0954 30 20:0955 43 21:757 N.D. 21:744 7:8 21:7572 15 21:8071 119

Tabla 4.28: Tabla resumen de resultados para la optimizacion dinamica del CSTR. Comparando los resultados obtenidos con los metodos TNHp y RTNHp con los presentados en la bibliograf a se concluye, de nuevo, que los metodos presentados en este trabajo son superiores, alcanzando soluciones similares o mejores, en tiempos de calculo inferiores. Notese, por ejemplo, que para alcanzar el valor J = 20:0954, el metodo RTNHp, ha sido del orden de 400 veces mas rapido que IDP.

4.7 Conclusiones
Como se ha demostrado a lo largo de este cap tulo, el uso de informacion de segundo orden exacta mejora las propiedades de convergencia de los metodos deterministas locales, lo que deriva en una reduccion del coste computacional. La comparacion con metodos que hacen uso de informacion calculada por diferencias nitas, con rma esta hipotesis. Si bien es verdad que los metodos quasi-Newton resultan en costes computacionales elevados, debido al calculo del Hessiano exacto, a pesar de realizar un numero muy reducido de simulaciones, tanto el metodo TNHp como el RTNHp han probado tener muy buenas cualidades para la resolucion de problemas de dimension elevada, compensando el aumento del numero de simulaciones con la reduccion del coste de cada una de ellas. El uso de estos metodos ha permitido la solucion robusta, y a la vez e ciente, de varios problemas de complejidad creciente. En particular, en la solucion de los problemas de optimizacion de bioreactores, han demostrado su capacidad para afrontar la presencia de arcos singulares, obteniendo per les de control muy suaves.

4.7. Conclusiones

119

La comparacion con los resultados obtenidos con otros metodos bien establecidos en la actualidad, tales como IDP, ha con rmado una vez mas el buen comportamiento de los metodos de segundo orden. Se observa que a metodos como IDP les cuesta mucho esfuerzo la resolucion de algunos de estos problemas, resultando en costes computacionales hasta dos ordenes de magnitud superiores a los obtenidos con RTNHp, para alcanzar valores objetivos muy semejantes y, en ocasiones, peores. Por otro lado, la sencillez de aplicacion de los metodos propuestos en este trabajo es otro factor a tener en cuenta.

120

Cap tulo 4. Metodos de segundo orden

Cap tulo 5 Optimizacion dinamica mediante un metodo h brido

El caracter no lineal de muchos procesos qu micos y bioqu micos implica que los problemas de control optimo asociados sean dif ciles de resolver. El uso del metodo CVP resulta, con frecuencia, en problemas de optimizacion no convexos. Por lo tanto, es preciso reemplazar el uso de metodos locales por otros que aumenten la probabilidad de encontrar el optimo global. Esto es especialmente importante en problemas multiobjetivo y/o en problemas multietapa. En este cap tulo se presenta un metodo h brido que aprovecha ciertas propiedades globales de un metodo estocastico combinandolo con un metodo local determinista para incrementar la e ciencia de la busqueda. Para ello se evaluan varios metodos tanto estocasticos como deterministas, lo que permite seleccionar los mas adecuados para el desarrollo del h brido. Las ventajas de este h brido se ilustran considerando varios problemas de una sola etapa, as como un problema multietapa formulado con una funcion de coste multiobjetivo. 121

122

Cap tulo 5. Optimizacion dinamica mediante un metodo h brido

5.1 Introduccion
Muchos de los metodos de optimizacion dinamica disponibles, y en especial los metodos deterministas locales, pueden converger a soluciones suboptimas o locales en presencia de varios optimos o regiones no convexas. Este parece ser el caso mas habitual en la optimizacion dinamica de procesos no lineales y/o con discontinuidades (Barton et al., 1998). Tal como y se comento en el cap tulo 2, existen multitud de metodos que permiten la solucion de problemas multimodales (no convexos) y se incluyen dentro de las estrategias de optimizacion global. Como se dijo entonces, la aplicacion de metodos deterministas globales requiere de un tiempo de computacion muy elevado y, en ocasiones, de una fase previa de preprocesado del problema. Solo recientemente se han aplicado estos metodos a la solucion de ciertas clases de problemas de optimizacion dinamica (Esposito y Floudas, 2000 a y b). En cambio, los metodos estocasticos permiten la resolucion aproximada de este tipo de problemas aunque no es posible garantizar su optimalidad global. Debido precisamente a su implementacion y manejo sencillos, este tipo de metodos ha despertado gran interes y se ha aplicado a la solucion de problemas de optimizacion dinamica con resultados muy positivos. Algunos ejemplos se presentan en los trabajos de Banga et al. (1991), Bojkov et al. (1993) y Ali et al. (1997), que hacen uso de metodos estocasticos secuenciales adaptativos, otros investigadores como Seywald et al. (1995), Yamashita y Shima (1997), Wang y Chiou (1997), Andres-Toro et al. (1997) y Roubos et al. (1999), hicieron uso de metodos basados en poblaciones. Por ultimo, Roubos et al. (1997), Simutis y Lubbert (1997) y Balsa-Canto et al. (1998), han presentado estudios comparativos de distintos metodos. No obstante, es preciso reconocer las limitaciones de los metodos estocasticos para alcanzar soluciones muy precisas, ya que la velocidad de convergencia decrece rapidamente a medida que se aproximan a la solucion. Un metodo determinista local, en cambio, presenta un comportamiento complementario, es decir, si el punto inicial esta proximo al global, la velocidad de convergencia es muy elevada (superlineal en el caso de un metodo tipo Newton). En el trabajo de Carrasco y Banga (1998) se hizo un primer intento de combinar un metodo estocastico y uno determinista (con el n de compensar sus defectos) formando un metodo h brido. Aqu se extienden y se mejoran los resultados presentados en ese trabajo.

5.2. Optimizacion multiobjetivo

123

5.2 Optimizacion multiobjetivo


En general, los problemas de optimizacion dinamica de procesos suelen ser de dos tipos: De tiempo nal libre, en los que el objetivo sera minimizar una cierta cantidad que guarda relacion con la cantidad o calidad de la produccion y/o su coste, y donde ademas hay que calcular el tiempo de proceso optimo. De tiempo nal m nimo, donde se busca minimizar el tiempo de proceso para alcanzar un cierto estado nal deseado, es decir, veri cando unas ciertas condiciones sobre el estado del sistema, frecuentemente en forma de restricciones puntuales a tiempo nal. Ambos tipos de problemas se pueden plantear como problemas multiobjetivo, es decir, la funcion objetivo J (v) se convierte en un vector de objetivos que puede incluir las violaciones de las restricciones a tiempo nal. Estos problemas suelen ser no convexos, de ah su inclusion en este cap tulo. En principio, los problemas multiobjetivo son muy diferentes a los de un solo objetivo, donde el optimo global sera superior a cualquier otra posible solucion del problema. Sin embargo, en el caso multiobjetivo no existe necesariamente una solucion que sea mejor que todas las demas con respecto a todos los objetivos. De hecho, lo mas habitual, es que dadas dos soluciones, una sea mejor en un objetivo y peor en otro. Por consiguiente, en un problema multiobjetivo siempre existe un conjunto de soluciones que no pueden ser comparadas entre si, y se les denomina soluciones no dominadas o soluciones Pareto (Michalewicz, 1996 Rao, 1996 Gen y Cheng, 2000). Para estas soluciones no es posible mejorar una de las funciones objetivo sin empeorar, al menos, una de las otras. En la gura 5.1 se ilustra la de nicion de soluciones no dominadas con un ejemplo muy sencillo de dos objetivos unidimensionales. En aplicaciones practicas habra que seleccionar una de entre estas soluciones lo que, en principio, es imposible sin establecer algun tipo de prioridad sobre alguno de los objetivos. Una vez establecidas esas prioridades es posible ordenar las soluciones dentro del conjunto de las no dominadas y elegir as la que ofrece el mejor compromiso. Tradicionalmente se han considerado dos tipos de estrategias (Gen y Cheng, 2000) para encontrar una solucion adecuada a un problema multiobjetivo:

124

Cap tulo 5. Optimizacion dinamica mediante un metodo h brido

5 4 3 2 1 0 -2 -1 0 1 v1 2 3 4 f2=v2 1 f1=(v1-2)
2

16 14 12 10 8 6 4 2 0 0

f1

8 10 12 14 16 f2

Figura 5.1: Ejemplo ilustrativo de la de nicion de puntos no dominantes o Pareto optimal. Metodo basado en preferencias: requiere decidir un orden de preferencia entre los distintos objetivos y expresarlo matematicamente. De esta manera el problema multiobjetivo se transforma en un problema de un solo objetivo que generalmente consiste en una suma ponderada de los objetivos individuales:

Jtot =

nobj X i=1

wi Ji

(5.1)

donde Ji puede ser la violacion de una restriccion siendo as semejante a un metodo de penalizacion de los considerados en el cap tulo 2. Metodo de generacion: tambien denominado epsilon-constraint, consiste en generar varias soluciones para identi car las no dominadas y la decision sobre la mas adecuada se toma a posteriori. Por ejemplo, para un problema con dos objetivos: min J = J1 J2] se tratar a de resolver el problema equivalente: min J1 sujeto a: para varios valores de ". (5.2) (5.3) (5.4)

J2 "

5.2. Optimizacion multiobjetivo

125

El metodo de generacion resulta muy practico en los casos en los que las preferencias no estan claras o son dif ciles de cuanti car. Sin embargo, su uso se ve limitado a problemas de dos o tres objetivos dado que el manejo de datos en mas dimensiones se hace impracticable. Por otra parte la generacion de todos estos puntos puede ser bastante costosa. Estas limitaciones del metodo de generacion han llevado a que tradicionalmente se use el metodo basado en preferencias (Gen y Cheng, 2000).

Formulacion matematica de problemas de tiempo nal libre


Como se ha dicho, los problemas que se consideraran en este cap tulo son de tiempo nal libre o tiempo nal m nimo. Un problema de optimizacion dinamica de este tipo (para el caso de sistemas concentrados) se formula como sigue: Encontrar las variables de control u(t) y el tiempo nal de proceso con el n de minimizar (o maximizar) la funcion objetivo:

J z u w tf ]
sujeto a la dinamica del sistema (ODEs o DAEs): _ z = f (z u w t)

(5.5)

(5.6)

y posiblemente a restricciones algebraicas tanto para los estados como para las variables de control. Este problema, de tiempo nal libre (y en ocasiones de tiempo nal m nimo), se puede convertir en un problema equivalente de tiempo nal jo. Para ello se hace un cambio de variable t = T donde es la nueva variable temporal de nida en el intervalo de duracion ja (0 f ), y T es un factor de escala a calcular en el proceso de optimizacion, de manera que la duracion efectiva del proceso sera f T . El sistema dinamico resultante se formula como sigue:

0 1 zn+2f (z u w t) C _ @ z0 = B zn+1 A
0

(5.7)

con las condiciones iniciales:

siendo zn+1 = y zn+2 = T .

0 z(0) 1 z0(0) = B 0 C A @ zn+2 (0)

(5.8)

126

Cap tulo 5. Optimizacion dinamica mediante un metodo h brido

5.3 Desarrollo de un metodo h brido (HyMDO)


Aqu se presenta la solucion de problemas de optimizacion dinamica de procesos multiobjetivo con un metodo h brido (HyMDO, hybrid method for dynamic optimization) que se basa en la combinacion de un metodo estocastico y un metodo determinista con el n de extraer las mejores propiedades de cada uno: propiedades de convergencia global en el caso de los metodos estocasticos y convergencia muy rapida en el caso de metodos deterministas locales si el punto inicial esta proximo a la solucion (Carrasco y Banga, 1998). En la gura 5.2 se muestra de manera gra ca el comportamiento, en rasgos generales, de un metodo determinista local, uno estocastico y la combinacion de ambos en un h brido, para la solucion de un problema unidimensional multimodal. En dicha gura se re eja como un metodo determinista local converge rapidamente a un punto Karush-Kuhn-Tucker pero que puede no coincidir con el optimo global si el punto inicial esta alejado. Un metodo estocastico presenta convergencia al optimo global pero a expensas de un elevado numero de evaluaciones de la funcion. Por ultimo, una combinacion de ambas estrategias permite una aproximacion a la vecindad del optimo global mediante el uso de un metodo estocastico y una convergencia rapida nal al optimo global. Esta gura es muy simpli cada y simplemente tiene caracter ilustrativo. En la practica garantizar la convergencia a un optimo global en tiempo nito para el problema general es imposible.
J(v) Mtodo estocstico Mtodo determinista local Mtodo Hbrido

v0

v*

Figura 5.2: Comportamiento t pico de un metodo determinista local, uno estocastico y un h brido en la resolucion de un problema unidimensional multimodal.

5.3. Desarrollo de un metodo h brido (HyMDO)

127

Existen dos cuestiones esenciales a la hora de desarrollar un metodo h brido, por una parte, elegir los metodos tanto estocastico como determinista apropiados (dise~o) y por otra, decidir los criterios de parada que determinan la cantidad de n trabajo que realiza cada metodo (ajuste). Con el n de seleccionar dos candidatos adecuados para el desarrollo del metodo h brido se han probado diversos metodos tanto estocasticos como deterministas, seleccionados segun los resultados presentados en la bibliograf a mas reciente, considerando la solucion de varios problemas de control optimo, no lineales y de complejidad media-alta, tomados de la bibliograf a.

5.3.1 Seleccion del metodo estocastico


La seleccion de un metodo estocastico requiere un analisis detallado para seleccionar aquel que lleve a un acercamiento mas rapido a la vecindad del optimo global. Con el n de examinar los distintos tipos de estrategias que se comentaron en el cap tulo 2 se han considerado tanto metodos secuenciales como basados en poblaciones, todos ellos tomados de la bibliograf a reciente. Descritos brevemente:
Dynamic Hill Climbing (DHC) (Maza y Yuret, 1994): es un metodo secuencial que se basa en la realizacion de numerosas busquedas locales con el proposito de evitar soluciones locales. Para ello opera en dos iteraciones, una exterior que utiliza un generador de numeros aleatorios que origina varios puntos iniciales para las busquedas locales y una interior (busqueda local) que se basa en la busqueda a traves de 2~ + 2 direcciones, de las cuales ~ son ortogonales, ~ son las negativas de las primeras y las dos restantes guardan informacion sobre los dos ultimos movimientos del metodo. Las direcciones exploradas se modi can segun resulten en mejoras de la funcion objetivo o no con el n de acelerar el proceso. El usuario debe proporcionar un generador de puntos iniciales para la iteracion exterior adecuado al problema. Originalmente desarrollado para optimizacion estacionaria, se ha modi cado en este trabajo para la optimizacion dinamica (DHC/DS). Integrated controlled random search (ICRS/DS) (Banga y Casares, 1987 Banga et al., 1991): metodo de busqueda secuencial que genera puntos aleatoriamente siguiendo una distribucion gaussiana cuya desviacion estandar depende de un parametro del metodo k1. La convergencia se puede controlar con dos parametros ne , que contabiliza el numero de movimientos infructuosos y k2 que controla la modi cacion de la amplitud de la distribucion gaussiana si el

128

Cap tulo 5. Optimizacion dinamica mediante un metodo h brido

numero de fallos es elevado. A medida que el metodo avanza el espacio de busqueda se va adaptando, es decir, se va reduciendo en torno a la zona donde probablemente estara la solucion. Sin embargo esta adaptacion debe ser lenta para evitar soluciones locales.
GENOCOP III (Michalewicz, 1996): algoritmo genetico que parte de una poblacion de referencia y una de busqueda y realiza una serie de operaciones (hasta 10 diferentes) entre sus miembros basadas en las originales de mutacion y recombinacion. El usuario debe seleccionar un conjunto de parametros (hasta 11), que incluyen, entre otros, los tama~os de las poblaciones, el numero de hin jos que se produciran en cada iteracion, tipo y frecuencia de aplicacion de cada operador etc. El metodo se ha modi cado convenientemente para permitir la resolucion de problemas de optimizacion dinamica (GENOCOP/DS). Di erential evolution (DE) (Storn y Price, 1997): algoritmo basado tambien en una poblacion que genera candidatos al optimo sumando la diferencia ponderada entre dos miembros de la poblacion, seleccionados aleatoriamente, a uno tercero. Si este nuevo punto mejora la funcion objetivo entonces sustituye a otro en la poblacion y se repite el proceso. El calculo del peso depende de un parametro a elegir por el usuario. La seleccion de puntos es aleatoria con una probabilidad que depende de otro parametro (probabilidad de recombinacion). Se dispone ademas de 10 estrategias diferentes para generar el nuevo punto aunque todas ellas basadas en los conceptos anteriores. Este metodo tambien se ha modi cado convenientemente para la solucion de problemas de optimizacion dinamica (DE/DS).

Con objeto de comparar estos metodos se presentara a continuacion la solucion de un conjunto de problemas de control optimo de una etapa tanto de tiempo nal libre como de tiempo nal m nimo. Todos ellos son multiobjetivo y se adoptara el metodo de las preferencias (seccion 5.2) para su resolucion. Es decir, el objetivo total (Jtot ) sera una suma ponderada de los objetivos individuales. Para la mayor a de los metodos se han utilizado los parametros de busqueda aconsejados por sus autores, salvo en el caso de GENOCOP, con el que se han realizado diversas pruebas, seleccionando la mejor en cada caso.

5.3. Desarrollo de un metodo h brido (HyMDO)


P

129

5:1: Pirolisis de esquisto de petroleo

Este problema fue considerado por Luus (1990 a), Rosen y Luus (1992), Carrasco y Banga (1997) y Esposito y Floudas (2000 b) en su version de tiempo nal jo. La tecnolog a para la produccion de petroleo a partir de esquisto se basa en la pirolisis de la roca. El calentamiento de la roca rompe los enlaces de la macromolecula constituyente (querogeno), liberando peque~as moleculas de hidrocarburos, n ademas de nitrogeno, azufre y componentes oxigenados. El potencial valor economico del proceso depende de la cantidad de macromolecula presente en el esquisto. El problema de control optimo consiste en encontrar la pol tica optima de calentamiento y el tiempo de procesado para maximizar la concentracion de hidrocarburo (Bojkov y Luus, 1996). La formulacion matematica del problema de optimizacion es como sigue: Encontrar u(t) y tf para maximizar:

J = y2(tf )
sujeto a la dinamica del proceso:

(5.9) (5.10) (5.11)

y1 = k1 y1 (k3 + k4 + k5 )y1y2 _ y2 = k1 y1 k2y2 + k3y1y2 _


; ; ;

donde y1 es la concentracion de macromolecula e y2 es la concentracion de hidrocarburo siendo el estado inicial: (5.12) Las constantes ki son los factores dependientes de la temperatura que in uyen en la velocidad de reaccion y que dependen de la temperatura segun la ecuacion de Arrhenius ki = ki0 e;Ei=RT , i = 1 :: 5, donde los valores de energ a de activacion Ei=R y los factores de frecuencia ki0 se tabulan a continuacion: i ki0(s;1) Ei=R(K ;1) 1 exp(8:86) 20300=1:9872 2 exp(24:25) 37400=1:9872 3 exp(23:67) 33800=1:9872 4 exp(18:75) 28200=1:9872 5 exp(20:70) 31000=1:9872 La temperatura esta sujeta a unos valores maximo y m nimo aceptables: 698:15 u 748:15 (5.13)

yT (0) = 1 0]

130

Cap tulo 5. Optimizacion dinamica mediante un metodo h brido

Notese que en este caso el problema tiene dos funciones objetivo, por una parte maximizar la concentracion de hidrocarburo a tiempo nal y, por otro, minimizar el tiempo de proceso para obtener tal concentracion. Aqu se resolvera este problema por el metodo de preferencias, para ello se de nira una nueva funcion objetivo, a maximizar, de la forma:

Jtot = !1 J !2tf (5.14) Los resultados obtenidos con los metodos estocasticos se presentan en la tabla 5.1 siguiendo la notacion habitual1 donde, ademas, se incluye, como medida para comparar los resultados, el valor del objetivo total Jtot .
;

u0(t) = 700, tf0 = 9:2, !1 = 1:0, !2 = 0:001, Jtot0 = 0:237218 Mt J tf (min) Jtot (max) Tcpu(s) ICRS/DS 0:353793 9:0001 0:344793 4:3 GENOCOP/DS 0:353648 9:0011 0:344647 146 DHC/DS 0:353778 9:0000 0:344778 5:8 DE/DS 0:353802 9:0000 0:344801 37:2
Tabla 5.1: Resultados obtenidos para la optimizacion dinamica del proceso de pirolisis con metodos estocasticos. A modo de ejemplo, y dado que son dos los objetivos de la optimizacion, se presenta la solucion de este problema por el metodo de generacion (o epsilon-constraint). Para ello se calculan una serie de puntos, que constituyen la llamada curva Pareto, a traves de la solucion del problema para un numero de tiempos nales jos. En la gura 5.3 se muestran los resultados que estan en concordancia con los obtenidos por el metodo de preferencias.

Los tiempos de computacion ( III/450 MHz


1

TC P U

) se expresan en segundos y se re eren a PC Pentium

5.3. Desarrollo de un metodo h brido (HyMDO)

131

0.37 0.35 0.33 0.31 0.29 0.27 0.25 0 2 4


0.3538 0.3537 J 0.3536 0.3535 7 8 9 tf 10 11

tf

10

12

14

Figura 5.3: Curva Pareto para el proceso de pirolisis. 5:2: Sistema de reacciones de Denbigh

El proceso, tal como fue formulado por Luus y Dong (1995), consiste en 5 reacciones que tienen lugar en serie-paralelo en un reactor tipo discontinuo:

A+B A+B X X Y

; ! ; ! ; ! ; ! ; !

X P Y Q Z

Las especies qu micas A y B son los reactivos, Y es el producto deseado, X es un producto intermedio y P, Q, y Z son residuos. Las concentraciones de A, X e Y, se denotaran y1, y2 e y3, respectivamente. La aplicacion del principio de conservacion de la masa en el sistema de reacciones conduce al siguiente sistema de ODEs:

y1 = k1y1 k2y1 _ y2 = k1y1 (k3 + k4)y2 _ y3 = k3y2 k5y3 _


; ; ; ;

(5.15) (5.16) (5.17)

con las condiciones iniciales:

132

Cap tulo 5. Optimizacion dinamica mediante un metodo h brido

yT (0) = 1 0 0]

(5.18)

Las constantes ki se ajustan a la ecuacion de Arrhenius ki = ki0 e;Ei=RT , i = 1 :: 5, donde ki0 son los factores de frecuencia y Ei las energ as de activacion que aparecen en la tabla: i Ei =R(K ;1) ki0 (s;1) 1 3000 103 2 6000 107 3 3000 10 4 0 10;3 5 3100 1 El objetivo del problema de control optimo es calcular tanto el tiempo de proceso como el per l de temperatura para maximizar la concentracion de producto. Matematicamente, se trata de encontrar u(t) y tf para maximizar:

J = y3(tf ) siendo los l mites en la temperatura (K):

(5.19)

273 u 415 (5.20) Notese que el objetivo del problema se puede formular segun la ec. (5.14). Los resultados obtenidos para este caso se presentan en la tabla 5.2.

u0(t) = 344, tf0 = 500:0, !1 = 1:0, !2 = 1 10;4, Jtot0 = 0:160816 Mt J tf (s) Jtot (max) Tcpu(s) ICRS/DS 0:548862 466:7 0:544201 14 GENOCOP/DS 0:548847 468:3 0:544052 139 DHC/DS 0:548849 462:5 0:544224 27 DE/DS 0:548850 461:6 0:544234 38
Tabla 5.2: Resultados obtenidos para la optimizacion dinamica del proceso de Denbigh con metodos estocasticos. 5:3: Produccion de etanol en un fermentador semicontinuo

La optimizacion dinamica de este proceso, que tiene como nalidad la obtencion de etanol a partir de la fermentacion anaerobica de glucosa por la levadura Sacharomyces cerevisiae, fue considerada por Hong (1986), Chen y Hwang (1990 a y b), Luus (1993)

5.3. Desarrollo de un metodo h brido (HyMDO)

133

y Banga et al. (1997) en su version de tiempo nal jo y por Bojkov y Luus (1996) en la version de tiempo nal libre que se considerara en este trabajo. El objetivo es calcular el tiempo de proceso y el per l de entrada de nutrientes (caudal de alimentacion del bioreactor semicontinuo) con el n de maximizar la produccion de etanol. Encontrar u(t) y tf para maximizar:

J = y3(tf )y4(tf )
con las restricciones de la dinamica del proceso:

(5.21)

y1 = g1y1 _

y2 = ;10g1y1 + u 150y; y2 _ ! 4 y3 = g2y1 ; u y3 _ y4 y4 = u _


siendo:

y u y1 4

! !

(5.22) (5.23) (5.24) (5.25)


y2 0:44+y2

g1 =

0:408 1+y3 =16

y2 0:22+y2

y g2 =

1 1+y3 =71:5

donde y1 representa la concentracion de microorganismos, y2 la concentracion de sustrato, y3 la concentracion de producto (todas ellas expresadas en g=L) e y4 el volumen (L) que, en este caso, esta limitado por el volumen del reactor ya que al tratarse de un proceso en semicontinuo no hay salida al exterior:

y4(tf ) 200 El estado inicial del sistema viene dado por: h iT y(t0) = 1 150 0 10
los l mites para la variable de control: 0 u 12

(5.26) (5.27)

(5.28)

Para considerar la restriccion a tiempo nal se utiliza la penalizacion por rechazo que se presentaban en la seccion 2.4 del cap tulo 2. Los resultados obtenidos para este caso se presentan en la tabla 5.3.

134

Cap tulo 5. Optimizacion dinamica mediante un metodo h brido

u0(t) = 3:0, tf0 = 61:1, w1 = 1:0, w2 = 1:0, Jtot0 = 13613 Mt J tf (h) Jtot (max) Tcpu(s) ICRS/DS 20564 61:04 20533 78 GENOCOP/DS 20198 52:91 20145 441 DHC/DS 20611 61:0 20550 48 DE/DS 20830 61:06 20768 339
Tabla 5.3: Resultados obtenidos para la optimizacion dinamica del proceso de obtencion de etanol con metodos estocasticos.
P

5:4: Produccion de penicilina en un fermentador semicontinuo

Este problema fue considerado por diversos autores en su version de tiempo nal jo, como Cuthrell y Biegler (1989), Luus (1993 b) y Banga et al. (1997). Aqu se considera el caso mas general con tiempo nal libre. Este problema es semejante al anterior, siendo el objetivo la maximizacion de la produccion de penicilina a partir de la fermentacion aerobica de la fuente de carbono (glucosa) mediante Penicillum chrysogenum. El sustrato contiene fuentes de nitrogeno, habitualmente licor de ma z macerado, que ademas contiene compuestos de carbono que seran su cientes para la primera fase del proceso. Si toda la glucosa fuera a~adida al medio al inicio de la fermentacion, el resultado ser a un crecimiento n masivo que conducir a a una alta viscosidad lo que afectar a negativamente a la transferencia de ox geno y la mezcla de la masa con el resultado de una produccion disminuida. El metodo de alimentacion discontinua controla el crecimiento y supera los problemas de la represion catabolica. El objetivo sera encontrar la pol tica optima de la velocidad de alimentacion y el tiempo de proceso para maximizar la produccion. Encontrar u(t) y tf para maximizar:

J = y2(tf )y4(tf )
Con las restricciones de la dinamica del sistema, que viene dada por:

(5.29)

y1 = h1 y1 _

y u 5001y 4
;

!
y u 5002y 4

y2 = h2 y1 0:01y2 _
;

(5.30) (5.31)

5.3. Desarrollo de un metodo h brido (HyMDO)

135 (5.32) (5.33)

! 0:029y3 + u 1 y3 h1 y1 h y1 y y3 = 0:47 2 1:2 1 0:0001 + y _ y4 500 3 u y4 = 500 _


; ; ; ;

con

h1 = 0:11

y3 0:006y1 +y3

y h2 = 0:0055

y3 0:0001+y3 (1+10y3 )

y donde y1, y2 e y3 son la concentracion de biomasa, de penicilina y de sustrato (g=L) respectivamente e y4 es el volumen (L). Las condiciones iniciales son:

y(0) = 1:5 0 0 7

iT

(5.34)

Es evidente que un producto pensado para consumo humano debe ser producido en condiciones adecuadas para evitar efectos indeseables. Antes de su comercializacion tendra que someterse a rigurosas pruebas de toxicidad, por lo que las concentraciones de las sustancias presentes estaran sometidas a restricciones que garanticen el correcto desarrollo del proceso (Cuthrell y Biegler, 1989): 0 y1 40 (5.35) 0 y3 25 (5.36) 0 y4 10 (5.37) Y, por ultimo, los l mites en la variable de control: 0 u 50 (5.38) Para manejar las restricciones de camino se utiliza una vez mas el metodo de descartar los puntos no factibles. Los resultados obtenidos para este caso se presentan en la tabla 5.4.

u0(t) = 11:25, tf0 = 129:25, w1 = 1:0, w2 = 0:002, Jtot0 = 80:43 Mt J tf (h) Jtot (max) Tcpu(s) ICRS/DS 87:84 130:9 87:58 94 GENOCOP/DS 86:96 128:9 86:70 808 DHC/DS 87:02 129:25 86:75 3 DE/DS 87:88 132:3 87:62 119
Tabla 5.4: Resultados obtenidos para la optimizacion dinamica del proceso de obtencion de penicilina con metodos estocasticos.

136
P

Cap tulo 5. Optimizacion dinamica mediante un metodo h brido

5.5: Problema lineal de tiempo nal m nimo

Este problema fue considerado por (Dadebo y McAuley, 1995) y consiste en encontrar el per l de control para minimizar el tiempo nal de un proceso dado alcanzando un estado nal deseado. Su formulacion matematica es: Encontrar u(t) para minimizar: J = tf (5.39) con las restricciones que expresan la dinamica del sistema:

y1 = y2 _ y2 = 2y2 y1 + u _
; ;

(5.40) (5.41) (5.42) (5.43)

con las condiciones iniciales: y el estado nal a alcanzar:

y(0) = 10 1] y(tf ) = 0 0]

Los l mites para la variable de control son: ;1:0 u 1:0 (5.44) Este tipo de problemas se puede plantear como uno multiobjetivo (3 objetivos en este caso) donde se dara mayor peso a la veri cacion de las restricciones a tiempo nal. Donde, ahora, el objetivo a minimizar sera de la forma:

Jtot = w1tf + wi+1 violi (5.45) i=1 donde violi representa la violacion de cada una de las restricciones a tiempo nal. Los resultados obtenidos para este caso se presentan en la tabla 5.5 donde el termino violf indica la violacion de las restricciones a tiempo nal.
j j E

E X

u0(t) = 0:25, tf0 = 4:001 w1 = 0:55, w2 = w3 = 4:0, Jtot0 = 8:466 Mt J = tf violf Jtot (min) Tcpu(s) ;6 ICRS/DS 4:398 (3 8) 10 2:419 8:4 ;7 GENOCOP/DS 4:769 (2 0:2) 10 2:623 116 ;6 0:38 DHC/DS 4:349 3 10 3:912 1:5 DE/DS 4:397 (1 1) 10;6 2:418 18:0
;

Tabla 5.5: Resultados obtenidos para la optimizacion dinamica del sistema lineal con metodos estocasticos.

5.3. Desarrollo de un metodo h brido (HyMDO)


P

137

5:6: Tanque agitado no lineal continuo

Se considera el proceso que tiene lugar en dos tanques agitados no lineales que operan en serie, tal como fue descrito por Bojkov y Luus (1994 a), y cuya dinamica es:

y1 _ y2 _ y3 _ y4 _
donde:

= ;3y1 + R1 = ;11:1558y2 + R1 ; 8:1558(y2 + 0:1592)u1 = 1:5(0:5y1 ; y3) + R2 = 0:75y2 ; 4:9385y4 + R2 ; 3:4385(y4 + 0:122)u2 10 1 ) exp y2 + 0:6932 ! ; 1010(0:4748 + y1) exp y + 015 :6932 ; 1:4280 2 ! ;10 7 (0:4236 ; y ) exp 10 2 y4 + 0:6560 ! ; 1010(0:5764 + y3) exp y + 015 :6560 ; 0:5086 4 107(0:5251 ; y
;

(5.46) (5.47) (5.48) (5.49)

R1 = 1:5
;

1:5

(5.50)

R2 = 1:5
;

1:5

(5.51) (5.52) (5.53)

Los l mites para las variables de control: juj j 1 j=1 2 Y el estado inicial:

y(0)T = 0.1962 -0.0372 0.0946 0.0000]

El problema, tal como lo formularon y resolvieron Bojkov y Luus (1994 a), consiste en llevar el sistema al origen partiendo del estado inicial (5.53) en tiempo m nimo. Encontrar u1(t) y u2(t) para minimizar:

J = tf (5.54) Notese que en este caso son 5 los objetivos del proceso de optimizacion. Los resultados obtenidos se presentan a continuacion en la tabla 5.6.

138

Cap tulo 5. Optimizacion dinamica mediante un metodo h brido

u0(t) = 0 0]T , tf = 0:325


0

w1 = 0:3, w2 = 2:65, w3 = 1:0, w4 = 2:0, w5 = 1:25, Jtot0 = 0:64061 Mt J = tf violf Jtot (min) Tcpu(s) ;4 ICRS/DS 0:32096 (5 0:007 2 4) 10 0:09866 75 ;4 0:09946 GENOCOP/DS 0:32700 (5 0:00001 0:5 0:0007) 10 212 ;2 DHC/DS 0:32999 (0:0008 0:2 0:0002 1) 10 0:11356 1:4 DE/DS 0:32234 (1 2 3 1) 10;4 0:09796 76
Tabla 5.6: Resultados obtenidos para la optimizacion dinamica del problema del CSTR con metodos estocasticos. 5:7: Problema de desplazamiento de dos farmacos en un paciente

Este problema fue considerado inicialmente por Bell y Katusiime (1980) y a~os n despues por Maurer y Wiegand (1992), Bojkov y Luus (1994 a y b), y Dadebo y McAuley (1995). El problema se basa en el modelo cinetico que simula la interaccion de dos farmacos, warfarina y fenilbutazona, en la sangre de un paciente: 1 y1 = C D2 C2(0:02 y1) + 46:4y1(u 2y2)] _ 3 1 D2 C (u 2y ) + 46:4y (0:02 y )] y2 = C _ 1 2 2 1
; ;

(5.55)

con D = 1 + 0:2y1 + 0:2y2, C1 = D2 + 232 + 46:4y2, C2 = D2 + 232 + 46:4y1 y C3 = C1C2 ; (46:4)2y1y2. Las condiciones inicial y nal en los estados y el control son:

y1(0) = y1(tf ) = 0:02 y2(0) = y2(tf ) = 2:0


0 u 8

(5.56) (5.57) (5.58)

siendo y1 e y2 las concentraciones de warfarina y fenilbutazona, respectivamente. Cuando se inyecta el anticoagulante (warfarina) al paciente, solo una porcion circula a lo largo del cuerpo mientras que la otra se queda en el plasma y los tejidos.

5.3. Desarrollo de un metodo h brido (HyMDO)

139

Sin embargo, si a continuacion se inyecta un analgesico al mismo paciente, el anticoagulante de los tejidos se desplaza y empieza a circular por el cuerpo pudiendo alcanzar niveles toxicos ( ). Es, por lo tanto, necesario garantizar que eso no sucede, de manera que se impone una restriccion sobre su concentracion:

y1(t)

0 t tf ( > 0:02)

(5.59)

Ademas se sabe que cuanto mayor es la velocidad de inyeccion de fenilbutazona, u, mayor es el pico de concentracion de warfarina. El problema consistira pues en regular la entrada de fenilbutazona para que los dos farmacos alcancen un estado estacionario en el ujo sangu neo en un tiempo m nimo pero siempre veri cando la restriccion de toxicidad (5.59). Aqu se consideran dos versiones del mismo problema, la primera (P 5:7a) tal como fue planteada en el trabajo de Bojkov y Luus (1994 a), en la que no se impone ninguna restriccion a la concentracion de anticoagulante y la segunda (P 5:7b) tal como se formula en el trabajo de Dadebo y McAuley (1995), en la que se impone la restriccion (5.59).

u0(t) = 0:00001, tf = 224:25, w1 = 0:007, w2 = 6:8, w3 = 7:0, Jtot = 3:26 106


Mt ICRS/DS GENOCOP/DS DHC/DS DE/DS J = tf 221:745 227:081 226:212 221:463
0

2 3 2 9

violf ;7 2 10 10;5 1 10;7 2 10;9 5

10;8 10;8 10;8 10;7

Jtot (min) 1:5523 1:5991 1:5836 1:5503

Tcpu(s) 9:4 50 1:4 15

Tabla 5.7: Resultados obtenidos para la optimizacion dinamica del problema del desplazamiento de dos farmacos con metodos estocasticos, caso P 5:7a.

u0 (t) = 4:0, tf = 260:0, w1 = 0:003, w2 = 4:0, w3 = 2:0, Jtot = 1:3982


Mt ICRS/DS GENOCOP/DS DHC/DS DE/DS
0

J = tf 254:850 259:749 261:094 265:522

4 5 1 7

10;4 10;4 10;3 10;6

violf 1 2 7 8

10;5 10;7 10;9 10;4

Jtot (min) 0:9365 0:9632 1:0921 0:8872

Tcpu(s) 16 141 5 26

Tabla 5.8: Resultados obtenidos para la optimizacion dinamica del problema del desplazamiento de dos farmacos con metodos estocasticos, caso P 5:7b.

140

Cap tulo 5. Optimizacion dinamica mediante un metodo h brido

Seleccion de un metodo estocastico


En terminos generales, todos los problemas han sido resueltos satisfactoriamente por casi todos los metodos. Sin embargo, existen diferencias claras en su comportamiento. En particular, queda patente que ICRS/DS y DE/DS son superiores, al menos para los casos considerados en este trabajo. DHC/DS, aunque muy rapido, tiene un comportamiento impredecible en lo referente a resultado nal, siendo esto especialmente relevante en los problemas de tiempo nal m nimo. GENOCOP/DS parece ser un metodo muy lento y las soluciones nales no son siempre buenas, al margen de requerir un numero de pruebas previas para el ajuste de sus parametros. En cuanto a la comparacion entre DE/DS e ICRS/DS, es claro que el primero alcanza siempre soluciones mejores aunque el coste computacional es en general varias veces superior. No obstante, como se ha dicho con anterioridad, es tambien interesante analizar la velocidad de convergencia de cada metodo, con el n de determinar cual de ellos se aproxima mas rapidamente a la solucion. Para ello en las guras 5.4 se muestran las curvas de convergencia de los distintos metodos salvo las de DHC, que por tratarse de una metodolog a multistart no se puede comparar con las otras a este respecto. Estas guras re ejan claramente el comportamiento basico de los metodos estocasticos, es decir, un acercamiento rapido al optimo y un re namiento posterior de la solucion muy costoso. En el caso de GENOCOP, para algunos problemas, parece quedarse \atrapado" en algunas regiones lo que hace su descenso mas lento. En el caso de DE, aunque en la primera iteracion suele acercarse a la solucion, el coste depende del tama~o de la poblacion inicial, que como m nimo sera del orden de 10 n veces el numero de variables de decision. Para la mayor a de los problemas esto supone cientos de evaluaciones de la funcion objetivo. ICRS/DS consigue acercarse al optimo de manera mas rapida, alcanzando valores dentro del 5% del optimo global en menos de 500 evaluaciones de la funcion para todos los casos considerados. Es esta caracter stica la que lo lleva a ser el mejor candidato para el desarrollo de un metodo h brido.

5.3. Desarrollo de un metodo h brido (HyMDO)

141

P 5.1 -0.2 0 -0.24


-0.2

2000

Evaluaciones 4000 6000 8000 ICRS/DS GENOCOP/DS DE/DS

P 5.2 0 0 2000

-0.2 -0.3

Evaluaciones 4000 6000 8000 ICRS/DS GENOCOP/DS DE/DS


-0.15 -0.25 -0.35 -0.45 500 1000 1500

J tot

-0.28 -0.32 -0.36

-0.24 -0.28 -0.32 -0.36

Jtot
-0.4 -0.5 -0.6

200 400 600 800

-0.55

x10

P 5.3 2000

-1.3 -1.5

Evaluaciones 8000 4000 6000

10000

-80 -82

P 5.4 5000

Evaluaciones 15000

25000

ICRS/DS GENOCOP/DS DE/DS

ICRS/DS GENOCOP/DS DE/DS

J tot

-1.7 -1.9

-2.1 -90 9 8 7
Jtot

P 5.5 ICRS/DS GENOCOP/DS DE/DS

J tot

-84 -86 -88

0.68 0.58 0.48


Jtot

P 5.6 ICRS/DS GENOCOP/DS DE/DS

6 5 4 3 2 0 P 5.7a ICRS/DS GENOCOP/DS DE/DS


5.0 4.0 3.0 2.0 1.0 0 500 1500 2500

0.38 0.28 0.18

2000

4000 6000 Evaluaciones

8000

0.08 0 P 5.7b ICRS/DS GENOCOP/DS DE/DS 5000 10000 Evaluaciones 15000

x10

1.4 1.3 1.2

3.0

Jtot

1.0

0.0 0 1000 2000 3000 Evaluaciones 4000

Jtot

2.0

1.1 1.0 0.9 0.8 0 5000 10000 Evaluaciones 15000

Figura 5.4: Curvas de convergencia de los metodos estocasticos en la resolucion de problemas P 5:1 a P 5:7b.

142

Cap tulo 5. Optimizacion dinamica mediante un metodo h brido

5.3.2 Seleccion del metodo determinista local


Para la seleccion de un metodo determinista apropiado se consideraron varios metodos deterministas tomados de la bibliograf a reciente: gOPT, que hace uso del metodo de parametrizacion de control y un metodo SQP que calcula informacion exacta de gradiente a traves del calculo de sensibilidades de primer orden para sistemas dinamicos. gOPT funciona en combinacion con gPROMS (Barton et al., 1991, Barton y Pantelides, 1994), paquete de desarrollo de modelos y simulacion de procesos (en este trabajo se ha usado la version gPROMS 1.4F, 1996). DIRCOL (Von Stryk, 1993), un metodo de parametrizacion total que usa colocacion y un metodo SQP (NPSOL) para la optimizacion. TOMP (D. Kraft, 1994) que tambien se basa en el uso del metodo CVP y un metodo SQP, y un metodo de diferencias nitas para la evaluacion del gradiente de la funcion objetivo. FFSQP adaptado para la optimizacion dinamica a traves del uso de CVP. A diferencia de los otros metodos propuestos, el FFSQP es un SQP factible (Zhou et al., 1996 ), lo que puede ser adecuado para algunos problemas aunque el tiempo de computacion es generalmente superior a los metodos no factibles. Con el n de comparar estos metodos se considero la solucion de un conjunto de 10 problemas de control optimo. De los 10 problemas, gOPT resolvio 6 con exito DIRCOL, solo 4, presentando problemas de convergencia e inicializacion en los otros TOMP, unicamente 2, presentando soluciones locales en el resto de los casos, y por ultimo, FFSQP tambien resolvio 2 problemas correctamente quedandose, en soluciones locales en el resto de los casos. Los resultados sugieren pues que la mejor alternativa es gOPT (Banga et al, 1997, Balsa-Canto et al., 2001), que a pesar de converger a soluciones locales en algunos problemas (4 de los 10 propuestos) (comportamiento t pico, por otra parte, de un metodo determinista local) se comporto mejor que los otros metodos evaluados.

5.3.3 Ajuste del metodo h brido


El metodo h brido HyMDO es un metodo bifasico secuencial, actuando primero el metodo estocastico para acercarse a la vecindad de la solucion global, y convergiendo

5.3. Desarrollo de un metodo h brido (HyMDO)

143

luego a esta de forma rapida mediante el metodo local. El ajuste del metodo h brido consiste en seleccionar adecuadamente los valores de los criterios de parada SC 1 y SC 2 para ambos metodos. Esto es especialmente interesante, como se vera, en el caso de problemas de optimizacion dinamica de dimension elevada. El valor asignado a SC 1, controla, de alguna manera, la robustez del metodo HyMDO, es decir, la probabilidad de convergencia a la solucion global. Por lo tanto, se seleccionara un valor tal que asegure que el metodo estocastico alcance un punto dentro del radio de convergencia del metodo determinista. El valor asignado a SC 2 sera crucial para la e ciencia del metodo, es decir, para minimizar el tiempo de computacion. El comportamiento t pico del metodo HyMDO con respecto a la funcion objetivo en el punto de corte, es decir, en el cambio del metodo estocastico al metodo determinista, se muestra en las guras 5.5, donde se asume un problema de minimizacion.
Tiempo de CPU total (HyMDO)

Tiempo de computacin

Determinista Local

Regin admisible

Estocstico Funcin objetivo en el punto de corte

Funcin objetivo en el punto de corte

Figura 5.5: Comportamiento t pico del metodo h brido. De la gura se extrae que si el metodo estocastico itera demasiado (SC 1 muy estricto) el coste computacional aumenta considerablemente mientras que el tiempo de computacion para el metodo determinista disminuye. Por otra parte el valor objetivo nal mejora a medida que el punto de corte se acerca al optimo. Para garantizar la e ciencia y la robustez del metodo lo ideal sera encontrar los valores de SC 1 y SC 2 que permitan mantenerse dentro de la zona marcada como admisible, n es decir, la de un error nal su cientemente peque~o obtenido en el menor tiempo de calculo posible. Sin embargo, la seleccion de estos criterios es (muy probablemente) dependiente del problema y aunque para problemas de dimension peque~a se pueden extraer n

Error final (%)

144

Cap tulo 5. Optimizacion dinamica mediante un metodo h brido

unos criterios generales que ofrecen buenos resultados, para problemas de dimension elevada sera necesario un ajuste espec co del metodo.

5.4 Optimizacion dinamica con el metodo HyMDO


5.4.1 Optimizacion de procesos de una etapa
Se considera ahora la resolucion de los problemas propuestos en la seccion 5.3.1 mediante el metodo h brido. Para ofrecer una comparacion de resultados, se presentan tambien las mejores soluciones aparecidas en la bibliograf a.

Ajuste del metodo HyMDO


Con el n de ajustar adecuadamente el metodo HyMDO, se han resuelto todos estos problemas para una serie de valores de las tolerancias, en particular, SC 1 2 (1 10;2 1 10;1) y SC 2 2 (1 10;5 1 10;3). A modo de ejemplo se presenta el ajuste del metodo h brido en la solucion del problema de fermentacion para la produccion de penicilina, que es el que ofrece mayores di cultades debido a la presencia de restricciones de camino. Los resultados obtenidos se resumen en la gura 5.6 en donde Jtot y el correspondiente tiempo de computacion se representan frente a los valores de SC 1 y SC 2.
87.65 87.6 Jtot 87.55 87.5 87.45 87.4
-5 -4 -3 -5 -4 -3 -5 -4 -3

0.01

SC1 0.05

0.1

70 50 40 30 20 10 0 Tcpu Total (s) 60

10

10 10

10

10 10 SC2

10

10 10

Figura 5.6: Ajuste del metodo h brido para la resolucion del problema de obtencion de penicilina. En la gura se observa el comportamiento que se predec a en la descripcion teorica del metodo. Aunque el metodo h brido alcanza soluciones dentro del 0:2% del optimo independientemente del valor de las tolerancias, s es notable su efecto en

5.4. Optimizacion dinamica con el metodo HyMDO

145

el tiempo de computacion, lo que permite seleccionar unos valores en favor de otros. En este caso parece claro que la mejor solucion de compromiso robustez-e ciencia corresponde a los valores de tolerancia SC 1=5 10;2 y SC 2=1 10;5. Es dif cil establecer un criterio general de seleccion de las tolerancias. Sin embargo, los resultados obtenidos para el caso de la penicilina se reproducen en mayor o menor medida para el resto de los problemas, lo que lleva a concluir que estos valores de tolerancia pueden ser adecuados como valores recomendados por defecto para la resolucion de este tipo de problemas.

Procesos de tiempo nal libre


A continuacion se presenta una tabla resumen de resultados, con los mejores resultados obtenidos por DE/DS, gOPT, el metodo h brido y los mejores valores publicados por otros autores.
P P

5:1 5:2 5:3 5:4

Mt DE/DS gOPT HyMDO IDP (Bojkov y Luus, 1996) DE/DS gOPT HyMDO IDP (Bojkov y Luus, 1996) DE/DS gOPT HyMDO IDP (Bojkov y Luus, 1996) DE/DS gOPT HyMDO IDP (Luus, 1993)

J 0.353802 0.352085 0.353808 0.353821 0.548850 0.543600 0.5491 0.5491 20830 20824 20839 20838 87.88 87.70 87.88 87.95

tf 9.0000 9.4603 9.137 9.2709 461.6 522 485 485 61.06 64.78 61.17 61.3 132.3 124.5 132.37 132.0

Tcpu 37.2 1.4 5.2 N.d. 38 3 46 N.d. 339 25 57.0 1045 119 46 24 N.d.

Tabla 5.9: Tabla resumen de resultados para problemas de una etapa y tiempo nal libre. En todos los casos el metodo h brido ha obtenido las mejores soluciones en tiempos muy competitivos. Esposito y Floudas (2000 b) consideraron la solucion del problema P 5:1, en su formulacion de tiempo nal jo, con un metodo determinista global ( BB basado

146

Cap tulo 5. Optimizacion dinamica mediante un metodo h brido

en el metodo de rami cacion y poda). Evidentemente los resultados no son totalmente comparables ya que consideran un valor de tiempo nal jo tf = 10. Estos autores alcanzar un valor objetivo de J = 0:35343, el optimo global para una discretizacion de control de 10 elementos de longitud ja. Sin embargo, notese que los tiempos de calculo presentados oscilan entre los 1209 y los 11988 s en una estacion HP J2240, para diversas condiciones impuestas al optimizador. Estos tiempos son muy superiores a los del metodo h brido, lo que con rma las limitaciones actuales de los metodos deterministas globales para la solucion e ciente de problemas de optimizacion dinamica.

Procesos de tiempo nal m nimo


A continuacion se muestran los resultados obtenidos para los problemas de tiempo nal m nimo. Nuevamente, el metodo h brido alcanza mejores resultados en tiempos de calculo muy competitivos (hasta dos ordenes de magnitud mas rapido que IDP).
P P

5:5 5:6

5:7a 5:7b

Mt DE/DS gOPT HyMDO IDP DE/DS gOPT HyMDO IDP (Dadebo y McAuley, 1995) IDP (Bojkov y Luus, 1994b) DE/DS gOPT HyMDO IDP (Bojkov y Luus, 199) DE/DS gOPT HyMDO IDP (Dadebo y McAuley, 1995)

J = tf violf 4.397 (1 1) 10;6 4.397 (1 0:3) 10;6 4.397 (0:7 1) 10;7 4.41 (1 1) 10;7 0.32234 (1 2 3 1) 10;4 0.32349 (0:5 1 0:8 0:1) 10;4 0.32280 (0:9 0:7 1 1) 10;4 0.32143 < 1 10;3 0.32715 < 1 10;4 221.463 (0:09 5) 10;7 226.093 (1 0:1) 10;6 221.434 < 4 10;7 221.956 < 3 10;3 265.522 (0:07 8) 10;4 263.826 (0:1 1) 10;5 261.767 < 8:5 10;6 263.619 < 1 10;4

Tcpu 18 0.56 0.29 N.d. 76 126:3 10 1097 3135 15 0.4 1 43 26 14.5 46 N.d.

Tabla 5.10: Tabla resumen de resultados problemas de una etapa de tiempo nal m nimo. Los per les de control obtenidos con el metodo h brido para estos problemas as como los correspondientes estados se presentan en las guras 5.7-5.8.

5.4. Optimizacion dinamica con el metodo HyMDO

147

P 5.1 (J=0.353808, tf=9.137 min) 748


Control, u Estados

1.0 0.8 0.6 0.4 0.2 y1 y2

738 728 718 708 698 0.0 2.0 4.0 6.0 Tiempo (min) 8.0 10.0

0.0 0.0

2.0

4.0 6.0 Tiempo (min)

8.0

10.0

P 5.2 (J=0.5491, tf=485 s) 410 390 370 350 330 310 290 270 0 100 200 300 Tiempo (s) 400 500
Control, u

1.0
Estados

0.8 0.6 0.4 0.2 0.0 0 100 200 300 Tiempo (s) 400

y1 y2 y3

500

12.0 10.0
Control, u

P 5.3 (J=20839, tf=61.15 h)

200 160
Estados

8.0 6.0 4.0 2.0 0.0 0.0 10.0 20.0 30.0 40.0 50.0 60.0 Tiempo (h)

120 80 40 0 0.0

y1 y2 y3 y4

10.0 20.0 30.0 40.0 50.0 60.0 Tiempo (h)

P 5.4 (J=87.88, tf=132.37 h) 40.0 35.0 30.0 25.0 20.0 15.0 10.0 5.0 0.0 0.0 20.0 40.0 60.0 80.0 100.0120.0 Tiempo (h)

40.0 35.0 30.0 25.0 y1 20.0 y2 y3 15.0 y4 10.0 5.0 0.0 0.0 20.0 40.0 60.0 80.0 100.0120.0 Tiempo (h)

Control, u

Figura 5.7: Per les de control optimo y estados correspondientes para los problemas de tiempo nal libre (P 5:1-P 5:4).

Estados

148

Cap tulo 5. Optimizacion dinamica mediante un metodo h brido

1.5 1 Control, u 0.5 0 -0.5 -1 -1.5 0

P 5.5 (J=tf=4.397)

Tiempo P 5.6(J=tf=0.32280) u1 u2 0 0.05 0.1 0.15 0.2 0.25 0.3

12 10 8 6 4 2 0 0 -2 -4 -6

y1 y2

Estados

Tiempo

1.5 1.0
Controles

0.25 0.2
Estados

0.5 0.0 -0.5 -1.0 -1.5 Tiempo P 5.7a (J=tf=221.431) 8.0 7.0 6.0 5.0 4.0 3.0 2.0 1.0 0.0

0.15 0.1 0.05 0 -0.05 0

y1 y2 y3 y4

0.05 0.1 0.15 0.2 0.25 0.3

0.03 y1 0.02

4 3 y2 2 1 0 50 100 150 Tiempo 200 0

Control, u

0.01 0

50

100 Tiempo

150

200

P 5.7b (J=tf=261.767) 9.0 0.028 8.0 0.026 7.0 6.0 0.024 5.0 y1 4.0 0.022 3.0 2.0 0.02 1.0 0.0 0.018 0.0 50.0 100.0 150.0 200.0 250.0 0 Tiempo

4 3 2 y2 1 0

Control, u

50

100 150 Tiempo

200

250

Figura 5.8: Per les de control optimo y estados correspondientes para los problemas de tiempo nal m nimo (P 5:5-P 5:7b).

5.4. Optimizacion dinamica con el metodo HyMDO

149

5.4.2 Optimizacion de procesos multietapa


Los procesos que se han considerado hasta ahora se realizaban en una sola etapa. Sin embargo, muchos procesos que operan en modo discontinuo se realizan en varias etapas y el resultado de cada etapa in uye de manera determinante en el producto nal. En general el numero de etapas y su orden relativo seran desconocidos y tambien constituiran variables de dise~o. El control optimo de tales casos requiere n la introduccion de decisiones discretas resultando en un problema de optimizacion no lineal con variables enteras y reales (mixed integer nonlinear program, MINLP) (Floudas, 1995 Grossmann et al., 1999). Sin embargo, aqu se supondran conocidos tanto el numero de etapas como el orden en el que se realizan de manera que, tras la aplicacion de CVP, el problema resultante sera un NLP. En la gura 5.9 se representa esquematicamente un proceso multietapa de este tipo donde se muestra que en cada etapa habra que calcular un vector de variables de decision (vk ) que veri cando un conjunto de restricciones (Resk ) tanto dinamicas como estaticas, hara que se optimice la funcion objetivo (coste) de tal etapa y el objetivo nal del proceso. Cada etapa se describe, en general, en terminos de un conjunto de PDAEs.
v1 z0 Etapa 1 z1 Coste1 v2 Etapa 2 z2 Coste2 zN-2 CosteN-2 vN-1 Etapa N-1 zN-1 CosteN-1 vN Etapa N zN CosteN

Res1

Res2

ResN-1

ResN

Figura 5.9: Esquema de operacion de un proceso multietapa. La formulacion matematica del problema de optimizacion dinamica de un proceso multietapa es (Vassiliadis et al., 1994 a): _ Encontrar z(t), z(t), u(t), w, tk para k = 1 2 : : : N a n de minimizar: _ J (z(tf ) z(tf ) u(tf ) w tf ) (5.60) donde J es la funcion objetivo que en general supone una combinacion de objetivos a cumplir en cada etapa. Las restricciones originadas por la dinamica del sistema: _ fk (z z u w t) = 0 (5.61)

150

Cap tulo 5. Optimizacion dinamica mediante un metodo h brido

donde t 2 tk;1 tk ] k = 1 : : : N ; 1 y t 2 tN ;1 tf ] z(t) 2 Z R n son las variables diferenciales y algebraicas u(t) 2 U R son las variables de control y w 2 V R son los parametros invariantes con el tiempo. Notese que esta formulacion tambien es valida para procesos distribuidos. En este trabajo se supone que el sistema de DAEs es de orden 1 y que el numero de ecuaciones se conserva a lo largo de las etapas. Los valores de las variables al inicio de la primera etapa deben estar relacionados mediante un conjunto de condiciones iniciales: (5.62) Asimismo, los valores inicial y nal de etapas sucesivas estaran relacionados a traves de las llamadas condiciones de union: _ Jk (z(tk ) z(tk ) u(tk ) z(t;) z(t; ) u(t;) w tk) k _ k k (5.63) Tambien es posible la presencia de restricciones puntuales en las variables de estado. Aqu se asume que estas restricciones suceden al nal de una etapa, a~adiendo n etapas si fuese preciso para exibilizar esta condicion: _ C0 (z(t0) z(t0) u(t0 ) w t0) = 0

req (z(t;) z(t;) u(t;) w tk ) = 0 k k _ k k eq (z(t ) z(t ) u(t ) w t ) = 0 rN f _ f f f in (z(t; ) z(t; ) u(t; ) w t ) 0 rk k _ k k k _ rin(z(tf ) z(tf ) u(tf ) w tf ) 0 N
Ademas tambien es posible la presencia de restricciones de camino: _ ceq (z(t) z(t) u(t) w t) = 0 k _ cin(z(t) z(t) u(t) w t) 0 k

(5.64) (5.65) (5.66) (5.67) (5.68) (5.69)

Las variables de control pueden verse sometidas a rangos de validez que pueden o no variar en las distintas etapas: (5.70) y los parametros invariantes con el tiempo tambien pueden estar sujetos a restricciones del tipo: wL (w) wU (5.71) Por ultimo, se impone una duracion m nima y/o maxima a cada etapa.

uL(t) u(t) uU (t) k k

5.4. Optimizacion dinamica con el metodo HyMDO

151

Optimizacion de un proceso de varias etapas: destilacion discontinua


El proceso de destilacion se usa para la separacion de componentes qu micos, con diferentes puntos de ebullicion, de una mezcla l quida. Las columnas de destilacion se pueden clasi car, dependiendo del modo en que operan, en dos tipos: continuas y discontinuas. En el primer tipo se procesa un ujo continuo de mezcla y la cantidad que entra dentro de la columna debe ser siempre igual a la que sale en todo momento. En el segundo tipo, la columna se carga inicialmente con una cantidad de mezcla, que se procesa hasta alcanzar el objetivo deseado. Una vez se completa la tarea, la columna se vuelve a cargar y as sucesivamente. El proceso continuo permite obtener grandes cantidades de producto de manera rapida y barata y por ello durante algun tiempo se abandono la operacion en discontinuo. Sin embargo, este modo de operacion vuelve a ser popular debido a la creciente demanda de productos de alto valor a~adido. De hecho, en la actualidad n encuentra aplicacion en las industrias farmaceutica y de qu mica na, tanto para puri car como para extraer componentes utiles, separandolos de residuos de otros procesos.
Condensador

Tanque de acumulacin 2 . . . Platos 2 1 Reflujo Producto (destilado)

Caldera

Calentador

Figura 5.10: Esquema de una columna de destilacion.

Los componentes basicos de una columna de destilacion que opera en discontinuo son: un recipiente vertical en el que se realiza la separacion, con platos para facilitar la separacion de componentes, un calentador para calentar la mezcla produciendose as la evaporacion de los componentes mas volatiles, un condensador para enfriar y condensar el vapor que sale por la parte superior de la columna y un tanque de acumulacion donde se reserva el vapor condensado para despues introducirlo de nuevo en la columna. El esquema general de una columna de estas caracter sticas se presenta en la gura 5.10.

152

Cap tulo 5. Optimizacion dinamica mediante un metodo h brido

Tanto la teor a como la practica de los procesos de destilacion pueden ser muy complicadas y por ello el desarrollo de modelos, su simulacion y optimizacion han despertado un gran interes entre la comunidad cient ca e industrial. En relacion al desarrollo de modelos y su simulacion, lo interesante es obtener modelos que predigan de manera precisa la operacion de la columna. Sin embargo, tales modelos son, habitualmente, demasiado complicados y el coste computacional de resolucion crece muy rapidamente. En destilacion discont nua los distintos componentes de la mezcla pueden desaparecer de la columna. Por lo tanto, el modelo sera dinamico e incluira los balances de masa y energ a, el equilibrio de fases y la hidraulica de platos. Una formulacion general se puede encontrar en Mujtaba (1989). El sistema de DAEs resultante es muy no lineal y con frecuencia r gido, debido tanto a las diferencias entre las distintas volatilidades de los componentes de la mezcla como a las diferencias entre los volumenes de la caldera y los platos (Mujtaba, 1989). Por otra parte, en el caso de varios cortes (cuts) intermedios, el proceso se convierte en multietapa y sera necesario imponer condiciones de union adecuadas. El caso que se considera en este trabajo consiste en la separacion de una mezcla de 10 componentes mediante el uso de una columna de 20 platos (Vassiliadis et al., 1994 a). La formulacion matematica de este problema consta de 444 ecuaciones de las cuales 232 son diferenciales y las 212 restantes son algebraicas. Se consideraran 18 variables de decision, es decir, el valor de control (relacion de re ujo) en cada uno de los nueve elementos (3 etapas con 3 elementos de control cada una), mas la duracion de cada uno de los elementos. Inicialmente se carga una cantidad de 10 kmol de mezcla en la caldera. La columna se opera en tres etapas: en la primera se obtendra un corte rico en el componente 1, en la segunda un o cut y en la tercera un corte rico en el componente 6. Se requiere que tanto el corte pesado como el ligero tengan una cantidad de al menos el 90% de su componente principal. Ademas, deben obtenerse, al menos, 2 kmol de corte ligero y 1.4 kmol de corte pesado en cada lote. El objetivo sera encontrar la relacion de re ujo para minimizar el tiempo de proceso veri cando todas las restricciones impuestas al nal de cada etapa. El comportamiento de la columna se modeliza suponiendo volumenes molares jos y volatilidades relativas constantes para los distintos componentes. Las condiciones de union se imponen para anular la acumulacion al nal de la primera y segunda etapas, mientras que se fuerza la continuidad de la composicion tanto de la caldera como de la columna.

5.4. Optimizacion dinamica con el metodo HyMDO

153

Este caso fue considerado en el trabajo de Vassiliadis et al. (1994 a) que obtuvo un tiempo nal m nimo de 15 h usando DAEOPT (metodo basado en CVP que hace uso de un metodo SQP, desarrollado por Vassiliadis, 1992), con un tiempo de computacion de unas 12 h en una estacion de trabajo Silicon Graphics IRIS. Aqu se hara un estudio detallado de la solucion de este problema mediante el uso del metodo HyMDO. En la tabla 5.11 se resumen los resultados obtenidos para tres per les de control iniciales, donde V iol0 es el valor de la violacion de las restricciones correspondiente al valor inicial de control, y el Tcpu corresponde a una estacion de trabajo SUN Sparc 10 (de 23 MFlops segun el Linpack 100):

V iol0 Mt tf V iolf Tcpu(h) 2:449 DAEOPT 15:0 < 7:0 10;5 9:3 HyMDO 14:581 < 2:0 10;4 6:9 U02 18:0 0:8138 DAEOPT 14:501 < 4:0 10;4 16:1 HyMDO 14:557 < 2:0 10;4 4:4 U03 19:8 0:4 DAEOPT 14:840 < 1:3 10;4 10:5 HyMDO 14:498 < 6:0 10;4 4:0 Tabla 5.11: Resumen de resultados para el problema de la columna de destilacion.

U0 J0 U01 9:0

Ajuste del HyMDO


En este caso particular el tiempo de computacion para cada simulacion es considerable. Por lo tanto, con el n de minimizar el tiempo total de optimizacion se puede realizar un ajuste del metodo h brido, encontrando as el mejor compromiso entre e ciencia y robustez. Para ello se han probado varios valores para las tolerancias SC 1 y SC 2. El comportamiento t pico del metodo HyMDO en la solucion de este problema se presenta en la gura 5.11 donde se representa el valor de la funcion objetivo nal y el tiempo de computacion frente a los valores de SC 1 y SC 2. En general se observa que la mayor a de los resultados se encuentra dentro de un 4% del optimo global sin embargo el tiempo de computacion oscila entre 3 y 11 horas. La seleccion apropiada de una region admisible de valores para SC 1 ofrecera un mejor compromiso entre robustez y e ciencia. Se deduce que SC 1 = 0:05 es el valor mas adecuado para alcanzar la vecindad del optimo en un tiempo de computacion razonable. Una vez seleccionado el valor de SC 1 el valor de SC 2 determinara la e ciencia del metodo total. Sin embargo de

154

Cap tulo 5. Optimizacion dinamica mediante un metodo h brido


SC1 0.05

17.5 17 16.5 16 15.5 15 14.5 14 13.5 13

0.01

0.1

25 20 15 10 5 0 Tcpu Total (h)

Funcin Objetivo (tf)

10

-3

5x10 10 10

-3

-2

-3

5x10 10 SC2

-3

-2

10

-3

5x10 10

-3

-2

Figura 5.11: Comportamiento t pico del metodo HyMDO: Valor objetivo frente a las tolerancias SC 1 y SC 2. esa gura no se pueden extraer conclusiones ya que la escala no permite cuanti car las diferencias en los tiempos de computacion. Con el n de destacar el efecto de SC 2, se presentan en la tabla 5.12 los resultados obtenidos para un conjunto de 1 valores, incluyendo Tcpu que es el tiempo de computacion requerido por el metodo estocastico para alcanzar el valor de corte y Tcpu que es el tiempo de computacion total, ambos en horas, para distintos puntos iniciales.
1 SC 2 Tcpu(h) tf Tcpu(h) 0:001 1:9 14:581 6:9 U01 0:005 1:9 14:804 6:4 0:01 1:9 14:968 6:1 0:001 0:9 14:557 4:5 U02 0:005 0:9 14:529 4:2 0:01 0:9 14:663 4:0 0:001 0:8 14:498 4:08 U03 0:005 0:8 14:498 4:07 0:01 0:8 14:498 4:04 Tabla 5.12: Estudio del efecto de SC 2 y el punto inicial en la convergencia del metodo HyMDO.

Es importante resaltar que todas las soluciones obtenidas estan muy proximas al optimo y la reduccion en tiempo de computacion es muy importante (4 veces mas rapido que el resultado presentado por Vassiliadis (1994 a), cuyo objetivo sue peor

5.5. Conclusiones

155

que el obtenido en este trabajo). En la gura 5.12 se muestra el per l de control (relacion de re ujo en cada etapa) para el caso con tiempo nal m nimo de 14:498 y una violacion nal en las restricciones de 6:0 10;4 y las correspondientes fracciones molares de los componentes 1 y 6, de interes en el proceso.
1.0 1.0

0.6 1 etapa 0.4 0.2 0.0 0.0 2.0 4.0 6.0 8.0 10.0 12.0 14.0 Tiempo 2 etapa 3 etapa

Fraccin molar

0.8

Control, u

0.8 0.6 0.4 0.2 0.0 0.0 2.0 4.0 6.0 8.0 10.0 12.0 14.0 Tiempo Componente 1 Componente 6 1 etapa 2 etapa 3 etapa

Figura 5.12: Per l de control y fraccion molar de los componentes principales (1 y 6) correspondientes, para el problema de destilacion.

5.5 Conclusiones
En este cap tulo se ha considerado la resolucion de un tipo de problemas de optimizacion dinamica particularmente complicados debido a que sus NLPs asociados son habitualmente multimodales o no convexos. Para resolverlos de forma robusta y e ciente se ha propuesto el uso de un metodo h brido estocastico-determinista que combina las virtudes de ambos tipos de metodos e intenta compensar sus defectos. Con la solucion de un conjunto de problemas de una y varias etapas se han demostrado las capacidades de esta nueva metodolog a. En relacion a los problemas de una etapa, es especialmente relevante el hecho de que el metodo h brido ha alcanzado, en todos los casos, soluciones semejantes o mejores que las obtenidas con otros metodos, o las presentadas por otros autores, y ademas en tiempos de calculo considerablemente inferiores. Notese por ejemplo, que en el problema P 5:3 se han obtenido reducciones de hasta 18 veces si se compara con IDP y de entre 7 y 5 veces en la resolucion de los casos P 5:1 y P 5:4 respectivamente, si se compara con DE/DS, alcanzando en todos estos casos soluciones superiores.

156

Cap tulo 5. Optimizacion dinamica mediante un metodo h brido

Estas diferencias se hacen mas notables en la resolucion de los problemas de tiempo nal m nimo, donde el metodo HyMDO es muy superior. As , en todos los casos ha mejorado el valor objetivo, bien en valor de tf bien en la violacion nal de las restricciones. Las diferencias en tiempos de calculo para la resolucion de estos problemas, fueron, ademas, considerables: entre 40 y 300 veces mas rapido que IDP y entre 8 y 60 veces mas rapido que DE/DS. Asimismo se ha considerado la resolucion de un problema de optimizacion dinamica de un proceso multietapa relacionado con destilacion discontinua. Para este problema los tiempos de computacion para metodos estocasticos puros son prohibitivos, ya que el modelo dinamico del proceso tiene una dimension elevada. El uso del metodo h brido no solo ha proporcionado nuevas soluciones superiores a las publicadas, sino que lo ha hecho de manera e ciente, reduciendo en hasta 4 veces el tiempo de calculo requerido por DAEOPT (Vassiliadis, 1994 a).

Aplicacion a procesos distribuidos

157

Cap tulo 6 Optimizacion dinamica de procesos distribuidos con TNHp

Muchos procesos en tecnolog a de alimentos, ingenier a qu mica o biotecnolog a son de tipo distribuido. Las variables del proceso no solo dependen del tiempo sino que dependen ademas de la posicion. Algunos ejemplos son los procesos de polimerizacion, cristalizacion, tratamiento termico de alimentos, etc. En este cap tulo se presenta la aplicacion del metodo TNHp para la resolucion de problemas de optimizacion dinamica de procesos de este tipo. Para ello, se plantea el uso del metodo numerico de las l neas (NMOL) para transformar el problema formulado en PDEs en un problema formulado en ODEs o DAEs. De la aplicacion del metodo NMOL resulta un sistema de DAEs de dimension elevada e inusualmente r gido. De este hecho surge la motivacion de buscar tecnicas que permitan aumentar la e ciencia de la resolucion del IVP. Dentro del marco del metodo TNHp se hace un estudio teorico de la estructura del Jacobiano del IVP y la del correspondiente al IVP extendido. Como se vera el Jacobiano nal es muy disperso, por lo que la utilizacion de un integrador adecuado permitira reducir el coste de cada simulacion y por lo tanto, el de la optimizacion. Por ultimo se considerara la solucion de varios problemas de complejidad creciente lo que permitira valorar las ventajas y desventajas de esta nueva metodolog a. 159

160

Cap tulo 6. Optimizacion dinamica de procesos distribuidos con TNHp

6.1 Introduccion
En los procesos considerados hasta el momento las variables de estado depend an unicamente del tiempo. Sin embargo, todas las unidades que intervienen en un proceso estan distribuidas en el espacio. Por ejemplo, en columnas de destilacion, intercambiadores de calor, reactores, etc. En muchas ocasiones la aproximacion de modelos concentrados (DAEs) es su ciente para la aplicacion de interes ya que las variaciones de las variables de estado con respecto a la posicion no son relevantes. Sin embargo, en muchos otros procesos de gran interes industrial esto no es as . As por ejemplo, muchos procesos relacionados con la transferencia de calor a ciertos materiales (procesamiento termico de alimentos, fundicion de metales, fabricacion de nuevos materiales, etc.), procesos de difusion (tales como reacciones en reactores de ujo en piston o procesos de difusion a traves de membranas en bioqu mica) y otros relacionados con la dinamica de uidos (procesamiento termico de l quidos, etc.), las variables de estado del proceso dependen de la posicion ademas del tiempo. Tales procesos se describen de manera natural por medio de ecuaciones en derivadas parciales, diferenciales ordinarias y algebraicas (PDAEs), que expresan las leyes f sicas de conservacion de la energ a, la masa y el momento. Considerando los procesos que guardan relacion con la tecnolog a de alimentos, en los ultimos a~os se han hecho numerosos avances en lo que a la preservacion n de alimentos y al desarrollo de nuevos productos se re ere. Desde el momento en que se adquiere el alimento hasta su consumo, este experimenta una degradacion en sus propiedades organolepticas. Las tecnicas de preservacion intentan reducir esta degradacion actuando sobre los microorganismos que la producen, modi cando para ello las condiciones de humedad y temperatura del alimento, que de otro modo podr an favorecer la accion de estos microorganismos. El intento de encontrar las condiciones que optimicen el proceso en algun sentido (reduccion de tiempo de procesado, maximizacion del contenido de nutrientes, reduccion del consumo de energ a etc.), lleva a la formulacion de modelos rigurosos en los que se tendra en cuenta tanto la trasferencia de energ a como de masa y a la resolucion de problemas de optimizacion dinamica. Este tipo de problemas ha desn pertado un gran interes en los ultimos a~os debido a su importancia en la industria de alimentos. Prueba de ello son los numerosos trabajos publicados en el area como Banga et al. (1994), Alvarez-Vazquez y Mart nez (1999) y Kleis y Sachs (2000) as como otros trabajos que plantean estrategias de solucion y aplicaciones tomadas de distintos ambitos caso de Lurie (1993), Neittaanmaki y Tiba (1994), Petzold et al.

6.1. Introduccion

161

(1996), Blatt y Schittkowski (1997) o Biros y Gattas (2000), entre otros muchos. Aqu se presenta el uso del metodo TNHp para la resolucion de problemas de optimizacion dinamica de procesos distribuidos. Para ello se repasan en primer lugar los aspectos mas relevantes de los fenomenos de interes en este trabajo, es decir, la transferencia de energ a y masa, que se consideraran en el desarrollo de los modelos, para pasar a continuacion al estudio de una tecnica adecuada para su simulacion.

6.1.1 Transferencia de calor


Existen tres mecanismos basicos de transferencia de calor: conduccion, conveccion y radiacion. La conduccion es el unico medio de transferencia de calor en solidos, y se debe esencialmente al movimiento de los electrones libres que transportan energ a cuando se produce un gradiente de temperaturas, lo que explica que los buenos conductores electricos sean tambien buenos conductores del calor. La conveccion, mas propia de uidos, se produce debido al movimiento relativo de distintas partes del sistema. Por ultimo, en el fenomeno de radiacion, el calor se trans ere en forma de radiacion electromagnetica. Para el calculo del balance de energ a que describe matematicamente el transporte de energ a en solidos o uidos homogeneos, se considera un elemento de volumen estacionario a traves del cual uye un sistema puro, y se aplica un balance segun el primer principio de la termodinamica (Bird et al., 1964):

2 velocidad de 3 2 velocidad de 3 2 velocidad de 3 6 entrada de 7 6salida de energ a7 7 6 7 6 6 acumulacion de 7 6 7 = 6 energ a cinetica 7 - 6 cinetica e 7 7 6 7 6 4 energ a cinetica 5 6 6 5 4 e interna por 7 5 4 interna por 7 e interna 2 6 + 6 4 2 velocidad neta 3 3 velocidad neta 6 de trabajo 7 de adicion de 7 - 6 comunicado por 7 6 7 7 6 7 5 6 calor por 4 el sistema a los 7 5
alrededores 1 v(U + 2 v2)) ( q) + (v g) ( pv) ( v)
; r ; r ; r

conveccion

conveccion

(6.1)

conduccion que matematicamente se expresa:

(6.2) Operando sobre esta expresion se obtiene una ecuacion de variacion para la energ a interna U :

@ (U + 1 v2) = ( @t 2

; r

162

Cap tulo 6. Optimizacion dinamica de procesos distribuidos con TNHp


DU Dt
"

; r

q)

p(

v)

( : rv )
"

(6.3)

"

"

velocidad de ganancia de energ a interna por unidad de volumen

contribucion al incremento de energa interna debido a la conduccion

contribucion contribucion reversible al irreversible al aumento de aumento de energ a energ a interna interna debido a la por debido a la disipacion viscosa compresion

Si se considera un solido, la velocidad de conduccion por unidad de seccion transversal, es decir, el ujo de calor, es proporcional al gradiente de temperaturas (ecuacion de Fourier):

q = kA T
; r

(6.4)

donde q es el ujo, A es la super cie normal al ujo, k es la conductividad termica y rT es el gradiente de temperatura. La conductividad termica es una propiedad f sica de cada sustancia, y puede variar ligeramente en funcion de la temperatura. En el caso de que el material considerado no sea homogeneo o isotropo, sera preciso determinar la conductividad para la direccion del ujo considerado. Teniendo en cuenta la ec. (6.4) y expresando (6.3) en funcion de la temperatura resulta:

cTt = (k T )
r r

(6.5)

Si se considera el caso general en que existen fuentes de calor en el solido (p. ej. generacion debida a reacciones qu micas, o a campos electricos, etc.), hay que a~adir un termino en el segundo miembro del balance, resultando: n

cTt = (k T ) + q_
r r

(6.6)

Los pasos intermedios para llegar a esta expresion se desarrollan en detalle en Bird et al. (1964). El calor que se conduce a traves del solido es a menudo introducido (o eliminado) mediante un proceso de conveccion: por ejemplo, la perdida de calor a traves de las paredes de un horno, o el calentamiento de un solido debido a la presencia de aire caliente. Estos son los llamados procesos de conduccion-conveccion que como se vera tienen especial relevancia en el procesamiento termico de alimentos. El fenomeno

6.1. Introduccion

163

de conveccion vendra impuesto en las condiciones frontera, y teniendo en cuenta que en este tipo de fenomeno el ujo de calor es proporcional a la diferencia de temperaturas (ecuacion de Newton de enfriamiento), resulta:

@T = h (T (6.7) @ n k ext T ) donde n es la direccion normal a la super cie, h es el coe ciente de transferencia de calor que es una medida de la resistencia que ofrece el solido al ujo de calor y Text es la temperatura exterior. La conveccion podra ser de dos tipos: natural, en la que el solido esta expuesto a la temperatura de un uido (por ejemplo, aire) cuyo movimiento es inducido por cambios de densidad asociados con diferencias de temperatura o forzada, en la que el uido que rodea al solido es obligado a moverse por medios mecanicos. Por ultimo para poder resolver el sistema sera necesario establecer una condicion inicial de temperatura en el solido, que podra ser bien una constante o bien una funcion del espacio.
;

6.1.2 Difusion de materia


El proceso de difusion de materia se produce de manera natural en presencia de dos o mas especies cuya concentracion relativa var a de un punto a otro del espacio. Es decir, la distribucion espacial de moleculas no es homogenea, produciendose un gradiente de concentracion. Este proceso viene descrito matematicamente por la ecuacion de Fick que a rma que la densidad de corriente de part culas es proporcional al gradiente de concentracion:

J= D c
; r

(6.8)

donde D es el coe ciente de difusion y es caracter stico tanto del soluto como del medio en el que se disuelve, y c es la concentracion. En la difusion, los desplazamientos o transferencias moleculares se hacen a expensas de los movimientos intr nsecos propios de esas part culas desde las zonas de mayor concentracion a las zonas de menor concentracion. De esta forma, la difusion es un mecanismo de transferencia de materia en la que no intervienen los movimientos moleculares masivos, tales como el ujo de un gas. Haciendo el balance de materia correspondiente a la entidad que difunde se obtiene:

164

Cap tulo 6. Optimizacion dinamica de procesos distribuidos con TNHp

2 velocidad de 6 entrada de 6 6 materia de 4

componente A

3 2 7 7 - 6 6 7 6 5 4

2 6 velocidad de 3 6 7 6 salida de 7 + 6 6 7 6 materia de 5 6 6 4 componente A

velocidad de produccion de materia de componente A por reaccion homogenea

3 7 7 7 7 7 = 0 7 7 7 5
(6.9)

Que matematicamente se expresa:


; r r

cAt = v cA + D 2cA + rA (6.10) donde v es la velocidad de difusion, y rA es un termino de produccion debido a posibles reacciones qu micas. Todos los calculos desarrollados se detallan en el libro de Bird et al. (1964) o en el de Welty et al. (1996). Esta expresion se utiliza, generalmente, para la difusion en soluciones l quidas diluidas a temperatura y presion constantes. Para difusion en solidos o uidos estacionarios v = 0, y la ecuacion resultante es similar a la de transferencia de calor (6.6). La difusion puede producirse tanto entre sustancias colocadas en ntimo contacto como tambien cuando entre ellas se interpongan membranas semipermeables o super cies porosas. La condicion inicial en los procesos de transferencia de materia viene dada en funcion de la concentracion de la especie en difusion que podra ser un valor constante o una funcion espacial. En cuanto a las condiciones frontera t picas, son similares a las que se presentaron para el caso de conduccion de calor: de primer orden, jando la concentracion en la frontera, o bien de segundo orden expresando el ujo de masa desde el exterior. En este ultimo caso el ujo puede ser nulo cuando la super cie es impermeable o adquirir un cierto valor cuando es semipermeable o porosa.

6.2 Metodo numerico de las l neas (NMOL)


Como se ha visto en cap tulos anteriores la resolucion del problema de optimizacion dinamica mediante CVP requiere la simulacion del proceso, es decir, la solucion de un sistema de PDAEs en cada evaluacion del metodo de optimizacion, para el calculo de la funcion objetivo J y las restricciones g y h, tal como se muestra, esquematicamente, en la gura 6.1.

6.2. Metodo numerico de las l neas (NMOL)

165

Solucin PDAEs J, h, g vk Algoritmo optimizacin

Figura 6.1: Esquema de resolucion del problema de optimizacion dinamica mediante metodos CVP. En el cap tulo 1, se comentaba que en la mayor a de los casos es imposible encontrar una solucion anal tica a un sistema descrito por PDEs, lo que lleva al uso de metodos numericos. En esta tesis se utilizaran tres de estas metodolog as lo que permite comparar y establecer cual es la mas adecuada para la solucion de un problema dado. En particular, en este cap tulo, se considera el uso del metodo numerico de las l neas, que sera de gran utilidad en la resolucion de problemas de nidos en dominios de geometr a sencilla. El metodo numerico de las l neas (NMOL) (Schiesser, 1991) es una tecnica para la resolucion de PDEs de tipo parabolico o hiperbolico a traves de su transformacion en un conjunto de ODEs o DAEs que puede ser resuelto con un integrador estandar. Se basa en la discretizacion del dominio espacial utilizando distintas metodolog as que emplean mallas uniformes, no uniformes o adaptativas (Li, 1998 y Li y Petzold, 1999). Aqu se considera el caso mas sencillo de malla uniforme en el espacio. El valor de la variable dependiente en un punto de la malla se calcula a partir de los valores en los puntos adyacentes, siendo el numero de puntos utilizados el que determina el tipo u orden del metodo. Lo habitual es utilizar 3 o 5 puntos, es decir, metodos de segundo o cuarto orden respectivamente, dependiendo del tipo de problema a resolver. A continuacion se presentan las formulas de ambos metodos. A n de ilustrar el proceso de obtencion de estas formulas, a continuacion se detallan los pasos seguidos para la obtencion de la formula de orden 2 (mas detalles en los libros de Schiesser 1991 y 1994). Supongase un problema unidimensional (los resultados son facilmente extrapolables a casos 2D o 3D) x = x( ). Se considerara que una buena aproximacion de

166

Cap tulo 6. Optimizacion dinamica de procesos distribuidos con TNHp

la solucion a la PDE en un punto viene dada por el desarrollo en serie de Taylor:

x( ) = a0 + a1 (
siendo:

i ) + a2 (

i)

2+a

3(

i)

3+

(6.11)

Si se utiliza una malla de elementos equidistantes, tal como se muestra en la gura 6.2:
L

1 n an = n! @ @x(n i )

(6.12)

-4

-3

-2

Figura 6.2: Esquema de aplicacion del metodo NMOL para un problema unidimensional. utilizando la expresion (6.11) para calcular el valor del campo en dos puntos no consecutivos de la malla se obtiene: 1 2x (6.13) x( i;1) = x( i) + @x( i ) ( i;1 ; i) + 2! @ @ (2 i ) ( i;1 ; i)2 + @ 1 2x x( i+1) = x( i) + @x( i ) ( i+1 ; i) + 2! @ @ (2 i) ( i+1 ; i)2 + (6.14) @ y restando las dos expresiones anteriores resulta: con 4 = i+1 ; i. De esta manera es posible calcular directamente el valor de la derivada espacial en funcion de los valores del campo en dos puntos no consecutivos de la malla. Sin embargo, esta expresion es valida unicamente para i = 2 : : : ; 1. Para el primer y

@x( i ) = x( @

i+1 ) ; x( i;1 )

24

+ O(4 2)

(6.15)

6.2. Metodo numerico de las l neas (NMOL)

167

ultimo puntos de la malla habra que calcular otras expresiones, y as para aproximar el valor de la derivada espacial en el punto 1 se utilizaran los valores del campo en los puntos 2 y 3: 1 2x x( 2) = x( 1 ) + @x@( 1 ) + 2! @ @ (2 2 ) ( )2 + 1 2x x( 3) = x( 2 ) + @x@( 1 ) 2 + 2! @ @ (2 2 ) (2 )2 +
4 4 4 4

(6.16) (6.17)

y restando:

@x( 1 ) = 3x( 1 ) + 4x( 2) x( 3) + ( 2) (6.18) @ 2 De igual manera calculando las aproximaciones para ;2 y ;1 y restando, se obtiene la siguiente expresion:
; ; 4 O 4

@x( ) = 3x( ) 4x( ;1) + x( ;2 ) + ( 2) (6.19) @ 2 Ahora se dispone de una aproximacion de la primera derivada espacial para cada punto de la malla. De igual manera se proceder a para la obtencion de las formulas de 4 orden. Escritas de forma compacta resultan:
; 4 O 4

Formulas de segundo orden (de 3 puntos):

8 < dx = 1 > 3 ~ d 2 > 1 : 1


; ; 4

4 0 ;4 72 36 0 ;36 72
;

1> = 1 >x ~ 3

(6.20)

Formulas de cuarto orden (de 5 puntos):

8 > 50 > > dx = 1 < 6 ~ 2 d 4! > 2 > > : 6


; ; 4 ;

96 ;20 ;16 12 ;32

32 ;6 ;12 2 16 ;2 20 6 ;96 50

9 > > > = ~ >x > >

(6.21)

Una aplicacion recursiva de estas formulas permite el calculo de las derivadas espaciales de segundo orden y la sustitucion directa en la PDE original lleva a un conjunto de ODEs, una por cada nodo de la malla. El numero de ODEs resultante depende por tanto del nivel de discretizacion espacial ( ) elegido, aumentando de manera notable a medida que aumenta la no

168

Cap tulo 6. Optimizacion dinamica de procesos distribuidos con TNHp

linealidad y la dimension espacial del problema. Por otra parte, la rigidez del sistema de ODEs aumenta a medida que aumenta el nivel de discretizacion ya que los autovalores del Jacobiano son inversamente proporcionales a 4 2 (Schiesser, 1991) lo que permite seleccionar un metodo adecuado para su resolucion. A este respecto, Mageroy (1997) hace una comparacion de varios metodos de integracion para la resolucion de sistemas de ODEs resultado de aplicar el metodo NMOL. En particular, compara un metodo Runge-Kutta expl cito modi cado para ampliar la region de estabilidad, un metodo BDF y un metodo de Rosenbrock que no es mas que una modi cacion de un metodo Runge-Kutta impl cito. Para comparar las distintas metodolog as resuelve un conjunto de problemas de muy diversas caracter sticas concluyendo que el uso de un metodo BDF es lo mas adecuado en la mayor a de las situaciones.

Integracion con un metodo BDF


Tanto el elevado numero de ecuaciones como su posible rigidez son factores que implican un elevado coste computacional para la simulacion del proceso y por lo tanto, para la resolucion del problema de optimizacion dinamica. Lo que es mas, tal y como se comento en el cap tulo 1, los metodos de integracion de tipo impl cito, tales como los BDF, requieren el valor de la derivada en el instante dado lo que obliga a resolver un sistema de ecuaciones, habitualmente por el metodo de Newton, en cada paso. La solucion de este sistema de ecuaciones requiere el calculo del Jacobiano del sistema de ODEs, lo que supone un gran esfuerzo computacional, especialmente en el caso de sistemas de dimension elevada. No obstante, algunos de estos efectos se pueden suavizar si se aprovechan las propiedades del Jacobiano del sistema resultante para su resolucion mas e ciente mediante un metodo BDF. Por ejemplo, si el Jacobiano tiene estructura en banda o es disperso el uso de un algebra adecuada aumenta la e ciencia del proceso de integracion (Brenan et al., 1989). Estas ideas se han implementado en algunos codigos, por ejemplo DDASSL1 (Petzold, 1982) que contempla la posibilidad de un Jacobiano en banda o LSODES desarrollado por Hindmarsh y Sherman (1987) que considera la posibilidad de un Jacobiano disperso2. A continuacion se estudia la estructura del Jacobiano del sistema de ODES originado por la aplicacion del metodo NMOL. Como referencia se considera un problema unidimensional, que aportara ideas acerca de la estructura del Jacobiano
1 2

DDASSL: http://www.netlib.org/slatec/src/ddassl.f LSODES: http://www.netlib.org/odepack/lsodes.f

6.2. Metodo numerico de las l neas (NMOL)

169

en otros casos. Sea un problema unidimensional general descrito por:

xt = a( t)x + b( t)x + c(t ) (6.22) donde aparecen tanto terminos de difusion como de conveccion. Se suponen ademas dos tipos de condiciones frontera: una de segundo orden x (0 t) = 0 (t) y otra de primer orden x(L t) = L(t), e iniciales: x( 0) = x0 ( ). Para la solucion de este problema se aplica el metodo NMOL utilizando una malla de nodos, como se mostraba en la gura 6.2. El Jacobiano (J) del sistema de ODEs resultante, para el caso en el que la aproximacion es de segundo orden, queda como sigue:
B B

2 ;2 ; 6 ; 2 22 6 6 2 ; 6. . 6. . 6. . 6 60 0 6 6 .. .. 6. . 6 60 0 6 60 0 4
h

b1 b1

h b2

b3

2b1 ;b1 h 2h b2 a2 h 2h ;b3 a b3 a3 3 2h h

0 0

.. . 0 .. . 0 0 0

.. . 0 .. . 0 0 0

0 0 0 .. .. .. . . . i 0 2 .. .. .. . . . 0 0 0 0 0 0
:: :: :: ::
b

0 0 0 .. .

;
.. . 0 0 0

0 0 0 .. .
ai

::

::

::

.. . 0 0 0

;bi
h

0 0 0 .. .
ai

.. . 0 0 0

0 0 0 0 0 0 .. .. .. . . . i 0 2 .. .. .. . . . 2 0 2 0 0 0 0
:: :: ::
b h

::

::

;
b

0 0 0 .. . 0 .. .

:: ::

2h ;b 2h

;1

;2

;b

0 0 0 .. . 0 .. .
h

;2
b b h

0 0 0 .. . 0 .. .
2h

a a

;1 + + 72

;1

0 0 0 .. . 0 .. . ;2 0 ;5 ;1 0 2 ;11 4 2
a
b h

0 07 7 07 7 .. 7 .7 7 07 7 .. 7 .7 7 7 07 7
b

y el sistema de ODEs completo queda:

(6.23)

2z 3 2c 3 2 3 z1 3 _ (a1 3b1) 0 7 1 1 6 z2 7 6 c2 7 6 z2 7 _ 7 6 7 6 7 6 7 b2 0 6z 7 6c 7 6 7 7 6 3 7 6 3 7 6 7 z3 7 _ 7 0 6 7 3 6 .. 7 6 .. 7 2 6 7 6 7 6 7 ... 7 0 6. 7 6. 7 6 7 7 7 1 6 j11 . j1 7 6 7 6 7 1 6 7 ... 7 = 6 ... .. ... 7 6 zi 7 + 6 ci 7 + 6 7 (6.24) 6 7 6 7 2h 6 7 zi 7 2h 4 _ 7 56 . 7 6 . 7 6 7 ... 7 6 .. 7 6 .. 7 6 7 0 j1 j 6 7 6 7 7 6 7 6 7 6 7 7 6 7 b 2 6 z ;27 6 c ;27 7 6 7 z ;27 _ 7 2h 3b L 6 7 6 7 6 6 z ;17 6 c ;17 6 (a ;1 + 1 ) L 7 7 4 5 4 5 z ;15 _ 4 5 2h (3a + 52bh ) L z z _ c donde h = y jik denotan cada uno de los elementos del Jacobiano dado en la expresion (6.23). Las condiciones iniciales correspondientes seran: 2 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 4
; B ; B
;

zi(0) = x0 ( i) (6.25) donde x0 ( i) no es mas que la variable dependiente al inicio del proceso evaluada en cada nodo de la malla.

170

Cap tulo 6. Optimizacion dinamica de procesos distribuidos con TNHp

Aunque estos resultados son validos unicamente para un caso particular, s son utiles para observar la estructura, practicamente en banda, del Jacobiano. En terminos generales, se puede esperar que esta estructura se repetira para todos los problemas unidimensionales, debido precisamente a que el valor de la variable dependiente se aproxima en cada punto, utilizando sus valores en puntos adyacentes. Evidentemente, el ancho de la banda depende del orden de las formulas utilizadas. En el caso de dominios espaciales de mas dimensiones el Jacobiano presentara mas bandas semejantes a la del caso unidimensional. En la gura 6.3 se representan los esquemas basicos para los casos uni y bi-dimensional, siendo el caso 3D una ampliacion de este ultimo.

Figura 6.3: Estructura basica del Jacobiano de los sistemas de ODEs obtenidos de aplicar NMOL (casos 1D y 2D). Este tipo de problemas podr a resolverse con un integrador apropiado para Jacobianos en banda. Sin embargo, en TNHp este sistema de ODEs ira acompa~ado n por las correspondientes sensibilidades y por lo tanto sera necesario estudiar la estructura del Jacobiano total.

6.3 Simulacion del IVP extendido para procesos distribuidos


El metodo TNHp, presentado en el cap tulo 4, permite resolver de manera muy e ciente problemas de optimizacion dinamica de procesos concentrados. En dicho cap tulo se resalto el hecho de que el sistema de sensibilidades de primer orden y segundo orden proyectadas compart an el mismo Jacobiano que el sistema original de ODEs y que esta particularidad pod a aprovecharse para la simulacion e ciente del IVP extendido.

6.3. Simulacion del IVP extendido para procesos distribuidos

171

En particular, para este n son posibles dos metodos: bien el llamado metodo directo desacoplado, implementado en DASSLSO (Petzold et al., 1996) para el caso de sensibilidades de primer orden con respecto a parametros, o bien la aportacion de informacion sobre el Jacobiano del sistema total al integrador. Esta ultima parece ser la metodolog a mas sencilla para el caso de sensibilidades con respecto a parametros de control dado que no solo los elementos del Jacobiano, sino que tambien su estructura, var an con el tiempo. Para problemas concentrados no se hizo uso de esta propiedad del sistema de sensibilidades ya que, como los problemas considerados no eran (o eran poco) r gidos el uso de un metodo Runge-Kutta fue su ciente. Sin embargo para procesos distribuidos se hace necesario el aprovechamiento de esta y otras propiedades del Jacobiano para una simulacion mas e ciente. En la seccion anterior se estudio la estructura del Jacobiano del sistema de ODEs que resultaba de aplicar el metodo NMOL. A continuacion se presenta el calculo del Jacobiano para el sistema extendido en funcion del Jacobiano original.

6.3.1 Jacobiano del IVP extendido


Considerese un sistema de ODEs generico que describe el comportamiento del proceso: (6.26) _ donde z, z 2 Rn y v 2 R ~ (~ = + ), proviniendo parte de estas ecuaciones de aplicar el metodo NMOL ( ) y otra parte del modelo original del proceso. Las sensibilidades de primer orden resultan: _ z = f (z v)

_ donde s1 y s1 2 Rn: ~ y el sub ndice i se re ere al parametro vi . Y las sensibilidades de segundo orden proyectadas:
~ ~ X @2f X @2f @f _ s2i = @ z s2i + @ z@v p(k)s1i + @v @v p(k)
8

@f @ _ s1i = @ z s1i + @vf

i 1 ::: ~
2

(6.27)

_ donde s2 y s2 2 Rn: ~. El IVP extendido puede escribirse de manera simpli cada:

k=1

k=1

i 1 : : : ~ (6.28)
2

_ Z = f (Z v)

(6.29)

172

Cap tulo 6. Optimizacion dinamica de procesos distribuidos con TNHp

donde Z = z1 zn s11 s1n: ~ s21 s2n: ~]T . Sea J el Jacobiano del sistema original (ec. (6.26)) que bien podr a ser como el presentado en la ec. (6.23):

@f J = @ z J Rn
2

(6.30)

Las componentes del Jacobiano para el sistema de sensibilidades de primer orden seran: _ @ s1i = J @ s1i n
n

(6.31) (6.32)

_ @ s1i = @ J s + @ J = (J ) 1i n n @ z @ z 1i @vi Y las del Jacobiano para sensibilidades de segundo orden proyectadas: _ @ s2i = J @ s2i n
n

(6.33)
n

~ _ @ s2i = X @ J p(k) = SJ n @ s1i k=1 @vk

(6.34)

~ ~ _ @ s2i = @ J s + X @ 2 J p(k)s + X @ 2 J p(k) = (J ) (6.35) 2i 1i 2i n n @z @z k=1 @ z@vk k=1 @vi @vk El Jacobiano completo a tiempo nal, es decir, cuando todas las sensibilidades estan activas quedara:

8 > > > > > > > > > > > < JT = > > > > > > > > > > > :

J J11 J12 J13 J1~ J21 J22 J23


... ...

0 J 0 0 0 SJ 0 0
... ...

0 0 J 0 0 0 SJ 0 0
... ...

0 0 0 J 0 0 0 SJ
... ...

0 0 0 0 0 0 0 0
... ...

...

0 0 0 0 J 0 0 0
... ...

0 0 0 0

J2~ 0

0 0

...

0 J 0 0

... ... ...

0 0 0 0

0 0 0 0

0 0 0 0 0 0 0 0 J
... ...

SJ 0 0 0

... ... ...

0 0 J 0

0 0 0 J

9 > > > > > > > > > > > = > > > > > > > > > > >

(6.36)

6.3. Simulacion del IVP extendido para procesos distribuidos

173

6.3.2 Simulacion con un integrador disperso


De la expresion (6.36) se deduce que aunque el Jacobiano del sistema original (ec. (6.30)) no sea disperso, el Jacobiano total (ec. (6.36)) s lo sera. Sin embargo, en el caso de utilizar metodos tales como NMOL para resolver PDEs, el Jacobiano del sistema resultante se puede considerar disperso, ya que, debido a su estructura practicamente en banda, el nnz (numero de elementos no nulos) vendra dado por la expresion nnz (2NB ; 1) ; (2NB ; 1) con NB el numero de diagonales no nulas. Es claro que nnz << 2 para elevado y por lo tanto, el Jacobiano se puede considerar disperso. Esto aumenta el nivel de dispersion del Jacobiano total y surge, por lo tanto, la posibilidad de utilizar un integrador adecuado como LSODES (Hindmarsh y Sherman, 1987) para resolverlo de manera muy e ciente.

Breve descripcion de LSODEs


LSODES (Hindmarsh y Sherman, 1987) resuelve IVPs basandose en las formulas BDF, y haciendo uso de algebra dispersa para resolver el sistema de ecuaciones en cada paso. Dispone de varias opciones de integracion que se adecuan a distintos tipos de problemas y a diversos niveles de informacion relativa al Jacobiano del sistema, y que se distinguen por el valor que adquiere el parametro propio del integrador MF : 1. MF = 10, utiliza el metodo de Adams y es valido para la resolucion de problemas nada o poco r gidos. 2. MF = 222, utiliza un metodo BDF calculando numericamente el Jacobiano. Para ello realiza n + 1 evaluaciones del modelo a t0 para determinar la estructura del Jacobino, agrupando los ndices de las columnas de los elementos no nulos, dando lugar a ngp grupos. Para el calculo del Jacobiano requiere ngp evaluaciones del modelo. 3. MF = 121, tambien utiliza un metodo BDF, pero en esta ocasion el usuario aporta el Jacobiano exacto del problema. El metodo realiza n +1 evaluaciones del jacobiano a t0 para determinar su estructura. 4. MF = 21, el usuario no solo aporta el Jacobiano exacto sino que tambien proporciona la informacion acerca de su dispersion, es decir, la localizacion de los elementos no nulos. Para ello se aportaran dos vectores ian de dimension n + 1 y jan de dimension nnz. El vector jan contiene los ndices de la las de elementos no nulos leyendo por columnas, mientras que ian complementa

174

Cap tulo 6. Optimizacion dinamica de procesos distribuidos con TNHp

esta informacion para saber la posicion exacta del elemento no nulo. Para ello contabiliza el numero de elementos no nulos hasta el primer elemento no nulo de la columna y lo anota. Es decir, los ndices de las las i de los elementos no nulos en la columna j se recogen en el vector jan (jan(k) = i), e ian(j ) k ian(j + 1) con ian(n + 1) = nnz + 1. Por ejemplo, para una matriz:

2 3 0 0 07 60 6 0 0 7 6 7 6 0 07 6 7 60 0 7 4 5
0 0 0 0 los vectores de dispersion ser an: jan = 1 3 2 3 3 4 1 4 2 4 5] e ian = 1 3 5 7 9 11]. En este trabajo se han realizado las modi caciones necesarias en el proceso de integracion para realizar de manera automatica el calculo del Jacobiano exacto del sistema IVP extendido (JT ) y de su estructura, es decir los vectores iant y jant, a partir de los datos para el Jacobiano del sistema original (J, ian y jan), teniendo en cuenta que estos se modi can a lo largo del tiempo de proceso. A continuacion se muestra un caso particular que ayudara a comprender este ultimo punto.

6.3.3 Caso particular: Dinamica lineal en los estados


Supongase un caso sencillo en el que la dinamica del sistema es lineal. siendo J independiente del tiempo. Este caso surge habitualmente de la aplicacion del metodo numerico de las l neas a muchos procesos de interes. Por ejemplo, la expresion general que se obten a en el caso unidimensional (ec. (6.24)) se ajusta a este caso particular. Si el control esta discretizado con ~ elementos v1 v ~ de tal manera que cada elemento esta activo durante un intervalo de tiempo, las sensibilidades de primer orden estaran activas unicamente desde el comienzo de ese elemento hasta tf . En este caso, las sensibilidades de segundo orden son todas nulas, lo que no quiere decir que el Hessiano de la funcion objetivo sea nulo. Esto implica ciertos cambios en la estructura del Jacobiano a lo largo del proceso de integracion ya que al irse activando

z = Jz + Bu _

(6.37)

6.3. Simulacion del IVP extendido para procesos distribuidos

175

las distintas sensibilidades se activan tambien sus correspondientes componentes del Jacobiano total. Considerando el caso de una unica variable de control, la actualizacion del Jacobiano sera como sigue: Intervalo t0 - t1 :

8 > > > > > > < JT = > > > > > > : 8 > > > > > > < JT = > > > > > > :

J 0 0 0
. . .

0 J 0 0
. . .

0 0 0 0
. . .

0 0 0 0
. . .

0 0 0 0
. . .

0 0 0 0 0 J 0 0 0
. . .

. . .

> 09 > > 0> > = 0> 0> > >

. . .

> > > >

Intervalo t1 - t2 :

0 J 0 0
. . .

0 0 J 0
. . .

0 0 0 0
. . .

0 0 0 0
. . .

0 0 0 0 0 J 0 0 0
. . .

. . .

> 09 > > 0> > = 0> 0> > >

. . .

> > > >

Intervalo t ;1 - tf :

8 > > > > > > < JT = > > > > > > :

0 J 0 0
. . .

0 0 J 0
. . .

0 0 0 J
. . .

0 0 0 0
. . .

0 0 0 0 0

. . .

> 09 > > 0> > = 0> 0> > >

. . .

> > > >

En el caso de mas de una variable de control ( > 1) es inmediato adaptar la formulacion anterior. Bastara con a~adir tantas J como variables de control en las n posiciones adecuadas a medida que se van activando los elementos de control. Por supuesto, en los casos no lineales, ademas de a~adir la matriz J cada vez n que se activa un elemento de control, es decir, un conjunto de sensibilidades, sera necesario a~adir las J1i y J2i correspondientes, ademas de las matrices constantes n SJ necesarias.

176

Cap tulo 6. Optimizacion dinamica de procesos distribuidos con TNHp

6.4 Implementacion practica


Con el proposito de aplicar esta metodolog a de forma automatica se ha desarrollado un programa en MathematicaTM 3.0 para la generacion del IVP extendido. El usuario debe aportar los datos necesarios tales como el modelo del proceso (PDAEs), tipo y valores de las condiciones frontera, nivel de discretizacion, tipo de formula a utilizar (segundo o cuarto orden) y el programa realizara las siguientes operaciones: 1. Deriva simbolicamente el conjunto de ODEs resultantes de aplicar el metodo NMOL. 2. Genera el Jacobiano del sistema de ODEs resultante y su estructura dispersa. Esta informacion se proporciona al integrador que se ha modi cado convenientemente para que genere el Jacobiano del IVP extendido. 3. Deriva simbolicamente el conjunto de sensibilidades de primer y segundo orden segun las expresiones (6.27) y (6.28). 4. Transforma toda la informacion en un formato adecuado para su integracion dentro del codigo de optimizacion TNHp y genera las rutinas correspondientes. En el apendice I se muestran algunos de los modulos que realizan estas operaciones para un caso 2D. Es importante destacar que la aplicacion del metodo se ajusta perfectamente al esquema que se presentaba en la gura 4.5 del cap tulo 4.

6.5 Optimizacion dinamica de procesos distribuidos: ejemplos


En esta seccion se considera la solucion de varios problemas de complejidad creciente. Los dos primeros estan relacionados con el calentamiento de solidos, en particular, de una barra unidimensional y de un cilindro el tercero describe un proceso de difusion a traves de una membrana y el ultimo considera un proceso de esterilizacion de alimentos.

6.5.1 Control de la temperatura de una barra


Se trata de calcular la temperatura exterior que hay que aplicar a una barra unidimensional de longitud L = 1:0 con el n de alcanzar una temperatura uniforme de Tobj = 0:2 en un tiempo dado de 0:4. Este problema fue resuelto utilizando el

6.5. Optimizacion dinamica de procesos distribuidos: ejemplos

177

Principio Maximo de Pontryagin en Ramirez (1994), alcanzando una distribucion de temperatura nal dentro del 5% del valor deseado. La formulacion matematica del problema es como sigue: Encontrar Text (t) para minimizar:

ZL J = (Tobj T ( tf ))2 dx (6.38) 0 sujeto a la dinamica del sistema que en este caso corresponde a la ecuacion de conduccion de calor unidimensional y sin termino de generacion: Tt = T (6.39) donde T es la temperatura y la variable espacial. Las condiciones frontera son de conveccion en ambos extremos de la barra, y en el origen es donde se encuentra al fuente de calor: T (0 t) = h(T Text) (6.40) mientras que el extremo nal de la barra esta aislado, es decir, no hay ujo de calor: T (L t) = 0 (6.41) Inicialmente la barra esta a una temperatura ja e independiente de la posicion T ( 0) = 0. En este caso la variable de control es la temperatura exterior Text.
; ;

Simulacion del proceso con LSODES


Con el n de ilustrar la mejora que supone el uso de informacion sobre el Jacobiano y su estructura con respecto a la e ciencia del proceso de simulacion, se presentan en primer lugar los resultados obtenidos para la simulacion de este proceso considerando las distintas opciones para LSODES. Para resolver este problema se ha considerado un nivel de discretizacion espacial n = 21 y formulas de segundo orden, resultando en 21 ODEs. A continuacion se resumen los resultados obtenidos con los distintos metodos de integracion (distintos valores de MF ) para el caso en el que se simula el IVP consistente en 21 ecuaciones y para el caso en el que simula el IVP extendido. La notacion utilizada es como sigue: , indica el nivel de discretizacion del control neq, indica el numero de ecuaciones incluyendo las sensibilidades nnz indica el numero total de elementos no nulos del Jacobiano (corresponde a tiempo nal) MF indica el metodo utilizado en la integracion np es el numero de pasos que realiza el integrador nf indica el numero de evaluaciones del modelo por simulacion ntf corresponde al numero de veces que llama al modelo bien para evaluar el objetivo bien para evaluar el Jacobiano nj indica el numero de evaluaciones del Jacobiano por simulacion ntj es

178

Cap tulo 6. Optimizacion dinamica de procesos distribuidos con TNHp

el numero de veces que entra en la rutina de Jacobiano bien para evaluarlo o bien para calcular su estructura Tcpu3 es el tiempo de computacion, de una simulacion (en el caso de = 0 en el que se integra unicamente el sistema original el tiempo de computacion corresponde a 50 simulaciones). Los casos en los que se produjeron errores de integracion se marcaran con un s mbolo ;. 0 4 10 20 25

neq 21
105 231 441 546

nnz 64
320 704 1344 1664

50 1071 3264 100 2121 6464 200 4221 12864

MF 10 222 121 21 10 222 121 21 10 222 121 21 10 222 121 21 10 222 121 21 10 222 121 21 10 222 121 21 10 222 121 21
TC P U

np 165 81 81 81 1043 305 305 305 1585 592 592 592


;

nf 263 115 101 100 1144 428 380 380 1837 874 874 874
;

941 1399 941 1239 941 1239 1131 1655 1131 1459 1131 1459 1697 2588 1697 2196 1697 2196 2395 4062 2395 3282 2395 3282 3178 5902 3178 4366 3178 4366
; ; ; ; ; ; ; ;

nj 0 3 3 3 0 12 12 12 0 30 30 30 0 40 40 40 0 49 49 49 0 98 98 98 0 195 195 195 0 384 384 384

ntf 263 127 101 100 1144 852 384 380 1837 3194 764 764
10239 1259 1259 15330 1484 1459 56188 2196 2196 216262 3282 3282 846080 4366 4366
; ; ; ; ;

ntj 0 0 55 44 0 0 1680 1260 0 0 9240 6930 0 0 26460 17640 0 0 40404 26754 0 0 158508 104958 0 0 625695 413595 0 0 2460843 1620864

Tcpu 0:44 0:27 0:35 0:27 0:24 0:096 0:096 0:09 0:9 0:44 0:42 0:41
2:6 2:3 2:2 4:0 3:5 3:3 11:4 9:3 8:0 65:5 49:3 37 442 365 217
; ; ; ; ;

Tabla 6.1: Resultados de simulacion del IVP extendido para un proceso distribuido.
3

El tiempo de computacion

se expresa en segundos en un PC Pentium III/450MHz.

6.5. Optimizacion dinamica de procesos distribuidos: ejemplos

179

Aunque el problema considerado es unidimensional y muy sencillo, los resultados muestran las mejoras esperadas segun el desarrollo presentado anteriormente. El aumento en el numero de discontinuidades de control (valores de altos) perjudica al metodo de Adams que por otra parte requiere un elevado numero de evaluaciones de la funcion debido a la rigidez del problema. En cuanto a los otros metodos basados en BDF, parece claro que a medida que aumenta la dimension del problema el coste computacional invertido en el calculo del Jacobiano y su estructura (metodos MF = 222 y MF = 121) aumenta de manera excesiva. En la gura 6.4 se re eja claramente este comportamiento y destaca el hecho de que, aunque el crecimiento en el tiempo de computacion no es lineal para ninguno de los tres casos, s es mas suave en el caso del metodo MF = 21.
450
Tiempo de computacin (s)

400 350 300 250 200 150 100 50 0 0

Lsodes, mf=222 Lsodes, mf=121 Lsodes, mf=21

1000

2000 3000 Nmero de ODEs

4000

Figura 6.4: Comportamiento de LSODES en la simulacion de sistemas distribuidos con sensibilidades. Estas diferencias aumentan a medida que aumenta la dimension y dispersion del Jacobiano, por lo que una buena seleccion sera de vital importancia en la resolucion de problemas de nidos en dominios 2D y 3D.

Optimizacion usando TNHp


Para resolver el problema de optimizacion se ha generado un nuevo modelo que consta unicamente de 11 ecuaciones, ya que el aumento en precision para las mallas mas re nadas es despreciable. Los resultados obtenidos, utilizando un valor inicial constante para la variable de control (Text0 = 0:25), se presentan en la tabla 6.2 donde Tmax y Tmin indican la maxima y la m nima temperaturas alcanzadas dentro de la barra a tiempo nal. El per l de control optimo, as como la correspondiente distribucion de temperatura en el interior de la barra se presentan en las guras 6.5.

180

Cap tulo 6. Optimizacion dinamica de procesos distribuidos con TNHp

10 80 160 320

6:5 7:9 6:6 4:4

10;5 10;5 10;5 10;5

Tmax 0:203 0:202 0:202 0:203

Tmin ni =nf =ncg Tcpu (s) 0:196 3=4=7 1:3 0:195 2=3=8 29 0:195 2=3=8 87 0:196 4=5=13 767

Tabla 6.2: Resultados obtenidos para el problema de calentamiento de una barra.


0.5 Control, Text 0.4 0.3 0.2 0.1 0.0 0.0 0.1 0.2 Tiempo 0.3 0.4
0.203 0.202 0.201

T(x,t f)

0.200 0.199 0.198 0.197 0.196 0.0 0.2 0.4 0.6 Posicin 0.8 1.0

Figura 6.5: Per l de control y distribucion de temperaturas en el proceso de calentamiento de una barra ( = 320, J = 4:4 10;5). Ademas, y con el n de ofrecer una comparacion con uno de los metodos actuales mas conocidos, se resolvio este problema con gOPT. Para ello se consideraron las mismas condiciones que con TNHp, y varios niveles de discretizacion de la variable de control. El mejor resultado corresponde a = 10, alcanzando valores de Tmax = 0:202 y Tmin = 0:197 en 15 iteraciones y en un tiempo de computacion de 11:6 s. Para niveles de discretizacion superiores, el metodo converge a soluciones suboptimas siendo los per les de control obtenidos muy ruidosos. A modo de ejemplo, en la gura 6.6 se muestra el per l obtenido para el caso = 80.
0.5

Control, Text

0.4 0.3 0.2 0.1 0.0 0.0 0.1 0.2 Tiempo 0.3 0.4

Figura 6.6: Per l de control para el calentamiento de una barra unidimensional obtenido con gOPT ( = 80).

6.5. Optimizacion dinamica de procesos distribuidos: ejemplos

181

6.5.2 Control optimo del calentamiento de un cilindro


Este problema es semejante al anterior: el objetivo es calcular la temperatura exterior a la que hay que someter a un cilindro para que alcance una temperatura deseada de Tobj = 100 oC en un tiempo dado tf = 1500 s. En este caso, ademas, los movimientos de la variable de control estan restringidos: Encontrar Text (t) para minimizar:

J P (Text Tobj )2dt (6.42) 0 sujeto a la dinamica del sistema que, en este caso, esta descrita por la ecuacion de conduccion de calor en dos dimensiones, ya que se asume simetr a axial: Tt = kc (Trr + (1=r)Tr + Tzz ) (6.43) donde Z es el vector de diferencias de temperatura con respecto a la deseada (Tobj ) dentro del cilindro, M es una matriz de pesos que cuanti ca la importancia de alcanzar uniformidad frente a los movimientos del control, r y z son las variables radial y axial respectivamente y P es un factor que penaliza la movilidad de la variable de control. Inicialmente todo el cilindro esta a la misma temperatura:
;

= Z(tf )T MZ(tf ) +

Z tf

T (r z 0) = 25:0 La condiciones frontera son de tipo convectivo:


;

(6.44)

Tr (0 z t) = Tz (r 0 t) = 0:0 (6.45) (6.46) Tr (R z t) = h (Text T (R z t)) k Tz (r L t) = h (Text T (r L t)) (6.47) k indicando la condicion de simetr a en el centro y que el calentamiento se produce por en el extremo del cilindro, respectivamente. Los parametros del sistema son: R = 1:75 cm, L = 1:75 cm, k = 6:48 10;3 Wm;1oC ;1 , = 1:067 kg m;3 , c = 3:542 JkgoC ;1 y h = 17:85 10;4 Wm;2o C ;1. Y los valores maximo y m nimo para la temperatura exterior son 25oC y 200oC respectivamente. Debido a la condicion de simetr a, es su ciente desarrollar el modelo en el plano medio del cilindro, tal como se muestra en la gura 6.7 donde se explica la aplicacion del NMOL a la geometr a considerada en este problema. Tanto en la direccion radial como en la axial se ha considerado un nivel de discretizacion de 11 elementos, lo que resulta en un total de N = 121 ODEs.
;

182

Cap tulo 6. Optimizacion dinamica de procesos distribuidos con TNHp

i-1,j+1 2L L i-1,j i-1,j-1 R

i,j+1 i,j i,j-1

i+1,j+1 i+1,j i+1,j-1

2R

Figura 6.7: Aplicacion del metodo NMOL a la simulacion del problema de calentamiento de un cilindro. Los resultados obtenidos se presentan en la tabla 6.3 y el per l de control optimo as como la distribucion de temperatura en el interior del cilindro se presentan en las guras 6.8.

M = 100IN y P = 0:01
5 10 20 40 4:00 3:84 3:78 3:73

104 104 104 104

Tmax 100:532 100:841 100:654 100:640

Tmin ni=nf =ncg Tcpu(s) 99:037 3=4=8 22 98:760 3=4=9 47 98:904 3=4=9 164 98:948 3=4=9 835

Tabla 6.3: Resultados para el problema de control de la temperatura en un cilindro.


200 175 150 125 100 75 50 25 100.8 100.4 100 99.6 99.2 98.8 1.5 100.6 100.4 100.2 100 99.8 99.6 99.4 99.2 99

Control, Text

T(r,z,tf)

500 1000 Tiempo

1500

1 z 0.5

0 0

1 0.5 r

1.5

Figura 6.8: Per l de control y distribucion de temperaturas en el proceso de calentamiento de un cilindro ( = 40, J = 3:73 104).

6.5. Optimizacion dinamica de procesos distribuidos: ejemplos

183

Con el n de evaluar estos resultados, este problema fue resuelto con un metodo de optimizacion estandar basado en el uso de CVP en combinacion con un metodo SQP (gOPT). A modo de ejemplo, en el apendice II se presentan los cheros para la resolucion de este problema con gOPT. Los resultados concuerdan con los obtenidos en este trabajo. El mejor valor objetivo de 3:74 104 se obtuvo con = 20 en 18 iteraciones pero con un tiempo de computacion casi de 2322 s, es decir, unas 15 veces superior al empleado por TNHp.

6.5.3 Difusion a traves de una membrana


La formulacion de este problema se ha tomado del libro de Neittaanmaki y Tiba (1994), en donde se resuelve utilizando las condiciones de optimalidad y un metodo de gradiente. Una membrana M separa dos compartimentos I y II, tal como se muestra en la gura 6.9.
I
0 M

II
1

Figura 6.9: Esquema del proceso de difusion a traves de una membrana.

La membrana consta de una prote na inactiva mezclada con una enzima. A tiempo t = 0 la membrana no contiene ni sustrato ni producto. Por difusion, el sustrato S presente en el compartimento I comienza a penetrar en la membrana, donde la enzima E es un catalizador de una reaccion que produce un cierto producto P.

Este proceso viene descrito por el correspondiente balance de materia y el uso de la ecuacion de Fick:

cs = cs + F (cs) F (cs) = t
con las siguientes condiciones de contorno:

cs 1+cs

(6.48) (6.49)

cs(0 t) =

cs(1 t) =

donde , y son constantes que en este trabajo se jan a un valor 10 y cs es la concentracion de sustrato. Supongase que se dispone de dos activadores a, uno en cada compartimento, que tambien difunden hacia la membrana, de manera que el proceso de difusion del sustrato se ve modi cado en la forma:

cs = cs + F (cs ca) F (cs ca) = t

ca cs 1+ca 1+cs

(6.50)

184

Cap tulo 6. Optimizacion dinamica de procesos distribuidos con TNHp

donde ca viene dada por:

Z tf J = (cs(0:5 t) arctan(30:0t)) dt (6.53) 0 Para ello se utilizan como variables de control las concentraciones de los activadores en los extremos de la membrana (a1 y a2 ), que estan sometidas a los l mites 0 ai 100. Para aproximar la solucion de las PDEs presentes en el problema se ha utilizado una malla de 11 elementos y formulas de segundo orden. Los resultados obtenidos con el metodo TNHp se presentan en la tabla 6.4 y el per l de control optimo y la concentracion nal obtenida aparecen en las guras 6.10. OBJ ni =nf =ncg Tcpu 10 0:94079 10=15=22 38:8 15 0:93660 8=11=17 48:5 25 0:93307 12=15=24 130:0
;

con las condiciones frontera: ca (0 t) = a1 (t) ca(1 t) = a2 (t) (6.52) El objetivo es regular la concentracion de sustrato (cs) en cierto punto ( = 0:5), para hacerla lo mas proxima posible a la deseada zd = arctan(30:0t), en un tiempo de proceso tf = 1:0. Matematicamente:

ca = ca t

(6.51)

Tabla 6.4: Resultados para el problema de difusion a traves de una membrana. Este problema se resolvio con PDECON (Blatt y Schittkowski, 1997) un programa desarrollado recientemente para la resolucion de problemas de control optimo de proceso distribuidos unidimensionales. PDECON hace uso del NMOL para transformar las PDES en ODEs y a continuacion resuelve el problema de optimizacion utilizando el metodo CVP y un optimizador SQP (NLPQL, Schittkowski, 1985 y 1986). Para la solucion de este problema se han considerado dos tipos de aproximaciones para las variables de control: una que usa elementos constantes y otra constituida por 10 elementos lineales. Esta segunda aproximacion proporciono el mejor resultado de J = 0:9432 en 19 iteraciones y 81 s de tiempo de computacion. Este resultado es inferior (tanto en objetivo, como en numero de iteraciones y tiempo de computacion) a los obtenidos en este trabajo utilizando el metodo TNHp. A n de ilustrar el uso de PDECON se presenta en el apendice III la implementacion de este problema.

6.5. Optimizacion dinamica de procesos distribuidos: ejemplos

185

Controles, a1 y a 2

40.0 30.0 20.0 10.0 0.0 0.0 0.2

Activador 1 Activador 2

Concentracin substrato

50.0

10.0 8.0 6.0 4.0 2.0 0.0 0 0.2 0.4 0.6 Tiempo 0.8 1 zd (0.5,t) cs(0.5,t)

0.4 0.6 Tiempo

0.8

1.0

Figura 6.10: Per l de control y distribucion de concentraciones correspondiente en el problema de difusion a traves de una membrana.

6.5.4 Optimizacion de la esterilizacion de conservas de alimentos


Este problema ha sido considerado por multitud de autores durante los ultimos a~os, y en el trabajo de Durance (1997) se hace una revision extensa de los ultimos n avances. En el cap tulo 8 en esta tesis se considerara este proceso con mas detalle, por lo que aqu se presentan brevemente su formulacion matematica y los resultados obtenidos con el metodo TNHp. Banga et al. (1991) consideraron la formulacion y solucion de varios problemas de optimizacion dinamica de procesos termicos con distintas funciones objetivo y restricciones. Aqu se considera la formulacion correspondiente a la maximizacion de la retencion nal de nutrientes, retN (tf ), imponiendo una restriccion en la letalidad microbiologica a tiempo nal, Fs(tf ) y en la temperatura nal en el punto mas caliente. La variable de control utilizada es la temperatura del autoclave, Tret (t). Se considera el caso particular de un recipiente cil ndrico de volumen VT (radio R y altura 2L). Como suced a en el problema de calentamiento de un cilindro, debido a la simetr a es su ciente desarrollar el modelo de transferencia de calor y las cineticas correspondientes a los nutrientes y microorganismos en el plano medio del cilindro. La formulacion matematica es como sigue: Encontrar la temperatura del medio de calentamiento Tret (t) para maximizar:

186

Cap tulo 6. Optimizacion dinamica de procesos distribuidos con TNHp

1 Z VT exp ; ln 10 Z tf exp T (r z t) ; TN ref ln 10 dt dV J=V DN ref 0 ZN ref T 0

! !

(6.54)

sujeto a la dinamica del sistema que viene dada por la ecuacion de transferencia de calor por conduccion:

@T = @ 2 T + 1 @T + @ 2 T @t @r2 r @r @z2 con las condiciones frontera e inicial: T (R z t) = Tret(t) T (r L t) = Tret(t) @T (0 z t) = 0 @r @T (r 0 t) = 0 @z T (r z 0) = T0

(6.55)

(6.56) (6.57) (6.58) (6.59) (6.60)

Como ya se dijo se impondran dos restricciones a tiempo nal, una en la temperatura del punto mas caliente:

T (x y z t = tf ) T0 Fs(tf ) Fs D

r z VT
2

(6.61)

y una segunda en la letalidad asociada con todo el recipiente: (6.62) donde Fs D = 1200s en este caso, y Fs es la media volumetrica de la letalidad microbiologica a tiempo nal:

Z VT Z tf Fs(tf ) = log V1 exp ; ln 10 exp T (r z t) ; TM ref ln 10 dt dV DM ref 0 ZM ref T 0 (6.63) Estas expresiones derivan de asumir cineticas de pseudo-primer orden para la degradacion termica tanto de los nutrientes como de los microorganismos:
dCM (t) = ( ln 10 )C (t) exp( T (r z t) TM ref ) dt DM ref M zM ref
; ;

"

! ! #

(6.64)

6.5. Optimizacion dinamica de procesos distribuidos: ejemplos

187

dCN (t) = ( ln 10 )C (t) exp( T (r z t) TN ref ) dt DN ref N zN ref La temperatura del autoclave esta sometida a los l mites:
; ;

(6.65)

20:0 Tret

140:0oC

(6.66)

Con el n de resolver este problema se ha utilizado el metodo NMOL con una malla de 11 11 elementos y formulas de segundo orden. El problema resultante consta de 363 ODEs. Los resultados obtenidos para un per l de control u0 = 123 o C , se presentan en la tabla 6.5.

ni =nf =ncg J Tcpu 7 26=32=64 0:4678 849 14 26=31=79 0:4713 2568


Tabla 6.5: Resultados obtenidos para el problema de esterilizacion con el metodo TNHp. Los resultados concuerdan con los presentados en el trabajo de Banga et al. (1991) donde tambien se resuelve este problema alcanzando valores de retencion de un 47%. Con el n de ofrecer una comparacion con un metodo estandar actual de optimizacion, se ha considerado la solucion de este problema con gOPT. En primer lugar, se ha considerado un nivel de discretizacion = 7, y un per l inicial de control plano u0 = 123. Sin embargo, el metodo presenta problemas de convergencia sin alcanzar ninguna solucion aceptable despues de 32 iteraciones. Aumentando el nivel de discretizacion = 10 y con per l de control inicial u0 = 123, se alcanza un mejor valor J = 0:4785 en un tiempo de calculo de 7679 s. Por ultimo, se ha considerado un per l inicial mas proximo al optimo (v0 = 123 para los 7 primeros elementos y v0 = 22 para los 3 ultimos), y se alcanza un mejor valor de J = 0:4801 en 2338 s de tiempo de computacion (la implementacion de este ultimo caso se incluye en el apendice IV). El per l de control optimo correspondiente al mejor objetivo obtenido con TNHp se presenta en la gura 6.11, siendo analogo al de Banga et al. (1991). Asimismo, en las guras 6.12 y 6.13, se representan la distribucion de temperatura y de la retencion de nutrientes a tiempo nal, correspondientes a ese per l de calentamiento.

188

Cap tulo 6. Optimizacion dinamica de procesos distribuidos con TNHp

140 120 Control, Tret 100 80 60 40 20 0 1000 2000 3000 4000 5000 6000 7000 8000 Tiempo, s

Figura 6.11: Per l de control optimo para el problema de esterilizacion obtenido con TNHp, = 14, J = 0:4713.

T =71.11 o C max 70 T (o C) 60 50 40 30 20 0 0 0.02 0.04 z CN 0.6 0.5 0.4 0.3 0.2 0.1 0 0.01 0.02 0.03 r 0.04 0.06 0.01 0.02 r 0.03 0.04 z 0.02 0 0.04 0.06

Figura 6.12: Distribucion de temperaturas a tiempo nal para el problema de esterilizacion.

Figura 6.13: Distribucion de retencion de nutrientes a tiempo nal para el problema de esterilizacion.

6.6. Conclusiones

189

6.6 Conclusiones
En este cap tulo se ha presentado la solucion de un conjunto de problemas de optimizacion dinamica de procesos distribuidos aplicando el metodo TNHp. Como se ha visto, el uso de un metodo adecuado de resolucion del IVP interno aumenta la e ciencia del metodo TNHp alcanzando muy buenas soluciones en tiempos de computacion razonables. Comparado con otros metodos de optimizacion que tambien hacen uso del metodo NMOL y un esquema CVP, TNHp alcanza, cuando menos, tan buenos resultados en terminos de valor objetivo, pero siendo superior en terminos de e ciencia (hasta 10 veces mas rapido que gOPT en la solucion del problema de calentamiento uniforme de una barra y 2 veces mas rapido que PDECON en la solucion del problema de difusion a traves de una membrana). Ademas, el uso de informacion de segundo orden bene cia al proceso de optimizacion, evitando la convergencia a soluciones suboptimas y generando per les de control mas suaves que los obtenidos con otros metodos. Sin embargo, a medida que el numero de ecuaciones aumenta, bien porque la no linealidad del modelo aumenta, bien porque aumenta la dimension del dominio de de nicion del problema, o porque aumenta el numero de variables de control, la e ciencia se reduce debido al coste que supone calcular las sensibilidades. Esto es especialmente notable en el problema de esterilizacion en el que los tiempos de computacion resultantes impiden el uso de este metodo para aplicaciones en tiempo real tales como optimizacion en l nea o bien control predictivo basado en modelo. Esto llevara a la busqueda de metodos alternativos para la simulacion del proceso distribuido, como los basados en el uso de modelos de orden reducido, tal como se discutira en el cap tulo 8.

190

Cap tulo 6. Optimizacion dinamica de procesos distribuidos con TNHp

Cap tulo 7 Control optimo de hornos microondas-conveccion

El trabajo descrito en este cap tulo fue parte de una de las tareas del proyecto europeo \FAIR Project CT96-1192: Optimal control of microwave combination ovens for food heating", cuyo objetivo fue la mejora de la operacion de hornos mixtos microondas-conveccion, con el n de maximizar la uniformidad de la temperatura en el seno del alimento, minimizando as , las perdidas de calidad debidas a posibles calentamientos excesivos. Para comenzar, se presentan unas nociones basicas sobre el proceso de calentamiento por microondas, y se resaltan las motivaciones de la combinacion de estos dos modos de calentamiento. La resolucion del problema de optimizacion dinamica requiere un modelo que describa lo mas elmente posible el proceso. Se presentan los modelos desarrollados en el proyecto, as como las tecnicas numericas adecuadas para su simulacion. El desarrollo de un controlador robusto acompa~ado de un adecuado montaje experin mental permitieron la validacion experimental de los resultados obtenidos fuera de l nea (o -line) mediante optimizacion dinamica. Por ultimo, se plantean los problemas de optimizacion dinamica considerados y se presentan resultados, con sus correspondientes validaciones experimentales. 191

192

Cap tulo 7. Control optimo de hornos microondas-conveccion

7.1 Introduccion
Los hornos microondas son aquellos que, alimentados mediante energ a electrica, producen ondas electromagneticas de una determinada frecuencia (microondas) siendo su principal nalidad la de calentar y/o procesar alimentos. Dentro del espectro de frecuencias, las microondas se situan entre la radiofrecuencia y el infrarrojo, es decir, su frecuencia estara comprendida entre unos cientos y unos miles de MHz, o lo que es lo mismo, su longitud de onda esta comprendida entre unos pocos mil metros y varios cent metros.
Longitud de onda 10
-14

10

-12

10

-10

10

-8

10

-6

10

-4

10

-2

10

10

Rayos Rayos Rayos Ultravioleta Visible Infrarrojo Microondas csmicos gamma X 10


22

Radio

10

20

10

18

10

16

10 10 Frecuencia

14

12

10

10

10

10

Figura 7.1: Espectro electromagnetico. La frecuencia t pica generada por los hornos microondas es de alrededor de 2:45 GHz, jado legalmente debido a la necesidad de no interferir con los valores utilizados por el ramo de las comunicaciones. Si se introduce un alimento dentro de un horno de estas caracter sticas, el campo electromagnetico in uye sobre las cargas electricas (habitualmente ligadas) del alimento, de manera que las del mismo signo se repeleran y las de signo distinto se atraeran. Esto produce un movimiento oscilatorio entre moleculas, y en consecuencia, un calentamiento. Sin embargo, para que esto se produzca las moleculas han de tener una con guracion dipolar, es decir, deberan tener carga positiva a un lado y negativa al otro. Las moleculas de agua cumplen este requisito, y puesto que es el constituyente fundamental de los alimentos, presente en hasta un 90%, el calentamiento con microondas se produce en todo el volumen (aunque no de forma homogenea, sobre todo para solidos grandes) y de manera muy rapida. Por otro lado, dado que las microondas son re ejadas por las super cies metalicas, y la cavidad donde se situa el alimento es metalica, practicamente toda la energ a se invierte en calentar el alimento, lo que acelera todav a mas el proceso. Ademas, los recipientes de los alimentos, fabricados con materiales adecuados (plasticos, cristal, etc)

7.1. Introduccion

193

son transparentes a las microondas y por lo tanto solo se calentaran por conduccion debido al aumento de temperatura que experimentan los alimentos.

Esquema de un horno microondas


Tal como se presenta en el esquema 7.2, un horno microondas esta constituido fundamentalmente por una fuente de alimentacion, un magnetron generador de las microondas, una antena, una gu a de ondas, un agitador de ondas (que a veces se sustituye por dos gu as de onda de acceso a la cavidad del horno) y una cavidad donde se situa el alimento.
Magnetrn Corriente alterna
Filamento

Transformador Rectificador ...

Agitador Gua de ondas V Corriente Continua


Imn

Control y Temporizador

Cavidad metlica

Figura 7.2: Esquema basico de un horno microondas. El magnetron esta formado por un tubo de vac o cil ndrico, recorrido por un lamento que actua como catodo. Rodeando al lamento se encuentra el anodo constituido por una serie aspas y dos lamentos de ferrita (iman) que rodean el conjunto. Cuando se aplica tension al lamento metalico, este se calienta y emite electrones que se ven atra dos por el anodo. Las trayectorias de los electrones, que en condiciones normales ser an en l nea recta en direccion al anodo, se ven modi cadas por la presencia del campo magnetico que crea el iman y que debe estar bien ajustado para que los electrones sigan la trayectoria deseada. Los electrones inducen cargas positivas en las aspas y si todo funciona adecuadamente la carga de las aspas cambiara de positiva a negativa 2.45 millones de veces por segundo produciendo as las microondas que, a traves de una antena conectada a una de las aspas, se introducen en una gu a de ondas que las dirige a la cavidad del horno. La gu a de ondas consiste en un conducto de seccion habitualmente rectangular que, con las dimensiones adecuadas, permite la propagacion de las ondas de una determinada frecuencia sin demasiadas perdidas.

194

Cap tulo 7. Control optimo de hornos microondas-conveccion

La cavidad del horno es simplemente una caja metalica donde se coloca el alimento. Al entrar las microondas en la cavidad, son agitadas por una especie de ventilador que hace que se dirijan a todas las direcciones (hoy en d a es habitual conducir las ondas por dos gu as de onda e introducirlas en la cavidad por dos puntos diferentes de manera que se hacen interferir obteniendo el mismo efecto que si hubiese un agitador pero evitando el componente mecanico), re ejandose una y otra vez sobre las paredes metalicas hasta que son absorbidas por el alimento. Notese que, tras un breve transitorio, la distribucion de las ondas dentro del horno sera estacionaria, y viene dada por los modos de resonancia para esa cavidad. Por ello, hay regiones de campo alto y otras de campo nulo, tal como se muestra en la gura 7.3.

Figura 7.3: Ejemplo de distribucion de potencia en el interior del horno (plano vertical). La mayor a de los hornos disponen ademas de un soporte o plato giratorio que hace que el alimento aproveche mejor la distribucion no homogenea de las microondas. Para evitar el calentamiento excesivo del magnetron, el horno dispone de un ventilador que lo refrigera con aire externo. En el caso de un horno mixto como el utilizado en este trabajo, se dispone ademas de una resistencia adicional y otro ventilador que produce el movimiento del aire calentado por la resistencia en el interior del horno, provocando as la conveccion (forzada) que tambien contribuye al calentamiento del alimento. Tanto el proceso de calentamiento con microondas como el funcionamiento de un horno microondas t pico se describen con detalle en los libros de Decaerau (1985) y Bu er (1993).

7.2. Problemas del calentamiento con microondas

195

7.2 Problemas del calentamiento con microondas


La capacidad de los hornos microondas para calentar y preparar alimentos de manera muy rapida ha hecho que su utilizacion haya crecido de forma importante a partir de los a~os 70 (Decareau, 1985), resultando ser una buena alternativa a hornos n convencionales basados en radiacion y/o conveccion. Sin embargo, todav a en la actualidad presentan varios problemas, tales como la presencia de puntos calientes y fr os dentro de los alimentos, y el calentamiento excesivo de esquinas y bordes. Estos efectos dependen de la geometr a del alimento. As , es especialmente notable el calentamiento del centro en las geometr as cil ndricas y esfericas por el efecto de focalizacion de las ondas, o la presencia acusada de puntos calientes y fr os en paralelep pedos. Estos efectos se observan en las guras 7.4 donde se representan los contornos de temperatura reales (fotograf as infrarrojas) para un cilindro y un paralelep pedo, respectivamente.
35 Direccin axial (-L,L) 30 25 20 15 30 10 5 5 80 70 60 50 40 30 20 10 10 20 30 40 50 60 70 80 90 100 110 120 x z 10 15 20 25 30 35 Direccin radial (-R,R) 75 70 65 60 55 50 45 40 35 30 25 25 35 45 40

Figura 7.4: Distribucion real de temperaturas en los planos medios de un cilindro y un paralelep pedo: calentamiento solo con microondas.

196

Cap tulo 7. Control optimo de hornos microondas-conveccion

En el calentamiento por conveccion, en cambio, los efectos obtenidos son muy diferentes, produciendose un calentamiento muy acusado en el exterior del alimento, mientras el interior permanece fr o, tal y como se muestra en las guras 7.5.
35 Direccin axial (-L,L) 30 25 20 15 10 5 5 70 60 50 z 40 30 20 10 10 20 30 40 50 60 70 80 90 100 110 120 x 10 15 20 25 30 Direccin radial (-R,R) 35 70 65 60 55 50 45 40 35 30 25 30 25 45 40 35

Figura 7.5: Distribucion real de temperaturas en los planos medios de un cilindro y un paralelep pedo: calentamiento solo por conveccion forzada. Todos estos efectos son muy importantes para la seguridad del consumidor, ya que muchos microorganismos patogenos pueden sobrevivir en las zonas fr as, si no se alcanza una temperatura m nima. Asimismo, el calentamiento excesivo de los bordes del alimento puede causar deshidratacion y perdida del color que hace que el alimento sea menos atractivo para el consumo. Es por ello que muchos fabricantes proponen el uso de aparatos que combinan el calentamiento con microondas con el convencional (habitualmente, por conveccion forzada). Estos hornos mixtos (microondas-conveccion) intentan paliar los problemas que presentan los hornos microondas tradicionales, al tiempo que mantienen sus ventajas. Sin embargo, esta combinacion de modos de calentamiento complica

7.3. Modelo matematico del proceso

197

el modo de operacion de los hornos. En las ultimas decadas se han dedicado muchos esfuerzos a la resolucion de problemas de optimizacion del procesamiento termico de alimentos, de manera que se veri quen ciertos requerimientos de seguridad y calidad (por ejemplo, Banga et al., 1991). Estos trabajos han demostrado la posibilidad de mejorar los procesos tanto en terminos de reduccion de su duracion como del aumento de la calidad de producto tratado. De la misma manera, el uso de tecnicas de optimizacion y control adecuadas podr an mejorar la operacion de los hornos mixtos de manera signi cativa. Sin embargo, la complejidad de los modelos matematicos que describen el proceso han limitado la aplicacion de metodos de optimizacion. Como se ha dicho, el desarrollo de este trabajo se ha enmarcado en el proyecto \FAIR Project CT96-1192: Optimal control of microwave combination ovens for food heating", cuyo objetivo fue la mejora de la operacion de hornos mixtos. Aqu se resumiran los resultados obtenidos haciendo especial hincapie en la solucion de problemas de optimizacion dinamica con el metodo TNHp y HyMDO. Asimismo se describira el uso de metodos estocasticos para la optimizacion de un modelo riguroso con discontinuidades en los estados, caracter stica que di culta el uso de metodos de optimizacion deterministas.

7.3 Modelo matematico del proceso


La idea de combinar los fenomenos de conveccion y microondas surge de la necesidad de evitar, en lo posible, los efectos no deseados de calentar solo con microondas o solo con conveccion. Sin embargo el desarrollo de un modelo riguroso que describa el proceso es complicado. En general, el calentamiento del alimento, puede describirse mediante la ecuacion de conduccion de calor con un termino de generacion debido a la presencia de microondas: (T )c(T )Tt = r(k(T )rT ) + Q( t) siendo la temperatura inicial del solido: (7.1) (7.2)

T ( 0) = T0 ( )

Se asume que las perdidas por evaporacion son peque~as. Si no, habr a que tener en n cuenta las ecuaciones de transporte de materia (difusion de agua). En la frontera se produce el fenomeno de conveccion que vendra dado por las siguientes condiciones: @T = h(T ; T ) en ;k (7.3) horno @n

198

Cap tulo 7. Control optimo de hornos microondas-conveccion

En estas expresiones es la densidad expresada en (kg m;3 ), C es la capacidad calor ca en (J kg;1 ), k es la conductividad termica (W m;1), Q es la distribucion de potencia (W m;3) y T es la temperatura en oC . La funcion Q es el termino de generacion debido al calentamiento por microondas y en general vendra dada por la expresion:

Q( t) = P (t)Q0( ) (7.4) donde Q0 es la distribucion de potencia electromagnetica en el interior del producto a un nivel de potencia del 100% y P (t) es el nivel de potencia aplicado (entre un 0 y un 100%), y constituira una variable de control del proceso. El calculo del termino de generacion Q0 requiere el calculo de la distribucion de campo en el interior del alimento. Debido a la complejidad que esto supone, se han desarrollado modelos (de complejidad media) que, aunque aproximados, permiten calcular de manera sencilla la distribucion de temperaturas en el interior del alimento. Por otra parte, los modelos mas rigurosos resultan de la resolucion de las ecuaciones de Maxwell y el calculo de la magnitud del vector de Poynting. En este trabajo, se consideraran los dos tipos de modelos. El primero, de complejidad media, se utilizara para la descripcion del proceso de calentamiento de alimentos cuya geometr a es cil ndrica. La solucion de las ecuaciones de Maxwell permitira el estudio de geometr as mas generales, tales como un paralelep fpedo o un paralelep pedo de aristas y esquinas redondeadas.

7.3.1 Modelos de complejidad media


Para el estudio del calentamiento de alimentos con microondas sera necesario resolver numericamente las ecuaciones de Maxwell en tres dimensiones. Debido a la complejidad y coste computacional que esto supone, se han presentado en la bibliograf a diversos modelos que a partir de algunas simpli caciones, describen el proceso de calentamiento por microondas para ciertas geometr as (Chen et al., 1993 Lin et al., 1995 Van Remmen, 1996 entre otros). Aqu se considera el modelo propuesto por Chen et al. (1993), para la descripcion del calentamiento mixto de un cilindro. Debido a condiciones de simetr a, la distribucion de temperatura vendra dada por la ecuacion de Fourier en dos dimensiones (radial, r y axial, z): Tt = kc (Trr + (1=r)Tr + Tzz ) + Q (7.5) donde se asume que la conductividad es constante y el termino Q corresponde, como ya se dijo, a la generacion de calor en presencia de microondas. Este modelo

7.3. Modelo matematico del proceso

199

se basa en la aplicacion de la \ley" de Lambert (Ohlsson et al., 1971) para calcular el termino de generacion debido a las microondas. Esta \ley" a rma que la potencia transmitida en una direccion ( ) en el seno del alimento decae exponencialmente a medida que penetra en el dependiendo de un factor de atenuacion ( ):

p = p0e(;2

(7.6)

Notese que la aproximacion de Lambert solo es valida para laminas semi-in nitas pero Chen et al. introdujeron una serie de parametros heur sticos que permiten predecir el calentamiento de cilindros de forma adecuada. Las condiciones frontera impuestas en este modelo consideran tanto perdidas por conveccion como perdidas por evaporacion (Ev ):

kTr (R z t) = h(Thorno T (R z t)) Ev kTz (r L t) = h(Thorno T (r L t))


; ; ;

(7.7) (7.8)

Debido a la geometr a, las caracter sticas del alimento y las condiciones de calentamiento, se imponen ademas dos condiciones de simetr a:

Tr (0 z t) = 0 Tz (r 0 t) = 0

(7.9)

Las perdidas por evaporacion se calcularon utilizando el correspondiente balance de materia y la ecuacion de Clausius-Clapeyron:

Ev = ky Vp(T ) Pp] Hv (T ) ky = Vp(Tm;Pp Ev = m(p1 p2T ) ) Hv (T ) = p1 p2 T El termino de generacion vendra dado por: h i Q0r = 2 (T ) R P000r e(;2 (T )(R;r)) r h i Q0z = 2 (T )P000z e(;2 (T )(0:5L;r)) Q0 = Q0r + Q0z
; 4 ) ; 4 ;

(7.10) (7.11) (7.12) (7.13)

0r z donde: P000r = 2PRL y P000z = 2P0R2 . Notese que para evitar la singularidad en r = 0, el valor de la variable radial debe veri car r > ", donde " es una cantidad in nitesimal. El factor de atenuacion vendra dado por la expresion general:

dependiendo de las propiedades dielectricas del alimento y la longitud de onda incidente.

v hq i u t 2 u 0 1 + ( 00 = 0)2 1 = 2
;

(7.14)

200

Cap tulo 7. Control optimo de hornos microondas-conveccion

7.3.2 Modelos rigurosos: ecuaciones de Maxwell


Las ecuaciones de Maxwell resumen todo el conocimiento acerca de los campos electromagneticos. Aqu se presenta su formulacion mas general en su forma diferencial: 1 ( ; rP) _ r E = (7.15) f
r r r

# @E + @P M + 0 @t @t (7.18) donde los vectores E y B representan los campos electrico y magnetico, respectivamente y los vectores P y M, representan la polarizacion y magnetizacion, y los coe cientes 0 y 0 son las permitividades electrica y magnetica del medio, respectivamente. La ec. (7.15) resume la Ley de Coulomb de la fuerza entre dos cargas puntuales ( f , es la densidad de cargas libres) mas los efectos electricos de la materia _ debido a la presencia de un campo eletrico ( P, es la densidad de carga ligada en materiales dielectricos). La ec. (7.17) representa la Ley de Faraday de la induccion debido a la presencia de un campo magnetico no estacionario. La ec. (7.18) representa el hecho de que no existen monopolos magneticos o de otra forma, cargas magneticas libres. Por ultimo la ec. (7.18) incluye la Ley de Ampere que describe la fuerza entre corrientes electricas y los efectos magneticos de la materia. La energ a para estos campos generales descritos por las ecuaciones de Maxwell se puede calcular a partir del llamado vector de Poynting, que se de ne:
r r

B E = @@t B=0 " B = 0 Jf +


;

(7.16) (7.17)

S=E H

(7.19)

y que representa la rapidez con la que uye la energ a electromagnetica por unidad de super cie. Se trata de un ujo de potencia y su direccion es la misma que la del ujo instantaneo de energ a. Por lo tanto, sera muy util a la hora de resolver las ecuaciones de Maxwell. El calculo detallado del vector de Poynting esta descrito en numerosos libros, por ejemplo, Reitz et al. (1986) o Wangsness (1992). En el supuesto de que los campos incidentes sobre un cierto material dielectrico (por ejemplo, un alimento) var en de forma sinusoidal con el tiempo (e;iwt), caso de las microondas, es posible obtener una expresion para el promedio temporal del vector de Poynting lo que lleva a una expresion para la densidad de energ a: 1 (7.20) p = 2 jE j2 que es la que se invierte en calentar tal material dielectrico.

7.4. Simulacion del proceso

201

7.4 Simulacion del proceso


Para geometr as generales y el modelo riguroso, la simulacion del proceso requiere en primer lugar la resolucion numerica de las ecuaciones de Maxwell y a continuacion la resolucion de la ecuacion de conduccion de calor con el correspondiente termino de generacion, asumiendo desacoplamiento entre ambas. Notese que en la realidad perdidas signi cativas de agua en el alimento pueden modi car la distribucion de campo.

7.4.1 Resolucion numerica de las ecuaciones de Maxwell


En este trabajo se ha utilizado el metodo FD-TD ( nite-di erence time-domain) que permite calcular la distribucion de campo en el interior de la cavidad del horno y el alimento. Los calculos para las distintas cargas que se utilizaron en las validaciones experimentales fueron realizados por el equipo sueco del SIK (Wappling-Raaholt y Ohlsson, 1999 ). El metodo FD-TD fue desarrollado por Yee (1966) y esta descrito en multitud de trabajos (por ejemplo en, Kunz and Luebbers, 1993, o en una extensa revision realizada por Shalger y Schneider, 1995). El metodo resuelve las ecuaciones de Maxwell discretizadas, tanto en el espacio como en el tiempo. Para ello genera dos mallas espaciales, una para el campo electrico y otra para el campo magnetico, de manera que la cavidad del horno y el alimento quedan divididos en un conjunto de elementos de volumen (celdas). Asimismo genera dos mallas temporales. Las mallas para los dos campos se solapan pero no coinciden. La correspondiente al campo magnetico va, en cierta manera, retrasada, tanto en el espacio como en el tiempo, con respecto a la correspondiente al campo electrico. De esta manera, y dado que las ecuaciones de Maxwell para los campos estan acopladas, es posible calcular un valor de campo utilizando valores del \pasado". El codigo utilizado en el proyecto FAIR CT96-1192 fue una modi cacion del FD-TD original. Para obtener los datos necesarios en la ecuacion de conduccion se simula el proceso de interaccion de las microondas con el alimento, hasta que se alcanza un estado estacionario, en el que las ondas dominantes dentro de la cavidad son estacionarias. En este momento es posible calcular la amplitud de campo electrico en cada celda (DePourcq, 1985), y por lo tanto, la potencia disipada por cada celda, utilizando la expresion: 1 (7.21) p = 2 0 00 jE j2 donde 0 es la permitividad del vac o, 00 es el factor de perdidas, y jE j es la amplitud

202

Cap tulo 7. Control optimo de hornos microondas-conveccion

del campo electrico. Las simulaciones demuestran la presencia de ondas estacionarias en la cavidad. Esto signi ca que la energ a del campo se distribuira, esencialmente, en los maximos de tales ondas, y esto es lo que produce los puntos fr os y calientes dentro del alimento. Notese ademas que el alimento actua de hecho como una segunda cavidad de resonancia, dentro de la del horno.

7.4.2 Resolucion numerica de la ecuacion de conduccion de calor


Dado que la solucion anal tica de la ecuacion (7.1) con las condiciones frontera (7.3) es imposible para la mayor a de las situaciones, se utilizaran tecnicas numericas adecuadas. El metodo de elementos nitos ha demostrado ser una herramienta muy poderosa para la resolucion de problemas complicados en los que el dominio de de nicion presenta una geometr a generica (Haghighi y Segerlind, 1988 Oliveira et al., 1992). Como se dijo en el cap tulo 1, el metodo de elementos nitos, discretiza el dominio de de nicion del proceso en un numero de elementos de distintas formas y tama~os y aproxima el valor de la variable distribuida en un nodo dado en terminos n de los valores en nodos vecinos. Aplicando el metodo de elementos nitos al sistema de ecuaciones (7.1) se obtiene el siguiente sistema de ODEs (Scheerlink y Nicola , 1999) de dimension , siendo el numero de nodos en la malla de elementos nitos:

CUt + KU = f

(7.22)

donde U es el vector que contiene la temperatura en cada nodo, C es la matriz de elementos nitos que incluye la densidad y la capacidad calor ca c, y K se puede ver como la suma de dos matrices Km y Kh. La primera incluye la conductividad termica (k) y representa la resistencia a la transferencia de calor por conduccion y la segunda incluye el coe ciente de transferencia de calor (h) y representa la resistencia a la transferencia de calor en la super cie. Por ultimo, f es el vector que incluye las contribuciones debidas a la conveccion en la frontera (fh) y las debidas a la presencia de microondas, calculadas con el metodo FD-TD (fq ). Con el n de resolver este sistema de manera e ciente, las matrices C, Km, Kh y los vectores fh y fq se construyen reuniendo las contribuciones de cada nodo e incorporandolas en matrices o vectores de dimensiones y 1 respectivamente. Las contribuciones de cada elemento (j ) se calculan en la forma:

Cj =

!j

(T )c(T )Nj NjT d

(7.23)

7.5. Problema de optimizacion dinamica

203 (7.24) (7.25) (7.26) (7.27)

# @ Nj + @ Nj + @ Nj d = k(T ) @x @y @z Z !j Kjh = ; hq Nj NjT d; Z j j f h = ; hq ThornoNjT d; Zj j f q = Q0(x y z t)Nj d

Kjm

"

donde es el dominio de de nicion del proceso, j es el dominio de de nicion de cada elemento, ; es la frontera del dominio de de nicion total y ;j es la frontera del dominio de de nicion de cada elemento. Toda esta metodolog a se ha implementado en Fortran dando lugar a CHAMPSPACK (Coupled Heat and Mass Transfer Simulation Package, Scheerlink y Nicolai, 1999), herramienta que permite simular procesos de transferencia de calor de interes en este trabajo, de manera muy e ciente. En este codigo se contempla la resolucion del sistema de ODEs (7.22) teniendo en cuenta el caracter disperso de las matrices C, K y el vector f . Para ello se ha realizado una implementacion usando LSODES (Hindmarsh, 1983). Todos los detalles referentes al desarrollo y solucion numerica de los modelos que describen en el proceso se encuentran en los informes realizados a lo largo del desarrollo del proyecto (modelo de microondas: Wappling-Raaholt y Ohlsson, 1999) desarrollo y simulacion del modelo combinado: Nicola et al., 1999).

7.5.1 Formulacion general

7.5 Problema de optimizacion dinamica

El problema de optimizacion dinamica consiste en el calculo de las pol ticas optimas de operacion de la temperatura dentro del horno (Thorno(t)) y la potencia (P (t)) de microondas con el n de alcanzar un objetivo determinado:
F

1 : Maximizar la uniformidad de la temperatura dentro del alimento en un tiempo de proceso dado tf :

J = Z(tf )T Z(tf )

(7.28)

donde Z es el vector de diferencias de temperatura con respecto a la deseada (Tobj ) dentro del alimento. Todo ello sujeto a la dinamica del proceso (ecs. (7.1)-(7.3)) y a una restriccion en el m nimo de temperatura dentro del alimento: obj min T ( t)] Tmin (7.29)

204
F

Cap tulo 7. Control optimo de hornos microondas-conveccion

2 : Maximizar la uniformidad de la calidad del producto nal, estimada en terminos de los llamados C-values (Ohlsson, 1988), que constituyen una medida de lo procesado que esta el alimento:

J = max(CZref ( t))

(7.30)

sujeto a la dinamica del proceso y a una restriccion en el valor m nimo a alcanzar: obj min CZref ( t)] Crefmin (7.31) y otra en el valor de temperatura maximo:
obj max T ( t)] Tmax

(7.32)

donde CZref viene dada por la expresion:

CZref =

Z tf

t=0

10

(T ;Tref )

Zref

dt

(7.33)

con Zref el incremento de temperatura necesario para aumentar la velocidad de aumento de C 10 veces. Para la resolucion de los problemas de optimizacion dinamica se utilizaran varios de los metodos vistos a lo largo de esta tesis, en particular, HyMDO, TNHp e ICRS/DS.

7.5.2 Resolucion con TNHp


Para los problemas bajo estudio se supondra que las propiedades termof sicas del alimentos son constantes, y en ese caso el sistema de ecuaciones (7.22) resulta: (7.34) z = 1 ;Kz + H T (t)F + Q P (t)] _ donde aparecen expl citamente las variables de control Thorno y P (t). El modelo resultante es lineal y, por lo tanto, para utilizar TNHp en la resolucion de problemas del tipo F 1, se requiere unicamente el calculo de las sensibilidades de primer orden con respecto a las dos variables de control Thorno y P , que resultan en el siguiente conjunto de ecuaciones: _ s = 1 ;Ks +H F ] (7.35)
1 Thorno

q horno

1 _ s1 P = C Ks1 P + Fq ]
;

1 Thorno

(7.36)

7.5. Problema de optimizacion dinamica

205

En el problema F 2 se requiere el calculo de los valores de CZref en cada nodo, sera necesario el calculo de las sensibilidades de segundo orden proyectadas. En ese caso el sistema IVP extendido incluira las ecuaciones (7.34-7.36) ademas de las que siguen:

zc = 10(z;Tref )=Zref _ sc i = log(10) 10(z;Tref )=Zref sc i _ Z


1

" # log(10) 10(z;Tref )=Zref log(10) s X s p + s sc2i = Z _ Zref c1i k c1k k c2i ref

ref

(7.37) (7.38) (7.39)

que corresponden al calculo de los C-values, y de las correspondientes sensibilidades de primer orden y segundo orden proyectadas. Notese que en este caso tambien es posible aprovechar la estructura del Jacobiano total para una simulacion mas e ciente, tal y como se explico en el cap tulo 6. Con tal n se han realizado los cambios convenientes en CHAMPSPAK para la generacion de los vectores de dispersion y el Jacobiano total a partir de los datos correspondientes al Jacobiano del sistema de ODEs original.

7.5.3 Problemas considerados


Se consideraron los siguientes casos particulares:
P

7:1: considera el proceso de calentamiento de un cilindro de patata para maximizar la uniformidad de la calidad del producto nal (problema tipo F 2).

En el resto de los problemas que se consideraran el objetivo sera maximizar la uniformidad en temperatura (problema tipo F 1), a un tiempo nal dado:
P

7:2: considera el proceso de calentamiento optimo de un cilindro de patata.

7:3: considera el calentamiento optimo de un cilindro de un gel TX-151, representativo de diversos tipos de alimentos.
P

7:4: considera el calentamiento optimo de un paralelep pedo de gel TX-151, usando un modelo lineal. 7:5: considera el calentamiento optimo de un paralelep pedo, usando un modelo no lineal.

206

Cap tulo 7. Control optimo de hornos microondas-conveccion

7.6 Desarrollo de un controlador robusto


Con el n de implementar en la practica los per les de control obtenidos numericamente es necesario dise~ar un sistema de control que actue de manera conveniente n ante las posibles perturbaciones externas, que podr an afectar a la uniformidad en la temperatura nal y por lo tanto, en la calidad del producto. El dise~o y ajuste del controlador depende, ademas, del grado de conocimiento n del proceso. Para ello sera necesario tomar medidas frecuentes, del mayor numero de variables del sistema y en el menor tiempo posible. Idealmente, la temperatura interna del alimento deber a aportar la informacion necesaria acerca de la potencia emitida por el magnetron. Notese que no toda la potencia emitida por el magnetron es absorbida por el alimento, sobre todo para cargas inferiores a 1 Kg. Sin embargo, la medidas en el interior del alimento son dif ciles, lo que limita al uso de la temperatura del horno, que s es facilmente medible, como fuente de informacion para controlar el proceso, mientras que el efecto de la potencia de microondas se considera una perturbacion. A lo largo del desarrollo del proyecto se han ido proponiendo nuevas alternativas de control, hasta llegar, nalmente a la con guracion actual que corresponde a un controlador adaptativo AIMC (adaptive interior model control) (Alonso y Sanchez, 1999 Sanchez et al., 2000). Para ello se ha supuesto un modelo lineal del proceso cuyos parametros se adaptan de manera recursiva a traves de la recopilacion de datos durante el proceso (identi cacion).

Montaje experimental
Los experimentos se realizaron en un horno mixto microondas-conveccion modi cado convenientemente para la validacion de los resultados (Saa et al., 1998) e instalado en el IIm-CSIC. La temperatura del horno se mide con un termistor (PT-312) y se controla mediante un controlador de potencia del dispositivo de conveccion forzada (OMRON G3PX 220 EHN-CT 10). La temperatura en la super cie del alimento se mide mediante el uso de sensores infrarrojo. La potencia de microondas se controla por un rele de estado solido (OMRON G3PX-220 BVD). El algoritmo de control se desarrollo en Matlab con una herramienta de adquisicion y control (Humosoft Real Time Toolbox 2.60) y ejecutado en un PC que dispone de una tarjeta de adquisicion de datos (PCL-818L DAQ card, Advantech). Asimismo se desarrollo una herramienta software en Matlab 4.2c que complementa al controlador, permitiendo la visualizacion del proceso. En la gura 7.6 se muestra una pantalla ejemplo en la que se muestra el comportamiento real de las variables de control, veri cando el ajuste a los per les de control calculados numericamente.

7.7. Validaciones experimentales

207

Figura 7.6: Pantalla t pica mostrando la temperatura dentro del horno, la potencia del microondas y la potencia de la conveccion forzada.

7.7 Validaciones experimentales


El montaje experimental y el software de control descritos permitieron la validacion experimental de los per les de control optimo obtenidos considerando varias cargas (sistemas modelo). Para ello se dispuso ademas de: Un gel TX-151 cuyos parametros termo-electricos se asemejan bastante a los de los alimentos (Risman, 1993). Este gel se fabrica de manera muy sencilla a partir del polietileno de baja densidad, pol mero TX-151 y agua desionizada. Dos tipos de recipientes uno cil ndrico de cristal (Pyrex) de dimensiones 2R = L = 5 cm y un paralelep pedo de esquinas redondeadas de plastico resistente a las microondas cuyas dimensiones son 196 mm de ancho, 104 mm de profundidad y 30 mm de altura. Una camara de infrarrojos Thermovision que permite capturar los per les de temperatura al nal del proceso de calentamiento. Con el n de explicar las tomas de fotograf a de IR, se representan a continuacion ( gura 7.7) los tipos de recipientes considerados y su posicion dentro del horno. Asimismo se se~alan los planos medios que se consideraron a la hora de representar n distribuciones de temperatura tanto simuladas como experimentales.

208

Cap tulo 7. Control optimo de hornos microondas-conveccion

z Plano medio

z Plano medio

Origen de coordenadas

Origen de coordenadas

Figura 7.7: Situacion de los alimentos en el interior del horno. Seleccion de planos medios. Aqu se presenta un resumen de resultados de los obtenidos para la optimizacion dinamica de algunos alimentos tipo considerados en el proyecto. En particular, se han resuelto varios problemas correspondientes a los formulados para dos tipos de geometr as basicas. Sin embargo, solo fue posible la validacion experimental able de los per les optimos obtenidos para el tipo de problema F 1, de manera que aqu se prestara especial atencion a su resolucion. En Banga et al. (1999) se recoge una revision mas extensa de los resultados.

7.8 Resultados
Caso 7:1
P

Para la simulacion de este proceso se ha utilizado el metodo NMOL con una malla de 11 11 elementos y formulas de segundo orden. Se considera un cilindro de patata de dimensiones R = L = 0:0175 m y cuyas propiedades termof sicas de la patata se presentan en la tabla 7.1. Las propiedades dielectricas del medio vienen dadas por las siguientes expresiones (Mudget, 1986): 2:827 10;3T 2 + 1:736 10;5T 3 00 = 21:0272 ; 0:45496T + 8:552 10;3 T 2 ; 5:31 10;5 T 3 +1:1 10;7T 4
;

0 = 67:0476 ; 0:1111T

(7.40) (7.41)

Aqu se consideraron los valores constantes para un valor de temperatura de 80oC . : 1067 kg m;3 ] Chen et al. (1993) ;1 o C ;1 ] c: 3542 J kg Chen et al. (1993) k: 0.648 W m;1 oC ;1] Chen et al. (1993) ;1 ] 59.016 m Ohlsson (1971), Mudget (1986) h: 17.85 W m;2 oC ;1] Chen et al. (1993) Tabla 7.1: Propiedades termof sicas del cilindro de patata.

7.8. Resultados

209

El problema considerado consiste en minimizar el tiempo de proceso para alcanzar un valor de C lo mas uniforme posible, y centrado en 8 min (el mejor valor desde el punto de vista organoleptico). Este es un problema multiobjetivo como los considerados en el cap tulo 5. En este caso, debido al caracter difusivo del proceso, es muy dif cil conseguir uniformidad total en el valor de C-value en el interior del cilindro. Parece logico pensar que cuanto mayor sea el tiempo de proceso mayor sera la uniformidad. Es por ello que en este caso se ha optado por resolver el problema mediante el metodo de generacion de la curva Pareto. Para la resolucion de este problema se han utilizado los metodos presentados en esta tesis, y aqu solo se resumen los resultados obtenidos mediante el metodo HyMDO. Se ha realizado un ajuste del metodo resolviendo el problema para un conjunto de valores de tolerancia de optimizacion tanto para el metodo estocastico (ICRS/DS) como para el determinista (gOPT), de la misma manera que se hizo para los problemas que se presentaban en el cap tulo 5. Se concluye que los valores de tolerancia mas adecuados para ICRS/DS (SC 1), corresponden a funciones de corte en el intervalo J = 20 ; 100, ya que los errores relativos al resultado nal son inferiores al 5% para la tolerancia de optimizacion de gOPT, el valor mas adecuado parece ser SC 2 = 5 10;2, ya que reduce el tiempo de computacion de manera muy notable. En la gura 7.8, se muestra la curva Pareto obtenida por el metodo h brido. Tambien se incluyen ademas las obtenidas por cada uno de los metodos individuales que lo constituyen. Asimismo en la gura 7.9 se muestran los tiempos de computacion requeridos por cada uno de los metodos en una estacion de trabajo Sun UltraSparc a 200 MHz (90 MFlops segun Linpack-100), re ejando claramente la superioridad del metodo h brido.
23.0 HyMDO gOPT Tcpu (h) 18.0 J ICRS/DS 3.5 3.0 2.5 2.0 1.5 1.0 0.5 8.0 1500 0.0 2000 tf (s) 2500 3000 1500 2000 2500 tf (s) 3000 ICRS/DS gOPT HyMDO

13.0

Figura 7.8: Curva Pareto para el calentamiento de un cilindro de patata P 7:1.

Figura 7.9: Comparacion de tiempos de calculo de los distintos metodos para el problema P 7:1.

210

Cap tulo 7. Control optimo de hornos microondas-conveccion

Notese que el tiempo de computacion con el h brido llega a reducirse hasta casi 4 veces respecto a gOPT, alcanzandose ademas resultados ligeramente mejores y evitandose el fallo de convergencia de gOPT en el caso de tf = 1500 s. Se observa que a tiempos de tf = 3000 s se obtiene una uniformidad aceptable de C-value proxima al valor deseado C = 8 min.

Caso 7:2
P

El objetivo es calentar un cilindro de patata similar al de P 7:1 hasta alcanzar una temperatura lo mas uniforme posible alrededor de 70 oC , siendo 25 ; 200 oC el rango permitido para la temperatura del horno y 0 ; 190 W para la potencia de microondas. Para la simulacion del proceso se ha usado CHAMPSPACK, con una malla uniforme consistente en 21 21 nodos. Para la optimizacion se han considerado dos niveles de discretizacion para los controles = 5 y = 10 lo que dio lugar a un total de 4851 y 9261 ODEs respectivamente. El per l inicial para la optimizacion fue Thorno = 150oC y P = 100 W . Los resultados, para varios tiempos de proceso, se presentan en la tabla 7.2, donde se utiliza la notacion habitual y el tiempo de computacion se expresa en segundos en un PC Pentium III/450MHz.

tf J0 300 1:74 107 5 10 7 5 400 3:14 10 10 600 6:7 107 5 10

J 695.4 549.9 169.2 109.5 5.12 1.96

Tmax 72.2 71.9 71.2 70.9 70.2 70.1

Tmin 67.5 67.8 68.8 69.0 69.8 69.9

Tcpu 164 1330 201 1876 199 1510

Tabla 7.2: Resultados obtenidos para el calentamiento optimo de una patata. A modo de ejemplo, en las guras 7.10 se presentan los per les de control correspondientes a tf = 600 y un nivel de discretizacion = 5. Asimismo se muestra la distribucion nal de temperaturas. Nuevamente, conforme el tf crece, se logra una mejor uniformidad. Y al reves, si se desea un proceso mas rapido, el precio a pagar es una mayor anchura en la distribucion de temperaturas dentro del alimento a tiempo nal (peor uniformidad). Ademas se observa que = 5 es su ciente desde el punto de vista practico, lo que simpli ca su implementacion en un horno real.

7.8. Resultados
100 90 80 70 60 50 40 30 20 60 50 P (W) 40 30 20 10 0 100 200 300 400 500 600 Tiempo Distribucin de temperatura a tf 0.016 z (m) 0.012 0.008 0.004 0 0 0.004 0.008 0.012 0.016 r (m) 70.15 70.1 70.05 70 69.95 69.9 69.85 N de nodos 0 0

211

Thorno (oC)

100 200 300 400 500 600 Tiempo

Histograma de temperaturas a tf 80 70 60 50 40 30 20 10 0 69.75 69.85 69.95 70.05 70.15 70.25

Figura 7.10: Per les de control y distribucion nal de temperaturas para el caso del calentamiento de un cilindro de patata.

Caso 7:3
P

Similar al caso anterior, se considera ahora el calentamiento de un cilindro de gel TX-151 de dimensiones R = L = 0:025 m. El objetivo sera calentar el cilindro hasta alcanzar una temperatura deseada de 50 oC , considerando una restriccion de camino en la temperatura maxima ya que a partir de cierto valor el gel comienza a sufrir deformaciones:

Tmax (t) 80oC (7.42) Para la simulacion del proceso se ha utilizado CHAMPSPACK con una malla de 21 21 nodos. Los per les de control obtenidos con TNHp, as como las temperaturas maxima y m nima, se presentan en las gura 7.11. En la gura 7.12 se muestra la distribucion real de temperaturas correspondiente, donde se observa que los efectos no deseados del calentamiento solo con microondas o solo con conveccion, se suavizan de manera notable alcanzando una mayor uniformidad. Asimismo, resulta evidente que con pocos elementos de control ( = 5) se logra un valor de J muy bueno.

212

Cap tulo 7. Control optimo de hornos microondas-conveccion

120 100 80 60 40 20 0 0 100 200 300 Tiempo 400 Tmax=52.1 Tmin=48.0 500 600 Thorno P Tmax Tmin

Figura 7.11: Per les de control y temperaturas maxima y m nima para el calentamiento de un cilindro de gel TX-151 (tf = 600s).
35 Direccin axial (-L,L) 30 25 20 15 10 5 5 10 15 20 25 30 Direccin radial (-R,R) 35 25 40 35 30 45

Figura 7.12: Distribucion real de temperaturas en el plano medio de un cilindro: calentamiento mixto optimo.

Caso 7:4
P

La geometr a tipo paralelep pedo es especialmente complicada tanto en los relativo a su calentamiento homogeneo como respecto a su simulacion numerica. A lo largo del proyecto se fueron re nando los distintos modelos para representar lo mejor posible el proceso real. Aqu se considera el modelo lineal (ecs. (7.23)), que aunque imperfecto, se ajusto mas a la realidad y que incluye ademas las modi caciones del coe ciente de transferencia de calor con la posicion detectadas experimentalmente. La simulacion con CHAMPSPACK, implica resolver un sistema de 1500 ODEs (malla de 1134 hexaedros).

7.8. Resultados

213

El problema de control optimo consiste en calcular los per les de temperatura y potencia con el n de calentar el paralelep pedo hasta alcanzar una temperatura lo mas uniforme posible alrededor de 70 oC en un tiempo de proceso de 1500 s. Dado que el gel no resiste temperaturas muy elevadas se han considerado los siguientes l mites para las variables de control: 20 Thorno 100oC y 0 P 1, donde la potencia esta normalizada a la maxima emitida por el horno (esta carga absorbe el 100% de la potencia emitida). El coste computacional de la optimizacion con TNHp en este caso se eleva a 1:8 h (en un PC Pentium III/450MHz) ya que, para un valor de discretizacion de control = 5, el IVP extendido consta de 16500 ODEs, lo que aumenta notablemente el tiempo de cada simulacion. Los per les de control y la distribucion real de temperatura a tiempo nal se muestran en la guras 7.13-7.14, donde se observa que no es posible alcanzar una temperatura muy uniforme en tan poco tiempo de proceso.
120 100
o T horno( C)

50
P (% Pmax)

40 30 20

80 60 40 20 0 0 500 1000 Tiempo (s) Thorno P

10

0.0 1500

Figura 7.13: Per les de control optimos para el calentamiento de un paralelep pedo, modelo lineal.
0.05 0.04 z (m) 0.03 65 0.02 60 0.01 0 0 0.05 0.1 x(m) 0.15 55 Ditribucin de temperatura a tf 75 N de nodos 70 350 300 250 200 150 100 50 0 45 50 55 60 65 70 75 80 85 Histograma de temperaturas a tf

Figura 7.14: Distribucion de temperaturas en el interior de un paralelep pedo a tiempo nal, modelo lineal.

214

Cap tulo 7. Control optimo de hornos microondas-conveccion


P

Caso 7:5
La validacion experimental del modelo lineal llevo a la conclusion de que era insu ciente para la simulacion del proceso real debido a que no ten a en cuenta el fenomeno de evaporacion que se produce a temperaturas en torno a los 100 oC . El modelo de conduccion fue pues modi cado introduciendo un termino correspondiente al cambio de fase, lo que resulto en el siguiente conjunto de ecuaciones: (7.43) donde R es una funcion no lineal de la temperatura que se activa cuando se alcanzan los 99oC . Las nuevas sensibilidades de primer orden quedan:
;

z = RC ( Kz + Hq Thorno(t)Fh + Q0 P (t)) _ 1

y las de segundo orden proyectadas:


;

1 _ s1 Thorno = CR2 R(;Ks1 Thorno + Hq Fh) ; @T@ R (;Kz + Hq ThornoFh + Q0) horno (7.44) " # 1 R ;Ks + F ] ; @ R ;Kz + H T F + Q P ] _ s1 P = CR2 (7.45) 1P q q horno h 0 @P 1 _ s2 Thorno = CR2 Ks2 Thorno R
;

"

Ks1 Thorno + Hq Fh]] @T@ R p + horno " # 2 Kz + H T F + Q P ] @ R 2 p (7.46) q horno h 0 R @Thorno


; ;

_ s2 P CR Ks2 P R Ks1 P + Fq ]] @ R p + @P " #2 2 Kz + H T F + Q P ] @ R p q horno h 0 R @P = 12


; ; ; ;

"

(7.47)

La simulacion de este modelo con CHAMPSPACK requiere resolver 5742 ODEs (la malla correspondiente se muestra en la gura 7.15) lo que supone 120582 ODEs para el IVP extendido.

7.8. Resultados

215

y z x

Figura 7.15: Malla utilizada para la simulacion del calentamiento de un paralelep pedo, caso no lineal. Cortes a de N. Scheerlinck, Univ. de Lovaina. En este caso el objetivo es encontrar los per les de control para maximizar la uniformidad de temperatura en torno a 70 oC , en un tiempo total de proceso de 2500 s. Tanto TNHp como HyMDO, tuvieron problemas de convergencia debido a la presencia de discontinuidades en los estados. Esto llevo al uso del metodo estocastico ICRS/DS, que permitio alcanzar soluciones adecuadas. Aunque el proceso total requirio de 6 h de tiempo de computacion, representando las curvas de convergencia ( gura 7.16) se observa que en menos de 3 h ya se alcanzo una solucion aceptable, lo que se considera razonable dado el coste de cada simulacion. Esto ilustra las ventajas de los metodos estocasticos en ciertas circunstancias.
1200 Funcin objetivo 1000 800 600 400 200 0 0 100 200 300 400 500 600 Nmero de evaluaciones 110 100 90 80 70 60 50 40 0 Tmin T max

100 200 300 400 500 600 Nmero de evaluaciones

Figura 7.16: Curvas de convergencia del metodo ICRS/DS en la solucion del problema P 7:5.

216

Cap tulo 7. Control optimo de hornos microondas-conveccion

Los mejores per les de control obtenidos as como la distribucion de temperaturas a tiempo nal se muestran en las guras 7.17 y 7.18, respectivamente. Asimismo, en la gura 7.19, se representa la distribucion de temperaturas en el plano medio del paralelep pedo lo que permite comparar con los resultados experimentales ( gura 7.23). Se observa una buena concordancia (diferencias 5 oC ) entre predicciones y resultados experimentales. En cualquier caso, puede sorprender que los per les optimos no permitan reducir mas la no homogeneidad de la temperatura, pero es preciso resaltar que la geometr a tipo paralelep pedo es la peor posible para ese n.
10.0 100 8.0 Thorno (oC) 80 60 40 20 0 500 1000 1500 Tiempo (s) 2000 6.0 4.0 2.0 0.0 2500 P (% Pmax)

Thorno P

Figura 7.17: Per les de control optimos para el calentamiento de un paralelep pedo, modelo no lineal.

55

60

65

70

75

Figura 7.18: Distribucion de temperaturas en el interior de un paralelep pedo a tiempo nal: calentamiento mixto optimo.

7.8. Resultados

217

0.1 0.09 0.08 0.07 0.06 0.05 0.04 0.03 0.02 0.01 0 0

Ditribucin de temperatura a tf 74 72 70 68 66 64 62 60 58 56 0.05 0.1 x(m) 0.15 0.2

1200 1000 N de nodos 800 600 400 200 0 50

Histograma de temperaturas a tf

z (m)

55

60

65

70

75

80

Figura 7.19: Distribucion de temperaturas en el plano medio de un paralelep pedo: calentamiento mixto optimo.
60 50 40 z 30 20 10 50 10 20 30 40 50 x 60 70 80 90 100 65 60 55 70

Figura 7.20: Distribucion real de temperaturas en el plano medio de un paralelep pedo: calentamiento mixto optimo. Con el n de ilustrar los bene cios del uso optimo de hornos mixtos frente al uso de hornos convencionales que calientan unicamente por conveccion, se ha resuelto el problema de control optimo equivalente pero utilizando la temperatura como unica variable de control (potencia de microondas nula). Como se pod a esperar, dado que el calentamiento por conveccion es mas lento, el per l optimo obtenido equivale a mantener la temperatura en su valor maximo la mayor parte del tiempo de proceso. En las guras 7.21 y 7.22, se representa el per l de control y la distribucion de temperaturas resultante a tiempo nal, respectivamente.

218

Cap tulo 7. Control optimo de hornos microondas-conveccion

100 90 80 70 60 50 40 30 20 10 0

horno

(o C)

500

1000 1500 Tiempo (s)

2000

2500

Figura 7.21: Per l optimo de calentamiento de un paralelep pedo: solo conveccion.


0.1 0.09 0.08 0.07 0.06 0.05 0.04 0.03 0.02 0.01 0 Ditribucin de temperatura a tf 64 62 60 58 56 54 52 0 0.05 0.1 x(m) 0.15 0.2 1400 1200 N de nodos 1000 800 600 400 200 0 45 50 55 60 65 70 75 Histograma de temperaturas a tf

Figura 7.22: Distribucion de temperaturas en el interior de un paralelep pedo a tiempo nal, solo conveccion (modelo nolineal).
70 60 50 40 30 20 10 10 20 30 40 50 x 60 70 80 90 100 110 z 65 60 55 50 45 40 35 30 25

z (m)

Figura 7.23: Distribucion real de temperaturas en el plano medio de un paralelep pedo: calentamiento solo conveccion optimo.

7.9. Conclusiones

219

La validacion experimental de estos per les demuestra que, para el mismo tiempo de proceso, la uniformidad aumenta al utilizar la combinacion de conveccion y microondas obtenida. Si se comparan los resultados experimentales para los procesos de calentamiento por conveccion y mixto se observa que la temperatura obtenida en el segundo caso no solo es mayor sino que ademas es mas uniforme, suavizando los puntos fr os y calientes resultantes del calentamiento con microondas.

7.9 Conclusiones
Desde el punto de vista global, los objetivos expuestos inicialmente se cumplieron dado que se demostro que es posible suavizar los efectos no deseados de los dos modos de calentamiento por separado empleando pol ticas mixtas optimas, alcanzando resultados satisfactorios de uniformidad. Desde el punto de vista de la optimizacion, casi todos los problemas fueron resueltos satisfactoriamente con los metodos presentados en esta tesis (TNHp e HyMDO). Sin embargo la presencia de discontinuidades en el modelo no lineal correspondiente al paralelep pedo (P 7:5), causo di cultades a la resolucion con metodos deterministas limitando el uso de TNHp o HyMDO. Existen al menos tres posibilidades para resolver este problema. Por una parte, desarrollar el modelo en funcion de la entalp a evitar a la existencia de tales discontinuidades. Por otra, emplear tecnicas que reduzcan el efecto de la discontinuidad, mediante una aproximacion utilizando una funcion arcotangente. La primera resultaba demasiado costosa ya que supone rede nir la implementacion de CHAMPSPACK desde el principio. La segunda metodolog a permitir a la solucion de problemas con discontinuidades utilizando TNHp y se ha reservado para implementaciones futuras del metodo. En esta ocasion, se opto por una tercera v a, el uso del metodo estocastico ICRS/DS. En cuanto a la e ciencia de los metodos, se ha visto que, como era de esperar, los tiempos de computacion han ido aumentando a medida que la complejidad del modelo aumentaba. As , para TNHp se pasa de algo mas de dos minutos para la optimizacion del calentamiento de un cilindro a mas de una hora para la optimizacion del paralelep pedo lineal. El HyMDO, aunque mas e ciente que sus metodos constituyentes, tambien requirio mas de 1 h para la resolucion de problemas del tipo F 2. Por ultimo, la resolucion del problema de calentamiento del paralelep pedo no lineal necesito de alrededor de 3 h de tiempo de computacion. Es evidente que la simulacion del proceso es un factor determinante para la reso-

220

Cap tulo 7. Control optimo de hornos microondas-conveccion

lucion de problemas de optimizacion dinamica de procesos distribuidos, tal y como ya se observaba en el cap tulo 6 con la resolucion del problema de esterilizacion y se con rma en la resolucion de los problemas vistos en este cap tulo. Surge pues la necesidad de utilizar modelos de orden reducido, es decir, modelos que, aunque de dimension peque~a, predicen el comportamiento del proceso de manera tal que n permiten la optimizacion de forma muy e ciente. Este sera el objeto de estudio del siguiente cap tulo de esta tesis.

Cap tulo 8 Optimizacion de procesos distribuidos: modelos reducidos

En los cap tulos anteriores, se han presentado y evaluado diversas metodolog as tipo CVP para la optimizacion dinamica de procesos concentrados y distribuidos. Estas metodolog as tienen en comun que transforman el problema original en un problema tipo NLP maestro que requiere la solucion de un IVP, ya sea simple o extendido, para cada evaluacion. Desafortunadamente, y particularmente para aquellos procesos cuyo modelo es costoso en lo relativo a su simulacion (p. ej. procesos distribuidos como el tratamiento termico de alimentos), el esquema CVP requiere esfuerzos de calculo considerables dado el gran tama~o de los IVP que es preciso n resolver. Como resultado, hay una perdida de la e ciencia global del proceso de optimizacion. Esto ha llevado a la busqueda de metodos de aceleracion de las simulaciones basados en la reduccion del modelo dinamico. En este cap tulo se propone el uso de modelos de orden reducido generados a partir del metodo de descomposicion en funciones emp ricas (proper orthogonal decomposition, POD), que proporciona modelos de precision equivalente pero cuya solucion es considerablemente mas rapida, permitiendo as la resolucion de problemas que requieren gran numero de simulaciones en tiempos de computacion muy competitivos. En particular, se presenta la aplicacion de esta nueva metodolog a a la simulacion, dise~o y optimizacion dinamica del procesamiento termico de alimentos, con n resultados muy satisfactorios. 221

222

Cap tulo 8. Optimizacion de procesos distribuidos: modelos reducidos

8.1 Introduccion
A lo largo de este trabajo se han presentado nuevas metodolog as de optimizacion dinamica y se han aplicado con exito a la solucion de problemas tanto concentrados como distribuidos. Sin embargo, y a pesar de haber demostrado ser muy e cientes en la resolucion de problemas concentrados, para el caso de sistemas distribuidos, el coste computacional crece de manera muy rapida debido, precisamente, a la necesidad de resolver numericamente el sistema de PDAEs que describe el proceso utilizando tecnicas como NMOL o elementos nitos (FE). Esta limitacion restringe la posibilidad de aplicaciones industriales en tiempo real, tales como la optimizacion en l nea o el control predictivo basado en modelo (model predictive control, MPC). Sin embargo, como se ha dicho en otras ocasiones, estas aplicaciones son de vital importancia para el buen desarrollo del proceso y para garantizar un alto rendimiento as como la veri cacion de las restricciones. Esto ha motivado la busqueda de modelos, denominados de orden reducido, que simulen el proceso de manera rapida pero a la vez rigurosa. La derivacion de modelos de orden reducido a partir de modelos muy complejos, ha sido objeto de estudio por parte de muchos autores, sobre todo en el area de control de procesos, pero la mayor a se han limitado a la reduccion de modelos lineales. Los metodos mas utilizados son el balance and truncate (B&T) (Tombs y Postlethwaite, 1987 Varga, 1991a), singular perturbation approximation (SPA) (Kokotovic, 1987 Liu y Anderson, 1989 Varga, 1991b) y Hankel norm approximation (HNA) (Glover, 1984). Tanto el primero de estos metodos (B&T) como el ultimo (HNA), se basan en el calculo de los llamados valores singulares de Hankel a traves de la solucion de las ecuaciones de Lyapunov. Estos coe cientes son invariantes temporales cuyos valores decaen rapidamente permitiendo la generacion de modelos reducidos y rigurosos. El uso de las llamadas tecnicas de balanceo permiten evitar el mal condicionamiento que en ocasiones surge en la resolucion de las ecuaciones matriciales. El metodo SPA se basa en la separacion de escalas temporales que presentan muchos procesos, e introduce un parametro (perturbacion) que multiplica a ciertos estados del sistema y cuyo valor permitira reducir la dimension del modelo original. Estos metodos parten de un sistema de ODEs lineal de dimension elevada y mediante diferentes tecnicas reducen su dimension. Recientemente se han desarrollado varios programas en MATLAB que generan automaticamente estos modelos1 y que estan descritos en Varga (1999).
1

http://www.win.tue.nl/niconet/NIC2/NICtask2A.html

8.1. Introduccion

223

Estas tecnicas ser an aplicables, por ejemplo, a los sistemas de ODEs resultantes de aplicar NMOL o FE a la solucion de una PDE, siempre y cuando esta fuese lineal. Sin embargo, la mayor a de los procesos de interes, y en particular los procesos de la industria de alimentos, son habitualmente no lineales (siendo la principal fuente de no linealidad los terminos cineticos) lo que impide utilizar esos metodos de reduccion de modelos. Es por ello que, en los ultimos a~os, muchos autores han hecho uso de metodos n espectrales, presentados en el cap tulo 1, que hacen uso de funciones espaciales globales que combinadas con un metodo de residuo ponderado, resultan en modelos aproximados de dimension reducida. Estos metodos se han aplicado con exito en el area de ingenier a de procesos, en particular en la resolucion de problemas de identi cacion, construccion de observadores y en el desarrollo de sistemas de control robusto (Sanchez et al, 2000 Alonso et al., 2000 y en los all citados). En la mayor a de estos trabajos se hace uso de las autofunciones propias del operador espacial, aprovechando la propiedad de los procesos disipativos de poseer escalas temporales tales que es posible separar dinamicas lentas y rapidas. Sin embargo, no siempre es sencillo calcular las autofunciones propias o simplemente conducen a un numero elevado de ecuaciones diferenciales. Esto es especialmente importante en el area de dinamica de uidos y turbulencia, en la que es preciso considerar la solucion de la ecuacion de Navier-Stokes. Es por ello que precisamente en el seno de la dinamica de uidos se desarrollo una nueva metodolog a de reduccion de modelos, la expansion de Karhunen-Loeve (tambien denominado proper orthogonal decomposition, POD) (Sirovich, 1987). Este metodo ha sido utilizado y revisado por diversos investigadores (Berkooz et al., 1993 Bangia et al., 1997, entre otros), demostrando que se trata de una herramienta e ciente aplicable a la simulacion de problemas generales no lineales que incluyen procesos de reaccion, difusion y conveccion. Debido al exito alcanzado en la simulacion de procesos muy no lineales, esta tecnica se ha vuelto muy popular en los ultimos a~os y se ha aplicado a la solucion n de un amplio rango de problemas. As , por ejemplo, en identi cacion y control de procesos (Burl, 1993 Shavrtsman y Kevrikidis, 1998 Alonso et al., 2001), estimacion de parametros (Park et al., 1998) y optimizacion estacionaria (Theodoropoulou et al., 1998 Bendersky y Christo des, 1999 y 2000). Aqu se presentara su uso para la derivacion de modelos de orden reducido de procesos distribuidos de complejidad arbitraria, relacionados con el tratamiento termico de alimentos. Asimismo se presentaran nuevas tecnicas de transformacion que sim-

224

Cap tulo 8. Optimizacion de procesos distribuidos: modelos reducidos

pli can el uso del metodo de Galerkin y el manejo de terminos no lineales. Para nalizar, se presenta el uso de estos modelos para la resolucion de los problemas de dise~o y optimizacion dinamica de un problema de considerable interes n industrial, la esterilizacion termica de alimentos.

8.2 Obtencion de modelos de orden reducido para procesos distribuidos


Como ya se ha indicado en el cap tulo 1, los metodos de simulacion de procesos distribuidos transforman las PDEs en sistemas de ODEs o DAEs. Para ello proyectan el operador espacial en un conjunto de funciones espaciales que pueden ser locales o globales. En los cap tulos anteriores se ha considerado el uso de funciones locales, tanto en el metodo NMOL como en el metodo FE, que proporcionan modelos precisos pero cuyo coste de resolucion se elevaba rapidamente. Esto es especialmente relevante en el caso de geometr as 2D y 3D, en los que la unica posibilidad de reducir el coste computacional consiste en utilizar mallas menos re nadas o adaptativas que resulten en un menor numero de ecuaciones pero a costa de una posible perdida de precision. Como alternativa, los llamados metodos espectrales hacen uso de funciones espaciales globales para la resolucion de problemas descritos por PDEs de complejidad arbitraria. Estos metodos conducen a modelos de orden reducido que capturan la informacion relevante del sistema, permitiendo as simular el proceso con una precision equivalente a la obtenida por metodos locales pero con un coste computacional menor. Considerese un proceso distribuido de forma general:

xt = (x) + (x) (8.1) donde ( ) denota un operador lineal parabolico de nido en un dominio con frontera suave y donde (x) es una funcion no lineal del campo x. La ec. (8.1) puede interpretarse como un sistema de dimension in nita en un espacio de Hilbert equipado con un producto interior y una norma de nidas como sigue: R (f g) = fgd y f 2= (f f ) 2 En general, la solucion a la ec. (8.1), se puede expresar en la forma:
L L k k

x( t) = ~

1 X
i=1

ai(t)'i ( )

(8.2)

8.2. Obtencion de modelos de orden reducido para procesos distribuidos 225

en esta expresion los coe cientes ai son funciones del tiempo mientras que la base 1 f'i gi=1 contiene la dependencia espacial de la solucion. Cada elemento de esta base se puede considerar como la solucion de la ecuacion integral lineal:
K

Z 'i = i ( 0)'i( 0)d 0 (8.3) donde = ( 1 2 3) son las variables espaciales, i es un parametro asociado con cada uno de los elementos de la base y es el denominado nucleo (kernel) de la ecuacion integral. Se asume que las soluciones de una ecuacion integral de este tipo son ortonormales (Courant y Hilbert, 1937), por lo tanto ('i 'j ) = ij . Dependiendo de la naturaleza del nucleo ( 0 ), dos son los tipos de funciones espaciales posibles:
K K

1. La base espectral, que se deriva de la construccion del nucleo K como la funcion de Green asociada al operador espacial lineal L. 2. La expansion Karhunen-Loeve (proper orthogonal decomposition, POD) (Holmes et al., 1996), que se deriva de un nucleo o funcion de correlacion. Por simplicidad se dira que la primera base esta constituida por la autofunciones propias del operador espacial y que la segunda esta constituida por las llamadas autofunciones emp ricas. La naturaleza disipativa de los procesos de conveccion y difusion, hace que los parametros asociados a cada autofuncion ( i), que no son mas que las constantes de tiempo, esten ordenados de manera que los ultimos elementos de la serie se desvanecen mas rapidamente que los primeros. Como consecuencia, la precision de la aproximacion puede garantizarse con un conjunto nito, y habitualmente peque~o, n de terminos en la serie (8.2). En la gura 8.1 se representa esquematicamente el comportamiento t pico de un proceso dinamico disipativo. En ella se re eja que cualquier punto del dominio de de nicion del proceso evolucionara hasta un hiperplano de dimension baja, representado en la gura como un plano, y permanecera en ella en el futuro. Esta propiedad resulta muy atractiva y constituye la base del desarrollo de modelos de orden reducido. El tipo de funciones espaciales utilizadas sera determinante en la e ciencia del resultado nal. En este trabajo se propone el uso de las autofunciones emp ricas cuyas propiedades se ajustan a la solucion de un amplio rango de problemas y tienen ademas otras caracter sticas que las convierten en una opcion muy atractiva para el desarrollo de modelos de orden reducido:

226

Cap tulo 8. Optimizacion de procesos distribuidos: modelos reducidos

Evolucin temporal Subespacio: dinmica lenta

Figura 8.1: Evolucion de un sistema dinamico disipativo. En primer lugar, se puede demostrar que este conjunto de funciones es optimo, en el sentido de que, a igual precision, requiere menor numero de funciones espaciales que cualquier otra expansion (Sirovich, 1987 Berkooz et al, 1993). En segundo lugar, se calculan de manera muy sencilla a partir de datos experimentales o de datos obtenidos por simulacion directa, para cualquier tipo de proceso distribuido independientemente de la geometr a o la no linealidad del mismo. A continuacion se presenta el calculo teorico de esta base de autofunciones emp ricas.

8.2.1 Expansion de Karhunen-Loeve


El caracter optimo de la base POD viene dado por la resolucion de un problema de optimizacion que se formula como sigue:
Dado un conjunto ` de medidas del campo x tomadas a diferentes localizaciones espaciales en diferentes instantes de tiempo (snapshots), calcular la base de k funciones ortonormales que mejor \captura" el conjunto de datos de x comparada con cualquier otra base de la misma dimension.

8.2. Obtencion de modelos de orden reducido para procesos distribuidos 227

Dado un conjunto de funciones x( ), el problema consiste, por lo tanto, en encontrar un conjunto de funciones base '( ) representativo del conjunto original. Este problema de optimizacion se puede formular como la maximizacion de su proyeccion sobre el conjunto de funciones originales. Matematicamente se expresa como sigue: max J = max < (' x)2 > ; (' ') ; 1] (8.4) ' ' A continuacion se resumen los pasos para la solucion de esta ecuacion (Courant y Hilbert, 1937): 1. Sea '( ) = ' ( ) + " ( ), donde ' corresponde al optimo, " es un parametro y es una funcion prueba en la vecindad de ' . 2. Maximizar el objetivo por el metodo de las variaciones, supone calcular: # " dJ ' = ' + " ( )] (8.5) d" "=0 lo que supone la solucion de la ecuacion integral lineal:

Z " Z
0

< x( )x( 0) > '( 0)d

!
;

'( ) ( )d = 0

(8.6)

Dado que ( ) es una funcion prueba, la unica solucion posible es:

< x( )x( 0) > '( 0)d 0 = '( )

(8.7)

que es la solucion al problema variacional equivalente a la expresion (8.3), pero donde el nucleo K ya se de ne como un operador de correlacion.
K

=< x( )x( 0) >

(8.8)

Caso de geometr as cil ndricas y esfericas


En el caso de geometr as cil ndricas como las que se consideraran en los casos practicos que se veran mas adelante en este cap tulo, el sistema de coordenadas sera = (r z) y el diferencial de volumen d = rdrd dz. De la resolucion del problema de maximizacion (8.4) por el metodo variacional descrito en Courant y Hilbert (1937), resulta la siguiente ecuacion integral:

ZZZ
r

< c(r z) x0 (r0

0 z 0 ) > '(r0 0 z 0 )r0 dr0 d 0 dz 0 =

'(r z)

(8.9)

228

Cap tulo 8. Optimizacion de procesos distribuidos: modelos reducidos

A primera vista esta ecuacion parece semejante a la ec. (8.7). Sin embargo la presencia del radio en el diferencial de volumen complica su resolucion ya que el nucleo, ahora, no es simetrico (Citriniti, 1996). Con el n de resolver este problema utilizando la teor a de Hilbert Schmidt sera necesario reformular el problema y conseguir que el nucleo sea simetrico. Para ello se multiplica toda la ecuacion por p r, resultando:

ZZZ
r z

r < x(r z) x0 (r0


p

0 z 0 ) > '(r0 0 z 0 )pr0 pr0 dr0 d 0 dz 0 = pr

y de niendo = r', resulta:

'(r z) (8.10)
(8.11)

< rx r0x0 > dr0d 0dz0 = (r z) r z De tal forma que el nucleo 0 =< rx r0x0 > es ahora simetrico.
p p K p p

ZZZ

8.2.2 POD de un conjunto de datos


En la seccion anterior se ha presentado la formulacion variacional del calculo de las autofunciones emp ricas. Sin embargo, en la practica se dispone de un conjunto de datos discretos que describen el comportamiento dinamico del sistema. Aqu se describe una formulacion equivalente pero nita, mas conveniente. En esencia, el metodo POD no es mas que una tecnica de compresion de datos. Dado un conjunto de datos, representado como una nube de puntos en un espacio de dimension muy elevada, el metodo POD determina el subespacio de menor dimension que congrega todos los puntos en una vecindad. Esto implica encontrar el subespacio que minimiza la distancia a la cual se encuentran todos los puntos. Sea un conjunto de datos Sd = fxig`=1 obtenidos a partir de experimentos o de la i simulacion con un modelo de orden superior. Cada elemento ` representa un vector de dimension , donde es el numero de puntos en el espacio, siendo ` el numero de instantes considerados (snapshots). El conjunto Sd se supone representativo del comportamiento del sistema para un conjunto de condiciones iniciales, parametros, k entradas y/o perturbaciones de interes. Sea SB = f'j gk=1, con k , el subespacio j que minimiza la distancia media a los datos (o de forma equivalente, el subespacio que maximiza la proyeccion normal del conjunto de datos). Se de ne de acuerdo con el siguiente problema de minimizacion: min J ('j x) '
j

(8.12)

8.2. Obtencion de modelos de orden reducido para procesos distribuidos 229

con:
` k 1 X(xT ; wT )(x ; w ) ; X ('T ' ; 1) J ('j x) = ` (8.13) j j j j j j j j =1 j =1 donde wi = Pk=1 aij 'j , es la proyeccion del vector de datos uj en la nueva base. La j solucion a este problema de optimizacion (Luenberger, 1969) lleva al calculo de las funciones 'j que satisfacen:

donde R es la matriz de correlacion calculada de la forma:


` 1 X x xT (8.15) R= ` j j j =1 De esta forma, cada elemento xi del conjunto de datos Sd se puede expresar como:

R'j =

j 'j

(8.14)

xi = 'ai + "

(8.16)

k donde " es un vector de error, ortogonal a la base SB , que indica la distancia a la que se encuentra cada dato del conjunto Sd del subespacio. La distancia media entre k el conjunto de datos Sd y la base calculada SB se calcula como sigue: ` ` k X X X 2 Dav = 1 d2 = 1 xT xj i j ` ` i=1 j =1
;

` Notese que k = ` implica que Dav = 0, es decir, SB y Sd son equivalentes, y por lo tanto: ` X i=1 i

i=1

(8.17)

=1 `

` X j =1

xT xj j

(8.18)

as que los autovalores proporcionan una medida de lo proximos que estan los datos a la base de autofunciones emp ricas. De forma que cuanto mas proximo esta k de l menor es la distancia. Combinando las expresiones (8.17) y (8.18), se obtiene:
1 0 l 12 X A Dav = @ i

La seleccion de la dimension del subespacio se realiza en funcion de la cantidad de energ a capturada por el modelo reducido, y de nida:

i=k+1

(8.19)

230

Cap tulo 8. Optimizacion de procesos distribuidos: modelos reducidos

Pk = Pil=1

i i=1 i

(8.20)

Caso de geometr as cil ndricas y esfericas


Esta derivacion \ nita" se ha realizado para el caso general. Para el caso de coordenadas cil ndricas la matriz de correlacion resulta ser:
` 1 X(prx )(prx )T T= ` (8.21) j j j =1 y las autofuciones emp ricas se calculan a partir de la solucion del problema de autovalores: T = (8.22)

En este caso, conduce a un conjunto de autofunciones emp ricas . Sin embargo, esta funciones no son validas para expresar el campo ya que, por la forma en que se calculan, no permiten recuperar la dinamica del sistema en el origen (r = 0). Para subsanar este problema, en este trabajo se propone un metodo para recuperar las autofunciones 'i a partir de las funciones i, teniendo en cuenta que se i relacionan de la forma 'i = pr . Para ello se aproximaran las primeras, con la mayor precision posible, mediante el calculo simbolico de polinomios tales que veri quen las condiciones de contorno. Habitualmente, en el origen se impone una condicion de simetr a tal que:

" Pk # @ i=1 ai'i =0 @r r=0 "


p

"
)

@'i @r

#
r=0

=0

(8.23)

i sustituyendo 'i por su equivalente pr en la expresion anterior resulta:


;

se asume que el polinomio es de la forma g(r) = rP (r), garantizando as el cumplimiento de la ec. (8.25).

# ! @'i r @ i i (8.24) @r r=0 = r @r 2r = 0 El termino de la derecha @@ri 2ri se aproxima por un polinomio g(r) tal que se veri que la ec. (8.24), es decir: ! r g (r ) 0 (8.25) lim r !0 r
; p !

8.2. Obtencion de modelos de orden reducido para procesos distribuidos 231

Substituyendo en la ec. (8.24), resulta:

@ i i (8.26) @r 2r = rP (r) resolviendo la ecuacion diferencial resulta la siguiente expresion para las funciones :
;

= c0 r +
p

De manera que las funciones ', buscadas, resultan ser:

N X 2cj+1 j+2 r j =0 3 + 2j

(8.27)

'i = c0 +

N X 2cj+1 j+3=2 r j =0 3 + 2j

(8.28)

donde los coe cientes c0 y cj polinomicos, se calcularan aproximando las funciones i.

8.2.3 Proyeccion sobre el espacio reducido


Una vez calculadas las funciones espaciales 'i en la expresion (8.2), los coe cientes temporales ai(t) se seleccionan de tal manera que se satisfaga la PDE original (8.1). Esto se consigue minimizando el error producido de sustituir el campo por su aproximacion en la PDE que describe el proceso. Dicho de otra forma, el residuo debe hacerse ortonormal a las funciones de prueba en la expansion (metodo de Galerkin, Fletcher, 1987). Teniendo en cuenta la formulacion general del problema (8.1), se de ne el residuo como sigue:
R

( t) = xt ; (L(~) + (~)) ~ x x

(8.29)

Proyectando el residuo sobre las funciones prueba, e imponiendo la condicion de ortogonalidad resulta:

Z
R

( t)'i( )d = 0 i = 1 ::: N

(8.30)

Substituyendo la ec. (8.2) en la ec. (8.29), aplicando la condicion de ortogonalidad (8.30) y usando la propiedad de ortonormalidad de las funciones prueba, se obtiene el siguiente conjunto de ecuaciones diferenciales:

232

Cap tulo 8. Optimizacion de procesos distribuidos: modelos reducidos

ai(t) = _

( ai (t)'i( )) + ( ai(t)'i ( ))'i( )d


i=1 i=1

k X

k X

(8.31) (8.32)

con las condiciones iniciales dadas por:

ai (0) =

x( 0)'i( )d

i = 1 ::: N

8.2.4 Condiciones frontera no homogeneas


El metodo de Galerkin, tal como se presento en la seccion anterior, es aplicable unicamente en los casos en los que las condiciones frontera son homogeneas y las funciones prueba utilizadas las cumplen exactamente. Sin embargo, esta condicion no siempre se cumple. Por ejemplo, en la mayor a de las aplicaciones de optimizacion dinamica, como se ha visto en los ejemplos considerados en esta tesis, las condiciones frontera no suelen ser homogeneas, y en la mayor a de los casos ni tan siquiera son constantes, ya que las variables de control se introducen, habitualmente, a traves de las condiciones frontera. Una ampliacion del metodo de Galerkin, el metodo tau (Gottlieb y Orszag, 1977), permite la resolucion de este tipo de problemas. Para ello, la expansion en serie (8.2) se modi ca a~adiendo terminos de tal forma que se veri quen las condiciones n frontera. Brevemente, el campo se aproxima de la forma:

x( t) = ~

k+NB X i=1

ai(t)'i( )

(8.33)

donde NB es el numero de condiciones frontera no homogeneas y las funciones 'i no veri can las condiciones frontera. Estas se imponen a la hora de calcular los coe cientes ai mediante la proyeccion sobre las condiciones frontera del proceso. El sistema de ODEs resultante consiste en k + NB ecuaciones y por lo tanto, a medida que aumenta la dimension del problema aumenta tambien el tama~o del modelo n reducido. Aqu se presenta el uso de un metodo alternativo, que no requiere el aumento del numero de ODEs y que consiste en trasformar el problema con condiciones frontera no homogeneas en uno equivalente pero con condiciones frontera homogeneas. Para ello se transformara el problema original en una forma adecuada dependiendo del tipo de condicion frontera. La transformacion propuesta consiste en de nir un nuevo campo !, como sigue:

!( t) = x( t)

( t)

(8.34)

8.2. Obtencion de modelos de orden reducido para procesos distribuidos 233

donde, para el caso de condiciones frontera de primer orden se veri ca que: = F1 (t ) y para el caso de condiciones frontera de segundo orden, satisface: (8.35) sera una funcion que

@ = F (t ) (8.36) @n 2 Estas transformaciones conducen a PDEs en las que aparecen expl citamente las variables de control, o sus derivadas temporales.

8.2.5 Presencia de terminos no lineales


A menudo, los procesos distribuidos vienen descritos por PDEs muy no lineales, con terminos que el metodo de Galerkin no puede manejar. Con el n de ilustrar las di cultades que producen estos terminos, supongase que el termino no lineal en la ec. (8.1), es de la forma (x) = exp(g(x)), frecuentes en procesos en los que aparecen cineticas con dependencia termica. Considerese ahora, la proyeccion de este termino sobre el conjunto de funciones de prueba:

k X 'j ( )exp(g( ai(t)'i( )))d i=1

(8.37)

Es evidente que la integral (8.37) no tiene una solucion anal tica en los terminos ai. Sin embargo, se puede obtener su valor, como funcion de los coe cientes temporales, bien mediante resolucion numerica o bien haciendo un desarrollo en serie de Taylor del termino exponencial, alrededor de un valor seleccionado previamente de los coe cientes ai . La primera posibilidad, requiere un elevado tiempo de computacion, y esto es especialmente indeseable en aplicaciones de dise~o y optin mizacion. La segunda posibilidad no es rigurosa y no es valida a no ser que las condiciones de simulacion esten proximas a la referencia. Una tercera posibilidad consiste en utilizar el denominado metodo de la transformada rapida de Fourier (fast Fourier transform, FFT) descrito por ejemplo en Gottlieb y Orszag (1977) y Fletcher (1984). Muy brevemente el metodo hace uso de desarrollos en serie adecuados (tales como las series de Fourier) para evaluar de manera recursiva los terminos diferenciales del operador espacial. Estas ideas se combinan con un metodo de colocacion que supone la evaluacion de los terminos no lineales en un conjunto dado de puntos del dominio espacial que se pueden hacer coincidir, por ejemplo, con los ceros de la ultima autofuncion emp rica utilizada para

234

Cap tulo 8. Optimizacion de procesos distribuidos: modelos reducidos

el desarrollo en serie del campo (ver por ejemplo, Theodoropoulou et al., 1998, que aplican esta metodolog a a un problema unidimensional). Sin embargo, este metodo de colocacion puede dar como resultado un elevado numero de ODEs, p. ej. en casos en los que el dominio de de nicion del proceso es bidimensional o tridimensional. Tambien se ha considerado la aproximacion de los terminos no lineales utilizando redes neuronales (Rico-Mart nez et al, 1995). Sin embargo, es bien conocido que el entrenamiento de la red neuronal requiere la solucion de un problema de optimizacion y la implementacion practica del modelo conlleva mucha labor previa. En este trabajo se propone una nueva alternativa, que se basa en la de de nicion de dos nuevos campos y v como sigue: = exp(v) (8.38)

v = g(u) (8.39) El sistema resultante consiste en 3 PDEs acopladas, una para cada campo (x, y v). As , suponiendo que la parte lineal del operador espacial, corresponde al operador Laplaciano ( ( ) = 2( )), las ecuaciones resultantes quedaran:
L r

xt = (x) + vt = (v) (vx) x + vx (vx) x + vx t = ( ) vx x


L L ;r ; r L r r ;r r

(8.40) (8.41) (8.42)

@v donde vx = @x . Este tipo de transformacion ofrece las siguientes ventajas:

1. Es muy facil de utilizar, lo unico que requiere es una reformulacion del problema, que se puede realizar automaticamente con un programa de manipulacion simbolica. 2. El sistema de PDEs resultante es completamente equivalente al original (8.1), donde los terminos no lineales son polinomicos, facilmente manejables en el metodo de Galerkin. 3. Cada una de estas variables puede aproximarse por un desarrollo en serie de la forma (8.2), donde las funciones espaciales pueden calcularse utilizando el metodo POD.

8.2. Obtencion de modelos de orden reducido para procesos distribuidos 235

4. Por ultimo, aunque supone un incremento de ODEs en el modelo reducido, el numero de ecuaciones nal sera siempre menor que el resultante de usar el metodo de colocacion, salvo quizas en el caso unidimensional.

8.2.6 Generacion del modelo reducido de forma automatica: ejemplo ilustrativo


Con el n de realizar todas estas operaciones de manera automatica se ha implementado un programa en MathematicaTMque combinado con el presentado en el cap tulo 6 de transformacion de PDEs a ODEs, realiza todas las operaciones necesarias para la generacion del modelo de orden reducido: En primer lugar, transforma el problema original, segun el tipo de condiciones frontera y terminos no lineales. Y, a continuacion, llama al programa de transformacion de PDEs en ODEs por el metodo NMOL (generacion del modelo nominal). Calcula la matriz de correlacion a partir de los datos resultantes de la simulacion del modelo nominal, adecuada al tipo de coordenadas, y genera las correspondientes autofunciones y autovalores. Calcula la energ a total del sistema, y la fraccion de energ a capturada por cada autofuncion, permitiendo as el calculo del numero de autofunciones necesarias para la generacion del modelo reducido. De ne el campo en funcion de las autofunciones. Un modulo especial se encarga de calcular las funciones 'i a partir de las funciones i en el caso de problemas en coordenadas cil ndricas. Ademas, genera las derivadas espaciales. Calcula el modelo reducido a traves de la proyeccion de Galerkin. Por ultimo, transforma las ecuaciones resultantes en un formato adecuado para su posterior resolucion con un integrador. Algunos modulos de este codigo se incluyen en el apendice V a n de ilustrar su utilizacion.

236

Cap tulo 8. Optimizacion de procesos distribuidos: modelos reducidos

Ejemplo ilustrativo: calentamiento de una esfera


Con el n de ilustrar la aplicacion de la metodolog a presentada en este trabajo, se considera su aplicacion a la simulacion de un proceso sencillo que consiste en el calentamiento de una esfera de radio R. La formulacion matematica del problema es como sigue: La temperatura dentro de la esfera viene descrita por la ecuacion de conduccion de calor en coordenadas esfericas. Suponiendo que hay simetr a el problema se reduce a un problema unidimensional radial descrito por: (8.43) Tt (r t) = (Trr (r t) + 1 Tr (r t)) r sujeto a las condiciones frontera:

Tr (0 t) = 0 T (R t) = Text(t)
y a las condiciones iniciales:

(8.44) (8.45)

T (r 0) = T0 (8.46) donde, Text es la temperatura en el medio que rodea a la esfera y var a con el tiempo. A continuacion se detallan los pasos a seguir para el desarrollo del modelo de orden reducido:
En primer lugar, y dado que la condicion frontera en r = R es no homogenea, se hacen las transformaciones adecuadas segun lo expuesto en la seccion 8.2.4. En este caso se hara una transformacion del primer tipo (ec. (8.35)), ya que la condicion frontera es de primer orden. La nueva PDE queda como sigue:

!t (r t) + @Text (t) = (!rr (r t) + 1 !r (r t)) @t r con condiciones frontera homogeneas.

(8.47)

Siguiendo los pasos descritos en la seccion 8.2, se simula un modelo nominal obtenido a partir del uso del NMOL (Schiesser, 1991), bajo un numero de condiciones para obtener, de esta forma, el conjunto de datos (Sd). En la gura 8.2 se muestran los resultados t picos de resolver la ecuacion 8.47.

8.2. Obtencion de modelos de orden reducido para procesos distribuidos 237

0 5 10 w 15 20 25 30 0.04 0.03 0.02 r (m) 0.01 0 0 2000 6000 4000 Tiempo (s)

8000

Figura 8.2: Resultado t pico de la simulacion de la variable transformada ! en el caso del calentamiento de una esfera. Estos snapshots seran utilizados para la generacion del modelo reducido. La solucion del problema de autovalores dado en la ec. (8.21) resulta en el calculo de las autofunciones emp ricas que se usaran en el metodo de Galerkin. En la gura 8.3 se muestra la energ a capturada por las primeras autofunciones.
100 99.5 Energa (%) 99 98.5 98 97.5 1

3 4 5 Nmero de autofunciones

Figura 8.3: Energ a capturada por las primeras autofunciones emp ricas en el problema de calentamiento de una esfera. Para este caso particular, se observa que la cuarta autofuncion ya captura un 99:9999% de la energ a total, as que en esta ocasion se utilizaran 4 funciones prueba para el desarrollo del modelo. En la gura 8.4 se muestran estas cuatro funciones espaciales.

238

Cap tulo 8. Optimizacion de procesos distribuidos: modelos reducidos

0.1 0.08 0.06


1

0.1 0.05 0 0.05

0.04 0.02 0 0 0.25 3 0.2 0.15 0.1 0.05 0 0.05 0.1 0 0.01 0.02 0.03 r (m) 0.04 0.01 0.02 0.03 r (m) 0.04

0.1 0.15 0.2 0 0.2 0.15 0.1 0.05 0 0.05 0.1 0.15 0 0.01 0.02 0.03 r (m) 0.04
4

0.01

0.02 0.03 r (m)

0.04

Figura 8.4: Cuatro primeras autofunciones emp ricas para el caso del calentamiento de una esfera. Para el desarrollo del modelo de orden reducido se aplicara el metodo de Galerkin. Con tal n se obtienen las funciones 'i a partir de las i calculadas en el apartado anterior, por el metodo propuesto en la seccion 8.2.2. Aplicando el metodo de Galerkin se obtiene el modelo de orden reducido:

X ai = diT_ext + bi j aj i = 1 : : : k _
k j =1

(8.48)

siendo di y bi j los coe cientes del sistemas de ODEs calculados como:

di = 'i rdr (8.49) r Z 2' bi j = ( 'i( @@r2j + 1 @'j )rdr) (8.50) r @r r El modelo de orden reducido obtenido, consistente en 4 ODEs, se comparo con el nominal calculado usando NMOL, para varios per les de control, con

8.3. Aplicacion al procesamiento termico de alimentos

239

resultados muy satisfactorios. A modo de ejemplo, se muestra en la gura 8.5, la evolucion temporal de la temperatura en varios puntos en el interior de la esfera calculada con el modelo nominal y con el modelo de orden reducido, demostrandose la adecuada capacidad predictiva del modelo reducido, con un error maximo de 0:28 o C .
Temperatura ( C) 100
o

90

80

70

60

50

40

1000

2000

3000

4000 Tiempo (s)

5000

6000

7000

8000

Figura 8.5: Comparacion de los modelos nominal (l neas) y reducido (s mbolos) en la simulacion del proceso de calentamiento de una esfera.

8.3 Aplicacion al procesamiento termico de alimentos


El procesamiento termico de alimentos es una de las operaciones mas importantes de la industria alimentaria. Desde el trabajo pionero de Teixeira et al. (1969), muchos investigadores se han dedicado al desarrollo de nuevas metodolog as, basadas en el uso de modelos matematicos del proceso, para su dise~o y optimizacion. Varios n art culos revisan los avances alcanzados en los ultimos a~os: Silva et al. (1993), n Ramesh (1993), Holdsworth (1996), Durance (1997) y Ramaswamy et al. (1997) .

240

Cap tulo 8. Optimizacion de procesos distribuidos: modelos reducidos

La optimizacion dinamica de este tipo de procesos continua siendo un problema de gran interes para la comunidad cient ca. Ejemplos de algunos trabajos recientes son los de Terajima y Nonaka (1996), Chalabi et al. (1999), Willigenburg y Straten (1999), Alvarez-Vazquez y Mart nez (1999) y Kleis y Sachs (2000). La mayor a de estos trabajos se basan en el uso de modelos mas o menos rigurosos basados en las leyes de conservacion, expresadas, generalmente, como balances microscopicos. De hecho, la practica totalidad de los metodos de la ingenier a de procesos se basan en el uso de modelos, y aunque el potencial del uso de modelos matematicos es enorme (Fryer, 1994 Verboven et al., 1997), es habitual que la complejidad de tales modelos implique un elevado coste computacional de simulacion. Por supuesto, las aplicaciones en tiempo real, tales como optimizacion en l nea o control predictivo basado en modelo (MPC) que requieren una simulacion rapida del modelo, quedan descartadas. Ejemplos claros de esto son los procesos de tratamiento termico de alimentos considerados en los cap tulos anteriores. Esta situacion es frecuente en la ingenier a de alimentos, y en particular en el procesado termico ya que los modelos consisten PDAEs no lineales. Por lo tanto, la resolucion de problemas de dise~o y optimizacion, que requieren un numero elevado n de simulaciones (Banga et al., 1991), se vuelve demasiado costosa para aplicaciones industriales en tiempo real. En los ultimos a~os se han dedicado grandes esfuerzos a la busqueda de moden los simpli cados del procesamiento termico de alimentos, que conserven el caracter predictivo del modelo riguroso basado en primeros principios pero cuya solucion sea mas rapida. As se han desarrollado modelos semiemp ricos (por ejemplo, Noronha et al., 1995 Kim y Teixeira, 1997), que aunque utiles en determinadas situaciones (Teixeira et al., 1999), tienen algunas limitaciones: 1. Tienen caracter local, es decir son validos unicamente para un alimento particular y unas condiciones experimentales particulares. 2. Debido a su naturaleza semi-empirica, no es posible conocer a priori la precision que proporcionan o asegurar su robustez. 3. Por ultimo, no pueden utilizarse para calcular ciertas magnitudes relevantes tales como la retencion de nutrientes o propiedades organolepticas. Aqu se presentara el uso del metodo POD descrito para la derivacion de modelos de orden reducido que describan de manera rigurosa el procesamiento termico, superando as estas limitaciones.

8.3. Aplicacion al procesamiento termico de alimentos

241

Descripcion matematica del procesamiento termico de alimentos


Tal y como se ha dicho en los cap tulos 6 y 7, los modos t picos de calentamiento de alimentos son la conduccion y la conveccion, siendo la conduccion el mecanismo relevante en el calentamiento de solidos y alimentos muy viscosos y la conveccion el mecanismo mas relevante para alimentos l quidos. Con el n de describir el efecto que produce la temperatura en las propiedades del alimento, es preciso disponer de un modelo riguroso basado en los balances de masa y energ a. El modelo debe incluir ademas las ecuaciones que proporcionan la variacion de las concentraciones de posibles esporas de microorganismos presentes en el alimento, de manera que permiten calcular la seguridad del alimento. Tambien habra que incluir las dinamicas correspondientes a las concentraciones de sustancias responsables de la calidad del producto, tales como vitaminas o enzimas. En general, la variacion temporal y espacial de tales variables, que se denotaran de manera general por x, se puede describir mediante la PDE:

xt = v(x) x + f (x) (k(x) x) + q(x x


; r r r r

t)

(8.51)

valida en un dominio de nido por las coordenadas espaciales , siendo v(x), f (x), k(x) y q(x t) funciones no lineales del campo, v(x) y k(x) corresponden a terminos de conveccion y conduccion respectivamente, mientras que q(x t) incluye posibles efectos de generacion de calor. Esta formulacion permite la descripcion de practicamente todos los procesos de calentamiento de alimentos, incluyendo solidos y l quidos. En el caso de la esterilizacion termica de alimentos solidos, x = T , q = v = 0 y la Eqn. (8.51) resulta:

! @f (T ) T (k(T ) T ) (8.52) @t con la condicion inicial T ( t = 0) = T0( ). Donde k(T ) es la conductividad termica y f (T ) una funcion no lineal de la forma:
Tt = f (1 ) T
r r ;

f (T ) = (T )c(T )

(8.53)

siendo y c la densidad y la capacidad calor ca del alimento, respectivamente. La ecuacion (8.52), describe la dinamica de evolucion de la temperatura en el solido. La degradacion de las esporas de microorganismos y la de los nutrientes puede describirse tambien utilizando la ecuacion (8.51) con las siguientes sustituciones:

242

Cap tulo 8. Optimizacion de procesos distribuidos: modelos reducidos

El campo general u se sustituye por la concentracion de la especie de interes Ci(t ). El termino general de generacion q(u t) se sustituye por la correspondiente cinetica de degradacion dependiente de la temperatura ri (Ci T ) Si se asume que la especie de interes no se distribuye ni por conveccion ni por difusion como sucede, por ejemplo, en los alimentos solidos, v = k = 0, y se obtiene:

dCi(t ) = r (C T ) (8.54) i i dt La cinetica de la destruccion termica de microorganismos o la degradacion de nutrientes se asume que satisface una cinetica de pseudo-primer orden de acuerdo con un modelo TDT (thermal death time, Stumbo, 1973), de manera que la ec. (8.54) resultante es: dCi(t) = ( ln 10 )C (t) exp( T (r z t) Ti ref ) (8.55) dt Di ref i zi ref donde el sub ndice i se re ere bien a las esporas de microorganismos bien a los nutrientes de interes. Di ref y zi ref se corresponden con los parametros cineticos a la temperatura de referencia Ti ref . Con el n de resolver la ec. (8.51), deben imponerse ademas condiciones frontera adecuadas.
; ;

8.4 Esterilizacion termica de alimentos envasados


Con el n de ilustrar la aplicabilidad y ventajas de las tecnicas propuestas en este trabajo, se ha seleccionado un problema de interes industrial que consiste en la esterilizacion termica de alimentos envasados en recipientes cil ndricos. Este problema se puede considerar un clasico ya que ha sido considerado por numerosos autores (Silva et al., 1993 Durance, 1997). Es importante resaltar el hecho de que esta metodolog a es general y aplicable a cualquier tipo de proceso termico, independientemente de la no linealidad del modelo resultante y de la geometr a del envase. En el caso considerado, similar al discutido en la seccion 6.5, la ecuacion de transferencia de calor (8.51) resulta:

@T = k @ 2 T + 1 @T + 1 @ 2 T + @ 2 T @t c @r2 r @r r2 @ 2 @z2

(8.56)

8.4. Esterilizacion termica de alimentos envasados

243

donde las propiedades de los alimentos se han supuesto independientes de la posicion y de la temperatura. Si se considera ademas un medio isotropo, de manera que se pueden imponer condiciones de simetr a, la ec. (8.56) se reduce a:

! @T = @ 2 T + 1 @T + @ 2 T (8.57) @t @r2 r @r @z2 donde es la difusividad termica. Las condiciones frontera en el exterior del cilindro, son de la forma:
T (R z t) = Tret (t) T (r L t) = Tret (t)
(8.58) (8.59)

Se asume, ademas, que la temperatura inicial del producto es uniforme:

Notese que sera igualmente sencillo considerar coe cientes de transferencia de calor en la super cie del envase. Sin embargo, la anterior es la formulacion habitual en la bibliograf a. Las condiciones de simetr a son (considerando un cuarto del plano medio): @T (0 z t) = 0 (8.60) @r @T (r 0 t) = 0 (8.61) @z

T (r z 0) = T0 (8.62) La degradacion termica de las esporas microbianas o de la calidad se modelizan utilizando el modelo TDT (ec. (8.55)). La expresion de la cinetica correspondiente a los nutrientes, permite el calculo de la retencion volumica media a tiempo nal, lo que dara una medida precisa de la calidad del producto:
1 Z VT exp ; ln 10 Z tf exp T (r z t) ; TN ref ln 10 dt dV (8.63) retN (tf ) = V DN 0 ZN ref T 0 Ademas se considerara la letalidad en el punto cr tico como medida de la destruccion de los microorganismos:
;

! !

Z tf Tc(t) TM ref Fc(t = tf ) = 10 ZM ref dt (8.64) 0 Los parametros del caso estudiado se presentan en la tabla 8.1, y corresponden a un pate de cerdo, tal y como fue considerado por Teixeira et al.(1975) y Banga et al. (1991), entre otros.

244

Cap tulo 8. Optimizacion de procesos distribuidos: modelos reducidos

Radio envase (R, m) 0:04375 Altura envase (2L, m) 0:1160 2 s;1 ) (m 1:5443 10;7 T0(oC ) 71.11 Microorganismo Bacillus Stearothermophilus zM ref (oC ) 10:0 DM ref (s) 240:0 TM ref (oC ) 121:11 Nutriente Tiamina zN ref (oC ) 25:56 DN ref (s) 10716:0 oC ) TN ref ( 121:11 Tabla 8.1: Parametros del problema de esterilizacion de pate de cerdo.

8.4.1 Dise~o del proceso n


El problema de dise~o consiste en calcular el tiempo de proceso para un per l de n control (temperatura del autoclave) constante dado, con el n de garantizar una letalidad m nima a tiempo nal (Stumbo, 1973). Idealmente la temperatura del autoclave (Tret(t)) se divide en dos fases: una de calentamiento a una temperatura constante Th y otra de enfriamiento Te de duracion su ciente para garantizar que todos los puntos dentro del alimento estan por debajo de una temperatura dada (de no ser as , la letalidad seguir a creciendo y el problema estar a mal de nido). La duracion del per odo de enfriamiento se toma, habitualmente como un 20% del tiempo de calentamiento. Sin embargo, esta descripcion ideal de la temperatura del autoclave no se corresponde con la real. Esto se debe a restricciones f sicas tales como, el per odo que se requiere para que el autoclave alcance la temperatura de calentamiento deseada (tu), y el tiempo requerido (td ) para la bajada de temperatura hasta alcanzar la temperatura de enfriamiento (Tc) (Alonso et al., 1998). Por consiguiente, aqu se ha considerado un per l de temperatura mas realista para la resolucion del problema de dise~o, incluyendo los per odos de subida y bajada n gradual de temperatura descritos por rampas, lo que se ajusta bastante a la realidad. En la gura 8.6 se representa gra camente el per l de Tret utilizado. Notese que las pendientes de estas rampas, se han considerado jas, ya que provienen de las limitaciones f sicas del calentamiento y enfriamiento.

8.4. Esterilizacion termica de alimentos envasados

245

Temperatura Th (Temperatura calentamiento) T (t) ret

T (Temperatura e enfriamiento)

Tiempo subida

Perodo calentamiento tf

Tiempo Tiempo bajada Perodo enfriamiento

Figura 8.6: Per l de temperatura t pico (CRT) durante un proceso de esterilizacion. La letalidad microbiana se mide habitualmente de dos formas: en la primera se calcula una media volumetrica (Fs) y en la segunda se calcula la letalidad en el punto cr tico (Fc), que para geometr as regulares, condiciones frontera simetricas y alimentos calentados por conduccion, se toma como el centro geometrico. Para el caso considerado en este trabajo y desde el punto de vista practico, es su ciente considerar que el punto cr tico coincide con el centro geometrico del cilindro. Sin embargo, es importante destacar que para alimentos no homogeneos y anisotropos, el punto de menor letalidad al nal del proceso no coincide con el centro geometrico, y de hecho, no es un punto estacionario (Banga et al., 1993). Para un valor deseado de letalidad, Fc obj , y para unas temperaturas de calentamiento y enfriamiento dadas, el problema de dise~o puede enunciarse como sigue: n Encontrar el tiempo de calentamiento (th) para una cierta temperatura de calentamiento (Th) con el que alcanzar un valor deseado de letalidad (Fc obj ) a tiempo nal (es decir, despues del per odo de enfriamiento). El problema es equivalente a encontrar los ceros de la funcion Fc = Fc obj que se de ne como una funcion unidimensional de th: 0 = Fc(tf ) ; Fc obj =

Z tf
0

10

Tc (t) TM ref ZM ref dt ; F c obj


;

(8.65)

donde la temperatura en el punto cr tico (Tc) se calcula resolviendo la ecuacion de

246

Cap tulo 8. Optimizacion de procesos distribuidos: modelos reducidos

transferencia de calor, con las condiciones frontera dependientes de la temperatura en el autoclave Tret(t). Para la solucion de la ecuacion no lineal (ec. (8.65)) se ha utilizado el metodo de Muller implementado en la rutina DZREAL de IMSL. El dise~o del proceso termico de un alimento envasado con una geometr a dada, se n realiza habitualmente para un conjunto de temperaturas de calentamiento y un rango de valores deseados para la letalidad en el punto cr tico. Ademas, se suele calcular la retencion de nutrientes equivalente para cada una de las soluciones obtenidas, de forma que es posible evaluar la in uencia de la condiciones de proceso en la calidad del producto nal. Los resultados obtenidos se presentan en modo gra co, representando la retencion de nutrientes frente a la temperatura de calentamiento, con un numero de curvas que corresponden a distintos valores de la letalidad (ver por ejemplo, Teixeira et al., 1969). Estas curvas son muy utiles para visualizar el impacto que tiene el cambio en las condiciones de operacion en la calidad nal del producto. De hecho es muy facil identi car que procesos corresponden a una mayor retencion de nutrientes para cada valor de la letalidad. En cuanto al tiempo de computacion requerido para la resolucion del problema de dise~o, la resolucion de la ec. (8.65) requiere un numero reducido de evaluaciones n del modelo, de manera que se puede resolver rapidamente en un PC. Sin embargo, el calculo de las curvas mencionadas, que es el objetivo real, requiere la resolucion de esa ecuacion un numero de veces relativamente elevado. Notese que para la evaluacion de la funcion es necesario resolver el sistema de ecuaciones que describe el proceso (es decir, la ecuacion de conduccion de calor y la letalidad microbiana). Una vez se ha calculado el tiempo de calentamiento, se calcula la retencion de los nutrientes integrando la correspondiente cinetica. Por consiguiente, como se vera, el uso de modelos de orden reducido puede jugar un papel muy importante en la reduccion del tiempo de computacion total, garantizando, una buena precision en los resultados.

8.4.2 Optimizacion dinamica


El objetivo del problema de optimizacion dinamica del proceso de esterilizacion es alcanzar una solucion de compromiso entre los efectos positivos y negativos del procesamiento termico del alimento. Es decir, encontrar el per l de temperatura de calentamiento (Tret(t)) que asegura una letalidad microbiana prede nida mientras que se maximiza una cierta funcion objetivo, por ejemplo, la retencion de nutrientes a tiempo nal.

8.4. Esterilizacion termica de alimentos envasados

247

Cuando el problema se reduce a encontrar el mejor per l de calentamiento constante (per l CRT), la solucion se obtiene facilmente mediante el proceso de dise~o n descrito en la seccion anterior o de manera mas precisa, combinando un metodo de optimizacion con el proceso de dise~o. n El problema de encontrar el per l general optimo de temperatura es mas complicado. Teixeira et al. (1975) fueron los primeros en considerar las ventajas de usar un per l de calentamiento variable para maximizar la retencion de nutrientes. Para ello utilizaron un metodo ad hoc basado en la evaluacion de diferentes per les de formas prede nidas sin utilizar ningun metodo de optimizacion. Saguy y Karel (1979) fueron los primeros en formular el problema como un problema de optimizacion dinamica, presentado una solucion basada en el uso del principio maximo de Pontryagin, y concluyendo que los per les variables (per les VRT) apenas ofrec an mejoras con respecto a los per les CRT en cuanto a la retencion de nutrientes se re ere. Nadkarni y Hatton (1985) criticaron esta metodolog a y presentaron una alternativa basada en el principio maximo distribuido. Sin embargo, algunos trabajos posteriores sugieren que los resultados obtenidos no eran optimos, probablemente debido a algun error en la simulacion del proceso en la etapa de enfriamiento. En el trabajo de Banga et al. (1991) se propone el uso de un metodo directo basado en CVP, a n de transformar el problema original en un NLP que se resuelve utilizando un metodo de optimizacion estocastico (ICRS/DS). Se consideraron varias funciones objetivo, concluyendo que, para los casos en los que se maximizaba la calidad super cial o se minimizaba el tiempo de proceso, los per les VRT pod an ser muy competitivos, mejorando en muchos casos los resultados obtenidos con los clasicos CRT. Estos resultados fueron con rmados posteriormente por otros autores (ver por ejemplo las revisiones de Silva et al., 1993 o Durance, 1997). El problema sigue siendo objeto de estudio como lo prueban los numerosos trabajos publicados al respecto (Terajima y Nonaka, 1996 Chalabi, Willigenburg y Straten, 1999 AlvarezVazquez y Mart nez, 1999 Kleis y Sachs, 2000). Aqu se considerara la resolucion del problema de maximizacion de la retencion nal de nutrientes, retN (tf ), imponiendo una restriccion sobre la letalidad y otra sobre la temperatura nal en el punto cr tico. Para ello se utilizara un metodo directo basado en CVP, y el modelo de orden reducido obtenido de la aplicacion del metodo POD. La formulacion matematica del problema es como sigue: Encontrar Tret (t) en el intervalo t 2 t0 tf ] para maximizar: sujeto a:

J = retN (tf )

(8.66)

248

Cap tulo 8. Optimizacion de procesos distribuidos: modelos reducidos

- la dinamica del sistema ecs. (8.55)-(8.63), - una restriccion a tiempo nal en la temperatura maxima permitida en el interior del alimento: Tc(r z t = tf ) Tmax tf 8r z 2 VT (8.67) - una restriccion en el valor de letalidad en el punto cr tico a tiempo nal: Fc(t = tf ) Fc obj (8.68) - l mite superior e inferior para la temperatura del autoclave, la maxima re ejando las limitaciones f sicas debido al l mite de presion en el interior del autoclave y la m nima debida a la temperatura del medio de enfriamiento: min max Tret Tret Tret (8.69)

8.4.3 Obtencion del modelo de orden reducido


Al igual que se hizo con el caso del calentamiento de una esfera, a continuacion se detallan los pasos a seguir para desarrollar el modelo de orden reducido: En primer lugar se transforma el problema original con condiciones frontera no homogeneas en un sistema equivalente homogeneo: @! + @Tret = L(!) = ( @ 2 ! + 1 @! + @ 2 ! ) (8.70) @t @t @r2 r @r @z2 donde la nueva variable ! tiene la forma ! = T ; Tret . En esta formulacion equivalente, la variable de control, que es la temperatura del autoclave aparece expl citamente en la PDE resultante. La cinetica de degradacion, que posee un termino no lineal exponencial como los descritos en la seccion 8.2.5, se incluye en esta formulacion a traves de una transformacion del tipo (8.38): = exp( ln 10 w) ; 1 Di ref que en combinacion con (8.70) resulta en la PDE: (8.71)

@ + ln 10 ( +1) @Tret = ( @ 2 + 1 @ + @ 2 ) @t Di ref @t @r2 r @r @z2 con condiciones frontera homogeneas.

ln 10 ( @! @ ; @! @ ) Di ref @r @r @z @z (8.72)

8.4. Esterilizacion termica de alimentos envasados

249

Notese que con esta transformacion, la no linealidad de tipo exponencial que aparec a en el modelo original se reduce a un termino bilineal en las derivadas espaciales de ! y , permitiendo la aplicacion del metodo de Galerkin. Las condiciones iniciales para (8.70) y (8.72) son: !(r z 0) = T0 ; Tret (0) (8.73) ln 10 !(r z 0)) ; 1 (r z 0) = exp( D (8.74)
i ref

La evolucion de la concentracion de nutrientes se describe en funcion de las nuevas variables:

@lnCN = ( ln 10 ) exp( Tret (t) TN ref )( (r z t) + 1) @t DN ref zN ref donde, por conveniencia, se usa lnCN en lugar de CN .
; ;

(8.75)

Se ha simulado el modelo nominal utilizando el metodo NMOL (Schiesser, 1991). En las guras 8.7-8.9, se muestran resultados t picos y, a modo de ejemplo, 4 snapshots de la matriz Sd para cada una de las variables.
8000 8000

Tiempo (s)

4000 2000 0 0.05 0.03 z (m) 0.01 0 25 20 15 10 0.04 0.02 r (m)

Tiempo (s)

6000

6000 4000 2000 0 0.05 0.03 z (m) 0.01 0 0.04 0.02 r (m)

0.8

0.6

0.4

0.2

Figura 8.7: Snapshots t picos para la variable ! en el problema de esterilizacion.

Figura 8.8: Snapshots t picos para la variable en el problema de esterilizacion.

250

Cap tulo 8. Optimizacion de procesos distribuidos: modelos reducidos

8000

Tiempo (s)

6000 4000 2000 0 0.05 0.03 z(m) 0.01 0 0.22 0.18 0.14 0.1 0.06 0.02 0.04 0.02 r (m)

Figura 8.9: Snapshots t picos para la variable lnCN en el problema de esterilizacion. Una vez recopilados los datos se resuelve el problema de autovalores. En la gura 8.10 se muestra la energ a capturada por las primeras autofunciones, para cada una de las tres variables.
100 99.5 99 98.5 98 97.5 97 96.5 96 95.5 95 1 Ln CN

Energa (%)

3 4 5 Nmero de autofunciones

Figura 8.10: Energ a capturada por las primeras autofunciones emp ricas en el problema de esterilizacion de alimentos.

8.4. Esterilizacion termica de alimentos envasados

251

De la gura 8.3 se deduce que para describir el proceso de manera muy precisa, basta con tomar 5 autofunciones para describir la variable !, otras 5 para , y 3 para lnCn capturando, de esta forma un 99:999% de la energ a total. Estas autofunciones se muestran en las guras (8.11) - (8.13).
1 0 -0.02 -0.04 0.05 0.025 z (m) -0.05 0.05 0.04 0.025 z (m) 0.04 0 0 4 0.02 r (m) 0.05 0 2

0 0 3

0.02 r (m)

0.05 0 -0.05 0.05 0.025 z (m) 0.05 0 -0.05 0.05 0.04 0.025 z (m) 5

0.04 0 0 0.02 r (m)

0 0

0.02 r (m)

0.05 0 -0.05 0.05 0.025 z (m)

0.04 0 0 0.02 r (m)

Figura 8.11: Autofunciones emp ricas para la descripcion de la variable ! en el problema de esterilizacion.

252

Cap tulo 8. Optimizacion de procesos distribuidos: modelos reducidos

0 -0.02 -0.04 0.05 0.025 z (m)

0.02 0 -0.02 -0.04 0.04 0 0 0.02 r (m) 0.05 0.025 z (m) 0.04 0 0 0.02 r (m)
4

0.02 0 -0.02 -0.04 -0.06 -0.08 0.05 0.025 z (m)

0 0

0.02 r (m)

0.1 0.05 0 -0.05 0.05 0.04 0.025 z (m)


5

0.04 0 0 0.02 r (m)

0.1 0.05 0 -0.05 0.05 0.025 z (m)

0.04 0 0 0.02 r (m)

Figura 8.12: Autofunciones emp ricas para la descripcion de la variable en el problema de esterilizacion.

8.4. Esterilizacion termica de alimentos envasados


253

-0.02 -0.025

0.05

0 -0.03-0.035 0.05 0.025 z (m) -0.05 0.05 0.04 0.025 z (m)


3

0.04 0 0 0.02 r (m)

0 0

0.02 r (m)

0.05 0 -0.05 0.05 0.025 z (m) 0.04 0 0 0.02 r (m)

Figura 8.13: Autofunciones emp ricas para la descripcion de la variable lnCN en el problema de esterilizacion. Cada una de estas variables puede aproximarse por un desarrollo en serie de la forma:

!(r z t) = ~

k! X i=1 k i=1

a!i (t)'!i(r z)

(8.76) (8.77) (8.78)

~ (r z t) = X a i (t)' i(r z)

X ~ lnCN (r z t) = aNi(t)'Ni(r z)
kN i=1

Como paso previo a la generacion del modelo reducido se calculan las funciones ' a partir de las funciones , tal y como se hizo para el caso del calentamiento de la esfera. El modelo de orden reducido se calcula sustituyendo las

254

Cap tulo 8. Optimizacion de procesos distribuidos: modelos reducidos

expresiones (8.76-8.78) en las ecuaciones (8.70-8.75) y proyectando sobre las autofunciones propias calculadas para !, y lnCN . De esta forma, se obtiene la dinamica de los coe cientes temporales a!i , a i y aNi :

a!i = c!i @Tret + _ @t


;

k! X j =1

b!ij a!j i = 1 k!
j

(8.79) (8.80)

k k! k ln 10 @Tret (a + c ) + X b a + X X b a a a i = ; D @t _ i i ij j ijk !k ref j =1 k=1 j =1

con i j = 1 k y k = 1 k! .

X ln aNi = ( D 10 ) exp( Tret(tz) TN ref )(cNi + bNij a j ) _ (8.81) N ref N ref j con i = 1 kN j = 1 k Donde los terminos b y c en las ecuaciones (8.79)-(8.81) se calculan a partir de la proyeccion de Galerkin:
; ;

b!ij = b

Z
VT

'!i(r z) ('!j (r z))dV i = 1 k! j = 1 k!


L

(8.82)

ij

Z
VT

' i(r z) (' j (r z))dV i = 1 k j = 1 k


L

(8.83)

@ @ @ con L = ( @r22 + 1 @r + @z22 ), r

ln 10 Z ' ( @'!k @' j ; @'!k @' j )dV bijk = ; D i @r @r @z @z ref V T con i j = 1 k y k = 1 k! .

(8.84)

bNij =

Z
VT

'Ni' j dV i = 1 kN j = 1 N

(8.85)

c!i =

Z
VT

'!i(r z)dV i = 1 k!

(8.86)

8.4. Esterilizacion termica de alimentos envasados

255

c i=

Z
VT

' i(r z)dV i = 1 k

(8.87)

cNi =

Z
VT

'Ni(r z)dV i = 1 kN

(8.88)

Finalmente, se obtiene el modelo reducido que consta de un total de 14 ODEs: 5 ODEs describen la distribucion de temperaturas, 8 ODEs describen la degradacion de nutrientes y la ecuacion restante describe la letalidad en el punto cr tico (Fc).

8.4.4 Validacion del modelo de orden reducido


Con el n de evaluar la calidad del modelo dado por las ecs. (8.79)-(8.81), se ha considerado un per l de calentamiento CRT t pico, como el presentado en la gura 8.6. Para la solucion del modelo nominal se ha utilizado el metodo numerico de las l neas (Schiesser, 1991) con un nivel de discretizacion espacial de 41 41 elementos y una aproximacion de segundo orden, garantizando as una gran precision en los resultados. Despues de aplicar NMOL, el modelo nominal resulto en 3363 ODEs: 1681 para describir la distribucion de temperaturas, una ecuacion para la evaluacion de la letalidad en el punto cr tico (Fc) y las 1681 restantes para el calculo de la distribucion de concentracion de nutrientes en el interior del alimento. Para la resolucion de ambos modelos se ha utilizado LSODA (Hindmarsh, 1983), integrador estandar basado en el metodo BDF, lo que permite la resolucion de problemas r gidos. En la gura 8.14 se presenta la evolucion de la temperatura en un conjunto de puntos del interior del alimento obtenida con ambos modelos. Dado que la letalidad microbiana en el punto cr tico (Fc(t)) y la retencion volumica media (retN (t)) son magnitudes de interes para la resolucion de los problemas de dise~o y optimizacion, n tambien se realiza una comparacion de los valores predichos por ambos modelos. Los resultados se representan en las guras 8.15 y 8.16 respectivamente.

256

Cap tulo 8. Optimizacion de procesos distribuidos: modelos reducidos

110 100 90 80 70 60 50 40 30

Temperatura ( o C) Tret

20 0

1000

2000

3000

4000 5000 Tiempo (s)

6000

7000

8000

Figura 8.14: Comparacion de los modelos nominal (l neas) y reducido (s mbolos): simulacion de la distribucion de temperaturas en el proceso de esterilizacion (se muestran las T en varios puntos del alimento).
25 20 15 10 5 0 0 2000 4000 6000 Tiempo (s) 8000 F (s) C Nominal Reducido RetN(t) 1 0.98 0.96 0.94 0.92 0.9 0.88 0.86 0.84 0.82 0 Nominal Reducido

2000

4000 6000 Tiempo (s)

8000

Figura 8.15: Comparacion de los modelos nominal (l nea) y reducido (s mbolo): simulacion de la letalidad en el punto cr tico.

Figura 8.16: Comparacion de los modelos nominal (l nea) y reducido (s mbolo): simulacion de la retencion volumica media de nutrientes.

8.4. Esterilizacion termica de alimentos envasados

257

Como se observa en las guras, el modelo de orden reducido representa con gran precision la dinamica del proceso, siendo practicamente indistinguibles los resultados obtenidos por uno y otro modelos. Esto es especialmente importante si se tiene en cuenta que el tama~o del modelo nominal es 240 veces el tama~o del modelo n n reducido. No es, por tanto, sorprendente que en 1 s (PC Pentium III/ 450 MHz) se realicen 64 evaluaciones del modelo reducido, mientras que la simulacion del modelo nominal requiere 1193 s de tiempo de computacion. Parece, pues, evidente que el modelo reducido calculado en este trabajo sera un muy buen candidato para la solucion rapida y precisa de los problemas de dise~o y optimizacion descritos en las n secciones 8.4.1 y 8.4.2 respectivamente.

8.4.5 Resultados del problema de dise~o n


Para la resolucion del problema de dise~o se utiliza el modelo de orden reducido n formado por 5 ODEs que describen el comportamiento de la temperatura y una ODE extra para el calculo de la letalidad en el punto cr tico. Una vez se ha resuelto la ec. (8.65), se resuelve el modelo completo de 14 ODEs permitiendo el calculo de la retencion de nutrientes correspondiente a la solucion hallada. Para el modelo nominal se ha utilizado en este caso, una discretizacion de 11 11 nodos. Este modelo, aunque de dimension menor que el utilizado en la validacion del modelo reducido, ofrece una precision razonable para las aplicaciones de dise~o n y optimizacion, y el coste computacional disminuye notablemente. El modelo resultante consiste en 121 ODEs para la descripcion de la temperatura, una ODE extra para la evaluacion de Fc, y un total de 242 ODEs para el caso en el que se calcula la retencion volumica media de nutrientes. El uso del modelo de orden reducido permite reducciones de hasta 20 veces en tiempo de calculo, en cuanto a simulacion se re ere, realizando hasta 150 simulaciones en 1 s, mientras que para el modelo nominal solo se realizan 8. Como consecuencia, las reducciones en tiempo de computacion del proceso total de dise~o n son, como se vera, muy importantes. Se han calculado los tiempos de calentamiento para 6 valores diferentes de letalidad (Fc obj ), dentro de un rango de valores entre 8 y 18 minutos, y 12 valores de temperatura de calentamiento comprendidos entre 110oC y 140oC . En total son 72 los problemas de dise~o a resolver. Usando el modelo reducido el coste comn putacional total asciende a tan solo 4s mientras que para el modelo nominal se han requerido 76s, alcanzando en ambos casos resultados muy semejantes. Estos resul-

258

Cap tulo 8. Optimizacion de procesos distribuidos: modelos reducidos

tados se muestran en las guras 8.17 y 8.18 donde la retencion nal de nutrientes y los tiempos de computacion se representan frente a la temperatura del autoclave para varios valores de la letalidad.
0.6 0.5 0.4 0.3 0.2 0.1 0 110 115 120 125 130 Temperatura (oC) 135 140 Fc = 8 min Fc = 10 min Fc = 12 min Fc = 14 min Fc = 16 min Fc = 18 min Retencin (%)

Figura 8.17: Resultados obtenidos con el modelos reducido para el problema de dise~o del proceso de esterilizacion: retencion de nutrientes. n
350 300 250 200 150 100 50 0 th ( tiempo de calentamiento, min) Fc = 8 min Fc = 10 min Fc = 12 min Fc = 14 min Fc = 16 min Fc = 18 min

110

115

120

125 130 Temperatura (oC)

135

140

Figura 8.18: Resultados obtenidos con el modelos reducido para el problema de dise~o del proceso de esterilizacion: tiempo de calentamiento. n

8.4. Esterilizacion termica de alimentos envasados

259

8.4.6 Resultados del problema de optimizacion dinamica


EL problema de optimizacion dinamica considerado responde a la formulacion presentada en la seccion 8.4.2, con una restriccion en la letalidad a tiempo nal Fc obj 876 s, que corresponde al ejemplo I considerado en el trabajo de Banga et al. (1991). Para resolver este problema se ha utilizado la ultima version del metodo ICRS/DS (Banga et al., 1997 Banga et al., 1998). El objetivo aqu es evaluar la reduccion en tiempo de computacion resultante de utilizar un modelo de orden reducido. Notese que el uso de un metodo de optimizacion determinista podr a ser mas adecuado para aplicaciones en tiempo real ya que, como se observaba por ejemplo con TNHp, la convergencia es muy rapida. Sin embargo, los resultados obtenidos, en cuanto al aumento de e ciencia se re ere, son extrapolables al caso en el que se utilice un metodo determinista. Es mas, la relacion entre los tiempos de computacion aumentara debido al calculo de las sensibilidades con respecto a las variables de control. Una vez mas, para el modelo nominal se ha utilizado una malla de 11 11 nodos, resultando en un conjunto de 243 ecuaciones, que puede ser evaluado a una velocidad de 5 simulaciones por segundo (PC Pentium III/450Mhz). El modelo de orden reducido consta de 14 ODEs, tal y como se describio en la seccion 8.4.3, con una media de 64 evaluaciones por segundo. Por consiguiente, para un numero jo de evaluaciones, se podr an obtener reducciones de hasta 13 veces en los tiempos de computacion. La resolucion del problema de optimizacion dinamica con el modelo de orden reducido resulto en un valor de retencion maximo de un 47:3% (en concordancia con los resultados presentados por Banga et al., 1991) en menos de 50 s de calculo. El per l de control optimo, y el valor de la temperatura en el punto cr tico correspondiente, se presentan en la gura 8.19, mientras que en las guras 8.20 y 8.21 se representan la retencion volumica media y la letalidad en el punto cr tico, respectivamente.

260

Cap tulo 8. Optimizacion de procesos distribuidos: modelos reducidos

140 120 Temperatura ( o C) 100 80 60 40 20 Perfil ptimo de temperatura Tret Temperatura en el punto crtico Tc 0 1000 2000 3000 4000 5000 6000 7000 8000 Tiempo (s)

Figura 8.19: Per l de control optimo y temperatura en el punto cr tico para el proceso de esterilizacion de alimentos. Resultados obtenidos con el modelo reducido.

900 800 700 600 500 400 300 200 100 0 0

F C

2000

4000 6000 Tiempo (s)

100 95 90 85 80 75 70 65 60 55 50 45 8000 0

Retencin (%)

2000

4000 6000 Tiempo (s)

8000

Figura 8.20: Evolucion temporal de la Figura 8.21: Evolucion temporal de la retencion volumica media de nutrientes letalidad en el punto cr tico corresponcorrespondiente a la pol tica optima de diente a la pol tica optima de operacion. operacion.

8.4. Esterilizacion termica de alimentos envasados

261

El uso del modelo nominal llevo a resultados similares pero con un tiempo nal de computacion de 720 s. Por lo tanto, se ha reducido el tiempo total en 15 veces, ya que la optimizacion del modelo reducido ha requerido un menor numero de evaluaciones de la funcion, lo que supone una ventaja adicional. Aunque estos resultados demuestran las ventajas de usar un modelo de orden reducido, una comparacion mas detallada permitira extraer nuevas conclusiones. En la gura 8.22 se presenta una comparacion de las curvas de convergencia de los dos procesos de optimizacion. En esta gura destaca la superioridad del uso del modelo reducido en terminos de e ciencia: empezando con un per l inicial que resulta en una retencion de menos de un 32%, se alcanza un valor de aproximadamente un 46% en tan solo 0:27 s, casi el mismo tiempo de computacion requerido para realizar la primera evaluacion del modelo nominal (0:20 s). Ademas, el uso del modelo reducido lleva a un valor de retencion por encima de un 47%, su ciente para la mayor a de las aplicaciones practicas, con solo 12 s de calculo.
48 46 44 Retencin (%) 42 40 38 36 34 32 30 -2 10 -1 10 Modelo de orden reducido Modelo nominal 0 1 2 10 10 10 Tiempo de CPU ( escala logartmica) 3 10

Figura 8.22: Comparacion de las curvas de convergencia de la optimizacion del proceso de esterilizacion utilizando el modelo nominal y el modelo reducido. Estos resultados demuestran que el modelo reducido puede ser utilizado de manera e ciente no solo para la resolucion de problemas de optimizacion dinamica, sino

262

Cap tulo 8. Optimizacion de procesos distribuidos: modelos reducidos

tambien para aplicaciones como optimizacion en tiempo real, o en control predictivo basado en modelo.

8.5 Conclusiones
En este cap tulo se ha presentado una nueva metodolog a para el desarrollo de modelos reducidos aplicados a la resolucion de problemas tales como el de dise~o y n optimizacion dinamica. Se ha aplicado con exito esta nueva metodolog a al problema de esterilizacion termica de alimentos, obteniendose aceleraciones de hasta 15 veces respecto a modelos nominales. Las posibilidades de este metodo son muy amplias, ya que es facilmente aplicable a la resolucion de problemas distribuidos de muy diversa ndole, con terminos no lineales, e independientemente de la geometr a.

Conclusiones

263

Conclusiones
En este trabajo se ha abordado el desarrollo de nuevas metodolog as de optimizacion dinamica de procesos distribuidos, con enfasis en su e ciencia y robustez. Como punto de partida, se ha elegido el esquema de parametrizacion del control, metodo directo que transforma el problema original en un problema de programacion no lineal (NLP) principal con un subproblema de valor inicial. A continuacion se detallan los principales resultados y aportaciones realizadas y se apuntan algunas l neas de trabajo para el futuro. La primera parte de esta investigacion se ha centrado en el desarrollo de metodos de optimizacion deterministas locales, que hacen uso de informacion de segundo orden exacta para resolver mas e cazmente el NLP principal. Como resultados mas relevantes cabe destacar: El calculo teorico riguroso de las sensibilidades parametricas de segundo orden y sus proyecciones. Esta derivacion se ha hecho para procesos generales distribuidos, descritos por sistemas de ecuaciones en derivadas parciales, diferenciales ordinarias y algebraicas. En este contexto se ha desarrollado e implementado una herramienta computacional, basada en calculo simbolico, que permite la generacion automatica de dicho conjunto de sensibilidades, de tal forma que facilita su aplicacion a la resolucion de diversos tipos de problemas de optimizacion de sistemas dinamicos. La implementacion de un nuevo metodo determinista local, basado en el metodo de parametrizacion de control y un metodo Newton modi cado (qN3), que hace uso de la evaluacion de las sensibilidades parametricas obtenidas teoricamente para calcular de forma muy e ciente el gradiente y el Hessiano exactos. El desarrollo de un segundo metodo determinista local (TNHp), basado en un metodo de Newton Truncado, que hace uso del gradiente y Hessiano proyectado, calculados a partir de las sensibilidades de primer y segundo orden 265

266

Conclusiones

proyectadas. Esta estrategia permite la resolucion e ciente de problemas de optimizacion dinamica de dimension elevada. El metodo se ha complementado con una tecnica de re nado de la aproximacion del control, RTNHp, que permite alcanzar niveles de discretizacion de control muy elevados con un moderado coste computacional, posibilitando la solucion e ciente de problemas cuyas pol ticas optimas tienen formas caprichosas. La validacion de estos metodos considerando la resolucion de un amplio conjunto de problemas de control optimo del ambito de la ingenier a de procesos, demostrado la superioridad de los nuevos metodos que hacen uso de informacion exacta frente a los que emplean diferencias nitas. Estos nuevos metodos (y en particular TNHp) tambien se han comparado muy favorablemente con los codigos de optimizacion dinamica mas establecidos en la actualidad (IDP y gOPT), siendo capaces de igualar, y en varias ocasiones mejorar, soluciones previamente publicadas. El problema NLP principal que resulta de aplicar la parametrizacion del control es frecuentemente multimodal debido a la naturaleza no lineal de la dinamica de muchos procesos, as como a la presencia de diversos tipos de restricciones. La segunda parte de este trabajo se ha ocupado del estudio y desarrollo de metodos de optimizacion global para resolver estos problemas de forma robusta. Como aportaciones mas relevantes se se~alan: n El analisis comparativo de varios metodos de optimizacion global de tipo estocastico, tanto secuenciales como basados en poblaciones, as como de varios metodos deterministas locales para re nar las soluciones de los primeros. La implementacion de un nuevo metodo h brido de optimizacion global, HyMDO, basado en la combinacion de los metodos estocastico y determinista mas competitivos. En una primera etapa, el metodo estocastico permite alcanzar la vecindad del optimo global. A continuacion, en una segunda etapa, el metodo determinista local permite re nar la solucion de forma e ciente. La aplicacion de esta nueva metodolog a a la resolucion de un conjunto de problemas de control optimo multiobjetivo y/o multietapa. El metodo h brido ha demostrado ser muy robusto, igualando o incluso superando los resultados obtenidos con otros metodos globales, con la ventaja adicional de una gran reduccion del tiempo calculo.

Conclusiones

267

La tercera parte de este trabajo se ha dedicado a la resolucion de problemas de optimizacion dinamica de procesos distribuidos, con enfasis en procesos termicos de la industria alimentaria, mediante el uso de las herramientas desarrolladas previamente. Como resultados principales destacan: La extension del metodo TNHp para la resolucion de problemas de control optimo de procesos distribuidos, mediante el estudio teorico y practico de metodos de resolucion avanzada del problema de valor inicial extendido. Estos metodos hacen uso de las propiedades del Jacobiano total del sistema, incrementando la e ciencia del proceso global de optimizacion. La aplicacion de esta metodolog a a la resolucion de un conjunto de problemas entre los que destaca el control optimo de la esterilizacion termica de alimentos y el de optimizacion dinamica del procesamiento termico de alimentos en hornos mixtos microondas-conveccion. En este ultimo caso se ha realizado una validacion experimental de las pol ticas optimas obtenidas. Estos estudios pusieron de evidencia una limitacion fundamental: el elevado coste de cada simulacion de un sistema dinamico distribuido limita la aplicacion de tecnicas iterativas que requieren un numero signi cativo de dichas simulaciones. Por ello, la ultima parte de este trabajo se concentro en tratar de reducir dicha limitacion. Como aportacion mas relevante destaca: El desarrollo teorico del calculo de modelos de orden reducido, basados en la expansion de Karhunen-Loeve (o metodo de descomposicion ortogonal propia) con extensiones apropiadas para el manejo de terminos no lineales as como de geometr as cil ndricas y esfericas. Ademas se ha desarrollado una herramienta computacional que permite generar de forma automatica tales modelos. Su aplicacion a la simulacion, dise~o y optimizacion dinamica del proceso de n esterilizacion termica de alimentos. Los resultados con rman su gran potencial, permitiendo una reduccion muy signi cativa de tiempos de calculo en problemas de diversa ndole con independencia de la geometr a o grado de no linealidad.

Tareas para el futuro


En el futuro cercano se pretende extender y aplicar estas metodolog as, con enfasis en la reduccion de modelos, a la resolucion de problemas distribuidos de nidos en

268

Conclusiones

geometr as tridimensionales generales, que combinen los fenomenos de transferencia de masa y energ a con los de momento, y todo ello considerando posibles terminos de generacion no lineales. Esto permitira la optimizacion dinamica, posiblemente en tiempo real, de procesos con ujo, lo que supone abarcar la practica totalidad de los procesos de interes en la industria alimentaria y biotecnologica. Asimismo, se pretende desarrollar controladores predictivos basados en modelo (MPC, model predictive controllers) que puedan operar en tiempo real y que sean facilmente transferibles a estos sectores industriales.

Apendices

269

Apendice I
En este apendice se muestran algunos modulos programados en MathematicaTMpara la generacion del sistema de ODEs a partir del uso del metodo NMOL y la informacion relevante para la integracion e ciente del sistema extendido. 1. Introduccion de datos:
(*DECLARACION DEL PROBLEMA EN PDEs, CASO 2D. DATOS A INTRODUCIR POR EL USUARIO*) tit: Titulo del problema a resolver nodes: N de ODEs acopladas al sistema de PDEs ncontrol: Numero variables de control (V i]) lx: Longitud segun eje x (r si coordenadas cilindricas) lz: Longitud segun eje z nx: Nivel de discretizacion espacial segun x/r nz: Nivel de discretizacion espacial segun z cftx0/cftxl:Tipo de condicion de contorno inicial/final en x/r cftz0/cftzl:Tipo de condicion de contorno inicial en z Tipos posibles: Dirichlet(1) U=...(U) Neumann (2) UX=...(U) cfx0, cfxl :Condicion de contorno inicial/final en x/r cfz0, cfzl:Condicion de contorno inicial/final en z ci : Condicion inicial coordtype: sistema coordenadas: cartesianas (1) /cilindricas (2) !!OJO, en el caso de cilindricas esto va a afectar al calculo en r=0 dado que existe una singularidad!! fd: Metodo de discretizaci\'{o}n fd=2, METODO DE ORDEN 2 (3 PUNTOS) fd=4, METODO DE ORDEN 4 (5 PUNTOS) PDE: UT: UT=f(U,UX,UXX) ODES: Ecuaciones diferenciales ordinarias

Ejemplo: Calentamiento de un cilindro (cilindro.nb):


tit="CALENTAMIENTO DE UN CILINDRO" nodes=0 ncontrol=1 lx=Rtot lz=Ltot

271

272

Apendice I.
nx=11 nz=11 nt=nx*nz+nodes cftx0=2 cfx0=0 cftz0=2 cfz0=0 cftxl=2 cfxl=h*(c 1]-U) cftzl=2 cfzl=h*(c 1]-U) ci=25.0 coordtype=2 fd=2 UT=k1*(UXX+(1/R)*UX+UZZ) (*Para el caso R=0*) If coordtype==2, UT2=k1*(2*UXX+UZZ) ]

2. De nicion de las funciones de derivacion en un package, (PDEsToODEs.m):


BeginPackage "PDEsToODEs`"] (*Funciones que aparecen en este package*) DERV12::usage= "DERV12 NDIM_,F_,rdelta_]: Calcula una aproximacion de orden 2 (3 puntos) para una derivada parcial espacial de orden 1. Argumentos: NDIM: Nivel de discretizacion F: Funcion a discretizar rdelta: Parametro fijo de la discretizacion" DERV14::usage= "DERV14 NDIM_,F_,rdelta_]: Calcula una aproximacion de orden 4 (5 puntos) para una derivada parcial espacial de orden 1. Argumentos: NDIM: Nivel de discretizacion F: Funcion a discretizar rdelta: Parametro fijo de la discretizacion" Begin "`Private`"] (*FUNCION DE APROXIMACION DE ORDEN 2*) DERV12 NDIM_,F_,rdelta_]:= Flatten Join {rdelta(-3F 1]]+4F 2]]-F 3]])}, Table rdelta(-F i-1]]+0 F i]] +F i+1]]),{i,2,NDIM-1}], {rdelta(F NDIM-2]]-4 F NDIM-1]] +3 F NDIM]])} ]] (*FUNCION DE APROXIMACION DE ORDEN 4*) DERV14 NDIM_,F_,rdelta_]:= Flatten Join

273
{rdelta(-50F 1]]+96F 2]]-72F 3]]+32F 4]]-6F 5]])}, {rdelta(-6F 1]]-20F 2]]+36F 3]]-12F 4]]+2F 5]])}, Table rdelta(2F i-2]]-16F i-1]]+0F i]]+16F i+1]]2F i+2]]),{i,3,NDIM-2}], {rdelta(-2F NDIM-4]]+12F NDIM-3]]-36F NDIM-2]]+ 20F NDIM-1]]+6F NDIM]])}, {rdelta(6F NDIM-4]]-32F NDIM-3]]+72F NDIM-2]]96F NDIM-1]]+50F NDIM]])} ]] End ] EndPackage ]

3. Aplicacion del metodo NMOL:


<<Statistics`DataManipulation` (*Aplica condiciones de contorno de Dirichlet*) If cftx0==1, Column U,1]=CFX0 ] If cftxl==1,Column U,nx]=CFXL ] If cftz0==1,U 1]]=CFZ0 ] If cftzl==1,U nz]]=CFZL ] (*CALCULO DE UX Y UXX*) (*DERIVADAS PARCIALES RESPECTO A X/R*) For i=1,i<=nz, YX=Column U,i] UX=. UXX=. If fd==2,UD=DERV12 nx,YX,rdx] ] If fd==4,UD=DERV14 nx,YX,rdx] ] If cftx0==2,UD 1]]=cfx0 ] If cftxl==2,UD nx]]=cfxl ] UX=UD For j=1,j<=nx,UR j,i]]=UX j]] j++] If fd==2,UXX=DERV12 nx,UX,rdx] ] If fd==4,UXX=DERV14 nx,UX,rdx] ] For j=1,j<=nx,URR j,i]]=UXX j]] j++] i++] (*CALCULO DE UZ Y UZZ*) (*DERIVADAS PARCIALES RESPECTO A X/R*) UD=. For i=1,i<=nx, YX=U i]] UY=. UYY=. If fd==2,UD=DERV12 nz,YX,rdz] ] If fd==4,UD=DERV14 nz,YX,rdz] ] If cftz0==2,UD 1]]=cfz0 ] If cftzl==2,UD nz]]=cfzl ] UY=UD For j=1,j<=nz,UZ i,j]]=UY j]] j++]

274

Apendice I.
If fd==2,UYY=DERV12 nz,UY,rdz] ] If fd==4,UYY=DERV14 nz,UY,rdz] ] For j=1,j<=nz,UZZ i,j]]=UYY j]] j++] i++]

(*CALCULO DE UT: en el caso se coordenadas cilindricas se aplica L'hopital, para evitar la singularidad*) If coordtype==2,UT 1]]=UT2 1]] ]

4. Calculo del Jacobiano y calculo de los vectores que indican la estructura dispersa correspondiente:
(*CALCULO DEL JACOBIANO*) MJ=Table mj i,j],{i,1,nt},{j,1,nt}] UTColumnform=Join Flatten UT],ODES] k=1 For i=1,i<=nt, For j=1,j<=nt, MJ i,j]]=Simplify D UTColumnform i]],y j]]] j++ ] i++ ] (*CALCULO DE INFORMACION RELATIVA A DISPERSION*) k=1 For j=1,j<=nt, For i=1,i<=nt, If ToString MJ i,j ]]]!="0",ja k]=i k=k+1 ] i++ ] ia j+1]=k j++ ] nnz=k-1 JA=Table ja j],{j,1,nnz}] ia 1]=1 IA=Table ia j],{j,1,nt+1}]

5. Calculo de sensibilidades de primer y segundo orden:


(*CALCULO DE SENSIBILIDADES DE ORDEN 1 Y ORDEN 2 (H*P)*) (*SENSIBILIDADES DE ORDEN 1: S1dot j]]= J*S1 j]]+Partial f *) (*Genera vectores y matrices utiles*) NotebookOpen "TR_SENS_2D.nb"] For j = 1, j <= ncontrol, S1dot j]] = MJ.S1 j]] + DFUTC j=j+1 ] (*SENSIBILIDADES DE ORDEN 2 (PROYECTADAS: S2dot j]]=MJ*S2 j]] + Sum Partial MJ* p S1 j]] +Sum Partialjk f* p*) For j=1, j<=ncontrol, S2dot j]]= MJ.S2 j]] + DMJc j]].S1 j]]+ DUTC2*SDelta j=j+1 ]

Apendice II
En este apendice se muestran los cheros de implementacion del problema de optimizacion dinamica del calentamiento de un cilindro, para su resolucion con gOPT. 1. Fichero .gPROMS donde se implementa el modelo dinamico del sistema:
#********************************************************** #cilidro.gPROMS #Calentamiento de un cilindro de patata por conduccion #********************************************************** DECLARE TYPE Temperature = 25.0 : 0.0 : 1000 UNIT = "DEGC" Numero = 0.0 : -1E300 : 1E300 NoType = 0.0 : -1e8 : 1e8 END # Declare #********************************************************** MODEL Cyl_Solid #********************************************************** PARAMETER # Propiedades del material K AS REAL RHO AS REAL Cp AS REAL H AS REAL alphat AS REAL # Geometria Rtot, Ltot AS REAL ZL AS REAL PI AS REAL DISTRIBUTION_DOMAIN raxis zaxis

AS AS

( 0 : Rtot ) ( 0 : Ltot )

275

276

Apendice II.
VARIABLE Tsolid AS DISTRIBUTION (raxis,zaxis) Text AS # Variables optimizacion Tmin AS Tmax AS Tdif AS zeta_avr AS SET PI := 4.0 * ATAN(1.0) ZL := 2.0 * Ltot alphat := K/(RHO*Cp)

of Temperature Temperature Numero Numero Numero Numero

# ZL: Altura maxima cilindro

BOUNDARY # Condicion frontera @ z=Ltot FOR r := 0|+ TO Rtot|- DO PARTIAL (Tsolid( r , Ltot ),zaxis) = H*(Text-Tsolid(r,Ltot))/K END # for r # Condicion frontera @ r=Rtot FOR z := 0|+ TO Ltot|- DO PARTIAL (Tsolid( Rtot , z ),raxis) = H*(Text-Tsolid(Rtot,z))/K END # for z PARTIAL (Tsolid( Rtot , Ltot ),raxis) = H*(Text-Tsolid(Rtot,Ltot))/K # Condiciones de simetria @ r=0 y @ z=0 PARTIAL (Tsolid(0| , 0|+:Ltot ),raxis) = 0.0 PARTIAL (Tsolid(0 : Rtot , 0| ),zaxis) = 0.0 EQUATION # Ecuacion de Fourier FOR r := 0|+ TO Rtot|- DO FOR z := 0|+ TO Ltot|- DO $Tsolid(r,z) = alphat*(PARTIAL(Tsolid(r,z),raxis,raxis) + (1.0/r)*PARTIAL(Tsolid(r,z),raxis) + PARTIAL(Tsolid(r,z),zaxis,zaxis)) END # for r END # for z Tmin=MIN(Tsolid( , )) Tmax=MAX(Tsolid( , )) Tdif=Tmax-Tmin # Funcion objetivo zeta_avr = (2.0/(Rtot*Rtot*Ltot))*INTEGRAL (r:= 0:Rtot , z:= 0:Ltot r*(Tsolid(r,z)-100)^2)

277
END # model Cyl_Solid #********************************************************** #PROCESS cil1 #********************************************************** UNIT cilindro

AS

Cyl_Solid

SET WITHIN cilindro DO # system dependent parameters K := 6.48E-3 RHO := 1.067 Cp := 3.542 H := 17.85E-4 Rtot := 1.75 Ltot := 1.75 # Malla NMOL raxis := CFDM, 2, 10 ] zaxis := CFDM, 2, 10 ] END # within cilindro ASSIGN WITHIN cilindro DO Text := 150.0 END # within cilindro

# # # # # #

W/cm DEGC g/cm3 J/g DEGC W/ cm2 DEGC cm cm

#DEGC

PRESET WITHIN cilindro DO FOR r:= 0|+ to Rtot|- DO FOR z:= 0|+ to Ltot|- DO Tsolid(r,z) := 25.0 END # for r END # for z Tmin := 25.0 Tmax := 25.0 Tdif := 0.0 zeta_avr:= 5625.0 # es decir (100-25)^2 END # within cilindro INITIAL WITHIN cilindro DO FOR r:= 0|+ to Rtot|- DO FOR z:= 0|+ to Ltot|- DO Tsolid(r,z) = 25.0 END # for r END # for z

278
END # within cilindro SCHEDULE CONTINUE FOR 1500 END # process

Apendice II.

2. Fichero .gOPT donde se especi can las caracter sticas de la parametrizacion de control, as como restricciones, parametros etc.
# CIL1.gOPT # Tiempo final de proceso tf=1500 HORIZON 1500. : 1500. : 1500. # Discretizacion de control: elementos temporales INTERVALS 10 150.0 : 150.0 : 150.0 150.0 : 150.0 : 150.0 150.0 : 150.0 : 150.0 150.0 : 150.0 : 150.0 150.0 : 150.0 : 150.0 150.0 : 150.0 : 150.0 150.0 : 150.0 : 150.0 150.0 : 150.0 : 150.0 150.0 : 150.0 : 150.0 # Perfil inicial de control: elementos constantes PIECEWISE-CONSTANT cilindro.Text INITIAL-PROFILE 100.0 : 25.0 : 200.0 100.0 : 25.0 : 200.0 100.0 : 25.0 : 200.0 100.0 : 25.0 : 200.0 100.0 : 25.0 : 200.0 100.0 : 25.0 : 200.0 100.0 : 25.0 : 200.0 100.0 : 25.0 : 200.0 100.0 : 25.0 : 200.0 100.0 : 25.0 : 200.0 MINIMISE cilindro.zeta_avr

Apendice III
En este apendice se muestran los cheros de implementacion del problema de optimizacion dinamica del proceso de difusion a traves de una membrana, para su resolucion con PDECON. 1. Fichero .for donde se incluye la dinamica del sistema, la funcion objetivo y las restricciones, si hubiese:
C membrane.for SUBROUTINE SYSFUN(NOPAR,NPAR,MAXPAR,NOOPAR,NPDE,MAXPDE,NCPL, / MAXCPL,NRES,NEQU,NCONF,MAXCOF,MAXDDP, / NTIME,NDIS,MAXDIS,NNDIS,MMAX, / NMAX,MAXTIM,OPAR,U,U0,UX,UXX,UP,V,V0,VP, / C,CX, / f,z,G,DG,X,T,IAREA,LEFT,RIGHT,IFLAG, / S,DDPLOT,ODPLOT,TIME,FLUX,FLUXX, / FLUXU,FLUXUX,FLUXPX) C IMPLICIT NONE INTEGER NOPAR,MAXPAR,NOOPAR,NPDE,MAXPDE,NCPL,MAXCPL, / NRES,NEQU,NCONF,MAXCOF,MAXDDP,NTIME, / NDIS,MAXDIS,NNDIS,MMAX,NMAX,MAXTIM, / IAREA,IFLAG INTEGER NPAR(MAXCOF) DOUBLEPRECISION OPAR(MAXPAR),U(MAXPDE),U0(MAXPDE),UX(MAXPDE), / UXX(MAXPDE),UP(MAXPDE),V(MAXCPL),V0(MAXCPL), / VP(MAXCPL),C(MAXPDE),CX(MAXPDE),f,z, / G(MMAX),DG(MMAX,NMAX),X,T,S(MAXCOF), / DDPLOT(MAXDDP),ODPLOT(MAXTIM,MAXCPL), / TIME(MAXTIM),FLUX(MAXPDE),FLUXX(MAXPDE), / FLUXU(MAXPDE,MAXPDE),FLUXUX(MAXPDE,MAXPDE), / FLUXPX(MAXPDE) LOGICAL LEFT,RIGHT INTEGER I,J,K,L

279

280
C C C

Apendice III.

C C 100 C C 200

C C 300

C C 400 C C 500 C C 600

C C 700 C C 800

C C 900 C C 1000

IF ((IFLAG.LE.0).OR.(IFLAG.GT.10)) RETURN CONSTANT DATA C GOTO (100,200,300,400,500,600,700,800,900,1000) IFLAG RETURN FLUX FUNCTION C CONTINUE RETURN RIGHT-HAND SIDE OF PDE'S C CONTINUE UP(1) = UXX(1)-10.*U(2)/(1.+U(2))*U(1)/(1.+U(1)) UP(2) = UXX(2) RETURN INITIAL VALUES OF PDE'S C CONTINUE U0(1) = 0.0 U0(2) = 0.0 RETURN RIGHT-HAND SIDE OF ODE'S C CONTINUE RETURN INITIAL VALUES OF ODE'S C CONTINUE RETURN BOUNDARY FUNCTIONS C CONTINUE IF (LEFT) THEN C(1) = 10. C(2) = S(1) ENDIF IF (RIGHT) THEN C(1) = 10. C(2) = S(2) ENDIF RETURN BOUNDARY GRADIENTS C CONTINUE RETURN INTEGRAND OF COST FUNCTION C CONTINUE f=(U(1)-(5.853752459*DATAN(30.0D+0*T)))**2 RETURN CONSTRAINTS C CONTINUE RETURN EVALUATION OF FLUXU, FLUXUX, FLUPX C CONTINUE RETURN

281
C END C

2. Fichero donde se indican las caracter sticas del proceso de optimizacion:


C:\msdev\projects\eva\pdecon\membrane Neittaanmaki (1994) Test Piecewise constant Control constant control EBC-1999 NOOPAR= 00000 NCONF = 00002 NPAR1 = 00010 NPAR2 = 00010 NPDE = 00002 NPAE = 00000 NCPL = 00000 NCPB = 00002 NRES = 00000 NEQU = 00000 NTIME = 101 NOUT = 1 DQUPOI= 00005 APRMET= 00000 FLFLAG= 00000 APFLUX= 0.0000E+00 OPTMET= 00000 OPTP1 = 00070 OPTP2 = 00070 IPRINT= 00002 OPTE1 = 1.0000E-05 OPTE2 = 1.0000E+3 ODEP1 = 00004 ODEP2 = 00000 0 0 0 0 ODEP3 = 00005 BANDED= 00000 ODEE1 = 1.0000E-7 ODEE2 = 1.0000E-7 ODEE3 = 1.0000E-3 FTYPE = 00002 LOCUS = 00004 PDECPL= 00001 PCLP1 = 00001 ODECPL= 00000 CTYPE = 00002

282
TSTART= TSTOP = XSTART= COMP1

Apendice III.
0.0000E+00 1.0000E+00 0.0000E+00 1.0000E+00 7 1 1 1 1 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00

OPAR1 OPAR2 OPAR3 OPAR4 OPAR5 OPAR6 OPAR7 OPAR8 OPAR9 OPAR10 OPAR11 OPAR12 OPAR13 OPAR14 OPAR15 OPAR16 OPAR17 OPAR18 OPAR19 OPAR20 OPAR19 OPAR20 OPAR21 OPAR22 OPAR23 OPAR24 OPAR25 OPAR26 OPAR27 OPAR28 OPAR29 OPAR30 OPAR19 OPAR20 integ 0

0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00 0.0000000000E+00

1.0000000000E+02 1.0000000000E+02 1.0000000000E+02 1.0000000000E+02 1.0000000000E+02 1.0000000000E+02 1.0000000000E+02 1.0000000000E+02 1.0000000000E+02 1.0000000000E+02 1.0000000000E+02 1.0000000000E+02 1.0000000000E+02 1.0000000000E+02 1.0000000000E+02 1.0000000000E+02 1.0000000000E+02 1.0000000000E+02 1.0000000000E+02 1.0000000000E+02 1.0000000000E+02 1.0000000000E+02 1.0000000000E+02 1.0000000000E+02 1.0000000000E+02 1.0000000000E+02 1.0000000000E+02 1.0000000000E+02 1.0000000000E+02 1.0000000000E+02 1.0000000000E+02 1.0000000000E+02 1.0000000000E+02 1.0000000000E+02

Apendice IV
En este apendice se muestran los cheros de implementacion del problema de optimizacion dinamica del proceso de esterilizacion de alimentos para su resolucion con gOPT. 1. Fichero .gPROMS donde se implementa el modelo dinamico del sistema:
#********************************************************** #lata.gPROMS #Esterilizacio de un alimento envasado (cilindro) #**********************************************************

DECLARE TYPE Temperature NoType = PosNoType END # Declare

= 25.0 : -273 : 1000 UNIT = "DEGC" 0.0 : -1e30 : 1e30 = 0.0 : -1e3 : 1e30

#********************************************************** MODEL cylcan #********************************************************** PARAMETER # Parametros del modelo alfa AS REAL # Definicion de la geometria : # Rtot: radio del cilindro Ltot: semi-altura del cilindro Rtot, Ltot AS REAL Tref_microorg AS REAL zeta_microorg AS REAL Dref_microorg AS REAL Cmicroorg_initial AS REAL

283

284
Tref_nutrient zeta_nutrient Dref_nutrient Cnutrient_initial DISTRIBUTION_DOMAIN raxis zaxis AS AS AS AS

Apendice IV.
REAL REAL REAL REAL

AS AS

( 0 : Rtot ) ( 0 : Ltot )

VARIABLE T AS DISTRIBUTION (raxis,zaxis) Cmicroorg AS DISTRIBUTION (raxis,zaxis) Cnutrient AS DISTRIBUTION (raxis,zaxis) Tret AS Fc AS Cmicroorg_avr AS Cnutrient_avr AS Fs AS

of Temperature of PosNotype of PosNotype Temperature PosNoType PosNoType PosNoType PosNoType

BOUNDARY # @ z = Ltot T (0|+ : Rtot|- , Ltot)= Tret # @ r = Rtot T (Rtot, 0|+ : Ltot|-) = Tret T (Rtot , Ltot) = Tret # condiciones de simetria @ r = 0 y @ z = 0 PARTIAL (T(0| , 0|+ : Ltot ),raxis) = 0 PARTIAL (T(0 : Rtot , 0| ),zaxis) = 0

EQUATION

# Ecuacion de conduccion de calor FOR r := 0|+ TO Rtot|- DO FOR z := 0|+ TO Ltot|- DO $T(r,z)*(1.0/alfa) = PARTIAL(T(r,z),raxis,raxis) + (1.0/r)*PARTIAL(T(r,z),raxis) + PARTIAL(T(r,z),zaxis,zaxis) END # for z END # for r # Letalidad en el punto critico (centro) $Fc =10^((T(0,0)-Tref_microorg)/zeta_microorg)

285
# Concentraci\'{o}n de microorganismos/nutrientes en cada punto FOR r := 0 TO Rtot DO FOR z := 0 TO Ltot DO $Cmicroorg(r,z) = - (2.302585/Dref_microorg)*Cmicroorg(r,z)* EXP(2.302585*(T(r,z)-Tref_microorg)/zeta_microorg) $Cnutrient(r,z) = - (2.302585/Dref_nutrient)*Cnutrient(r,z)* EXP(2.302585*(T(r,z)-Tref_nutrient)/zeta_nutrient) END # for z END # for r # Concentracion volumetrica media de microorganismos y nutrientes Cmicroorg_avr = (2.0/(Rtot*Rtot*Ltot))*INTEGRAL (r:= 0:Rtot , z:= 0:Ltot r*Cmicroorg(r,z))

Cnutrient_avr = (2.0/(Rtot*Rtot*Ltot))*INTEGRAL (r:= 0:Rtot , z:= 0:Ltot r*Cnutrient(r,z)) # Definicion de la letalidad Fs asociada con todo el envase Fs = -Dref_microorg * log10(Cmicroorg_avr/Cmicroorg_initial)

END # model cylcan #********************************************************** PROCESS esterl #********************************************************** UNIT can

AS

cylcan

SET WITHIN can DO alfa := Rtot := Ltot := Tref_microorg := zeta_microorg := Dref_microorg := Cmicroorg_initial := Tref_nutrient := zeta_nutrient := Dref_nutrient := Cnutrient_initial := raxis := CFDM, zaxis := CFDM, 1.5443e-07 0.04375 0.058 121.11 10.0 240.0 1.E8 121.11 25.56 10716.0 1.0 2, 10 ] 2, 10 ]

286

Apendice IV.

END # within can

ASSIGN WITHIN can DO Tret := 123.0 END # within can PRESET WITHIN can DO Cmicroorg_avr Cnutrient_avr Fs Fc

:= := := :=

1.E8 1.0 1.0E-6 1.0E-6

: : : :

0.0 0.0 0.0 0.0

: : : :

1.E15 100.0 1.E4 1.E4

FOR z:= 0|+ to Ltot|- DO FOR r:= 0|+ to Rtot|- DO T(r,z) := 71.11 : 0.0 : 1000. END # for r END # for z FOR z:= 0 to Ltot DO FOR r:= 0 to Rtot DO Cmicroorg(r,z) := 1.0E8 Cnutrient(r,z) := 1.0 END # for r END # for z END # within can INITIAL WITHIN can DO FOR z:= 0|+ to Ltot|- DO FOR r:= 0|+ to Rtot|- DO T(r,z) = 71.11 END # for r END # for z FOR z:= 0 to Ltot DO FOR r:= 0 to Rtot DO Cmicroorg(r,z) = Cmicroorg_initial Cnutrient(r,z) = Cnutrient_initial END # for r END # for z Fc = 0 END # within can SOLUTIONPARAMETERS

: 0.0 : 1.E15 : 0.0 : 100.0

287

gPLOT := ON SCHEDULE CONTINUE FOR 7830 END # process

2. Fichero .gOPT donde se especi can las caracter sticas de la parametrizacion de control, as como restricciones, parametros etc.
# ESTERL.gOPT # Tiempo final de proceso tf=7830 s HORIZON 7830. : 7830. : 7830. # Discretizacion de control: elementos temporales INTERVALS 10 783.0 : 783.0 : 783.0 783.0 : 783.0 : 783.0 783.0 : 783.0 : 783.0 783.0 : 783.0 : 783.0 783.0 : 783.0 : 783.0 783.0 : 783.0 : 783.0 783.0 : 783.0 : 783.0 783.0 : 783.0 : 783.0 783.0 : 783.0 : 783.0 783.0 : 783.0 : 783.0

# Restriccion en la temperatura final nodo mas caliente ENDPOINT-INEQUALITY can.T(1,1) -1.0E30: 71.11 # Restriccion en la letalidad final ENDPOINT-INEQUALITY can.Fs 1200.0 : 1.0E30 # Perfil inicial de control: elementos constantes PIECEWISE-CONSTANT can.Tretort INITIAL-PROFILE

288
123.0 123.0 123.0 123.0 123.0 123.0 123.0 22.0 22.0 22.0 : : : : : : : : : : 20.0 20.0 20.0 20.0 20.0 20.0 20.0 20.0 20.0 20.0 : : : : : : : : : : 140.0 140.0 140.0 140.0 140.0 140.0 140.0 140.0 140.0 140.0

Apendice IV.

MAXIMISE can.Cnutrient_avr

Apendice V
En este apendice se muestran algunos modulos programados en MathematicaTMpara la generacion del modelo de orden reducido para un caso unidimensional, se consideran los casos particulares descritos en el cap tulo 8: Caso en el que el operador espacial se expresa en coordenadas cartesianas, en el que todas las operaciones se realizan numericamente. Caso en el que el operador espacial se expresa en coordenadas cil ndricas o esfericas, en el que hay que calcular los polinomios de aproximacion. 1. Introduccion de datos:
(*:*************************************************************) (*:ESTE NOTEBOOK GENERA UN MODELO DE ORDEN REDUCIDO MEDIANTE EL*) (*:EL METODO DE K-L DECOMPOSITION (POD), A PARTIR DE UNA MATRIZ*) (*:DE DATOS QUE DESCRIBAN LA DINAMICA DEL SISTEMA (SD) *) (*:*************************************************************) (*: DATOS QUE DEBE INTRODUCIR EL USUARIO *) (*: DATOS GENERACION DE LAS AUTOFUNCIONES EMPIRICAS: *) (*: 1.- TITLE: TITULO DEL PROBLEMA *) (*: 2.- PATHDAT: FICHERO EN EL QUE SE ENCUENTRA LA MATRIZ SD *) (*: 3.- ENERGY: VALOR DE *ENERGIA* QUE SE DESEA CAPTURAR EN *) (*: TANTO POR 1 *) (*: DATOS METODO DE GALERKIN: *) *) (*: 4.- NL: 1 SI EL OPERADOR ES NO LINEAL , 0 SI ES LINEAL (*: 5.- xt: en la forma "f(x,x_chi,x_{chi,chi})" con x el campo*) (*: 6.- NB: numero de condiciones frontera *) (*: 7.- bctype: tipo de condiciones frontera: *) (*: "Dirichlet":1 ,"Neuman":2 *) (*: 8.- bc1,bc2: condiciones frontera homogeneas *) (*: 9.- ci: condiciones iniciales en la forma f(x,u) *) (*: 10.- Otros parametros especificos del problema *) (*: 11.- coord= Tipo de coordenadas, 1:cartesianas, *) (*: 2:cilindricas o esfericas *) (*:*************************************************************)

289

290

Apendice V.

Ejemplo: Calentamiento de una esfera:


TITLE="CALENTAMIENTO DE UNA ESFERA" PATHDAT="C:\msdev\projects\eva\pods\datat.txt" ENERGY=0.9999999 NL=0 xt="alfa*((1/r)*XR+XRR)" alfa=0.00000015443 NB=2 bctype1=2 bctype2=1 bc1="0" bc2="0" ci="71.11-v" lr = 0.04375 coord=2

2. Calculo de la matriz de correlacion:


<< Graphics`MultipleListPlot` << Statistics`DataManipulation` <<Statistics`MultiDescriptiveStatistics` (*:*************************************************************) (* :CALCULO DE LA MATRIZ DE CORRELACION *) (* :************************************************************) n = Dimensions dat] 1]] (* : Discretizacion espacial*) l = Dimensions dat] 2]] NR = n dr =lr/(NR - 1) If coord==1, SD = Table dat i]], {i, 1, NR}] ] If coord==2, rr = Table (i - 1)*dr, {i, 1, NR}] SD = Table Sqrt rr i]]]*dat i]], {i, 1, NR}] ] R =(SD.Transpose SD])/l

3. Calcula los autovalores de la matriz de correlacion y la dimension del modelo reducido


(*:*************************************************************) (*: CALCULO DE AUTOVALORES Y AUTOVECTORES *) (*:*************************************************************) LAMBDA = Eigenvalues R] VPsi = Eigenvectors R] NEIGS = Dimensions VPsi]

1]]

291

(*:*************************************************************) (*:CALCULO DE LA ENERGIA RELATIVA ASOCIADA A CADA AUTOVALOR *) (*:*************************************************************) TOTAL = Sum LAMBDA i]],{i,1,NEIGS}] For i = 1, i <= NEIGS, SUMENERGY i] = Sum LAMBDA j]], {j, 1, i}] RELENERGY i] = SUMENERGY i]/TOTAL If Re RELENERGY i]] <= ENERGY, NODES = i ] REN = Table Re RELENERGY i]], {i, 1, NODES + 5}] NEQ = NODES Print "--> EL N DE MODOS CAPTURANDO EL", ENERGY*100, "% DEL TOTAL ES:", NODES] ListPlot REN, PlotJoined -> True] Print "--> EL N DE ECUACIONES DEL MODELO REDUCIDO SERA:", NODES]

4. Crea aproximaciones polinomicas para las autofunciones (en el caso de problemas en coordenadas no cil ndricas esta seccion no es necesaria):
(*:*************************************************************) (*:SI COORD=2, CREA APROXIMACIONES POLINOMICAS: AUTOFUNCIONES *) (*:*************************************************************) << Graphics`MultipleListPlot` NEQ = NODES If coord==2, ord = 6 idr=1/dr pol = Table Sqrt r]+(2/(3+2*i))r^(i+2),{i,1,ord}] For i = 1, i <= NODES, VPsiR i] =Table {rr j]],(idr^0.5)*VPsi i]] j]]}, {j, 1, n}] Psi i] = Fit VPsiR i], pol, r] PsiLIST i] = Table {r, Psi i]}, {r, 0, lr, dr}] MultipleListPlot VPsiR i], PsiLIST i], SymbolShape -> {PlotSymbol Triangle, 4], PlotSymbol Star, 2]}, PlotJoined -> {False, True}, PlotRegion -> {{0.1, 1.0},{0.1,1.0}}] Print i, "Autovalor:", LAMBDA i]], " ", Re RELENERGY i]]] (*:Comprueba condicion de ortonormalidad*) Table Phi i] = Psi i]/Sqrt r], {i, 1, NEQ}] Print MatrixForm Table Integrate Phi i]*Phi j]*r,{r, 0,lr}],{i,1,NEQ},{j,1,NEQ}]]] ] ]

292

Apendice V.

5. De nicion del campo (~) y proyeccion sobre las autofunciones emp ricas (Metodo x de Galerkin):
(*:*************************************************************) (*:PROYECCION OPERADOR SOBRE LA BASE DE AUTOFUNCIONES EMPIRICAS*) (*:*************************************************************) <<Miscellaneous`PDEsToODEs` If coord==2, x=Simplify Sum a i]*Phi i],{i,1,NEQ}] OPERATOR=Simplify ToExpression xt]] XR=D x,{r,1}] XRR=D x,{r,2}] B=Table b i],{i,1,NODES}] Print "-->ODES RESULTANTES: \n"] For i=1,i<=NODES, B i]]=Integrate Phi i]*OPERATOR*r,{r,0,lr}] Print "ap ",i,"]=",Simplify B i]]],"\n"] i=i+1 ] ]

If coord==1, (*:CALCULO DE DERIVADAS ESPACIALES*) VPsiR=Table vpsir i,j],{i,1,NEQ},{j,1,NR}] VPsiR=Table vpsirr i,j],{i,1,NEQ},{i,1,NR}] fd=4 den=fd! rdr=1./(den*dr) For i=1,i<=NEQ, PSID=. PSID=DERV14 NR,VPsi i],rdr] VPsiR i]]=FID VPsiRR i]]=DERV14 NR,VPsiR i]],rdr] i=i+1 ] (*: DEFINICION CAMPO Y SUS DERIVADA*) x=Sum a i]*VPsi i],{i,1,NEQ}] XR =Sum a i]*VPsiR i]],{i,1,NEQ}] XRR =Sum a i]*VPsiRR i]],{i,1,NEQ}] (*:PROYECCION SOBRE LA BASE DE AUTOFUNCIONES EMPIRICAS*) OPERATOR=Simplify ToExpression xt]] Print "-->ODES RESULTANTES: \n"] For i=1,i<=NODES,ap i]=Simplify dr*(VPsi i].OPERATOR)] Print "ap(",i,")=",ap i],"\n"] i=i+1 ] ]

293
(*:**************************************************************) (*:PROYECCION DE LAS CONDICIONES INICIALES *) (*:**************************************************************) v=. cini=ToExpression ci] CINI=Table cini,{i,1,l}] If coord==2, INIT=Table a i] 0]==Simplify Integrate Phi i]*r*cini,{r,0,lr}]], {i,1,NODES}] ] If coord==1, INIT=Table a i] 0]==Simplify cini.VPsi i]],{i,1,NODES}] ]

6. Crea chero de salida en formato .f90, con las ecuaciones diferenciales resultantes y la distribucion de temperaturas en el interior de la barra:
(*:CREA FICHERO DE SALIDA ODES.F90 CON LAS ECUACIONES, LA FUNCION v=. strm=OpenWrite "c:\msdev\projects\eva\odes.f90",PageWidth ->50] WriteString strm,"\n\n CONDICIONES INICIALES\n\n"] Table WriteString strm,"y0(",i,")=",FortranForm Simplify INIT i]]]],"\n"], {i,1,NODES}] WriteString strm,"\n\n ODES MODELO REDUCIDO\n\n"] Table WriteString strm,"yp(",i,")=",FortranForm Simplify B i]]]], "\n"], {i,1,NODES}] (*:DISTRIBUCION DE TEMPERATURAS*) WriteString strm,"\n\n CALCULO DE LA DISTRIBUCION DE TEMPERATURAS\n\n"] v=. For i=1,i<=NR, r=rr i]] WriteString strm,"temp(",i,")=",FortranForm TEMP],"\n"] r=. i=i+1 ] Close strm]

294

Apendice V.

Referencias

295

Referencias
1] Adjiman, C.S., S. Dallwing, C.A. Floudas, y A. Neumaier. A global optimization method, BB, for general twice-di erentiable constrained NLPs {I. Theoretical advances. Comp. & Chem. Eng., 22(9):1159{1179, 1998. 2] Ali, M.M., C. Storey, y A. Torn. Application of stochastic global optimization algorithms to practical problems. J. of Opt. Th. and Appl., 95(3):545{563, 1997. 3] Alkaya, D., S. Vasantharajan, y L.T. Biegler. \Succesive Quadratic Programming: Applications in the Process Industry", en Encyclopedia of Optimization, editado por C. A. Floudas, Kluwer, 1999. 4] Alonso, A. A., J. R. Banga, y R. P. Mart n. A complete dynamic model for the thermal processing of bioproducts in batch units and its application to controller design. Chem. Eng. Sci., 52(8):1307{1322, 1998. 5] Alonso, A. A., J. R. Banga, y I. Sanchez. Passive control design for distributed parameter process systems: Theory and applications. AIChE J., 46(8):1593{ 1606, 2000. 6] Alonso, A. A., C.E. Frouzakis, y I.G. Kevrekidis. Optimal sensor placement and reduced order observer design for distributed process systems. En prensa, AIChE J., 2001. 7] Alonso, A. A. e I. Sanchez. Control of microwave ovens. Informe tecnico EU FAIR Project CT96-1192, Dept. Ingenier a Qu mica, Univ. de Vigo, Espa~a, n 1999. 8] Alvarez-Vazquez, L. J. y A. Mart nez. Modelling and control of natural convection in canned foods. IMA J. Appl. Math., 63(3):247{265, 1999. 9] Aris, R. Ends and beginings in the mathematical modelling of chemical engineering systems. Chem. Eng. Sc., 48(14):2507{2517, 1993. 297

298

Referencias

10] Ascher, U. M. y L.R. Petzold. Computer Methods for Ordinary Di erential Equations and Diferential-Algebraic Equations. SIAM, Philadelphia, 1998. 11] Balsa-Canto, E., A. A. Alonso, y J. R. Banga. Dynamic optimization of bioprocesses: deterministic and stochastic strategies. ACoFop IV (Automatic Control of Food and Biological Processes), Goteborg, Suecia, 1998. 12] Balsa-Canto, E., E.F. Carrasco, A.A. Alonso, y J.R. Banga. Optimal control of bioprocesses using a hybrid method. En preparacion, 2001. 13] Banga, J. R., A. A. Alonso, J. M. Gallardo, y R. P. Mart n. Mathematical modeling and simulation of the thermal processing of anisotropic and non homogeneous conduction heated canned foods: Application to canned tuna. J. Food Eng., 18(4):369{387, 1993. 14] Banga, J. R., A. A. Alonso, R. I. P. Mart n, y R. P. Singh. Optimal control of heat and mass transfer in food and bioproducts processing. Comp. & Chem. Eng., 18:S699{S705, 1994. 15] Banga, J. R., A. A. Alonso, y R. P. Singh. Stochastic dynamic optimization of batch and semicontinuous bioprocesses. Biotechnol. Prog., 13:326{335, 1997. 16] Banga, J. R. y J.J. Casares. ICRS: Application to a wastewater treatment plant model. In Process Optimisation, IChemE Symposium Series No. 100, 183{192, Pergamon Press, Oxford, Reino Unido, 1987. 17] Banga, J. R., R. Irizarry, y W. D. Seider. Stochastic optimization for optimal and model-predictive control. Comp. & Chem. Eng., 22(4-5):603{612, 1998. 18] Banga, J. R., R. Irizarry-Rivera, y W. D. Seider. Stochastic optimization for optimal and model-predictive control. AIChE Annual Meeting, Miami, 1995. 19] Banga, J. R., R. P. Mart n, J. M. Gallardo, y J. J. Casares. Optimization of thermal processing of conduction-heated canned foods: Study of several objective functions. J. Food Eng., 14(1):25{51, 1991. 20] Banga, J. R. y W. D. Seider. Global optimization of chemical processes using stochastic algorithms. En \State of the Art in Global Optimization", editado por C. A. Floudas y P. M. Pardalos, Kluwer Academic Pub., Dordrecht, Holanda, 563{583, 1996.

Referencias

299

21] Banga, J. R., A. A. Alonso, y R. P. Singh. Stochastic optimal control of fed-batch bioreactors. AIChE Annual Meeting, San Francisco, 1994. 22] Banga, J. R., J. Saa, E. Balsa-Canto, J.M. Gallardo, R.P. Mart n, y J. M. Vazquez. Optimal control of microwave combination ovens for food heating. Informe tecnico EU FAIR Project CT96-1192, Lab. de Ingenier a Qu mica, IIM-CSIC, Espa~a, 1999. n 23] Banga, J. R., K. J. Versyck, y J.F. Van Impe. Numerical strategies for optimal experimental design for parameter identi cation of non-linear dynamic (bio-)chemical processes. European Symposium on Computer Aided Process Engineering-10, editado por S. Pierucci, 37{42, Elsevier, 2000. 24] Bangia, A. K., P.F. Batcho, I. G. Kevrekidis, y G.E. Karniadakis. Unsteady two-dimensional ows in complex geometries: Comparative bifurcation studies with global eigenfunction expansions. SIAM. J. Sci. Comput., 18(3):775{805, 1997. 25] Barclay A., P.E. Gill y J.B. Rosen. SQP methods and their application to numerical optimal control. Informe tecnico NA 97-3, Dept. de Matematicas, Univ. de California, 1997. 26] Barton, P.I. y C.C. Pantelides. Modelling of combined discrete / continuous processes. AIChE J., 40:966{979, 1994. 27] Barton, P.I., R.J. Allgor, W.F. Feehery y S. Galan Dynamic Optimization in a Discontinuous World. Ind. Eng. Chem. Res., 37:966{981, 1998. 28] Barton, P.I., E.M.B. Smith, y C.C. Pantelides. Combined discrete/continuous process modelling using gPROMS. AIChE Annual Meeting, 1991. 29] Baysal, C., H. Meirovitch, y I. M. Navon. Performance of e cient minimization algorithms as applied to models of peptides and proteins. J. Comput. Chem., 20(3):354{364, 1999. 30] Bazaraa, M.S., H.D. Sherali, y C.M. Shetty. Nonlinear Programming: Theory and Applications (2a edicion). John Wiley & Sons, Nueva York, 1993. 31] Bell, D.J. y F. Katusiime. A time-optimal drug displacement problem. Optimal Control Appl. Methods, 1:217{225, 1980.

300

Referencias

32] Bell, M.L. y R.W.H. Sargent. Optimal control of inequality constrained DAE systems. Comp. & Chem. Eng., 24:2385{2404, 2000. 33] Bendersky, E. y P.D. Christo des. A computationally e cient method for optimization of transport-reaction processes. Comp. & Chem. Eng., 23(s):447{ 450, 1999. 34] Bendersky, E. y P.D. Christo des. Optimization of transport-reaction processes using nonlinear modelo reduction. Chem. Eng. Sci., 55(19):4349{4366, 2000. 35] Berkooz, G., P. Holmes, y L. Lumley. The Proper Orthogonal Decomposition in the analysis of turbulent ows. Ann. Rev. Fluid Mech., 25:539{375, 1993. 36] Bermudez, A. y A. Mart nez. A state constrained optimal control problem related to the sterilization of canned foods. Automatica, 30(2):319{329, 1994. 37] Bertsekas, D.P. Dynamic Programming and Optimal Control. Vol. I. Athena Scienti c, Belmont, Massachusetts, 1995. 38] Bertsekas, D.P. Dynamic Programming and Optimal Control. Vol. II. Athena Scienti c, Belmont, Massachusetts, 1995. 39] Biegler, L.T. Solution of dynamic optimization problems by succesive quadratic programming and orthogonal collocation. Comp. & Chem. Eng., 8(3/4):243{248, 1984. 40] L.T. Biegler. Optimization. Notas sobre diversos temas relacionados con el analisis numerico disponibles en http://www.lehigh.edu/ wes1/apci, 2000. 41] Biegler, L.T., I.E. Grossmann, y A.W. Westerberg. Systematic Methods of Chemical Process Design. Prentice Hall PTR., Upper Saddle River, New Jersey, 1997. 42] Bird R. B., W.E. Stewart y E.N. Lightfoot. Fenomenos de Transporte. Reverte, Barcelona, Espa~a, 1964. n 43] Biros, G. y O. Gattas. A lagrange-newton-krylov-schur method for PDEconstrained optimization. SIAG/OPT Views-and-News, 11(2), 2000.

Referencias

301

44] Blatt, M. y K. Schittkowski. PDECON: A FORTRAN code for solving control problems based on ordinary, algebraic and partial di erential equations. Informe tecnico, Dep. de Matematicas, Univ. de Beirut, 1997. 45] Boggs, P.T. y J.W. Tolle. Sequential quadratic programming. Acta Numerica, 1{52, 1995. 46] Bogle, D. CAPE.NET A Thematic Network in Computer Aided Process Engineering. CAPE.Net 2000, Univ. College of London, Reino Unido, 2000. 47] Bojkov, B., R. Hansel, y R. Luus. Application of direct search optimization to optimal control problems. Hungar. J. Ind. Chem., 21:177{185, 1993. 48] Bojkov, B. y R. Luus. Application of Iterative Dynamic Programming to time optimal control. Chem. Eng. Res. Des., 72:72{80, 1994a. 49] Bojkov, B. y R. Luus. Time-optimal control by Iterative Dynamic Programming. Ind. Eng. Chem. Res., 33:1486{1492, 1994b. 50] Bojkov, B. y R. Luus. Optimal control of nonlinear systems with unspeci ed nal times. Chem. Eng. Sci., 51(6):905{919, 1996. 51] Bonabeau, E., M. Dorigo, y G. Theraulaz. Inspiration for optimization form social insect behaviour. Nature, 406:39{42, 2000. 52] Bonnans, J.F. y H. Zidani Optimal Control Problems with Partially Polyhedric Constraints SIAM J. Cont. and Opt., 37(6):1726{1741, 1999. 53] Bonvin, D. Optimal operation of batch-reactors{ a personal view. J. Proc. Control, 8(5-6):355{368, 1998. 54] Brenan, K. E., S. L. Campbell, y L. R. Petzold. Numerical Solution of InitialValue Problems in Di erential-Algebraic Equations, North-Holland, Nueva York, 1989. 55] Bryson, A. E. y Y. C. Ho. Applied Optimal Control. Hemisphere, Washington, 1988. 56] Bu er, C. R. Microwave Cooking and Processing. Van Nostrand Reinhold, Nueva York, 1993. 57] Burl, J. B. Reduced-order system identi cation using the Karhunen-Loeve transform. Int. J. of Modelling & Simulation, 13(4):183{188, 1993.

302

Referencias

58] Caracotsios, M. y W. E. Stewart. Sensitivity analysis of initial value problems with mixed odes and algebraic equations. Comp. & Chem. Eng., 9:359{365, 1985. 59] Carnahan, B., H.A. Luther, y J.O. Wilkes. Calculo Numerico: Metodos, Aplicaciones. Rueda, Madrid, Espa~a, 1979. n 60] Carrasco, E. F. y J. R. Banga. A hybrid method for the optimal control of chemical processes. En IEE Conf. Publ. 455(Vol. 2): 925-930. The Institution of Electrical Engineers, 1998. 61] Carrasco, E.F. y J. R. Banga. Dynamic optimization of batch reactors using adaptive stochastic algorithms. Ind. Eng. Chem. Res., 36(6):2252{2261, 1997. 62] Casado, L. G., I. Garc a, y T. Csendes. A new multisection technique in interval methods for global optimization. Computing, 65:263{269, 2000. 63] Casas, E. y F. Troltzsch. Second-order necessary optimality conditions for some state-constrained control problems of semilinear elliptic equations. Appl. Math. & Opt., 39:211{227, 1999. 64] Cervantes, A. y L.T. Biegler. Large- scale DAE optimization using a simultaneous NLP formulation. AIChE J., 44(5):1038, 1998. 65] Cervantes, A., S. Tonelli, A. Brandolin, J. A. Bandoni y L. T. Biegler. LargeScale Dynamic Optimization for Grade Transitions in a Low Density Polyethylene Plant. Enviado para su publicacion (2000). 66] Chalabi, Z. S., L.G. Van Willigenburg, y G. Van Straten. Robust optimal receding horizon control of the thermal sterilization of canned foods. J. Food Eng., 40(3):207{218, 1999. 67] Chandra, P.K. y R.P. Singh. Applied Numerical Methods for Food and Agricultural Engineers. CRC Press, Florida, 1995. 68] Chen, C.T. y C. Hwang. Optimal on-o control for fed-batch fermentation processes. Ind. Eng. Chem. Res, 29:1869{1875, 1990 b. 69] Chen, D.D., R.K. Singh, K. Haghighi, y P.E. Nelson. Finite element analysis of temperature distribution in microwaved cylindrical potato tissue. J. Food Eng., 18:351{368, 1993.

Referencias

303

70] Cheng, C.T. y C. Hwang. Optimal control computation for di erentialalgebraic process systems with general constraints. Chem. Eng. Commun, 97:9{26, 1990 a. 71] Chen, G. y J. Zhou. Boundary Element Methods. Academic Press Cop., Londres, Reino Unido, 1992. 72] Citriniti, J. H. Experimental Investigation Into the Dynamics of the Axisymetric Mixing Layer Utilizing the Proper Orthogonal Decomposition. Tesis Doctoral, Univ. de Nueva York, Bu alo, 1996. 73] Corlis, G. F. y R. B. Kearfott. Rigorous Global Search: Industrial Applications. En \Developments in Reliable Computing", editado por T. Csendes, Kluwer Academic Publishers, Dordrecht, The Netherlands, 1999. 74] Courant, R. y D. Hilbert. Methods of Mathematical Physics. Wiley, Nueva York, 1937. 75] Cuthrell, J.E. y L.T. Biegler. On the optimization of di erential-algebraic process systems. AIChE J., 33(8):1257{1270, 1987. 76] Cuthrell, J.E. y L.T. Biegler. Simultaneous optimization and solution methods for batch reactor control pro les. Comp. & Chem. Eng., 13:49, 1989. 77] Dadebo, S. A. y K. B. McAuley. Dynamic optimization of constrained chemical engineering problems using Dynamic Programming. Comp. & Chem. Eng., 19(5):513{525, 1995. 78] de Andres-Toro, B., J.M. Giron-Sierra, J.A. Lopez-Orozco y C. FernandezConde. Evolutionary optimization of an industrial batch fermentation process. European Control Confenrence, ECC, 1997. 79] de la Maza, M. y D. Yuret. Dynamic hill climbing. AI Expert, 9(3):26{31, 1994. 80] Decareau, R. V. Microwaves in the Food Processing Industry. Academic Press, Londres, Reino Unido, 1985. 81] DePourcq, M. Field and power-density calculations in closed microwave systems by three-dimensional nite di erences. IEE Proc. H, Microwave Antennas Propag., 132(6):360{368, 1985.

304

Referencias

82] Dolan, L. y J. More. Benchmarking optimization software with performance pro les. Dept. de Ciencia de la computacion y matematicas, Argonne National Laboratory, en preparacion-ANL/MCS-P861-1200, 2001. 83] Dorigo, M., V. Maniezzo, y A. Colorni. The ant system:optimization by a colony cooperating agents. IEEE Transactions on Systems, Man & Cybenetics B, 26(2):29{41, 1996. 84] Dunker, A.M. The decoupled direct method for calculating sensitivity coe cients in chemical kinetics. J. of Chemical Physics, 81:2385{2393, 1984. 85] Durance, T. D. Improving canned food quality with variable retort temperature processes. Trends in Food Sci. & Technol., 8(4):113{118, 1997. 86] Edgar, T. F. y D. M. Himmelblau. Optimization of Chemical Processes. McGraw Hill, Nueva York, 1988. 87] Esposito, W. R. y C. A. Floudas. Global optimization of nonconvex problems with di erential-algebraic constraints. In \European Symposium on Computer Aided Process Engineering-10", S. Pierucci (Ed.), Elsevier, Amsterdam, Holanda, 73{78, 2000. 88] Esposito, W. R. y C.A. Floudas. Deterministic global optimization in nonlinear optimal control problems. J. of Global Opt., 17:97{126, 2000. 89] Feehery, W. F. Dynamic Optimization with Path Constraints. Tesis Doctoral, MIT, Cambridge, Massachusetts, 1998. 90] Feehery, W. F. y P.I. Barton. Dynamic optimization with state variable path constraints. Comp. & Chem. Eng., 22(9):1241{1256, 1998. 91] Fikar, M., M.A. Lati , F. Fournier, y Y. Cre . Control vector parameterization versus iterative dynamic programming in dynamic optimization of a distillation column. Comp. & Chem. Eng., 22(S):5625{5628, 1998. 92] Fletcher, C.A.J. Computational Galerkin Methods. Springer-Verlag, Nueva York, 1984. 93] Fletcher, R. Practical Methods of Optimization. John Wiley & Sons, Nueva York, (2a edicion), 1987.

Referencias

305

94] Floudas, C.A. Nonlinear and Mixed-Integer Optimization: Fundamentals and Applications. Oxford University Press, Nueva York, 1995. 95] Floudas, C.A. Recent advances in global optimization for process synthesis, design and control: Enclosure of all solutions. Comp. & Chem. Eng., S963{ 973, 1999. 96] Floudas, C.A. Deterministic Global Optimization: Theory, Methods and Applications. Kluwer Academics, Holanda, 2000. 97] Floudas, C.A. y V. Visweswaran. A global optimization algorithm (GOP) for certain classes of nonconvex NLPs: I. Theory. Comp. & Chem. Eng., 14:1397{1417, 1990. 98] Fryer, P. Mathematical models in food processing. Chem. & Ind. London, 13:515{518, 1994. 99] Galan, S., W. F. Feehery, y P. I. Barton. Parametry sensitivity functions for hybrid discrete/continuous systems. Appl. Num. Math., 31(1):17{47, 1999. 100] Gear, C. W. Simultaneous numerical solution of di erential-algebraic equations. IEEE Trans. Circuit Theory, CT-18:89{95, 1971. 101] Gear, C. W. Numerical Initial Value Problems in Ordinary Di erential Equations. Prentice-Hall, Engelwood Cli s, New Jersey, 1971. 102] Gear, C. W. Runge-kutta starters for multistep methods. ACM Trans. on Math. Soft., 6(3):263{279, 1980. 103] Gen, M. y R. Cheng. Genetic Algorithms & Engineering Optimization. John Wiley & Sons, Nueva York, 2000. 104] Gill, P. E., W. Murray, y M. H. Wright. Practical Optimization. Academic Press, Nueva York, 1981. 105] Glover, F. Future paths for integer programming and links to arti cial intelligence. Comp. Oper. Res., 5:533{549, 1986. 106] Glover, K. All Optimal Hankel Norm Approximation of linear multivariable systems and their l-in nity error bounds. Int. J. Control, 36:1145{1193, 1984. 107] Goh, C.J. y K.L. Teo. Control parameterization: A uni ed approach to optimal control problems with general constraints. Automatica, 24(1):3{18, 1988.

306

Referencias

108] Goldberg, D.E. Genetic Algorithms in Search, Optimization & Machine Learning. Addison Wesley Longman, 1989. 109] Goldberg, H. y Troltzsch. Optimal control: Theory, algorithms and applications. Kluwer Academic Publishers, 1997. 110] Gottlieb, D. y S. A. Orszag. Numerical Analysis of Spectral Methods: Theory and Applications. Society for Industrial and Applied Mathematics, Philadelphia, Pennsylvania, 1977. 111] Goulcher, R. y J.J. Casares Long. The solution of steady-state chemical engineering optimisation problems using a random-search algorithm. Comp. & Chem. Eng., 2:33{36, 1978. 112] Gritsis, D. The Dynamic Simulation and Optimal Control of Systems Described by Index Two Di erential-Algebraic Equations. Tesis Doctoral, Imperial College, Univ. de Londres, Reino Unido, 1990. 113] Grossmann, I.E., J.A. Caballero, y H. Yeomans. Advances in mathematical programming for automated design, integration and operation of chemical processes. Proccedings of the International Conference on Process Integration (PI'99), Copenague, Dinamarca, 1999. 114] Guay, M. y D.D. McClean. Optimization and sensitivity analysis for multiresponse parameter estimation in systems of ordinary di erential equations. Comp. & Chem. Eng., 19:1271{1285, 1995. 115] Gunn, D.J. y W.J. Thomas. Mass transport and chemical reaction in multifunctional catalyst systems. Chem. Eng. Sci., 20:89{100, 1965. 116] Gupta, Y. P. Semiexhaustive search for solving nonlinear optimal control problems. Ind. Eng. Chem. Res., 34:3878{3884, 1995. 117] Guus, C., E. Boender, y H.E. Romeijn. Stochastic methods, en Handbook of Global Optimization. Kluwer Acacemic Publichser, editado por R. Horst y P.M. Pardalos, 1995. 118] Haghighi, K. y L.J. Segerlind. Modeling simultaneous heat and mass transfer in an isotropic sphere - a nite element approach. Trans. ASAE, 31:629{637, 1988.

Referencias

307

119] Hairer, E. y G. Wanne. Solvind Ordinary Di erential Equations II: Sti and Di erential Algebraic Problems. Springer-Verlag, 1996. 120] Hartl, R.F., S.P. Sethi, y R.G. Vickson. A survey on the maximum principles for optimal control problems with state constraints. SIAM Review, 37(2):181{ 218, 1995. 121] Hestenes, M. R. y E. Stiefel. Methods of conjugate gradients for solving linear systems. J. of Research of the National Bureau of Standards, 29:409{439, 1952. 122] Hestenes, M. R. Applications of Mathematics 12: Conjugate Direction Methods in Optimization. Springer-Verlag, Berlin, 1980. 123] Hindmarsh, A.C. ODEPACK, a Systematized Collection of ODE Solvers, 55{ 64. North Holland, Amsterdam, 1983. 124] Holdsworth, S. D. Thermal Processing of Packaged Foods. Chapman & Hall, 1996. 125] Holman, J. P. Heat Transfer. McGraw Hill, Singapur, 1990. 126] Holmes, P., J. L. Lumley, y G. Berkooz. Turbulence, Coherent Structures, Dynamical Systems and Symmetry. Cambridge University Press, 1996. 127] Hong, J. Optimal substrate feeding policy for a fed batch fermentation with substrate and product inhibition kinetics. Biotechnol. and Bioeng., 28:1421{ 1431, 1986. 128] Horst, R. y P.M. Pardalos. Handbook of Global Optimization. Kluwer Academic, 1995. 129] IMSL. IMSL Math Library Reference. IMSL Inc., Sugar Land, TX, 1995. 130] Iserles, A. A First Course in the Numerical Analysis of Di erential Equations. Cambridge University Press, Cambridge, U.K., 1996. 131] Jaluria, Y. Design and Optimization of Thermal Systems. McGraw-Hill, Nueva York, 1998. 132] Jaluria, Y. y K.E. Torrance. Computational Heat Transfer. Hemisphere Publishing Corporation, 1986.

308

Referencias

133] Jarvis, R. B. y C. C. Pantelides. Dasolv, user's manual, version 1.0. Informe tecnico, Centre for Process Systems Engineering, Imperial College, Londres, Reino Unido, 1992. 134] Jarvis, R. B. Robust Dynamic Simulation of Chemical Engineering Processes. Tesis Doctoral, Univ. de Londres, Reino Unido, 1993. 135] Jayaraman, V.K., B.D. Kulkarni, S. Karale, y P. Shelokar. Ant colony framework for optimal design and scheduling of batch plants. Comp. & Chem. Eng., 24:1901{1912, 2000. 136] Jensen, A. K. y R. Gani. Development of novel unit processes: Review of computer aided modeling tools. CAPE- NET: TWG1. Dept. Ingenier a Qu mica, Univ. de Dinamarca, 1998. 137] Jensen, T. Dynamic Control of Large Dimension Nonlinear Chemical Processes. Tesis Doctoral, Univ. Princeton, 1964. 138] Kearfott, R. B. GlobSol: Algorithm development and code re nement. Univ. de Southwestern Louisiana, http://www.mscs.mu.edu/ globsol/. 139] Keeping, B.R. E cient Methods for the Solution of Large Systems of Di erential Algebraic-Equations. Tesis Doctoral, Univ. de Londres, Reino Unido, 1995. 140] Keeping, B.R. y C.C. Pantelides. On the implementation of optimisation algorithms for large scale transient systems on a mimd computer. AIChE Annual Meeting, 1995. 141] Kim, K. H. y A.A. Teixeira. Predicting internal temperature response to conduction-heating of odd-shaped solids. J. Food Proc. Eng., 20(1):51{64, 1997. 142] Kirkpatrick, S., C. D. Gelatt, y M. P. Vecchi. Optimization by simulated annealing. Science, 220:671{680, 1983. 143] Kleis, D. y E. W. Sachs. Optimal control of the sterilization of prepackaged food. SIAM J. on Optimization, 10(4):1180{1195, 2000. 144] Kokotovic, P.V. Singular Perturbation Methods in Control : Analysis and Design Academic Press, 1987.

Referencias

309

145] Kraft, D. Algorithm:733: TOMP { fortran modules for optimal control calculations. ACM Trans. Math. Soft., 20(3):262, 1994. 146] Kunkel, P., V. Mehrmann, W. Rath, y J. Weickert. A new software package for linear di erential-algebraic equations. SIAM J. of Scient. Comp., 18(1):115{ 138, 1997. 147] Kunz, K.S. y R.J. Luebbers. The Finite Di erence Time Domain Method for Electromagnetics. CRC Press, Boca Raton, Florida, 1993. 148] Lang, Y-D., A. Cervantes, y L.T. Biegler. Dynamic optimization of a batch crystallization process. I & EC Research, 38(4):1469-1477, 1999. 149] Langtangen, H.P. Computational Partial Di erential Equations. SpringerVerlag, Berlin, Alemania, 1999. 150] Lapidus, L. y R. Luus. Optimal Control of Engineering Processes. Waltham, MA: Blaisdell, 1967. 151] Leclerc, A.P. E cient and Reliable Global Optimization. Tesis Doctoral Univ. Estatal de Ohio, 1992. 152] Lee, J. y W.F. Ramirez. Optimal fed-batch control of induced foreign protein production by recombinant bacteria. AIChE J., 40(5):899, 1994. 153] Leis, J. R. y M. A. Kramer. Sensitivity analysis of systems of di erential and algebraic equations. Comp. & Chem. Eng., 9(3):93{96, 1985. 154] Lewis, R. M. y V. Torczon. A globally convergent augmented lagrangian pattern search algorithm for optimization with general constraints and simple bounds. In review for SIAM J. on Optimization. Informe tecnico 98-31, 2000. 155] Lewis, R. M., V. Torczon, y M. W. Trosset. Direct search methods: Then and now. J. of Comp. and Appl. Math, 124(1-2):191{207, 2000. 156] Li, S. Adaptive Mesh Methods and Software for Time-Dependent Partial Differential Equations. Tesis Doctoral, Univ. de Minnesota, 1998. 157] Li, S. y L. Petzold. Design of new DASPK for sensitivity analysis. Informe tecnico, UCSB, 1999.

310

Referencias

158] Lim, H. C., Y.J. Tayeb, J. M. Modak, y P. Bonte. Computational algorithms for optimal feed rates for a class of fed-batch fermentation: numerical results for penicillin and cell mass production. Biotechnol. and Bioeng., 28:1408, 1986. 159] Lin, X. y C.A. Floudas. Design, synthesis and scheduling of multipurpose batch plants via an e ective continuous-time formulation". European Symposium on Computer Aided Process Engineering - 10, editado por S. Pierucci, 1159{1164, Elsevier, 2000. 160] Lin, Y.E., R.C. Anantheswaran, and V.M. Puri. Finite element analysis of microwave heating of solid foods. J. Food Eng., 25:85, 1995. 161] Lioen, W.M. y J.J. B. de Swart. Test set for initial value problem solvers. Informe tecnico, CWI, Amsterdan, Holanda, 1999. 162] Liu, D. C. y J. Nocedal. On the limited memory BFGS method for large scale optimization. Mathematical Programming, 45:503{528, 1989. 163] Liu, Y. y B.D.O. Anderson. Singular Perturbation Approximation of balanced systems. Int. J. Control, 50:1379{1405, 1989. 164] Logsdon, E.M. E cient Determination of Optimal Control Pro les for Differential Algebraic Systems. Tesis Doctoral, Carnegie Mellon Univ., 1990. 165] Lucia, A., J. Xu, y G.C. D'Couto. Sparse quadratic programming in chemical process optimization. Ann. Opp. Res., 42:55, 1990. 166] Luenberger, D. Optimization by Vector Space Methods. Wiley, Nueva York, 1969. 167] Lurie, K. A. Applied Optimal Control Theory of Distributed Systems. Plenum Press, Nueva York, 1993. 168] Luus, R. Optimal control by Dynamic Programming using accessible grid points and region contraction. Hung. J. Ind. Chem., 17:523{543, 1989. 169] Luus, R. Application of Dynamic Programming to high-dimensional non-linear optimal control problems. Int. J. Control, 52(1):239{250, 1990. 170] Luus, R. Optimal control by Dynamic Programming using systematic reduction in grid size. Int. J. Control, 51(5):995{1013, 1990.

Referencias

311

171] Luus, R. On the application of dynamic iterative programming to singular optimal control problems. IEEE Trans. Autom. Control, 37(11):1802, 1992. 172] Luus, R. Application of Dynamic Programming to di erential algebraic process systems. Comp. & Chem. Eng., 17:373{377, 1993a. 173] Luus, R. Optimization of fed-batch fermentors by iterative dynamic programing. Biotechnol. and Bioeng., 17:599{602, 1993b. 174] Luus, R. Optimal control of batch reactors by Iterative Dynamic Programming. J. Proc. Control, 4(4):218{226, 1994. 175] Luus, R. Sensitivity of control policy on yield of a fed-batch reactor. IASTED Int. Conf. on Modelling and Simulation, Pittsburg, 1995. 176] Luus, R. y V. Dong. Use of Iterative Dynamic Programming in optimizaciton of reactor systems. En IFAC Symposium on Dynamics and Control of Chemical Reactors, Distillation Columns and Batch Processes, 45{49, Helsingor, Dinamarca, 1995. 177] Luus, R. y D. Hennessy. Optimization of fed-batch reactors by the Luus-Jakola optimization procedure. Ind. Eng. Chem. Res., 38(5):1948{1955, 1999. 178] Luus, R. y T.H.I. Jaakola. Optimisation of non-linear functions subject to equality constraints. IEC Process. des. Dev., 12:380{383, 1973. 179] Mageroy, E. Numerical integration of systems arising from the method of lines. Informe tecnico-377, Dept. Matematicas, Univ. de Auckland, Nueva Zelanda, 1997. 180] Maly, T. y L.R. Petzold. Numerical methods and software for sensitivity analysis of di erential-algebraic systems. Applied Numerical Mathematics, 20:57{79, 1996. 181] Mart nez, A., C. Rodr guez, y M. E. Vazquez-Mendez. Theoretical and numerical analysis of an optimal control problem related to wastewater treatment. SIAM J. Cont. and Opt., 38:1534 { 1553, 2000. 182] Maurer, H. y M. Wiegand. Numerical solution of a drug displacement problem with bounded state variables. Optimal Control Appl. Methods, 13:43{55, 1992.

312

Referencias

183] Michalewicz, Z. Genetic Algorithms + Data Structures = Evolution Programs. Springler-Verlag, (3a edicion), 1996. 184] Miele, A. y T. Wang. Parallel computation of 2-point boundary-value problems via particular solutions. J. of Opt. Th. and App., 79:5{29, 1993. 185] Mittelmann, H.D. y H. Maurer. Solving elliptic control problems with interior point and SQP methods: Control and state constraints. En preparacion, 2000. 186] Modak, J. M., P. Bonte, y H. C. Lim. An improved computational algorithm for singular control problems in chemical reaction engineering. Chem. Eng. Commun., 86:165, 1989. 187] Modak, J. M., H.C. Lim, y Y.J. Tayeb. General characteristics of optimal feed rate pro les for various fed-batch fermentation processes. Biotechnol. and Bioeng., XXVIII:1396{1407, 1986. 188] Morison, K.R. Optimal Control of Processes Described by Systems of Di erential-Algebraic Equations. Tesis doctoral, Imperial College, Univ. de Londres, Reino Unido, 1984. 189] Mudget, R. E. Microwave properties of heating characteristics of foods. Food Technology, 2:121{135, 1986. 190] Mujtaba, I. M. Optimal Operational Policies in Batch Distillation. Tesis doctoral, Imperial College, Univ. de Londres, Reino Unido, 1989. 191] Nadkarni, M. M. y T. A. Hatton. Optimal nutrient retention during the thermal processing of conduction{heated canned food: Application of the distributed minimum principle. J. Food Sci., 50:1312{1321, 1985. 192] Nash, S. G. Newton-type minimization via the Lanczos method. SIAM J. Num. Anal., 21:770{778, 1984. 193] Nash, S. G. y A. Sofer. Linear and Nonlinear Programming. McGraw-Hill, 1996. 194] Nash, S. G. A survey on Truncate-Newton methods. J. of Comp. and Appl. Math, 124:45{59, 2000.

Referencias

313

195] Nash, S. G. y J. Nocedal. A numerical study of the limeited memory BFGS method and the Truncated Newton method for large scale optimization. SIAM. J. Optimization, 1(3):358{372, 1991. 196] Neittaanmaki, P. y D. Tiba. Optimal Control of Nonlinear Parabolic Systems. Marcel Dekker, Inc., 1994. 197] Nicola ,B. , N. Scheerlinck, H. Stigter, y J. Van Impe. Modelling and simulation of combined microwave-convection heating. Informe tecnico, EU FAIR Project CT96-1192, KULeuven, Belgica, 1999. 198] Nishida, N., Y.A. Liu, L. Lapidus, y S. Hiratsuka. An e ective computational algorithm for suboptimal singular and/or bang-bang control. AIChE J., 22(3):505{523, 1976. 199] Nocedal, J. y S. Wright. Numerical Optimization. Springer, Nueva York, 1999. 200] Noronha, J., M. Hendrickx, A. Van Loey, y P. Tobback. New semi-empirical approach to handle time-variable boundary conditions during sterilisation of non-conductive heating foods. J. Food Eng., 24(2):249{268, 1995. 201] Oh, M. Modelling and Simulation of Combined Lumped and Distributed Processes. Tesis doctoral, Imperial College, Univ. de Londres, Reino Unido, 1995. 202] Ohlsson, T. The C-value as a tool in optimizing thermal processes. SIK Service serie Nr 786, Gotteborg, Suecia, 1988. 203] Ohlsson, T. y N.E. Bengtsson. Microwave heating pro les in foods - a comparison between heating experiments and computer simulation. Microwave Energy Applications Newsletter, IV(6), 1971. 204] Oliveira, L.S., A.S. Franca, E.K. Kang, K. Haghighi y F. Milner. Adaptive nite element analysis of coupled transport problems. International Winter Meeting - Nashville, Tennessee, American Society of Agricultural Engineers ASAE, 1992. 205] O~ate, E., J. Periaux, and A. Samulesson Edts. The Finite Element Method n in the 1990's: A Book Dedicated to O.C. Zienkiewicz. CIMNE, Barcelona, Espa~a, 1991. n

314

Referencias

206] Pantelides, C.C., D. Gritsis, K. R. Morison y R. W. H. Sargent. The mathematical modelling of transient systems using di erential-algebraic equations. Comp. & Chem. Eng., 12(5):449{454, 1988. 207] Park, H. M., T.H. Kim y D.H. Cho. Estimation of parameters in ow reactors using the Karhunen-Loeve decomposition. Comp. & Chem. Eng., 23:109{123, 1998. 208] Park, S. y W. F. Ramirez. Optimal production of secreted protein in fed-bath reactors. AIChE J., 34(9):1550, 1988. 209] Petzold, L. Di erential/Algebraic equations are not ODEs. SIAM J. Sci. Stat. Comput., 3(3):367{384, 1982. 210] Petzold, L. R., J. B. Rosen, P.E. Gill, L.O. Jay y K. Park. Numerical optimal control of parabolic PDEs using DASOPT. En IMA Workshop on Large Scale Optimization, 1996. 211] Petzold, L.R. A description of dassl: A di erential/algebraic system solver. Informe tecnico 82-8637, Sandia National Labs., 1982. 212] Petzold, L. R. Automatic selection of methods for solving sti and nonsti systems of ordinary di erential equations. SIAM J. Sci. Stat. Comput., 4:136{ 148, 1983. 213] Pinter, J. Global Optimization in Action. Continuous and Lipschitz Optimization: Algorithms, Implementations and Applications. Kluwer Academics, Holanda, 1996. 214] Polak, E. Computational Methods in Optimization. Academic Press, Nueva York, 1971. 215] Polyak, R. Modi ed Barrier Functions (theory and methods). Mathematical Programming, 54:177{222, 1992. 216] Quarteroni, A., R. Sacco y F. Saleri. Numerical Mathematics. Springer-Verlag, Nueva York, U.S.A., 2000. 217] Quirijns, E.J., L.G. Van Willigenburg y A.J.B. Van Boxtel. New perspectives for optimal control of drying processes. ADCHEM 2000: International Symposium on Advanced Control of Chemical Processes, IFAC, 2000.

Referencias

315

218] Ramaswamy, H.S., G.B. Awuah y B.K. Simpson. Heat transfer and lethality considerations in aseptic processing of liquid/particle mixtures: A review. Crit. Rev. in Food Sci. Nutr., 37(3):253{286, 1997. 219] Ramesh, M. N. Optimum sterilisation of foods by thermal processing - a review. Food Sci. & Technol. Today, 9(4):217{227, 1993. 220] Ramirez, W. F. Process Control and Identi cation. Academic Press, San Diego, 1994. 221] Rao, S. S. Engineering Optimization: Theory and Practice. John Wiley & Sons, 1996. 222] Ratschek, H. y J. Rokne. Interval methods, En \Handbook of Global Optimization", 751{828. Kluwer Academics, editado por R. Horst y P. M. Pardalos, 1995. 223] Raymond, J.P. y H. Zidani. Hamiltonian pontryagin's principles for control probems governed by semilinear parabolic ecuations. Appl. Math. & Opt., 39:143{177, 1999. 224] Reitz, J.R., F.J. Milford y R. W. Christy. Fundamentos de la Teor a Electromagnetica. Addison-Wesley Iberoamericana, Delaware, 1986. 225] Reklaitis, G. V., A. Ravindran y K. M. Ragsdel. Engineering Optimization: Methods and Applications. John Wiley & Sons, Nueva York, 1983. 226] Rice, J.R. y M. Lujan. MOL: Method of lines application. Enviado, Dept. de Ciencias de la Computacion, Univ. de Purdue, 2000. 227] Rico-Mart nez, R., K. Krischer y Y.G. Kevrekidis. \Nonlinear system identi cation using neural networks: dynamics and instabilities" en Neural Networks in Chemistry and Chemical Engineering, A. Bulsari, 1995. 228] Risman, P. O. Microwave oven loads for power measurements. Microwave World, 14(1):14{19, 1993. 229] Rosen, O. y R. Luus. Global optimization approach to nonlinear optimal control. J. of Opt. Th. and App., 73(3):S415{S419, June 1992.

316

Referencias

230] Roubos, J.A., C. D. de Gooijer, G. Van Straten y A.J.B. Van Boxtel. Comparison of optimization methods for fed-batch cultures of hybridoma cells. Bioprocess Eng., 17(2):99{102, 1997. 231] Roubos, J.A., G. Van Straten y A.J.B. Van Boxtel. An evolutionary strategy for fed-batch bioreactor optimization: Concepts and Performance. J. of Biotechnology, 67:173{187, 1999. 232] Saa, J., A. A. Alonso y J.R. Banga. Optimal control of microwave heating using mathematical models of medium complexity. Presentado en ACoFoP (Automatic Control of Good and Biological Processes), Goteborg, Sweden, 2123, 1998. 233] Saa, J., J. Vazquez, A.A. Alonso y J.R. Banga. Hardware and software for data acquisition, monitorization and control of a microwave combination oven. Informe tecnico, Lab. de Ingenier a Qu mica, IIM-CSIC. Espa~a, 1998. n 234] Saguy, I. y M. Karel. Optimal retort temperature pro le in optimizing thiamine retention in conduction-type heating of canned foods. J. Food Sci., 44:1485{1490, 1979. 235] Sahinidis, N. V. y M. Tawarmalani. Applications of global optimization to process and molecular design. Comp. & Chem. Eng., 24:2157{2169, 2000. 236] San, K.Y. y G. Stephanopoulos. A note on the optimality criteria for maximum biomass production in a fed-batch fermentor. Biotechnol. and Bioeng., 26:1261{1264, 1984. 237] San, K.Y. y G. Stephanopoulos. Optimization of a fed-batch penicillin fermentation: a case of singular optimal control with state constraints. Biotechnol. and Bioeng., 34:72{78, 1989. 238] Sanchez, I., J.R. Banga y A.A. Alonso. Temperature control in microwave combination ovens. J. Food Eng., 46:21{29, 2000. 239] Sayer, C., G. Arzamendi, J.M. Asua, E.L. Lima y J.C. Pinto. Dynamic optimization of semicontinuous emulsion copolymerization reactions: Composition and molecular weight distribution. En European Symposium on Computer Aided Process Engineering-10, editado por S. Pierucci, Elsevier, Amsterdam, Holanda, 2000.

Referencias

317

240] Scheerlinck, N. y B. Nicola . CHAMPSPACK: Fortran Subroutines for Finite Element Computations of Coupled Heat and Mass Transfer Problems with Internal Heat Generation and Convective Boundary Conditions. User's Manual, Version F1.1. Univ. Catolica de Lovaina, Belgica, 1999. 241] Schiesser, W. E. Computational Mathematics in Engineering and Applied Science: ODEs, DAEs and PDEs. CRC Press, Inc., 1994. 242] Schiesser, W. E. The Numerical Method of Lines. Academic Press, Nueva York, 1991. 243] Schittkowski, K. NLPQL: A FORTRAN subroutine solving constrained nonlinear programming problems. Annals of Operations Research, 7(3-4):485{500, 1985/86. 244] Seywald, H., R.R. Kumar y S.M Deshpande. Genetic algorithm approach for optimal control problems with linearly appearing controls. J. Guid. Contr. Dyn., 18(1):177{182, 1995. 245] Shioya, S. Optimization and control in fed-batch bioreactors. Adv. Biochem. Eng. Biotechnol., 46:111{142, 1992. 246] Shlager, K. L. y J. B. Schneider. A selective survey of the nite-di erence time-domain literature. IEEE Ant. and Prop. Magazine, vol. 37, no. 4, pp. 39-56, 1995, 37(4):39{56, 1995. 247] Shuler, M.L. y F. Kargi. Bioprocess Engineering. Prentice Hall, Englewood Cli s, New Jersey, 1992. 248] Shvartsman, S. Y. y I. G. Kevrikidis. Nonlinear model reduction for control of distributed systems: A computer{assisted study. AIChE J., 44(7):1579{1595, 1998. 249] Silebi, C.A. y W.E. Schiesser. Dynamic Modeling of Transport Process Systems. Academic Press, Londres, 1992. 250] Silva, C. L. M., F.A.R. Oliveira y M. Hendrickx. Modelling optimum processing conditions for the sterilization of prepackaged foods. Food Control, 4(2):67{78, 1993. 251] Simutis, R. y A. Lubbert. A comparative study on random search algorithms for biotechnical process optimization. J. of Biotechnology, 52:245{256, 1997.

318

Referencias

252] Singh, R. P. y D.R. Heldman. Introduction to Food Engineering. Academic Press, California, 1993. 253] Siouris, G. M. An Engineering Approach to Optimal Control and Estimation Theory. John Wiley & Sons, Inc., Nueva York, 1996. 254] Sirovich, L. Turbulence and the dynamics of coherent structures. Part I: Coherent structures. Quaterly of Appl. Math., 561{571, 1987. 255] Storn, R. y K. Price. Di erential Evolution - a simple and e cient heuristic for global optimization over continuous spaces. J. Global. Optim., 11:341{359, 1997. 256] Stumbo, C. R. Thermobacteriology in Food Processing. Academic Press, Nueva York, 1973. 257] Tanartkit, P. y L.T. Biegler. Stable decomposition for dynamic optimization. I&EC Res., 34:1253{1266, 1995. 258] Teixeira, A. A., J. R. Dixon, J. W. Zahradnik y G. E. Zinsmeister. Computer optimization of nutrient retention in thermal processing of conduction-heated foods. Food Technol., 23:137{42, 1969. 259] Teixeira, A. A., G. E. Zinsmeister y J. W. Zahradnik. Computer simulation of variable retort control and container geometry as a possible means of improving thiamine retention in thermally processed foods. J. Food Sci., 40:656{659, 1975. 260] Teixeira, A. A., M.O. Balaban, S.P.M. Germer, M.S. Sadahira, R.O.T. Neto y A.A. Vitali. Heat transfer model performance in simulation of process deviations. J. Food Sci., 64(3):488{493, 1999. 261] Terajima, Y. y Y. Nonaka. Retort temperature pro le for optimum quality during conduction-heating of foods in retortable pouches. J. Food Sci., 61(4):673{678, 1996. 262] Theodoropoulou, A., R. A. Adomaitis y E. Za riou. Model reduction for optimization of rapid thermal chemical vapor deposition systems. IEEE Trans. on Semiconduct. Manufact., 11(1):85{98, 1998. 263] Tholudur, A. y W. F. Ramirez. Optimization of fed-batch bioreactors using neural network parameter function models. Biotechnol. Prog., 12:302, 1996.

Referencias

319

264] Tholudur, A. y W. F. Ramirez. Obtaining smoother singular arc policies using a modi ed Iterative Dynamic Programming algorithm. Int. J. Control, 68(5):1115{1128, 1997. 265] Tolsma, J. E. y P.I. Barton. Hidden discontinuities and parametric sensitivity calculations. SIAM J. on Scienti c Computing, enviado, 2000. 266] Tombs, M.S. y I. Postlethwaite. Truncated balanced realization of stable, non-minimal state-space systems. Int. J. Control, 46:1319{1330, 1987. 267] Tsang, T.H., D.M. Himmelblau y T.F. Edgar. Optimal control via via collocation and nonlinear programming. J. of Control, 21:763{768, 1975. 268] Van Remmen, H.H.J., C.T. Ponne, H.H. Nijuis, P.V. Bartels y P.J.A.M Kerkhof. Microwave heating distributions in slabs, spheres and cylinders with relation to food processing. J. of Food Science, 61(6):1105{1117, 1996. 269] Varga, A. E cient minimal realization procedure based on balancing. En IMACS/IFAC Symp. MCTS, editado por S. G. Tzafestas A. El Moudui, P. Borne, Lille, Francia, 1991 a. 270] Varga, A. Balancing-free square-root algorithm for computing singular perturbation approximations. En 30-Th IEEE CDC, 2, 1062{1065, Brighton, Reino Unido, 1991 b. 271] Varga, A. Model reduction routines for SLICOT. Informe tecnico NICONET 1999-8, Univ. Tecnica de Eindhoven, 1999. 272] Vassiliadis, V. S. DAEOPT | a di erential-algebraic optimization solver. Informe tecnico, Imperial College, Londres, Reino Unido, 1992. 273] Vassiliadis, V. S. Computational Solution of Dynamic Optimization Problems with General Di erential-Algebraic Constraints. Tesis Doctoral, Imperial College, Univ. de Londres, Reino Unido, 1993. 274] Vassiliadis, V. S., C. C. Pantelides y R. W. H. Sargent. Solution of a class of multistage dynamic optimization problems. 1. Problems without path constraints. Ind. Eng. Chem. Res., 33(9):2111{2122, 1994a. 275] Vassiliadis, V. S., C. C. Pantelides y R. W. H. Sargent. Solution of a class of multistage dynamic optimization problems. 2. Problems with path constraints. Ind. Eng. Chem. Res., 33(9):2123{2133, 1994b.

320

Referencias

276] Vassiliadis, V. S. y C.A. Floudas. The modi ed barrier function approach for large-scale optimization. Comp. & Chem. Eng., 21:855{874, 1997. 277] Verboven, P., N. Scheerlinck, J. De Baerdemaeker y B. M. Nicola . Possibilities and limitations of computational uid dynamics for thermal food process optimization. En \Processing Foods: quality optimization and process assessment", editado por Oliveira, F. y Oliveira, J., 41-66, CRC Press, Boca Raton, 1997. 278] Von Stryk, O. Numerical solution of optimal control problems by direct collocation. Optimal Control- Calculus of Variations, Optimal Control Theory and Numerical Methods, editado por R. Bulirsch, A. Miele, J. Stoer, K.H. Well, 129{143, Birkhauser, Basel, 1993. 279] Wang, F.S. y J.P. Chiou. Optimal control and optimal time location problems of di erential-algebraic systems by di erential evolution. Ind. Eng. Chem. Res., 36(12):5348{5357, 1997. 280] Wang, T. Global Optimization for Constrained Nonlinear Programming. Tesis Doctoral, Univ. de Illinois, 2000. 281] Wangsness, R. K. Campos Electromagneticos. Limusa, Mexico, 1992. 282] Wappling-Raaholt, B. y T. Ohlsson. Modelling and simulation of microwave heating. Informe tecnico, EU FAIR Project CT96-1192, SIK, Suecia, 1999. 283] Welty, J.R., C. E. Wicks y R.E. Wilson. Fundamentos de Transferencia de Momento, Calor Y Masa. Limusa, 1996. 284] Wolfram, S. The Mathematica Book. Cambridge University Press, Cambridge, Reino Unido, 1996. 285] Wright, M. H. Direct search methods: Once scorned, now respectable. En Numerical Analysis 1995 (Procceedings of the 1995 Dundee Biennal Conference in Numerical Analysis), editado por D.F. Gri ths and G.A. Watson, Adison Wesley Longman, Harlow, Reino Unido, 1996. 286] Wycko , P. S. Numerical Solution of Di erential Equations Through Empirical Eigenfunction Expansions. Tesis Doctoral, MIT, Massachusetts, 1995.

Referencias

321

287] Yamashita, Y. y M. Shima. Numerical computational method using genetic algorithm for the optimal control problem with terminal constraints and free parameters. Nonlinear Analysis-Theory Methods & Applications 30(4):22852290, 1997. 288] Yang, R.L. y C. P. Wu. Global optimal control by accelerated simulated annealing. Presentado en First Asian Control Confence, Tokyo, Japon, 1994. 289] Yee, K. S. Numerical solution of initial boundary value problems involving maxwell's equations in isotropic media. IEEE Trans. Ant. Prop., 14(4):302{ 307, 1966. 290] Zhou, J.L., A.L. Tits y C.T. Lawrence. User's guide for FFSQP v3.6. Informe tecnico SRC-TR-92-107r2, I.S.R., Univ. de Maryland, 1996. 291] Zhou, Z.G., Z.S. Zhang, X. Wanga, Y.C. Dai y W.K. Yuan. Optimal control of batch electrochemical reactor using k-l expansion. Chem. Engng. Sci., 56:1485{1490, 2001.

322

Referencias

Publicaciones resultantes de este trabajo


Publicaciones en revistas internacionales
E. Balsa-Canto, A.A. Alonso y J.R. Banga, \A novel, e cient and reliable method for thermal process design and optimization. Part I: Theory". Aceptado para su publicacion en J. Food Eng., 2001. E. Balsa-Canto, J.R. Banga y A.A. Alonso, \A novel, e cient and reliable method for thermal process design and optimization. Part II: Applications". Aceptado para su publicacion en J. Food Eng., 2001. E. Balsa-Canto, J.R. Banga, A.A. Alonso y V.S. Vassiliadis, \Restricted second order information for solution of the optimal control problems using control vector parameterization". Aceptado para su publicacion en J. Proc. Control, 2001. E. Balsa-Canto, J.R. Banga, A.A. Alonso y V.S. Vassiliadis, \Dynamic optimization of chemical and biochemical processes using restricted second order information", Comp. & Chem. Eng., 25, p. 539-546, 2001. E. Balsa-Canto, J.R. Banga, A.A. Alonso y V.S. Vassiliadis, \E cient optimal control of bioprocesses using second order information", Ind. Eng. Chem. Res., 39, p. 4287-4295, 2000. V. S. Vassiliadis, E. Balsa-Canto y J. R. Banga, \Second order sensitivities of general dynamic systems: application to optimal control problems", Chem. Eng. Sci. 54(17), p. 3851-3860, 1999.

Cap tulos en libros


E. Balsa-Canto, J.R. Banga y V.S. Vassiliadis, \Dynamic optimization of a class of multistage systems using a hybrid stochastic-deterministic method". 323

324

Publicaciones resultantes de este trabajo

Aparecera en: \Global Optimization - Selected Case Studies", editado por Janos Pinter, Kluwer Academic Publishers, 2001. E. Balsa-Canto, J.R. Banga, A.A. Alonso y V.S. Vassiliadis, \Dynamic optimization of chemical and biochemical processes using restricted second order information". En: European Symposium on Computer Aided Process Engineering-10. Serie: Computer-Aided Chemical Engineering, 8. Editado por: S. Pierucci. Elsevier, 2000. ISBN: 0-444-50520-2

Presentaciones en conferencias internacionales


E. Balsa-Canto, A.A. Alonso y J.R. Banga, \Optimal control of distributed processes using reduced order models", aceptada para su presentacion en ECC01 (European Control Conference, 2001), 4-7 septiembre, 2001, Porto, Portugal. E. Balsa-Canto, J.R. Banga, A.A. Alonso y V.S. Vassiliadis, \Optimal control of distributed processes using restricted second order information" ADCHEM2000 (Advanced Control of Chemical Processes), 14-16 junio, 2000, Pisa, Italia. E. Balsa-Canto, J.R. Banga, A.A. Alonso y V.S. Vassiliadis, \Dynamic optimization of chemical and biochemical processes using restricted second order information", ESCAPE-10 (European Symposium on Computer Aided Process Engineering-10), mayo, 7-10, 2000, Florencia, Italia. B.M. Nicola , A. A. Alonso, J.R. Banga, E. Balsa-Canto, S. Galt, M. Idebro, T. Ohlsson, J. Saa, I.Sanchez, N. Scheerlinck, H. Stitgter, J. Van Impe, B. Wappling-Raaholt, \Optimal control of microwave combination ovens for food heating", ICEF-8, 9-13 abril, 2000, Puebla, Mexico. V.S. Vassiliadis, E. Balsa-Canto, T.W.C. Chen y J.R. Banga, \Advances in control vector parameterization in large scale optimal control problems", ASPENWORLD 2000: Optimizing the manufacturing enterprise, febrero, 2000, Orlando, Fl, USA. B.M. Nicola , A. A. Alonso, J.R. Banga, E. Balsa-Canto, S. Galt, M. Idebro, T. Ohlsson, J. Saa, I.Sanchez, N. Scheerlinck, H. Stitgter, J. Van Impe, B. Wappling-Raaholt. \Optimal control of microwave combination ovens for food heating", 1999 ASAE/CSAE-SCGR Annual International Meeting, julio, 1999, Toronto, Canada.

Publicaciones resultantes de este trabajo

325

E. Balsa-Canto, V.S. Vassiliadis, J.R. Banga y A.A. Alonso, \E cient dynamic optimization of distributed parameter process systems", Annual meeting 1999 of the American Institute of Chemical Engineers (AIChE), noviembre, 1999, Dallas, USA. V.S. Vassiliadis, E. Balsa-Canto y J.R. Banga, \A hybrid strategy for the optimal control of multistage chemical processes", Annual meeting 1999 of the American Institute of Chemical Engineers (AIChE), noviembre, 1999, Dallas, USA. E. Balsa-Canto, V.S. Vassiliadis y J.R. Banga, \Dynamic optimization of a class of multistage systems using a hybrid stochastic-deterministic method", 19th IFIP TC7 Conference on Process Modelling and Optimization, julio, 1999, Cambridge, U.K. E. Balsa-Canto, J.R. Banga y V.S. Vassiliadis, \E cient optimal control of bioprocesses using second order information", Annual meeting 1998 of the American Institute of Chemical Engineers (AIChE), noviembre, 1998, Miami Beach, Fl, USA. V.S. Vassiliadis, E. Balsa-Canto, J.R. Banga, \ Second order information analysis in control vector parameterization methods for the solution of optimal control problems", Annual meeting 1998 of the American Institute of Chemical Engineers (AIChE), noviembre, 1998, Miami Beach, Fl, USA. E. Balsa-Canto, A.A. Alonso y J.R. Banga, \Dynamic optimization of bioprocesses: deterministic and stochastic strategies", ACoFoP IV (Automatic Control of Food an Biological Processes), septiembre, 1998, Goteborb, Suecia.

Art culos en preparacion


E. Balsa-Canto, E.F. Carrasco, A.A. Alonso, y J.R. Banga. \Optimal control of bioprocesses using a hybrid method". N. Scheerlinck, B. Wppling-Raaholt, J.R. Banga, P. Verboven, A. A. Alonso, E. Balsa-Canto, S. Galt, M. Idebro, J. Saa, I. Sanchez, H. Stigter, J. Van Impe, T. Ohlsson y B.M. Nicola . \A Combined Electromagnetic and Heat Transfer Model for Heating of Foods in Microwave Combination Ovens".

326

Publicaciones resultantes de este trabajo

J. R. Banga, J. Saa, E. Balsa-Canto, A.A. Alonso, S. Galt, M. Idebro, B.M. Nicola , T. Ohlsson, I. Sanchez, N. Scheerlinck, H. Stigter, J. Van Impe y B. Wppling-Raaholt. \Optimal control of microwave heating using rigurous models"

Вам также может понравиться