Вы находитесь на странице: 1из 100

UNIVERSIDAD NACIONAL AUTNOMA

DE MXICO

FACULTAD DE INGENIERIA

MTODOS NUMRICOS PARA RESOLVER ECUACIONES


Y PROBLEMAS DE OPTIMIZACIN NO LINEALES

T E S I S

QUE PARA OBTENER EL TTULO DE:


INGENIERIO PETROLERO

P R E S E N T A:

LORENA GUTIRREZ OLVERA

DIRECTOR DE TESIS:
DR. TEODORO IVN GUERRERO SARABIA
2016
Investigacin realizada gracias al Programa
UNAM-DGAPA-PAPIIT (PE102516)
UN AGRADECIMIENTO ESPECIAL AL DOCTOR
TEODORO IVAN GUERRERO SARABIA Y AL
GRUPO DE INVESTIGACIN EN INGENIERA
MULTIFSICA Y ASEGURAMIENTO DE FLUJO
(GIIMAF) POR LA DIRECCIN DE ESTE
TRABAJO DE TESIS.
Contenido

Lista de tablas iii


Lista de figuras iii
Resumen v
Introduccin 1

ECUACIONES NO LINEALES 4
1.1 Generalidades 4
1.2 Mtodos Iterativos 6
1.2.1 Mtodo de punto fijo 8
1.2.2 Mtodo de Biseccin 12
1.2.3 Mtodo de la falsa posicin 15
1.2.4 Mtodo de Newton-Raphson 20
1.2.5 Mtodo de la secante 28
1.2.6 Mtodo de Halley 31
1.2.7 Mtodo de Chebyshev 34
1.2.8 Aceleracin de la convergencia: mtodo 2 de Aitken y mtodo de
Steffensen 36
1.2.9 Resumen de los mtodos iterativos 38
1.3 Mtodos para calcular races de polinomios 39
1.3.1 Mtodos analticos 40
1.3.2 Mtodo de Mller 43
1.3.3 Mtodo de Newton para polinomios 46
1.3.4 Mtodo de Bairstow 48
1.3.5 Mtodo de Laguerre 51
SISTEMAS DE ECUACIONES NO LINEALES 52
2.1 Generalidades 52
2.2 Iteracin de punto fijo para SENL 53
2.3 Mtodo de Newton multivariable 56
2.3.1 Modificaciones al mtodo de Newton 58
2.4 Mtodos cuasi-Newton 60
2.4.1 Mtodo de Broyden 61
2.4.2 Mtodo de Broyden-Fletcher-Goldfarb-Shanno (BFGS) 62
2.4.3 Mtodo de Davidon-Fletcher-Powell (DFP) 63
OPTIMIZACIN UNIDIMENSIONAL 64
3.1 Generalidades 64
3.3.1 Mtodo de la seccin dorada 66
3.2.2 Interpolacin cuadrtica 70

i
3.2.3 Mtodo de Newton 71
OPTIMIZACIN MULTIDIMENSIONAL 72
4.1 Generalidades 72
4.2 Mtodos de Descenso 75
4.2.1 Mtodo de gradiente conjugado 78
4.3 Mtodo Gauss-Newton 80
4.4 Mtodo de Levenberg-Marquardt 82
4.5 Otros mtodos 84

Conclusiones 89
Recomendaciones 90
Referencias 91

ii
Lista de tablas

Tabla 1.1 Mtodos iterativos para resolver una ecuacin no lineal de


una sola variable independiente 5
Tabla 1.2 Ejemplo del proceso iterativo del mtodo de Steffensen 35
Tabla 1.3 Resumen de los mtodos iterativos 37
Tabla 1.4 Mtodos numricos para calcular races de polinomios 42

Lista de Figuras

Figura 1.1 Algoritmo del mtodo punto fijo 7


Figura 1.2 Mtodo de punto fijo como la solucin de un sistema de
dos ecuaciones 8
Figura 1.3 Interpretacin geomtrica del mtodo de punto fijo 9
Figura 1.4 Mtodo de Biseccin 10
Figura 1.5 Algoritmo del mtodo de biseccin 11
Figura 1.6 Representacin grfica del mtodo de la falsa posicin 13
Figura 1.7 Algoritmo del mtodo de la falsa posicin 14
Figura 1.8 Comparacin del error relativo porcentual, del mtodo de
biseccin y falsa posicin 15
Figura 1.9 Representacin grfica del mtodo de la regla falsa
estancado 16
Figura 1.10 Algoritmo del mtodo de la falsa posicin 17
Figura 1.11 Representacin del mtodo de newton-Raphson 19
Figura 1.12 Algoritmo del mtodo de Newton-Raphson 20
Figura 1.13 Casos de falla del mtodo de Newton-Raphson 22
Figura 1.14 Eleccin de un valor inicial 23
Figura 1.15 Mtodo de Von Mises 25
Figura 1.16 Mtodo de Whittaker 26
Figura 1.17 Representacin del mtodo de la secante 27
Figura 1.18 Algoritmo del mtodo de la secante 28
Figura 1.19 Algoritmo del mtodo de Halley 32

iii
Figura 1.20 Algoritmo del mtodo de Chebyshev 34
Figura 1.21 Algoritmo del mtodo de Steffesen 36
Figura 1.22 Mtodo de Mller 43
Figura 1.23 Algoritmo del mtodo de Mller 45
Figura 1.24 Algoritmo del mtodo de Newton 47
Figura 1.25 Algoritmo del mtodo de Bairstow 51
Figura 1.26 Algoritmo del mtodo de Laguerre 52
Figura 2.1 Mtodos para resolver sistemas de ecuaciones no lineales 54
Figura 2.2 Algoritmo de iteracin punto fijo en SENL 55
Figura 2.3 Mtodo de Newton multivariable 58
Figura 3.1 Races, mximos y mnimos 65
Figura 3.2 Mximo local 65
Figura 3.3 Mnimo 65
Figura 3.4 Punto de inflexin 65
Figura 3.5 Mtodos de optimizacin unidimensional. 66
Figura 3.6 Definicin de Sub-intervalos en el Mtodo de la seccin
dorada 67
Figura 3.7 Clculo de los puntos internos 69
Figura 3.8 Actualizacin del Intervalo de Bsqueda con el Mtodo de
la Seccin Dorada 69
Figura 3.9 Mtodo de interpolacin cuadrtica 70
Figura 4.1 Mtodos multivariables 74
Figura 4.2 el descenso ms rpido, curvas de nivel 77

iv
Resumen

En muchas ocasiones los ingenieros se enfrentan a problemas que implican la


resolucin de modelos matemticos no lineales. Sean ecuaciones o problemas de
optimizacin no lineales, todos ellos implican tener conocimientos sobre mtodos
numricos para resolverlos. Dependiendo del tipo de problema, existe en la
literatura una gran cantidad de algoritmos.

Muchos de estos mtodos les pueden resultar difciles de entender a los estudiantes
de ingeniera petrolera por la manera en que comnmente son descritos en la
literatura; o bien, puede ser que simplemente no los conozcan. Por lo tanto, el
objetivo de este trabajo es presentar de manera sencilla algunos mtodos para
resolver ecuaciones y problemas de optimizacin no lineales, y motivar su inters
en estos tpicos.

El trabajo comienza con una descripcin de mtodos para resolver ecuaciones no


lineales. Se discuten sus ventajas y desventajas, y se refieren algunas estrategias
para acelerar su convergencia. Se presentan mtodos para calcular las races de
polinomios, tanto analticos para polinomios de segundo, tercer y cuarto grados,
como numricos para polinomios en general. En cuanto a los mtodos para resolver
sistemas de ecuaciones no lineales, se aborda el de punto fijo en su versin
multidimensional, el de Newton multivariable, y los cuasi-Newton. Por otra parte, se
describen algunas tcnicas de optimizacin unidimensional y multidimensional.
Finalmente, se presenta una introduccin a los mtodos de optimizacin
metaheursticos.

v
Abstract

Frequently, engineers face problems involving non-linear equations or non-linear


optimization problems. So, in order to solve them, it's necessary to have some
knowledges on numerical methods. Depending on the type of problem, there are lots
of published algorithms in the specialized literature. To start off, many of these
methods may result in being difficult to understand for petroleum engineering
students; sometimes, the students simply dont know them. Therefore, the object of
this work is to present some methods to solve non-linear equations and optimization
problems in a simple way, and to motivate interest in these topics.

This paper begins with a description of methods for solving non-linear equations.
Their advantages and disadvantages are mentioned, and some strategies to
accelerate their convergence are discussed. Analytical and numerical methods for
calculating roots of polynomials are presented. In regards to non-linear equation
systems, the fixed point method is tackled in its multidimensional version, Newton
method for several variables, and quasi-Newton methods. Some one-dimensional
and multi-dimensional techniques optimization are described. Finally, an introduction
to optimization metaheuristic methods is presented.

vi
Introduccin

Todos los sistemas dinmicos de la naturaleza exhiben en mayor o menor grado un


comportamiento no lineal que puede resultar extraordinariamente rico en
posibilidades, como respuesta a las perturbaciones que experimenta. As, al aplicar
los principios fundamentales de la fsica en su estudio, surgen modelos matemticos
conformados por ecuaciones no lineales, cuya solucin en general no puede
obtenerse analticamente y debe ser aproximada de alguna manera.

Por otra parte, con base en un modelo matemtico desarrollado, tambin es de


inters en la prctica de la ingeniera estudiar las condiciones ptimas de operacin
de un sistema analizado bajo ciertas restricciones de diseo. O bien, puede ser
necesario calcular ciertos parmetros de calibracin del modelo con la finalidad de
reproducir de mejor manera el comportamiento real observado del sistema. Todo
ello, se traduce en la formulacin de un problema de optimizacin matemtica, cuya
resolucin tampoco puede obtenerse analticamente, excepto en casos
relativamente sencillos.

De esta manera, tanto las ecuaciones no lineales como los problemas de


optimizacin no lineales deben ser resueltos numricamente. Para tal efecto, en la
literatura se dispone de una gran cantidad de algoritmos para cada tipo de problema
a resolver.

Sin embargo, muchos de estos mtodos numricos generalmente resultan


desconocidos para los alumnos de ingeniera petrolera. Por lo tanto, el objetivo de
este trabajo es presentar de manera sencilla algunos de ellos, y motivar el inters
del lector en estos tpicos.

Pgina 1 de 91
Objetivo

Revisar y documentar mtodos numricos para resolver ecuaciones, sistemas de


ecuaciones no lineales, y problemas de optimizacin no lineal, de una manera
amigable para los estudiantes de ingeniera petrolera.

Alcances

Realizar una bsqueda extensa de mtodos numricos para resolver


ecuaciones y sistemas de ecuaciones no lineales.
Revisar la literatura sobre mtodos numricos de optimizacin no lineal
unidimensional, as como multidimensional.
Documentar y presentar los mtodos numricos seleccionados para resolver
ecuaciones y sistemas de ecuaciones no lineales, en una manera sencilla y
directa.
Presentar una introduccin a los mtodos numricos para resolver problemas
de optimizacin no lineal multidimensional.

Pgina 2 de 91
Contenido

En el captulo uno se describen mtodos para resolver ecuaciones no lineales. Se


mencionan sus caractersticas, ventajas y desventajas. Se exponen algunas
estrategias para acelerar su convergencia. Asimismo, se presentan mtodos
analticos para calcular las races de polinomios de segundo, tercer y cuarto grados,
as como algoritmos numricos para tal efecto en polinomios de cualquier grado.

En el captulo dos se exponen mtodos para resolver sistemas de ecuaciones no


lineales. Se aborda el mtodo de punto fijo en su versin multidimensional, el
mtodo de Newton multivariable, y los mtodos cuasi-Newton.

En el captulo tres se estudian tcnicas de optimizacin unidimensional. Se presenta


el mtodo de la seccin dorada, el mtodo de interpolacin cuadrtica, y el mtodo
de Newton para este tipo de problemas.

En el captulo cuatro se describen mtodos de optimizacin multidimensional, y se


presenta una introduccin a los mtodos metaheursticos.

Pgina 3 de 91
Captulo 1

ECUACIONES NO LINEALES
En el presente captulo se presentan algunos conceptos generales sobre las
ecuaciones no lineales de una sola variable independiente, as como algunos
mtodos numricos para resolverlas.

1.1 Generalidades
El problema de resolver una ecuacin no lineal de la forma:

() = 0 , (1.1)
consiste en encontrar el o los valores que la anulan. A stos se les denomina
races, ceros o soluciones de la funcin ().

Tomando en cuenta que en general las races de las ecuaciones pueden ser reales
o complejas, los problemas de bsqueda de races pueden dividirse en dos (Chapra
& Canale, 1999) :

Determinacin de las races reales de ecuaciones algebraicas y


trascendentes. Los mtodos numricos utilizados para resolver este
tipo de problemas slo permiten determinar el valor de una sola raz.

Determinacin de todas las races reales y complejas de polinomios.


Los mtodos numricos en este rubro determinan sistemticamente
todas las races del polinomio.

Pgina 4 de 91
Por otra parte, los mtodos de resolucin de las ecuaciones no lineales pueden
clasificarse en los siguientes rubros:

Mtodo grfico. Consiste en graficar la funcin y observar dnde


cruza el eje de las x. Este valor es donde () = 0, por lo tanto es la
raz. Este mtodo es poco preciso, pero puede utilizarse como punto
de partida para otros mtodos ms sofisticados.

Mtodo de prueba y error. Consiste en elegir un valor de y evaluar


si () es cero. Si no es as se elige otro valor y se evala
nuevamente. El proceso se repite hasta que se obtenga un valor que
proporcione una () igual o cercano a cero bajo determinada
tolerancia prestablecida.

Mtodos iterativos: Con base en un algoritmo especfico y un valor


inicial supuesto para la raz, 0 , se construye una sucesin de
nmeros reales {}
=0 = {0 , 1 , 2 , 3 , }, convergente a la solucin

de la ecuacin. Si el mtodo es adecuado se cumplir que:


| | 0 cuando , en cuyo caso se dice que el mtodo
converge a la solucin; de lo contrario el mtodo diverge.

Mtodos directos: Proporcionan la solucin mediante un nmero finito


de operaciones elementales. Por ejemplo, la conocida ecuacin para
calcular las races de un polinomio de segundo grado:

2 4
() = 2 + + = 0 = .
2

En la siguiente seccin se describen algunos mtodos iterativos para resolver


ecuaciones no lineales de una sola variable independiente. En la seccin 1.3 se
presentan mtodos para calcular las races de polinomios.

Pgina 5 de 91
1.2 Mtodos Iterativos
Los mtodos iterativos consisten en aplicar una regla determinada para generar una
sucesin de valores cada vez ms prximos a alguna de las races de la ecuacin
no lineal que se trata de resolver. Dependiendo de las caractersticas de la ecuacin,
de la aproximacin inicial y de la regla utilizada, los mtodos iterativos pueden o no
converger a la solucin.

Mtodos cerrados y mtodos abiertos

Los mtodos para resolver una ecuacin no lineal se denominan cerrados si


requieren un conocimiento previo del intervalo que contiene la raz. Si esto no es
necesario, se dice que el mtodo es abierto, y basta una aproximacin inicial para
comenzar el proceso iterativo.

Para identificar el intervalo que contiene la raz en los mtodos cerrados o


establecer la aproximacin inicial de un mtodo abierto, debe tenerse un buen
entendimiento del problema fsico que se est modelando con la ecuacin y adquirir
la mayor cantidad de informacin posible respecto al mismo; la utilidad de graficar
la funcin de inters resulta ms que evidente.

En los casos ms complicados, como por ejemplo cuando la funcin a


resolver se define durante la ejecucin de un programa computacional, una opcin
es incorporar una bsqueda incremental. sta consiste en realizar evaluaciones de
la funcin en dos puntos. Si la funcin cambia de signo, entonces al menos existe
una raz en ese intervalo. Si esto no es as, se ampla el intervalo de bsqueda
incrementando el valor de uno de los puntos y realizando la evaluacin
correspondiente de la funcin; este proceso termina hasta identificar el cambio de
signo referido, o al sobrepasar un intervalo mximo prestablecido, en cuyo caso no
ha sido posible identificar la existencia de la raz en el mismo.

Un problema con la bsqueda incremental radica en la eleccin de la longitud


del incremento. De esta manera, la bsqueda ser muy tardada si la longitud es

Pgina 6 de 91
muy pequea. Por otro lado, si la longitud es muy grande, entonces las races
cercanas entre s pueden pasar inadvertidas. En este ltimo caso, si existen races
mltiples, se puede calcular la primera derivada de la funcin () al inicio y al final
de cada intervalo. Cuando la derivada cambia de signo, puede existir un mximo o
un mnimo en ese intervalo, lo que representa una bsqueda ms detallada para
detectar la posibilidad de una raz.

Orden de convergencia

En el estudio del desempeo de los mtodos iterativos es importante determinar su


orden de convergencia. Este parmetro indica qu tan rpido converge hacia la
solucin con cada iteracin, y facilita la comparacin entre diferentes mtodos;
adems ayuda en la eleccin del nmero mximo de iteraciones para que el proceso
iterativo termine (Garca, 2004).

Un mtodo iterativo de orden es convergente s:


|+1 |
1. = 1 si el lim = siendo 0 < < 1 (el error en cada iteracin es
| |

menor que en la anterior).

|+1 |
2. > 1 si el lim = siendo 0 < < .
| |

Se dice que la convergencia es:

Lineal si = 1.
Sper lineal s 1 < < 2.
Cuadrtica s = 2.
Cbica s = 3.

En la Tabla 1.1 se indican algunos mtodos para resolver ecuaciones no lineales,


sus restricciones, y su orden de convergencia. Ms adelante se describe cada uno
de ellos.

Pgina 7 de 91
TABLA 1.1 M TODOS ITERATIVOS PARA RESOLVER UNA ECUACIN NO LINEAL DE UNA
SOLA VARIABLE INDEPENDIENTE

Continuidad Tipo de
Mtodos Orden
de f ecuacin
Biseccin No Cualquiera Lineal
cerrados
Mtodos

Falsa posicin No Cualquiera Lineal


Falsa posicin Si Cualquiera Sper lineal
modificada
Incrementos Si Cualquiera Lineal
Punto fijo Si Cualquiera Lineal
Newton- Si Derivable Cuadrtico
Mtodos abiertos

Raphson
Halley Si Derivable Cbico
Steffensen Si Derivable Cbico
Chebyshev Si Derivable Cbico
Secante Si Cualquiera Sper lineal
Secante Si Cualquiera Cuadrtico
modificada

1.2.1 Mtodo de punto fijo


El mtodo de punto fijo tambin es referido como de sustitucin sucesiva, y se
clasifica como un mtodo abierto. Se dice que es un punto fijo de la funcin ()
si ( ) = . Por lo tanto, el primer paso para aplicar este mtodo es arreglar la
ecuacin a resolver, () = 0, de tal manera que:

= () , (1.2)
donde () es una funcin auxiliar que se obtiene mediante operaciones
algebraicas sobre la funcin (). Si esto no es posible, entonces se define

() = () + .
Posteriormente, considerando una estimacin inicial del valor de la raz, , se
obtiene una nueva aproximacin +1, a partir de la siguiente frmula iterativa:

+1 = ( ) .
Imponiendo algunas restricciones sobre la definicin de la funcin (), como se
describe ms adelante, se espera que +1 se aproxime ms a la raz con cada

Pgina 8 de 91
iteracin. En la Figura 1.1 se presenta el algoritmo correspondiente. A continuacin
se presentan algunos conceptos importantes sobre este mtodo.

Convergencia al punto fijo

Para que el mtodo de punto fijo converja a la raz de la funcin () , debe


cumplirse que la funcin auxiliar () sea contractiva, ya que la sucesin de valores
generados con el mtodo obedecen el comportamiento de este tipo de funciones
(Garca, 2004).

La funcin : es contractiva en el intervalo [ , ], si se cumple que:

|( ) ( )| | | , | < 1 ,
donde recibe el nombre de factor de contractividad.

De esta manera, si la funcin () es continua y derivable en [ , ], con


( ) para , y suponiendo 1 > > 0 tal que

|()| < 1 ,

entonces () es contractiva en este intervalo. Adems, si ( ) 0, entonces para


cualquier 0 en el intervalo, la sucesin generada por

+1 = ( ), = 1, 2 ,

converge linealmente a en [ , ], con = ( ), siendo el nico punto fijo de


la funcin.

Aceleracin de la convergencia

Cuando el mtodo de punto fijo se ha ralentizado, puede implementarse la siguiente


modificacin para acelerar el ritmo de convergencia (Garca, 2004). Primero, se
suma el trmino +1 en ambos lados de la ecuacin de recurrencia del mtodo
original:

+1 + +1 = + ( ) ,

de donde, el problema a resolver se transforma en:

Pgina 9 de 91
+ ( )
+1 = = ( ) .
1+

El valor de se escoge de forma que se cumpla el criterio de convergencia del


mtodo.

Sea la funcin () y 0 un valor inicial.

1. Obtener la funcin auxiliar () tal que : =


+ .

2. Calcular +1 = ( )


3. Si = +1
100% < tol., entonces el

procedimiento termina exitosamente.

4. De no cumplirse el criterio de paro, tomar +1


como y regresar al paso 2.

F IGURA 1.1 ALGORITMO DEL MTODO PUNTO FIJO

Interpretacin geomtrica

Para ilustrar geomtricamente la convergencia y divergencia del mtodo del punto


fijo, la ecuacin de recurrencia:

= () ,

puede replantearse como un par de ecuaciones:

Pgina 10 de 91
1 = ,

2 = ( ) .

La raz de () = 0 corresponde al valor de la abscisa en la interseccin de las


curvas definidas por 1 y 2 , como se ilustra en la Figura 1.2.

F IGURA 1.2 M TODO DE PUNTO FIJO COMO LA SOLUCIN DE UN SISTEMA DE DOS


ECUACIONES , () = Y = ()

Dependiendo de los valores que toma () en el intervalo [ , ] , pueden


distinguirse los cuatro casos mostrados en la Figura 1.3.

Pgina 11 de 91
< .
El mtodo diverge porque > 1.

< < .
< 1 el mtodo converge montonamente.

< < .
< 1 el mtodo converge de forma oscilatoria.

> .
El mtodo diverge porque > 1.

F IGURA 1.3 I NTERPRETACIN GEOMTRICA DEL MTODO DE PUNTO FIJO

1.2.2 Mtodo de Biseccin


El mtodo de biseccin tambin es conocido como mtodo de corte binario, de
particin de intervalos, o de Bolzano, en honor al autor del siguiente teorema en el
cual est basado.

Teorema de Bolzano

Si () es una funcin real y continua en el intervalo [ , ], y ( )( ) < 0


,entonces hay al menos una raz real entre y donde () = 0.

La interpretacin geomtrica de este teorema se muestra en la Figura 1.4. As, el


mtodo de biseccin es un tipo de bsqueda en el que el intervalo que contiene la
raz se divide siempre a la mitad (Chapra & Canale, 1999). Si la funcin cambia de

Pgina 12 de 91
signo sobre el intervalo, se evala el valor de la funcin en el punto medio. La
posicin de la raz se determina situndola en el punto medio del nuevo sub-
intervalo, dentro del cual se mantiene el cambio de signo; de esta forma se asegura
que la raz quede encerrada en cada nuevo subintervalo. El proceso se repite hasta
obtener una aproximacin a la raz bajo la tolerancia prestablecida en lo clculos.
El algoritmo correspondiente se presenta en la Figura 1.5.

F IGURA 1.4 M TODO DE BISECCIN

Ventajas y desventajas

El mtodo de biseccin generalmente es lento en comparacin con otros, al tener


un orden de convergencia lineal. Sin embargo, es uno de los ms robustos ya que
generalmente siempre converge a la solucin si se ha garantizado que el intervalo
inicial contiene la raz.

Otra ventaja adicional del mtodo de biseccin es que permite calcular a priori el
nmero de iteraciones requeridas en funcin de la tolerancia prestablecida en los
clculos, como se describe a continuacin.

Sea:

0 = 0 0 = 0 ,

donde los superndices indican la iteracin, iniciando en cero. Despus de la primera


iteracin el error ser:

Pgina 13 de 91
0
1 = .
2

Sea el intervalo , que contiene la raz , de


tal manera que se cumple < 0.

+
1. Calcular = .
2

2. Evaluar . Si < tol, el procedimiento


termina exitosamente.

3. Si > 0 : = ; =
.
En caso contrario: = ; = .
Regresar al punto 1.

F IGURA 1.5 ALGORITMO DEL MTODO DE BISECCIN

Como puede intuirse, el error se reduce a la mitad con la siguiente iteracin, y as


sucesivamente. De esta manera, despus de iteraciones se tiene que:

0
= .
2

Si , es el error preestablecido como tolerancia, entonces el nmero de


iteraciones requerido para satisfacerla puede calcularse como:

log( 0 /, ) 0 (1.3)
= = log 2 .
log 2 ,

Pgina 14 de 91
1.2.3 Mtodo de la falsa posicin
Un inconveniente del mtodo de biseccin es que al dividir siempre el intervalo
a la mitad, no se consideran las magnitudes de ( ) y ( ) para mejorar la
aproximacin en la siguiente iteracin. Por ejemplo, si ( ) est ms prxima a
cero que ( ), entonces la raz se encuentra ms cerca de . Esta informacin se
ignora en el mtodo de biseccin, de tal manera que la nueva estimacin de la raz
en algunas iteraciones puede aproximarse ms a la solucin, y en otras alejarse.
Esta es una caracterstica por la cual el mtodo de biseccin converge lentamente
hacia la solucin.

Un mtodo que s utiliza la informacin que se va generando en cada iteracin al


momento de evaluar la funcin en los valores extremos del intervalo de bsqueda,
es el mtodo de la falsa posicin, la regla falsa, la cuerda, o tambin referido como
de interpolacin lineal.

Grficamente (Figura 1.6), el primer paso del mtodo consiste en unir ( ) y


( ) con una lnea recta. La interseccin de esta lnea con el eje de las abcisas
(punto ) representa una mejor aproximacin a la solucin. El hecho de reemplazar
la curva por una lnea recta da una falsa posicin de la raz.

Con base en la Figura 1.6, usando tringulos semejantes puede obtenerse la


interseccin de la lnea recta con el eje de las mediante la siguiente ecuacin:

( ) ( )
= .

Resolviendo para se obtiene que:

( )( ) (1.4 )
= .
( ) ( )
Otra forma de llegar a la formula anterior, es a partir de la definicin de la pendiente
de la recta:

( ) ( ) 0 ( )
= = .

Pgina 15 de 91
F IGURA 1.6 REPRESENTACIN GRFICA DEL MTODO DE LA FALSA POSICIN

Ahora bien, el valor calculado de reemplazar al valor inicial de si se cumple


que ( )( ) > 0; en caso contrario, sustituye al valor inicial de . De esta
manera, los valores y siempre encierran a la raz verdadera. El proceso se
repite hasta que la solucin aproximada cumpla con la tolerancia prestablecida. El
algoritmo del mtodo se presenta en la Figura 1.7.

Ventajas y desventajas

En general, este mtodo suele ser superior al de biseccin en cuanto al nmero de


iteraciones requeridas para lograr una misma precisin en la solucin, como se
ejemplifica en la Figura 1.8.

Ahora bien, una desventaja del mtodo de la falsa posicin es que no puede
estimarse a priori el nmero de iteraciones necesarias para satisfacer la tolerancia
en los clculos. Sin embargo, puede utilizarse la magnitud de la pendiente de la
funcin como un indicador para saber qu tan alejada se encuentra la raz de la
()
aproximacin actual. Si se cumple que () es pequea comparada con el valor

de c, entonces se est cerca de la raz.

Pgina 16 de 91
Si en el intervalo , , se cumple que
< 0 , entonces hay una raiz en el
mismo.

( )( )
1. Calcular = .
( )

2. Evaluar . Si < tol, el procedimiento


termina exitosamente.

3. Si > 0 entonces: = ; = .
En caso contrario: = ; = .
Regresar al punto 1

F IGURA 1.7 A LGORITMO DEL MTODO DE LA FALSA POSICIN

Otra desventaja del mtodo de la falsa posicin es que en algunos casos puede
presentar problemas de convergencia. Dependiendo de las caractersticas de la
ecuacin a resolver y del intervalo inicial seleccionado, puede ocurrir que uno de los
valores iniciales permanezca fijo o estancado durante los clculos, mientras que
el otro converja lentamente (de manera lineal) hacia la raz

Pgina 17 de 91
F IGURA 1.8 C OMPARACIN DEL ERROR ENTRE EL
MTODO DE BISECCIN Y FALSA POSICIN

Esto suele presentarse en funciones con una curvatura pronunciada en las


inmediaciones de la raz, como se ilustra en la Figura 1.9. Bajo tales circunstancias,
tambin puede ocurrir que () sea cercana a cero, pero que el error en la solucin
sea grande. Por lo tanto, es recomendable verificar la solucin obtenida
sustituyndola en la ecuacin original.

Pgina 18 de 91
F IGURA 1.9 R EPRESENTACIN GRFICA DEL
MTODO DE LA REGLA FALSA ESTANCADO

Mejoras al mtodo de la falsa posicin

Para resolver las problemticas descritas en la seccin anterior, es comn introducir


un factor de aceleracin ( ) en la ecuacin de recurrencia. Para tal efecto, la
solucin calculada con el mtodo de la falsa posicin se multiplica por , de tal
manera que la aproximacin mejorada es:

( )( ) ( 1.5 )
= [ ].
( ) ( )
Una vez que se ha resuelto el problema de estancamiento, se retoma el mtodo
original de la falsa posicin en las iteraciones siguientes.

Con la introduccin del factor es de esperar que el mtodo sea ms eficiente que
el de biseccin y el de la falsa posicin original.

Ahora bien, se han propuesto diferentes alternativas para establecer el valor de alfa,
las ms comunes son (Garca, 2004):

Modificacin de Illinois Modificacin de Pegasus

( )
= .
= 0.5. ( ) + ( +1 )

Pgina 19 de 91
Una vez identificado un extremo estancado:


1. Calcular = , donde

( )
= 0.5 (Illinois) o = ( )+(+1 ) (Pegasus).

2. Evaluar . Si < tol, el procedimiento


termina exitosamente.

3. Si cambi de signo, regresar al mtodo


de la falsa posicin original

4. Si > 0 entonces: = ; = .
En caso contrario: = ; = .
Regresar al punto 1

F IGURA 1.10 ALGORITMO DEL MTODO DE LA FALSA POSICIN

1.2.4 Mtodo de Newton-Raphson


El mtodo de Newton-Raphson, o de la tangente, es de uno de los ms usados por
su eficiencia debido a que tiene un orden de convergencia cuadrtico, como se
describe ms adelante. Existen diversas formas de derivar la ecuacin de
recurrencia del mtodo; a continuacin se presenta el desarrollo por series de
Taylor.

La serie de Taylor de la funcin () que trata de resolverse puede expresarse en


trminos de primer orden en torno a un valor , siempre que sea continua al igual
que su primera derivada como:

Pgina 20 de 91
() ( ) + ( ) ( ) .

Ahora bien, se busca el valor de = , tal que ( ) = 0. Por lo tanto,

( )
,
( )

de donde se obtiene la frmula de recurrencia del mtodo de Newton-Raphson:

( ) ( 1.6)
+1 = .
( )

Interpretacin geomtrica

Si el valor inicial para la raz es , entonces se puede trazar una tangente desde el
punto [ , ( )] de la curva, como se muestra en la Figura 1.9. Comnmente, el
punto donde esta tangente cruza al eje representa una aproximacin mejorada de
la raz (Chapra & Canale, 1999).

F IGURA 1.11 REPRESENTACIN DEL MTODO DE


NEWTON-R APHSON

Pgina 21 de 91
El mtodo de Newton-Raphson puede deducirse geomtricamente, al considerar
que la primera derivada en puede aproximarse como la pendiente:

( ) 0
( ) .
+1

Despejando se tiene la frmula de Newton-Raphson

( )
+1 = ,
( )

En la Figura 1.12, se muestra el algoritmo del mtodo de Newton-Raphson.

Sea la funcin () y un valor inicial.


1. Calcular +1 =

2. Si (+1 ) < tol., entonces el procedimiento


termina exitosamente.

4. De no cumplirse el criterio de paro, tomar +1


como y regresar al paso 1.

F IGURA 1.12 A LGORITMO DEL MTODO DE NEWTON -RAPHSON

Pgina 22 de 91
Ventajas y desventajas

El mtodo de Newton-Raphson es uno de los ms eficientes ya que tiene un orden


de convergencia cuadrtica; esto se refleja en que el nmero de cifras significativas
en la aproximacin hacia la raz se dplica con cada iteracin.

Ahora bien, el xito del mtodo depende de que la aproximacin inicial est lo
suficientemente cerca a la raz que se busca. Esto constituye una de sus
principales limitantes. En algunos casos, dependiendo de las caractersticas de la
funcin y de la aproximacin inicial, puede ocurrir que el mtodo diverja
dramticamente en slo unas cuantas iteraciones. En la Figura 1.13 se
esquematizan casos en que el mtodo presenta problemas de convergencia. Ms
adelante se presentan algunas recomendaciones para elegir una buena
aproximacin inicial.

Es importante notar que no siempre es posible obtener una expresin analtica para
la funcin derivada, por lo que sta tiene que ser calculada numricamente. Con
ello, el orden de convergencia tambin se reduce en mayor o menor grado,
dependiendo del esquema de diferencias finitas implementado. Ahora bien,
independientemente de cmo se obtenga, el clculo de la deriva implica un costo
computacional que debe tomarse en cuenta al evaluar este mtodo.

Una problemtica adicional surge en funciones con races mltiples; en tales


circunstancias, el orden de convergencia disminuye a sper lineal o lineal. Para
estos casos, se han propuesto algunas modificaciones como se describe
posteriormente.

Pgina 23 de 91
Cuando hay un punto de inflexin en la vecindad de una raz,
las iteraciones que empiezan con x0 divergen progresivamente
de la raz.

Se mantiene oscilando alrededor de un mnimo o mximo local.


Tales oscilaciones pueden persistir o, alcanzar una pendiente
cercana a cero, despus de lo cual la solucin se aleja del rea
de inters.

Un valor inicial cercano a una raz salta a una posicin varias


races ms lejos. Esta tendencia a alejarse del rea de inters
se debe a que se encuentran pendientes cercanas a cero

Una pendiente cero () causa una divisin entre cero en la


frmula de Newton-Raphson, esto significa que la solucin se
dispara horizontalmente y jams toca al eje x.

F IGURA1.13 CASOS DE FALLA DEL MTODO DE N EWTON-RAPHSON

Pgina 24 de 91
Eleccin del valor inicial

Una forma de establecer una aproximacin inicial en el mtodo de Newton Raphson,


se basa en el teorema de Fourier para encontrar las races de una funcin y sus
valores extremos.

Teorema de Fourier

Sea () una funcin continua y dos veces derivable en el intervalo [, ]. Si


el signo de () es diferente al signo de () y sus dos primeras derivadas
() y () no se anulan en [, ], entonces existe una nica raz de la
ecuacin () = 0 en dicho intervalo, no existen extremos locales ni puntos
de inflexin en el mismo, y se puede garantizar la convergencia del mtodo
de Newton tomando como valor inicial, 0 , el extremo del intervalo en el que
la funcin y su segunda derivada tienen el mismo signo.

En la Figura 1.14 se ilustran cuatro posibles casos que pueden presentarse, y se


indica el valor inicial que deber utilizarse en cada uno de ellos para iniciar el
procedimiento de clculo.

> 0 > 0 < 0 < 0


< 0 > 0 > 0 < 0
0 = 0 = 0 = 0 =

F IGURA 1.14 ELECCIN DE UN VALOR INICIAL

Pgina 25 de 91
Modificacin para funciones con races mltiples

Cuando se presenta una raz mltiple, la convergencia del mtodo de Newton se


vuelve de primer orden, por lo que se ralentiza. En tal caso, Ralston y Rabinowitz
(1978) propusieron las siguientes dos modificaciones para recuperar o incrementar
su rapidez de convergencia.

a) Si indica la multiplicidad de la raz , la ecuacin de recurrencia sugerida


es:

( ) (1.7)
+1 = .
( )

El problema de este mtodo es que no siempre se conoce a priori la


multiplicidad de la raz. Ahora bien, en algunos casos es posible determinarlo
a partir del estudio de las derivadas de la funcin ().

b) Se define una funcin auxiliar () como:


()
() = () ,

cuya raz tambin lo es de (). Al aplicar el mtodo de Newton a la funcin


() se obtiene una convergencia de, al menos, tercer orden (Cobos, 2004):

( ) ( )( ) ( 1.8)
+1 = = .
( ) [( )]2 ( )( )

Modificacin de Von Mises

Como se coment en prrafos anteriores, una desventaja del mtodo de Newton es


el costo computacional que implica calcular la derivada en cada iteracin. Por lo
tanto, Von Mises (Luthe et al, 1978) propuso dejar fija la derivada en el punto inicial
(Figura 1.15), de tal manera que:

( )
+1 = .
( )

Pgina 26 de 91
F IGURA 1.15 MTODO DE VON MISES

Modificacin de Whittaker

Posterior a la modificacin de Von Mises, Whittaker propuso actualizar la derivada


por intervalos continuamente para acelerar la convergencia (Figura 1.16). De esta
modificacin se desprenden dos frmulas:

Calculando la tangente Calculando la pendiente

( )
+1 =
( )
+1 = donde
( )
( ) ( )
=

En el caso donde se calcula la pendiente, el mtodo se clasifica como cerrado y


tiene un orden de convergencia lineal. Ahora bien, puede llegar a ser cuadrtica si
la pendiente se actualiza constantemente, o se toman intervalos ms pequeos.

Pgina 27 de 91
F IGURA 1.16 MTODO DE W HITTAKER

1.2.5 Mtodo de la secante


Existen algunas funciones en las cuales es extremadamente complicado, si no
imposible, obtener su derivada analticamente, por lo que la implementacin directa
del mtodo de Newton-Raphson para resolverlas no es una opcin. Para resolver
esta problemtica, la funcin derivada puede aproximarse mediante una diferencia
finita regresiva, de tal forma que (Chapra & Canale, 1999):

( ) (1 )
( ) .
1

Sustituyendo sta en la ecuacin de recurrencia de Newton-Raphson, se obtiene


que:

( )
+1 = .
( ) (1 )
1

Despejando, se obtiene la ecuacin de recurrencia del mtodo de la secante:

( )( 1 ) ( 1.9)
+1 = .
( ) (1 )

Pgina 28 de 91
Como puede observarse, para obtener una nueva aproximacin a la raz, se
requieren dos valores iniciales de (Figura 1.7). Debido a que no se necesita que
() cambie de signo entre los valores dados, este mtodo se clasifica como un
mtodo abierto.

F IGURA 1.17 REPRESENTACIN DEL


MTODO DE LA SECANTE

Aunque este mtodo es muy parecido al mtodo de la falsa posicin, se diferencian


en la forma en que uno de los valores iniciales se reemplaza por la nueva
aproximacin. En el mtodo de la falsa posicin, la ltima aproximacin de la raz
reemplaza cualquiera de los valores iniciales que d un valor de la funcin con el
mismo signo que ( ). De esta manera, las dos aproximaciones siempre encierran
a la raz y el mtodo siempre converge, porque la raz se encuentra dentro del
intervalo.

Por otra parte, el mtodo de la secante reemplaza los valores en secuencia estricta:
con el nuevo valor + 1 se reemplaza a , y a 1 . As, algunas veces los dos
valores estn en el mismo lado de la raz y el mtodo diverge; sin embargo, cuando
el mtodo de la secante converge lo hace ms rpido que el mtodo de la falsa
posicin. En la Figura 1.18 se muestra el algoritmo del mtodo.

Pgina 29 de 91
Sea la funcin () y, y 1 valores iniciales.

(1 )
1. Calcular +1 = 1

2. Si (+1 ) < tol, entonces el procedimiento


termina exitosamente.

3. De no cumplirse el criterio de paro, tomar


+1 = y = 1 y regresar al paso 1.

F IGURA 1.18 ALGORITMO DEL MTODO DE LA SECANTE

Mtodo de la secante modificado

En lugar de usar dos valores arbitrarios para aproximar la derivada, (), en el


mtodo de la secante, otra alternativa es considerar un cambio fraccionario de la
variable independiente, de tal forma que (Chapra & Canale, 1999):

( + )( )
( ) = ,

donde es un pequeo cambio fraccionario. Al sustituir esta expresin en la


ecuacin de recurrencia de Newton-Raphson, se obtiene el mtodo de la secante
modificado:

( ) (1.10)
+1 = .
( + ) ( )

Pgina 30 de 91
La eleccin de un valor adecuado para no es automtica. Si es muy pequeo,
el mtodo puede no tener xito debido a errores de los redondeo causados por la
resta de nmeros cercanos en el denominador de la ecuacin. Por otra parte, si es
muy grande, puede ocasionar que el mtodo diverja. Una vez que se ha
seleccionado un valor adecuado de , el mtodo de la secante modificado
constituye una alternativa excelente cuando la evaluacin de la derivada se dificulta
y el uso de dos valores iniciales es inconveniente.

1.2.6 Mtodo de Halley


Para facilitar la resolucin de la ecuacin 1.1, en ocasiones se utiliza una funcin
auxiliar () = ()(), tal que:
() = ()() = 0 ,

donde es la raz que se busca, y con la restriccin de que () no debe anularse


en la vecindad de esta. As, Brown (1977) sugiri seleccionar () para linealizar la
funcin () y alcanzar una solucin exacta en pocas iteraciones.
Matemticamente esto implicara que:

() = (()()) = 0 ,

Gerlach, demostr que si () 0, () = 0, y () 0, al aplicarle el mtodo


de Newton-Raphson a la ecuacin () = 0, el orden de convergencia es tres.

Ahora bien, si () = 0, entonces debe cumplirse que:

()() + 2()() = 0 ,

de donde:
1
() = .
()

Por lo tanto, la modificacin de Brown y Gerlach (1977) consiste en aplicar el mtodo


de Newton a la funcin:

Pgina 31 de 91
()
() = .
()

La expresin resultante es:

() 2(0 )(0 ) (1.11 )


+1 = = .
() 2[( )]2 (0 )(0 )

Esta ecuacin se conoce como el mtodo de Halley, en honor al destacado


cientfico ingls del siglo XVIII, Edmund Halley, quin obtuvo una ecuacin de
recurrencia similar, aunque no con la notacin mostrada, al resolver de manera
aproximada la raz cbica de un nmero natural, as como en otras aplicaciones
posteriores.

Interpretacin geomtrica
En 1952 Salehov sugiere que el mtodo de Halley puede obtenerse aproximando
una funcin por medio de hiprbolas (Ezquerro et al., 2001). A partir de un valor
inicial 0 , se busca una hiprbola de la forma:

( 0 ) +
() = ,
( 0 ) +

con (0 ) = (0 ), (0 ) = (0 ), y (0 ) = (0 ) .

Este tipo de curvas, denominadas osculatrices, coinciden con en 0 hasta la


segunda derivada. En consecuencia, estas hiprbolas se aproximan mejor a una
curva que la recta tangente con su coincidencia slo hasta la primera derivada. Para
que la hiprbola cumpla las condiciones requeridas, sus coeficientes , y deben
satisfacer que:

= (0 ),


= (0 ),
2
2( )
{ = (0 ).
3

Resolviendo el este sistema de ecuaciones, se obtiene que:

Pgina 32 de 91
(0 )
= ,
)2
2(0 (0 )(0 )
2(0 )
= 2
,
2(0 ) (0 )(0 )
2(0 )(0 )
= .
{ 2(0 )2 (0 )(0 )

Una vez encontrada la hiprbola osculatriz, su interseccin con el eje de abscisas


en el punto en que (1 ) = 0 se toma como nueva aproximacin. Dada la forma de
la hiprbola, se tiene que:

2(0 )(0 )
1 = 0 = 0 .
2(0 )2 (0 )(0 )

A partir de esta interpretacin geomtrica, el mtodo de Halley tambin se conoce


como el mtodo de las hiprbolas tangentes.

De forma similar al desarrollo presentado, pueden aproximarse otro tipo de curvas,


tales como parbolas de la forma:

() = ( 0 )2 + ( 0 ) + ,

en cuyo caso se habla del mtodo de Euler. Por otra parte, si las parbolas son de
la forma:

()2 + () + ( 0 ) + = 0 ,

entonces la ecuacin de recurrencia resultante se denomina como el mtodo de


Chebyshev, el cual se describe en la siguiente seccin.

Pgina 33 de 91
Sea la funcin () y un valor inicial.

2
1. Calcular +1 = 2

2. Si (+1 )< tol ., entonces el procedimiento


termina exitosamente.

3. De no cumplirse el criterio de paro, tomar +1


como y regresar al paso 1.

F IGURA 1.19 ALGORITMO DEL MTODO DE H ALLEY

1.2.7 Mtodo de Chebyshev


Una tcnica para generar procesos iterativos en la resolucin de ecuaciones no
lineales es la interpolacin inversa. Como punto de partida se consideran las
funciones = () , y su funcin inversa = () . La solucin del problema
consiste en obtener una aproximacin a (0).

Hay diferentes formas de obtener tal aproximacin, una de las cuales es mediante
la expansin de la funcin () en una serie de Taylor conservando los trminos
hasta de segundo orden. Esta idea se atribuye al matemtico ruso Pafnuty Lvovich
Chebyshev, quien present el mtodo que lleva su nombre en un concurso
estudiantil celebrado entre 1840 y 1841, ganando la medalla de plata. Sin embargo,
hay quienes se lo atribuyen a Leonhard Euler (Garca, 2013).

Pgina 34 de 91
Considerando que 0 es una aproximacin inicial de la solucin de () = 0, y sea
0 = (0 ), entonces de acuerdo a Chebyshev:

1
(0) (0 ) (0 )0 + (0 )02 ,
2

(0 ) 1 [(0 )]2 (0 )
= 0 ,
(0 ) 2 [(0 )]3

De donde, se obtiene la frmula de recurrencia:

1 ( )( ) ( )
+1 = [1 + ][ ], (1.12 )
2 [( )]2 ( )

A la cual se le conoce como mtodo de Chebyshev, mtodo de la interpolacin


cuadrtica inversa, o mtodo de las parbolas tangentes. La forma se aplicar este
algoritmo se presenta en la Figura 1.20.

Sea la funcin () y un valor inicial.


1. Calcular +1 = 1 + 2 ( ) 2

2. Si (+1 ) < tol., entonces el procedimiento


termina exitosamente.

3. De no cumplirse el criterio de paro, tomar +1


como y regresar al paso 1.

F IGURA 1.20 ALGORITMO DEL MTODO DE C HEBYSHEV

Pgina 35 de 91
1.2.8 Aceleracin de la convergencia: mtodo 2 de Aitken y
mtodo de Steffensen
Mtodo 2 de Aitken

Alexander Aitken (1926) present el mtodo 2 para acelerar la convergencia de


una sucesin que converge linealmente, independientemente de su origen. De
acuerdo a este autor, el valor mejorado de la raz, , se obtiene con la siguiente
ecuacin:

( )2
= ,
2

donde 2 son operadores de diferencias finitas, de primer y segundo rdenes,


respectivamente, de tal forma que:

(+1 )2 (1.13 )
= .
+2 2+1 +

Si se tiene una sucesin 0 , 1 , , que tiende linealmente al valor , entonces con


el mtodo de Aitken puede generarse una sucesin 0 , 1 , , , tal que:

| |
lim =0,
| |

lo que implica que tiende ms rpido a que , y por tanto el mtodo es ms


rpido.

Mtodo de Steffensen

Cuando el mtodo 2 de Aitken se aplica a una sucesin de valores obtenidos


mediante iteraciones de punto fijo (1 = (0 ) y 2 = (1 )), se conoce como el
mtodo de Steffensen. Este autor propuso generar una nueva sucesin
0 , 1 , , mediante la frmula:

(1 0 )2 (1.14 )
1 = 0 .
2 21 + 0

Pgina 36 de 91
En la Tabla 1.2 se ejemplifica la secuencia de clculos para tres iteraciones, y en la
Figura 1.21 se presenta el algoritmo del mtodo.

T ABLA 1.2 E JEMPLO DEL PROCESO ITERATIVO DEL MTODO DE STEFFENSEN ( SUPOSICIN
INICIAL ,
)

Iteracin
Iteraciones de punto fijo Aceleracin 2 de Aitken
de Steffensen

(01 0 )2
1 01 = (0 ) 02 = (01 ) 1 = 0
02 201 + 0
(11 1 )2
2 11 = (1 ) 12 = (01 ) 2 = 1
12 211 + 1
(21 2 )2
3 21 = (2 ) 22 = (21 ) 3 = 0
22 221 + 2

Sea la funcin () y 0 = un valor inicial.

1. Calcular 1 = ( ) y 2 = (1 )

1 0 2
2. Calcular 1 = 0 .
2 21 +0

4. Si 1 < tol se ha encontrado la raz.

5. Hacer 1 = y regresar al paso 1.

F IGURA 1.21 ALGORITMO DEL MTODO DE STEFFESEN

Pgina 37 de 91
1.2.9 Resumen de los mtodos iterativos
En la Tabla 1.3 se presenta un resumen de las caractersticas principales de los
mtodos iterativos, as como de sus ventajas y desventajas.

T ABLA 1.3 RESUMEN DE LOS MTODOS ITERATIVOS

Velocidad de
Caracteristicas Valores inciales Converge Exactitud Aplicacin Ventajas Desventajas
convergencia

Tiene una En ocasiones es


claridad del muy lento.
anlisis de error
muy favorable.
El nmero de
Se dan dos iteraciones
Biseccin Siempre. Lenta Buena Races reales.
valores. requerido para
obtener un error
absoluto se
calcula a priori

Casi siempre es En funciones con


superior al de una curvatura
Se dan dos
Falsa Posicin Siempre. Lenta-Media. Buena Races reales. biseccin. importante puede
valores.
llevar a una mala
convergencia.
Debe de ser
Solo un valor
Punto fijo Siempre. Lenta. Buena General consistente con el
inicial.
problema
Hay casos Es de los
Solo un valor
Newton-Raphson donde no Rpida Buena General mtodos ms
inicial.
converge usados.
Hay casos Es rpido en su Se necesita obtener
Solo un valor
Steffensen donde no Rpida Buena General convegencia. la segunda
inicial.
converge derivada.
Hay casos Es rpido en su Se necesita obtener
Solo un valor
Chebyshev donde no Rpida Buena General convegencia. latercera derivada.
inicial.
converge
Hay casos Tiene un alto Casi no se utiliza.
Solo un valor
Halley donde no Rpida Buena General coste numerico
inicial.
converge
Hay casos Necesita buenos
Se dan dos
Secante donde no Media-Rpida. Buena General valores
valores.
converge iniciales.
Es raro pero Es una Depende de un
puede no alternativa buen valor del
converger. cuando la cambio fraccional.
evaluacin de la
Secante Solo un valor derivada se
Media-Rpida. Buena General
modificado inicial. dificulta y el
desarrollo de
dos valores
iniciales es
inconveniente.
No siempre Su velocidad No es eficiente.
Solo un valor
Incrementos converge. depende de los Buena General
inicial.
aumentos. Fcil de usar

Pgina 38 de 91
1.3 Mtodos para calcular races de polinomios
En esta seccin se presentan algunos mtodos para encontrar las races reales y/o
complejas de polinomios de grado y coeficientes reales, con la forma general:

(1.15 )
() = 0 + 1 + 2 2 +. . . + = 0 .

Las races de los polinomios cumplen estas reglas:

1. () tiene races, no necesariamente distintas, y puede expresarse


como: () = =1( ), donde corresponde a la raz i-sima.
2. Si es impar, hay al menos una raz real.
3. Si existen races complejas, stas se encuentran en pares conjugados
( + y ), donde = 1 .

A continuacin se describen mtodos analticos para obtener las races de


polinomios de segundo y tercer grado, siendo este tipo de ecuaciones las que
surgen con mayor frecuencia en la prctica ingenieril. Posteriormente, se presentan
mtodos numricos para resolver polinomios de cualquier orden.

1.3.1 Mtodos analticos

Races de polinomios de segundo grado


Una ecuacin de segundo grado tiene la forma general:

2 + + = 0 . ( 2.16 )
Los pasos fundamentales para resolverla son los siguientes.

1. Calcular el discriminante:

= 2 4

2. Se tienen tres casos:


a. Si > 0, las races son reales y diferentes:

Pgina 39 de 91
(1.17 )
1,2 = .
2 2
b. Si = 0, las races son reales y repetidas:
( 1.18 )
1,2 = .
2
c. Si < 0, las races son complejas:
|| ( 1.19 )
1,2 = .
2 2

Races de polinomios de tercer grado

Una ecuacin cbica puede expresarse como:

3 + 2 + + = 0 . (1.20 )

El procedimiento que se presenta a continuacin para calcular las races de la


ecuacin 1.20 se conoce como el mtodo de Tartaglia-Cardano, en honor a Niccolo
Fontana, apodado Tartaglia o tartamudo, y Girolamo Cardano (Brenke, 1917). El
mtodo es el siguiente.

1. Calcular el discriminante:

= 2 + 3 , (1.21 )
donde

3 2
= ,
9
9 27 23
= ,
54

2. Se tienen tres casos:


a. < 0; las tres races son reales y distintas.

1
i. 1 = 2 cos 3 ,
3

Pgina 40 de 91
1
ii. 2 = 2 cos ( 3 + 120) ,
3
1
iii. 3 = 2 cos ( 3 + 240) ,
3

donde

= 1 .
3

b. = 0; las tres races son reales, y dos son iguales.


3
i. 1 = 2 3 ,
3
ii. 2 = 3 = 2 3 .

c. > 0; una raz es real y dos races complejas.



i. 1 = + 3 ,
+ 3
ii. 2 = 3 + ( ) ,
2 2
+ 3
iii. 2 = 3 ( ) .
2 2

donde

3
= + ,

3
= ,

Races de polinomios de cuarto grado

Una ecuacin curtica puede expresarse como:

4 + 3 + 2 + + = 0 . (1.22 )

El procedimiento para obtener las races de la ecuacin 1.22 es conocido como la


frmula de Ludovico Ferrari (1522-1565), quien resolvi por primera vez
ecuaciones de este tipo. El procedimiento para resolverlas es el siguiente.

Pgina 41 de 91
1. Calcular:
8 32
= ,
8
8 4 + 3
= ,
8
256 64 + 162 34
= .
256

2. Resolver la ecuacin cbica para la variable U (se obtiene solo una raz real):

2
3
4 2
+ =0 .
2 8

3. Resolver el siguiente sistema de ecuaciones en las variables U, V y W:

= 2 2 ,
= 2
= 2 2

4. Las cuatro races del polinomio son:

+ 2 4()
a. = 4 ,
2

2 4()
b. = 4 ,
2

+ 2 4()
c. = 4 ,
2

2 4()
d. = 4 .
2

Pgina 42 de 91
Races de polinomios de grado mayor a cuatro

Despus de los trabajos de Cardano, Tartaglia y Ferrari, muchos matemticos


buscaron por siglos frmulas analticas que dieran solucin a polinomios de quinto
grado o mayor. Sin embargo, Niels Henrik Abel (1802-1829) y Evariste Galois (1811-
1832) demostraron que tal frmula general no existe, poniendo punto final a su
bsqueda (Oostra, 2008).

De esta manera, diversos autores desarrollaron mtodos numricos para calcular


las races de polinomios de grado mayor a cuatro. En la Tabla 1.4 se indican algunos
de los ms conocidos, mismos que se describen a detalle en las secciones
siguientes.

T ABLA 1.4 M TODOS NUMRICOS PARA CALCULAR RACES DE POLINOMIOS


Mtodos Continuidad Cerrado/Abierto
de f
Mller No Abierto
Bairstow Si Abierto
Laguerre No Abierto

1.3.2 Mtodo de Mller


El primer paso del mtodo de Mller consiste en aproximar el comportamiento de la
funcin () en tres puntos vecinos por medio de una parbola, como se muestra
en la Figura 1.22. Una vez que sta ha sido encontrada, se buscan sus dos races;
se selecciona convenientemente una de ellas y se toma como aproximacin a la
raz verdadera de la funcin. Los detalles del mtodo se describen a continuacin.
Cabe mencionar que este mtodo tambin puede aplicarse a funciones no
polinmicas.

Pgina 43 de 91
F IGURA1.22 M TODO DE M LLER

Primeramente, es conveniente expresar la ecuacin de la parbola que se busca


como:

2 () = ( 2 )2 + ( 2 ) + . (1.23 )

Esta funcin cuadrtica debe pasar por tres puntos de la funcin () :


[0 , (0 )], [1 , (1 )] [2 , (2 )], por lo que debe satisfacer las siguientes
ecuaciones:

(0 ) = (0 2 )2 + (0 2 ) + ,
(1 ) = (1 2 )2 + (1 2 ) + ,
(2 ) = (2 2 )2 + (2 2 ) + .

As, el coeficiente c es igual al valor de la funcin evaluada en 2 . Este resultado se


sustituye en las ecuaciones restantes y se genera un sistema de dos ecuaciones y
dos incgnitas, a y b:

(0 ) (2 ) = (0 2 )2 + (0 2 ) + ,
(1 ) (2 ) = (1 2 )2 + (1 2 ) + .

Puede demostrarse que:

1 0 (1.24 )
= ,
1 0
= 1 + 1 , (1.25 )

Pgina 44 de 91
= (2 ). ( 13.26 )
donde

0 = 1 2 ,

1 = 2 1 ,

(1 ) (0 )
0 = ,
1 0

(2 ) (1 )
1 = .
2 1

Ahora bien, una vez que se han obtenido los coeficientes de la parbola, 2 (), la
aproximacin, 3 , a la raz verdadera se calcula a partir de la solucin de la ecuacin
cuadrtica:

2
3 2 = ,
2 4

de donde:

2 (1.27 )
3 = 2 + .
2 4
Es importante notar que pueden obtenerse races reales o complejas al usar la
frmula cuadrtica. Por otra parte, debido a que se tienen dos opciones de signo en
el denominador de la ecuacin 1.22, debe escogerse aquel que coincida con el de
.

Una vez que se determin 3 , el proceso se repite, como se indica en la Figura


1.23. Para descartar uno de los cuatros valores de en la siguiente iteracin, se
tienen dos estrategias:

1. Si slo se localizan races reales, se eligen los dos valores originales ms


cercanos a la nueva raz estimada, 3 .
2. Si se localizan races complejas, se emplea un mtodo secuencial de tal
manera que 1 , 2 y 3 toman el lugar de 0 , 1 y 2 , respectivamente.

Pgina 45 de 91
Sean los puntos de la funcin f(x); 0 , 0 ,
1 , 1 , 2 , 2

1. Calcular los coeficientes de la ecuacin 1.23,


aplicando las ecuaciones 1.24-1.26.

2. Calcular la aproximacin a raz de la funcion


f(x):
2
3 = 2 +
2 4


3. Si 100% < tol., entonces el

procedimiento termina exitosamente.

4. Actualizar la terna de pares de puntos para


construir la parbola de aproximacin: 1 = 0 ;
2 = 1 ; 3 = 2 , y regresar al paso 1.

F IGURA 1.23 ALGORITMO DEL MTODO DE M LLER

1.3.3 Mtodo de Newton para polinomios


El mtodo de Newton-Raphson descrito en la seccin 1.24 puede utilizarse para
calcular las races del polinomio, () = 0 , de coeficientes reales y grado .
Considerando un valor inicial 0 , se obtiene una secuencia de nmeros reales
{ }
=1 que aproximan a una de las races del polinomio, a partir de la ecuacin de

recurrencia del mtodo:

Pgina 46 de 91
( )
+1 = ; 0.
( )

Una vez que se ha encontrado una raz, , el proceso puede repetirse para buscar
otra ms, pero sobre el polinomio de grado 1, (), que se obtiene mediante
divisin sinttica a partir de () = ( ) 1 () (Cobos, 2004).

Sea la funcin y un valor inicial.


1. Calcular +1 =

2. Si (+1 ) < tol., entonces el procedimiento


termina exitosamente.

4. De no cumplirse el criterio de paro, tomar +1


como y regresar al paso 1.

FIGURA 1.24 ALGORITMO DEL MTODO DE NEWTON

Pgina 47 de 91
1.3.4 Mtodo de Bairstow
El mtodo de Bairstow se relaciona con el de Mller y el de Newton-Raphson.
Trabaja con aritmtica real y permite calcular pares de races reales o complejas. El
punto de partida en su desarrollo es expresar el polinomio de grado n:

() = + 2 2 + + 1 + 0 ,

en trminos de un nuevo polinomio cuadrtico, 2 + + , con coeficientes r y s


por determinar, tal que:

() = ( 2 + + )( 2 + + 2 ) + 1 ( + ) + (1.28 )

Factor Nuevo Residuo


cuadrtico polinomio

Si el factor cuadrtico es un factor de (), entonces el residuo debe de ser cero.


Por lo tanto, debe cumplirse que:

1 (, ) = 0,

(, ) = 0.

Por lo tanto, se genera un sistema de dos ecuaciones no lineales con r y s como


incgnitas. Para resolverlo, Bairstow aplic el mtodo de Newton multivariable
(descrito en el captulo dos). As, las series de Taylor hasta trminos de orden uno
correspondientes a 1 y , son respectivamente:


( + , + ) = + + ,

1 1
1 ( + , + ) = 1 + + .

Los valores del lado derecho se evalan en y . Ahora bien, los incrementos, y
se estiman igualando las ecuaciones a cero:

1 1
+ = ,

Pgina 48 de 91
0 0
+ = 1 .

Este sistema de ecuaciones se resuelve para y . Las nuevas aproximaciones


a r y s son:

+1 = + ,

+1 = + ,

donde los superndices indican el nmero de iteracin.

Bairstow demostr que las derivadas parciales se obtienen con una doble divisin
sinttica, por lo que:

0 1 2 2 1
) 0 1 3 2 1
) 0 4 3 2
0 1 2 2 1
y:

0 1 2 2 1
) 0 1 3 2 1
) 0 4 3 2
0 1 2 2 1

De esta manera, se obtiene que:


| 1 |
3 2 (1.29 )
= ,

2 1
| |
1 (1.30 )
= ,

con:
2 1
= | 2 | . (1.31 )
3

Pgina 49 de 91
Para iniciar el mtodo es necesario suponer un par de valores iniciales 0 y 0 .
Dependiendo de qu tan prximos se encuentren a la raz, el mtodo puede o no
converger. Una vez obtenidos, dos races del polinomio original se calculan a partir
de:

2 + 4 (1.32 )
= .
2
Para obtener otras races del polinomio (), se aplica el mismo mtodo sobre el
nuevo polinomio de grado 2 referido en la ecuacin 1.28. Para este nuevo
proceso, los valores de y calculados al final de la primera etapa pueden servir
como valores iniciales. Cabe resaltar que si el polinomio resultante en alguna de las
etapas del proceso es de primero o segundo grado, las races correspondientes se
calculan directamente de manera analtica.

Sea la funcin con 0 y 0 valores


iniciales.

1. Resolver el sistema de ecuaciones no lineales,


para y , iterativamente con las ecuaciones 1.29-
1.31.

2 +4
2. Calcular dos racez: 1,2 = 2

3. Aplicar el mtodo sobre el nuevo polinomio de


grado n-2, en la ecuacin 1.28

F IGURA1.25 A LGORITMO DEL MTODO DE BAIRSTOW

Pgina 50 de 91
1.3.5 Mtodo de Laguerre

El mtodo de Laguerre es iterativo, de tercer orden, y permite calcular races de


polinomios (x), incluso las complejas. La ecuacin de recurrencia del mtodo es
(Garca, 2004):

+1
( ) (1.33)
= ,
( ) ( )
donde
2
( ) = ( 1) [( 1)(( )) ( ) ( )] .

Para evitar la inestabilidad del mtodo, el signo que debe utilizarse en la definicin
del denominador en la ecuacin 1.32, es el que corresponde con el signo la primera
derivada del polinomio, , evaulada en .

Sea la funcin y un valor inicial.


1. Calcular +1 =
( )

2. Si f( +1 ) < tol., entonces el procedimiento


termina exitosamente.

4. De no cumplirse el criterio de paro, tomar +1


como y regresar al paso 1.

F IGURA1.26 A LGORITMO DEL MTODO DE LAGUERRE

Pgina 51 de 91
Captulo 2

SISTEMAS DE ECUACIONES NO LINEALES


En este captulo se abordan mtodos numricos para resolver sistemas de
ecuaciones no lineales (SENL). Se comienza con el planteamiento del problema. Se
describe el mtodo de iteracin de punto fijo, la versin multivariable del mtodo de
Newton y algunos mtodos derivados del mismo.

2.1 Generalidades
El problema a resolver consiste en encontrar los valores 1 , 2 , , , tales que
satisfacen el sistema de n ecuaciones no lineales de la forma:

1 (1 ) = 0
,
(1 ) = 0

En trminos vectoriales, esto puede expresarse como:

( ) = 0 . (2.1 )
donde : , con = (1 , 2 , , ) .

En semejanza a los mtodos para resolver una ecuacin no lineal de una sola
variable independiente, existen diferentes extensiones al caso de los SENL.
Aquellos que se abordan en el presente trabajo pueden agruparse en las categoras
indicadas en la Figura. 2.1 (Garca, 2004). Otros mtodos, como por ejemplo el de
los gradientes conjungados, se describen en el captulo cuatro ya que son aplicados
tambin en la resolucin de problemas de optimizacin multivariable.

Pgina 52 de 91
Iteracin de punto jo Mtodo de Newton Mtodos cuasi-
para SENL Multivariable Newton

F IGURA 2.1 MTODOS PARA RESOLVER SISTEMAS DE ECUACIONES NO LINEALES

2.2 Iteracin de punto fijo para SENL


Tomando como referencia el mtodo de punto fijo para resolver una ecuacin no
lineal de una sola variable independiente, el primer paso en el caso multidimensional
) = 0 de la forma = ( ).
es escribir la ecuacin vectorial (

Hecho lo anterior, el proceso de resolucin consiste en generar la sucesin de


vectores +1 a partir del vector conocido, , y las siguientes ecuaciones de
recurrencia:

1+1 = 1 (1 , 2 , , )
2+1 = 2 (1 , 2 , , ) (2.2 )

= (1 , 2 , , ).
+1

0
En la primera iteracin deber suponerse el vector inicial . El proceso contina
hasta que se satisface el criterio de convergencia estipulado, como por ejemplo:

+1
< tol , (2.3 )

donde es una norma vectorial elegida. El algoritmo del mtodo se presenta en
la Figura 2.2

Ahora bien, el teorema de punto fijo da la existencia de un nico punto fijo de


siendo un subconjunto cerrado de , si es contractiva en .

La contractividad para en se puede demostrar si admite primeras derivadas


parciales y para la matriz Jacobiana, , se cumple que:

Pgina 53 de 91
( ) < 1, ,

donde

1 1 1

1 1
2 2 2
( ) = 1
2 .



( 1 2 )

La verificacin del criterio de contractividad se simplifica si < 1 cumple que:


| | , ; , = 1, 2, . .

Si esta ltima condicin se cumple, entonces es contractiva. Esta verificacin


resulta ms sencilla que calcular la norma de la matriz Jacobiana.

Pgina 54 de 91
1.- Reescribir el SENL en la forma = 0, y
definir el vector inicial, 0 .

2.- A partir de generar = ().


3.- Resolver +1 = ( ).

+1
4.- Si < el proceso termina

exitosamente.

5.- Actualizar el vector con la nueva


aproximacin recin calculada, y regresar al paso
3.

F IGURA 2.2 ALGORITMO DE ITERACIN PUNTO FIJO EN SENL.

Aceleracin de la convergencia con el mtodo de Seidel

Una forma de acelerar la convergencia del mtodo de punto fijo es mediante el


mtodo de Seidel. Al igual que el conocido mtodo de Gauss-Seidel para los
sistemas lineales, se utilizan las estimaciones ms recientes de +1 , conforme van
siendo calculadas, en las ecuaciones restantes. De esta manera, se tiene que:

1+1 = 1 (1 , 2 , , 1

, )
2+1 = 2 (1+1 , 2 , , 1

, )
3+1 = 3 (1+1 , 2+1 , , 1

, ) (2.4 )

+1 = (1+1 , 2+1 , , 1
+1
, ) .

Pgina 55 de 91
2.3 Mtodo de Newton multivariable
) = 0, se obtiene a partir de
La extensin del mtodo de Newton para un SENL, (
la linealizacin de en torno a un vector (0) :

( ) (
(0) ) + 0 ( (0) ),

donde 0 es la matriz jacobiana de , evaluada en (0) .

1 1 1

1 1
2 2 2
= 1
2 .



(1 2 )

Ahora bien, si = es una raz de , entonces se cumple que:

( ) (
(0) ) + 0 ( (0) ) = 0 ,

por lo que:

= (0) 01 (0) ,

donde 01 es la matriz inversa de 0 .

Generalizando la expresin anterior para un proceso iterativo de refinamiento de la


aproximacin a , se obtiene la ecuacin de recurrencia del mtodo de Newton
multivarible:

(+1) = () 1 () (2.5 )
o bien:

= () (2.6)
donde

= (+1) ()

y se evala en () .

Pgina 56 de 91
Es claro que una restriccin del mtodo es que la matriz jacobiana exista y sea
invertible en los puntos de inters. Debe observarse que el SENL original ha sido
transformado en un sistema de ecuaciones lineales con el vector como
incgnita. Por lo tanto, el problema se ha reducido a resolver un sistema de
ecuaciones lineales un cierto nmero de veces, hasta que 0 bajo cierto
criterio de tolerancia. El algoritmo correspondiente a este mtodo se resume en la
Figura 2.3.

El mtodo de Newton multivariable tiene desventajas por la falta de convergencia


global para muchos problemas y por la necesidad de evaluar y resolver un sistema
lineal por cada iteracin. Adicionalmente, en algunos casos no es posible o
conveniente obtener expresiones analticas para las derivadas parciales que implica
la obtencin de la matriz jacobiana. Ahora bien, una ventaja del mtodo es que tiene
convergencia local cuadrtica, por lo que su ritmo de convergencia es rpido si se
tiene una buena aproximacin inicial a la raz que se busca.

Pgina 57 de 91
1. Reescribir el SENL en la forma = 0, y
definir el vector inicial, =0 .

2. Evaluar y en y resolver el sist. de ecs.


lineales = .

3. Calcular +1 = +

+1
4. Si < el proceso termina

exitosamente.

5. Actualizar el vector con la nueva


aproximacin recin calculada, y regresar al paso
2.

F IGURA 2.3 MTODO DE N EWTON MULTIVARIABLE

2.3.1 Modificaciones al mtodo de Newton


Existen modificaciones al mtodo original de Newton que intentan reducir el nmero
de operaciones matemticas que deben realizarse, o acelerar su ritmo de
convergencia, entre otras. Algunas modificaciones son (Garca , 2004):

Pgina 58 de 91
Evaluar la matriz jacobiana una sola vez y mantenerla constante en el
proceso iterativo.
(+1) = () =0
1
() (2.7)

Con esta modificacin se reduce el nmero de operaciones a realizar ya que


la matriz jacobiana se calcula una sola vez. Por otra parte, los sistemas de
ecuaciones lineales que se van generando en el proceso iterativo pueden
resolverse con un mtodo directo de sustituciones si la matriz jacobiana es
factorizada previamente. Cabe mencionar que la matriz jacobina puede
actualizarse despus de cierto nmero de iteraciones si as es requerido.

Estimar las derivadas parciales de la matriz jacobiana numricamente:

(1 , . . , + , . . , ) (1 , . . , , . . , ) (2.8)

El esquema de diferenciacin numrica mostrada slo es uno de tantos que


pueden implementarse segn el problema fsico a resolver.

Introducir un factor de aceleracin, :

(+1) = () 1 () (2.9)

El parmetro se introduce con la intencin de obtener una convergencia global;


tcnicas para estimarlo pueden consultarse en (Garca, 2004).

Entre las desventajas de las modificaciones presentadas puede mencionarse que


en general reducen el orden de convergencia de cuadrtico a lineal, y en algunos
casos pueden ocasionar problemas de estabilidad numrica.

Pgina 59 de 91
2.4 Mtodos cuasi-Newton

En analoga al mtodo de la secante para resolver una ecuacin no lineal de una


sola variable independiente, los mtodos cuasi-Newton (o de la secante) utilizan
una matriz que satisface:

+1 ( (+1) () ) (+1) () , (2.10)


y que puede utilizarse como una aproximacin de la matriz jacobiana en el proceso
iterativo del mtodo de Newton.

La ecuacin anterior puede expresarse en forma compacta como:

+1 () = () , (2.11)
donde

(+1) ) (
() = ( () ) ,

() = ( (+1) () ) .

Por otra parte, reemplazando la matriz jacobiana en el mtodo de Newton por la


matriz se obtiene:

(+1) = () 1

() , (2.12)
o

() = () , (2.13)
El proceso iterativo puede iniciarse tomando 0 = 0 , o incluso la matriz identidad
de orden , 0 = . Ahora bien, la actualizacin de la matriz A puede realizarse de
diversas formas, con la nica restriccin de que se satisfaga la ecuacin 2.7. Sin
embargo, se buscan mtodos que permitan definir de manera nica a la matriz A,
con ciertos atributos que faciliten el proceso de resolucin del SENL, reduzcan el
nmero de operaciones a realizar, y cuya actualizacin en el proceso iterativo se lo
ms sencilla posible. Con base en esto, pueden mencionarse los mtodos de
Broyden (1960); Broyden-Fletcher-Goldfarb-Shanno (1965); y Davidon-Fletcher-
Powell (1979). Tales mtodos tienen un orden de convergencia superlineal (Burden
& Faires, 2011), y se caracterizan porque no es necesario calcular en cada iteracin

Pgina 60 de 91
las n2 derivadas parciales requeridas en la matriz jacobiana. A continuacin se
presentan las expresiones para actualizar la matriz A segn tales mtodos.

2.4.1 Mtodo de Broyden


El mtodo propuesto por Broyden para realizar la actualizacin de la matriz A en el
proceso iterativo es:

( () () ) () (2.14)
+1 = + ,
() ()
donde el superndice t indica transposicin del vector o matriz, segn corresponda.

El algoritmo para implementar el mtodo de Broyden es:

1. Iniciando con k = 0, calcular con base en el vector supuesto () , y tomar


= .
2. Resolver el sistema de ecuaciones lineales para el vector () :
() = () ,

() = 1

() .

3. A partir de () , determinar (+1) :

(+1) = () + ()

4. Si el criterio de convergencia se ha satisfecho, por ejemplo:

()
< ,
()
el proceso termina exitosamente.
5. Actualizar la matriz A para la siguiente iteracin:

( () () ) ()
+1 = + .
() ()

Pgina 61 de 91
6. Calcular (+1) y regresar al punto dos.

Puede demostrarse que el mtodo de Broyden permite reducir el nmero de


operaciones matemticas en comparacin con el mtodo de Newton, sin embargo
continan del orden de n3 por la resolucin del sistema de ecuaciones lineales del
paso 2 (Burden & Faires, 2011). As, el mtodo de Broyden no resulta tan atractivo
para implementarlo en la prctica.

Para mejorar el mtodo de Broyden, en 1980 Sherman, Morrison y Woodbury


desarrollaron un mtodo para resolver el sistemas de ecuaciones lineales referido
con un nmero menor de operaciones. De acuerdo a estos autores, la matriz inversa
de A puede calcularse con la siguiente ecuacin:

( () 1
() ) () 1

(2.15)
1
+1 = 1
+ ,
() 1
()
Como puede observarse, slo se necesita calcular 1 de manera rigurosa una sola
vez durante todo el proceso.

2.4.2 Mtodo de Broyden-Fletcher-Goldfarb-Shanno (BFGS)

En el mtodo BFGS, la matriz A se calcula de la siguiente manera:



() () () () (2.16)
+1 = + .
() () () ()
El algoritmo correspondiente del mtodo BFGS es el mismo que se describi en el
de Broyden, pero calculando la matriz A en el paso 5 como se ha indicado. Ahora
bien, para reducir el nmero de operaciones, la ecuacin de recurrencia para
calcular la matriz inversa de A es:

Pgina 62 de 91

() 1 () () () (2.17)
1
+1 = 1
+ (1 + )
() () () ()
1 () ()
() () 1
+
.
() ()

2.4.3 Mtodo de Davidon-Fletcher-Powell (DFP)

De acuerdo al mtodo DFP, la matriz A se calcula como:



( () () ) () + () ( () () ) (2.18)
+1 = +
() ()

( () () ) () () ()
2 ,

( () () )

La expresin correspondiente para la matriz inversa de A es:



() () 1 () () 1 (2.19)

1
+1 = 1
+ .
() () 1
() ()

Pgina 63 de 91
Captulo 3

OPTIMIZACIN UNIDIMENSIONAL

En este captulo se exponen mtodos numricos para calcular los valores extremos
de funciones no lineales de una sola variable independiente. Se describe el mtodo
de la seccin dorada, el mtodo de interpolacin cuadrtica y el mtodo de Newton.

3.1 Generalidades

El problema de optimizacin de una funcin no lineal consiste en encontrar el punto


en que alcanza su valor mnimo o mximo, segn corresponda. Cuando se busca
el valor extremo de la funcin en un intervalo cerrado se habla de un mnimo o
mximo local, cuando el valor extremo identificado es vlido en todo el dominio de
definicin de la funcin, se dice que es global (Boyce et al., 2001).

Desde el punto de vista matemtico, una condicin necesaria para identificar un


valor extremo de una funcin () es que su primera deriva sea cero:

() = 0, es una condicin necesaria para identificar un valor extremo.

En el captulo uno se expusieron mtodos para determinar el o los valores de de


una funcin no lineal (), en que () = 0. En este captulo se describen mtodos
para encontrar aquellos en que () = 0, como se ilustra en la Figura 3.1.

Pgina 64 de 91
Figura 3.1 Races, mximos y mnimos Figura 3.2 Mximo local

Figura 3.3 Mnimo Figura 3.4 Punto de inflexin

Pgina 65 de 91
Ahora bien, para saber si se trata de un mximo, un mnimo, o un punto de inflexin,
debe analizarse cmo cambia la derivada en los alrededores del punto analizado.
Para tal efecto, se verifican los criterios siguientes:

Si (x) < 0, el punto es un mximo (Figura 3.2).


Si (x) > 0, el punto es un mnimo (Figura 3.3).
Si f(x) = 0, el punto es de inflexin (Figura 3.4).

La bsqueda de los valores extremos de una funcin puede realizarse


analticamente. Sin embargo, esto no siempre es posible y debe hacerse
numricamente. En la Figura 3.5 se indican los mtodos considerados en el
presente trabajo.

Mtodo de la Interpolacin
Mtodo de Newton
seccin dorada cuadrtica

F IGURA 3.5 MTODOS DE OPTIMIZACIN UNIDIMENSIONAL

Cabe sealar que los mtodos descritos en las secciones siguientes se formulan
para buscar un valor mximo, sin embargo, son aplicables tambin al caso de los
valores mnimos si se trabaja sobre ().

3.3.1 Mtodo de la seccin dorada


El mtodo de la seccin dorada tiene algunas semejanzas con el mtodo de
biseccin. Primero, es necesario identificar el intervalo de bsqueda. Ahora bien, a
diferencia del segundo en el cual se usan tres valores de la funcin para buscar la
raz de la funcin, en el mtodo de la seccin dorada se necesitan cuatro puntos en
la bsqueda del mximo. A partir de los cuatro valores de la funcin se monitorea la
relacin entre ellos para acotar el intervalo de bsqueda durante el proceso.

Pgina 66 de 91
Si el intervalo que contiene el mximo es [ , ], la eleccin de los dos puntos
interiores requeridos podra ser arbitraria. Sin embargo, puede establecerse una
regla que permita hacer ms eficiente el proceso de bsqueda. Esto se logra en el
presente mtodo como se indica a continuacin.

Considerando la Figura 3.8, 0 es la longitud del intervalo [ , ]. Se definen las


longitudes 1 y 2 , tales que:

0 = 1 + 2 ,

con la restriccin:

1 2
= .
0 1

F IGURA 3.6 DEFINICIN DE S UB-INTERVALOS EN EL M TODO DE LA SECCIN DORADA

Por lo tanto:

1 2
= .
1 + 2 1

Definiendo = 2 , la ecuacin anterior puede expresarse como:
1

2 + 1 = 0 ,

Pgina 67 de 91
cuya solucin es:

1 + 1 4(1) 5 1 (3.1)
= = = 0.61803 .
2 2
,
El valor obtenido se denomina razn dorada o razn urea.

Una vez que se ha establecido la relacin entre 1 y 2 , el proceso bsico de


bsqueda del mximo de ()es el siguiente:

1. Calcular los puntos interiores 1 y 2 (Figura 3.7):


1 = + ,
2 = .
donde
5 1
= ( ).
2
2. Evaluar (1 ) y (2 ).
Si (1 ) > (2 ), entonces el intervalo de a 2 se elimina de la bsqueda
ya que no contiene al mximo (Figura 3.8). Tomar:
= 1
= 2

En caso contrario, el intervalo de 1 a se elimina de la bsqueda. Tomar:


= 2
= 1


3. Si = (1 ) | | < , el proceso termina exitosamente. En caso

contrario, regresar al punto 1.

Pgina 68 de 91
F IGURA 3.7 C LCULO DE LOS PUNTOS INTERNOS

F IGURA 3.8 A CTUALIZACIN DEL I NTERVALO DE B SQUEDA CON EL M TODO DE LA S ECCIN


DORADA

Es importante destacar que el nmero de operaciones realizadas con el algoritmo


anterior pueden reducirse al tomar en cuenta la forma en que los valores de x y ()
se van actualizando con cada iteracin , , 1 y 2 . Esto resulta crucial cuando
el algoritmo de bsqueda de la seccin dorada es parte de otros clculos y es
utilizado numerosas veces. Asimismo, cuando la evaluacin de la funcin demanda
mucho tiempo de cmputo.

Pgina 69 de 91
3.2.2 Interpolacin cuadrtica

La interpolacin cuadrtica basa su mtodo en el hecho de que un polinomio de


segundo grado proporciona una buena aproximacin de () en las cercanas de
un valor ptimo y que slo existe una ecuacin cuadrtica o parbola que pasa por
tres puntos (Figura 3.9).

F IGURA 3.9 MTODO DE INTERPOLACIN CUADRTICA

Si se tienen tres puntos que contienen un punto ptimo, se puede ajustar una
parbola a los puntos. Despus se puede derivar e igualar el resultado a cero, y
obtener una estimacin de la ptima.

Mediante operaciones algebraicas se demuestra que el resultado es:

(0 )(12 22 ) + (1 )(22 02 ) + (2 )(02 12 )


3 = . ( 3.2)
2(0 )(1 2 ) + 2(1 )(2 0 ) + 2(2 )(0 1 )

Donde

0 , 1 y 2 son los valores iniciales.

Pgina 70 de 91
3 es el valor de que corresponde al valor mximo del ajuste cuadrtico
para los valores iniciales.

Puede ocurrir que slo se retenga un extremo del intervalo, y que la convergencia
sea lenta. El mtodo se puede formular como parte de los algoritmos que contienen
pruebas de convergencia y cuidadosas estrategias de seleccin para los puntos que
habrn de retenerse en cada iteracin, y formas para minimizar la acumulacin del
error de redondeo.

3.2.3 Mtodo de Newton


Es un mtodo abierto que se utiliza para encontrar un valor ptimo de () al definir
una nueva funcin, () = (), a forma que el valor ptimo satisfaga ambas
funciones ( ) = ( ) = 0. La frmula para obtenerlo es la siguiente:

( ) ( 3.3)
+1 = .
( )
Se puede llegar a esta frmula, escribiendo una serie de Taylor de segundo orden
para () e igualando la derivada de la serie a cero.

Al igual que el mtodo de Newton-Raphson, tiene desventajas;

Puede ser divergente en algunos casos, por lo que se recomienda verificar


que la segunda derivada tenga el signo correcto.
Es poco prctico cuando las derivadas no se pueden calcular fcilmente, por
lo que se usa una versin semejante al mtodo de la secante, o la derivada
se obtiene a travs de aproximaciones en diferencias finitas.
El mtodo puede divergir segn la funcin y el valor inicial. Se recomienda
usar dos mtodos, uno cerrado para intervalos lejos del ptimo y uno abierto
para valores cercanos al ptimo.

Pgina 71 de 91
Captulo 4

OPTIMIZACIN MULTIDIMENSIONAL

En el presente captulo se explica en qu consiste un problema de optimizacin en


varias dimensiones. A manera de introduccin para los ingenieros interesados en
esta importante y extensa rea del conocimiento, se describen las caractersticas
generales de algunos mtodos para resolver este tipo de problemas.

4.1 Generalidades
El problema general de la optimizacin multidimensional consiste en:

), sujeta a las restricciones:


Minimizar (
( ) 0, = 1,2,
(4.1)
( ) = 0, = 1,2, ,

donde = (1 , 2 , , ) es un vector n-dimensional denominado vector de diseo;


la funcin escalar ( ) es referida como funcin objetivo; ( ) y ( ) se conocen
como restricciones de desigualdad y de igualdad, respectivamente. Cabe
mencionar que el nmero de variables y el nmero de restricciones y/o no
necesariamente deben ser iguales.

Clasificacin de los problemas de optimizacin

Los problemas de optimizacin tambin son referidos como de programacin


matemtica, y pueden clasificarse de acuerdo a las caractersticas de la funcin
escalar ( ) , de las restricciones, o del tipo de valores que pueden tomar las

Pgina 72 de 91
variables. Dependiendo de tales caractersticas se formulan diferentes mtodos
para resolverlos.

Algunos de los rubros en que pueden clasificarse los problemas de optimizacin


son:

Programacin lineal: Si ( ) y las restricciones son lineales.


Programacin no lineal: Si ( ) y/o las restricciones son funciones no
lineales. Este es el caso ms general.
Programacin cuadrtica: Si ( ) es cuadrtica y las restricciones son
lineales.
Problema de optimizacin no restringido: si no incluye restricciones.
Programacin entera: Si algunas o todas las variables del vector de
diseo estn restringidas a tomar nicamente valores enteros.
Programacin estocstica: Si algunas o todas las variables del vector
de diseo , o algunos de los parmetros en la definicin del
problema, son de naturaleza probabilstica.
Programacin multiobjetivo: Si en la definicin del problema deben
minimizarse varias funciones objetivo.
Programacin dinmica: Cuando las variables de diseo son funcin
de un nico parmetro.

Problema de mnimos cuadrados no lineal

Uno de los problemas de optimizacin ms frecuentes en la ingeniera es el de los


mnimos cuadrados no lineales. Un ejemplo clsico es el siguiente: se tiene una
funcin escalar, modelo, de una (o varias) variables independientes, , que
depende de n parmetros, 1 , 2 , . , , de forma no lineal. Ahora bien, se desea
calcular estos parmetros de tal manera que se minimice la suma de los errores
cuadrticos entre un conjunto de valores medidos, , y los
correspondientes valores calculados con el modelo matemtico, . Cabe

Pgina 73 de 91
recordar que se utilizan diferencias cuadrticas para evitar la cancelacin de errores
al momento de sumarlos.

El problema descrito puede representarse matemticamente como:


2
minimizar (, ( , 1 , 2 , . , ) , ) .
1 ,2 ,.,
=1

La ecuacin 4.1 corresponde a un problema de mnimos cuadrados no lineales,


que en su forma ms general puede expresarse como:

1 ( 4.1)
min () = 2 (),
2
=1
1
= ()22
2
donde

() = (1 () 2 () ())

() = , ( , 1 , 2 , . , ) ,

= (1 , 2 , . , )

A () se le denomina vector de residuos.

Ahora bien, dada la importancia prctica de este tipo de problema de optimizacin,


existe una gran cantidad de mtodos orientados a resolverlo. Es claro que por los
alcances de este trabajo, slo pueden abordarse algunos de ellos. Por lo tanto, a
continuacin se describen los mtodos de descenso, de Gauss-Newton, y de
Levenberg-Marquardt (Figura 4.1).

Pgina 74 de 91
Mtodos de descenso Gauss-Newton Levenberg-Marquardt

F IGURA 4.1 MTODOS DE OPTIMIZACIN MULTIVARIABLE

4.2 Mtodos de Descenso


Generalmente para resolver sistemas de ecuaciones de gran tamao, lineales o no
lineales, de la forma:

Se utilizan mtodos iterativos. De esta manera, la solucin del sistema consiste en


generar una sucesin () de aproximaciones a la solucin o soluciones
verdaderas. Si se busca optimizar la funcin con , simtrica y definida
positiva, y , entonces la funcin cuadrtica

: ,

con

1 (4.2)
( ) = ,
2

alcanza un nico mnimo en el vector solucin del sistema = . Esto


se debe a que si es simtrica su gradiente se puede expresar como:

1 (4.3)
( ) = ( ) = ,
2

Pgina 75 de 91
Como se explic en el captulo tres, una condicin necesaria para identificar un
punto crtico de una funcin es que la derivada sea cero; por lo tanto, en el caso
multidimensional , tiene un punto crtico en si se cumple que:

( ) = 0 = .

La segunda condicin para tener un mnimo, se basa en el comportamiento de la


segunda derivada. En el caso multidimensional, se requiere la matriz Hessiana
definida como:

2
() = ( ()) = ( ) = ,

As, si es definida positiva, el punto crtico de es un mnimo.

Si se define el residual:

= ,

entonces un mtodo de solucin consiste en hacer que ste tienda a cero. As:

+1 = + ,

y se toma como una direccin de descenso. Los valores de +1 forman la recta

= + .

Los mtodos de descenso parten de un punto y construyen una secuencia de


valores con un aumento de .

Como = { + } entonces:

1 1
( + ) = [ , , ] + , + , 2 ,
2 2

donde . , . est definido como un producto escalar.

Por lo tanto:

,
( + ) = 0 = = ,
,

Pgina 76 de 91
donde

= .

Los distintos mtodos de descenso se distinguen por la forma de determinar la


direccin de descenso . La forma ms sencilla de escoger la direccin de
descenso es:

= ( ) = = .

la cual corresponde al mximo descenso (Figura 4.2), o el criterio de iniciacin del


gradiente conjugado.

F IGURA 4.2 EL DESCENSO MS RPIDO ,


CURVAS DE NIVEL .

Direcciones conjugadas

Una eleccin de la direccin de descenso que genera un mtodo ms eficiente


se basa en ortogonalizar el residuo respecto a todas las direcciones de descenso
anteriores 1 en el producto interno (Gonzlez, 2007).

, = , , ,

Las direcciones obtenidas satisfacen:

, 1 = 0 ,

Pgina 77 de 91
son referidas como direcciones conjugadas, y constituyen la base del Mtodo del
Gradiente Conjugado.

La idea bsica del mtodo del gradiente conjugado consiste en construir una base
de vectores ortogonales y utilizarla para realizar la bsqueda de la solucin en forma
ms eficiente (Figura 4.4). La gran ventaja del mtodo radica en que cuando se
utiliza este procedimiento, basta con asegurar la ortogonalidad de un nuevo
miembro con respecto al ltimo que se ha construido.

4.2.1 Mtodo de gradiente conjugado


Es un mtodo iterativo para minimizar funciones cuadrticas convexas de la forma
de la ecuacin 4.2. Para tal efecto, se utilizan las direcciones conjugadas para el
descenso en la bsqueda del punto ptimo .

= 1 1 + 2 2 +. . . + .

Los coeficientes estn dados a partir de la combinacin lineal:

= 1 1 + 2 2 +. . . + = .

El tamao de paso que minimiza la funcin () a lo largo de la direccin +


es:


= .

Si se define +1 como la direccin ms cercana al residuo bajo la restriccin de


ser conjugado, esta direccin est dada por la proyeccin de en el espacio
ortogonal a con respecto al producto interno inducido por A, as:

+1 = + ,
donde



= .


Pgina 78 de 91
Generalmente no es necesario realizar las n iteraciones, si se establece cierto
criterio de tolerancia, . Por otra parte, la convergencia del mtodo depender
principalmente de las propiedades espectrales de la matriz de coeficientes. Un mal
condicionamiento de la matriz provoca que converja lentamente (Vargas, 2013).

Por lo tanto, para sistemas de grandes dimensiones se han propuesto estrategias


para mejorar la convergencia del mtodo. Para tal efecto, generalmente se sustituye
el clculo de por una bsqueda en lnea aproximada. Algunas de las
modificaciones ms usuales son:

Modicacin de Hestenes-Stiefel

( 1 )
= .
( 1 ) 1

Modicacin de Fletcher-Reeves
22
= .
1 22
Modicacin de Polak-Ribire
( 1 )
= .
1 22

Otras modificaciones han dado lugar a los siguientes mtodos (Gonzlez, 2007):
Gradiente Bi-conjugado (BiCG) No es necesario que A sea simtrica, y
reemplaza las secuencias ortogonales de residuos por dos secuencias
mutuamente ortogonales. La actualizacin de relaciones para los
residuos son aumentadas por relaciones que son similares pero basadas
en en lugar de . Su convergencia para sistemas simtricos y definidos
positivos obtiene los mismos resultados que el mtodo de Gradiente
Conjugado.

Pgina 79 de 91
Gradiente Conjugado Cuadrtico (CGS) Es una variante del Gradiente
Bi-Conjugado; requiere una cantidad de operaciones por la iteracin casi
igual al BiCG pero no es necesario usar . Es ms irregular que el BiCG.

Gradiente Bi-conjugado Estabilizado (BiCGSTAB) Resuelve sistemas


lineales no simtricos, evita la convergencia irregular del mtodo de
Gradiente Conjugado Cuadrtico modificando el polinomio que se usa
para el clculo del residuo, pero requiere dos productos internos ms que
BiCG y CGS.

Gradiente Conjugado Precondicionado (GCP) Es una variante del


mtodo donde se usa un precondicionador, que consiste de una matriz
invertible que provoca que el sistema:

1 = 1 ,

tenga la misma solucin de = , pero es ms fcil de resolver. La


nueva matriz de coeficientes presenta unas propiedades ms favorables,
que permiten una convergencia ms rpida (Gonzlez, 2007). Algunos
mtodos derivados pueden consultarse en Ferragut, Montenero y
Montero, 1990; y Carrillo, 2006.

4.3 Mtodo Gauss-Newton


En este mtodo se evita el clculo de la matriz Hessiana, 2 (), y la longitud de
paso = 1, obtenindose la ecuacin de recurrencia:

1 = [ ( )( )]1 (1 )( ) ,

con la condicin de que () siempre tenga rango columna completo para obtener
la direccin de descenso, y sea invertible.

Pgina 80 de 91
Otra forma de obtener la iteracin de Gauss-Newton es con una aproximacin lineal
de los componentes de la funcin en la proximidad de , para pequeos aumentos
; de esta forma, desarrollando una serie de Taylor se tiene que:

( + ) () = ( ) + ( ) , ( 4.4)
1
Si se busca que ( ) = 2 , sustituyendo se llega a:

1
( + ) () = () () ,
2

Sustituyendo la ecuacin 4.4 en esta ltima se obtiene que:

1 1
( + ) = ( ) ( ) + ( ) ( ) + ( ) ( ) ,
2 2
1
( + ) = ( ) + ( ) ( ) + ( ) ( ) .
2

El paso de Gauss-Newton minimiza (), = {()}.

Obteniendo el gradiente y la Hessiana de L se tiene:

() = ( ) ( ) + ( ) ( ) .

() = ( ) ( ) .

La matriz () es independiente de , simtrica, y definida positiva si ( ) tiene sus


vectores columna son linealmente independientes; de esta forma se garantiza que
() tiene solamente un mnimo, que se busca en cada iteracin:

(( ) ( ) ) = ( ) ( ) .

Despejando se obtiene la ecuacin de recurrencia del mtodo:

= [( ) ( ) ]1 ( ) ( ) ,

donde

se actualiza +1 = + en cada iteracin.


= 1 en todos los pasos.

Este mtodo converge localmente.

Pgina 81 de 91
4.4 Mtodo de Levenberg-Marquardt
El algoritmo de optimizacin de Levenberg-Marquardt es uno de los ms utilizados
en la prctica. Supera al de descenso del gradiente simple y otros mtodos de
gradiente conjugado en una amplia variedad de problemas (Manolis, 2005).

El algoritmo LM es el primero que muestra ser una mezcla del mtodo de descenso
de gradiente y el mtodo de Gauss-Newton; cuando la solucin actual est lejos de
ser la correcta, el algoritmo se comporta como un mtodo de descenso ms agudo:
lento, pero garantiza su convergencia. Cuando la solucin actual est cerca de la
solucin correcta, se convierte en un mtodo de Gauss- Newton.

Este algoritmo es considerado como un mtodo de regin de confianza, porque se


agrega una restriccin, misma que marca la regin de confianza.

En el mtodo de descenso, la suma de los errores cuadrticos se reduce mediante


la actualizacin de los parmetros en la direccin de la mayor reduccin de los
mnimos cuadrados. En el mtodo de Gauss- Newton, la suma de los errores
cuadrticos se reduce al asumir que la funcin de los mnimos cuadrados es
localmente cuadrtica, y encontrar el mnimo de los cuadrados.

Usa el mismo modelo cuadrtico que el mtodo de Gauss-Newton, pero aadiendo


una restriccin, que es la que marca la regin de confianza.

La direccin es tal que:

1
min () = ( ) + ( ) + 2 ( ) ,
2

restringiendo a 2 .

Se utiliza la norma dos, por tratarse de mnimos cuadrados. es tal que se


restringe la longitud de paso a una regin alrededor de , de forma que se confa
que ( ) modela a ( ).

Tomando el siguiente teorema: La direccin es solucin del problema si y slo


si existe 0 tal que:

Pgina 82 de 91
[ ( )( ) + ] = ( )( )

con

( 2 ) = 0

y ( )( ) + es semidefinida positiva.

Si es definida positiva, entonces es solucin nica.

Se llega a que el sistema resultante es de + 1 componentes, las de y .

Si = 0 entonces la direccin calculada es la direccin de Gauss-Newton


() 1
= ( ( )( )) ( )( )
()
por lo que + est en la regin de confianza. La solucin est en la
frontera y debe satisfacer:

() = 2 = 0 ,

con () = ( ( )( ) + )1 ( )( ) .

Existen algunos mtodos para resolver ambas ecuaciones, como se describe


en Garca, 2004.

A continuacin se indican los pasos del mtodo.

Procedimiento del mtodo:


1) Dada una funcin diferenciable () y un valor inicial 0.
2) Se toma por 0 = 0.001.
3) Se resuelve () = ( ( )( ) + )1 ( )( ) .
4) Se obtiene +1 = +
5) Si (+1 ) > ( )
a) Se estima el valor de , cumpliendo 2
1
()( ( )( )+) ()
b) Se calcula ( ) = ()2

()2 ( )
c) Se obtiene +1 = y se regresa al paso 2.
( )

6) Si (+1 ) < ( )

Pgina 83 de 91
7) Se evala si ( ) < , de ser as se termina exitosamente el
mtodo.
8) De lo contrario se regresa a 1, con +1 = y +1 = .

4.5 Otros mtodos


A manera de introduccin, en esta seccin se describen brevemente algunos
mtodos de optimizacin multidimensional referidos como metaheursticos. A
grandes rasgos, consisten en estrategias que guan el proceso de bsqueda de
soluciones (casi ptimas) en espacios grandes (Garcia et al., 2006). Por lo tanto, es
de especial inters el correcto equilibrio que haya entre la diversificacin
(exploracin del espacio de bsqueda) y la intensificacin (explotacin de algn
rea concreta de ese espacio). De esta manera, deben identificarse rpidamente
las regiones prometedoras del espacio de bsqueda global; por otro lado, no se
debe malgastar tiempo en las regiones que han sido exploradas o que no contienen
soluciones de alta calidad. Estos mtodos se clasifican en: basados en trayectorias
y basados en poblaciones.

4.5.1 Mtodos metaheursticos basados en trayectorias

La principal caracterstica de estos mtodos es que parten de un punto, y actualizan


la solucin actual conforme van explorando las vecindades, formando as una
trayectoria. La mayora de estos algoritmos surgen como extensiones de los
mtodos de bsqueda local simples a los que se les aade alguna caracterstica
para escapar de los mnimos locales.
Esto implica la necesidad de una condicin de paro ms compleja que la de
encontrar un mnimo local. Normalmente se termina la bsqueda cuando se alcanza
un nmero mximo predefinido de iteraciones, se encuentra una solucin con una
calidad aceptable, o se detecta un estancamiento del proceso.

Pgina 84 de 91
Temple Simulado (S.A)
El mtodo de temple o recocido simulado (Simulated Annealin) est inspirado
en el proceso de templado de metales, y es de naturaleza estocstica. La
esencia del mtodo es la bsqueda de un estado de mnima energa. Se
propone un estado inicial, y otro en su vecindario. Se evala el estado
energtico en el segundo estado, y se compara con el primero. Este segundo
estado se descarta de la bsqueda si tiene un mayor nivel de energa; en
caso contrario, se toma como un nuevo estado en la siguiente iteracin del
proceso (Vzquez, 1994).

Bsqueda Tab (TS)


La idea bsica del mtodo es el uso explcito de un historial de la bsqueda
(una memoria de corto plazo), tanto para escapar de los ptimos locales
como para implementar su estrategia de exploracin y evitar buscar varias
veces en la misma regin. Esta memoria de corto plazo es implementada en
una lista tab, donde se mantienen las soluciones visitadas ms
recientemente para excluirlas de los prximos movimientos. En cada
iteracin se elige la mejor solucin entre las permitidas y la solucin es
aadida a la lista (Garca, 2004).

4.5.2 Mtodos metaheursticos basados en poblaciones


Los mtodos basados en poblaciones se caracterizan por trabajar con un conjunto
de soluciones (poblacin) en cada iteracin. El resultado final proporcionado por
este tipo de algoritmos depende de la forma en que se manipula la poblacin.

Algoritmos genticos (AG)


Existen problemas de optimizacin en los cuales la funcin objetivo es tal que
las soluciones ptimas no se pueden establecer analticamente. Esto ha
motivado una diversidad de tcnicas alternativas de optimizacin, tales como

Pgina 85 de 91
los algoritmos evolutivos. Entre ellos, destacan los denominados Algoritmos
Genticos (AG), propuestos por Holland (1975).

Los AG realizan una bsqueda aleatoria en el espacio de todas las soluciones


factibles y estn inspirados en la evolucin de la naturaleza. Utilizan como
paradigma de computacin la simulacin del mecanismo de gentica y
seleccin natural. En la actualidad, los AG se han aplicado en una gran
variedad de problemas de optimizacin discretos y continuos. Los conceptos
fundamentales de los AG se pueden revisar en Montano, 2013.

Colonias de Hormigas (ACO)


El mtodo de Colonias de Hormigas (Ant Colony Optimization - ACO) engloba
un conjunto de tcnicas de optimizacin inspiradas en el comportamiento
colectivo que siguen las hormigas cuando realizan la bsqueda de comida:
inicialmente, las hormigas exploran el rea cercana a su nido de forma
aleatoria. Tan pronto como una hormiga encuentra la comida, la lleva al nido.
Mientras que realiza este camino, la hormiga va depositando una sustancia
qumica denominada feromona. Esta sustancia ayudar al resto de las
hormigas a encontrar la comida (Tllez, 2007). Esta comunicacin indirecta
entre las hormigas mediante el rastro de feromona las capacita para
encontrar el camino ms corto entre el nido y la comida. Esta funcionalidad
es la que intenta simular este mtodo para resolver problemas de
optimizacin. En esta tcnica, el rastro de feromona es simulado mediante
un modelo probabilstico propuesto por Marco Dorigo en 1992.

Cmulos de Partculas (PSO)


Algoritmos Basados en Cmulos de Partculas (Particle Swarm Optimization
- PSO), es una tcnica de optimizacin estocstica basada en poblaciones
desarrollada por Russell Eberhart y James Kennedy en 1995; esta tcnica
est inspirada en el comportamiento social de las aves que vuelan en grupo,
o el movimiento de los bancos de peces. Se fundamenta en los factores que

Pgina 86 de 91
influyen en la toma de decisin de un agente que forma parte de un conjunto
de agentes similares. La toma de decisin por parte de cada agente se realiza
conforme a una componente social y una componente individual, mediante
las que determina su direccin de movimiento para alcanzar una nueva
posicin en el espacio de soluciones. Simulando este modelo de
comportamiento se obtiene un mtodo para resolver problemas de
optimizacin (Garca et al., 2006).

Redes neuronales
Como su nombre lo indica, este mtodo est inspirado en el proceso de
aprendizaje a travs de las redes neuronales del cerebro humano, y
constituyen un campo de la Inteligencia Artificial. Consiste en un procesador
masivo paralelo distribuido, formado por unidades simples o neuronas, con
una propensin natural a almacenar conocimiento experimental y hacerlo
disponible para ser usado. Se asemeja al cerebro humano en dos aspectos:
la red adquiere el conocimiento del entorno a travs de un proceso de
aprendizaje; por otra parte, la intensidad de las conexiones inter-neuronales
o pesos sinpticos, se emplea para almacenar el conocimiento adquirido. De
esta manera, la red va aprendiendo en su bsqueda de la solucin del
problema (Rubio, 2004).

Pgina 87 de 91
Conclusiones

1. Se realiz una bsqueda extensa de mtodos numricos para resolver


ecuaciones y sistemas de ecuaciones no lineales, as como para resolver
problemas de optimizacin unidimensional y en varias dimensiones.
2. Se documentaron los mtodos seleccionados de una manera sencilla y
directa.
3. En cuanto a los mtodos para resolver ecuaciones no lineales
unidimensionales se acordaron los mtodos: punto fijo, biseccin, falsa
posicin, Newton, secante, y Chebyshev. Se discutieron sus caractersticas,
ventajas y desventajas. Se presentaron algunas estrategias para acelerar su
convergencia.
4. Se documentaron mtodos para calcular races de polinomios; primero se
presentaron las soluciones analticas para polinomios de segundo, tercer y
cuarto grados; despus se expusieron los algoritmos numricos de Mller,
de Bairstow, y de Laguerre.
5. Se describi el mtodo de punto fijo en su versin multidimensional, el
mtodo de Newton multivariable, y los mtodos cuasi-Newton, para resolver
sistemas de ecuaciones no lineales.
6. Se describieron los mtodos de la seccin dorada, de interpolacin
cuadrtica, y el de Newton, para resolver problemas de optimizacin
unidimensional.
7. Se presentaron algunos mtodos comunes para resolver problemas de
optimizacin no lineal en varias variables, y se expuso una introduccin a los
mtodos metaheursticos.

Pgina 88 de 91
Recomendaciones

1. Introducir a los alumnos de ingeniera petrolera en los mtodos numricos


presentados.
2. Continuar con el trabajo realizado, profundizando particularmente en los
mtodos de optimizacin en varias variables.

Pgina 89 de 91
Referencias

Brenke, W. C. (1917). Advanced Algebra. New York: The Century CO.


Burden, R. L., & Faires, D. J. (2011). Numerical analysis. Canada: Cengage
Learning .
Carrillo Ledesma, A. (2006). Resolucin de grandes sistemas de ecuaciones
lineales. Mxico: Instituto de geofsica UNAM.
Chapra, S. C., & Canale, R. P. (1999). Mtodos Nmericos Para Ingenieros.
Mxico: McGraw-Hill.
Cobos, J. F. (2004). lgebra numrica. Sevilla: E.T.S de Ingeniera
Informatica.
Conde, L., & Winter, A. (1990). Mtodos y algoritmos bsicos del lgebra
numrica. Sevilla: Revert.
Escobar, I. Z. (1990). Clculo numrico y analtico de las ecuaciones de
Karman-Prandtl para la estimacin del coeficiete de friccin. Cartagena:
Escuela Tcnica Superior de Ingeniera Naval y Ocenica.
Espinoza , J. R. (2009). Apuntes introduccin al anlisis de sistemas no
lineales. Chile: Universidad de Concepcin.
Ezquerro, J. A., Salanova, A. M., Gutirrez, J. M., & Hernndez, M. A. (2001).
El mtodo de Halley: posiblemente, el mtodo ms redescubierto del mundo.
Espaa: Universidad de la Rioja.
Ferragut Canals, L., Montenero Armas, R. A., & Montero Garcia, G. (1990).
Aplicacin de esquemas EBE en procesos adaptativos. Internacional de
Mtodos para Clculo y Diseo en ngeniera , 311-332.
Garcia Nieto, J. M., Alba Torres, E., & Luque Polo, G. J. (2006). Algoritmos
basados en cmulos de partculas para la resolyucin de problemas
complejos.
Garca, C. (2004). Apuntes de mtodos numricos. Espaa: Universidad de
Mlaga.
Garca, M. (2013). El mtodo de Chebyshev para el clculo de las races de
ecuaciones no lineales. Espaa: Universidad de la Rioja.
Gonzlez Prez, C. (2007). ALN- Curso 2007 Gradiente Conjugado.
Luthe, R., Olivera, A., & Schutz, F. (1978). Mtodos numricos. Mxico:
Limusa.

Pgina 90 de 91
Manolis I. , A. L. (2005). A brief description of the Levenberg-Marquardt
algorithm implemened. Fuondation for research and technology- Hellas
(FORTH), 1-3.
Oostra, A. (2008). Sobre la solucin de ecuaciones de tercer y cuarto grado.
Tumbaga, 174-186.
Rubio Jos, A. (2004). Modelacin y optimizacin del mezclado de petrleo
crudo con redes neuronales. Mxico, IPN
Tllez Enrquez, E. (2007). Uso de una colonia de hormigas para resolver
problemas de programacin de horarios. Veracruz: Laboratorio nacional de
informtica avanzada A.C.
Vargas Flix, M. (2013). Gradiente conjugado. CIMAT.
Vzquez Esp, M. (1994). Recocido simulado: un nuevo algoritmo para
optimizacin de estructuras. Madrid: Escuela tcnica superiro de arquitectura
de Madrid.

Pgina 91 de 91