Вы находитесь на странице: 1из 26

INTRODUCCIÓN

El presente trabajo está basado en los métodos de optimización en ingeniería los cuales tienen
similitud con los métodos de encontrar raíces ya que ambos están enfocados en conseguir una
ubicación, los de optimización están enfocados en conseguir máximos y mínimos y los de raíces
están enfocados en ubicar la o las raíces en una función.
La segunda parte está enfocada a la interpolación y ajuste de curvas, las cuales consiste en hallar
otros puntos en una función predeterminada, así como también conocer lo diferentes tipos de
interpolaciones también veremos cuál de los métodos es el mejor y el más eficiente a la hora de
realizar un programa o al momento de encontrar diferentes punto de una función.

1
CONTENIDO
Pág.
INTRODUCCIÓN……………………………………………………………….2
1 MÉTODOS DE OPTIMIZACIÓN EN INGENIERÍA...……………..5
1.1 OPTIMIZACIÓN UNIDIMENSIONAL……………………………..5
1.1.1 Método de la sección dorada………………………………………….6
1.1.1.1 Ubicación del intervalo……………………………………………….7
1.1.2 Método de la interpolación cuadrática………………………………..8
1.1.3 Método de newton………………………………………………….....9
1.2 OPTIMIZACIÓN MULTIDIMENSIONAL…………………………10
1.2.1 Clasificación de la optimización multidimensional no restringida…..10
1.2.1.1 Métodos directos……………………………………………………..10
1.2.1.1.1 Búsqueda aleatoria…………………………………………………..10
1.2.1.1.2 Búsquedas invariadas y búsqueda patrón……………………………11
1.2.1.2 métodos con gradientes………………………………………………11
1.2.1.2.1 Gradientes y hessianos………………………………………………11
1.2.1.2.2 Aproximación por diferencias finitas………………………………..12
1.2.1.2.3 Método de máxima inclinación……………………………………....12
1.2.1.3 Métodos avanzados del gradiente…………………………………….13
1.2.1.3.1 Método del gradiente conjugado (Fletcher-Reeves)…………………13
1.2.1.3.2 Método de newton…………………………………………………....14
1.2.1.3.3 Método de Marquardt………………………………………………...14
1.2.1.3.4 Métodos de cuasi-Newton……………………………………………16
1.3 Aplicaciones…………………………………………………………..15
2 INTERPOLACIÓN Y AJUSTE DE CURVAS………………………17
2.1 MÉTODOS DE MÍNIMOS CUADRADOS………………………….17
2.1.1 Regresión lineal……………………………………………………….17
2.1.2 Regresión polinomial……………………………………………….....17
2.1.3 Regresión lineal múltiple……………………………………………..18
2.1.4 Regresión no lineal …………………………………………………..18
2.2 INTERPOLACIÓN DE POLINOMIOS………………………………19
2.2.1 Interpolación polinomial de Newton en diferencias divididas…………19
2.2.1.1 Interpolación lineal……………………………………………………..19
2.2.1.2 Interpolación cuadrática………………………………………………...20
2.2.1.3 Forma general de los polinomios de interpolación de Newton…………20
2.2.1.4 Errores de la interpolación polinomial de Newton……………………...20
2.2.1.5 Algoritmo computacional para el polinomio de interpolación de Newton.21
2.2.2 Polinomios de interpolación de LaGrange ………………………………21
2.2.3 Coeficientes de un polinomio de interpolación…………………………..23
2.2.4 Interpolación inversa…………………………………………………….23
2.3 Aplicaciones……………………………………………………………...24

2
3 Algoritmos genéticos………………………………………………………25
Bibliografía……………………………………………………………………………26

3
LISTADO DE FIGURAS
Pág.
FIGURA 1: diferenciación entre la búsqueda de raíces y el punto óptimo……………………..5
FIGURA 2: diferencia entre un máximo y mínimo local con los absolutos…………………….5
FIGURA 3: representación del Intervalo de Trabajo (Bracketing)……………………………...7
FIGURA 4: El Partenón de Atenas, Grecia, fue construido en el siglo V antes de Cristo………8
FIGURA 5: representación del método de interpolación cuadrática…………………………….9
FIGURA 6: representación del método de newton……………………………………………..10
FIGURA 7: representación de la búsqueda invariada…………………………………………..11
FIGURA 8: representación del método de máxima inclinación………………………………..13
FIGURA 9: representación del método de newton…………………………………………….14
FIGURA 10:Gráfico de datos asociados a un modelo lineal…………………………………..17
FIGURA 11: representación de regresión no lineal……………………………………………18
FIGURA 12: Ejemplos de interpolación polinomial…………………………………………..19
FIGURA 13: Esquema gráfico de la interpolación lineal……………………………………...19
FIGURA 14: Descripción visual del razonamiento detrás del polinomio de LaGrange………22
FIGURA 15: representación gráfica de un algoritmo genético………………………………..24

4
1. MÉTODOS DE OPTIMIZACIÓN EN INGENIERÍA
La optimización y la búsqueda de raíces están relacionada ya que ambas involucran unos puntos
iniciales, y también buscan un punto en una función, la diferencia fundamental entre los métodos
es que la localización de raíces lo que hace es encontrar los ceros de la función. En cambio los
métodos de optimización lo que hace es ubicar los untos máximos y mínimos de la función, El
óptimo es el punto donde la curva es plana. En términos matemáticos, esto corresponde al valor
de x donde la derivada ƒ′(x) es igual a cero. Además, la segunda derivada, ƒ″(x), indica si el óptimo
es un mínimo o un máximo: si ƒ″(x) < 0, el punto es un máximo; si ƒ″(x) > 0, el punto es un
mínimo.

FIGURA 1: diferenciación entre la


búsqueda de raíces y el punto óptimo.
Como se observa en la figura
podemos observar los conceptos ya
descritos anteriormente, se puede ver
la raíz entre los intervalos, lo mismo
que los puntos óptimos de la función
en dichos intervalos.

Fuente: Steven C. Chapra, R. P. (2007). Métodos numéricos para ingenieros. México D F:


McGraw-Hill.
1.1 OPTIMIZACIÓN UNIDIMENSIONAL
La optimización unidimensional es aquella que describe cierta técnica para encontrar los máximos
y mínimos de una función de uan sola variable, al igual que los métodos para encontrar raíces, la
localización es un tanto complicada debido a que una función puede tener varias raíces. De manera
similar tanto los óptimos locales como globales son un poco complicados de hallar, los problemas
de optimización reciben el nombre de multimodales

FIGURA 2: diferencia entre un máximo


y mínimo local con los absolutos. En esta
figura se observa los puntos máximos y
mínimos tanto locales como globales.
Al igual que la respectiva ubicación de
los mismos en la gráfica.

Fuente: Steven C. Chapra, R. P. (2007). Métodos numéricos para ingenieros. México D F:


McGraw-Hill.
Saber que extremo es local y que extremo es global resulta un poco complicado saberlo para esto
existen tres formas distintas de hacerlo.

5
 Tener una idea general del comportamiento de la función unidimensional, que algunas
veces llega a tenerse mediante la gráfica de la función.
 Determinar el valor óptimo en base altos valores iniciales, los cuales varían ampliamente
y son generados en forma aleatoria, después de esto se toma el valor más grande como el
valor óptimo.
 Se emplea cambiando el punto donde se encuentra el óptimo local y observar si esta rutina
nos arroja un resultado mejor.
1.1.1 Método de la sección dorada
La búsqueda de la sección dorada es una técnica de búsqueda para una sola variable, sencilla y de
propósito general, esta tiene similitud con el método de bisección para encontrar raíces. El método
de la bisección depende de un intervalo inicial en el cual la función corta el eje x.
La estrategia de este método se basa en tres puntos iniciales: dos considerados los extremos de un
intervalo (x1 y x2) y el tercero (x3) entre los dos primeros de tal suerte que relación entre la
distancia de este punto interno al extremo x2 (x2 − x3) y la distancia entre los extremos (x2 − x1)
es siempre una constante:
𝑥2 − 𝑥3
=𝜏
𝑥2 − 𝑥1
Note que el punto x3 divide al segmento [x1: x2] en dos partes: la parte [x1: x3] es más pequeña
que la parte [x3: x2]: el segmento [x3: x2] es el 60.80 % de [x1: x2], mientras que [x1: x3] tiene
una longitud que es el 38.19 %. El método itera generando un siguiente punto x4 en [x3: x2] (la
parte más amplia) de manera que se cumple:
𝑥4 − 𝑥1
=𝜏
𝑥2 − 𝑥1
Note que las formulas convenientes para el cálculo de x3 y x4 son:
𝑥4 = (1 − 𝜏)𝑥1 + 𝜏𝑥2
𝑥3 = τ𝑥1 + (1 − τ )𝑥2

Y la razón es porque en estas fórmulas no se requiere que x1 < x2. Observemos las siguientes
razones:

6
Partiendo de la función de referencia se escogen tres puntos de los cuatros que están disponibles
En general, si Ío es la longitud del intervalo en la iteración i se cumple que:
I𝑛 = 𝜏 𝑛−1 I𝑛
De manera que sabiendo el intervalo inicial de In y sabiendo la exactitud que se le quiera dar al método es
posible estimar el número de iteraciones para que este converja al valor esperado.
ln(In ) − ln(I1 ) ln(τ )
n = 1+
ln(τ )

1.1.1.2 Ubicación del Intervalo


Este método requiere tres puntos iniciales x1, x2, x3 cuando se aplica el método a una función f(x)
estos deben satisfacer la siguiente condición:
F(x1) < f(x3) y f(x3) ≥ f(x2).
La función tiene subidas y bajadas, el procedimiento que se realiza para la ubicación de dichas
puntos recibe el nombre de ubicación del Intervalo de Trabajo (Bracketing). La estrategia inicia a
partir de un punto x1 y teniendo un incremento de x inicial s. Se genera un siguiente punto.
X3 = x1 + s.
Si f(x1) ≥ f(x3) habrá que buscar hacia atrás cambiando intercambiando los puntos y el signo del
incremento. Si f(x1) < f(x3), el incremento se agranda en la proporción τ por medio de la formula
s = s/τ. Un siguiente punto se genera hacia adelante.
X2 = x3 + s.
Si f(x3) ≥ f(x2) los tres puntos buscados están determinados. Si f(x3) < f(x2), entonces el
procedimiento se repite tomando x1 = x3 y x2 = x3.

FIGURA 3: representación del Intervalo de


Trabajo (Bracketing).
Observe que el intervalo de bracketing va
creciendo en la proporción 1/τ. La siguiente
figura ilustra cómo se va agrandando el
intervalo en el caso de bracketing

7
FUENTE: ITESM. (1 de noviembre de 2009). Obtenido de
http://www.mty.itesm.mx/etie/deptos/m/ma00-130/lecturas/m130-17.pdf.

 La razón dorada y los números de Fibonacci


En muchas culturas, a ciertos números se les otorgan algunas cualidades. Por ejemplo, en
Occidente se suele decir “el 7 de la suerte” y “el funesto viernes 13”. Los antiguos griegos llamaron
al siguiente número la “razón dorada” o áurea:

√5 − 1
= 0 61803 . . ..
2
Esta razón fue empleada con un gran número de propósitos, incluyendo el desarrollo del rectángulo
de la figura 13.3. Tales proporciones fueron consideradas por los griegos como estéticamente
agradables. Entre otras cosas, muchos de los templos siguieron esta forma. La razón dorada se
relaciona con una importante sucesión matemática conocida como los números de Fibonacci, que
son:
0, 1, 1, 2, 3, 5, 8, 13, 21, 34,...
Cada número después de los dos primeros representa la suma de los dos precedentes. Esta
secuencia aparece en diversas áreas de la ciencia y la ingeniería. En el contexto del presente
análisis, una interesante propiedad de la sucesión de Fibonacci relaciona la razón entre números
consecutivos de la serie; es decir, 0/1 =0, 1/1 = 1, 1/2 = 0.5, 2/3 = 0.667, 3/5 = 0.6, 5/8 = 0.625,
8/13 =0.615, y así sucesivamente. La razón entre números consecutivos se va aproximando a la
razón dorada.

FIGURA 4: El Partenón de
Atenas, Grecia, fue construido en
el siglo V antes de Cristo. Sus
dimensiones frontales se ajustan
casi exactamente a un rectángulo
dorado.

Fuente: Steven C. Chapra, R. P. (2007). Métodos numéricos para ingenieros. México D F:


McGraw-Hill.
1.1.2 Método de la interpolación cuadrática.
La interpolación cuadrática aprovecha la ventaja de que un polinomio de segundo grado con
frecuencia proporciona una buena aproximación a la forma de f(x) en las cercanías de un valor
óptimo.
Si comenzamos con tres puntos, por ejemplo x1, x2, x3 en orden creciente, y no necesariamente
igualmente espaciados, pero contenidos dentro de la zona de búsqueda (a,b), podemos
aproximarlos a un polinomio de grado 2 f (x) = a + bx + c𝑥 2 de tal manera que dicho polinomio
pasa exactamente por esos tres puntos y debe presentar un mínimo en:

8
𝑏
𝑥=−
2𝑐
Si suponemos que f(x) se evalúa en los tres puntos, podríamos calcular los valores de a, b, c
resolviendo el sistema de tres ecuaciones lineales:

Lo que nos lleva a:

Con 𝑓1 = 𝑓(𝑥1 ); 𝑓2 = 𝑓(𝑥2 ); 𝑓3 = 𝑓(𝑥3 )

FIGURA 5: representación
del método de interpolación
cuadrática. En la gráfica se
puede observar el máximo
real, la función real, la
función cuadrática, la
aproximación cuadrática al
máximo.

Fuente: Steven C. Chapra, R. P. (2007). Métodos numéricos para ingenieros. México D F:


McGraw-Hill.
1.13 Método de newton.
El método de Newton-Raphson es un método de optimización iterativo que se basa en aproximar
la función a optimizar por medio de la serie de Taylor hasta orden 2. Tiene la ventaja sobre el
método de ascenso más rápido que no requiere un proceso iterativo para determinar hasta donde
moverse.
Se utiliza un método abierto similar para encontrar un valor óptimo de f(x) al definir una nueva
función, g(x) = ƒ′(x). Así, como el mismo valor óptimo x* satisface ambas funciones.
ƒ′(x*) = g(x*) = 0
Se aplica lo siguiente:

9
Aunque el método de newton es muy práctico de utilizar, no es conveniente debido a que hay
algunas funciones en las que hallar las derivadas es muy complejo fácilmente. En tales casos, hay
otros procedimientos que no implican la evaluación de la derivada.

FIGURA 6: representación
del método de newton. En la
figura se puede observar la
pendiente que en este caso
es la misma derivada, la
ubicación de la raíz la
gráfica de la función y los
puntos extremos.

SlideShare. (4 de junio de 2008). Obtenido de https://es.slideshare.net/guestf15e13/optimizacin-


de-procesos.
1.2 OPTIMIZACIÓN MULTIDIMENSIONAL
La optimización multidimensional no restringida consiste en encontrar el mínimo y el máximo de
una función utilizando varias variables, en este proceso se estudiaran las montañas y los valles en
dos y tres dimensiones, pero en más dimensiones no es posible encontrar la imagen.
1.2.1 Clasificación de la optimización multidimensional no restringida

No evaluan la derivada
Métodos sin gradientes
a la hora de resolver la
o directos
funcion

Si se evalua la derivada
Métodos de gradientes o
a la hora de resolver la
metodo de descenso
funcion

1.2.1.1 Métodos directos.


Estos métodos van desde procedimientos muy burdos hasta técnicas más elegantes que intentan
aprovechar la naturaleza de la función. Se empezará el análisis con un método burdo.
1.2.1.1.1 Búsqueda aleatoria

10
Es un método burdo el cual no necesita hallar la derivada para encontrar su solución, el cual
consiste en evaluar la función con valores seleccionados, si se dan los valores suficientes de
muestra este método encontrara la solución.
Ventajas
 Funciona aun en discontinuidades y en funciones no diferenciales.
 Siempre encuentra el óptimo global más que el local.
Desventajas
 Por el crecimiento de variables independientes, su implementación tiende a ser costosa.
 No es eficiente ya que no tiene en cuenta el comportamiento de la función.
1.2.1.1.2 Búsquedas invariadas y búsqueda patrón
Este método de optimización directo es muy eficiente y consiste en trabajar sólo con una variable
a la vez, para mejorar la aproximación, mientras las otras se mantienen constantes. Puesto que
únicamente cambia una variable, el problema se reduce a una secuencia de búsquedas en una
dimensión.

FIGURA 7: representación de la búsqueda invariada.


Comienza en el punto 1, y se mueve a lo largo del eje
x con y constante hacia el máximo en el punto 2. Se
puede ver que el punto 2 es un máximo, al observar
que la trayectoria a lo largo del eje x toca justo una
línea de contorno en ese punto. Luego, muévase a lo
largo del eje y con x constante hacia el punto 3.
Continúa este proceso generándose los puntos 4, 5, 6,
etcétera.

Fuente: Steven C. Chapra, R. P. (2007). Métodos numéricos para ingenieros. México D F:


McGraw-Hill.
1.2.1.2 Métodos con gradientes.
Estos métodos de optimización utilizan de forma explícita información de la derivada para generar
algoritmos eficientes que localicen el óptimo.
1.2.1.2.1 Gradientes y hessianos
Este método utiliza la derivada para hallar la pendiente de la recta tangente y así poder resolver la
función, además al encontrar la primera derivada puede indicarnos cuándo se ha encontrado un
valor óptimo, puesto que éste es el punto donde la derivada toma el valor de cero. Además, el signo
de la segunda derivada puede indicarnos si se ha alcanzado un mínimo (positivo en la segunda
derivada) o un máximo (negativo en la segunda derivada). Gradiente:

11
Gradiente en forma vectorial este nos servirá para todas las dimensiones

¿Cómo se usa es gradiente?


Para el problema de subir la montaña, si lo que interesa es ganar elevación tan rápidamente como
sea posible, el gradiente nos indica, de manera local, qué dirección tomar y cuánto ganaremos al
hacerlo, además define la trayectoria de mayor pendiente. El hessiano

Pueden presentarse tres casos:


• Si |H| > 0 y∂2 ƒ/ ∂x 2 > 0, entonces ƒ(x, y) tiene un mínimo local
• Si |H| > 0 y ∂2 ƒ/ ∂x 2 < 0, entonces ƒ(x, y) tiene un máximo local
• Si |H| < 0, entonces ƒ(x, y) tiene un punto silla.
La cantidad |H| es igual al determinante de una matriz formada con las segundas derivadas:

1.2.1.2.2 Aproximación por diferencias finitas

Las aproximaciones por diferencias finitas se usan cuando el gradiente y el hessiano son difíciles
de hallar ya que es un método de evaluación numérica. Por ejemplo, si se adopta el procedimiento
de diferencias centrales, éstas se calculan así:

12
Donde 𝛿 es un valor fraccional muy pequeño. Sin importar cómo se implemente la aproximación,
la cuestión importante es que se pueda tener la opción de evaluar el gradiente y/o el hessiano en
forma analítica. Esto algunas veces puede resultar una tarea ardua; pero el comportamiento del
algoritmo puede ser benéfico para que el esfuerzo valga la pena. Las derivadas de forma cerrada
serán exactas; pero lo más importante es que se reduce el número de evaluaciones de la función.
Este último detalle tiene un impacto significativo en el tiempo de ejecución.
1.2.1.2.3 Método de máxima inclinación
Este método consiste moverse por un camino fijo del gradiente hasta que la función deje de
aumentar después se evalúa de nuevo el gradiente de la función esto se repite hasta que se
encuentra la solución de la función. Este es quizás uno de los métodos más eficientes a la hora de
utilizar el gradiente.

FIGURA 8: representación del método de


máxima inclinación. Comenzaremos en un
punto inicial (x0, y0) etiquetado como “0” en la
figura. En este punto, se determina la dirección
de ascenso con máxima inclinación; es decir, el
gradiente. Entonces se busca a lo largo de la
dirección del gradiente, h0, hasta que se
encuentra un máximo, que se marca como “1” en
la figura. Después el proceso se repite. Así, el
problema se divide en dos partes: 1. se determina
la “mejor” dirección para la búsqueda y 2. Se
determina “el mejor valor” a lo largo de esa
dirección de búsqueda.

Fuente: Steven C. Chapra, R. P. (2007). Métodos numéricos para ingenieros. México D F:


McGraw-Hill.
1.2.1.3 Métodos avanzados del gradiente
1.2.1.3.1 Método del gradiente conjugado (Fletcher-Reeves)

13
Este método ayuda a mejorar el ascenso de máxima inclinación linealmente convergente usando
gradientes conjugados. En efecto, se puede demostrar que un método de optimización, que usa
gradientes conjugados para definir la dirección de búsqueda, es cuadráticamente convergente. Esto
también asegura que el método optimizará una función cuadrática exactamente en un número finito
de pasos sin importar el punto de inicio. Puesto que la mayoría de las funciones que tienen buen
comportamiento llegan a aproximarse en forma razonable bien mediante una función cuadrática
en la vecindad de un óptimo, los métodos de convergencia cuadrática a menudo resultan muy
eficientes cerca de un valor óptimo.
1.2.1.3.2 Método de newton
El método de Newton para una sola variable (recuerde la sección 13.3) se puede extender a los
casos multivariados. Escriba una serie de Taylor de segundo orden para f(x) cerca de x = xi,

FIGURA 9: representación del


método de newton. Cuando el
punto inicial está cerca del
punto óptimo, seguir el
gradiente puede resultar
ineficiente. Los métodos de
Newton intentan la búsqueda a
lo largo de una trayectoria
directa hacia el óptimo (línea
continua).

Fuente: Steven C. Chapra, R. P. (2007). Métodos numéricos para ingenieros. México D F:


McGraw-Hill.
1.2.1.3.3 Método de Marquardt
El método de Marquardt usa el método del descenso de máxima inclinación cuando x está lejos de
x*, y el método de Newton cuando x está cerca de un óptimo.

14
Conforme continúan las iteraciones, 𝑎𝑖 se aproxima a cero y el método se convierte en el de
Newton. Así, el método de Marquardt ofrece lo mejor de los procedimientos: comienza en forma
confiable a partir de valores iniciales pobres y luego acelera en forma rápida cuando se aproxima
al óptimo. Por desgracia, el método también requiere la evaluación del hessiano y la inversión
matricial en cada paso.
1.2.1.3.4 Métodos de cuasi-Newton
Los métodos cuasi-Newton, o métodos de métrica variable, buscan estimar el camino directo hacia
el óptimo en forma similar al método de Newton. Los métodos cuasi-Newton intentan evitar estas
dificultades al aproximar H con otra matriz A, sólo las primeras derivadas parciales de f. El
procedimiento consiste en comenzar con una aproximación inicial de H–1 y actualizarla y
mejorarla en cada iteración. Estos métodos se llaman de cuasi-Newton porque no usan el hessiano
verdadero, sino más bien una aproximación. Así, se tienen dos aproximaciones simultáneas:
1. la aproximación original de la serie de Taylor
2. la aproximación del hessiano.
1.3 APLICACIONES.
Problema de Equilibrio de una Compuerta y su Solución Analítica
El caso de estudio está inspirado en fundamentos propios del clásico libro de mecánica de fluidos
de Streeter y Wylie [10]. Una compuerta plana de longitud normal al plano unitaria (fig. 4) de
2000 N de peso y centro de gravedad ubicado a 2 m de la articulación en el punto de rotación O.
Se desea encontrar el ángulo φmáx con el que la compuerta mantiene equilibrio estable.

Se inicia planteando un balance de momentos respecto al punto O,

15
Dado que, Yemp y Femp son iguales a la localización del centroide y el volumen del prisma de
presión respectivamente se tiene que,

(12)
Sabiendo que la longitud (l=4), reemplazando (12) en (11) y realizando simplificaciones y
transposiciones de términos se obtiene h como función de φ,

(13)
Al graficar la función (fig. 5 obtenida usando el software libre de graficación GNUPLOT) puede
verse que posee un máximo contenido entre φ=50° y φ=60° aproximadamente, por tanto el φmax
puede determinarse analíticamente derivando la función h con respecto a φ e igualando a cero,

(14)

De (14) se deduce que el término en corchetes debe ser igual a cero, por tanto, si se realizan las
manipulaciones algebraicas pertinentes y usando la identidad sen2φ=1-cos2φ, se obtiene el ángulo
φ que hace que h sea máximo bajo condiciones estables,

(15)
El problema es muy útil para el análisis de la complejidad de los métodos de optimización, por
cuanto se tiene un valor de referencia analítico que permite obtener porcentajes de error sobre la
solución obtenida con los diferentes métodos.

16
2 INTERPOLACIÓN Y AJUSTE DE CURVAS.
La Interpolación consiste en hallar un dato dentro de un intervalo en el que conocemos los valores
en los extremos. La Extrapolación consiste en hallar un dato fuera del intervalo conocido, pero
debe tenerse en cuenta que esté próximo a uno de sus extremos, pues en otro caso no es muy fiable
el resultado obtenido.

2.1 MÉTODOS DE MÍNIMOS CUADRADOS.


La técnica de mínimos cuadrados se usa comúnmente en el ajuste de curvas.
Muchos otros problemas de optimización pueden expresarse también en forma de mínimos
cuadrados, minimizando la energía o maximizando la entropía.

2.1.1 Regresión lineal


El ejemplo más simple de una aproximación por mínimos cuadrados es ajustar una línea recta a
un conjunto de observaciones definidas por puntos: (x1, y1), (x2, y2),…, (xn, yn). La expresión
matemática para la línea recta es.
y = a0 + a1x + e

FIGURA 10: Gráfico


de datos asociados a un
modelo lineal. La
cantidad yi - y(xi)
representa la desviación
de cada observación de
yi respecto del valor
predicho por el modelo
y(x).

FUENTE: Cruz, A. (9 de junio de 2012). Mecana lisis. Obtenido de


https://sites.google.com/site/mecanalisis/home/unidad-iv-ajuste-de-curvas-e-interpolacion.
2.1.2 Regresión polinomial.
El procedimiento de mínimos cuadrados se puede extender fácilmente al ajuste de datos con un
polinomio de grado superior. Por ejemplo, suponga que ajustamos un polinomio de segundo grado
o cuadrático:
y = a0 + a1x + a2x2 + e
En este caso, la suma de los cuadrados de los residuos es:

17
2.1.3 Regresión lineal múltiple.
Una extensión útil de la regresión lineal es el caso en el que y es una función lineal de dos o más
Variables independientes. Por ejemplo, y podría ser una función lineal de x1 y x2, como en
y = a0 + a1x1 + a2x2 + e
En particular tal ecuación es útil cuando se ajustan datos experimentales donde la variable sujeta
a estudio es una función de otras dos variables. En este caso bidimensional, la “línea” de regresión
se convierte en un “plano”.

2.1.4 regresión no lineal.


La regresión mínimo-cuadrática puede plantearse de forma que la función de ajuste se busca no
sea una función lineal. El planteamiento general sería similar, aunque obviamente habría que
minimizar el cuadrado de los residuos entre los datos originales y los valores teóricos obtenibles a
través de la función no-lineal considerada.

FIGURA 11:
representación de
regresión no lineal.
Como se observa
en la figura la línea
no es recta, arranca
en el origen y se va
curveando, se
observan los
puntos alrededor
de la línea.

18
FUENTE: xlstat. (02 de marzo de 2017). Obtenido de
https://help.xlstat.com/customer/es/portal/articles/2062236-regresi%C3%B3n-no-lineal-tutorial-
en-excel?b_id=9283.
2.2 INTERPOLACIÓN DE POLINOMIOS.

Interpolar significa encontrar un valor intermedio entre dos o más puntos base conocidos, los
cuales se pueden aproximar mediante polinomios. Fórmula general para un polinomio de n-ésimo
grado:

FIGURA 12: Ejemplos de interpolación


polinomial: a) de primer grado (lineal) que
une dos puntos, b) de segundo grado
(cuadrática o parabólica) que une tres puntos
y c) de tercer grado (cúbica) que une cuatro
puntos.

Fuente: Steven C. Chapra, R. P. (2007). Métodos numéricos para ingenieros. México D F:


McGraw-Hill.
2.2.1 interpolación polinomial de newton en diferencias dividida.
El polinomio de interpolación de Newton en diferencias divididas es una de las formas más
populares y útiles. Antes de presentar la ecuación general, estudiaremos las versiones de primero
y segundo grados por su sencilla interpretación visual.
2.2.1.1 Interpolación lineal.
La forma más simple de interpolación consiste en unir dos puntos con una línea recta. Dicha
técnica, llamada interpolación lineal. Fórmula de interpolación lineal:

FIGURA 13: Esquema


gráfico de la interpolación
lineal. Las áreas
sombreadas indican los
triángulos semejantes
usados para obtener la
fórmula de la interpolación
lineal.

19
Fuente: Steven C. Chapra, R. P. (2007). Métodos numéricos para ingenieros. México D F:
McGraw-Hill.
2.2.1.2 Interpolación cuadrática.
Si se tienen tres puntos como datos, éstos pueden ajustarse en un polinomio de segundo grado
(también conocido como polinomio cuadrático o parábola). Una forma particularmente
conveniente para ello es:

2.2.1.3 Forma general de los polinomios de interpolación de Newton.


El polinomio de n-ésimo grado es:

Como se hizo antes con las interpolaciones lineales y cuadráticas, los puntos asociados con datos
se utilizan para evaluar los coeficientes b0, b1,..., bn. Para un polinomio de n-ésimo grado se
requieren n + 1 puntos: [x0, f(x0)], [x1, f(x1)],..., [xn, f(xn)]. Usamos estos datos y las siguientes
ecuaciones para evaluar los coeficientes:

Donde las evaluaciones de la función colocadas entre paréntesis son diferencias divididas finitas.
Por ejemplo, la primera diferencia dividida finita en forma general se representa como

En forma similar, la n-ésima diferencia dividida finita es

2.2.1.4 Errores de la interpolación polinomial de Newton.


Como ocurrió con la serie de Taylor, si la función verdadera es un polinomio de n-ésimo grado,
entonces el polinomio de interpolación de n-ésimo grado basado en n + 1 puntos dará resultados

20
exactos. También, como en el caso de la serie de Taylor, es posible obtener una formulación para
el error de truncamiento.
Error de truncamiento:

Donde 𝜉 está en alguna parte del intervalo de xi a xi+1. Para un polinomio de interpolación de n-
ésimo grado, una expresión análoga para el error es:

Donde 𝜉 está en alguna parte del intervalo que contiene la incógnita y los datos

2.2.1.5 Algoritmo computacional para el polinomio de interpolación de Newton.


Tres propiedades hacen a los polinomios de interpolación de Newton muy atractivos para
aplicaciones en computadora:
1. la evaluación de algunas versiones de diferente grado en el mismo programa. En especial
tal capacidad es valiosa cuando el orden del polinomio no se conoce a priori. Al agregar
nuevos términos en forma secuencial, podemos determinar cuándo se alcanza un punto de
regreso disminuido (es decir, cuando la adición de términos de grado superior ya no mejora
de manera significativa la estimación, o en ciertas situaciones incluso la aleja)
2. Las diferencias divididas finitas que constituyen los coeficientes del polinomio. Las
diferencias de orden inferior sirven para calcular las diferencias de orden mayor. Utilizando
esta información previamente determinada, los coeficientes se calculan de manera
eficiente.
3. El error estimado se incorpora con facilidad en un algoritmo computacional debido a la
manera secuencial en la cual se construye la predicción.
2.2.2 Polinomios de interpolación de LaGrange.
El polinomio de interpolación de LaGrange es simplemente una reformulación del polinomio de
Newton que evita el cálculo de las diferencias divididas, y se representa de manera concisa como:

Donde

21
Donde Π designa el “producto de”.

FIGURA 14: Descripción visual del


razonamiento detrás del polinomio de LaGrange.
Esta fi gura muestra un caso de segundo grado.
Cada uno de los tres términos en la ecuación pasa
a través de uno de los puntos que se tienen como
datos y es cero en los otros dos. La suma de los
tres términos, por lo tanto, debe ser el único
polinomio de segundo grado f2(x) que pasa
exactamente a través de los tres puntos.

Fuente: Steven C. Chapra, R. P. (2007). Métodos numéricos para ingenieros. México D F:


McGraw-Hill.
2.2.3 Coeficientes de un polinomio de interpolación.
Un método directo para calcular los coeficientes de este polinomio se basa en el hecho de que se
requieren n + 1 puntos para determinar la n + 1 coeficientes. Así, se utiliza un sistema de
ecuaciones algebraicas lineales simultáneas para calcular las a. Por ejemplo, suponga que usted
desea calcular los coeficientes de la parábola:

Se requiere de tres puntos: [x0, f(x0)], [x1, f(x1)] y [x2, f(x2)]. Cada uno se sustituye en la ecuación
anterior:

De esta manera, las x son los puntos conocidos, y las a las incógnitas. Como hay el mismo número
de ecuaciones que de incógnitas, la ecuación se podría resolver con uno de los métodos de
eliminación de la parte tres. Debe observarse que el procedimiento anterior no es el método de
interpolación más eficiente para determinar los coeficientes de un polinomio.
2.2.4 Interpolación inversa.
Como la nomenclatura implica, los valores de f(x) y x en la mayoría de los problemas de
interpolación son las variables dependiente e independiente, respectivamente. En consecuencia,

22
los valores de las x con frecuencia están espaciados uniformemente. Un ejemplo simple es una
tabla de valores obtenida para la función f(x) = 1/x:

Ahora suponga que usted debe usar los mismos datos, pero que se le ha dado un valor de f(x) y
debe determinar el valor correspondiente de x. Por ejemplo, para los datos anteriores, suponga que
se le pide determinar el valor de x que corresponda a f(x) = 0.3. En tal caso, como se tiene la
función y es fácil de manipular, la respuesta correcta se determina directamente, x = 1/0.3 = 3.3333.
A ese problema se le conoce como interpolación inversa.
2.3 APLICACIONES.
Tengo una caldera y de esta sale un flujo a una presión de 3,5 Mpa y necesito saber que entropía
tiene el vapor sobrecalentado a una temperatura de 375 ºC. Lo primero es ii a unas tablas de
propiedades termodinámicas donde obtengo los siguientes valores:

Ahora voy a interpolar para obtener el valor de la entropía a 375 lo cual la tabla me quedaría así:

Aplicando la formula quedaría

y = 6,6601+((6,8428-6,6601)/(400-350))*(375-350)
y = 6,7514

el valor de la entropia a 375 seria de 6,7514

23
3 ALGORITMOS GENÉTICOS
Brevemente, un algoritmo genético (AG) es una técnica de resolución de problemas que imita a
la evolución biológica como estrategia para resolver problemas, englobándose dentro de lo que
antes hemos denominado técnicas basadas en poblaciones. Dado un problema específico a
resolver, la entrada del AG es un conjunto de soluciones potenciales a ese problema, codificadas
de alguna manera, y una métrica llamada función de aptitud, o fines, que permite evaluar
cuantitativamente a cada solución candidata. Estas candidatas pueden ser soluciones que ya se sabe
que funcionan, con el objetivo de que el AG las mejore, pero se suelen generar aleatoriamente.
Los Algoritmos Gen éticos usan una analogía directa con el comportamiento natural. Trabajan con
una población de individuos, cada uno de los cuales representa una solución factible a un problema
dado. A cada individuo se le asigna un valor o´ puntuación, relacionado con la bondad de dicha
solución. En la naturaleza esto equivaldría al grado de efectividad de un organismo para competir
por unos determinados recursos.

FIGURA 15:
representación gráfica
de un algoritmo
genético.
Como se observa en la
figura el algoritmo
cumple un ciclo
determinado. Primero
se selecciona el
individuo, después la
producción, una
función, etc.

FUENTE: Caparrini, F. S. (3 de diciembre de 2016). cs. Obtenido de


http://www.cs.us.es/~fsancho/?e=65
El poder de los Algoritmos Gen éticos proviene del hecho de que se trata de una técnica robusta,
y pueden tratar con ´éxito una gran variedad de problemas provenientes de diferentes áreas, ´
incluyendo aquellos en los que otros métodos encuentran dificultades. Si bien no se garantiza que
el Algoritmo Gen ético encuentre la solución óptima ´ del problema, existe evidencia empírica de
que se encuentran soluciones de un nivel aceptable, en un tiempo competitivo con el resto de
algoritmos de optimización combinatoria. En el caso de que existan técnicas especializadas para
resolver un determinado problema, lo más probable es que superen al Algoritmo Gen ético, tanto
en rapidez como en eficacia. El gran campo de aplicación de los Algoritmos Gen éticos se relaciona
con aquellos problemas para los cuales no existen técnicas especializadas. Incluso en el caso en
que dichas técnicas existan, y funcionen bien, pueden efectuarse mejoras de las mismas
hibridándolas con los Algoritmos Gen éticos.
3.1 ejemplo

24
BEGIN /* Algoritmo Genético Simple */
Generar una población inicial.
Computar la función de evaluación de cada individuo.
WHILE NOT Terminado DO BEGIN /*
Producir nueva generación */
FOR Tamaño˜ población/2 DO BEGIN /*
Ciclo Reproductivo */
Seleccionar dos individuos de la anterior generación, para el cruce (probabilidad de selección
proporcional a la función de evaluación del individuo).
Cruzar con cierta probabilidad los dos individuos obteniendo dos descendientes.
Mutar los dos descendientes con cierta probabilidad.
Computar la función de evaluación de los dos descendientes mutados.
Insertar los dos descendientes mutados en la nueva generación.
EN
IF
la población ha convergido
TEN
Terminado := TRUE
END
END

25
Bibliografía
 Steven C. Chapra, R. P. (2007). Métodos numéricos para ingenieros. Mexico D F:
McGraw-Hill.
 Ceballos, M. B. (1 de agosto de 2012). SlideShare. Obtenido de
https://es.slideshare.net/totycevallos/optimizacin-mtodos-numricos.
 Richard L. Burden, J. D. (2002). Análisis numérico. THOMSON.
 SlideShare. (4 de junio de 2008). Obtenido de
https://es.slideshare.net/guestf15e13/optimizacin-de-procesos.
 xlstat. (02 de marzo de 2017). Obtenido de
https://help.xlstat.com/customer/es/portal/articles/2062236-regresi%C3%B3n-no-lineal-
tutorial-en-excel?b_id=9283.
 Cruz, A. (9 de junio de 2012). mecanalisis. Obtenido de
https://sites.google.com/site/mecanalisis/home/unidad-iv-ajuste-de-curvas-e-
interpolacion.
 Algoritmos genéticos tomado de
www.sc.ehu.es/ccwbayes/docencia/mmcc/docs/temageneticos.pdf
 Caparrini, F. S. (3 de diciembre de 2016). cs. Obtenido de
http://www.cs.us.es/~fsancho/?e=65

26