Академический Документы
Профессиональный Документы
Культура Документы
METODOS
NUMERICOS
Ingeniería Civil
Sistema Real
Proyecciones
Modelo
(Sistema artificial aproximativo) Restricciones
Ponderación de riesgo
Disponibilidad de datos Alternativas de decisión
Obtención de datos
Organización de datos
Selección de métodos
Solución
Interpretación
Realización
Cálculos en Investigación Operativa
a) Modelos matemáticos
- cálculos de naturaleza iterativa.
- la solución óptima no puede estar disponible en forma cerrada.
- se llega a la respuesta final en pasos o iteraciones, donde
cada nueva iteración acerca la solución al nivel óptimo.
- el número de iteraciones es función de la eficiencia del
algoritmo de solución y la estructura específica del modelo.
b) Modelos de simulación
- con cálculos voluminosos, que consumen mucho tiempo, pero
se tiene la seguridad de que los resultados buscados se
obtendrán en definitiva.
- control sobre el tiempo de cálculo de la computadora,
reduciendo el periodo de observación del modelo.
TECNICAS DE IO
DETERMINÍSTICOS ESTOCÁSTICOS
•Programación lineal •Cadenas de Markov
•Programación dinámica •Método de Montecarlo
•Transportación - Teoría de colas
•Asignación •Teoría de inventarios
•Modelo de redes •Simulación
•Programación no lineal
Por ejemplo, supongamos que para un millón de operaciones un sistema de procesamiento de
datos necesitara de 1 seg. , resultaría, dependiente de “n” para la solución del algoritmo los
tiempos siguientes:
FUNCIÓN POLINOMIO f(n) = n5 EXPONENCIAL f(n) = 2n
Tiempo de cálculo
Métodos Métodos
Analíticos Cálculo de variaciones
Programación geométrica Programación dinámica (continua)
Programación lineal Principio del máximo (continua)
Programación dinámica (discreta)
Programación no lineal
Técnicas de búsqueda
Principio del máximo (discreto)
Programación cuadrática
Programación separable
Programación convexa
Programación entera
Programación combinacional
Programación heurística
COMIENZO
PROGRAMACIÓN Punto Función o punto Función Métodos
MATEMÁTICA óptimo Variacionales
Hay restricciones en No
el problema
Sí
No
No
No
REGRESA A
LA PARTIDA
Representación gráfica de un problema de optimización
X2 X2
Mínimo local Mínimo local
X1 X1
Figura (3.1a) Figura (3.1b)
X2 X2
Mínimo local
X1 X1
Figura (3.1c) Figura (3.1d)
X2
Óptimo
X1
Figura (3.1e)
PROGRAMACIÓN NO LINEAL
Cálculo Diferencial
TÉCNICAS Multiplicadores de Lagrange
Teoría de Kuhn – Tucker
CONVENCIONALES
Programación geométrica
(métodos analíticos) Programación cuadrática
Programación convexa
TÉCNICAS DE
LINEALIZACIÓN
TÉCNICAS DE
OPTIMIZACIÓN GRÁFICA
CLASIFICACIÓN DE TÉCNICAS DE
PROGRAMACIÓN NO LINEAL
OPTIMIZAR TECNICA APLICACIÓN
F f ( x1 , x 2 , x n ) CÁLCULO f
DIFERENCIAL 0; (j = 1,2,...,n)
No hay restricciones ni x j
condiciones de no negatividad Esta condición da un sistemas de
ecuaciones cuya solución permite
obtener todos los puntos estacionarios o
críticos. Por comparación se obtiene el
óptimo global.
F f ( x1 , x 2 , x n ) CÁLCULO f
DIFERENCIAL 0 ; (j = 1,2,...,k)
Sujeta a: x j
g i ( x1 , x2 , xn ) 0 Se despejan las variables en las
(i = 1,2,...,m) restricciones y se sustituyen el al función
objetivo. Se obtiene un sistemas de
ecuaciones cuya solución permite
obtener todos los puntos estacionarios o
críticos. Por comparación se obtiene el
óptimo global.
F f ( x1 , x 2 , x n ) MULTIPLICADORES m
Lo f x1 , x 2 , , x n i g i x1 , x 2 , , x n
DE LAGRANGE
Sujeta a: i 1
Donde
x es un vector de n variables independientes
Características de los problemas que
trataremos mayormente en el curso
• Funciones objetivo y restricciones continuas con sus primeras
derivadas parciales también continuas (suaves)
– Esto garantiza que pequeños cambios en x conlleve a pequeños cambios en
valores asociados
3. Rapidez
5. Precisión de la solución
7. Dificultad
Algoritmos Iterativos y Convergencia
1
f x x 3 si x 3
x2 f x
2 si x 3
Discontinuidad Esencial
Teoremas sobre Continuidad
• f+g es continua en a
• f–g es continua en a
• fxg es continua en a
• f÷g es continua en a suponiendo que g(a) ≠ 0
i ) f a existe i ) f a existe
lim f x f a lim f x f a
iii ) iii )
x a x a
Continuidad en un Intervalo
f x x
lim f x x f x
f ' x
x 0 x
f(x)
x
Valores Máximos y Mínimos de una Función de
una Variable
• La derivada puede utilizarse para determinar los puntos donde la
tangente es horizontal (derivada = 0)
Extremos Relativos
Definición: La función f se dice que
tiene un valor máximo relativo en “c”,
si existe un intervalo abierto que
contenga a “c” sobre el cual está
definida la función f tal que
f(c) ≥ f(x) para toda x en este intervalo C=
Valores Máximos y Mínimos de una Función de
una Variable
Extremos Relativos
Definición: La función f se dice que
tiene un valor mínimo relativo en “c”, si
existe un intervalo abierto que
contenga a “c” sobre el cual f está
definido tal que f(c) ≤ f(x) para toda x en
este intervalo
c
¿Dónde Localizar los Posibles Valores
Extremos?
Teorema: Si f(x) existe para todos los valores de x en el intervalo
abierto (a,b) y si f tiene un extremo relativo en “c”, donde a < c < b,
entonces f ´(c) existe y f ´(c) = 0
C=
¿Dónde Localizar los Posibles Valores
Extremos?
• Sin embargo, f ´(x) puede ser cero • Más aún f puede tener un
y no obstante en ese valor f no extremo relativo en un número y f’
puede no existir allí
tiene un valor extremo (Punto de
Silla)
f x x 1
f x x 1 3
f ' x 3 x 1
2
f ' 1 0
¿Dónde Localizar los Posibles Valores
Extremos?
En Resumen
• Si una función está definida en un número “c” es una condición
necesaria, pero no suficiente, para que f tenga un extremo relativo
en “c” que f ´(c) = 0 ó que f ´(c) no exista
Definición: Si c es un número en el
dominio de la función f y si f ´(c) = 0 ó
f ´(c) no existe, entonces “c” se llama
punto crítico de f
Extremos Absolutos
C=
Procedimientos para la determinación de extremos
absolutos en intervalo cerrado
a c b
RT
f b f a
f(c)
f ' c RS
La tangente RT es
ba paralela a la secante RS
a c b
Funciones Crecientes y Decrecientes y Criterio
de la Primera Derivada
• Definición: Una función definida en un intervalo se dice que es
creciente en ese intervalo si y solo si:
– f(x1) < f(x2) siempre que x1 < x2 donde x1 y x2 son números del
intervalo
Si c es un extremo entonces:
f’ = 0
– f ´(x1) > 0 donde x1 < c f’ < 0
f’ > 0
– f ´(x2) > 0 donde c < x2
f’ < 0 f’ > 0
Lo contrario aplica para Mínimo Relativo
f’ = 0
Criterio de la Segunda Derivada
f ' a f a f n a f n 1
f b f a b a b a b a b a n1
2 n
1! 2! n! n 1!
Residuo Rn x
f x a n 1 donde está entre x y a
n 1
n 1!
Funciones de Varias Variables
(Campos Escalares)
Continuidad de Campos Escalares
• Sea f una función de varias variables y a un vector de variables, se
dice que f es continua en a si
– f+g
– f–g Son continuas
– fxg
– f ÷ g es continua, si g(a) ≠ 0
Derivada direccional
• La derivada direccional permite tener información del
comportamiento de la función si sus variables se modifican
siguiendo el sentido indicado por el vector gradiente
D f(p) = f(p)T
-5
f = [6x -10
2y] -15
-20
2
2 1 2
0 1
1.5 -6 0
-1 -1
-2 -2
1 -8
0.5 -10
0 -12
y
-0.5 -14
-1 -16
-1.5 -18
-2
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2
x
Gradiente
f x f x f x
f x , ,,
x1 x2 xn
-5
-10
-2
-0.5
-1
-1.5
-2
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2
Diferenciabilidad de funciones de varias
variables
• Teorema: Si f : u R, u Rn, es diferenciable en x entonces es
continua en x
– El reciproco es falso: Una función puede ser continua sin ser
diferenciable
2!
donde, 2 f 2 f 2 f
x12 x1x2 x1 xn
f f 2 f 2 f 2 f
f ,,
x1 x n x2 x1 2 x2 x2 xn
2 f 2 f 2 f
Gradiente xn x1 xn x2 xn2
Hessiano
Extensión de los Criterios de Existencia
de Máximo y Mínimos
• Los puntos críticos son aquellos donde f = 0 o no existe
q x1 , x 2 7 x12 4 x1 x 2 8 x 22
• Es claro que a ij x i x j a ji x j x i a ij a ji x i x j
para todo i j
• Sin embargo, para una forma cuadrática q(x) dada existe sólo una
matriz simétrica (cuadrada tal que D = DT) que satisface q(x) = xTDx
cuyos elementos están definidos por:
aij a ji
d ij d ji q x1 , x 2 ax12 bx1 x 2 cx 22
2
para todo i j
a b / 2 x1
q x1 , x 2 x t Dx x1 x 2
b / 2 c x2
Formas cuadráticas
• Ejemplo
q x1 , x 2 ax12 bx1 x 2 cx 22
a b / 2 x1
q x1 , x 2 x Dx x1 x 2
t
b / 2 c x2
2 2
A
8 1
q x1 , x 2 2 x12 2 x1 x 2 8 x 2 x1 x 22 2 x12 6 x1 x 2 x 22
2 3 x1
q x1 , x 2 x1 x 2
3 1 x2
Propiedades de las formas cuadráticas
• Definición: la forma cuadrática q(x) = xTDx es definida positiva si
q(x) > 0 para todo x ≠ 0 en En
a) D-1 existe
x2
x2
x1
x1
Convexo No Convexo
Una esfera, un triángulo, el espacio Rn, una línea recta y un punto son conjuntos
convexos. Un hiperplano también es un conjunto convexo
Funciones Convexas
donde 0 1
AC f a 1 f b
A
BC f a 1 b
B
a c b
Funciones Convexas
f x f x 0 f t x 0 x x 0 1 x x0 x0 x x0
t
2
Funciones Convexas
x* x
Cóncava Convexa
Criterios de la primera y segunda
derivada
• Teorema: Sea f(x) una función C2 (segundas derivadas parciales
existen y son continuas). Entonces f(x) es convexa sobre una región
R en En si y sólo si su Hessiano es definido o semidefinido positivo
para toda x de la región R
Criterios de la primera y segunda
derivada
f f f 2
• Teorema de Schwartz: Si f(x,y) es tal que , y
x y xy
son continuas en un entorno de un punto (x0,y0), entonces
f 2 2 f 2 f
x 0 y 0 existe y se cumple que x 0 , y 0 x 0 , y 0
yx yx xy
min f (xi 1 d )
• FN = FN -1 + FN -2 donde F0 = F1 = 1
l2 1
R 1 R R2 R 1 0
l1 R
xl xu
1 1 4 1 5 1 Primera
R 0.61803 l0
2 2 Iteración
l1 l2
La Razón Dorada
Búsqueda de la Sección Dorada
1. Se comienza con los valores
extremos del intervalo xl, xu que
contienen el extremo local de f(x)
2. Dos puntos interiores de escogen
de acuerdo a
• x1 = xl + d 5 1
d xu xl
2
• x2 = xu - d
xl x2 x1 xu
1. Se evalúa la función en los dos
puntos interiores Primera
l0
Iteración
• Si f(x1) < f(x2) xl = x2; x2 = x1; l1 l2
xl x1 xu
5 1
x1 xl xu xl Segunda
2 Iteración l2
3
3. Calcule f(x(k+1))
4 5
4. Si f(x(k+1)) f(x(k)), duplique x 6
(x = 2x) y regrese al paso 2 con k = x 2x 4x 8x
k+1
x(m-3) x(m-2) x(m-1) x(m+1) x(m)
Si f(x(k+1)) > f(x(k)), denote x(k+1) como
x(m), x(k) como x(m-1), etc., se reduce x a
la mitad y se regresa al paso 2 y 3 para
un solo cálculo adicional
Ajuste Cuadrático (Método DSC, Davies,
Swann y Campey)
1. De los 4 valores igualmente
espaciados de x en el conjunto
{x(m+1), x(m), x(m-1), x(m-2)}, descarte
x(m) o x(m-2), el que esté más lejano 1
de la x de menor valor funcional. f(x) 2
Los tres valores restantes del
3
conjunto pueden ser denotados
como x(a), x(b), x(c), donde x(b) es
4 5
el punto central y 6
x(a) = x(b) - x y x(c) = x(b) + x x 2x 4x 8x
b x f x a f x c
x* xˆ* x
2 f x f x
2 f x a b c donde x = x(a) - x(b)
Ajuste Cúbico
f ' x k u 2 u1
x k 1 x k x k x k 1
f ' x k f ' x k 1 2u 2
donde,
f x k 1 f x k
u1 f ' x k 1 f ' x k 3
x k 1 x k
u 2 u1 f ' x k 1 f ' x k
2
1
2
Método del Gradiente
2
• Se puede estimar xk+1 determinando el punto donde la derivada de q
se hace cero
q ' x k 1 f ' x k f ' ' x k x k 1 x k 0
f ' xk
x k 1 xk f(x)
f ' ' xk
xk xk+1
Método de Newton
Implementación
• Para la implementación de este método en una función de varias
variables es necesario calcular la primera y segunda derivada de la
función como derivadas direccionales, obteniendo un valor escalar,
de la siguiente manera,
f ' x k f x k d
T
f ' ' xk d H xk d
f x x f x x f x x 2 f x f x x
f ' x f ' ' x
2 x x 2
Búsqueda Lineal Inexacta
• En la práctica no se determina el mínimo de la búsqueda lineal en
forma exacta
• En este sentido, es deseable sacrificar precisión en la búsqueda
lineal con el propósito de favorecer el tiempo de computo general
• Recordemos que el mínimo en una búsqueda local no tiene porque
ser el mínimo de la función
• La imprecisión es generalmente introducida simplemente
terminando la búsqueda lineal antes de que converja
• La naturaleza exacta de la imprecisión depende de:
– La técnica de búsqueda empleada
– El criterio de parada
Búsqueda Lineal Inexacta
Criterios de terminación de la búsqueda lineal
• Prueba de porcentaje: Sea xk+1 = xk + d; este criterio determina
para estar dentro de un porcentaje del verdadero valor
• Específicamente, se selecciona una constante c tal que 0 < c < 1
(típicamente c = 0.1) y el parámetro en la búsqueda lineal es
determinado de forma tal que satisfaga | - *| ≤ c* donde * es el
verdadero valor de minimización
Búsqueda Lineal Inexacta
Regla de Armijo
• Primero garantiza que no sea muy grande y luego que no sea
muy pequeño
f x k d k
Intervalo aceptable
Búsqueda Lineal Inexacta
Regla de Armijo
• Un valor de se considera que no es muy grande si el valor de la
función cae debajo de la línea punteada; es decir, si
() (0) + ’(0)
• Para asegurar que no sea muy pequeño, se selecciona un valor
de > 1, y se considera que no es muy pequeño si
() > (0) + ’(0) ,
• Ejemplo 1:
Evolución del método para un = 0.25 Evolución del método para un = 0.9
2 2
1.5 1.5
1 1
0.5 0.5
0 0
-0.5 -0.5
-1 -1
-1.5
-1.5
-2
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2 -2
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2
Método del Descenso más Rápido
0
observa en la trayectoria en forma de
-0.5
zigzag
-1
-1.5
-2
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2
Método de Newton
1
f a x f x i 1 f x x i 1 x xi 1 T H f x xi 1
2
Direcciones de búsqueda calculada por los métodos de descenso más rápido y de Newton
Método de Newton
1.5
-0.5
1 0
6 0 1 6
-1
Hf H f
0 2 0 1 -1.5
2 -2
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2
x i x i 1 H f 1 f
x i x i 1 I H f
1
f
• Las matrices que tienen este tipo de factorización son las matrices
simétricas definidas positivas. Esto implica que todos los elementos
de la diagonal sean positivos y que los elementos fuera de la
diagonal no sean muy grandes
Seudo código para la descomposición de
Cholesky
for k = 1:n
for i = 1:k-1
sum = 0;
for j = 1:i-1
sum = sum + A(i,j)*A(k,j);
end
A(k,i) = (A(k,i) - sum)/A(i,i);
end
sum = 0;
for j = 1:k-1
sum = sum + A(k,j)^2;
end
A(k,k) = sqrt(A(k,k) - sum);
end
Problemas de optimización
Soluciones
Sabemos reconocerlas, y
calcularlas como soluciones de
sistemas
de ecuaciones, o
de desigualdades
Métodos iterativos:
No existen métodos directos generales
Se parte de un valor x0, y se genera una
sucesión { xk }k=0 con la propiedad de que
limk xk x*
y x* cumpla algunas condiciones de extremo
Problema sin restricciones
Ejemplo:
x1
min f (x )
(1+x12) (1+x22)
Punto inicial:
x0 = [ -0.4 0.3 ]T
Solución:
x * = [ -1 0 ]T
Problema sin restricciones
Método de Newton:
2.1) Gradiente:
f (x0 ) = [0.573 0.174]T, f (x0 ) =
0.599
3.1) Dirección de movimiento:
1.335 -0.315 0.573
H0p0 = -g0 , p0 = -
-0.315 0.485 0.174
-0.607
p0 =
-0.754
Problema sin restricciones
2.3) Gradiente:
f (x2) = [0.002 0.212]T, f (x2) = 0.212
3.3) Dirección de movimiento:
0.479 -0.001 -0.002 -0.004
p2 = - , p2 =
-0.001 0.802 -0.212 -0.264
4.3) N. punto: x3 = x2 + p2 = [-1.000 -0.028]T
2.4) Gradiente:
f (x3) = [-0.000 -0.028]T, f (x3) = 0.028
Problema sin restricciones
Construcción de la matriz Mk
Añadir un múltiplo de la identidad:
Mk = 2f (xk ) + I
- min(0 , min (2f (xk )) - )
Todos los autovalores se modifican en la
cantidad
Problema sin restricciones
Construcción de la matriz Mk
Cambiar los autovalores de la matriz:
2f (xk ) = UUT,
Mk = UUT, i = max( , i )
se conservan los autovectores
Otros métodos: Choleski modificado, etc.
Problema sin restricciones
x1
Ejemplo: f (x )
(1+x1)2 (1+x2)2
-1.29 0.24
x0 = [ 0.5 -0.3 ]T, 2f (x0 ) =
0.24 -0.56
(2f (x0 )) = [ -1.36 -0.49 ]
Matriz definida negativa
Problema sin restricciones
Ejemplo:
0.08 0.24
Mk = Hk + I = Hk + 1.37I =
0.24 0.81
0.96 0.29 -1.36 0.96 -0.29
Hk =
-0.29 0.96 -0.49 0.29 0.96
Cálculo de k
Objetivo: en cada iteración el valor de f (xk)
debe decrecer suficientemente.
Condición:
Procedimiento de cálculo de k
Búsqueda hacia atrás:
Se prueba con k = 1
Si se cumple la condición, se acepta el valor
Ejemplo de cálculo de k
Tenemos los datos siguientes:
x1
f (x ) = , x0 = [-0.5 -0.3]T, p0 = [-2 1]T
(1+x12) (1+x22)
Información necesaria:
f (x0 ) = -0.37 , f (x0 ) = [ 0.44 -0.20 ]T
f (x0 )Tp0 = -1.08 , = 0.1
Problema sin restricciones
Iteración 1. = 1
f (x0 + p0) = -0.231 , f (x0 ) + f (x0 )Tp0 = -0.48
Iteración 2. = 0.5
M0 p0 = - g0 p0 = [ -0.444 -0.551 ]T
f (xk ) <
Paso 2. Calcular la dirección de movimiento
Paso 2.1. Calcular los valores propios de
Hk = 2f (xk )
Paso 2.2. Si Hk es definida negativa, Mk = Hk
si no, Mk = Hk - , por ejemplo
Problema sin restricciones
Paso 2.3. Resolver el sistema de ecuaciones
Mk pk = - f (xk )
Paso 3. Calcular la longitud de paso
Paso 3.1. Para = 1 comprobar si se cumple
limkxk
La sucesión puede divergir si:
Función objetivo no acotada inferiormente
Función objetivo decrece monótonamente
Problema sin restricciones
k f (xk ) 2 0
Problema sin restricciones
Descenso si ck = 0
Restricciones de igualdad
Funciones diferenciables
Alternativa: la función lagrangiana tiene primera
derivada igual a cero en la solución
La condición de segundo orden no se cumple
Se añade término de penalización cuadrático
mA (x,) = f (x ) - Tc (x ) + ½ c (x ) 2
Propiedad: existe tal que los mínimos
de mA y el problema coinciden
Restricciones de igualdad
Función de mérito:
Medida de compromiso entre f y c cuyo
mínimo sea solución del problema
Combinación de valores de f y c o sus
derivadas
Ejemplos: mE , mA , otras
Restricciones de igualdad
x1
Ejemplo: min f (x )
(1+x1)2 (1+x2)2
s.a x12 + x22 = 0.8
Punto inicial:
x0 = [ -0.6 -0.3 ]T , 0 = 0
Paso 1.1. ¿Es solución?
c (x0) = -0.35, f (x0) - c (x0)T0 = [0.317 -0.223]T
Restricciones de igualdad
0 = 0.137
Restricciones de igualdad
Búsqueda:
= 1, ( ) = -0.497, (0) + ’(0) = 0.375
Dificultad:
algunas condiciones son desigualdades
no podemos reducir el problema a un
sistema de ecuaciones
Solución:
construir problemas aproximados con
restricciones de igualdad
Restricciones de desigualdad
16
Ejemplo: 14
minx x 2 12
x1
10
s.a x 1 8
6 x 2 - log(x - 1)
2
f (x ) = x 2
0
0 0.5 1 1.5 2 2.5 3 3.5 4
Restricciones de desigualdad
Resultado teórico:
Sea x* ( ) la solución del problema
minx f (x ) - i log si
s.a c (x ) - s = 0 ,
se cumple que lim0 x* ( ) = x*, donde x* es
la solución de
minx f (x )
s.a c (x ) 0
Restricciones de desigualdad
x0 = x* (s-1) ,
resolver el problema
minx f (x ) - s i log si
s.a c (x ) - s = 0
Restricciones de desigualdad
Problema modificado:
Problema en forma estándar
minx,s xTR x
s.a mTx - s = 3.5
eTx = 1
x,s0
Problema con restricciones de desigualdad
minx,s xTR x - (i log xi + log s )
s.a mTx - s = 3.5
eTx = 1
Restricciones de desigualdad
Actualizar s
Sección de Preguntas
Muchas Gracias