Вы находитесь на странице: 1из 26

Resumen Optimizacin

Jos Toms Marquinez - 2012

Captulo 1.- Investigacin de Operaciones.


Denicin: La Investigacin de Operaciones es una disciplina cientca que aplica mtodos

analticos avanzados para ayudar a tomar mejor decisiones.


La metodologa incluye la Denicin del problema, la Contruccin del problema, la Solucin
del modelo, la Vericacin del modelo, y la Implementacin y Control del modelo.

Captulo 2.- Introduccin al Modelamiento.


Denicin: Un modelo es un esquema terico, generalmente en forma matemtica, de un

sistema o de una realidad compleja. Es una herramienta que ayuda a la toma de decisiones.
Debe ser una simplicacin de la realidad.

Denicin: En particular, los modelos matemticos pretenden optimizar. Existen:


Dinmicos:
Continuos.
Discretos.

Estticos:
Estocsticos.
Determinsticos.
Lineales
No Lineales.

Terminologa: Un modelo matemtico cuenta con:


Variables de Decisin: Cantidades que se buscan determinar y que inciden en el objetivo.
Variables de Estado: Cantidades que buscan denir el estado del sistema o modelo.
Variables Auxiliares: Cantidades que buscan relacionar variables entre s, principalmente.
Restricciones del problema: Relaciones entre las variables que limitan sus valores, de la
forma hi (~x) = 0, gj (~x) 0.
Restricciones de las variables: Limitaciones en los valores que pueden tomar las variables
por s solas, de la forma ~x : Rn . Ac caen las restricciones de Naturaleza de
las Variables.
Funcin Objetivo: Medida para comparar las alternativas posibles. Se busca maximizar
o minimizar este objetivo.

Resumen Optimizacin

Captulo 3.- Programacin Lineal.


Denicin: Un modelo de Programacin Lineal es aquel cuyas variables son continuas, y
tanto sus restricciones como su funcin objetivo son lineales.
Se dene el espacio de soluciones factibles , o simplemente espacio factible, como la interseccin de todas las restricciones. Si sta no incluye ningn punto (si el espacio es vaco), se
le dice espacio infactible.
Se dene la solucin o punto ptimo como el punto ~x que entrega el mejor valor de la
funcin objetivo.
Se dene un punto vecino como aqul punto x~2 que comparte todas las restricciones, excepto
una, con un punto x~1 .
Se da que en los Problemas de Programacin Lineal (PPL) continuos existen tres posibilidades:
No existe solucin factible.
Existe una nica solucin.
Existen innitas soluciones.
Solucin grca: Para determinar la solucin grcamente, es necesario gracar todas las
restricciones, determinar el espacio comn de la interseccin de todas las restricciones, y
gracar las curvas de nivel de la funcin objetivo. En un problema de minimizacin, la curva
de nivel de menor valor dentro del dominio correponde a la solucin ptima.
Existencia de Soluciones ptimas: Sea el siguiente problema de optimizacin:
P ) mn f (~x)
s.a. ~x

Se dene un punto extremo como un punto que es mnimo o mximo, local o global, de una
funcin f sobre un dominio .
Un punto ~x se dene mnimo global de f en (y solucin ptima del problema P )), si
f (~x) f (~y ), ~y .

Un punto ~x se dene mnimo local de f en si existe un  > 0 tal que


f (~x) f (~y ),

~y : ||~x ~y || , ~y

Se denen los mnimos estrictos si las desigualdades son estrictas.

Teorema: El Teorema de Existencia de Soluciones ptimas dice que si f es continua sobre


, con cerrado y no vaco sobre Rn , entonces si f (~x) cuando ||~x|| , ~x ,
entonces P ) admite al menos una solucin ptima.

Jos Toms Marquinez -

jtmarquinezv@uc.cl

- 2012

Resumen Optimizacin

Teorema: El Teorema de de Bolzano-Weierstrass indica que si f es continua sobre un dominio


no vaco y compacto (cerrado y acotado), entonces el problema necesariamente tendr
solucin ptima.

Teorema: El Teorema Prctico de Existencia de Soluciones ptimas de la Optimizacin


Lineal dice que si el dominio es no vaco y cerrado, y la funcin objetivo est acotada
inferiormente (en caso de minimizacin), entonces P tiene solucin ptima.
Problemas Equivalentes: Sean los siguientes problemas de optimizacin P1 y P2 :
P1 ) mn f (~x)
s.a. gi (~x) 0 i = 1, . . . , m
~x 1

P2 ) mn h(~y )
s.a. lj (~y ) 0 j = 1, . . . , r
~y 2

Se dicen problemas equivalentes si la solucin ptima de P1 provee la solucin ptima de P2 ,


y viceversa.

Equivalencia I:
P1 ) mn f (~x) P2 ) max f (~x)
s.a. ~x
s.a. ~x

Equivalencia II:
P1 ) mn f (~x) P2 ) mn
s.a. ~x
s.a. f (~x)
~x , R

Equivalencia III:
P1 ) mn max{f1 (~x), . . . , fn (~x)} P2 ) mn
s.a. ~x
s.a. fi (~x)
i = 1, . . . , n
~x , R

Equivalencia IV:
P1 ) mn

s.a.

r
X

fi (~x) P2 ) mn

i=1

s.a.

~x

r
X

i=1

fi (~x) i
i = 1, . . . , r
~x , i R i = 1, . . . , r

Equivalencia V:
P1 ) mn f (~x) P2 ) mn g f (~x)
s.a. ~x
s.a. ~x

donde la funcin g : f () R R es estrictamente creciente sobre f (). Notemos


que los valores ptimos no sern necesariamente los mismos.
Jos Toms Marquinez -

jtmarquinezv@uc.cl

- 2012

Resumen Optimizacin

Equivalencia VI:
1
P1 ) mn f (~
P2 ) max f (~x)
x)
s.a. ~x
s.a. ~x

con f (~x) > 0, ~x .


Nociones Bsicas de Convexidad:

Teorema: El Teorema de Convexidad indica que si, para el problema P ), f es una funcin

convexa y es un conjunto convexo, entonces si ~x es un mnimo local de f en , ~x es un


mnimo global de f en .
Se dene que un conjunto es un conjunto convexo si
~x1 , ~x2 se tiene ~x = ~x1 + (1 )~x2 , [0, 1]

Notemos que la interseccin de conjuntos convexos es convexa, la unin de conjuntos convexos


no es convexa, la desigualdad lineal es convexa. Luego, todos los poliedros denidos por
desigualdades lineales son convexas.
Se dene que f (~x) : R, convexo, es una funcin convexa sobre si

f ~x1 + (1 )x~2 f (~x1 ) + (1 )f (x~2 ),
~x1 , x~2 , [0, 1].
Una funcin denida sobre un dominio no convexo no puede ser convexa. La suma de funciones
convexas es convexa.
La funcin f es una funcin estrictamente convexa sobre si la desigualdad anterior es
estricta.
Se dene que f (~x) : R, convexo, es una funcin cncava sobre si

f x~1 + (1 )x~2 f (x~1 ) + (1 )f (x~2 ),
x~1 , x~2 , [0, 1].
Luego, si f (~x) es una funcin convexa, entonces f (~x) es una funcin cncava.
La funcin f es una funcin estrictamente cncava sobre si la desigualdad anterior es
estricta.
Se dene que el problema de optimizacin P es un problema convexo si es una parte
convexa de Rn y f (~x) es convexa sobre .

Teorema: Se especica el Teorema de Convexidad al indicar que si P es un problema convexo,

entonces si ~x es un mnimo local del problema, es tambin su mnimo global. Sin embargo, no
necesariamente este ptimo ser nico.

Corolario: Si f (~x) es estrictamente convexo sobre (cerrado), entonces todo punto mnimo
local de f (~x) es tambin su nico mnimo global.

Jos Toms Marquinez -

jtmarquinezv@uc.cl

- 2012

Resumen Optimizacin

Captulo 4.- Mtodo Simplex en Programacin Lineal.


En este captulo y el siguiente se omitir la notacin vectorial con echa a propsito.

Notacin: Para iniciar, se considerar un PPL inicial escrito de la siguiente manera matricial:
mn cT x
s.a. Ax b

con A Rnm ; ~c, ~x Rn ; ~b Rm .

Denicin: Se dice que un PPL est escrito en su formato estndar si se escribe de la


siguiente manera matricial:

mn cT x
s.a. Ax = b
x0

con A Rnm ; ~c, ~x Rn ; ~b ~0 Rm .

Denicin: La fase II del mtodo Simplex es un algoritmo que itera viajando de un punto

factible hacia su mejor vecino, hasta obtener el resultado deseado. Se basa en que si existe
exactamente una solucin ptima, entonces esta debe ser un vrtice, y si existen mltiples,
al menos dos de ellas deben ser vrtices adyacentes (en problemas acotados). Y que si una
solucin en un vrtice es igual o mejor que todas las soluciones factibles en los vrtices
adyacentes a ella, entonces es igual o mejor que todas las dems soluciones en los vrtices.
Luego, es ptima.
El mtodo requiere llevar el problema en su formato estndar. Para ello:
Si existen variables libres, se debe sustituir por la diferencia de dos variables auxiliares no
negativas. Es decir, x1 = x1 x1 .
Si hay restricciones de desigualdades, se debe agregar variables de holgura para los casos
de o agregar variables de exceso (o restar variables de holgura) para los casos de .
Si el problema requiere maximizar una funcin, se debe cambiar al problema equivalente
utilizando la Equivalencia I.
Por notacin, el nmero de restricciones es m y el nmero de variables totales en este formato
es n.

Denicin: Una base es una submatriz de A formada por m columnas linealmente independientes. Permite despejar unas variables en trminos de otras para jar algunas con el n de
resolver un sistema de n n.
Denicin: Una solucin bsica del sistema Ax = b, x 0 es una solucin de la forma
x = [xB , xR ], donde xR = 0.

Una vez escogida la base, se debe reordenar el problema para que quede escrito de la siguiente
manera:
Jos Toms Marquinez -

jtmarquinezv@uc.cl

- 2012

Resumen Optimizacin

mn z = cTB xB + cTR xR
s.a. BxB + RxR = b
xR , xB 0

donde
xB Rm tiene las coordenadas de x que estn consideradas en la base actual. Es decir,
son las variables bsicas. Por construccin, en la iteracin actual xB 0.
xR Rnm tiene las coordenadas de x que no estn consideradas en la base actual. Es
decir, son las variables no bsicas. Por construccin, en la iteracin actual xR = 0.
B es la base.
R es una submatriz de A formada por n m columnas linealmente independientes.

Denicin: Una solucin bsica del sistema Ax = b, x 0 se llama solucin bsica factible
si xB 0. Corresponde a un vrtice del dominio.

Denicin: Se dice que un PPL est escrito en su formato cannico si se escribe de la


siguiente manera matricial, asociada a una base particular (no necesariamente ptima) xp :
mn z = (cpB )T xB + (cpR )T xpR
s.a. BxpB + RxpR = b
xpR , xpB 0

Una iteracin de Simplex:


I) Se calculan los siguientes componentes:
= B 1 R
R

b = B 1 b

II) b indica el valor actual de las variables bsicas, las cuales deben ser positivas por construccin. Por lo tanto, se verica que se cumpla el criterio de factibilidad . En caso de no
cumplirse, la base actual no es una base factible:
b = xB = B 1 b 0

Si el valor de una variable bsica es igual a cero, existe solucin degenerada (punto
sobredeterminado).
III) Se verica el criterio de optimalidad , que indica si la base actual es la base ptima.
En caso de que no, se debe continuar con la iteracin. El criterio indica que los costos
reducidos de las variables no bsicas no deben ser negativos (stos indican un aporte
marginal a la funcin objetivo). Si alguno de los costos reducidos es 0, entonces el
problema tiene soluciones mltiples:
0
cR = cR cB B 1 R = cR cB R

Si la base actual es la ptima, el valor de las variables es xR = 0, xB = b.


Jos Toms Marquinez -

jtmarquinezv@uc.cl

- 2012

Resumen Optimizacin

IV) Se verica el criterio de entrada. Entrar a la base aquella variable no bsica que tenga
costos reducidos menores (entre las que poseen costos reducidos negativos). Si el criterio
entrega ms de un p, se escoge arbitrariamente uno para continuar.
mn{
cRi } = cRp xp entra a la base.

V) Se verica el criterio de salida. Saldr de la base aquella variable que deba hacerse cero
para llegar al vrtice vecino ms cercano. Si el criterio de salida entrega ms de un s,
se escoge arbitrariamente. Si el criterio de salida no entrega ningn s, el problema es no
acotado:
 
b
b
mn
=
xs sale de la base.
a
ip >0
a
ip
a
sp
VI) Se actualizan los componentes xB , xR , B y R y se comienza nuevamente.
Una iteracin de Simplex usando la tcnica de tableau:
I) Se escribe la siguiente matriz (la primera
de qu va en qu columna):
xR
xB
B

la es usada como una gua para el calculista


xB z
xR z
R b

II) Pivotear la tabla completa de tal manera que en el cuadrante de B quede la matriz
identidad, y los nmeros sobre esta matriz sean ceros. De esa manera, la matriz pivoteada
quedar de la siguiente manera:
z
xR xB
0 cR ziter = cB B 1 b
b

I R

III) Se verica el criterio de optimalidad . Se verica que todos los valores en la casilla de cR
sean mayor o igual a cero.
IV) Se verica el criterio de entrada. Entrar a la base aquella variable no bsica que tenga
costos reducidos menores (entre las que poseen costos reducidos negativos). Por lo tanto,
entra a la base la variable que se encuentra inmediatamente arriba del menor valor de
los cR en la gua para el calculista.
V) Se verica el criterio de salida. Para ello, se destaca la columna de la variable que entra,
y se calcula el cuociente de los valores entre la columna de z y la columna destacada
(siempre y cuando estos ltimos sean > 0). Se debe destacar la la que contenga el
menor cuociente entre los calculados. Luego, saldr aquella variable que se encuentre
inmediatamente arriba (en la gua del calculista) del pivote (el 1 de la matriz identidad)
de la la seleccionada.

Jos Toms Marquinez -

jtmarquinezv@uc.cl

- 2012

Resumen Optimizacin

VI) Se cambia toda la columna de la variable entrante por la de la variable saliente y se


comienza de nuevo.
Fase I de mtodo Simplex:

Denicin: La fase I del mtodo Simplex utiliza el algoritmo de Simplex para encontrar una
solucin factible del problema original. Para ello, agrega variables auxiliares que hacen factible
una solucin que no lo es, al agregar dimensiones al problema.
I) Se agregan variables auxiliares en aquellas restricciones que no presentan pivotes para
la identidad que genera una solucin factible. Generalmente se agrega un variable tj por
cada restriccin j del problema.
II) Se escoge la matriz B del problema como aquella que forme la matriz identidad . En el
caso de haber agregado una variable por restriccin, la base estar conformada por las
variables auxiliares.
III) Se intenta que las variables auxiliares no sean necesarias para estar en una solucin
factible del problema original, por lo que se modica la funcin objetivo a la suma simple
de todas las variables auxiliares que se hayan agregado.
IV) Se comienza a iterar Simplex Fase II de este nuevo problema auxiliar hasta que el criterio
de optimalidad lo indique.
V) Si la base actual es tal que el valor ptimo de Fase I es igual a 0, entonces esa es la base
que se utiliza para comenzar a iterar Fase II del problema original. Si la base actual es
tal que el valor ptimo de Fase I es mayor a 0, entonces no existe solucin factible para
comenzar a iterar Simplex Fase II del problema original.

Jos Toms Marquinez -

jtmarquinezv@uc.cl

- 2012

Resumen Optimizacin

Captulo 5.- Anlisis de Sensibilidad.


Denicin: Se le dice Anlisis de Sensibilidad al arte de modicar parmetros del problema

para ver cmo se comporta la solucin del mismo. Asume una solucin ptima x obtenida de
una base ptima B .

Denicin: Los precios sombra indican el cambio global en la funcin objetivo al variar en
una unidad el lado derecho de una restriccin (una componente del vector b).

Variacin en los recursos bj :

Denicin: Los precios sombra indican el cambio global en la funcin objetivo al variar en
una unidad el lado derecho de una restriccin (una componente del vector b).
T =

z
= cTB [B ]1
b

Notemos que para el clculo de T se requiere que no cambie B . Por lo tanto, se requiere
estudiar el criterio de factibilidad.
Variacin en los costos ci :
Esto vara la pendiente de las curvas de nivel, por lo que podra cambiar la solucin ptima:
Requiere que el criterio de optimalidad de Simplex siga cumplindose.
Variacin en los factores tecnolgidos aij : Generalmente requiere un estudio desde cero, porque
ocurren ambas cosas simultneamente.
Agregacin de una variable xn+1 : Proceder como si hubiera cambiado un costo no bsico, ya
que no cambia el tamao de la base.

Jos Toms Marquinez -

jtmarquinezv@uc.cl

- 2012

Resumen Optimizacin

Captulo 6.- Teora de Dualidad.


Denicin: Sea el problema lineal siguiente:
P ) z = mn z = ~cT ~x
s.a. A~x ~b
~x 0

Se le llama problema dual a P al problema


D) w = mn w = ~y T~b
s.a. AT ~y ~c
~y 0

Para pasar de primal a dual, se requiere hacer lo siguiente:


I) Por cada restriccin j del problema primal se dene una variable dual yj .
II) Los costos del problema dual sern los recursos del problema primal ~b.
III) Los recursos del problema dual sern los costos del problema primal ~c.
IV) La matriz A ser transpuesta, y las variables que la acompaan sern las variables ~y .
V) Los signos de desigualdad de las restricciones y de la naturaleza variable del problema
dual va directamente relacionada con los del primal, segn la siguiente tabla:
Minimizacin

Maximizacin

Variables

Restricciones

0
0
Irrestrictas

Restricciones

Variables

0
0
Irrestrictas

Teorema: El Teorema Dbil de Dualidad nos dice lo siguiente: Sea ~x una solucin factible

del problema primal y sea ~y una solucin faactible del problema dual. Entonces, si el problema
primal es de minimizacin en ~x y el dual de maximizacin en ~y , entonces ~x, ~y factibles se
cumple que z(~x) w(~y ).

Corolario: Si alguno de los problemas es factible pero no acotado, entonces el otro problema
es infactible.

Corolario: Si alguno de los problemas es factible y el otro es infactible, entonces el problema


que admite solucin factible es no acotado.

Jos Toms Marquinez -

jtmarquinezv@uc.cl

10

- 2012

Resumen Optimizacin

Teorema: El Teorema Fuerte de Dualidad nos dice lo siguiente: Dado un par de problemas

primal-dual, si uno de ellos admite solucin ptima, entonces el otro tambin la admite y los
respectivos valores ptimos son iguales:
z(~x ) = ~cT ~x = ~bT ~y = w(~y )

Cada base ptima en el primal mapea una base ptima en el dual.


Se tiene, tambin, que ~y = ~ , es decir, los valores de las variables duales en su ptimo
representan los precios sombras de las restricciones respectivas en el primal.
Las holguras del dual son los costos reducidos del primal (y en el ptimo son 0). Adems,
si ~x no es ptimo para el problema P , entonces ~y no es factible para el problema D.
Sea ~x una solucin factible del problema primal y sea ~y una solucin factible del problema
dual. Entonces, si el problema primal es de minimizacin en ~x y el dual de maximizacin en
~y , entonces ~x, ~y factibles se cumple que z(~x) w(~y ).

Teorema: El Teorema de Holgura Complementaria nos dice que para el problema P y el


problema D, ambos factibles, se tiene que si ~x es ptima del primal y si ~y es ptima del
dual, entonces
!
n
X
yi bi
aij xj = 0,
i = 1, . . . , m
j=1
!
m
X
xj cj
aij yi = 0,
j = 1, . . . , n
i=1

Es decir, si una restriccin no es activa, entonces su correspondiente variable dual es nula.


Con respecto a las variables, se obtienen las siguientes relaciones (son bidireccionales):

En el Primal

En el Dual

Variables

Costos Reducidos asociados a Holguras

Holguras

Costos Reducidos asociados a Variables

Variables Bsicas

Costos Reducidos de Variables No Bsicas

Variables No Bsicas

Costos Reducidos de Variables Bsicas.

Mltiples Soluciones

Solucin Degenerada

Jos Toms Marquinez -

jtmarquinezv@uc.cl

11

- 2012

Resumen Optimizacin

Captulo 7.- Programacin Lineal Entera.


Denicin: Un modelo de Programacin Lineal Entera (PLE) es aqul cuyas variables son
enteras, y tanto sus restricciones como su funcin objetivo son lineales. Existen dos tipos que
se ven:
Problema entero puro: todas las variables son enteras.
P ) z = mn z = ~cT ~x
s.a. A~x ~b
~x Z+

Problema entero binario: todas las variables toman valores 0 1.


P B) z = mn z = ~cT ~x
s.a. A~x ~b
~x [0, 1]

Denicin: Un modelo de Programacin Lineal Mixto (PLM) es aqul con algunas variables

enteras o binarias y con otras continuas, y tanto sus restricciones como su funcin objetivo
son lineales (1 s p < n).
P B) z = mn z = ~cT ~x
s.a. A~x ~b
xj 0,
j = 1, . . . , s
xj [0, 1],
j = s + 1, . . . , p
+
xj Z ,
j = p + 1, . . . , n

Denicin: Sea el problema binario P B . El siguiente problema se llama relajacin lineal del
problema entero mixto binario original.
P RB) z 0 = mn z = ~cT ~x
s.a. A~x ~b
~x 0
0 xj 1,

j J {1, . . . , n}

Denicin: Sea el problema P . El siguiente problema se llama relajacin lineal del problema

entero original.

P R) z 0 = mn z = ~cT ~x
s.a. A~x ~b
~x ~0

Branch & Bound : (o Ramicacin y Acotamiento): Algoritmo que ramica el espacio de


soluciones cada vez que obtiene una solucin fraccionaria en alguna componente.
Jos Toms Marquinez -

jtmarquinezv@uc.cl

12

- 2012

Resumen Optimizacin

Denicin: En este contexto, se le llama incumbente a la mejor solucin entera obtenida

hasta el instante.

Supongamos que se desea resolver el problema P , cuyo espacio factible sin considerar la
naturaleza variable denotaremos R0 :
I) Se resuelve el problema relajado lineal del problema, P R. Si la solucin es entera, no se
acota ms la rama. Si el valor de la funcin objetivo es peor que el valor del incumbente,
no se acota ms la rama. Si el problema actual es infactible, no se resuelve ni se ramica.
Si la solucin posee alguna componente fraccionaria, digamos la componente k , entonces
se debe ramicar.
II) Si de decidi ramicar, entonces se crean dos subproblemas P R1 y P R2 , cuyos dominios
sern:
Para P R1 R1 = R0 {x : xk bxk c + 1}
Para P R2 R2 = R0 {x : xk bxk c}
III) Se contina con cada rama reiniciando el algoritmo recursivamente.
Se tiene que el valor ptimo de las ramas ser siempre peor al valor ptimo del nodo desde
donde fue ramicado.
A su vez, se puede denir el GAP o Brecha de Optimalidad, que indica qu tan lejos estamos
del ptimo, con zRL el mejor valor no entero actual y zL el mejor valor entero actual:
=

zRL zL
zRL

Planos Cortantes:

Denicin: Un plano cortante es una restriccin redundante para la formulacin del problema
pero que corta soluciones fraccionarias de la relajacin lineal. De esta manera, se intenta hacer
que el poliedro formado por las restricciones tengan como vrtices soluciones enteras, como
se muestra en la siguiente gura. Esto se puede hacer con la ayuda del grco del problema.

Mtodo de Gomory:

Denicin: El Mtodo de Gomory es una tcnica antigua de corte del espacio, utilizando
un algoritmo claro de resolucin que impide que la solucin ptima del problema relajado sea
Jos Toms Marquinez -

jtmarquinezv@uc.cl

13

- 2012

Resumen Optimizacin

solucin del prximo problema a resolver, sin exclur soluciones enteras del espacio. Este es el
siguiente:
I) Resolver el problema de relajacin lineal P R. Si la solucin resultante tiene todas las
componentes enteras, no seguir. Si alguna es entera, realizar un corte.
II) Obligar a que se cumpla lo siguiente:
X
(
akj b
akj c)(xR )j (bk bbk c)
jVNB
en donde VNB es el conjunto de ndices de las variables no bsicas, akj son coecientes
de B 1 R y b = B 1~b. De esta manera, se obtienen cortes vlidos para los valores de las
variables no bsicas. De las restricciones del problema estndar se pueden obtener igualdades que permitan escribir estas nuevas restricciones en trminos de lo que convenga
(en particular, de las variables principales para poder gracarlo).

Es til mezclar los mtodos, y ejecutar Branch & Bound con algunos cortes includos en el
problema, para fortalecer la formulacin.

Jos Toms Marquinez -

jtmarquinezv@uc.cl

14

- 2012

Resumen Optimizacin

Captulo 8.- Flujo en Redes.


Se asumen conocimientos bsicos de grafos, rbol, camino y circuito.
Problema de Flujo a Costo Mnimo: Se busca determinar los ujos en los arcos de la red de
modo que los elementos ofrecidos (o demandados) sean transportados hasta los puntos de
demanda al menor costo posible, satisfaciendo las restricciones de capacidad y ujo mnimo
por arco.

Notacin: Para estos problemas se tiene un grafo dirigido G = (V, A), en el que a cada nodo
i V se le asocia una oferta bi (demanda si es < 0), con

n
X

= 0. A cada arco (i, j) A

i=1

se le asocia un costo unitario de transporte cij , una cota mnima de transporte lij 0 una
capacidad mxima de transporte uij lij .
El modelo quedar dado, con xij la cantidad de productos que irn del nodo i al nodo j por
el arco (i, j), por
X
mn
cij xij
s.a.

X (i,j)A X
xij +
xki = bi
(i,j)A

i V

Conservacin de ujo

(k,i)A

xij
xij

uij (i, j) A Capacidad mxima


lij (i, j) A Capacidad mnima (no negatividad)

La estructura de estos problemas tienen una bondad adicional debido a que la matriz de
restricciones del problema es totalmente unimodular (tambin se dice que es de capacidad
mxima) (determinante de cada una de sus submatrices cuadradas es 0, 1 -1): hace que los
vrtices del poliedro sean puntos enteros del espacio vectorial.
Simplex Especializado en Redes: Permite resolver los problemas de ujo a costo mnimo y
anlogos. Se mueve de un rbol generador (o base) a otro, hasta encontrar el ptimo.
I) Se debe encontrar un criterio de factibilidad de la red, es decir, un grafo conexo y sin
circuitos que abarque todos los nodos del problema sin generar circuitos. Adems, este
grafo debe permitir un ujo inicial factible.
II) Con la ayuda del rbol, determinar las variables bsicas y las no bsicas. Las variables
bsicas son aquellos ujos xij tales que lij xij uij . Las variables no bsicas son
aquellas que xij = lij xij = uij . Luego, es fcil ver que todo ujo que cumple
lij < xij < uij debe ser un ujo bsico.
III) Dado que los costos reducidos de las variables bsicas deben ser 0, se calculan los valores
de las variables duales i , teniendo en cuenta que los grados de libertad del problema
permiten jar una de esas variables arbitrariamente.
cij = cij i + j = 0
Jos Toms Marquinez -

jtmarquinezv@uc.cl

15

- 2012

Resumen Optimizacin

IV) Se verica el criterio de optimalidad , que indica si la base actual es ptima. Para ello, se
verican que se cumplan las siguientes condiciones para las variables no bsicas:
cij = cij i + j 0
cij = cij i + j 0

si
si

xij = lij
xij = uij

Si el criterio no se cumple, entonces se debe continuar al siguiente punto. Si el criterio


se cumple, entonces se termina de iterar, y la base actual es la ptima. Si el valor de
alguno de estos costos reducidos es cero, el problema presenta mltiples soluciones.
V) Se verica el criterio de entrada, que indica qu variable entrar a la base, es decir,
cul arco se incorpora al rbol actual. Si el criterio entrega ms de un par (p, q), se
escoge arbitrariamente uno para continuar. La variable que entra ser aquella con mxima
violacin de optimalidad.


mn
mn
{
cij } ,
max
{
cij } = cpq xpq entra a la base.
cij <0 si xij =lij
cij >0 si xij =uij
VI) Al ingresar el arco (p, q) a la base, se generar un circuito en el rbol generador, que
indicar los arcos cuyo ujo se ver modicado por la reasignacin. El criterio de salida
nos indica cul es el arco que acotar dicha reasignacin de ujo . Ese arco, una vez
reasignado el ujo, ser el que salga de la base. Si el criterio de salida entrega ms de
un par (r, s), se escoge arbitrariamente uno para continuar:


mn upq lpq , mn {xij lij } , mn {uij xij } = rs xrs sale de la base.
(i,j)C1

(i,j)C2

donde C1 son los arcos del circuito formado que siguen el sentido del ujo, y C2 son los
arcos del circuito formado que siguen el sentido contrario del ujo. La variable entrante
domina el sentido del ujo.
Si el criterio de salida no entrega ningn par (r, s), entonces el problema es un problema
no acotado.
Notemos que puede ocurrir que la base no cambie (en el caso de que el mnimo sea
upq lpq ), ya que para encontrar el punto de la iteracin siguiente slo bastaba reasignar
el ujo.
VII) Se actualizan los ujos, haciendo:
xnuevo
= xij + 
ij

si xij C1

xnuevo
= xij 
ij

si xij C2

y se comienza nuevamente.
Anlisis de Sensibilidad para Flujo a costo mnimo: Sigue el mismo criterio que Simplex lineal,
analogizndolo de manera correcta.

Jos Toms Marquinez -

jtmarquinezv@uc.cl

16

- 2012

Resumen Optimizacin

Problema de Flujo Mximo: Consiste en determinar la mxima cantidad de glujo que se puede
transportar a travs de una red desde un nodo de origen a otro de destino.

Denotacin: Para estos problemas se tiene un grafo dirigido G = (V, A), en el que cada arco
(i, j) A tiene una se le asocia una cota mnima de transporte lij y una capacidad mxima
de transporte ulj , y no tiene costo asociado. Existen dos nodos especiales: un nodo de origen
r V y un nodo de destino s V .
El modelo quedar dado, con xij el ujo en el arco (i, j) y F el valor del ujo que entra en el
origen, por
max

s.a.

F
X

xij

(i,j)A

F si i = r
0 si i 6= r, s
=
i N

F si i = s

xki

(k,i)A

lij xij uij

(i, j) A

Denicin: Un corte de la red que separa r y s dene un subconjunto de nodos S V tal


que r S y s (V S), cuyo valor de corte o capacidad est dada por
X
C(S) =
uij
(i,j):iS,j(V S)

El corte con la capacidad ms pequea se denomina corte mnimo y limita el ujo de la red.
Es decir, F C(S), S V .

Teorema: El Teorema de Ford & Fulkerson indica que el mximo valor de ujo (si existe)

que se puede enviar desde el origen al destino es igual a la capacidad de un corte mnimo.

Algoritmo de Ford-Fulkerson: Construye iterativamente el ujo mximo a partir de un


ujo factible, en que en cada iteracin se identica un camino de aumento de ujo con respecto
al ujo existente.
I) Se comienza considerando que todos los arcos (i, j) de un grafo G(V, A) poseen ujo 0
o algn ujo factible.
II) Mientras existe un camino p desde r hacia s en la red residual, se calcula la capacidad
mxima de dicho camino:
fp = mn {uij }
(i,j)p

III) A todos los arcos (i, j) p se le resta la cantidad fp en la red. Es decir, se asume que
se pasar esa cantidad por camino. Se recomienda anotar en cada arco la cantidad fp de
esa iteracin, para despus saber cul es el ujo por cada arco. Se vuelve al paso II).
IV) Una vez que no queden caminos posibles de r a s con fp > 0, se ha terminado. El ujo
mximo es
X
F =
fp
p encontrados

Jos Toms Marquinez -

jtmarquinezv@uc.cl

17

- 2012

Resumen Optimizacin

Problema de la Ruta ms Corta: Consiste en determinar un camino dirigido en el grafo que


conecte a un nodo con otro nodo a costo mnimo.

Denotacin: Para estos problemas se tiene un grafo dirigido G = (V, A), en el que cada

arco (i, j) A tiene una se le asocia un costo de transporte cij . Se denotan dos nodos como
especiales: un nodo de origen r V y un nodo de destino s V .
El modelo quedar dado, con xij variable binaria relajada que indica si se usar el arco (i, j)
para llegar de r a s, por
mn

n X
n
X

cij xij

i=1 j=1

s.a.

n
X
j=1

xij

n
X

xki

k=1

xij {0, 1}

Algoritmo de

1 si i = r
1 si i = s

0 si i =
6 r, s

i N

(i, j) A

Dijkstra: Iterativamente determina el camino ms corto para llegar a un

nodo nuevo hasta determinar el del nodo origen.

I) El conjunto V de nodos se particiona en dos subconjuntos S y (V S). Un nodo


pertenece a S si se conoce la ruta ms corta para llegar a l desde el nodo origen r. Por
lo tanto, (V S) contiene el resto de los nodos.
Para cada nodo i se dene un valor di = que indica la distancia o costo total necesario
para llegar al nodo i utilizando el mejor camino, y un valor ni = j que indica el nodo j
desde el cual es conveniente entrar al nodo i.
II) Sea S = r, dr = 0, nr = r.
III) Para el ltimo nodo i en ingresar a S , se evalan todos los nodos j
/ S que tienen en
comn un arco con i. Para todos esos nodos j , se actualiza el valor
dj mn{dj , di + cij }, (i, j) A, j
/S

IV) Si dantiguo
< dnuevo
, entonces actualizar nj i.
j
j
V) Sea k (V S) tal que
dk = mn{di : i (V S)}

VI) Si k = s, entonces seguir al paso VII). Si k 6= s, hace S = S {k} y retomar en el paso


III).
VII) El camino ptimo para llegar del nodo r al nodo s queda determinado por los valores
nv , reconstruyendo el camino desde el destino hacia el origen.
Notemos que el algoritmo permite encontrar el camino ptimo desde un nodo origen hacia
cualquier nodo i si se decide que el algoritmo termine una vez que S = V .
Jos Toms Marquinez -

jtmarquinezv@uc.cl

18

- 2012

Resumen Optimizacin

Captulo 9.- Optimizacin No Lineal Sin Restricciones.


Esta seccin considerar un problema estndar
mn f (~x)
s.a. ~x Rn

Denicin: Un modelo de Programacin No Lineal es aqul cuyas variables son continuas,


y alguna de sus restricciones o funcin objetivo son no lineales.

Teorema: (Condicin necesaria) Sea f diferenciable y sea x mnimo local de f . Entonces

f (x ) = ~0.

Denicin: Un punto estacionario o punto crtico es aqul punto x que satisface el teorema
anterior. Estos puntos se pueden identicar como candidatos a mnimo.

Teorema: (Condicin necesaria de segundo orden) Sea f : Rn R una funcin de clase




C 2 . Si x Rn un mnimo local de f (~x), entonces se tiene que f (~x) = ~0 y que H f (x ) =


2 f (x ) es semidenida positiva1 .
n
2

Teorema: (Condicin suciente)


 Sea f : R R una funcin clase C . Sea el punto x

tal que f (x ) = ~0. Si H f (x ) = 2 f (x ) es denida positiva, x es mnimo local estricto


de f .

Teorema: Una funcin f es convexa en si y solo si H f (~x) es una matriz semidenida
positiva, para todo ~x . (Y es cncava si y solo si es una matriz semidenida negativa).

Teorema: Si H f (~x) es una matriz denida positiva para todo ~x , entonces la funcin
f es estrictamente convexa en .
Mtodo del Gradiente o Descenso ms pronunciado de Cauchy: Mtodo iterativo que comienza
en un punto factible y se aproxima a un punto que satisfaga condiciones locales de optimalidad,
siguiendo una direccin de movimiento por iteracin.
I) Comenzar el algoritmo con un punto factible inicial ~xk = ~x0 Rn .
1

Una matriz cuadrada, invertible y simtrica

es

semidenida positiva

si todos los determinantes de sus

submatrices son positivos o cero. De manera similar, lo mismo ocurre si todos los valores propios de
positivos o cero.
Una matriz cuadrada, invertible y simtrica

es

denida positiva

Una matriz cuadrada, invertible y simtrica

Ann

con

es

Una matriz cuadrada, invertible y simtrica


con

son

semidenida negativa si los determinantes de sus submatrices

impar son negativos o cero, y todos los determinantes de sus submatrices

positivos o cero.

Ann

son

si todos los determinantes de sus subma-

trices son estrictamente positivos. De manera similar, lo mismo ocurre si todos los valores propios de
estrictamente positivos.

es

denida negativa

Ann

son estrictamente positivos.

jtmarquinezv@uc.cl

19

par son

si los determinantes de sus submatrices

impar son estricamente negativos, y todos los determinantes de sus submatrices

Jos Toms Marquinez -

con

- 2012

Ann

con

par

Resumen Optimizacin

II) Determinar la direccin de descenso o direccin de mximo decrecimiento. Esta queda


determinada por ~hk = f (~xk ).
III) Si ~hk = ~0 terminar de iterar, pues tenemos un punto estacionario de f . Si no, resolver el
problema:

mn f (~xk + tk ~hk ) = f ~xk tk f (~xk )
s.a. t > 0
tk se denomina tamao del paso

IV) Actualizar el punto ~xk+1 ~xk + tk hk , y la iteracin k k + 1. Volver al paso II.


Es posible determinar otros criterios de parada, como que ||f (~xk )||  , ||~xk+1 ~xk || ,
||f (~xk+1 ) f (~xk )|| , o k > r.
Este algoritmo es de convergencia lineal.

Teorema: Sea ~x mnimo local de f . Entonces, existe r > 0 tal que si el mtodo del gradiente
es iniciado desde un punto ~x0 tal que ||~x ~x0 || < r, este converge a ~x .

Luego, si f es estrictamente convexa y tiene mnimo, entonces el mtodo converge desde


cualquier punto de partida.
Mtodo de Newton: Mtodo iterativo que comienza en un punto factible y se aproxima a un
punto que satisfaga condiciones locales de optimalidad, siguiendo una direccin de movimiento
por iteracin. Utiliza informacin de segundo orden.

Algoritmo de Newton: (primera versin)


I) Comenzar el algoritmo con un punto factible inicial ~xk = ~x0 Rn .
II) Determinar el f (~xk ) = ~0. Si resulta ser igual a ~0, entonces terminar de iterar, pues
tenemos un punto estacionario de f . Si no, continuar.
III) Actualizar el punto ~xk+1 ~xk [2 f (~xk )]1 f (~xk ), y la iteracin k k + 1. Volver
al paso II).

Algoritmo de Newton: (segunda versin)


I) Comenzar el algoritmo con un punto factible inicial ~xk = ~x0 Rn .
II) Determinar el f (~xk ) = ~0. Si resulta ser igual a ~0, entonces terminar de iterar, pues
tenemos un punto estacionario de f . Si no, continuar.
III) Sea ~hk = [2 f (~xk )]1 f (~xk ). Resolver el problema:

mn f (~xk + tk ~hk ) = f ~xk tk [2 f (~xk )]1 f (~xk )
s.a. t 0
tk se denomina tamao del paso

IV) Actualizar el punto ~xk+1 ~xk + tk hk , y la iteracin k k + 1. Volver al paso II).


Jos Toms Marquinez -

jtmarquinezv@uc.cl

20

- 2012

Resumen Optimizacin

Se pueden determinar otro criterios de parada.


El algoritmo converge cuadrticamente. Si la funcin es cuadrtica, el mtodo converge en
una iteracin.

Jos Toms Marquinez -

jtmarquinezv@uc.cl

21

- 2012

Resumen Optimizacin

Captulo 10.- Optimizacin No Lineal Restringida.


Esta seccin considerar un problema estndar
mn
f (~x)
s.a. gi (~x) 0 i = 1, . . . , m
~x Rn

Denotaremos el conjunto de soluciones factibles de P ) como = {~x Rn : gi (~x)

bi , i = 1, . . . , m}.

Denicin: Sea ~x . Un vector d~ Rn es una direccin factible en con respecto ~x si


~ , (0, ].
existe  > 0 tal que (~x + d)

Denicin: El conjunto de direcciones factibles en ~x es el conjunto D(~x) = {d~ Rn :


d~ es direccin factible de con respecto a ~x}.

Denicin: Un conjunto de ndices activos I(~


x) es el conjunto de los ndices
de las restricciones que estn activas en un punto: I(~x) = i {1, . . . , m} : gi (~x) = bi

Denicin: Un cono tangente T (~x) es el cono generado por los gradientes de las restricciones

activas en ese punto, denido como T (~x){= ~ Rn : gi (~x)T ~h 0, i I(~x)}. Las


direcciones factibles estn en el cono tangente T (~x).
Caso Unidimensional:

P ) mn
f (x)
s.a. a x b
xR

Teorema: (Condicin Necesaria de Primer Orden) Sea f : R R. Si x [a, b] es un punto


mnimo local de P ), entonces

Si x = a f 0 (x ) 0.
Si x = b f 0 (x ) 0.
Si a < x < b f 0 (x ) = 0.

Teorema: (Condicin Suciente de Primer Orden) Sea f : R R. Si x [a, b] es un punto

mnimo local de P ), entonces

Si x = a y f 0 (x ) > 0 x es mnimo local estricto de P ).


Si x = b y f 0 (x ) < 0 x es un mnimo local estricto de P ).

Teorema: (Condicin Suciente de Segundo Orden) Sea f : R R perteneciente a la clase


C 2 . Si x [a, b] es un punto mnimo local de P ), entonces

 

Si x = a f 0 (a) 0 f 00 (a) 0 si f 0 (a) = 0 .
Jos Toms Marquinez -

jtmarquinezv@uc.cl

22

- 2012

Resumen Optimizacin

 

00
0
Si x = b f (a) 0 f (b) 0 si f (b) = 0 .

 


0
00
Si a < x < b f (x ) = 0 f (x ) 0 .

Si se tiene ms de un mnimo local, se deben comparar todos para encontrar el mnimo global
del problema P ).
Problema con Restricciones de Igualdad:
P ) mn f (~x)
s.a. hi (~x) = ai
x Rn

i = 1, . . . , m

Teorema de Lagrange: (Condicin Necesaria de Primer Orden) El Teorema de Lagran-

ge dice que si ~x (punto factible regular) es ptimo local del problema, entonces existen
multiplicadores de Lagrange 1 , . . . , m tales que
f (~x ) +

m
X

i hi (~x ) = 0

i=1

Denicin: La funcin L a continuacin se llama funcin Lagrangeana o Lagrangeano:


L(~x, ~) = f (~x) +

m
X

i hi (~x) ai

i=1

Es posible reescribir el problema como


mn L(~x, ~)
(~
x,~)

s.a.

L
L(~x , ~ ) = 0
x
L
L(~x , ~ ) = 0

Luego, (~x , ~ ) es un punto estacionario del Lagrangeano.

Denicin: Se dice que el punto ~x es regular (o que cumple las condiciones de regularidad)
si el Jacobiano2 J (~x) de las restricciones es de rango mximo, es decir, son linealmente
independientes. De lo contrario, se dice que el punto es singular .

h1 (~x)
h2 (~x)

2 J (~
x) =

.
.

.
hm (~x)

Jos Toms Marquinez -

jtmarquinezv@uc.cl

23

- 2012

Resumen Optimizacin

Para que los puntos estacionarios ~x sean ptimos locales, debe cumplirse que
x

2 L(~x , ~ ) T
x 0
x2

As, la condicin necesaria de segundo orden ser que el Hessiano del Lagrangeano sea semidenido positivo en el subespacio denido por las restricciones. Y la condicin suciente
de segundo orden ser que el Heddiano del Lagrangeano debe ser denido positivo en dicho
subespacio. En este caso, el punto ser mnimo local estricto.
Luego, basta evaluar los puntos en el Hessiano para determinar la naturaleza de los puntos.
Interpretacin de los Multiplicadores de Lagrange: El valor i es la sensibilidad del valor ptimo
o precio sombra frente a una variacin unitaria en el parmetro ai de la restriccin i. Si ~x es
un punto mnimo local:
f (~x )
L(~x )
=
= i
ai
ai
Problema con Restricciones de Desigualdad: El problema diere en que las condiciones de
optimalidad son distintas si se trata de un punto en el borde del dominio (restricciones activas)
o de un punto interior (todas inactivas).
P ) mn
f (~x)
s.a. gi (~x) bi i = 1, . . . , m
~x Rn

Teorema: La condicin necesaria de Karush-Kuhn-Tucker (KKT) dice que para un ~x mnimo

local del problema P ), si se cumple la condicin de regularidad en el punto ~x , entonces existen


multiplicadores 1 0, 2 0, . . . , m 0 tales que:

f (~x ) +

m
X

i gi (~x ) = 0

i=1

~ bi = 0,
i gi (x)

i = 1, . . . , m Condiciones de holgura complementaria

Estas son las denominadas condiciones de KKT .

Denicin: Se dice que el punto ~x cumple con la condicin de regularidad (o es regular) si


el conjunto T (~x) dene al conjunto de las direcciones factibles.

Denicin: Se dice que el punto ~x es regular para las restricciones del problema si los

gradientes gi (~x), i I(~x) son linealmente independientes.

El problema se puede redenir con el uso del Lagrangeano del problema:


L(~x, ~) = f (~x) +

m
X

i gi (~x) bi

i=1
Jos Toms Marquinez -

jtmarquinezv@uc.cl

24

- 2012

Resumen Optimizacin

en el que (~x , mu
~ ) es punto estacionario del problema mn(~x,~),0 L(~x, ~).
Luego, las condiciones de KKT necesarias para el siguiente problema de minimizacion/ maximizacin
mn
P)
f (~x)
max
s.a. gi (~x) bi i = 1, . . . , m
xj 0
j J, j {1, . . . , n}
son, usando el Lagrangeano
L(~x, ~ = f (~x) +

m
X

i gi (~x) bi

i=1

L
xj
L
n+1...n+m)
i
L
n+m+1...2n+m)
xj
xj
L
2n+m+1...2n+2m)
i
i
2n+2m+card(J))
xj
2n+3m+card(J))
i
)

1...n

0
0

j = 1, . . . , n

i = 1, . . . , m

=0

j = 1 . . . , m

=0

i = 1, . . . , m

0
0

j J
i = 1, . . . , m

Teorema: (Suciencia de las condiciones de KKT) Si ~x , solucin factible de P ), es un punto

que satisface las condiciones de KKT, y P ) es un problema convexo, encontes ese punto es
mnimo global del problema (no requiere regularidad del punto ptimo).

Teorema: (Condicin de segundo orden de KKT) Sea ~x punto regular tal que se cumple
KKT con multiplicadores ~ . Se tiene que:
Si ~x es mnimo local, entonces
2 L(~x , ~ ) ~
d~T
d 0,
x2

d~ K(~x )

Por otra parte, si

2 L(~x , ~ ) ~
d~T
d > 0, d~ K(~x ), d~ 6= ~0
x2
entonces ~x es mnimo local estricto del problema.

Jos Toms Marquinez -

jtmarquinezv@uc.cl

25

- 2012

Resumen Optimizacin

Captulo 11.- Programacin Dinmica.


Pendiente

Aclaracin 1: Esto es un RESUMEN, por lo que puede haber parte de la materia no incluida
intencionalmente.

Aclaracin 2: Es posible que algo est mal tipeado.

Jos Toms Marquinez -

jtmarquinezv@uc.cl

26

- 2012

Вам также может понравиться