Вы находитесь на странице: 1из 25

UNIVERSIDAD NACIONAL DE TRUJILLO

FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS


DEPARTAMENTO DE MATEMÁTICAS

INFORME FINAL

Minimización de funciones convexas sobre la envoltura


convexa de un conjunto finito de puntos usando el
método de puntos interiores
Maestrı́a en Ingenierı́a Matemática.

AUTOR: DRA. LIC. LEYDIDIANA GAMBOA FERRER

ASESORA: DRA. JENNY ROJAS JERONIMO

TRUJILLO - PERÚ
Febrero - 2015
ii
Índice general

1. Material y Métodos 3
1.1. Resultado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2. Análisis y Discusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1. Convexidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.2. Formulación del problema . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.3. Algoritmo del punto interior . . . . . . . . . . . . . . . . . . . . . . . 16
1.3. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

iii
iv ÍNDICE GENERAL
Introducción

La Optimización es muy importante en la resolución de problemas aplicativos, en las


diferentes áreas de la ciencia, su finalidad es determinar las soluciones que representen el
valor óptimo, al maximizar o minimizar una función objetivo, la que constituye una relación
matemática entre las variables de decisión, parámetros y una magnitud que representa el
objetivo.
Cuando la función objetivo y todas las funciones que definen las restricciones son lineales
y son definidas sobre Rn se tiene un problema de optimización lineal o también conocido
como problema de Programación lineal (PL) continua, en otro caso, es un problema de Pro-
gramación no lineal [2]. Sin embargo cuando la función objetivo es una función convexa y las
restricciones definen una región convexa, el problema es uno de Programación convexa, que
es el que vamos a tratar en el presente trabajo[1].
Durante décadas el método Simplex ha sido el método preferido para resolver problemas de
programación lineal continua. Sin embargo, desde el punto de vista teórico, el tiempo de
cálculo requerido por este método, para resolver un problema lineal, crece exponencialmente
a medida que el número de variables más el de restricciones del problema aumentan, esto es
según el tamaño del problema. Este crecimiento exponencial corresponde al peor caso posible
y que puede presentarse en muchos casos reales[4].
Muchos investigadores trataron de desarrollar algoritmos cuyos tiempos de cálculo crecie-
ra en tiempo polinomial con el tamaño del problema. En 1987 Karmarkar[4] anuncio el
desarrollo de un nuevo algoritmo para resolver problemas de PL grandes, cuya complejidad
computacional es polinomial y resulto altamente competitivo frente al método simplex en la
solución de problemas de grandes dimensiones. Este algoritmo se basa en la búsqueda del
óptimo a través de puntos del interior de la región factible, de allı́ el nombre de algoritmo de
punto interior[5,6]. En realidad el algoritmo de Karmarkar y todas sus variantes se conocen
como algoritmos de punto interior [6]. En este informe presentamos un algoritmo de punto
interior para resolver un problema de optimización lineal que define una función f : Rn → R
convexa y diferenciable sujeta a la envoltura convexa de los puntos de Rn , Z = {‡∞ , · · · , ‡m }.
El problema es resolver:

mı́n f (z) (0.0.1)


s.a. : z ∈ convZ (0.0.2)

Se muestra que la principal dificultad para resolver este problema usando el método Simplex,
es que conocer explı́citamente convZ no es tarea fácil. Por otro lado si m es mayo que

1
2 ÍNDICE GENERAL

d = dim{convZ} entonces la aplicación afı́n Λ := Λ → convZ tal que α → Zα no es inyectiva


y en general cualquier x en la envolvente convexa de Z tiene más de una representación de
la forma x = Zα, α ∈ Λ. .
Capı́tulo 1

Material y Métodos

Los materiales de este trabajo están constituidos por los conceptos y teorı́as a de la pro-
gramación lineal, programación convexa, funciones convexas sobre un simplex, Coordenadas
baricéntrica, proyección de direcciones sobre simplexes y método de punto interior para pro-
blemas de optimización lineal. Además se hace uso de los conceptos del álgebra lineal y de
análisis real.
Se utiliza el método constructivo, para la generación del algoritmo que caracteriza la
metodologı́a propuesta, mediante el siguiente procedimiento:
1. Formulación del problema de minimizar una función convexa diferenciable, definida
sobre la envolvente convexa de m puntos cada uno en Rn .

2. Basado en las coordenadas baricéntricas, se describe un algoritmo que permite resolver


el problema planteado.

3. Usando el método de punto interior para resolver el problema de optimización, se


describe un nuevo algoritmo para resolver el problema.

4. Se mostrara las ventajas y desventajas del algoritmo usando el método de puntos


interiores.

1.1. Resultado
El planteamiento general de un problema de Optimización que se resuelve es:
Min f (x)
s.a. x ∈ conv(Z)
 
z11 z12 . . . z1m
 1 2
z2 z2 . . . z2m 

∞ ∈ m
donde Z = {‡ , ‡ , . . . , ‡ } es un conjunto finito de puntos en R , y Z = 
n
 .. .. .. .. 
. . . . 

1 2
zn zn . . . znm
i
la matriz n × m con columnas z y f : R → R una función convexa diferenciable.
n
Este
problema es equivalente a:

3
4 CAPÍTULO 1. MATERIAL Y MÉTODOS

Min g(α)
s.a. α ∈ Λ

donde
Xm
g(α) := f ( αi z i ) = f (Zα)
i=1
m
X
m
Λ := {α ∈ R : αi ≥ 0, αi = 1}.
i=1

Considerando una función f cuadrática y estrictamente convexa, entonces H = ∇2 (g(α))


es una matriz fija. Si f es cuadrática, convexa y ∇2 (g(α)) = I, entonces f tiene la forma
cuadrática (x − xc )T (x − xc ) y en el problema equivalente se precisa encontrar la proyección
de xc al poliedro conv(Z) = {Zα : α ∈ ∗}.
El algoritmo usa las coordenadas baricéntricas para representar puntos interiores del poliedro
y generar nuevos puntos en él con coordenadas positiva. En particular el algoritmo puede
ser usado para calcular la proyección ortogonal de un punto xc ∈ Rn hacia el poliedro.

1.2. Análisis y Discusión


1.2.1. Convexidad
Definiciones básicas y algunas propiedades:

Definición 1.2.1 Sean x1 , x2 ∈ Rn , el SEGMENTO CERRADO que une los puntos x1 y x2 ,


es el conjunto denotado por [x1 , x2 ] y definido como:

[x1 , x2 ] := { λ x1 + (1 − λ) x2 ∈ Rn tal que λ ∈ [0, 1] }

Definición 1.2.2 Sean x1 , x2 ∈ Rn , el SEGMENTO ABIERTO que une los puntos x1 y x2 , es


el conjunto denotado por (x1 , x2 ) y definido como:

(x1 , x2 ) := { λ x1 + (1 − λ) x2 ∈ Rn , tal que λ ∈ h0, 1i }

Definición 1.2.3 Un conjunto X ⊂ Rn es un CONJUNTO CONVEXO, si todo segmento que


une dos elementos arbitrarios de X está contenido en X. Esto es:

X es un conjunto convexo si y sólo si ∀ x1 , x2 ∈ X, [x1 , x2 ] ⊂ X

Equivalentemente:

∀ x1 , x2 ∈ X se tiene que t1 x1 + t2 x2 ∈ X con t1 + t2 = 1, 0 ≤ ti ≤ 1 , i = 1, 2

Las figuras (a) y (b) representan un conjunto convexo y uno no convexo, respectivamente.
Notemos que en el conjunto de la figura (b) existen dos puntos para los que parte del segmento
que los une no está contenido en dicho conjunto.
1.2. ANÁLISIS Y DISCUSIÓN 5

OBS: Por convenio, el conjunto vacı́o es convexo.

Definición 1.2.4 Sea x ∈ Rn , diremos que x es COMBINACIÓN CONVEXA de los puntos


x1 , x2 , ... , xm ∈ Rn cuando existan m números reales t1 , t2 , ... , tm no negativos y cuya
suma sea la unidad, que verifiquen que:

x = t1 x1 + t2 x2 + ... + tm xm

Es claro que x ∈ Rn es combinación convexa de x1 , x2 ∈ Rn si y sólo si x ∈ [x1 , x2 ]


La siguiente proposición caracteriza a los conjuntos convexos.

Teorema 1.2.1 (Caracterización de Conjuntos Convexos) Un conjunto no vacı́o A ⊂ Rn


es convexo si y sólo si
t1 x1 + ... + tm xm ∈ A ∀ m ∈ N
m
X
∀ xi ∈ A donde 0 ≤ ti ≤ 1, i = 1, ..., m tal que ti = 1.
i=1

Demostración:
m
X m
X
⇒) Si A es convexo entonces ti xi ∈ A con xi ∈ A, ti = 1 , 0 ≤ ti ≤ 1, i = 1, ..., m.
i=1 i=1
En efecto, por inducción:
para m = 2 se cumple, pues por definición A es convexo si se tiene que ∀x1 , x2 t1 x1 +t2 x2 ∈
A donde t1 + t2 = 1 y t1 , t2 ∈ [0, 1]
Para m − 1 (H.I.), supongamos que A es convexo si:
m−1
X m−1
X
ti xi ∈ A , ti = 1 , xi ∈ A, 0 ≤ ti ≤ 1, i = 1, ..., m − 1.
i=1 i=1

Demostremos que se cumple para m , es decir, verificaremos:


m
X m
X
ti xi ∈ A ∀ xi ∈ A, tal que ti = 1 . . . (∗) , 0 ≤ ti ≤ 1, i = 1, ..., m
i=1 i=1

En efecto:

sabemos que:
m
X m−1
X
ti xi = ti xi + tm xm
i=1 i=1
m−1
X
Sea t = ti entonces:
i=1
m m−1
X X ti
ti xi = t x + t m xm
i=1 i=1
t i
6 CAPÍTULO 1. MATERIAL Y MÉTODOS

m−1 m−1
X ti X
Sea y = xi , como 0 ≤ ti ≤ 1 entonces 0 ≤ ti ≤ ti = t
i=1
t i=1
luego:
ti
0≤ ≤1
t
Además:
m−1 m−1
X ti 1X 1
= ti = . t = 1
i=1
t t i=1 t
y como
xi ∈ A

por lo tanto y ∈ A(por la (H.I.).


Ası́ tenemos:
Xm
ti xi = t y + tm xm , y ∈ A, xm ∈ A
i=1

Además:
m−1
X m
X
t + tm = ti + tm = ti = 1
i=1 i=1
m
X
∴ ti xi ∈ A
i=1

pues A es convexo.

⇐) Demostraremos que si:

t1 x1 + ... + tm xm ∈ A, ∀ m ∈ N, ∀ xi ∈ A, 0 ≤ ti ≤ 1, i = 1, ..., m
m
X
tal que ti = 1 entonces A es convexo. En efecto: tomando m = 2 se cumple definición
i=1
de convexidad. 2

Veamos la definición de función convexa y unas propiedades importantes:

Definición 1.2.5 Sea f : X → R una función definida sobre un conjunto convexo X ⊂


Rn (X 6= Φ) , entonces f es una FUNCIÓN CONVEXA sobre X si:

f (t x1 + (1 − t) x2 ) ≤ t f (x1 ) + (1 − t) f (x2 ) ∀ x1 x2 ∈ X, t ∈ [0, 1]

Definición 1.2.6 Sea f : X → R una función definida sobre un conjunto convexo X ⊂


Rn (X 6= Φ) , entonces f es una FUNCIÓN CÓNCAVA sobre X si:

f (t x1 + (1 − t) x2 ) ≥ t f (x1 ) + (1 − t) f (x2 ) ∀ x1 x2 ∈ X , t ∈ [0, 1]

Teorema 1.2.2 (Continuidad de Funciones Convexas) Sea X ⊂ Rn y sea f : X → R una


función convexa, entonces f es continua en el interior de X.
1.2. ANÁLISIS Y DISCUSIÓN 7

OBS: Diremos que la función vectorial f es convexa si cada una de sus funciones compo-
nentes fi es convexa (análogamente, la concavidad).

Proposición 1.2.3 Si, en el problema (P M ), X es un subconjunto convexo de Rm y las


funciones f1 (x), f2 (x), ...., fn (x) son cóncavas, entonces el conjunto:

A = { u = (u1 , ..., un ) ∈ Rn : ∃ x ∈ X con f (x) ≥ u }

es convexo en Rn .

Demostración:

Sean u = (u1 , u2 , ..., un ) , v = (v1 , v2 , ..., vn ) ∈ A y t ∈ [0, 1] . Existen x, x0 ∈ X tales que:

f (x) ≥ u , f (x0 ) ≥ v

con lo cual:
fi (x) ≥ ui fi (x0 ) ≥ vi ∀ i = 1, n

Evidentemente, tx+(1−t)x0 ∈ X, ya que X es convexo, además, dado que f es cóncava,


para i = 1, ..., n, se verifica que:

fi (t x + (1 − t) x0 ) ≥ t fi (x) + (1 − t) fi (x0 ) ≥ t ui + (1 − t) vi

de donde tu + (1 − t)v ∈ A, por lo tanto A es convexo. 2

El siguiente resultado garantiza que, para problemas donde la función es cóncava, la lı́nea
de eficiencia queda determinada mediante el procedimiento de escalarización.

Proposición 1.2.4 Si, en el problema (P M ), X es un subconjunto convexo de Rn y f es


cóncava, para cada solución de (P M ) x0 , existen c1 , c2 , ... , cn ≥ 0 no todos nulos y tales
que x0 es solución de (P Ec ).

Demostración:

Sea x0 solución de (P.M ), y consideremos los subconjuntos de Rn

A = {u ∈ Rn : ∃ x ∈ X con f (x) ≥ u} y B = {u ∈ Rn : u ≥ f (x0 )}.

A es convexo por la proposición anterior, y se demuestra sin ninguna dificultad que B tam-
bién lo es, Además, el interior de B es, obviamente, el conjunto formado por los u =
(u1 , u2 , ... , un ) ∈ Rn tales que:

ui > fi (x0 ), i = 1, ..., n.

De ser x0 solución de (P M ) se obtiene que A ∩ B o = ∅, ya que, si existiera u ∈ A ∩ B o ,


existirı́a x ∈ X con fi (x) ≥ ui , i = 1, ..., n, y ui > fi (x0 ), i = 1, ..., n. Pero entonces:

fi (x) > fi (x0 ), i = 1, ..., n,


8 CAPÍTULO 1. MATERIAL Y MÉTODOS

y por consiguiente, x0 no resolverı́a (P.M ). De los teoremas de separación de conjuntos


convexos podemos deducir que existen c1 , c2 , ..., cn no todos nulos y tales que:
n
X n
X
ck u k ≤ ck v k
k=1 k=1

siempre que (u1 , ..., un ) ∈ A y (v1 , ..., vn ) ∈ B. En particular, puesto que f (x) ∈ A si
x ∈ X y f (x0 ) ∈ B, es:
n
X Xn
ck fk (x) ≤ ck fk (x0 ),
k=1 k=1

y x0 resuelve (P Ec ). Sólo falta probar que ningún ci es negativo. Si alguno lo fuera


(por ejemplo, c1 ) es claro que para cada z ≤ f1 (x0 ) es (z, f2 (x0 ), ..., fn (x0 )) ∈ B y que
f (x0 ) ∈ A. Por consiguiente:
n
X n
X
c1 z + ck fk (x0 ) ≤ ck fk (x0 ),
k=2 k=1

es decir:
c1 z ≤ c1 f1 (x0 ) ∀ z < f1 (x0 )
−c1 z ≥ −c1 f1 (x0 )
Como −c1 > 0
z ≥ f1 (x0 )(→←).
Por lo tanto c1 es positivo. 2

Observaciones: Por consiguiente, si en el problema (P M ) la función es cóncava, para


resolverlos basta solucionar los problemas (P Ec ) con c no negativo. Todas las soluciones
que correspondan a un c positivo son ya soluciones de (P M ), ası́ como las que corresponden
a un c no negativo, siempre que sean únicas. Finalmente, de la última proposición se deduce
que todas las soluciones de (P M ) están entre las soluciones de los problemas (P Ec ) para
c no negativo.
Para cada c = (c1 , c2 , ... , cn ) no nulo y no negativo, se puede suponer que:
n
X
ck = 1,
k=1

ya que, si esta igualdad no se verifica, basta considerar, en lugar de c, el vector:


1
n c
X
ck
k=1

y las soluciones de (P Ec ) no cambian. Por consiguiente, desde un punto de vista intuitivo,


si en un problema práctico elegimos un óptimo de Pareto calculado mediante un proceso de
escalarización, cada ci es un peso asociado al objetivo fi , que, de alguna manera, mide la
1.2. ANÁLISIS Y DISCUSIÓN 9

importancia relativa que a fi le damos frente a los demás objetivos.

CONJUNTOS NOTABLES DE Rn

Definición 1.2.7 : Sea a un vector no nulo de Rn , y α ∈ R. Llamaremos HIPERPLANO en


Rn , denotado por H, al conjunto:

H = { x ∈ Rn / a . x = α }

Lema 1.2.5 : Un hiperplano H en Rn , es un conjunto convexo.

Demostración:

Sean x1 , x2 ∈ H, entonces:

a . x1 = α a . x2 = α

Sea λ ∈ [0, 1] , tenemos:


λ (a. x1 ) = λ α

(1 − λ) (a. x2 ) = (1 − λ) α

sumando miembro a miembro:

λ (a. x1 ) + (1 − λ) (a . x2 ) = λ α + (1 − λ) α

de donde:
λ (a. x1 ) + (1 − λ) (a . x2 ) = α

Luego usando las propiedades de producto interno, tenemos:

a . (λ x1 ) + a . ((1 − λ) x2 ) = α

a . (λ x1 + (1 − λ) x2 ) = α

Luego λ x1 + (1 − λ) x2 ∈ H

∴ H es convexo. 2

Definición 1.2.8 : Sea a un vector no nulo de Rn , y α ∈ R. Los conjuntos:

H + = { x ∈ Rn / a . x ≤ α }

H − = { x ∈ Rn / a . x ≥ α }

se denominan SEMIESPACIOS CERRADOS de Rn .

Lema 1.2.6 : Los semiespacios cerrados H + y H − son conjuntos convexos.


10 CAPÍTULO 1. MATERIAL Y MÉTODOS

Demostración:

Veamos que H + es convexo:


Sean x1 , x2 ∈ H + , entonces:

a . x1 ≤ α a . x2 ≤ α

Sea λ ∈ [0, 1] , tenemos:


λ (a. x1 ) ≤ λ α

(1 − λ) (a. x2 ) ≤ (1 − λ) α

sumando miembro a miembro:

λ (a. x1 ) + (1 − λ) (a . x2 ) ≤ λ α + (1 − λ) α

cancelando en el segundo miembro:

λ (a. x1 ) + (1 − λ) (a . x2 ) ≤ α

Utilizando las propiedades de producto interno:

a . (λ x1 ) + a . ((1 − λ) x2 ) ≤ α

a . (λ x1 + (1 − λ) x2 ) ≤ α

Luego λ x1 + (1 − λ) x2 ∈ H +

∴ H + es convexo. 2

Análogamente para H − .

Proposición 1.2.7 : Sean A1 , A2 ⊂ Rn dos conjuntos convexos, se cumplen las siguientes


afirmaciones:

1. A1 ∩ A2 es un conjunto convexo.

2. A1 + A2 = { x1 + x2 / x1 ∈ A1 , x2 ∈ A2 } es convexo.

3. A1 − A2 = { x1 − x2 / x1 ∈ A1 , x2 ∈ A2 } es convexo.

4. La intersección arbitraria de un número finito o infinito de conjuntos convexos es un


conjunto convexo.

Demostración:

2. Sean u , v ∈ A1 + A2 , entonces:

u = x1 + x2 donde x1 ∈ A1 y x2 ∈ A2

v = y1 + y2 donde y1 ∈ A1 y y2 ∈ A2
1.2. ANÁLISIS Y DISCUSIÓN 11

Sea λ ∈ [0, 1] , tenemos:


λ u = λ x1 + λ x2

(1 − λ) v = (1 − λ) y1 + (1 − λ) y2
sumando miembro a miembro:

λ u + (1 − λ) v = λ x1 + λ x2 + (1 − λ) y1 + (1 − λ) y2

λ u + (1 − λ) v = λ x1 + (1 − λ) y1 + λ x2 + (1 − λ) y2
Dado que A1 y A2 son conjuntos convexos, entonces:

λ x1 + (1 − λ) y1 ∈ A1

λ x2 + +(1 − λ) y2 ∈ A2
Por lo tanto:
λ u + (1 − λ) v ∈ A1 + A2 . 2
3. De forma análoga, sean u, v ∈ A1 −A2 , entonces: u = x1 −x2 donde x1 ∈ A1 y x2 ∈
A2 y v = y1 − y2 donde y1 ∈ A1 y y2 ∈ A2 . Sea λ ∈ [0, 1] , tenemos: λ u = λ x1 −
λ x2 además (1 − λ) v = (1 − λ) y1 − (1 − λ) y2 . Sumando miembro a miembro, y ubicando
convenientemente las igualdades anteriores, se tiene:

λ u + (1 − λ) v = (λ x1 + (1 − λ) y1 ) − (λ x2 + (1 − λ) y2 )
| {z } | {z }
∈ A1 ∈ A2

Dado que A1 y A2 son conjuntos convexos, entonces: λ u + (1 − λ) v ∈ A1 − A2 . 2


4. Sea Ai ⊂ Rn , i ∈ I una familia de conjuntos convexos. Supongamos que ∩i∈I Ai =
Φ , concluirı́a la demostración. Pero, si la intersección fuera diferente del vacı́o, demos dos
elementos x1 , x2 ∈ ∩i∈I Ai . Entonces, x1 ∈ Ai y x2 ∈ Ai , ∀ i ∈ I. Dado que todos los
conjuntos Ai son convexos, tendremos:

tx1 + (1 − t)x2 ∈ Ai , ∀ i ∈ I , ∀ t ∈ [0, 1]

Con lo que:
tx1 + (1 − t)x2 ∈ ∩i∈I Ai , ∀ t ∈ [0, 1]
Esto es, ∩i∈I Ai es un conjunto convexo. 2.

Definición 1.2.9 : (Envoltura Convexa, Cerradura o Capsula Convexa)


Sea A un conjunto arbitrario en Rn . La ENVOLTURA CONVEXA de A denotado por C0 (A)
es la colección de todas las combinaciones convexas de A , es decir:
k
X k
X
n
C0 (A) = { x ∈ R /x = λ j xj , λj = 1 , 0 ≤ λj ≤ 1 , xj ∈ A , j = 1, ..., k }
j=1 j=1
12 CAPÍTULO 1. MATERIAL Y MÉTODOS

Definición 1.2.10 La envoltura convexa de un número finito de puntos x1 , ..., xk+1 ⊂ Rn


es llamado POLÍTOPO .
Si x2 −x1 , x3 −x1 , ..., xk+1 −x1 son linealmente independientes entonces C0 (x1 , ..., xk+1 ) la
envoltura convexa de x1 , ..., xk+1 es llamada el SIMPLEX O SIMPLEJO con vértices x1 , ..., xk+1 .

Definición 1.2.11 : La intersección de un número finito de semiespacios cerrados de Rn se


denomina CONJUNTO POLIÉDRICO O POLIÉDRO.

Obs: Un conjunto poliédrico, convexo y acotado es un polı́topo.


Tanto el polı́topo como el poliédro son conjuntos convexos. Es claro que un semiespacio
cerrado es un conjunto cerrado de Rn . Por tanto, un polı́topo, al ser intersección de cerra-
dos, es también un conjunto cerrado. Un polı́topo es, entonces, cerrado y acotado, por tanto
compacto.

Teorema 1.2.8 (Carathedory) Sea S un conjunto arbitrario en Rn . Si x ∈ C0 (S) en-


tonces x ∈ C0 (x1 , ..., xn+1 ) donde xj ∈ S , j = 1, ..., n + 1 . En otras palabras, x puede ser
representado como:
n+1
X n+1
X
x= λj xj , λj = 1 , λj ≥ 0 , xj ∈ S , j = 1, ..., n + 1
j=1 j=1

Demostración:

Demostraremos que si x ∈ C0 (S) entonces:


k+1
X k+1
X
x= λ j xj , λj = 1 , λj ≥ 0 , xj ∈ S , j = 1, ..., k + 1
j=1 j=1

Luego, se puede tener k < n, k = n, k > n, veamos:


1) Si k < n, entonces:
k
X
x = λ1 x1 + λ2 x2 + ... + λk xk , λj = 1.
j=1

Tomando λk+1 = 0, . . . , λn+1 = 0 y xj = xk , j = k + 1, ..., n + 1, entonces:


n+1
X n+1
X
x= λ j xj , λj = 1 , λj ≥ 0 , xj ∈ S , j = 1, ..., k + 1
j=1 j=1

2) Si k = n se tiene la tesis.
3) Si k > n, entonces:

x2 − x1 , x3 − x1 , ... xk+1 − x1 son linealmente dependientes


| {z }
más de n vectores (k vectores)
1.2. ANÁLISIS Y DISCUSIÓN 13

Ası́ que, existen constantes u2 , ... , uk+1 no todos ceros tales que:
k+1
X
uj (xj − x1 ) = 0
j=2

k+1
X k+1
X
uj xj = uj x1
j=2 j=2

k+1
X k+1
X
Sea u1 = − uj , entonces uj = 0 , y
j=2 j=1

k+1
X
uj = u1 x1 + u2 x2 + ... + uk+1 xk+1
j=1

k+1
X k+1
X
u j xj = u 1 x1 + uj x1
j=1 j=2

k+1
X k+1
X
uj xj = u j x1
j=1 j=1

k+1 k+1
!
X X
u j xj = x1 uj = x1 (0)
j=1 j=1

k+1
X
uj xj = 0
j=1

donde algún uj son no nulos, es decir existen algunos uj > 0. Luego:


k+1
X
x= λj x j + 0
j=1

k+1
X k+1
X
x= λj xj − α uj x j = 0
j=1 j=1

k+1
X
x= (λj − α uj )xj = 0
j=1

Para mantener la combinación convexa se requiere que tengamos λj −αuj ≥ 0, el cual puede
ser cero.
λj ≥ α uj
λj
≥α≥0
uj
Entonces, tomando:
λj
α = min { , uj > 0}
uj
14 CAPÍTULO 1. MATERIAL Y MÉTODOS

Existe algún j0 tal que:


λj0
α=
uj0
Luego:
k+1
X
x= (λj − αuj )xj j 6= j0 .
j=1

el cual posee k términos (pues hay uno que es cero), luego teniendo k + 1 términos, hemos
llegado a tener k términos, repitiendo este proceso anterior se llega tener k = n. 2

Definición 1.2.12 Un conjunto C 6= Φ en Rn es denominado CONO con vértice cero si


x ∈ C implica que λ x ∈ C , ∀ λ ≥ 0.

Si el cono C es convexo, se denomina CONO CONVEXO .


1.2. ANÁLISIS Y DISCUSIÓN 15

1.2.2. Formulación del problema


Sea f : Rn → R una función convexa y diferenciable, si Z = {‡∞ , ‡∈ , · · · , ‡m } es un
conjunto finito de m puntos del espacio euclideano Rn y sea la matriz n × m Z cuyas
columnas son los vectores z i , se considera el problema:

minf (x) s.a. : x ∈ conv(Z) (1.2.1)

que es equivalente a resolver el problema:

min{f (Zα) : α ∈ Λ} (1.2.2)

La dificultad tı́pica al resolver (1.2.2) es que los puntos factibles x ∈ Z ⊂ R\ son parametri-
zados por m parámetros α ∈ Rm , x = Zα donde m  n . Particularmente los parámetros α
son hallados de manera única por x, si conv(Z) es un simplex. Además durante la ejecución
del algoritmo se requerirá del cálculo de Zα para varios α.
Sea f˜(α) := f (Zα), g(x) := ∇f (x), g̃(α) := g(Zα). Entonces

∇f˜(α) = Z T ∇f (Zα), ∇2 f˜(α) = Z T ∇2 f (Zα)Z

Para aplicar el algoritmo primal de punto interior al problema (1.2.2), se reformula como:

min{ξ : f˜(α) − ξ ≤ 0, α ≥ 0, eT α − 1 = 0} (1.2.3)

El conjunto soluciones factibles estrictas, se denota como S 0 y es:

S 0 = {(α, ξ) : f˜(α) − ξ < 0, α > 0, eT α − 1 = 0}

Usando términos de penalización logarı́tmica, se introduce la función barrera:


m
X
Φ(α, ξ) := −ln(ξ − f˜(α)) − lnαi , (α, ξ) ∈ S 0
i=1

y con un parámetro de penalización µ > 0, se define la función:


ξ
ϕ(α, ξ) := + Φ(α, ξ), (α, ξ) ∈ S 0
µ
Abreviando α̂ = (α, ξ) = (α, ξ)T y σ = σ(α̂) := ξ − f˜(α), A := diag(α). Luego:
em + 1
∇ϕµ (α̂) = + ∇Φ(α̂)
µ
!
1 ∇g̃(α) − σA−1
∇Φ(α̂) =
α −1
" #
T T 2 2 −2
1 Z (g(x)g(x) + σ∇ f (x))Z + σ A −∇g̃(α)
∇2 Φ(α̂) = 2
σ −∇(α)T 1
donde x = Zα.
Existe un criterio simple para analizar la optimalidad de un punto α∗ ∈ Λ par el problema
(1.2.2) una vez que es calculado el gradiente ∇f˜(α∗ ).
16 CAPÍTULO 1. MATERIAL Y MÉTODOS

1.2.3. Algoritmo del punto interior


En los métodos de punto interior, el concepto de ruta central α̃(µ), µ > 0 es muy
importante. En el presente problema se define como:

α̂(µ) := argmin{ϕµ (α̂) : α̂ ∈ S 0 }


= argmin{ϕµ (α, ξ) : α > 0, ξ > f˜(α), eT α = 1}
ˆ
es decir como la solución α̂ = alpha(µ) y y = y(µ), del sistema no lineal:

∇ϕµ (α̂) + ēy = 0 (1.2.4)


ˆ =1
ēT alpha (1.2.5)

La ruta central está bien definida para µ > 0 y además converge a la solución óptima de
(1.2.2) cuando µ ↓ 0.
¯
Para cada α̂0 ∈ S 0 y µ0 > 0 se define también una ruta no-central alpha(µ), µ > 0 que pasa
a través de α̂0 en µ0 y ᾱ(µ0 ) = α̂0 como:

ᾱ(µ) := argmin{ϕµ (α̂) − ∇ϕµ0 (α̂0 )T α̂ : α̂ ∈ S ) }

o equivalentemente, se puede definir como la solución del sistema no lineal:

∇ϕµ (ᾱ) − ∇ϕµ0 (α̂0 ) + ēy = 0 (1.2.6)


ēT ᾱ = 1 (1.2.7)

Diferenciando respecto a µ se obtiene un sistema de ecuaciones lineales para α̂0 y y 0 :


" # ! !
∇2 Φ(α̂) ē ᾱ0 em+1 /µ2
= (1.2.8)
ēT 0 y0 0

Algoritmo:
Inicio: α̂0 = (α0 , ξ 0 ) ∈ S 0 arbitrarios, µ0 := ξ 0 − f˜(α0 ) > 0, estos generaran una sucesión
µk ↓ 0 y α̂k = (αk , ξ k ) ∈ S 0 , k = 0, 1, · · · ,.
Iteración básica:
(µ̄, α̂) := (µk , α̂k ) → (µ̄+ , α̂+ ) =: (µk+1 , α̂k+1 )
luego calcular un µ̄+ con 0 < µ̄+ < µ̄, α̂+ ∈ S 0 que consiste en calcular un paso de corrección
y otro de predicción. El paso de corrección mejora α̂, es decir se aproxima con buena exactitud
a la ruta central. El paso de predicción, reduce µ̄ a un adecuado µ̄+ y calcula un α̂+ ∈ S 0 .

Paso de Corrección

Este paso consiste en una o más iteraciones del método de Newton para resolver el sistema
(1.2.3) con µ = µ̄ usando como valor inicial α̂. Por lo tanto la corrección de Newton δ α̂ se
obtiene de resolver el sistema:
" # ! " #
∇2 Φ(α̂) ē 4α̂ ∇ϕµ̄ (α̂)
=−
ēT 0 y 0
1.2. ANÁLISIS Y DISCUSIÓN 17

Luego con λmin := argmin{ϕµ̄ (α̂ + λ4α̂) : λ > 0}, el punto α̂+ := α̂ + λmin 4α̂ ∈ S 0 será la
mejor aproximación a la ruta central. Los paso de Newton se repiten hasta que 4α̂ sea lo
suficientemente pequeño. Un criterio de parada para las iteraciones de Newton es cuando
4α̂T ∇2 Φ(α̂)4α̂ ≤ 1/4.

Paso de Predicción

Sea α̂ ∈ S 0 el resultado del paso de predicción. Entonces considerando la ruta no central


ᾱ(µ), 0 < µ < µ̄, a través de α̂ ,ᾱ(µ̄) = α̂ y hallamos su derivada ᾱ0 en µ = µ̄ resolviendo el
sistema:
" # ! " #
∇2 Φ(α̂) ē ᾱ0 em+1 /µ̄2
=
ēT 0 y0 0

Para µ ≤ µ̄ se considera la tangente:

α̌(µ) = α̂ + (µ − µ̄)ᾱ0 (µ̄)

Luego se encuentra µmin = min{µ > 0 : α̌(µ) ∈ S 0 } y sea

µ̄+ = γµmin + (1 − γ)µ̄, α̂+ = α̌(µ̄+ )

donde γ = 0,7.

Ejemplo

Sea el conjunto :

Z = {‡i : ‡i = (ξi∞ , ξi∈ , · · · , ξi\ )T , i = ∞, ∈, · · · , m}

de puntos donde ξij ∈ [0, 1] distribuidos aleatoreamente, sea la función cuadrática convexa
f (x) = (x − xc )T (x − xc ) donde también xc ∈ [0, 1]n \ convZ. El criterio de parada usado fue:
µ ≤ 10−6 . El punto inicial α0 = (1, 1, · · · , 1)T /m ∈ Rm . Se aplico el algoritmo para valores
grandes de n respecto a m. Los resultados se muestran en la siguiente tabla cuando n = 20
fijo y m se varia:
m Iter tiempo
1000 28 0.28
2000 36 0.78
3000 42 1.41
4000 45 2.16
5000 48 2.9
6000 51 3.70
18 CAPÍTULO 1. MATERIAL Y MÉTODOS

Cuando se fija m = 2000 y n va aumentando, los resultados son:

n iter tiempo
3 35 0.14
5 35 0.27
10 35 0.33
20 36 0.78
30 36 1.57
40 37 2.49

Lo que se puede observar es que en ambos casos el óptimo se encuentra en un número finito de
pasos sobre todo cuando se aplica este algoritmo para problemas cuadráticos estrictamente
convexos y genera una sucesión finita αk de soluciones factibles tales que f˜(αk+1 ) < f˜(αk )
1.3. CONCLUSIONES 19

1.3. Conclusiones
En el presente trabajo sobre la minimización de funciones convexas sobre la envolvente
convexa de un conjunto finito de puntos usando un algoritmo de puntos interiores, formulado
matemáticamente como el modelo (1.2.2) se obtienen las siguientes conclusiones:

1. El algoritmo presentado resulta conveniente para problemas de optimización convexos,


llegando a una buena aproximación.

2. El algoritmo puede usarse también para hallar la proyección de un punto de Rn sobre


la envolvente convexa de un conjunto finito de puntos.

3. El método de puntos interiores se puede usar en un problema de optimización donde


la función objetivo no necesariamente es cuadrática pues se tiene bien definida la taza
de convergencia lineal aún para problemas no-cuadráticos convexos.
20 CAPÍTULO 1. MATERIAL Y MÉTODOS
Bibliografı́a

[1] Botkin,N. Stoer. J., Minimization of a convex function on the convex hull of a point
set, 2007. Mathematical Methods of Operations Research., 62. pp.167-185.

[2] Fiacco,A., McCormick,G.P., Nonlinear Programming: Sequential Unconstrained


Minimization Techniques, Wiley. New York, pp.273-281. 2008.

[3] Frisch, K.R., The Logarithmic Potential Method for Convex programming, Unpublis-
hed manuscript. Institute of Economics. University Oslo Norway, 1999.

[4] Karmarkar, A New polynomial-time algorithm for linear programming, Combinato-


rica. 4 pp373-395. 1999.

[5] Nestorov Yu, Nemirovsky, A., Interior Point Polynomial Methods in Convex pro-
gramming,. Siam. Philadelphia .2000.

[6] Wright, S.J.,Primal-Dual Interior Point Methods. Siam, p[hiladelphia 1998.

21