Вы находитесь на странице: 1из 24

Apndice Matemtico

A.

Concavidad y convexidad

A.1. Una variable. Decimos que una funcin real de una variable
f (x) es cncava si todas las rectas tangentes a ella pasan por encima suyo;
si, en cambio, todas pasan por debajo, decimos que es convexa. Por encimaen realidad queremos decir no por abajo; cuando la funcin comparta
slo el punto de tangencia con su tangente diremos que es estrictamente
cncava. Lo mismo ocurre con la convexidad. As, la recta es el lmite
entre ambas deniciones: la recta es cncava y convexa a la vez (ella es
su propia tangente, en todos los puntos), pero no estrictamente cncava ni
estrictamente convexa.
Consideremos un punto x : Si f (x) es diferenciable en x ,2 entonces
existe una nica recta tangente a ella en x , cuya pendiente es f 0 (x ) : La
recta tangente a f (x ) en x tiene la ecuacin:
T (xjx ) = n + mx
donde:
m = f 0 (x )
n = f (x ) f 0 (x ) x
Por otro lado, la recta tangente a f (x) en x est por encima de f (x)
en el punto x si T (xjx ) f (x). As, cuando f (x) es diferenciable, decir
2 f (x) no es diferenciable en x cuando los lmites de f (x) al acercarce por la izquierda

y la derecha de x dieren:
lm

x!x

f (x)
x

f (x)
f (x )
6= l m f
x!x+
x
x

f (x )
x

En ese caso, si le llamamos a al menor de esos lmites y b al mayor, por denicin sabemos
que en la vecindad de x :
f (x) f (x )
2 [a; b]
x x
El conjunto [a; b] recibe el nombre de subdiferencial de f en x , y se denota por @f (x ) :
La funcin es diferenciable en el punto, por lo tanto, cuando el subdiferencial tiene un nico
elemento (es decir, es un singleton).
Si la funcin no es diferenciable, an podemos decir que es cncava si sus tangentes
estn por encima de ella, entendiendo por tangente cualquier recta con alguna pendiente
m 2 [a; b].
335

336

APNDICE MATEMTICO

que f (x) es cncava equivale a decir que para todo x se cumple que:
T (xjx )

f (x)

8x

(A.1)

Reescribiendo, tenemos:
f (x )

f 0 (x ) x + f 0 (x ) x

, f (x ) + f 0 (x ) (x

x )

f (x)
f (x)

8x; x

8x; x

Ahora bien, del Teorema de Taylor sabemos que toda funcin real puede
ser aproximada mediante polinomios. En particular, de una expansin de
Taylor de segundo orden en torno a un punto x tenemos:
1
f (x) f (x ) + f 0 (x ) (x x ) + f 00 (x ) (x x )2
2
Luego, f es cncava si:
1
f (x )+f 0 (x ) (x x ) f (x )+f 0 (x ) (x x )+ f 00 (x ) (x x )2 8x; x
2
esto es:
f 00 (x ) 0
8x
(A.2)
Tenemos entonces la siguiente caracterizacin de concavidad:
Teorema 5. f : R ! R diferenciable dos veces es cncava si y slo si
8x :
f 00 (x ) 0:
La caracterizacin de la concavidad estricta es ms intrincada. De la
expansin de Taylor deducimos que si f 00 (x ) < 0, entonces f (x) < T (xjx )
para todo x 6= x en la vecindad. Sin embargo, esta condicin no es necesaria. Por ejemplo, la funcin f (x) = x4 es estrictamente cncava en
x = 0 pese a que f 00 (0) = 0 (de hecho, sus tres primeras derivadas). Si
considerramos una expansin de cuarto orden, tendramos:
1
f (x)
f (x ) + f 0 (x ) (x x ) + f 00 (x ) (x x )2
2
1 000
1 0000
3
+ f (x ) (x x ) + f (x ) (x x )4
6
24
1 (iv)
Entonces, si 21 f 00 (x ) (x x )2 + 16 f 000 (x ) (x x )3 + 24
f
(x ) (x x )4 <
0, sabramos que la funcin es estrictamente cncava. En el ejemplo, 12 0 (x 0)2 +
1
1
0)3 + 24
( 24) (x 0)4 = (x 0)4 < 0: Pero nuevamente se trata
6 0 (x
de una condicin suciente, por cuanto podemos encontrar ejemplos en que
la concavidad estricta la podemos comprobar slo con la sexta derivada, etc.

Otra caracterizacin til surge de observar que si miramos una recta


paralela a la tangente pero ms baja, vemos que sta est por debajo de
todos los puntos comprendidos entre los que cortan a la recta.

A. CONCAVIDAD Y CONVEXIDAD

337

En efecto, tomemos una recta R (xjx ) T (xjx )


una constante. Sean x y x
^ dos puntos tales que:

c, donde c > 0 es

f (x) = R (xjx ) ;

(A.3)

con x < x
^: Entonces, para todo x 2 (x; x
^) ;

f (x) > R (xjx )

Observe que si x 2 [x; x


^], entonces existe
Luego, podemos escribir:
f ( x + (1

)x
^)

2 [0; 1] tal que x = x+(1

R ( x + (1

)x
^jx )

Pero:
R ( x + (1

)x
^:

8 2 [0; 1]

)x
^jx ) = T ( x + (1
)x
^jx ) c
0
= f (x ) + f (x ) ( x + (1

)x
^

(A.4)

x )

que puede ser escrita como:


R ( x + (1

)x
^jx ) =

f (x ) + f 0 (x ) (x
+ (1

x )

) f (x ) + f 0 (x ) (^
x

c
x )

Ahora bien, x y x
^ satisfacen (A.3), por lo que:
f (x) = f (x ) + f 0 (x ) (x
f (^
x) = f (x ) + f 0 (x ) (^
x

x )
x )

c
c

Luego, la ecuacin (A.4) puede escribirse como:


f ( x + (1

)x
^)

f (x) + (1

) f (^
x)

8 2 [0; 1]

Resumiendo:
Teorema 6. f : R ! R diferenciable una vez es cncava si y slo si
8 2 [0; 1] y 8x; x
^:
f ( x + (1

)x
^)

f (x) + (1

) f (^
x) :

De hecho, esta caracterizacin es vlida an cuando f no es diferenciable


(y por lo tanto es ms general que la anterior). En ese caso, nuestra recta
de referencia es cualquiera de la familia de tangentes en x , es decir, rectas
cuya pendiente est en el subdiferencial de f en x :
A.2. El caso multivariado. Cuando f : Rn ! R, decimos que la
funcin es cncava si los hiperplanos (rectas en n dimensiones) tangentes
estn por encima de ella. Si f (x) es diferenciable en x , el hiperplano
tangente en x est dado por:
n
X
@f (x )
T (xjx ) = f (x ) +
(xi xi )
@xi
i=1

338

APNDICE MATEMTICO

A su vez, la expansin de Taylor de segundo orden de la funcin en torno


al punto x est dada por:
f (x)

f (x ) +

n
X
@f (x )
(xi
@xi

xi ) +

i=1

f (x ) + g0 (x

xi )2

i=1

Que en notacin matricial queda:


f (x)

1 X @ 2 f (x )
(xi
2
@ 2 xi

x )+

1
(x
2

x )0 H (x

x )

1
(x x )0 H (x x )
2
donde g es la gradiente de f en el punto x (el vector de primeras derivadas)
y H el hessiano de f en x (la matriz de segundas derivadas). La funcin
f (x) est dbilmente por debajo de su hiperplano tangente si (x x )0 H (x x )
0:
= T (xjx ) +

Recordemos que:
Definicin 31. Si A una matriz simtrica de n n, entonces A se dice:
Denida negativa si el producto y0 Ay es negativo para cualquier
y 2 Rn :
Semi-denida negativa si el producto y0 Ay es no positivo para
cualquier y 2 Rn :
Semi-denida positiva si el producto y0 Ay es no negativo para
cualquier y 2 Rn :
Denida positiva si el producto y0 Ay es positivo para cualquier
y 2 Rn :
Indenida si no satisface ninguna de las condiciones anteriores.
De esta forma, la condicin de concavidad de f en x est atada a la
denicin negativa de su hessiano. Las siguientes caracterizaciones son muy
tiles:
Lema 1. Sea A una matriz de n n, sea Mk un menor principal de
orden k; y Dk el k simo menor principal lder3 (k = 1; :::; n).
x0 Ax es denida negativa si y slo si ( 1)k Dk > 0 para k =
1; :::; n.
3 Un menor de orden k de una matriz cuadrada A es el determinante de la matriz

generada eliminando (n

k) las y columnas. Existen entonces

n
n

n
k

k
menores de orde k.
El menor es principal si las las y columnas eliminadas son las mismas; hay enn
tonces
menores principales. El menor principal es lder si las las y columnas
n k
eliminadas son las ltimas (n k); lder de orden k hay uno solo.

A. CONCAVIDAD Y CONVEXIDAD

339

x0 Ax es denida negativa si y slo si todos sus valores propios son


negativos:
x0 Ax es semi-denida negativa si y slo si ( 1)k Mk 0 para todo
Mk ; para k = 1; :::; n.
x0 Ax es semi-denida positiva si y slo si Mk
0 para todo Mk ;
para k = 1; :::; n.
x0 Ax es denida positiva si y slo si Dk > 0 para k = 1; :::; n.
x0 Ax es denida positiva si y slo si todos sus valores propios son
positivos:

Tal como en el caso univariado, que H sea negativa denida es una


condicin suciente pero no necesaria para la concavidad estricta de f . Por
p
ejemplo, la funcin y = x1 x2 es estrictamente cncava en (1; 1), toda
vez que el hiperplano tangente es mayor que la funcin en cualquier punto
(x1 ; x2 ) 6= (1; 1) :

x1 x2

1
1
x1 + x2
2
2
p
p
, x1 2 x1 x2 + x2 = ( x1
<

x2 )2 > 0

Sin embargo, su hessiano es:

H=

con menores principales D1 =


negativo.

1
4

1
4

1
4

<0 y

1
4

1
4

D2 = 0, por lo que no es denido

De igual forma, podemos caracterizar a f en trminos de combinaciones


convexas de dos puntos x y x
^:

f ( x + (1

)x
^)

f (x) + (1

) f (^
x)

8 2 [0; 1]

340

APNDICE MATEMTICO

Resumiendo, tenemos que f es cncava en x si el hessiano H evaluado


en x es semi-denido negativo. f es cncava en S Rn si y slo si:
1. f es cncava en todo x 2 S; o equivalentemente,
2. (8 2 [0; 1]) (8x; x
^ 2 S)
f ( x + (1
)x
^)
f (x) +
(1
) f (^
x)
Una condicin suciente (aunque no necesaria) para que f sea estrictamente cncava en x es que el hessiano H evaluado en x sea denido
negativo. f es estrictamente cncava en S Rn si y slo si:
1. f es estrictamente cncava en todo x 2 S; o equivalentemente,
2. (8 2 (0; 1)) (8x; x
^ 2 S)
f ( x + (1
)x
^) > f (x) +
(1
) f (^
x)
f es convexa en x si el hessiano H evaluado en x es semi-denido
positivo. f es convexa en S Rn si y slo si:
1. f es convexa en todo x 2 S; o equivalentemente,
2. (8 2 [0; 1]) (8x; x
^ 2 S)
f ( x + (1
)x
^)
f (x) +
(1
) f (^
x)
Una condicin suciente (aunque no necesaria) para que f sea estrictamente convexa en x es que el hessiano H evaluado en x sea denido
positivo. f es estrictamente convexa en S Rn si y slo si:
1. f es estrictamente convexa en todo x 2 S; o equivalentemente,
2. (8 2 (0; 1)) (8x; x
^ 2 S)
f ( x + (1
)x
^) < f (x) +
(1
) f (^
x)
A.3. Cuasiconcavidad. Veamos que una caracterstica de las funciones cncavas es que al combinar dos puntos se sube, en el sentido que
la altura de la funcin es mayor que la altura promedio de esos puntos. Una
nocin ms suave pide que la funcin crezca en el sentido que la altura de
la mezcla sea mayor que la menor de las alturas de los puntos mezclados:
Definicin 32. f : Rn ! R es cuasicncava si (8x; x
^ 2 Rn ) (8 2 [0; 1]) :
f ( x + (1

)x
^)

m n ff (x) ; f (^
x)g

La cuasiconcavidad es estricta si la desigualdad anterior es estricta.


Observe que f (x) + (1
) f (^
x)
funcin cncava debe ser cuasicncava.

m n ff (x) ; f (^
x)g, por lo que una

Un resultado interesante es que cualquier transformacin montona creciente aplicada sobre una funcin cncava resulta en una funcin cuasicncava. As, si g : R ! R es creciente y f es cncava, entonces h g f es
cuasicncava (estricta si f es estrictamente cncava). En efecto,
h ( x + (1

)x
^) = g (f ( x + (1
g ( f (x) + (1

)x
^))
) f (^
x))

B. OPTIMIZACIN

341

por concavidad de f . Suponga que f (x) f (^


x), de modo que m n ff (x) ; f (^
x)g =
f (x). Asimismo, m n fh (x) ; h (^
x)g = h (x) porque g es creciente. Entonces,
f (x) + (1
) f (^
x) f (x). Pero siendo g creciente, lo anterior implica
que g ( f (x) + (1
) f (^
x)) g (f (x)) = h (x), por lo que obtenemos:
h ( x + (1

)x
^)

g ( f (x) + (1
) f (^
x))
g (f (x)) = h (x) :

Una funcin convexa, entonces, puede ser cuasicncava. De hecho, son


cuasicncavas todas las funciones de una variable que son montonas. En
el caso de dos variables, son cuasicncavas las funciones que tienen el mismo
mapa de curvas de nivel que alguna cncava.
B.

Optimizacin

El problema general de optimizacin se reere a la bsqueda de los


valores ms altos o ms bajos que una funcin f alcanza en un determinado
conjunto.
Es til recordar que una funcin real f : X ! Y es una relacin que
asocia a un valor x 2 X un nico nmero real y 2 R. Se escribe y = f (x).
X es el dominio de la funcin e Y
R su recorrido.
El mximo4 de una funcin es el elemento f (x ) 2 R que satisface lo
siguiente:
f (x ) > f (x) 8x 2 X, con x 6= x
En este caso, x 2 R es el argumento de la maximizacin de f , denotado
x = arg max f (x):
El mnimo de una funcin, por su parte, es el elemento f (x? ) 2 R que
satisface:
f (x ) < f (x) 8x 2 X, con x =
6 x

En este caso, x 2 R es el argumento de la minimizacin de f , denotado


x = arg m n f (x):
Es importante distinguir entre la funcin y su argumento. En un problema de optimizacin, la funcin recibe el nombre de objetivo.
Observe que f (x) es el reejode f (x), donde la lnea del agua est en
el 0. Por ejemplo, a continuacin se ilustran el grco de f (x) = x2 x + 5
(en azul) y su reejo x2 + x 5
4 En general, es posible que exista ms de un mximo o mnimo, por lo que correspondera hablar de uny no el, y la condicin se satisfara con desigualdad dbil y no
estricta. Sin embargo, para efectos de esta exposicin relajaremos el supuesto de unicidad
slo al nal del captulo.

342

APNDICE MATEMTICO
y

25

12.5

0
-5

-2.5

2.5

5
x

-12.5

-25

As, es inmediato vericar que si x = arg m n f (x), entonces x =


arg max f f (x)g. En virtud de ello, es posible concentrarse exclusivamente
en la maximizacin.
En lo que sigue, supondremos que f es una funcin diferenciable.
B.1. Maximizacin sin restricciones. Empezamos analizando un
problema del tipo:
max f (x)
x2X

Como mencionamos anteriormente, si f (x ) es el mximo, no puede


haber otro f (x) de mayor valor en ninguna parte. En particular, localmente, es decir, en la vecindad de x . Esto permite usar la derivada de
la funcin para facilitar la bsqueda de mximos. El mtodo de bsqueda
de un mximo utilizando el clculo explota esta observacin de la siguiente
forma: si x es un mximo, entonces cualquier movimiento innitesimal en
cualquier direccin debiera traer como consecuencia un menor valor de y:
En el caso ms sencillo de una funcin de una variable, sabemos que y
aumenta o disminuye en respuesta a una alteracin marginal en x de acuerdo
a:
@f
dx = f 0 (x)dx
dy =
@x
Luego, resulta inmediato que un mximo debe satisfacer:
@f
= f 0 (x) = 0
@x

(B.1)

Si esto no fuese as, siempre podramos encontrar al menos una direccin en


la cual conseguiramos aumentar y. En efecto,
dy > 0 )

@f
dx > 0
@x

B. OPTIMIZACIN

343

de manera que si @f
@x > 0, con un movimiento a la derecha de x (dx > 0)
se consigue una mejora en el objetivo, y si @f
@x < 0, basta con moverse
innitesimalmente a la izquierda de x (dx < 0) para mejorar.
Pero por supuesto esto no es suciente, porque la misma condicin puede
ser usada para evitar una cada de y (dy < 0). Por ejemplo, la funcin
y = sen(x) tiene una primera derivada igual a 0 en 2 y en 2 , y obviamente
-1 no es el mximo, como se aprecia en el grco:
seno(x)

0.5

0
-2.5

-1.25

1.25

2.5
x

-0.5

-1

Lo que falta es vericar que al moverse en cualquier direccin, el valor


de y caiga. Aqu aparece la segunda observacin crucial: la variacin de y
debe ocurrir a tasas decrecientes, es decir:
d2 y =

@2f
(dx)2 = f 00 (x) (dx)2 < 0
@x2

(B.2)

Por qu? Observe el grco de izquierda a derecha (dx > 0) en el tramo


en cuestin (para x alrededor de 2 ). Las diferenciales son negativas y
decrecientes, luego positivas y crecientes. Esto tiene que ser as alrededor de
un mnimo: a su izquierda deben haber valores mayores, luego la diferencial
en cualquiera de esos puntos debe ser negativa; y a tasas decrecientes para
hacer una transicin suave hacia la diferencial positiva (de lo contrario,
la funcin no sera diferenciable en el punto. Esta salvedad debiera dejar
claro que este mtodo no es til en toda circunstancia). Es decir, alrededor
de un mnimo la diferencial debe ir creciendo; en otras palabras, la segunda
diferencial debe ser positiva. Simtricamente, al aproximarse a un mximo
se tienen diferenciales positivas y decrecientes y luego negativas y crecientes:
alrededor de un mximo la diferencial debe ir cayendo; en otras palabras, la
segunda diferencial debe ser negativa. As, podemos distinguier un mnimo
de un mximo por el signo de la segunda diferencial en el punto.
Entonces, (1.1) es la condicin de primer orden y (1.2) de segundo orden. La condicin de primer orden es necesaria, pero no suciente (recuerde

344

APNDICE MATEMTICO

que un mnimo tambin la satisface) para obtener un mximo local interior. Es suciente para un mximo local interior que ambas se satisfagan
simultneamente.
Enfatizamos la palabra local porque la bsqueda se restringi a la vecindad del punto. Es posible que otros puntos satisfagan ambas condiciones; el
mximo global en ese caso se obtiene por comparacin directa de los valores
de f (x) entre los candidatos.
Enfatizamos tambin la palabra interior, porque es posible que el mximo en un dominio acotado ocurra en los extremos. Por ejemplo, el mximo
de 3x2 + 1 en el intervalo [0; 1] ocurre en el punto x = 1. En este punto no
se cumplen ni la condicin de primer orden ni la de segundo y sin embargo es un mximo, de lo que se desprende que estas condiciones no pueden
considerarse necesarias ni sucientes en cualquier caso.
Con ms de una variable, la intuicin se mantiene. La nica diferencia
es que no basta con chequear una dimensin, sino que se hace necesario
vericar movimientos en toda direccin posible. As,

y = f (x1 ; x2 ; :::; xn )
@f
@f
@f
dx1 +
dx2 + ::: +
dxn = 0
dy =
@x1
@x2
xn
n
X
=
fi dxi = 0
d2 y =

i=1
@2f

@x21

(dx1 )2 +

(B.3)

@2f
@2f
dx1 dx2 + ::: +
dx1 dxn
@x1 @x2
@x1 @xn

@2f
@2f
@f
2
dx2 dx1 +
(dx
)
+
:::
+
dx2 dxn + :::
2
@x2 @x1
@xn @x2
@x22
@f
@2f
@2f
dxn dx1 +
dxn dx2 + ::: + 2 (dxn )2
@xn @x1
@xn @x2
@xn
n
n
XX
=
fij dxi dxj < 0

(B.4)

i=1 j=1

Como antes, un punto x 2 Rn (x en negrita denota un vector, y sin


negrita un escalar) es un mximo de f (x) = f (x1 ; x2 ; :::; xn ) si desviaciones
innitesimales no cambian el valor del objetivo: dy = 0. En la ecuacin
(1.3) vemos que esto se cumple al moverse en cualquier direccin si todas
las primeras derivadas parciales de la funcin son 0, es decir, la condicin

B. OPTIMIZACIN

345

de primer orden es:


@f
@x1
@f
@x2

= 0

(B.5)

= 0
..
.

@f
xn

= 0

Por su parte, la condicin de segundo orden es ligeramente ms compleja


de vericar. Consideremos primero lo que ocurre al mover una variable a la
vez. Como las direcciones aparecen en forma cuadrtica (dx2 ), es claro que
la nica forma de cumplir la condicin es que las segundas derivadas propias
sean negativas (fii < 0), como antes. Pero al considerar movimientos de dos
o ms variables a la vez, nos empezamos a encontrar con nuevas condiciones.
As, por ejemplo, en el caso de dos variables,
d2 y = f11 (dx1 )2 + 2f12 dx1 dx2 + f22 (dx2 )2 < 0
Esto debe cumplirse para cualquier direccin que escojamos, por ejemplo
las siguientes:
0 ) d2 y = f22 (dx2 )2 < 0 ) f22 < 0

dx1

dx2

0 ) d2 y = f11 (dx1 )2 < 0 ) f11 < 0


p
p
p
=
f22 ; dx2 =
f11 ) d2 y = f11 f22 + 2f12 f11 f22
p
) f12 < f11 f22

dx1

f22 f11 < 0

La forma arbitraria en que escogimos esta ltima direccin puede hacer


dudar de si no hay ms implicancias del requisito d2 y < 0; la verdad es que
no. En efecto, consideremos primero las direcciones en que dx1 dx2 0 :
p
f11 f22 )
f12 <
p
2
2
f11 (dx1 ) + 2f12 dx1 dx2 + f22 (dx2 ) < f11 (dx1 )2 + 2 f11 f22 dx1 dx2 + f22 (dx2 )2
p
p
2
=
f11 dx1
f22 dx2
< 0

Por otra parte, si dx1 dx2 < 0, tenemos:


f12 <
2

f11 (dx1 )

2f12 dx1 dx2 + f22 (dx2 )

f11 f22 )

p
< f11 (dx1 )2 2 f11 f22 dx1 dx2 + f22 (dx2 )2
p
p
2
=
f11 dx1 +
f22 dx2

< 0

346

APNDICE MATEMTICO

Una manera compacta de escribir la condicin anterior es que la matriz de segundas derivadas (tambin conocida como el Hessiano de f ) sea
negativa denida:
f11 f12
neg. def.
f21 f22
Recuerde que una matriz H es negativa denida si los determinantes de
los menores alternan signo, empezando en negativo. Recuerde tambin que
los menores son las matrices que se forman eliminando las y columnas de la
matriz principal. Partiendo del extremo superior izquierdo, el primer menor
es la primera entrada. El segundo menor se forma agregando al primero la
la y la columna contiguas. El tercero de la misma forma, a partir del
segundo, y as sucesivamente.
Por ejemplo, en el caso de dos variables, H negativa denida se traduce
en:
jH1 j = jf11 j < 0 , f11 < 0
f11 f12
jH2 j =
> 0 , f11 f22
f21 f22

(f12 )2 > 0

Observe que la condicin f22 < 0 tambin se deduce de la condicin anterior:


f11 f22

>

(f12 )2

) f22 <

f11 < 0
2

(f12 )
<0
f11

De manera que la expresin H p


negativa denida es una forma compacta
de decir f11 ; f22 < 0 y f12 < f11 f22 en el caso de dos variables. En
el caso general en que hay n variables, la condicin de segundo orden es
H negativa denida, expresin que sintetiza una serie de requisitos so0
f1
dx1
bre las derivadas cruzadas de f . Observe que dy =
y
f2
dx2
0
dx1
f11 f12
dx1
d2 y =
. Como el problema de optimizacin
dx2
f21 f22
dx2
dx1
se trata de jugar con los movimientos
de modo de obtener una
dx2
condicin sobre y, es natural que la solucin se exprese en trminos de
f1
f11 f12
la gradiente
y el Hessiano
. En general, escribimos
f2
f21 f22
dy = G0 dx y d2 y = dx0 Hdx:
Resumen 1. Para un mximo interior local, las condiciones necesarias
y sucientes son:
(1) Gradiente igual a 0
(2) Hessiano negativo denido.

B. OPTIMIZACIN

347

2 2
Ejemplo 11. La funcin 20x
n 1 x2 x1 x2 satisface
o la condicin de primer
10
orden en fx1 = 0; x2 = 0g y en x1 = x2 ; x2 = x2 . El grco de la primera
gura corresponde a f en sus tres dimensiones. El de la segunda gura
corresponde a la gradiente de f:

-2

-4

xz
-4

y
-2 0 0
0

42

-200

-400

-600

Funcin f = 20x1 x2

x21 x22 en tres dimensiones


y
3
2.5
2
1.5
1
0.5
0

-3

-2.5

-2

-1.5

-1

-0.5
0
-0.5

0.5

1.5

2.5

3
x

-1
-1.5
-2
-2.5
-3

Gradiente de f

348

APNDICE MATEMTICO

B.2. Maximizacin con restricciones. La maximizacin con restricciones se reere al mismo problema anterior, con la salvedad de que la
bsqueda se restringe a un subconjunto propio del dominio original de la
funcin. Para facilitar la exposicin, normalmente se distinguen dos clases
de restricciones: de igualdad y de desigualdad. La restriccin de desigualdad
es la ms general, y corresponde a acotar arbitrariamente el dominio de la
funcin objetivo. La de igualdad es aquella en la que el conjunto de puntos
en los que se permite buscar pueden expresarse por medio de una funcin
del tipo g(x1 ; x2 ; :::; xn ) = b. Siguiendo la prctica comn, comenzaremos
por esta ltima.
B.2.1. Restricciones de igualdad. Para abordar este problema hay en
general dos estrategias posibles; la eleccin se hace sencillamente por conveniencia.
La primera estrategia reduce la dimensin del problema. En efecto, el
problema inicial
max f (x1 ; x2 ; :::; xn ) sujeto a

x2Rn

(B.6)

b = g(x1 ; x2 ; :::; xn )
se transforma obteniendo de b = g(x1 ; x2 ; :::; xn ) una expresin para alguna
variable, digamos x2 = h(x1 ; x3 ; :::; xn ; b), y reemplazndola en la funcin
objetivo para obtener:
max f (x1 ; h(x1 ; x3 ; :::; xn ); :::; xn )

x2Rn

(B.7)

El nuevo problema se trata como lo explica la seccin anterior. Este


mtodo es sencillo, pero a veces puede resultar impracticable por la imposibilidad de despejar una variable de la restriccin, o simplemente engorroso.
En ocasiones, el segundo mtodo es preferido porque entrega informacin
adicional sobre las caractersticas del ptimo que es til en determinadas
aplicaciones.
La segunda estrategia, conocida como el mtodo de Lagrange, de
hecho aumenta la dimensin del problema al transformarlo en:
max f (x1 ; x2 ; :::; xn ) + [b

x2Rn

g(x1 ; x2 ; :::; xn )]

(B.8)

donde el escalar
es considerado como una variable ms al obtener las
condiciones de primer orden pero no es una variable ms, como veremos
ms adelante. Observe lo siguiente:
1. Si la restriccin es de hecho satisfecha, la nueva funcin L = f (x1 ; x2 ; :::; xn )+
[b g(x1 ; x2 ; :::; xn )] alcanza el mismo mximo que el objetivo inicial.
2. Al considerar a como una variable de eleccin, la condicin de
primer orden va a exigir la satisfaccin de la restriccin: @L
=
@

B. OPTIMIZACIN

349

b g(x1 ; x2 ; :::; xn ) = 0. De esta manera se fuerza que cualquier


solucin de la maximizacin de la nueva funcin (conocida como
el lagrangeano) pertenezca al conjunto de puntos admisible.
La condicin de primer orden es la misma (y por las mismas razones)
que en la seccin anterior, vale decir, la gradiente de L debe ser cero pues
de lo contrario podramos encontrar formas de aumentar f . En el caso de
dos variables, las CPO son las siguientes:
@L
@x1
@L
@x2
@L
@

= f1

g1 = 0

= f2

g2 = 0

= b

g(x1 ; x2 ) = 0

de las dos primeras, obtenemos:


=

f2
f1
=
g1
g2

La condicin de segundo orden, en cambio, es diferente. La razn es que


al restringir la bsqueda a los puntos que satisfagan g(x1 ; x2 ; :::; xn ) = b;
de hecho nos ahorramos las restricciones asociadas a las direcciones que
actualmente son inadmisibles.
Consideremos primero el caso de dos variables. Al aadir la restriccin
g(x1 ; x2 ) = b, reducimos la dimensin del problema en uno. Utilizando el
primer mtodo propuesto para resolver este problema de optimizacin, tendramos que despejar de la restriccin x2 en funcin de x1 (y del parmetro b,
que omitiremos en la notacin). Llamemos a la funcin implcita resultante
h, de modo que despejando obtenemos la funcin x2 = h (x1 ). Decamos que
podemos resolver el problema reemplazando x2 = h (x1 ) en la funcin objetivo original, de modo que obtenemos f (x1 ; x2 ) = f (x1 ; h (x1 )) = F (x1 ).
Claramente, si queremos maximizar F (x1 ), obtenemos las siguientes condiciones de primer y segundo orden:

CP O :
CSO :

@F
= F1 = 0
@x1
@2F
= F11 < 0
@x21

350

APNDICE MATEMTICO

Pero recordando que F (x1 ) = f (x1 ; h (x1 )) obtenemos:


@F
@x1
@2F
@x21

= F1 = f1 (x1 ; h (x1 )) + f2 (x1 ; h (x1 )) h1 (x1 )


= F11
= f11 + f12 h1 + f21 h1 + f22 (h1 )2 + f2 h11
= f11 + 2f12 h1 + f22 (h1 )2 + f2 h11

Adems, sabemos que x2 = h (x1 ) cumple con la restriccin g(x1 ; x2 ) =


b, por lo que obtenemos:
g1 dx1 + g2 dx2

0
dx2
@h (x1 )
)
=
= h1 =
dx1
@x1

g1
g2

Por ltimo, dado que

h1 =

g1 (x1 ; x2 )
=
g2 (x1 ; x2 )

g1 (x1 ; h (x1 ))
g2 (x1 ; h (x1 ))

obtenemos:

h11 =

=
=

g2 (g11 + g12 h1 ) g1 (g21 + g22 h1 )


(g2 )2
2
g1
g2 g11 + g12
g1 g21 + g22
g2
4
(g2 )2
"
#
1
g22 (g1 )2
g2 g11 g12 g1 g1 g21 +
g2
(g2 )2
"
#
1
g22 (g1 )2
g2 g11 2g1 g12 +
g2
(g2 )2

g1
g2

3
5

B. OPTIMIZACIN

351

Entonces, la condicin de segundo orden es:


F11 = f11 + 2f12 h1 + f22 (h1 )2 + f2 h11
g1
g2

g1
g2

= f11 + 2f12
+ f22
"
#
f2
g22 (g1 )2
g2 g11 2g1 g12 +
g2
(g2 )2
"
1
2
2g1 g2 f12 + f22 (g1 )2
=
2 f11 (g2 )
(g2 )
1 h
2
=
2g1 g2 f12 + f22 (g1 )2
2 f11 (g2 )
(g2 )
1 h
(g2 )2 (f11
g11 ) 2g1 g2 (f12
=
(g2 )2
lo que corresponde a
0
0 g1
H @ g1 L11
g2 L21

f2 g2 g11 + 2f2 g1 g12

f2 g22 (g1 )2
g2

g11 (g2 )2 + 2 g12 g1 g2


g12 ) + (g1 )2 (f22

es el hessiano orlado (o con bordes) de L, puesto que se construye agregndole un borde al hessiano de f .
As, en el caso de dos variables hay una sola condicin de segundo orden puesto que la bsqueda se reduce a una lnea, tal como en el caso de
optimizacin sin restricciones en una variable.
Ahora bien, con ms de dos variables (o en general, si m es el nmero de
restricciones, con n m 2), el problema obviamente se complica porque
ya no se busca en una lnea sino en conjuntos ms complicados y surgen
restricciones adicionales. En general, entonces, tenemos:
Resumen 2. Resumen de Optimizacin con Restricciones de Igualdad
El problema
max f (x1 ; :::; xn ) sujeto a

x1 ;:::;xn

b1 = g1 (x1 ; :::; xn )
..
.
bm = gm (x1 ; :::; xn )
con el lagrangeano asociado
L = f (x1 ; :::; xn ) +
tiene como solucin:

m
X
j=1

[bj

gj (x1 ; :::; xn )]

g22 (g1 )2

i
g22 ) < 0

pedir exclusivamente H > 0, donde


1 0
1
g2
0
g1
g2
L12 A = @ g1 f11
g11 f12
g12 A
L22
g2 f12
g12 f22
g22

352

APNDICE MATEMTICO

(1) (CPO) gradiente de L igual a 0.


(2) (CSO) La secuencia de los determinantes de los ltimos (n m)
menores principales del Hessiano orlado alternan signo, empezando con el
signo de ( 1)m+1 .5
El Hessiano orlado, para
ponde a:
0
0
B .
B ..
B
B
B 0
H = B
B @g1
B @x1
B .
B ..
@
0

B
= B
@

@g 1
@xn

el caso de n variables y m restricciones, corres:::


:::

:::

@g m
@x1

..
.
@g m
@xn

:::

(0)m

@gj
@xi

0
..
.

0
n m

@g 1
@x1

@g 1
@xn

:::

..
.

..
.

@g m
@x1
@2L
@x21

:::
:::

@g m
@xn
@2L
@x1 @xn

..
.

..
.

@2L
@x1 @xn

@gj
@xi
@2L
@x2ii0

:::

m n

n n

@2L
@x2n

1
C
C
C
C
C
C
C
C
C
C
A

C
C
A

Ejemplo 12. Considere el caso en que n = 3 y m = 1. Entonces, el


Hessiano Orlado (en notacin ms compacta) es:
0
1
0 g1
g2
g3
B g1 L11 L12 L13 C
C
H=B
@ g2 L21 L22 L23 A
g3 L31 L32 L33
y los menores principales (empezando por el primero) son:
0
1
0 g1
g2
0 g1
0 ; H2 =
H1 =
; H 3 = @ g1 L11 L12 A ;
g1 L11
g2 L21 L22
0
1
0 g1
g2
g3
B g1 L11 L12 L13 C
C
H4 = B
@ g2 L21 L22 L23 A
g3 L31 L32 L33

En este caso, entonces, la CSO exige que la secuencia de los determinantes


de los ltimos 2 menores principales del Hessiano orlado alternen signo,
empezando con signo positivo. Esto es, H 3 > 0 y H 4 < 0.
5 Es decir, si hay una restriccin, el primer determinante es positivo; si hay dos, el

primero es negativo, y as sucesivamente.

B. OPTIMIZACIN

353

Es importante notar que el multiplicador de Lagrange tiene la interpretacin del aporte de una unidad del recurso restringido al objetivo. En
efecto,
#
" n
n
X
X @g(x)
dL(x )
@xi
@xi
@f (x)
=
+
db
@xi x @b
@xi x @b
i=1
i=1
"
#
n
n
X
X
@xi @f (x)
@g(x)
=
+
@b
@xi x
@xi x
i=1

i=1

donde el ltimo paso surge de observar que en x la condicin de primer


orden se satisface. De manera que el valor del multiplicador nos entrega
informacin sobre qu tan valioso es el recurso limitante.
Cabe resaltar que el mtodo de Lagrange no transforma un problema
de optimizacin de n variables en otro problema normal de optimizacin de
n + m variables. En efecto, no es una variable regular en la optimizacin.
Observe que si lo fuera, se podra hacer crecer ilimitadamente el valor de
L simplemente escogiendo valores de x que dieran [b g (x1 ; :::; xn )] > 0
para luego hacer ! 1. Es decir, si fuese una variable de decisin, el
problema no tendra solucin. El lagrangeano es simplemente una manera
conveniente de recopilar la informacin.
B.2.2. Restricciones de desigualdad. Finalmente, analizamos el problema de la forma:

b1

max f (x1 ; x2 ; :::; xn )


x2Rn
g 1 (x1 ; x2 ; :::; xn )

bm

..
.
g m (x1 ; x2 ; :::; xn )

sujeto a

en que el conjunto de restricciones nuevamente reduce el dominio de la funcin, pero no limitadas a funciones sino que ahora permitiendo la delimitacin de reas (o volmenes, o lo que corresponda de acuerdo a la dimensin
del problema).
Consideremos primero el caso de una restriccin. En general, dos cosas
pueden suceder: o la restriccin se cumple con igualdad, o lo hace con desigualdad estricta. Si el ptimo irrestricto se encuentra dentro del rea
encerrada por la restriccin, entonces decimos que la restriccin se satisface
con holgura, y el hecho de que exista no altera en absoluto el problema.
Ahora bien, si el ptimo irrestricto se encuentra fuera de lo permitido por
las restricciones, entonces lo natural es que la restriccin se satisfaga con
igualdad.

354

APNDICE MATEMTICO

Lo anterior est estrechamente relacionado con el valor del multiplicador


de Lagrange: si la restriccin se satisface con holgura, entonces un pequeo
aumento en la restriccin no afecta en absoluto el mximo valor alcanzable
(pues de hecho ya sobraba), de manera que el multiplicador es 0. Si no
se satisface con holgura, ese hecho debiera reejarse en el valor de .
Esta idea se puede expresar complementando el mtodo de Lagrange.
El problema:

L = f (x1 ; x2 ; :::; xn ) +

m
X

bj

g j (x1 ; x2 ; :::; xn )

j=1

tiene como condicin de primer orden lo siguiente:


@L
@xi

= fi

@L
@ j

= bj

m
X

j
j gi

=0

j=1

g j (x1 ; x2 ; :::; xn )

0 con holgura complementaria

@L
=0
@ j

La condicin de holgura complementaria resume lo sealado anteriormente: o j = 0, es decir, la restriccin no es operativa, en cuyo caso es
perfectamente posible que bj g j (x1 ; x2 ; :::; xn ) < 0, o bien j > 0, vale
decir, la restriccin afecta el mximo valor alcanzable del objetivo y, por
tanto, debe satisfacerse con igualdad. Observe que si todas las restricciones
se satisfacen con holgura, obtenemos la misma condicin de gradiente nula
que en un problema de optimizacin sin restricciones.
Este conjunto de condiciones se conoce como condiciones de KarushKuhn-Tucker (KKT).
Respecto de las condiciones de segundo orden, baste decir que dependen
de si las restricciones se satisfacen con o sin holgura y, por tanto, se prosigue
como se describe en las secciones anteriores.
Ocurre que en general las condiciones de KKT no son ni necesarias ni
sucientes para la obtencin de un mximo. Sin embargo, las excepciones
son tremendamente inusuales y pueden ser identicadas por no satisfacer la
siguiente condicin:
dg(x )

De manera que si esto se cumple, las condiciones son necesarias. Si adems


la funcin objetivo es cncava y el conjunto de posibilidades es convexo,
entonces son tambin sucientes.

B. OPTIMIZACIN

355

Una restriccin que es muy frecuente en aplicaciones en economa es la


de no negatividad de las variables de eleccin:
max f (x1 ; x2 ; :::; xn ) sujeto a

x2Rn

x1 ; x2 ; :::; xn

ste es un caso particular del anterior, pero su forma simple permite una
solucin que prescinde de los multiplicadores, usando la siguiente condicin
de primer orden:
@f
@f
0 con holgura complementaria xi
=0
@xi
@xi
Si ambas clases de restricciones se dan simultneamente, tenemos que el
problema:

b1

max f (x1 ; x2 ; :::; xn )


x2Rn
g 1 (x1 ; x2 ; :::; xn )

bm
0

..
.
g m (x1 ; x2 ; :::; xn )
x1 ; x2 ; :::; xn

sujeto a

tiene asociado el lagrangeano:


L = f (x1 ; x2 ; :::; xn ) +

m
X

bj

g j (x1 ; x2 ; :::; xn )

j=1

que tiene como condicin de primer orden:


m
X
@L
@L
j
= fi
=0
0 con holgura complementaria xi
j gi
@xi
@xi
j=1

@L
@ j

= bj

g j (x1 ; x2 ; :::; xn )

0 con holgura complementaria

@L
=0
@ j

B.3. Esttica comparativa. El problema que abordamos a continuacin es preguntarnos qu ocurre tanto con el punto ptimo como con el
valor maximizado del objetivo cuando alguno de los parmetros del objetivo
se modica.
En efecto, sea

1
x1 (a)
B
C
..
@
A = arg max f (x1 ; :::; xn ; a)
.
xn (a)

y el ptimo y = f (x1 ; :::; xn ; a) = maxx2Rn f (x1 ; :::; xn ; a), vale decir, el


valor maximizado de f para un nivel dado de a.

356

APNDICE MATEMTICO

Nos preguntamos:
1. Cmo cambian las variables ptimas al cambiar el parmetro?
2. Cmo cambia el nivel del objetivo alcanzado?
La primera pregunta es lo que tradicionalmente se entiende por esttica comparativa, y se centra en el signo (y ocasionalmente magnitud) de
funciones de la forma:
@xi (a)
@a
La segunda pregunta se reere al mximo. Sobre el particular, usaremos
intensivamente el siguiente resultado:
Teorema 7 (de la envolvente).
@y
@f (x1 ; :::; xn ; a)
=
@a
@a
En efecto,
n

X @f (x ; :::; x ; a) @x
@y
@f (x1 ; :::; xn ; a)
n
1
i
=
+
@a
@xi
@a
@a
i=1

pero por condiciones de primer orden,


@f (x1 ; :::; xn ; a)
@xi

0 8i = 1; :::; n

@f (x1 ; :::; xn ; a)
@y
=
@a
@a

Este resultado es tremendamente importante porque permite simplicar


notoriamente el anlisis de las caractersticas del ptimo. En particular,
nos dice que todos los efectos secundarios que el cambio en el parmetro
provoca sobre la eleccin del ptimo son cero (puesto que de lo contrario
no nos encontraramos en el ptimo en primera instacia). Observe que ya
usamos previamente esta idea para interpretar el multiplicador lagrangeano.
Ejercicio 26. Demuestre que en un problema de maximizacin con restricciones, el teorema de la envolvente indica que
@y
@L(x1 ; :::; xn ; 1 ; :::;
=
@a
@a

m ; a)

donde a corresponde a un parmetro del problema.

C. FUNCIONES HOMOGNEAS

C.

357

Funciones homogneas

Una funcin f (x1 ; :::; xn ) se dice homognea de grado r si satisface:


f ( x1 ; :::; xn ) =

f (x1 ; :::; xn )

Este tipo de funciones presentan una serie de propiedades especiales,


como la que se enuncia en el siguiente teorema:
Teorema 8 (Euler). Si la funcin y = f (x1 ; :::; xn ) es homognea de
n
P
@f (x1 ;:::;xn )
grado r, entonces
xi = ry:
@xi
i=1

Demostracin. Derivando respecto de


f ( x1 ; :::; xn ) =

la expresin:

f (x1 ; :::; xn )

obtenemos:
@f ( x1 ; :::; xn )
@f ( x1 ; :::; xn )
x1 + ::: +
xn = r
@ ( x1 )
@ ( xn )
Evaluando en

r 1

f (x1 ; :::; xn )

=1:
n
X
@f (x1 ; :::; xn )

@xi

i=1

xi = rf (x1 ; :::; xn ) = ry

A continuacin se presenta otra demostracin del teorema, para el caso


de una funcin con dos argumentos, que enfatiza la relacin que hay entre derivadas parciales y razn de uso (x2 =x1 ) en el caso de las funciones
homogneas.
Sabemos que en este caso la denicin de homogeneidad implica que
f ( x1 ; x2 ) = r f (x1 ; x2 ); si tomamos = x11 , obtenemos que f 1; xx12 =
1
x1

f (x1 ; x2 ), de lo que se desprende lo siguiente:

f (x1 ; x2 )

x2
x2
xr1 g
x1
x1
@f (x1 ; x2 )
x2
) f1 =
= rxr1 1 g
@x1
x1
@f (x1 ; x2 )
x2
) f2 =
= xr1 1 g 0
@x2
x1
=

xr1 f

1;

x2 xr1

2 0

x2
x1

358

APNDICE MATEMTICO

1 ;x2 )
1 ;x2 )
Luego, si computamos @f (x
x1 + @f (x
x2 = f1 x1 + f2 x2 obtenemos lo
@x1
@x2
enunciado en el teorema:
x2
x2
x2
f1 x1 + f2 x2 = rxr1 g
x2 xr1 1 g 0
+ x2 xr1 1 g 0
x1
x1
x1
x2
= rxr1 g
x1
= rf (x1 ; x2 ) = ry

Otra propiedad interesante de este tipo de funciones es que la razn de


los aportes marginales de x1 y x2 depende slo de su uso relativo, y no del
nivel de cada uno por separado (es decir, ff21 depende slo de xx12 y no de x1
x2 individualmente). En efecto, tenemos:
f1
f2

rxr1

xr1
rg

x2
x1

g0

x2
x1

x2 xr1

x2
x1
1 0
g

2 0
g

x2
x1

x2
x1

x2
x1

Esta propiedad se presenta en un conjunto ms amplio de funciones,


que incluye a las funciones homogneas y cualquier transformacin creciente
de una funcin homognea. Estas funciones se denominan funciones homotticas.
Ejercicios
1. El vaso:
Usted desea construir un vaso de papel, sin tapa, de forma cilndrica
(en el grco, de radio r y altura h).

Para ello cuenta con una hoja de papel de 20 por 20 centmetros,


de la que debe recortar la base (un crculo de dimetro 2r) y el
lado (un rectngulo, uno de cuyos lados envuelve la base, mientras
el otro lado da la altura). Su objetivo es disear el vaso con mayor
volumen posible. Recuerde que el volumen de un cilindro es V =
r2 h, donde h es su altura y r el radio.

Вам также может понравиться