Вы находитесь на странице: 1из 20
UNIVERSIDAD NACIONAL ´ “SANTIAGO ANT UNEZ DE MAYOLO” FACULTAD DE CIENCIAS ESCUELA ACADEMICO PROFESIONAL DE

UNIVERSIDAD NACIONAL

´

“SANTIAGO ANT UNEZ DE MAYOLO”

UNIVERSIDAD NACIONAL ´ “SANTIAGO ANT UNEZ DE MAYOLO” FACULTAD DE CIENCIAS ESCUELA ACADEMICO PROFESIONAL DE MATEMATICA

FACULTAD DE CIENCIAS

ESCUELA ACADEMICO PROFESIONAL DE MATEMATICA

´

RESUMEN DE LA EXPOSICI ON

“M´etodos b´asicos de descenso”

CURSO: Programaci´on no lineal

ESTUDIANTES:

˜

1. BORJA APE NA, Marcelino

´

˜

2. L OPEZ MAGUI NA, David

PROFESOR: PACHECO CASTILLO, Alexander

´

HUARAZ - PER U

2015

´

Indice

1. B´usqueda de Fibonacci

 

2

2. B´usqueda lineal mediante ajuste de curvas

 

5

2.1. M´etodo de newton

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

5

2.1.1.

Algoritmo del m´etodo de newton

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

7

2.2. Ajuste cuadr´atico

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

11

2.3. Ajuste c´ubico

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

13

3. M´etodo de descenso de mayor pendiente

 

14

3.1. Caso general .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

14

3.2. Caso cuadr´atico

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

17

 

1

M´etodos b´asicos de descenso

1. B´usqueda de Fibonacci

Permite resolver el problema de b´usqueda lineal, este m´etodo determina el m´ınimo va- lor de una funci´on f sobre un intervalo cerrado [a 0 , b 0 ].Esta funci´on puede estar definida en un dominio m´as amplio, pero el m´etodo requiere que dicho intervalo de b´usqueda sea definido. Se asume que f es unimodal, el m´ınimo es determinado(al menos aproximadamente) me- diante la evaluaci´on en un cierto n´umero de puntos. Se pretende definir una estrategia de b´usqueda que seleccione la observaci´on siguiente basada en los valores funcionales de las observaciones anteriores. Esto se define seg´un el siguiente problema:

Encontrar como seleccionar sucesivamente n observaciones, sin contar con un conoci- miento expl´ıcito de la funci´on, de forma tal que podamos encontrar la m´as peque˜na regi´on de incertidumbre posible en donde se encuentre el dominio,esta regi´on de incertidumbre es determinada en cualquier caso por las observaciones(sus valores funcionales) y la su- posici´on de que f es unimodal.

La b´usqueda de Fibonacci se basa en la secuencia de los n´umeros de Fibonacci que se definen por las ecuaciones F 0 = F 1 = 1; F n = F n1 + F n2 , n = 2, 3,

Supongamos que se nos da una funci´on f (x) que es unimodal en el intervalo [a 0 , b 0 ]. de los puntos interiores c 0 y d 0 se utiliz´o el siguiente subintervalo y s´olo habr´a una nueva evaluaci´on de la funci´on.

Si f (c 0 ) f(d 0 ), entonces el m´ınimo debe ocurrir en el subintervalo [ a 0 , d 0 ], y reemplaza- mos a 1 = a 0 y b 1 = b 0 y continuar la b´usqueda en el nuevo subintervalo [a 1 , b 1 ] = [a 0 , b 0 ]. Si f (c 0 ) > f(d 0 ) entonces el m´ınimo debe ocurrir en el subintervalo [ c 0 , b 0 ] y reemplazamos a 1 = c 0 y b 1 = b 0 y continuar la b´usqueda en el nuevo subintervalo [a 1 , b 1 ] = [c 0 , b 0 ] .

2

Es necesario el uso de n iteraciones, donde n es el n´umero m´as peque˜no tal que

. Los puntos interiores c k y d k del subintervalo [a k , b k ] se encuentran, seg´un

F n > b 0 a 0

ϵ

sea necesario, utilizando las siguientes f´ormulas:

c k = a k + ( 1

F

n1k

F

nk

)

(b k a k )

d k = a k + ( F n1k

F nk ) (b k a k )

(1)

(2)

Ejemplo 1.1. Encontrar el m´ınimo de la funci´on unimodal, f (x) = x 2 sin(x) en el

intervalo [0, 1] usando el m´etodo de Fibonacci. Utilice la tolerancia ε = 0,0001.

Soluci´on

F n > b 0 a 0 ε

=

0,0001 1 0 = 10000 =n = 21 =F 21 = 10946, F 20 = 6765

Primera iteraci´on:= ⇒ n = 21 = ⇒ F 2 1 = 10946 , F 2 0

[a 0 , b 0 ] = [0, 1]

c 0

= a 0 + (1

F 20

F 21

)(b 0 a 0 ) = 0 + (1 0,618034)(1) = 0,381966

d 0 = a 0 + ( F 20 )(b 0 a 0 ) = 0 + (0,618034)(1) = 0,618034

F

21

f(c 0 ) = f (0,381966) = 0,226847

f(d 0 ) = f (0,618034) = 0,197468 =f (c 0 ) f(d 0 ) =minf (x) est´a en [a 0 , d 0 ].

0 ) = ⇒ minf ( x ) est´a en [ a 0 , d 0

Figura 1: Primera interacci´on.

Segunda interaci´on:en [ a 0 , d 0 ]. Figura 1: Primera interacci´on. [ a 1 ,

[a 1 , b 1 ] = [a 0 , d 0 ] = [0; 0,618034]

3

c 1 = a 1 + (1

F 19

F 20 )(b 1 a 1 ) = 0 + (1 0,618034)(0,618034) = 0,236068

d 1 = a 1 + ( F 19

F 20 )(b 1 a 1 ) = 0 + (0,618034)(0,618034) = 0,381966

f(c 1 ) = f (0,236068) = 0,178153 f(d 1 ) = f (0,381966) = 0,226847 =f (c 1 ) > f(d 1 ) =minf (x) est´a en [c 1 , b 1 ].

1 ) = ⇒ minf ( x ) est´a en [ c 1 , b 1

Figura 2: Segunda interacci´on.

Tercera interaci´on:en [ c 1 , b 1 ]. Figura 2: Segunda interacci´on. [ a 2 ,

[a 2 , b 2 ] = [c 1 , b 1 ] = [0,236068; 0,618034]

c 2 = a 2 + (1

F 18

F 19

)(b 2 a 2 ) = 0,236068 + (1 0,618034)(0,381966) = 0,381966

F 19 )(b 2 a 2 ) = 0,236068 + (0,618034)(0,381966) = 0,472136

f(c 2 ) = f (0,381966) = 0,2268475 f(d 2 ) = f (0,472136) = 0,2318772 =f (c 2 ) > f(d 2 ) =minf (x) est´a en [c 2 , b 2 ].

d 2 = a 2 + ( F 18

est´a en [ c 2 , b 2 ]. d 2 = a 2 + (

Figura 3: Tercera interacci´on.

Cuarta interaci´on:) = ⇒ minf ( x ) est´a en [ c 2 , b 2 ].

4

[a 3 , b 3 ] = [c 2 , b 2 ] = [0,381966; 0,618034]

b 3 ] = [ c 2 , b 2 ] = [0 , 381966; 0

F

17

F

18

)(b 3 a 3 ) = 0,381966 + (1 0,618034)(0,618034 0,381966) =

c 3 = a 3 + (1

0,4721359

d 3 = a 3 + (

f(c 3 ) = f (0,4721359) = 0,2318772

f(d 3 ) = f (0,5278641) = 0,2250488=f (d 3 ) > f(c 3 ) =minf (x) est´a en [a 3 , d 3 ].

)(b 3 a 3 ) = 0,381966 + (0,618034)(0,618034 0,381966) = 0,5278641

F

17

F

18

618034)(0 , 618034 − 0 , 381966) = 0 , 5278641 F 17 F 18 Figura

Figura 4: Cuarta interacci´on.

.

.

.

Decimo noveno interacci´on:

Tenemos la aproximaci´on:

c

= 0,45021012

f

(c) = f (0,45021012) = 0,232465574

2. B´usqueda lineal mediante ajuste de curvas

2.1. M´etodo de newton

M´etodo para funciones dos veces diferenciables, de una sola variable en donde lo que

se quiere es encontrar:

minf (x)

con f (x) y f (x) conocidas.

5

(3)

Sea x k un punto factible, se puede aproximar f (x) al rededor de x k , a trav´ez del polinomio de taylor de segundo grado:

q(x) = f(x k ) + f (x)(x x k ) + 1 2 f (x k )(x x k ) 2

(4)

2 f ′ ′ ( x k )( x − x k ) 2 (4) Figura

Figura 5: Aproximaci´on de segundo orden.

La funci´on q(x) construida, es una buena aproximaci´on de segundo grado para f (x) ya que:

q( x k ) = f ( x k ) (x k ) = f(x k )

)grado para f ( x ) ya que: q ( x k ) = f (

q (x k ) = f (x k

q ′ ′ ( x k ) = f ′ ′ ( x k ) (x k ) = f (x k )

Si:k q ′ ′ ( x k ) = f ′ ′ ( x k )

f (x k ) > 0 q(x) es convexa. f (x k ) < 0 q(x) es c´oncava.

Resolvemos minq(x), en vez de minf (x), entonces se puede calcular y estimar x k+1 del punto m´ınimo de f ( x ) hallando el punto en el que se anula la derivada de q ( x ).[condici´on del primer orden] De (4), al derivar se tiene:

q (x) = f (x k ) + f (x k )(x x k )

6

Ahora como en x k+1 se anula q(x).

q (x k+1 ) = f (x k ) + f (x k )(x k+1 x k ) =

0

Del anterior al despejar x k+1 obtenemos el m´etodo iterativo de newton:

x k+1 = x k f f (x (x k k ) )

2.1.1. Algoritmo del m´etodo de newton

(5)

Paso inicial: Seleccionar la tolerancia ϵ ≈ 0, encontrar por inspecci´on una soluci´on Seleccionar la tolerancia ϵ 0, encontrar por inspecci´on una soluci´on

de prueba inicial, x 0 , para k = 0

Paso iterativo: Evaluar f ′ ( x k ) y f ′ ′ ( x k ), Evaluar f (x k ) y f (x k ), luego minimizar q(x) y obtener una nueva

soluci´on x k+1 ,usando:

x k+1 =

x k f (x k ) f (x k )

Criterio de parada: si | x k + 1 − x k | ≤ ϵ , parar, y si |x k+1 x k | ≤ ϵ , parar, y el m´ınimo en este caso resultaria

x x k+1 . Sino, avanzar k = k + 1, ir al paso iterativo.

Ejemplo 2.1. Encontrar el minf (x) = 2x 3 21x 2 + 60x 7

Soluci´on

Hallamos las derivadas:

f (x) = 6x 2 42x + 60

f (x) = 12x 42

Aqui aprovechamos hallando los puntos de inflexi´on de la funci´on f (x) asi:

f (x) = 12x 42 = 0

7

Esto significa que:

x = 42

12 = 3,5

Si x > 3 , 5 → f ′ ′ ( x ) > 0, luego x > 3,5 f (x) > 0, luego diremos que f (x) es escrictamente convexa esto nos

garantiza para haya un m´ınimo.

Si x < 3 , 5 → f ′ ′ ( x ) < 0, luego x < 3,5 f (x) < 0, luego diremos que f (x) es escrictamente c´oncava esto nos

garantiza para haya un m´aximo.

Observaci´on 2.1. De esta manera nosotros podemos elegir facilmente para una funci´on

polinomica un valor inicial x 0 = 4, es decir estamos escogiendo un punto cercano a x >

3,5. por conveniencia ya que si elegimos un valor tan grande para x 0 , el m´etodo de newton

estaria convergiendo en varias iteracciones y eso no nos conviene.

Ahora usamos el algoritmo del metodo de newton:

Paso inicial: Escogemos ϵ = 0 , 0000000001, x 0 = 4. Escogemos ϵ = 0,0000000001, x 0 = 4.

Paso iterativo:inicial: Escogemos ϵ = 0 , 0000000001, x 0 = 4. Hallando las derivadas en el

Hallando las derivadas en el punto x k asi:

f (x k ) = 6x k 2 42x k + 60

f (x k ) = 12x k 42

Luego reemplazando f (x k ) y f (x k ) en (5) obtenemos la f´ormula de newton para

iterar de la siguiente forma:

x k+1 = x k

Ahora:

para k = 0 x 1 = x 0

para k = 1 x 2 = x 1

para k = 2 x 3 = x 2

.

.

.

Remplazando x 0 = 4 se comienza la interaci´on como se muestra en la siguiente

tabla:

6x k 2 42x k +60

12x k 42

2

6x 0 42x 0 +60

12x 0 42 6x 2 1 42x 1 +60

12x 1 42 6x 2 2 42x 2 +60

12x 2 42

8

Figura 6: Tabla de valores. Criterio de parada: Si calculamos | x k + 1
Figura 6: Tabla de valores. Criterio de parada: Si calculamos | x k + 1

Figura 6: Tabla de valores.

Criterio de parada: Si calculamos |x k+1 x k | = 6,98491930961609 10 < ϵ, parar

en este caso el minimo es x = 5, en este caso efectivamente se ha encontrado

exactamete el m´ınimo para la funci´on.

Observaci´on 2.2. Una de las formas mas sencillas de ver el m´etodo de newton es con-

siderarlo como una t´ecnica de resoluci´on iterativa de ecuaciones de la forma:

g(x) = 0

donde al aplicarla a la minimizaci´on, se hace g(x) = f (x), luego al reemplazar en (5)

adapta la forma

x k+1 = x k g g(x (x k k ) )

(6)

A continuaci´on vemos un preliminar del Teorema de Taylor para poder demostrar la

siguiente proposici´on que, nos dice que bajo ciertas condiciones, una funci´on puede ser

expresarse como un polinomio de Taylor mas un cierto error, es decir

g(x) = P n (x) + E n

Teorema 2.1 (Teorema de taylor). Sea g continua en [a, b] y con derivadas hasta de

orden n continuas tambi´en en este intervalo cerrado; sup´ongase que g (n+1) (x) existe en

< a, b >, entonces para x y x k < a, b > se tiene:

g(x) = g(x k ) + g (x k )(x

donde E n = g n+1 (ξ)(xx k ) n+1

(n+1)!

x k ) + g (x k )(x x k ) 2

2!

+

+ g n (x k )(x x k ) n n!

y ξ es un punto que se encuentra entre x y x k .

9

+ E n

(7)

Observaci´on 2.3. Al construir el polinomio de taylor de primer grado al rededor de x k

es de segundo grado,

1

g(x) = g(x k ) + g (x)(x x k ) + 2 g (ξ)(x x k ) 2 , ξ < x, x k >

despejando el termino error,

1

2 g (ξ)(x x k ) 2 = g(x) g(x k ) g (x)(x + x k )

Si x = x obtenemos:

1

2 g (ξ)(x x k ) 2 = g(x ) g(x k ) g (x)(x x k )

(8)

Proposici´on 2.1. sea g(x) una funci´on con segunda derivada continua, y g(x ) que se-

tisface g(x ) = 0, g (x ) ̸= 0. Entonces, si x 0 est´a suficientemente cerca de x , la sucesi´on

{x k } x=0 , generada por el m´etodo de newton (6), converge a x con un orden de conver-

gencia de al menos dos.

Demostraci´on. Para los puntos ξ en una regi´on pr´oxima a x

k 1 : |g (ξ)| < k 1

k 2 : |g (ξ)| > k 2

Entonces como, g(x ) = 0, se puede escribir

x k+1 x =

x k x g(x k ) g(x )

g (x k )

g (x k )(x k x ) g(x k ) + g ( x )

=

=

g (x k )

[ g(x ) g(x k ) g (x k )(x x k ) g (x k )

]

(9)

El t´ermino entre corchetes, por el teorema de taylor, es de cero a primer orden. de

hecho, utilizando el t´ermino residuo en una expanci´on en serie al rededor de x k , se obtiene:

Ahora reemplazando la expresi´on (8) en (9) tenemos:

10

=

[

1

2

g (ξ)(x x k ) 2

g (x k )

]

1 g (ξ)(x x k ) 2

=

=

2

1

g (x k )

g (ξ)

(x x k ) 2

2

g (x k )

Para algun ξ entre x y x k . As´ı, en la regi´on proxima a x ,

se observa que si,

entonces,

|x k+1 x |

=

k 1

2k 2 |(x x

k

)| 2

2k k 1 2 |(x x k )||(x x k )|

k 1

2 |(x x k )| < 1

2k

|x

k+1

x

|

|x k+1 x |

|x x k |

x k

<

1 · |(x x k )|

<

|x x k | , k N

0

x

y asi se concluye que, comenzando suficientemente cerca de la soluci´on, el m´etodo con-

verger´a a x con un orden de convegencia de al menos dos.

a x ∗ con un orden de convegencia de al menos dos. 2.2. Ajuste cuadr´atico Si

2.2. Ajuste cuadr´atico

Si comenzamos con tres puntos, por ejemplo x 1 , x 2 , x 3 en orden creciente, y no necesa-

riamente igualmente espaciados, pero contenidos dentro de la zona de b´usqueda < a, b >,

podemos aproximarlos a un polinomio de grado 2, f (x) = a + bx + cx 2 de tal manera que

dicho polinomio pasa exactamente por esos tres puntos y debe presentar un m´ınimo en:

11

b

x = 2c

(10)

Observaci´on 2.4. La ecuaci´on (10) se obtiene completando el cuadrado a,f (x) = a +

bx + cx 2 asi:

f (x)

=

a + bx + cx 2

= cx 2 + bx + a

=

=

=

c [ x 2 + c x + a

c

b

]

c [ ( x +

2c ) 2 4ac b 2 c 4c 2

b

c ( x

2c ) 2 + 4ac b 2 c

b

4c

]

De este anterior se consigue el v´ertice de la par´abola ( b

2c ,

4acb 2 c

4c

), la cual es la primera

componente el ´optimo(m´ınimo) x = b para dicha curva la par´abola.

2c

Si suponemos que f (x) se eval´ua en los tres puntos, podr´ıamos calcular los valores de

a, b, c resolviendo el sistema de tres ecuaciones lineales:


f(x 1 )

f(x 2 )

f(x 3 )

=

=

=

a

a

a

+

+

+

bx

bx

bx

1

2

3

+

+

+

cx

cx

cx

2

1

2

2

2

3

(11)

Al resolver el sistema (11), encontramos los valores de a, b y c. Luego al reemplazar en

(10) lo que nos lleva a obtener:

x =

Donde:

f(x 1 ) = f 1 , f(x 2 ) = f 2 y

1 [ (x 2

2

(x 2 x 3 )f 1 + (x 2 x 3 )f 2 + (x 2 x 3 )f 3 ]

1

)f 2 + (x

1

x

2

)f 3

2 x 3 )f 1 + (x 3 x

2

2

2

2

2

f(x 3 ) = f 3

(12)

Para ilustrar la primera etapa del procedimiento de b´usqueda examinaremos en la

Figura Se˜nalar que solamente una nueva evaluaci´n de la funci´on objetivo se lleva a cabo

en cada etapa de b´usqueda. Este m´etodo utiliza evaluaciones de la funci´on, y s´olo un

nuevo valor de funci´on debe ser calculado en cada iteraci´on.

12

Figura 7: Ajuste cuadr´atico Ejemplo 2.2. Minimizar usando el m´etodo de aproximaci´on cuadr´atica la siguiente

Figura 7: Ajuste cuadr´atico

Ejemplo 2.2. Minimizar usando el m´etodo de aproximaci´on cuadr´atica la siguiente fun- ci´on: f (x) = 2x 2 + 16

x

Soluci´on

Tomando los puntos iniciales x 1 = 1, x 2 = 2,5 y x 3 = 5, el m´etodo converge en cuatro iteraciones, el valor ´optimo obtenido es x = 1,60.

el valor ´optimo obtenido es x ∗ = 1 , 60. Figura 8: Valores por aproximaci´on

Figura 8: Valores por aproximaci´on cuadr´atico

2.3. Ajuste c´ubico

Este m´etodo est´a basado en la aproximaci´on polinomial mediante un polinomio de tercer grado de la funci´on que se quiere minimizar. El esquema es similar al m´etodo cuadr´atico. Se necesitan cuatro puntos iniciales, o cuatro valores de f (x), o valores de f (x) y sus derivadas cada dos puntos.

13

Este m´etodo es de convergencia r´apida, pero puede presentar errores en funciones no unimodales.

junto a f (x k1 ), f (x k1 ), f (x k ), y f (x k ) es posible ajustar una

ecuaci´on c´ubica en los puntos. El punto x k+1 (m´ınimo) puede ser determinado como el punto m´ınimo relativo de esta ecuaci´on c´ubica.

Dados x k1 y x k

x k+1 = x k (x k x k1 ) [

f (x k ) + u 2 u 1

2u 2 ]

f (x k ) f (x k1 ) +

(13)

Donde:

u 1 =

u 2 = u 2 f (x k1 )f (x k ) La aplicaci´on de ´este m´etodo requiere que x k 1 < x k y f (x k ) > f (x k1 ).

f (x k1 ) + f(x k ) 3 f(x k1 )f(x k )

x k1 x k

1

3. M´etodo de descenso de mayor pendiente

Tambi´en se conoce como m´etodo del gradiente. Este m´etodo se pretende encontrar el m´ınimo de la funci´on f : R n −→ R continua en sus primeras derivadas parciales .

3.1. Caso general

La direcci´on de b´usqueda utilizada en este m´etodo es el negativo de la pendiente en cualquier punto particular x k R n .

S k = −∇f (x k )

(14)

Desde esta direcci´on ofrece el descenso m´aximo en valores de la funci´on, se le llama m´etodo de m´axima pendiente. En cada iteraci´on, se calcula la derivada en el punto actual y una b´usqueda unidireccional se realiza en la negativa a esta direcci´on derivado para encontrar el punto m´ınimo a lo largo de esa direcci´on. El punto m´ınimo se convierte en el punto actual y la b´usqueda contin´ua desde este punto. El procedimiento contin´ua hasta que se encuentre un punto que tiene una peque˜na pendiente suficiente vectorial. Los pasos seguidos en el presente m´etodo se menciona a continuaci´on secuencialmente:

1. Comience con un punto inicial arbitraria x k R n .

14

2.

Encuentre la direcci´on de b´usqueda S k comoS k = −∇f (x k )

3. Determinar la duraci´on ´optima paso λ k en la direcci´on S k y establecer x k+1 =

x k + λ k S k = x k λ k f(x k )

4. Pruebe el nuevo punto x k+1 , de optimalidad. Si x k+1 es el ´optimo, detener el proceso,

alternativamente ir al paso 5.

5. Ajuste el nuevo n´umero de la iteraci´on k = k + 1 y ir al paso 2.

Ejemplo 3.1. Minimize f (x) = 2x 2 + x 2 2 + 2x 1 x 2 + x 1 x 2 a partir del punto x 1 =

1

0

0

 

x 2 a partir del punto x 1 =  1 0 0   Soluci´on

Soluci´on

Primera interac´ıon:

El gradiente de f viene dado por

f =

∂f

∂x

1

∂f

∂x 2

f(x 1 ) =

=


1

1

Por lo tanto,

1 + 4x 1 + 2x 2

1 + 2x 1 + 2x 2

S 1 = −∇f (x 1 ) =

1

1

A continuaci´on , tenemos que encontrar la longitud ´optima paso λ 1 para encontrar

) = λ 2 2λ 1 con respecto

x 2 . Para ello debemos minimizar f (x 1 +λ 1 S 1 ) = f(

λ 1

λ 1

1

a

λ 1 . Desde

df

1

= 0 en λ 1 = 1 obtendr´ıamos

x 2 = x 1 + λ 1 S 1 =

0

0

+ 1

1

1

=

1

1

Desde f (x 2 ) =

iteraciones.

1

1

̸=

0

0

  , el x 2 no es ´optimo y, por tanto se requiere mas

15

Segunda interacci´on: S 2 = −∇ f ( x 2 ) =  1 1 

S 2 = −∇f (x 2 ) =

1

1

 

Para reducir al m´ınimo, debemos primero evaluar,

f(x 2 + λ 2 S 2 )

=

f(

1 + λ 2

1 + λ 2

  ) = 5λ 2 2 2λ 2 1. A continuaci´on establecemos

df

2 = 0 y obtenemos λ 2 =

1

5 , y entonces

x 3 = x 2 + λ 2 S 2 =

1

1

+

1

5

 

1

1

=

0,8

1,2

puesto que los componentes del gradiente en x 3 ,

f(x 3 ) =

0,2

0,2

  ̸=   se procede a la siguiente iteraci´on.

0

0

Tercera interacci´on:  se procede a la siguiente iteraci´on.  0 0   S 3 =

S 3 = −∇f (x 3 ) =

desde,

0,2

0,2

f(x 3 + λ 3 S 3 ) = f(

0,8 λ 3

1,2 + 0,2λ 3

) = 0,04λ 3 0,08λ 3 1,2 establecemos ,

2

que conduce a λ 3 = 1.Por lo tanto

x 4 = x 3 + λ 3 S 3 =

0,8

1,2

+ 1

0,2

0,2

=

1

1,4

el gradiente en x 4 est´a dada por

f(x 4 ) =

0,2

0,2

df

3

= 0

Desde f (x 4 ) ̸=

siguiente iteraci´on.

.

.

.

0

0

, x 4

no es el ´optimo y, por lo tanto debemos

pasar a la

Este proceso se contin´ua hasta que el punto ´optimo en, x =

1

1,5

  es encontrado.

es decir, en x =

1

1,5

  el f (x ) =

0

0

  . Por lo tanto en x la funci´on f

alcanza su

16

m´ınimo.

3.2. Caso cuadr´atico

Esencialmente, todas las caracter´ısticas importantes de convergencia local del m´etodo

de descenso de mayor pendiente se revelan investigando el m´etodo al aplicarlo a problemas

cuadr´aticos. T´engase la funci´on cuadr´atica:

f(x) = 1 2 x T Ax x T b

(15)

donde A es una matriz de nxn sim´etrica definida positiva, x R n y b es un vector

tambi´en de R n . Como A es definida positiva, todos sus valores propios son positivos.

Adem´s como A es definida positiva, resulta que f es estrictamente convexa.

El unico´ punto m´ınimo de f se puede hallar directamente, resolviendo el sistema lineal

Ax = b.

Ejemplo 3.2. Minimize f (x) = 2x 2 + x 2 2 + 2x 1 x 2 + x 1 x 2 .

1