Академический Документы
Профессиональный Документы
Культура Документы
C(700,300)
R( x , y)
A(0,0)
f f f
f
x1 x2 xn
f 15 x1 2( x2 ) 3x1 ( x3 )
3 2
Ejemplo:
f 15 3( x3 ) 2 6( x2 ) 2 6 x1 x3
El Hessiano (2) de f(x1, x2, …, xn) es:
f 2 f 2
f
2
x12
2
x1x2 x1xn
f f 2
f 2
Hf= 2 f x x x2
2
x2 xn
2 1
2
f f f
2 2
x x 2
n 1 xn x2 xn
Ejemplo (de antes):
f 15 x1 2( x2 )3 3x1 ( x3 ) 2
f 15 3( x3 ) 2 6( x2 ) 2 6 x1 x3
0 0 6 x3
Hf= 2 f 0 12 x2 0
6 x3 0 6 x1
Un punto extremo de una función f(X) define
un máximo o un mínimo de ella
Teorema 1:Una condición necesaria , para
que Xo sea un punto extremo de f(X) es que
𝛻𝑓 𝑋𝑜 = 0
Como la condición necesaria también queda
satisfecha con los puntos de inflexión y de
silla los puntos obtenidos con la solución
𝛻𝑓 𝑋𝑜 = 0 se llaman puntos estacionarios.
∗
Definición: Un punto X*cuya 𝛻𝑓 𝑋 = 0 se
llama punto estacionario de f.
Teorema 2: (Condición necesaria de segundo
orden)
Si x* es un mínimo local de f y f tiene
segundas derivadas parciales continuas en
una vecindad de x*, entonces y la
Hessiana es positiva definida
Teorema 3: (Condición necesaria de segundo
orden)
Si x* es un máximo local de f y f tiene
segundas derivadas parciales continuas en
∗
una vecindad de x , entonces 𝜵𝒇 𝑿 = 𝟎 y la
*
“r”:
Para y:
x 2 4 r ; r 0;1
El generador de números aleatorios está dado
por: y ya ( yb ya ) r
Los valores de y estarán determinados por “r”:
y 1 2 r ; r 0;1
Código en MatLab
clc,clear
% gráfica de funciones
x=-2:0.1:2;
y=1:0.1:3;
[x,y]=meshgrid(x,y);
z=y-x-2*x.^2-2*x.*y-y.^2;
mesh (x,y,z) %3D
grid on
Código para generar la superficie en el plano
xy
clc,clear
% gráfica de funciones
x=-5:0.1:5;
y=-5:0.1:5;
[x,y]=meshgrid(x,y);
z=y-x-2*x.^2-2*x.*y-y.^2;
contour (x,y,z,50) % 50 líneas de contorno
grid on
Aquí se
encuentra el
máximo
Luego de darse el cálculo aleatorio de
valores, se puede verificar, que el máximo
valor para la función es f(x, y)=1.25
i x Y F(x, y)
2
yx y
DERIVADAS
CRUZADAS O
MIXTAS
Se obtienen los siguientes casos:
1) Mínimo Local
2 f ( a, b)
Si H 0 y además x 2 0
2) Máximo Local
2 f ( a, b)
Si H 0 y además x 2 0
3) Punto de Silla 2 f 2 f
Si H 0 2
x xy
4) No se tiene información H 2
f f
2
Si H 0 2
yx y
Considera el problema:
Minimizar f(x1, x2, x3) = (x1)2 + x1(1 – x2) + (x2)2
– x2x3 + (x3)2 + x3
2 x1 1 x2 0
x 2 x 0
f 0 1 2 3
x2 2 x3 1 0
Encuentra el Hessiano:
2 1 0
f 1 2 1
2
0 1 2
Los eigenvalores de esta matriz son:
1 3.414 2 0.586 3 2
x k 1
x a d
k k k
max
d f (x ) for
k k
min
k
Entonces, x
k 1
x a f (x k )
k
Puesto que el gradiente es la velocidad de
cambio de la función en ese punto, usar el
gradiente (o gradiente negativo) como la
dirección de búsqueda ayuda a reducir el
número de iteraciones requeridas
x2 f(x) = 5
-f(xk)
f(x) = 20
f(xk)
xk
f(x) = 25
x1
Pasos del Método de Descenso
Más Inclinado
Los pasos del Método de Descenso más
Inclinado son:
1. Elige un punto inicial x0
2. Calcula el gradiente f(xk) donde k es el
número de iteración
Calcula el vector de búsqueda: d f (x )
k k
3.
4. Calcula la siguiente x: x x a d
k 1 k k k
para convergencia
Estos dos criterios pueden ser usados para
cualquiera de los métodos de optimización
multivariable discutidos aquí
x xT x ( x1 ) 2 ( x2 ) 2 ( xn ) 2
Enunciado:
Maximizar la siguiente función:
f ( x, y) 2 xy 2 x x 2 2 y 2
Usar como valores iniciales, x=-1,y=1.
Solución:
A) Resolver de forma analítica
B) Resolver usando el Método de pasos
ascendentes
*Aplicamos las derivadas parciales:
f
2 y 2 2 x 0
x
x 2 y 1
f
2x 4 y 0
y
*Aplicamos 2das derivadas parciales para
determinar y evaluar el óptimo:
2 f
2
x 2
2 f 2 2
4
y 2 H ( x, y ) H 4
2 4
2 f 2 f
2
xy yx
Punto P(2,1) es Máximo Local
b) Método de pasos ascendentes: Max f(x)
1RA iteración: Xo=[-1;1]
Las derivadas parciales se evalúan en P(-1,1):
𝜕𝑓 f
2 y 2 2 x 6
𝜕𝑥 x 2𝑥
2𝑦 + 2 − 6
𝛻𝑓 = = = f 6i 6 j
𝜕𝑓 f
2𝑥 − 4𝑦 2 x 4 y−6
6
𝜕𝑦 y f
(
x, y ) 2 xy 2 x x 2
2 y 2
G=[2(0.2)+2-2(-0.2) f ( x ) e 2
k
2(-0.2)-4(0.2)]
2.8
Error2= = 3.0436
−1.2
Minimizar f(x1, x2, x3) = (x1)2 + x1(1 – x2) + (x2)2
– x2x3 + (x3)2 + x3
Seleccionemos
0
x 0
0
0
Serie de Taylor:
1
𝑓 𝑥 ≈𝑓 𝑥𝑘 + 𝛻𝑇𝑓 𝑥𝑘 ∆𝑥 𝑘 + ∆𝑥 𝑘 𝐻(𝑥 𝐾 )∆𝑥 𝑘 +…
2
El mínimo de f(x) es obtenido diferenciando la
aproximación cuadrática de f(x) con respecto a cada
uno de los componentes de x e igualando a cero.
𝛻𝑓 𝑥 ≈ 𝛻𝑓 𝑥 𝑘 + 𝐻 𝑥 𝑘 ∆𝑥 𝑘 = 0
−𝐻 𝑥 𝑘 ∆𝑥 𝑘 = 𝛻𝑓 𝑥 𝑘
∆𝑥 𝑘 = −𝐻 −1 𝑥 𝑘 . 𝛻𝑓 𝑥 𝑘
𝑥 𝑘+1 − 𝑥 𝑘 = −𝐻 −1 𝑥 𝑘 . 𝛻𝑓 𝑥 𝑘
𝑥 𝑘+1 = 𝑥 𝑘 − 𝐻 −1 𝑥 𝑘 . 𝛻𝑓 𝑥 𝑘
Podemos generalizar esta ecuación para dar
una expresión iterativa del Método de
Newton:
x k 1 k
x f (x )
2 k
1
f (x )
k
Solución:
𝜕𝑓
𝜕𝑥 2𝑦 + 2 − 2𝑥 6
𝛻f = 𝜕𝑓 = ⇒ 𝛻𝑓(−1,1) =
2𝑥 − 4𝑦 −6
𝜕𝑦
2 f 2 f
2
x xy
H 2
f 2 f
2
yx y
−1 −1 −0.5 6 2
𝑋1 = − =
1 −0.5 −0.5 −6 1
−1 −1 −0.5 6 2
𝑋1 = − =
1 −0.5 −0.5 −6 1
−1 −3 2
𝑋1 = − =
1 0 1
Error= 𝑋1 − 𝑋0
3
𝑋1 − 𝑋0 =
0
Error= 32 + 02 = 3
Si Error>tolerancia se debe seguir iterando, y
X1 se convierte en el Xo
1. Elige un punto inicial, x0
2. Calcula f(xk) y 2f(xk)
3. Calcula la siguiente x usando la ecuación
x k 1 k
x f (x )
2 k
1
f (x )
k
f (x) 2 x1 x2 1 x1 2 x2 x3 x2 2 x3 1
El Hessiano es:
2 1 0
f (x) 1 2 1
2
0 1 2
2 1 0
1 3 1 1
4 2 4
2
1
f (x) 1 2 1 1
2
1 1
2
0 1 2 1 1 3
4 2 4
0
Entonces, elige
x 0
0
0
f (x0 ) 1 0 1
Así, la nueva x es:
1
x x f ( x ) f ( x 0 )
1 0 2 0
3 1 1
0 4 2 4 1
0 1 1 1 0
2 2
0 1 1 3 1
4 2 4
1
x1 1
1
Ahora calcula el nuevo gradiente:
f (x ) 2 1 1 1 2 1 1 2 1 0 0 0
1