Академический Документы
Профессиональный Документы
Культура Документы
Indice general
5. M
etodos lineales multipaso
. . . . . . . . . . . . .
. . . . .
Captulo 5
M
etodos lineales multipaso
5.1.
La estructura general de un metodo lineal multipaso de k pasos para aproximar la solucion del problema de valores iniciales
0
y (x) = f (x, y(x))
(5.1)
y(a) =
viene dada por
k
X
j yn+j = h
j=0
k
X
j fn+j ,
(5.2)
j=0
[s]
[0]
yn+k arbitrario.
(5.3)
1
.
L|k |
(5.4)
Esta condicion puede ser muy restrictiva cuando L es muy grande, problema
que trataremos en el captulo de sistemas stiff.
5.2.
Deducci
on de m
etodos lineales multipaso
Vamos a ver tres tecnicas para obtener M.L.M que son el uso de expansiones
de Taylor, el empleo de integracion numerica y el uso de la interpolacion.
5.2.1.
h2 00
y (xn ) +
2!
h2 00
y (xn ) +
2!
Esto nos permite definir yn como la solucion de la ecuacion
yn+1 = yn + hfn
que es el metodo de Euler. El caso mas sencillo de metodo lineal multipaso,
en este caso de un paso. Con error local de truncatura O(h2 ) y orden uno.
(5.5)
1
2
1 ,
C1 = 1 1 0
1 1
C3 = 1 .
6 2
5.2.2.
Mediante integraci
on num
erica
Si consideramos la identidad
Z
xn+2
y(xn+2 ) y(xn )
xn+2
f (x, y(x))dx
y (x)dx =
xn
xn
y aproximamos la integral por una formula de cuadratura, por ejemplo la integral del polinomio de interpolacion de Lagrange de grado dos que interpola
los puntos (xn , fn ), (xn+1 , fn+1 ), (xn+2 , fn+2 )
Z 2
Z xn+2
Z xn+2
r(r 1) 2
0
fn + rfn +
p2 (x)dx =
y (x)dx
fn hdr
2!
0
xn
xn
1
= h(2fn + 2fn + 2 fn )
3
de donde deducimos la expresion
yn+2 yn =
h
(fn+2 + 4fn+1 + fn ) ,
3
h
(5fn+2 + 8fn+1 fn ) ,
12
5.2.3.
Mediante interpolaci
on
Vamos a volver a obtener la regla de Simpson pero con la tercera tecnica basada en la interpolacion numerica. Consideremos y(x) y la aproximamos por
un polinomio de interpolacion I(x). Exigimos que I(x) interpole los puntos
(xn+j , yn+j ), j = 0, 1, 2 y tambien que su derivada I 0 (x) tome los valores fn+j
para j = 0, 1, 2. Es decir I(x) es un polinomio de interpolacion de Hermite
que cumple las condiciones
I(xn+j ) = yn+j ,
I 0 (xn+j ) = fn+j ,
5
j = 0, 1, 2.
h
(fn+2 + 4fn+1 + fn ) .
3
Esta tecnica ilustra que una aplicacion de un metodo lineal multipaso puede
interpretarse como representar localmente la solucion por un polinomio.
Cuando buscamos representar y(x) por un polinomio no localmente en [xn , xn+k ],
sino globalmente en [x0 , xN ], para no utilizar un polinomio de grado alto podemos usar como interpolante un spline. Recordemos que un spline Sm (x) de
grado m en [a, b] es un polinomio de grado m en cada subintervalo [xj , xj+1 ],
j = 0, 1, . . . , N 1 y que Sm (x) C m1 [a, b].
Consideremos en primer lugar el polinomio cuadratico
Ij (x) = aj2 x2 + aj1 x + aj0
usado para aproximar y(x) en el intervalo [xj , xj+1 ]. Como hemos hecho antes
le imponemos 4 condiciones
Ij (xj ) = yj ,
Ij0 (xj ) = fj ,
Ij (xj+1 ) = yj+1
Ij0 (xj+1 ) = fj+1 .
h
(fj+1 + fj ).
2
Por tanto aplicar la regla del trapecio en los intervalo [xj , xj+1 ], [xj+1 , xj+2 ],
... es equivalente a representar y(x) por polinomios de grado dos en cada
subintervalo, pero ademas globalmente tenemos continuidad del aproximante
y de su derivada, ya que en los nodos se verifica que
Ij (xj+1 ) = Ij+1 (xj+1 ) = yj+1
0
Ij0 (xj+1 ) = Ij+1
(xj+1 ) = fj+1 .
por lo que es un spline cuadratico.
= Ij+1 (xj+1 )
= Ij+1 (xj+2 )
0
= Ij+1
(xj+1 )
0
= Ij+1 (xj+2 )
= yj+1
= yj+2
= fj+1
= fj+2 ,
5.3.
Vamos a ver las definiciones basicas asociadas a los metodos lineales multipaso. Empezamos por la definicion de convergencia que indica que nuestras
aproximaciones numericas yn tienden a la solucion exacta y(xn ) cuando se
toman pasos h cada vez mas finos. En este caso el metodo de k pasos necesita
k condiciones iniciales y0 , y1 , . . . , yk1 para empezar a trabajar y exigiremos
que todas ellas tiendan a y(a) = puesto que los x0 , x1 , . . . , xk1 tienden
todos ellos a x0 = a.
Definici
on 5.3.1. El metodo lineal multipaso 5.2 se dice que es convergente
para todo problema de valores iniciales 5.1 si
lm yn = y(x) x [a, b]
k
X
(5.6)
j=0
donde y(x) es una funcion arbitraria. Haciendo expansiones de Taylor podemos expresar este operador como
L[y(x); h] = C0 y(x) + C1 hy 0 (x) + + Cq hq y (q) (x) + ,
(5.7)
t2
D0
2!
..
.
Cp = Dp + tDp1 + +
tp
D0 .
p!
j y(xn + jh) = h
j=0
k
X
(5.11)
j=0
= h
k
X
j=0
j yn+j = h
j=0
k
X
j f (xn+j , yn+j ),
j=0
j = 0
k
X
j=0
j=0
jj =
k
X
j .
(5.13)
j=0
j = 0, 1, . . . , k
j=0
k
X
j yn+j +
k
X
j=0
j j,n (h)
j=0
k
X
j = h
j=0
k
X
k
X
j fn+j +
j=0
j j,n (h).
j=0
j = 1, 2, . . . , k
j yn+j
j=0
k
X
j yn = h
j=0
k
X
jj y 0 (x) + h
j=0
k
X
jj j,n (h)
j=0
es decir
h
k
X
j fn+j yn
j=0
Como
Pk
j=0
k
X
j = hy 0 (x)
j=0
k
X
jj + h
j=0
k
X
jj j,n (h).
j=0
j fn+j = y 0 (x)
k
X
jj +
j=0
11
k
X
j=0
jj j,n (h).
k
X
j = y 0 (x)
j=0
k
X
jj ,
j=0
luego,
y(x) satisface
Psi
Pk la ecuacion diferencial, necesariamente se ha de tener
k
que j=0 jj = j=0 j , que es la segunda condicion.
Definici
on 5.3.5. Se definen el primer y segundo polinomio caracterstico
del MLM y se denotan por () y () respectivamente como
() =
k
X
j j
j=0
() =
k
X
j j .
j=0
0 (1) = (1).
h0
es decir,
|s | 1.
12
Definici
on 5.3.6 (Cero-estabilidad). El MLM 5.2 se dice que es cero estable
si las races del primer polinomio caracterstico () tienen modulo menor o
igual de uno y las de modulo uno son simples.
Teorema 5.3.1. Las condiciones necesarias y suficientes para que un metodo
lineal multipaso sea convergente son que sea consistente y cero estable.
5.4.
Orden alcanzable. M
etodos optimales.
Fijado el n
umero de pasos k podemos estar interesados en elegir los coeficientes j y j para que el metodo tenga un orden alto cuando no el mayor
posible. La consistencia no es problema y la las limitaciones nos vienen del
lado de la estabilidad. Buscamos el mayor orden pero sin perder la cero estalibidad para que el metodo sea convergente.
Un MLM de k pasos tiene 2k + 2 coeficientes j y j , pero como fijamos
k = 1 en realidad son 2k + 1 parametros libres si el metodo es implcito y
2k si es explcito. Por otro lado para que el metodo tenga orden p se deben
cumplir las p+1 ecuaciones lineales de la definicion 5.3.2. Por tanto el maximo
orden alcanzable por un MLM de k pasos es 2k si el metodo es implcito y
2k 1 si es explcito. Sin embargo estos metodos maximales no son por lo
general cero estables como se indica en el siguiente
Teorema 5.4.1. No existen MLM de k pasos cero estables de orden mayor
que k + 1 si k es impar ni de orden mayor que k + 2 si k es par.
Los de orden k + 2 se llaman optimales y tienen todas las races del primer
polinomio caracterstico en la frontera del crculo unidad.
5.5.
M
etodos Adams
Los MLM que se obtienen a partir de formulas de integracion numerica tienen siempre una estructura en la que solo aparecen dos yn+j . Cuando estan
basados en formulas de tipo interpolatorio, por ejemplo cuando se expresa
el polinomio de interpolacion en diferencias regresivas tienen una forma del
tipo
1 2
1 3
1
yn+1 yn = h 1 fn+1
(5.14)
2
12
24
Si truncamos tras los dos primeros terminos obtenemos
1
yn+1 yn = h(fn+1 + fn )
2
13
1
2 = 12
(23 5a b)
1
1 = 3 (4 2a + 2b)
1
0 = 12
(5 + a + 5b)
1
Cp+1 = 24
(9 + a + b).
Metodos Implcitos
k=1:
1 = 1
1 = 21
0 = 1 0 = 12
1
.
p=2
Cp+1 = 12
14
k=2:
1
2 = 1
2 = 12
(5 + a)
2
1 = 1 a 1 = 3 (1 a)
1
(1 5a).
0 = a
0 = 12
1
(1 + a).
Si a 6= 1, entonces p = 3 y Cp+1 = 24
1
Si a = 1, entonces p = 4 y Cp+1 = 90
.
k=3:
3 = 1
2 = 1 a
1 = a + b
0 = b
p=4
5.6.
1
3 = 24
(9 + a + b)
1
2 = 24 (19 13a 5b)
1
(5 13a + 19b)
1 = 24
1
0 = 24 (1 + a + 9b)
1
Cp+1 = 720
(19 + 11a + 19b).
j y(xn+j ) = h
j=0
k
X
j=0
j yn+j = h
j=0
k
X
(5.15)
j=0
j en+j = h
k
X
j=0
donde n+k = Tn+k Rn+k . Aplicando el teorema del valor medio podemos
escribir
f (xn+j , n+j )
f (xn+j , y(xn+j )) f (xn+j , yn+j ) = [y(xn+j ) yn+j ]
y
f
= en+j (xn+j , n+j ).
y
15
Luego
k
X
j en+j = h
k
X
j=0
j=0
f (xn+j , n+j )
en+j + n+k .
y
constante, n = ,
constante.
(j hj )
en+j = .
j=0
k
X
ds rsn
s=0
k
P
,
j
j=0
donde las rs son las races, que suponemos distintas, del polinomio caracterstico
k
X
(j hj )rj = 0.
j=0
(r, h)
= 0,
(5.16)
sus coeficientes por lo que todas las rs s . Vamos a probar que para un
metodo de orden p
p+1 )
r1 = eh + O(h
(5.17)
En efecto, por definicion de orden L[y(x); h] = O(hp+1 ), para cualquier funcion y(x). Eligiendo y(x) = ex se tiene
k
X
p+1 )
j e(xn +jh) hj e(xn +jh) = O(h
j=0
es decir
exn
k n
o
X
j ej h = O(h
p+1 )
j ej h h
j=0
p+1 ).
h ) = O(h
(eh ) h(e
(eh , h)
en funcion de sus races se tiene
Escribiendo (r, h)
(r) h(r)
k )(r r1 )(r r2 ) (r rk ),
(r, h)
(k h
y poniendo r = eh se obtiene
p+1 ).
(eh r1 )(eh r2 ) (eh rk ) = O(h
h
p+1
races rs del polinomio de estabilidad (r, h) satisfacen que |rs | < |r1 |, s =
2, 3, , k. Estos forman la region de estabilidad relativa del metodo y los
valores reales de dicha region el intervalo de estabilidad relativa.
Desde el punto de vista practico se suele exigir que todas las races esten
acotadas por eh .
17
(5.18)
3
h) = 0
2
(5.19)
+ O(h
2 ) y r2 =
Como 1 = 1 y 2 = 1 podemos aproximar r1 = 1 + h
2
+ O(h
). Comparando (r r1 )(r r2 ) con 5.19, se obtiene que
1 + h
+ O(h
2 ).
2 ) y r2 = 1 1 h
r1 = 1 + h + O(h
2
Podemos por tanto observar que existe un intervalo de estabilidad absoluta
de la forma (, 0) y un intervalo de estabilidad relativa (0, ).
5.7.
M
etodos para obtener intervalos de estabilidad absoluta y relativa
Vamos a estudiar cuatro metodos para calcular intervalos o regiones de estabilidad absoluta y relativa.
5.7.1.
M
etodo de representaci
on geom
etrica de las races
h
esten por debajo de 1 o por debajo de e
Ejemplo 5.2. Consideremos el metodo explcito de 2 pasos
1
yn+2 yn+1 = h(3fn+1 fn ).
2
Es consistente y cero estable y su polinomio de estabilidad es
3
1
2
(r, h) = r 1 + h r + h
=0
2
2
(5.20)
(5.21)
2
eh
1
r1 HhL
-3
5.7.2.
r2 HhL
-2
-1
M
etodo de Schur
Se basa en un teorema de Schur que caracteriza las condiciones para que las
races de polinomios tengan modulo menor de uno. Dado un polinomio de
grado k con coeficientes complejos
p(r) = ck rk + ck1 rk1 + + c1 r + c0 ,
se dice que es de Schur si sus races rs satisfacen que tiene modulo inferior a
uno. Definimos el polinomio
p(r) = c0 rk + c1 rk1 + + ck1 r + ck ,
donde cj es el conjugado de cj y definimos
p1 (r) =
1
(
p(0)p(r) p(0)
p(r)) .
r
Entonces llamando r = Reh bastara exigir que los |Rs | < 1. Las desigualdades
que quedan son mas complicadas de resolver.
Ejemplo 5.3. Apliquemos este criterio al mismo metodo anterior 5.20 para
calcular su intervalo de estabilidad absoluta. Su polinomio de estabilidad era
19
(r, h) = r 1 + h r + h
2
2
= 1 hr
2 1 + 3h
r+1
(r, h)
2
2
1
1
1 (r, h) =
1 h
1+ h r 1+
2
2
3
h
2
1
,
1 > h
2
5.7.3.
Criterio de Routh-Hurwitz
=
h
=0
1z
1z
1z
y multiplicando por (1 z)k obtenemos una ecuacion polinomica de grado k
a0 z k + a1 z k1 + + ak1 z + ak = 0,
donde supondremos sin perdida de generalidad que a0 > 0. La condicion
necesaria y suficiente para que las races de esta ecuacion tengan Rez < 0 es
que los menores principales de la matriz Q sean definidos positivos, donde Q
es la matriz k k definida por
a1 a3 a5 a2k1
a0 a2 a4 a2k2
0 a1 a3 a2k3
Q = 0 a a a
0
2
2k4
.. .. .. . .
..
. . .
.
.
0 0 0
ak
20
5.7.4.
M
etodo de localizaci
on de la frontera
i |eh |) = 0
(ei |eh |) h(e
en ambos casos este metodo esta pensado para aplicarlo computacionalmente,
con ayuda de ordenador.
21
h()
= 2 i
3e 1
es la funcion a dibujar.
Si solo estuviesemos interesados en calcular el intervalo de estabilidad absoluta podemos hacer algunos calculos a mano de la manera siguiente. Como
buscamos valores reales, miramos a los valores de que hacen que h()
sea
real es decir a los valores de que hacen que la parte imaginaria de h()
sea cero. Luego, para estos valores evaluamos la parte real de h().
En es
te ejemplo los valores son = 0 y = , para los que h() vale 0 y 1
respectivamente obteniendo de nuevo el intervalo (1, 0).
5.8.
M
etodos Predictor Corrector
k1
X
j=0
k1
X
j fn+j ,
(5.22)
j=0
vimos que una forma de aproximar la solucion yn+k era utilizar la iteracion
de punto fijo
[s+1]
yn+k
k1
X
j yn+j =
[s]
hk f (xn+k , yn+k )
j=0
+h
k1
X
j fn+j ,
(5.23)
j=0
[0]
donde yn+k es arbitraria. Sabemos que esta iteracion converge si h < L|1 k | .
En cada iteraccion hay que evaluar la funcion f (x, y) que, a veces, puede
[0]
ser costosa. Por ello es deseable tener una buena estimacion inicial yn+k ,
para que la iteracion de punto fijo converja mas rapidamente. Esta es la
filosofa de los metodos predictor corrector. Se utiliza un metodo explcito,
[0]
que denominaremos predictor, para obtener una primera estimacion yn+k de
yn+k y despues se utiliza un metodo implcito en el modo 5.23, que llamaremos
corrector, para mejorar la aproximacion. Este corrector se puede aplicar un
n
umero fijo m de veces o se puede aplicar en el modo iteracion hasta la
convergencia que quiere decir que la iteracion 5.23 se aplica hasta que la
diferencia entre dos aproximaciones sea suficientemente peque
na, es decir,
[s+1]
[s]
|yn+k yn+k | < , donde es una tolerancia preasignada. Las propiedades
22
() =
k j ,
= 1,
() =
j=0
k1
X
k j
(5.24)
k j .
(5.25)
j=0
k
X
k j ,
k = 1,
() =
j=0
k
X
j=0
yn+k +
k1
P
[m]
j yn+j = h
j=0
[s+1]
k1
P
[m]
j fn+j
j=0
[s]
fn+k
yn+k +
k1
P
[m]
j yn+j
j=0
[s]
= f (xn+k , yn+k )
k1
P
s = 0, 1, . . . , m 1
[s]
[m]
= hk fn+k + h
j fn+j
j=0
[m]
fn+k
[m]
f (xn+k , yn+k )
(5.26)
23
yn+k +
k1
P
[m]
j yn+j = h
k1
P
[m1]
j fn+j
j=0
j=0
[s]
[s]
fn+k = f (xn+k , yn+k )
k1
k1
P
P
s = 0, 1, . . . , m 1
[s+1]
[m]
[s]
[m1]
yn+k +
j yn+j = hk fn+k + h
j fn+j
j=0
j=0
(5.27)
5.8.1.
+1
y (p
+1)
(x) + O(hp
+2
(5.28)
(5.29)
y(xn+k ) + yn+k = Cp +1 hp
+1
y (p
+1)
(x) + O(hp
+2
(5.30)
para el corrector el analisis que hicimos para los metodos implcitos hay que
adaptarlo pues aqu se aplican con la iteracion de punto fijo en vez de resolver
de forma exacta la ecuacion no lineal. Es decir de la definicion de error local
de truncatura
k
X
j y(xn + jh) = h
j=0
k
X
j=0
k1
X
[m]
j yn+j
[s]
hk f (xn+k , yn+k )
j=0
+h
k1
X
j=0
24
[mt]
j f (xn+j , yn+j )
m = 1, 2, . . . .
Cp+1
hp+1 y (p+1) (xn ) = y(xn+k ) yn+k + O(hp+2 )
restando se tiene
[m]
[0]
(Cp+1
Cp+1 )hp+1 y (p+1) (xn ) = yn+k yn+k + O(hp+2 ).
(5.32)
Por lo que la parte principal del error local de truncatura del metodo es
Cp+1 hp+1 y (p+1) (xn )
Cp+1
[m]
[0]
(y
yn+k ).
Cp+1 n+k
Cp+1
Cp+1
hp+1 y (p+1) (xn )
Cp+1
[m]
[0]
(yn+k yn+k ).
Cp+1 Cp+1
[0]
Cp+1
hp+1 y (p+1) (xn ) = Cp+1
hp+1 y (p+1) (xn1 ) + O(hp+2 )
Cp+1
[m]
[0]
=
(yn+k1 yn+k1 ) + O(hp+2 ).
Cp+1 Cp+1
26
[0]
De esta forma mejoraremos la solucion sumando este termino al yn+k , operacion que denotaremos por M
[0]
yn+k
[0]
yn+k
Cp+1
[m]
[0]
+
(yn+k1 yn+k1 ).
Cp+1 Cp+1
[m]
[m]
yn+k = yn+k +
Cp+1
[m]
[0]
(yn+k yn+k ).
Cp+1
Cp+1
5.9.
k1
X
[1]
j yn+j
= h
j=0
k1
X
[1]
j=0
k
X
[1]
j yn+j
[0]
hk f (xn+k , yn+k )
j=0
+h
k1
X
[1]
j=0
Por definicion de error local de truncatura la solucion teorica y(x) del problema de valores iniciales verifica
k
X
j y(xn+j )
= h
j=0
k
X
j=0
k1
X
j=0
j y(xn+j ) = h
k
X
j=0
27
n[1] ,
e[1]
n = y(xn ) y
restando las ecuaciones anteriores y con las mismas hipotesis que en los MLM
llegamos a
[0]
en+k
k1
X
[1]
j en+j
= h
k1
X
j=0
[1]
j en+j + constante
j=0
k
X
[1]
j en+j
k e[0] + h
= h
n+k
j=0
k1
X
[1]
j en+j + constante,
j=0
[0]
[1]
j en+j h
j=0
k1
X
[1]
k
j en+j = h
" k1
X
j=0
[1]
j en+j h
j=0
k1
X
#
[1]
j en+j + constante.
j=0
[1]
j )
k
(j h
en+j = h
j=0
k
X
[1]
)
(j h
j en+j + constante.
j=0
[1]
k
X
ds rsn + constante,
s=1
donde las ds son constantes arbitrarias y las rs son las races (supuestas
distintas) del polinomio
= (r) h(r)
k (r) h
(r) .
P ECE (r, h)
+ h
(5.33)
En el caso general para el modo P (EC)m E se obtendra
= (r) h(r)
(r) h
(r) ,
P (EC)m E (r, h)
+ Mm (h)
donde
= (h
k )m
Mm (h)
k
1 h
k )m ,
1 (h
28
m = 1, 2 . . .
El analisis a
un se complica mas en el modo P (EC)m donde se obtiene
= k rk (r) h(r)
p+1 )
En los MLM vimos que si el metodo tena orden p entonces r1 = eh +O(h
h
p+1
). Ahora usando el mismo argumento teneprobando que (e , h)) = O(h
mos para el predictor y para el corrector por separado
(eh ) = O(h
p+1 )
(eh ) h
h ) = O(h
p+1 )
(eh ) h(e
Multiplicando la primera ecuacion por (eh ) y la segunda por (eh ) y restando tenemos
p+1 ),
(5.34)
(eh )(eh ) (eh ) (eh ) = O(h
= O(h
m ) se concluye se la misma manera que para los MLM
y como Mm (h)
que el polinomio de estabilidad de los metodos predictor corrector en los
29