Вы находитесь на странице: 1из 30

5.

Metodos Lineales Multipaso


Eduardo Sainz de la Maza
11 de mayo de 2011

Indice general
5. M
etodos lineales multipaso

5.1. Forma general de un M.L.M. . . . . . . . . . . . . . . . . . . .

5.2. Deduccion de metodos lineales multipaso . . . . . . . . . . . .

5.2.1. Mediante expansiones de Taylor . . . . . . . . . . . . .

5.2.2. Mediante integracion numerica

. . . . . . . . . . . . .

5.2.3. Mediante interpolacion . . . . . . . . . . . . . . . . . .

5.3. Convergencia, orden, consistencia y cero-estabilidad

. . . . .

5.4. Orden alcanzable. Metodos optimales. . . . . . . . . . . . . . . 13


5.5. Metodos Adams . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.6. Estabilidad absoluta y relativa . . . . . . . . . . . . . . . . . . 15
5.7. Metodos para obtener intervalos de estabilidad absoluta y relativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
5.7.1. Metodo de representacion geometrica de las races . . . 18
5.7.2. Metodo de Schur . . . . . . . . . . . . . . . . . . . . . 19
5.7.3. Criterio de Routh-Hurwitz . . . . . . . . . . . . . . . . 20
5.7.4. Metodo de localizacion de la frontera . . . . . . . . . . 21
5.8. Metodos Predictor Corrector . . . . . . . . . . . . . . . . . . . 22
5.8.1. Error local de truncatura de los metodos P-C. Dispositivo de Milne . . . . . . . . . . . . . . . . . . . . . . 24
5.9. Estabilidad absoluta de los metodos predictor corrector . . . . 27

Captulo 5
M
etodos lineales multipaso
5.1.

Forma general de un M.L.M.

La estructura general de un metodo lineal multipaso de k pasos para aproximar la solucion del problema de valores iniciales
 0
y (x) = f (x, y(x))
(5.1)
y(a) =
viene dada por
k
X

j yn+j = h

j=0

k
X

j fn+j ,

(5.2)

j=0

donde j y j son constantes y donde 0 0 6= 0, es decir no son ambos


nulos. Ademas k 6= 0. Como podemos escalar toda la ecuacion se normaliza
tomando k = 1.
La ecuacion 5.2 es una ecuacion en diferencias finitas de orden k en la que
aparecen k + 1 yj consecutivos relacionados. En general sera no lineal. Se
necesitan k valores iniciales y0 , y1 , . . . , yk1 para empezar a aplicar el metodo.
El MLM es explcito si k = 0 e implcito si k 6= 0. En el caso explcito
podemos despejar yn+k en la ecuacion 5.2 en funcion de valores ya calculados,
siendo solo necesarias k evaluaciones de la funcion f (x, y) por iteracion. Pero
el el caso implcito en cada iteracion hay que resolver una ecuacion no lineal
en yn+k de la forma
yn+k = hk f (xn+k , yn+k ) + g
donde g es una funcion conocida que depende de los valores ya calculados.
En general esta es una ecuacion no lineal en yn+k que se puede resolver con
2

la iteracion de punto fijo


[s+1]

[s]

yn+k = hk f (xn+k , yn+k ) + g,

[0]

yn+k arbitrario.

(5.3)

Sabemos que la iteracion de punto fijo converge si la funcion es contractiva.


Si f (x, y) es Lipschitz en y con constante de Lipschitz L entonces necesitamos
que Lh|k | < 1, es decir que
h<

1
.
L|k |

(5.4)

Esta condicion puede ser muy restrictiva cuando L es muy grande, problema
que trataremos en el captulo de sistemas stiff.

5.2.

Deducci
on de m
etodos lineales multipaso

Vamos a ver tres tecnicas para obtener M.L.M que son el uso de expansiones
de Taylor, el empleo de integracion numerica y el uso de la interpolacion.

5.2.1.

Mediante expansiones de Taylor

Si consideramos la expansion de Taylor


y(xn + h) = y(xn ) + hy 0 (xn ) +

h2 00
y (xn ) +
2!

truncando por los terminos de segundo orden obtenemos la relacion


y(xn + h) y(xn ) + hf (xn , y(xn ))
con un error

h2 00
y (xn ) +
2!
Esto nos permite definir yn como la solucion de la ecuacion
yn+1 = yn + hfn
que es el metodo de Euler. El caso mas sencillo de metodo lineal multipaso,
en este caso de un paso. Con error local de truncatura O(h2 ) y orden uno.

Si hacemos las expansiones


h2 00
h3
y (xn ) + y 3 (xn ) +
2!
3!
3
2
h
h
y(xn h) = y(xn ) hy 0 (xn ) + y 00 (xn ) y 3 (xn ) +
2!
3!
obtenemos restandolas
h3
y(xn + h) y(xn h) = 2hy 0 (xn ) + y 3 (xn ) +
3
lo que nos sugiere el metodo
y(xn + h) = y(xn ) + hy 0 (xn ) +

yn+1 yn1 = 2hfn


que escrito en forma estandard nos da la regla del punto medio
yn+2 yn = 2hfn+1
metodo explcito de dos pasos y con error local 31 y 000 (xn ).
De forma similar podemos obtener metodos lineales multicaso con una estructura concreta, haciendo intervenir los puntos que deseemos. Por ejemplo
si nos planteamos obtener el metodo implcito de un paso mas preciso
yn+1 + 0 yn = h(1 fn+1 + 0 fn ),

(5.5)

haramos expansiones de Taylor de los puntos que intervienen


h2 00
y (xn ) +
2!
h2
y 0 (xn+1 ) = y 0 (xn ) + hy 00 (xn ) + y 000 (xn ) +
2!
sustituyendo en 5.5 y pasando todo a la izquierda de la igualdad se tiene
y(xn+1 ) = y(xn ) + hy 0 (xn ) +

C0 y(xn ) + C1 hy 0 (xn ) + C2 h2 y 00 (xn ) + C3 h3 y 000 (xn ) + 0,


donde
C0 = 1 + 0 ,
C2 =

1
2

1 ,

C1 = 1 1 0
1 1
C3 = 1 .
6 2

Para obtener el mayor orden posible tomaremos 0 = 1, 1 = 0 = 12 .


1
Entonces C3 toma el valor 12
obteniendo el MLM conocido como la regla
del trapecio.
h
yn+1 yn = (fn+1 + fn ),
2
1 3 000
con error local 12 h y (xn ).
4

5.2.2.

Mediante integraci
on num
erica

Si consideramos la identidad
Z

xn+2

y(xn+2 ) y(xn )

xn+2

f (x, y(x))dx

y (x)dx =
xn

xn

y aproximamos la integral por una formula de cuadratura, por ejemplo la integral del polinomio de interpolacion de Lagrange de grado dos que interpola
los puntos (xn , fn ), (xn+1 , fn+1 ), (xn+2 , fn+2 )

Z 2
Z xn+2
Z xn+2
r(r 1) 2
0
fn + rfn +
p2 (x)dx =
y (x)dx
fn hdr
2!
0
xn
xn
1
= h(2fn + 2fn + 2 fn )
3
de donde deducimos la expresion
yn+2 yn =

h
(fn+2 + 4fn+1 + fn ) ,
3

que es la regla de Simpson un metodo implcito de dos pasos. Si tomamos


Z xn+2
y(xn+2 ) y(xn+1 )
y 0 (x)dx,
xn+1

y utilizamos el mismo polinomio interpolador anterior obtenemos


yn+2 yn+1 =

h
(5fn+2 + 8fn+1 fn ) ,
12

que es el metodo Adams-Moulton de dos pasos. Todos los metodos obtenidos


con esta tecnica solo tienen dos valores de yj .

5.2.3.

Mediante interpolaci
on

Vamos a volver a obtener la regla de Simpson pero con la tercera tecnica basada en la interpolacion numerica. Consideremos y(x) y la aproximamos por
un polinomio de interpolacion I(x). Exigimos que I(x) interpole los puntos
(xn+j , yn+j ), j = 0, 1, 2 y tambien que su derivada I 0 (x) tome los valores fn+j
para j = 0, 1, 2. Es decir I(x) es un polinomio de interpolacion de Hermite
que cumple las condiciones
I(xn+j ) = yn+j ,

I 0 (xn+j ) = fn+j ,
5

j = 0, 1, 2.

tenemos seis condiciones y en vez de elegir I(x) como el polinomio de Hermite


de grado cinco, buscamos un polinomio de grado 4, sea
I(x) = ax4 + bx3 + cx2 + dx + e
eliminando los cinco coeficientes a, b, c, d, e y relacionandolos con las seis ecuaciones obtenemos de nuevo la identidad
yn+2 yn =

h
(fn+2 + 4fn+1 + fn ) .
3

Esta tecnica ilustra que una aplicacion de un metodo lineal multipaso puede
interpretarse como representar localmente la solucion por un polinomio.
Cuando buscamos representar y(x) por un polinomio no localmente en [xn , xn+k ],
sino globalmente en [x0 , xN ], para no utilizar un polinomio de grado alto podemos usar como interpolante un spline. Recordemos que un spline Sm (x) de
grado m en [a, b] es un polinomio de grado m en cada subintervalo [xj , xj+1 ],
j = 0, 1, . . . , N 1 y que Sm (x) C m1 [a, b].
Consideremos en primer lugar el polinomio cuadratico
Ij (x) = aj2 x2 + aj1 x + aj0
usado para aproximar y(x) en el intervalo [xj , xj+1 ]. Como hemos hecho antes
le imponemos 4 condiciones
Ij (xj ) = yj ,
Ij0 (xj ) = fj ,

Ij (xj+1 ) = yj+1
Ij0 (xj+1 ) = fj+1 .

obtenemos de nuevo la regla del trapecio


yj+1 yj =

h
(fj+1 + fj ).
2

Por tanto aplicar la regla del trapecio en los intervalo [xj , xj+1 ], [xj+1 , xj+2 ],
... es equivalente a representar y(x) por polinomios de grado dos en cada
subintervalo, pero ademas globalmente tenemos continuidad del aproximante
y de su derivada, ya que en los nodos se verifica que
Ij (xj+1 ) = Ij+1 (xj+1 ) = yj+1
0
Ij0 (xj+1 ) = Ij+1
(xj+1 ) = fj+1 .
por lo que es un spline cuadratico.

Si hacemos un analisis parecido con la regla de Simpson podemos interpretar


que una aplicacion de la regla de Simpson
h
yj+2 yj = (fj+2 + 4fj+1 + fj ) .
3
es equivalente a representar y(x) en [xj , xj+2 ] por un polinomio de grado
cuatro Ij (x). En el paso siguiente aplicar esta regla
h
yj+3 yj+1 = (fj+3 + 4fj+2 + fj+1 )
3
equivale a representar y(x) en [xj+1 , xj+3 ] por otro polinomio de grado cuatro
Ij+1 (x), as en el intervalo que se solapa [xj+1 , xj+2 ] tenemos dos representaciones diferentes Ij (x) e Ij+1 (x) de y(x), que no tienen por que coincidir.
Estas deben cumplir las cuatro relaciones
Ij (xj+1 )
Ij (xj+2 )
Ij0 (xj+1 )
Ij0 (xj+2 )

= Ij+1 (xj+1 )
= Ij+1 (xj+2 )
0
= Ij+1
(xj+1 )
0
= Ij+1 (xj+2 )

= yj+1
= yj+2
= fj+1
= fj+2 ,

que no son suficientes para determinar la igualdad de ambos polinomios. Por


lo que no podemos concluir nada sobre la aplicacion global de la regla de
Simpson.
Sin embargo tambien es verdad que una aplicacion de la regla de Simpson
en [xj , xj+2 ] equivale a representar y(x) por un spline c
ubico que depende de
cinco parametros
S3j (x) = aj3 x3 + aj2 x2 + aj1 x + aj0 para x [xj , xj+1 ]
= aj3 x3 + aj2 x2 + aj1 x + aj0 + cj+1 (x xj+1 )3 para x [xj+1 , xj+2 ].
analogamente en el siguiente paso aplicar la regla de Simpson equivale a
representar y(x) en [xj+1 , xj+3 ] por otro spline c
ubico S3j+1 (x). De nuevo en
el intervalo que se solapa [xj+1 , xj+2 ] tenemos dos representaciones diferentes
S3j (x) y S3j+1 (x) de y(x). En dicho intervalo ambas representaciones son dos
polinomios c
ubicos que cumplen las cuatro condiciones
S3j (xj+1 ) = S3j+1 (xj+1 ) = yj+1
S3j (xj+2 ) = S3j+1 (xj+2 ) = yj+2
0

S3j (xj+1 ) = S3j+1 (xj+1 ) = fj+1


S3j (xj+2 ) = S3j+1 (xj+2 ) = fj+2 ,
que son suficientes para implicar que coinciden. Por ello se puede interpretar que aplicar la regla de Simpson en todo el intervalo [x0 , xN ] equivale a
representar la solucion y(x) globalmente por un spline c
ubico.
7

5.3.

Convergencia, orden, consistencia y ceroestabilidad

Vamos a ver las definiciones basicas asociadas a los metodos lineales multipaso. Empezamos por la definicion de convergencia que indica que nuestras
aproximaciones numericas yn tienden a la solucion exacta y(xn ) cuando se
toman pasos h cada vez mas finos. En este caso el metodo de k pasos necesita
k condiciones iniciales y0 , y1 , . . . , yk1 para empezar a trabajar y exigiremos
que todas ellas tiendan a y(a) = puesto que los x0 , x1 , . . . , xk1 tienden
todos ellos a x0 = a.
Definici
on 5.3.1. El metodo lineal multipaso 5.2 se dice que es convergente
para todo problema de valores iniciales 5.1 si
lm yn = y(x) x [a, b]

con n , h 0, xn = a + nh x fijo, supuesto que las condiciones


iniciales yk = k (h) verifican limh0 k (h) = , k = 0, 1, . . . , k 1.
Definimos el operador L asociado al metodo por
L[y(x); h] =

k
X

[j (y(x + jh) hj y 0 (x + jh)] ,

(5.6)

j=0

donde y(x) es una funcion arbitraria. Haciendo expansiones de Taylor podemos expresar este operador como
L[y(x); h] = C0 y(x) + C1 hy 0 (x) + + Cq hq y (q) (x) + ,

(5.7)

donde las Cq son constantes.


Definici
on 5.3.2 (Orden). El MLM 5.2 tiene orden p si en la ecuacion 5.5
C0 = C1 = . . . = Cp = 0 y Cp+1 6= 0.
Estos Cq dependen de los coeficientes j y j del metodo
C0 = 0 + 1 + 2 + + k
C1 = 1 + 22 + + kk (0 + 1 + 2 + + k )
(5.8)

1
1
(1 + 2q 2 + + k q k )
1 + 2q1 2 + + k q1 k
Cq =
q!
(q 1)!

La constante Cp+1 se llama constante de error del metodo. Tambien se


podran haber realizado las expansiones de Taylor del operador L en un
punto x + th en vez de en x, en cuyo caso obtendramos
L[y(x); h] = D0 y(x+th)+D1 hy 0 (x+th)+ +Dq hq y (q) (x+th)+ , (5.9)
expandiendo estas y comparando con 5.6 obtenemos
C0 = D0
C1 = D1 + tD0
C2 = D2 + tD1 +
..
.

t2
D0
2!

..
.

Cp = Dp + tDp1 + +

tp
D0 .
p!

Se verifica que C0 = = Cp = 0 si y solo si D0 = = Dp = 0 y en


ese caso tambien Cp+1 = Dp+1 . Analogamente podemos expresar los Dq en
funcion de los coeficientes del metodo
D0 = 0 + 1 + 2 + + k
D1 = t0 + (1 t)1 + (2 t)2 + + (k t)k (0 + 1 + 2 + + k )
1
[(t)q 0 + (1 t)q 1 + (2 t)q 2 + + (k t)q k ]
(5.10)
Dq =
q!


1

(t)q1 0 + (1 t)q1 1 + (2 t)q1 2 + + (k t)q1 k


(q 1)!
Definici
on 5.3.3 (Error local de truncatura). Se define el error local de truncatura del metodo 5.2 en el punto xn+k y se denota por Tn+k = L[y(xn ); h],
donde y(x) es la solucion teorica del problema de valores iniciales 5.1.
Analicemos si el error local de truncatura coincide con el error cometido
en un paso, es decir con el error global, cuando se hace la hipotesis de que
no se han cometido errores previos. Si suponemos que yn+j = y(xn+j ) para
j = 0, 1, . . . , k 1. De 5.6 se tiene
k
X

j y(xn + jh) = h

j=0

k
X

j y 0 (xn + jh) + L[y(xn ); h]

(5.11)

j=0

= h

k
X

j f (xn + jh, y(xn + jh)) + L[y(xn ); h]

j=0

por otra parte el metodo satisface


k
X

j yn+j = h

j=0

k
X

j f (xn+j , yn+j ),

j=0

restando ambas y teniendo en cuenta la hipotesis de que no hay errores


previos,
y(xn+k ) yn+k = hk [f (xn+k , y(xn+k )) f (xn+k , yn+k )] + L[y(xn ); h]
f (xn+k , n+k )
+ L[y(xn ); h]
= hk [y(xn+k ) yn+k ]
y
por el teorema del valor medio, donde n+k es un punto entre yn+k e y(xn+k ).
Por consiguiente obtenemos que


f (xn+k , n+k )
Tn+k = L[y(xn ); h] = 1 hk
(y(xn+k ) yn+k ). (5.12)
y
Podemos por tanto concluir que si el metodo es explcito (k = 0) entonces
el error local de truncatura es el error cometido en un paso; pero si el metodo
es implcito (k 6= 0) entonces ambos son magnitudes del mismo orden pero
no identicas. En todos los casos el error cometido en un paso es de la forma
y(xn+k ) yn+k = Cp+1 hp+1 y (p+1) (xn ) + O(hp+2 ).
El termino Cp+1 hp+1 y (p+1) (xn ) se llama parte principal del error local de
truncatura y la Cp+1 constante de error.
El error global en el punto xn+k sigue siendo la diferencia en+k = y(xn+k )
yn+k cuando no se hace ninguna hipotesis.
Definici
on 5.3.4 (Consistencia). El MLM 5.2 se dice que es consistente si
tiene orden p 1.
Es decir sera consistente si y solo si
k
X

j = 0

k
X

j=0

j=0

jj =

k
X

j .

(5.13)

j=0

El significado de la consistencia lo podemos interpretar como condiciones


necesarias para que la sucesion yn generada por el metodo converja a una
funcion y(x) que cumple la ecuacion diferencial. En efecto, consideraremos
10

los lmites en el sentido descrito en la convergencia. Es decir h 0, x


xn = a + nh fijo. Como k es fijo los yn+j y(x) para j = 0, 1, . . . , k, es decir
y(x) = yn+j + j,n (h),
donde lm j,n (h) = 0,
k
X

j = 0, 1, . . . , k

j = 0, 1, . . . , k. Multiplicando por los j y sumando


j y(x) =

j=0

k
X

j yn+j +

k
X

j=0

j j,n (h)

j=0

es decir, usando la definicion del metodo


y(x)

k
X

j = h

j=0

k
X

k
X

j fn+j +

j=0

j j,n (h).

j=0

Tomando lmites, los terminos de la derecha de la igualdad se anulan, por lo


que si queremos que el metodo
P converja a una funcion y(x) no identicamente
nula se ha de verificar que kj=0 j = 0, que es la primera condicion de la
definicion de consistencia.
Veamos que la segunda condicion asegura que y(x) satisface la ecuacion diferencial. Consideremos
yn+j yn
y 0 (x) j = 1, 2, . . . , k
jh
es decir
yn+j yn = jhy 0 (x) + jhj,n (h),

j = 1, 2, . . . , k

donde lm j,n (h) = 0, j = 1, 2, . . . , k. Como antes, multiplicando por j ,


sumando y utilizando el metodo
k
X

j yn+j

j=0

k
X

j yn = h

j=0

k
X

jj y 0 (x) + h

j=0

k
X

jj j,n (h)

j=0

es decir
h

k
X

j fn+j yn

j=0

Como

Pk

j=0

k
X

j = hy 0 (x)

j=0

k
X

jj + h

j=0

k
X

jj j,n (h).

j=0

j = 0 por la primera condicion, dividiendo por h


k
X
j=0

j fn+j = y 0 (x)

k
X

jj +

j=0

11

k
X
j=0

jj j,n (h).

Tomando lmites, como fn+j f (x, y(x)) se tiene


f (x, y(x))

k
X

j = y 0 (x)

j=0

k
X

jj ,

j=0

luego,
y(x) satisface
Psi
Pk la ecuacion diferencial, necesariamente se ha de tener
k
que j=0 jj = j=0 j , que es la segunda condicion.
Definici
on 5.3.5. Se definen el primer y segundo polinomio caracterstico
del MLM y se denotan por () y () respectivamente como
() =

k
X

j j

j=0

() =

k
X

j j .

j=0

Observamos que el metodo sera consistente si y solo si


(1) = 0,

0 (1) = (1).

Por tanto para un metodo consistente el primer polinomio caracterstico tiene


siempre la raz 1 = 1 que llamaremos raz principal del metodo. Las demas
raices s , s = 2, 3, . . . , k son esp
ureas y provienen de aproximar una ecuacion
diferencial de primer orden por una ecuacion en diferencias finitas de orden
k. Su control sera importante para la convergencia de estos metodos.
Consideremos el problema trivial y 0 (x) = 0 con la condicion inicial y(0) = 0,
cuya solucion es y(x) 0. Cuando
aplicamos un MLM 5.2 obtenemos la
P
ecuacion en diferencias finitas kj=0 j yn+j = 0, que tiene por races de su
ecuacion caracterstica las races de () = 0. Si suponemos que estas son
distintas la solucion es de la forma
yn = h(d1 1n + d2 2n + + dk kn ),
donde las ds son constantes arbitrarias. Si queremos que el metodo sea convergente, tambien debiera serlo en este ejemplo, y por tanto como 1 = 1 es
necesario que las demas races verifique
lm hsn = 0,

h0

es decir,

|s | 1.

Si alguna raz fuese m


ultiple apareceran terminos de tipo hn n o hn(n1) n
por lo que los
lm hnq sn = 0, si y solo si, |s | < 1.
h0

12

Definici
on 5.3.6 (Cero-estabilidad). El MLM 5.2 se dice que es cero estable
si las races del primer polinomio caracterstico () tienen modulo menor o
igual de uno y las de modulo uno son simples.
Teorema 5.3.1. Las condiciones necesarias y suficientes para que un metodo
lineal multipaso sea convergente son que sea consistente y cero estable.

5.4.

Orden alcanzable. M
etodos optimales.

Fijado el n
umero de pasos k podemos estar interesados en elegir los coeficientes j y j para que el metodo tenga un orden alto cuando no el mayor
posible. La consistencia no es problema y la las limitaciones nos vienen del
lado de la estabilidad. Buscamos el mayor orden pero sin perder la cero estalibidad para que el metodo sea convergente.
Un MLM de k pasos tiene 2k + 2 coeficientes j y j , pero como fijamos
k = 1 en realidad son 2k + 1 parametros libres si el metodo es implcito y
2k si es explcito. Por otro lado para que el metodo tenga orden p se deben
cumplir las p+1 ecuaciones lineales de la definicion 5.3.2. Por tanto el maximo
orden alcanzable por un MLM de k pasos es 2k si el metodo es implcito y
2k 1 si es explcito. Sin embargo estos metodos maximales no son por lo
general cero estables como se indica en el siguiente
Teorema 5.4.1. No existen MLM de k pasos cero estables de orden mayor
que k + 1 si k es impar ni de orden mayor que k + 2 si k es par.
Los de orden k + 2 se llaman optimales y tienen todas las races del primer
polinomio caracterstico en la frontera del crculo unidad.

5.5.

M
etodos Adams

Los MLM que se obtienen a partir de formulas de integracion numerica tienen siempre una estructura en la que solo aparecen dos yn+j . Cuando estan
basados en formulas de tipo interpolatorio, por ejemplo cuando se expresa
el polinomio de interpolacion en diferencias regresivas tienen una forma del
tipo


1 2
1 3
1
yn+1 yn = h 1 fn+1
(5.14)
2
12
24
Si truncamos tras los dos primeros terminos obtenemos
1
yn+1 yn = h(fn+1 + fn )
2
13

que es la regla del trapecio. Si lo hacemos tras tres terminos nos da


1
yn+1 yn = h(5fn+1 + 8fn fn1 )
12
que, una vez escrito en forma estandard, es el metodo Adams-Moulton visto
anteriormente
1
yn+2 yn+1 = h(5fn+2 + 8fn+1 fn ).
12
En este tipo de metodos se consigue automaticamente la cero estabilidad y
no se desperdicia orden por tener menos coeficientes pues queremos metodos optimales mas que maximales, y para estos no necesitamos tantos los
coeficientes. Los MLM cuyo primer polinomio caracterstico es de la forma
() = k k1 se llaman Metodos Adams, en concreto Adams-Bashforth si
son explcitos y Adams-Moulton si son implcitos. Los metodos explcitos cuyo primer polinomio caracterstico es de la forma () = k k2 se llaman
Metodos Nystrom y los implcitos Mine-Simpson. Claramente todos ellos son
cero estables.
Daremos ahora un listado de metodos lineales multipaso, no necesariamente
de tipo Adams.
Metodos Explcitos
k=1:
1 = 1
0 = 1 0 = 1
p=1
Cp+1 = 12 .
k=2:
2 = 1
1 = 1 a 1 = 12 (3 a)
0 = a
0 = 12 (1 + a)
1
p=2
Cp+1 = 12
(5 + a).
k=3:
3 = 1
2 = 1 a
1 = a + b
0 = b
p=3

1
2 = 12
(23 5a b)
1
1 = 3 (4 2a + 2b)
1
0 = 12
(5 + a + 5b)
1
Cp+1 = 24
(9 + a + b).

Metodos Implcitos
k=1:

1 = 1
1 = 21
0 = 1 0 = 12
1
.
p=2
Cp+1 = 12
14

k=2:

1
2 = 1
2 = 12
(5 + a)
2
1 = 1 a 1 = 3 (1 a)
1
(1 5a).
0 = a
0 = 12

1
(1 + a).
Si a 6= 1, entonces p = 3 y Cp+1 = 24
1
Si a = 1, entonces p = 4 y Cp+1 = 90
.

k=3:
3 = 1
2 = 1 a
1 = a + b
0 = b
p=4

5.6.

1
3 = 24
(9 + a + b)
1
2 = 24 (19 13a 5b)
1
(5 13a + 19b)
1 = 24
1
0 = 24 (1 + a + 9b)
1
Cp+1 = 720
(19 + 11a + 19b).

Estabilidad absoluta y relativa

Nos referimos a la estabilidad debil o estabilidad para h fijo. Queremos que


los errores no se disparen cuando aplicamos el metodo a la ecuacion test
y 0 = y. Para un MLM consistente y cero estable la solucion teorica del
problema de valores iniciales verifica
k
X

j y(xn+j ) = h

j=0

k
X

j f (xn+j , y(xn+j )) + Tn+k

j=0

donde Tn+k = L[y(xn ); h] es el error local de truncatura. Si denotamos por


yn la solucion del MLM realmente calculada cuando de cometen errores de
redondeo, es decir,
k
X

j yn+j = h

j=0

k
X

j f (xn+j , yn+j ) + Rn+k

(5.15)

j=0

restando ambas ecuaciones y denotando por en = y(xn ) yn se tiene


k
X
j=0

j en+j = h

k
X

j [f (xn+j , y(xn+j )) f (xn+j , yn+j )] + n+k

j=0

donde n+k = Tn+k Rn+k . Aplicando el teorema del valor medio podemos
escribir
f (xn+j , n+j )
f (xn+j , y(xn+j )) f (xn+j , yn+j ) = [y(xn+j ) yn+j ]
y
f
= en+j (xn+j , n+j ).
y
15

Luego
k
X

j en+j = h

k
X

j=0

j=0

f (xn+j , n+j )
en+j + n+k .
y

Hacemos ahora dos hipotesis


f
= ,
y

constante, n = ,

constante.

La ecuacion para en se reduce a la ecuacion lineal


k
X

(j hj )
en+j = .

j=0

Cuya solucion general sabemos que es de la forma


en =

k
X

ds rsn

s=0

k
P

,
j

j=0

donde las rs son las races, que suponemos distintas, del polinomio caracterstico
k
X
(j hj )rj = 0.
j=0

Que podemos escribirlo de la forma


= (r) h(r)

(r, h)
= 0,

(5.16)

= h. Este polinomio (r, h)


se llama polinomio de estabilidad del
siendo h
metodo.
Definici
on 5.6.1 (Estabilidad absoluta). Un MLM se dice que es absolu si para dicho valor todas las races
tamente estable para un valor dado de h
tienen modulo menor que uno. Estos h
forman la region de esrs de (r, h)
tabilidad absoluta y los valores reales de esta region forman el intervalo de
estabilidad absoluta.
= 0 las races rs de (r, h)
coinciden con los ceros s
Observemos que para h
del primer polinomio caracterstico (), que por la cero estabilidad, estan
todas en el interior o frontera del crculo unidad. Ademas por la consistencia
existe la raz 1 = 1 simple. Denotemos por r1 la raz que tiende a 1 cuando
0. Sabemos que las raices de un polinomio son funciones continuas de
h
16

sus coeficientes por lo que todas las rs s . Vamos a probar que para un
metodo de orden p

p+1 )
r1 = eh + O(h
(5.17)
En efecto, por definicion de orden L[y(x); h] = O(hp+1 ), para cualquier funcion y(x). Eligiendo y(x) = ex se tiene
k
X



p+1 )
j e(xn +jh) hj e(xn +jh) = O(h

j=0

es decir
exn

k n
o
X

j ej h = O(h
p+1 )
j ej h h
j=0

dividiendo por exn se obtiene

p+1 ).
h ) = O(h
(eh ) h(e
(eh , h)
en funcion de sus races se tiene
Escribiendo (r, h)
(r) h(r)

k )(r r1 )(r r2 ) (r rk ),
(r, h)
(k h

y poniendo r = eh se obtiene

p+1 ).
(eh r1 )(eh r2 ) (eh rk ) = O(h

Cuando h 0, eh 1 y los rs s , luego como el u


nico s = 1 es el

h
p+1

1 se deduce que e r1 = O(h ). Lo que prueba 5.17. Esto muestra que


cualquier MLM es absolutamente inestable para h peque
no y positivo.
En los casos en los que f /y > 0 la solucion crece, por lo que se puede
admitir crecimiento de los errores por lo que resulta mas apropiado mirar a
los errores relativos.
Definici
on 5.6.2 (Estabilidad relativa). Un metodo lineal multipaso de dice
dado si, para dicho valor, las
que es relativamente estable para un valor de h

races rs del polinomio de estabilidad (r, h) satisfacen que |rs | < |r1 |, s =
2, 3, , k. Estos forman la region de estabilidad relativa del metodo y los
valores reales de dicha region el intervalo de estabilidad relativa.
Desde el punto de vista practico se suele exigir que todas las races esten

acotadas por eh .

17

Ejemplo 5.1. Estudiemos el metodo explcito de 2 pasos


1
yn+2 yn = h(fn+1 + 3fn ).
2

(5.18)

Es consistente y cero estable y su polinomio de estabilidad es


= r2 1 hr
(1 +
(r, h)
2

3
h) = 0
2

(5.19)

+ O(h
2 ) y r2 =
Como 1 = 1 y 2 = 1 podemos aproximar r1 = 1 + h
2
+ O(h
). Comparando (r r1 )(r r2 ) con 5.19, se obtiene que
1 + h
+ O(h
2 ).

2 ) y r2 = 1 1 h
r1 = 1 + h + O(h
2
Podemos por tanto observar que existe un intervalo de estabilidad absoluta
de la forma (, 0) y un intervalo de estabilidad relativa (0, ).

5.7.

M
etodos para obtener intervalos de estabilidad absoluta y relativa

Vamos a estudiar cuatro metodos para calcular intervalos o regiones de estabilidad absoluta y relativa.

5.7.1.

M
etodo de representaci
on geom
etrica de las races

en un entorno del origen y representar o dibujar


Consiste en dar valores a h
los valores de |rs |, s = 1, 2, . . . , k con lo que podemos ver los intervalors de
que hacen que todos
estabilidad absoluta y relativa mirando los valores de h

h
esten por debajo de 1 o por debajo de e
Ejemplo 5.2. Consideremos el metodo explcito de 2 pasos
1
yn+2 yn+1 = h(3fn+1 fn ).
2
Es consistente y cero estable y su polinomio de estabilidad es


3
1
2

(r, h) = r 1 + h r + h
=0
2
2

(5.20)

(5.21)

y dibujando un plot de sus


Escribiendo las dos races r1 y r2 en funcion de h
valores absolutos, podemos observar que existe un intervalo de estabilidad
absoluta (1, 0) y un intervalo de estabilidad relativa (0, ) o (0.6, ),
seg
un cual de las dos definiciones de estabilidad relativa empleemos.
18

2
eh
1
r1 HhL
-3

5.7.2.

r2 HhL

-2

-1

M
etodo de Schur

Se basa en un teorema de Schur que caracteriza las condiciones para que las
races de polinomios tengan modulo menor de uno. Dado un polinomio de
grado k con coeficientes complejos
p(r) = ck rk + ck1 rk1 + + c1 r + c0 ,
se dice que es de Schur si sus races rs satisfacen que tiene modulo inferior a
uno. Definimos el polinomio
p(r) = c0 rk + c1 rk1 + + ck1 r + ck ,
donde cj es el conjugado de cj y definimos
p1 (r) =

1
(
p(0)p(r) p(0)
p(r)) .
r

Este p1 (r) es de grado k 1. Entonces por el teorema de Schur p(r) es de


Schur si y solo si |
p(0)| > |p(0)| y p1 (r) es de Schur.
En el caso de la estabilidad relativa podemos aprovechar este criterio haciendo
para que los |rs | < eh .
un cambio de variable. Buscamos condiciones sobre h

Entonces llamando r = Reh bastara exigir que los |Rs | < 1. Las desigualdades
que quedan son mas complicadas de resolver.
Ejemplo 5.3. Apliquemos este criterio al mismo metodo anterior 5.20 para
calcular su intervalo de estabilidad absoluta. Su polinomio de estabilidad era
19

5.21. Luego nos queda el


(r) y el 1 (r) siguientes


3
1
2

(r, h) = r 1 + h r + h
2
2


= 1 hr
2 1 + 3h
r+1

(r, h)
2
2

 


1
1

1 (r, h) =
1 h
1+ h r 1+
2
2


3
h
2

Las dos condiciones son




1 + 32 h


1 + 1h
< 1
2


1
,
1 > h
2

que resolviendo nos da el intervalo de estabilidad absoluta (1, 0).

5.7.3.

Criterio de Routh-Hurwitz

Se basa en transformar el semi-plano complejo parte real negativa en el crculo


unidad. Haciendo la transformacion r = (1 + z)/(1 z) se transforma los
valores de |r| 1 en el semi-plano Rez 0. Esta transformacion aplica el
punto (0, 0) en el (1, 0) y el (1, 0) en el (0, 0), los puntos que tienden al
(1, 0) van hacia (0, ). Con esta transformacion escribiendo






1+z
1+z
1+z

=
h
=0

1z
1z
1z
y multiplicando por (1 z)k obtenemos una ecuacion polinomica de grado k
a0 z k + a1 z k1 + + ak1 z + ak = 0,
donde supondremos sin perdida de generalidad que a0 > 0. La condicion
necesaria y suficiente para que las races de esta ecuacion tengan Rez < 0 es
que los menores principales de la matriz Q sean definidos positivos, donde Q
es la matriz k k definida por

a1 a3 a5 a2k1
a0 a2 a4 a2k2

0 a1 a3 a2k3

Q = 0 a a a

0
2
2k4

.. .. .. . .
..
. . .
.
.
0 0 0
ak
20

donde suponemos que aj = 0 si j > k. En los casos k = 2, 3, 4 estas condiciones se reducen a


k=2:
k=3:
k=4:

a0 > 0, a1 > 0, a2 > 0.


a0 > 0, a1 > 0, a2 > 0, a3 > 0, a1 a2 a3 a0 > 0.
a0 > 0, . . . , a4 > 0, a1 a2 a3 a0 a23 a4 a21 > 0.

Ejemplo 5.4. Con el mismo ejemplo anterior nos queda




3
1
2
2
a0 z + a1 z + a0 = (1 + z) 1 + h (1 z 2 ) + h(1
z)2 ,
2
2
luego las condiciones son
> 0.
a2 = h
> 0.
a1 = 2 h
> 0.
a0 = 2 + 2h
que definen el intervalo (1, 0). El mismo cambio anterior sigue siendo valido
para analizar la estabilidad relativa.

5.7.4.

M
etodo de localizaci
on de la frontera

En este metodo, que es el mas u


til para calcular regiones de estabilidad
absoluta, se trata de identificar y dibujar los puntos de la frontera de la
para los
region de estabilidad absoluta. Estos corresponden a valores de h
tienen modulo |rs | = 1. Como los n
que las races de (r, h)
umeros complejos
C que verifiquen la
de modulo 1 son de la forma ei , buscaremos los h
= 0, es decir,
ecuacion (ei , h)
i
h() = (e )
(ei )

que podemos dibujar dando valores a . En el caso de la estabilidad relativa


con el mismo procedimiento indicado anteriormente nos quedara resolver

una ecuacion que ya no es lineal en h

i |eh |) = 0
(ei |eh |) h(e
en ambos casos este metodo esta pensado para aplicarlo computacionalmente,
con ayuda de ordenador.
21

Ejemplo 5.5. En el ejemplo 5.20 anterior se tiene que


e2i ei

h()
= 2 i
3e 1
es la funcion a dibujar.
Si solo estuviesemos interesados en calcular el intervalo de estabilidad absoluta podemos hacer algunos calculos a mano de la manera siguiente. Como

buscamos valores reales, miramos a los valores de que hacen que h()
sea

real es decir a los valores de que hacen que la parte imaginaria de h()

sea cero. Luego, para estos valores evaluamos la parte real de h().
En es
te ejemplo los valores son = 0 y = , para los que h() vale 0 y 1
respectivamente obteniendo de nuevo el intervalo (1, 0).

5.8.

M
etodos Predictor Corrector

Cuando utilizamos un metodo lineal multipaso implcito


yn+k +

k1
X

j yn+j = hk f (xn+k , yn+k ) + h

j=0

k1
X

j fn+j ,

(5.22)

j=0

vimos que una forma de aproximar la solucion yn+k era utilizar la iteracion
de punto fijo
[s+1]
yn+k

k1
X

j yn+j =

[s]
hk f (xn+k , yn+k )

j=0

+h

k1
X

j fn+j ,

(5.23)

j=0

[0]

donde yn+k es arbitraria. Sabemos que esta iteracion converge si h < L|1 k | .
En cada iteraccion hay que evaluar la funcion f (x, y) que, a veces, puede
[0]
ser costosa. Por ello es deseable tener una buena estimacion inicial yn+k ,
para que la iteracion de punto fijo converja mas rapidamente. Esta es la
filosofa de los metodos predictor corrector. Se utiliza un metodo explcito,
[0]
que denominaremos predictor, para obtener una primera estimacion yn+k de
yn+k y despues se utiliza un metodo implcito en el modo 5.23, que llamaremos
corrector, para mejorar la aproximacion. Este corrector se puede aplicar un
n
umero fijo m de veces o se puede aplicar en el modo iteracion hasta la
convergencia que quiere decir que la iteracion 5.23 se aplica hasta que la
diferencia entre dos aproximaciones sea suficientemente peque
na, es decir,
[s+1]
[s]
|yn+k yn+k | < , donde es una tolerancia preasignada. Las propiedades
22

de estos metodos, en el modo iteracion hasta la convergencia, son similares a


las del metodo implcito o corrector. En la practica se aplican con un n
umero
m de aplicaciones del corrector peque
no.
Denotemos por P una aplicacion del predictor, por C una aplicacion de
corrector y por E una evaluacion de la funcion f (x, y). De esta manera si
[0]
aplicamos el predictor para obtener yn+k y evaluamos la funcion para obtener
[0]
[0]
[1]
fn+k f (xn+k , yn+k ) y finalmente aplicamos el corrector para obtener yn+k
entonces denotaremos este proceso por P EC. De forma similar podemos
hablar de P ECEC o P (EC)2 o en general P (EC)m . Si tras haber calculado
[m]
[m]
[m]
yn+k evaluamos la funcion para disponer de fn+k f (xn+k , yn+k ), entonces
diremos que usamos un metodo predictor corrector con evaluacion final que
representaremos por P (EC)m E.
El n
umero de pasos del predictor P y del corrector C no tienen por que ser
identicos. Para no complicar la notacion usaremos un u
nico k que indique el
mayor de los n
umeros de pasos de ambos metodos y relajaremos la condicion
5.2 de que 0 y 0 no son ambos nulos. De esta manera la notacion sera como
si ambos metodos fueran de k pasos.
Sean los polinomios caractersticos del predictor
k
X

() =

k j ,

= 1,

() =

j=0

k1
X

k j

(5.24)

k j .

(5.25)

j=0

y los del corrector


() =

k
X

k j ,

k = 1,

() =

j=0

k
X
j=0

Podemos escribir formalmente el modo P (EC)m E por


[0]

yn+k +

k1
P

[m]

j yn+j = h

j=0

[s+1]

k1
P

[m]

j fn+j

j=0
[s]
fn+k

yn+k +

k1
P

[m]

j yn+j

j=0

[s]
= f (xn+k , yn+k )

k1
P
s = 0, 1, . . . , m 1
[s]
[m]
= hk fn+k + h
j fn+j
j=0

[m]
fn+k

[m]
f (xn+k , yn+k )

(5.26)

23

Y el modo P (EC)m por


[0]

yn+k +

k1
P

[m]

j yn+j = h

k1
P

[m1]

j fn+j

j=0

j=0

[s]
[s]
fn+k = f (xn+k , yn+k )

k1
k1
P
P
s = 0, 1, . . . , m 1
[s+1]
[m]
[s]
[m1]
yn+k +
j yn+j = hk fn+k + h
j fn+j
j=0

j=0

(5.27)

5.8.1.

Error local de truncatura de los m


etodos P-C.
Dispositivo de Milne

Denotemos por L y por L los operadores asociados a P y C de ordenes p y


p y con constantes de error Cp +1 y Cp+1 respectivamente. Queremos estudiar
la parte principal del error local de truncatura en xn+k de los metodos PC
en los modos P (EC)m E y P (EC)m bajo las hipotesis habituales de que no
se han cometido errores en los pasos anteriores xn+j , j = 0, 1, . . . , k 1.
Se tienen las ecuaciones
L [y(x); h] = Cp +1 hp

+1

y (p

+1)

(x) + O(hp

+2

(5.28)

L[y(x); h] = Cp+1 hp+1 y (p+1) (x) + O(hp+2 )

(5.29)

para el predictor ya habamos visto que


[0]

y(xn+k ) + yn+k = Cp +1 hp

+1

y (p

+1)

(x) + O(hp

+2

(5.30)

para el corrector el analisis que hicimos para los metodos implcitos hay que
adaptarlo pues aqu se aplican con la iteracion de punto fijo en vez de resolver
de forma exacta la ecuacion no lineal. Es decir de la definicion de error local
de truncatura
k
X

j y(xn + jh) = h

j=0

k
X

j f (xn + jh, y(xn + jh)) + L[y(xn ); h]

j=0

y del metodo corrector


[s+1]
yn+k

k1
X

[m]
j yn+j

[s]
hk f (xn+k , yn+k )

j=0

+h

k1
X
j=0

24

[mt]

j f (xn+j , yn+j )

para s=0, 1, . . . , m 1 y donde t = 0 si se usa el modo P (EC)m E y t = 1 en


el modo P (EC)m . Restando se tiene
h
i
[s+1]
[s]
y(xn+k ) yn+k = hk f (xn+k , y(xn+k )) f (xn+k , yn+k ) + L[y(xn ); h]
h
i f (x ,
n+k n+k,s )
[s]
+ L[y(xn ); h]
(5.31)
= hk y(xn+k ) yn+k
y
[s]

para s = 0, 1, . . . , m 1 y donde n+k,s es un punto entre yn+k e y(xn+k ).


Basicamente podemos observar que cada aplicacion del corrector multiplica
por h el error anterior y le a
nade un termino como el error local de truncatura
del corrector. Por ello si m es suficientemente grande solo quedara el error
local de truncatura del corrector en el metodo predictor corrector.
Si consideramos el caso en el que p p, entonces sustituyendo 5.30 en 5.31
ya nos queda
[1]

y(xn+k ) yn+k = Cp+1 hp+1 y (p+1) (xn ) + O(hp+2 ).


y sustituyendo esta expresion en 5.31 en las sucesivas s = 2, 3, . . . , m 1
iteraciones se sigue teniendo que
[m]

y(xn+k ) yn+k = Cp+1 hp+1 y (p+1) (xn ) + O(hp+2 ),

m = 1, 2, . . . .

Es decir, para cualquier m 1 la parte principal del error local de truncatura


del PC es el del corrector.
Consideremos ahora el caso p = p 1. Sustituyendo 5.30 en 5.31 nos queda


f (p)
[1]
(p+1)
(xn ) hp+1 + O(hp+2 ).
y(xn+k ) yn+k = k Cp y (xn ) + Cp+1 y
y
Por tanto si m = 1 la parte principal del error del PC es del mismo orden que
el corrector pero no identica. Pero en las iteraciones siguientes del corrector
para m 2 nos queda
[m]

y(xn+k ) yn+k = Cp+1 hp+1 y (p+1) (xn ) + O(hp+2 ),


y la parte principal del error local de truncatura del PC es solo la del corrector. De forma analoga podemos seguir analizando casos, pero observando
que cada aplicacion del corrector mejora en un grado el orden inicial del
predictor, hasta que este desaparece.
En general si p = p q, con 0 < q p, entonces la parte principal del error
local de truncatura del metodo predictor corrector es
25

solamente la del corrector cuando m q + 1,


del mismo orden que el corrector, pero no identica, si m = q,
de la forma Kh(pq+m+1) + O(h(pq+m+2) ) si m q 1.
En particular en el modo de iteracion hasta la convergencia solo queda el error
del corrector independientemente de lo malo que pudiera ser el predictor.
Esto nos indica que no interesa elegir un metodo predictor corrector en el que
p > p y de hecho bastara con tomar un predictor de orden p = p m 0.
Sin embargo en el caso en el que p = p es posible estimar el error local de
truncatura del predictor corrector con una tecnica conocida con el nombre
de dispositivo de Milne.
Efectivamente, supongamos p = p. Entonces se tiene
[m]

Cp+1 hp+1 y (p+1) (xn ) = y(xn+k ) yn+k + O(hp+2 )


[0]

Cp+1
hp+1 y (p+1) (xn ) = y(xn+k ) yn+k + O(hp+2 )

restando se tiene
[m]

[0]

(Cp+1
Cp+1 )hp+1 y (p+1) (xn ) = yn+k yn+k + O(hp+2 ).

(5.32)

Por lo que la parte principal del error local de truncatura del metodo es
Cp+1 hp+1 y (p+1) (xn )

Cp+1
[m]
[0]
(y
yn+k ).
Cp+1 n+k

Cp+1

La principal utilidad de las estimaciones del error es utilizarlas para modificar


el paso h cuando sea necesario, de la misma forma que ya vimos en el tema
anterior para los metodos de Runge Kutta.
Otra aplicacion que podemos dar a las estimaciones del error es emplearlas para mejorar la solucion. En este sentido, la estimacion del error en el
predictor viene dada por

Cp+1
hp+1 y (p+1) (xn )

Cp+1
[m]
[0]
(yn+k yn+k ).

Cp+1 Cp+1
[0]

Pero no podemos usar esta estimacion para mejorar el yn+k porque a


un no
[m]
hemos calculado el yn+k , sin embargo

Cp+1
hp+1 y (p+1) (xn ) = Cp+1
hp+1 y (p+1) (xn1 ) + O(hp+2 )

Cp+1
[m]
[0]
=
(yn+k1 yn+k1 ) + O(hp+2 ).

Cp+1 Cp+1

26

[0]

De esta forma mejoraremos la solucion sumando este termino al yn+k , operacion que denotaremos por M
[0]
yn+k

[0]
yn+k

Cp+1
[m]
[0]
+
(yn+k1 yn+k1 ).
Cp+1 Cp+1
[m]

De la misma forma podemos mejorar la aproximacion numerica yn+k obtenida


tras la u
ltima aplicacion del corrector con
[m]

[m]

yn+k = yn+k +

Cp+1
[m]
[0]
(yn+k yn+k ).
Cp+1

Cp+1

Los modos que usan estas modificaciones se representan por P M (EC)m M E


y P M (EC)m M .

5.9.

Estabilidad absoluta de los m


etodos predictor corrector

En el modo de correccion hasta la convergencia las propiedades de estabilidad


absoluta del metodo predictor corrector seran las del corrector. Pero en el
resto de casos, especialmente cuando m es peque
no, las propiedades del PC
se ven influidas por la propiedades de estabilidad absoluta del predictor.
Estudiaremos solamente el caso P ECE.
De manera analoga a como hicimos con el estudio de la estabilidad absoluta
= h. Por 5.15 se
de los MLM, suponemos que f = y denotamos por h
tiene
[0]
yn+k

k1
X

[1]
j yn+j

= h

j=0

k1
X

[1]

j f (xn+j , yn+j ) + Rn+k

j=0

k
X

[1]
j yn+j

[0]
hk f (xn+k , yn+k )

j=0

+h

k1
X

[1]

j f (xn+j , yn+j ) + Rn+k ,

j=0

Por definicion de error local de truncatura la solucion teorica y(x) del problema de valores iniciales verifica
k
X

j y(xn+j )

= h

j=0
k
X
j=0

k1
X

j f (xn+j , y(xn+j )) + Tn+k

j=0

j y(xn+j ) = h

k
X

j f (xn+j , y(xn+j )) + Tn+k .

j=0

27

Definiendo los errores globales del predictor y del corrector por


n[0]
e[0]
n = y(xn ) y

n[1] ,
e[1]
n = y(xn ) y

restando las ecuaciones anteriores y con las mismas hipotesis que en los MLM
llegamos a
[0]
en+k

k1
X

[1]
j en+j

= h

k1
X

j=0

[1]

j en+j + constante

j=0

k
X

[1]
j en+j

k e[0] + h

= h
n+k

j=0

k1
X

[1]

j en+j + constante,

j=0

[0]

eliminando en+k obtenemos


k
X

[1]

j en+j h

j=0

k1
X

[1]
k
j en+j = h

" k1
X

j=0

[1]

j en+j h

j=0

k1
X

#
[1]

j en+j + constante.

j=0

k e[1] a ambos lados de la ecuacion y teniendo en cuenta que


A
nadiendo h
n+k
k = 1 y que k = 0 se obtiene
k
X

[1]

j )
k
(j h
en+j = h

j=0

k
X

[1]

)
(j h
j en+j + constante.

j=0
[1]

La solucion en del error global es por tanto de la forma


e[1]
n

k
X

ds rsn + constante,

s=1

donde las ds son constantes arbitrarias y las rs son las races (supuestas
distintas) del polinomio


= (r) h(r)

k (r) h
(r) .
P ECE (r, h)
+ h
(5.33)
En el caso general para el modo P (EC)m E se obtendra


= (r) h(r)

(r) h
(r) ,
P (EC)m E (r, h)
+ Mm (h)
donde
= (h
k )m
Mm (h)

k 
1 h
k )m ,
1 (h
28

m = 1, 2 . . .

El analisis a
un se complica mas en el modo P (EC)m donde se obtiene


= k rk (r) h(r)

[ (r)(r) (r) (r)] .


P (EC)m (r, h)
+ Mm (h)
k | < 1 entonces Mm (h)
0 cuando m y por
Observemos que si |h
tanto P (EC)m E y P (EC)m , donde es el polinomio de estabilidad
del corrector.

p+1 )
En los MLM vimos que si el metodo tena orden p entonces r1 = eh +O(h

h
p+1
). Ahora usando el mismo argumento teneprobando que (e , h)) = O(h
mos para el predictor y para el corrector por separado

(eh ) = O(h
p+1 )
(eh ) h

h ) = O(h
p+1 )
(eh ) h(e

Multiplicando la primera ecuacion por (eh ) y la segunda por (eh ) y restando tenemos

p+1 ),
(5.34)
(eh )(eh ) (eh ) (eh ) = O(h
= O(h
m ) se concluye se la misma manera que para los MLM
y como Mm (h)
que el polinomio de estabilidad de los metodos predictor corrector en los

p+1 ) y por tanto


modos P (EC)m E y P (EC)m posee una raz r1 = eh + O(h
peque
son absolutamente inestables para h
no y positivo.
De los metodos para calcular los intervalos o regiones de estabilidad absoluta
los tres primeros siguen siendo validos, pero las desigualdades que resultan
seran, por lo general, mas complicadas de resolver. El cuarto metodo de
localizacion de la frontera de la region de estabilidad, sigue siendo valido en
el sentido que hay que resolver
= 0 o P (EC)m (ei , h)
= 0,
P (EC)m E (ei , h)
por lo que no podemos despejar el
pero esta expresion ya no es lineal en h,
y hay que resolver la ecuacion no lineal en h.
Para la estabilidad relativa
h
resolveramos

= 0 o P (EC)m (|eh |ei , h)


= 0.
P (EC)m E (|eh |ei , h)

29

Вам также может понравиться