Вы находитесь на странице: 1из 84

Cap tulo 1 El problema de valor inicial

1.1.

El problema de valor inicial

Al modelizar problemas de la ciencia, la ingenier a y la econom a aparecen con frecuencia ecuaciones diferenciales ordinarias. Una ecuaci on diferencial ordinaria (en adelante una EDO) es una relaci on entre una funci on de una variable y sus derivadas. Nosotros nos centraremos en ecuaciones de primer orden (la derivada de mayor orden que aparece es la de orden uno) escritas en la forma est andar y (x) = f (x, y (x)), a x b, (1.1)

donde f : [a, b] Rd Rd es continua. Una soluci on de (1.1) en [a, b] es una funci on y : [a, b] Rd , y C 1 ([a, b]) que satisface (1.1). En el caso vectorial, d > 1, que se puede interpretar como un sistema de ecuaciones escalares, y y f tienen d componentes cada una, y = (y 1 , y 2 , . . . , y d ) T , f = (f 1 , f 2 , . . . , f d ) T .

Un sistema de ecuaciones diferenciales ordinarias en general no dene por 1

s s olo una soluci on u nica, y se hace necesario a nadir a la formulaci on del problema un cierto n umero de condiciones adicionales. Estas son o bien condiciones de frontera, si la informaci on adicional se da en dos o m as valores de x, o condiciones iniciales, si se especican todas las condiciones de y en un u nico valor de x. En este cap tulo nos centraremos en el caso en que se dan condiciones iniciales, y dejaremos el caso en que se dan condiciones de fronuna soluci on del problema de valor inicial (PVI) en [a, b], esto es, una funci on y C 1 ([a, b]) que satisfaga y (x) = f (x, y (x)) para a x b, y (a) = . (1.2) tera para m as adelante. As pues, dado = ( 1 , 2 , . . . , d )T Rd , buscamos

Como se puede ver en el siguiente ejemplo, algunos problemas de valor inicial tienen m as de una soluci on. Ejemplo. Consideramos la ecuaci on diferencial y = |y | sujeta a la condici on inicial y (0) = 0, siendo un n umero real jo, (0, 1). Es facil comprobar que para cualquier n umero real no negativo c, y c (x) = 0, (1 )
1/(1)

(x c )

1/(1)

0 x c, x c,

es una soluci on del problema de valor inicial en el intervalo [0, ). As pues,

si bien el problema tiene soluci on, esta no es u nica. Sin embargo, en contraste soluci on, y (x) 0.

con el caso (0, 1), si 1 el problema de valor inicial tiene una u nica Este ejemplo muestra que hay que pedir a la funci on f algo m as que continuidad para asegurar que la soluci on del problema (1.2) sea u nica. Nosotros pediremos una condici on de crecimiento con respecto al segundo argumento de la funci on. Denici on 1.1. La funci on f : D R Rd Rd satisface una condici on de 2

Lipschitz en D con respecto a su segunda variable si existe una constante L,

conocida como constante de Lipschitz, tal que f (x, y ) f (x, y ) L y y (x, y ), (x, y ) D.

Observaci on. Dado que en un espacio vectorial de dimensi on nita todas las normas son equivalentes, la propiedad de ser Lipschitz no depende de qu e norma tomemos. Si f , adem as de ser continua en D, satisface una condici on de Lipschitz con respecto a su segunda variable, la soluci on, de existir, ser au nica. Esto es una consecuencia inmediata del siguiente lema. Lema 1.2. Sea D = [a, b] Rd y sea f continua en D y Lipschitz con respecto

a su segunda variable en D. Sean y, y dos soluciones de la ecuaci on (1.1) en [a, b]. Entonces, para todo a x b, y (x) y (x) y (a) y (a) exp(L(x a)). Prueba. Tenemos que y ( x ) = y ( a) + y (x) = y (a) +
x a x a

(1.3)

f (s, y (s)) ds, f (s, y (s)) ds.

Restando y tomando normas, y usando que f es Lipschitz en su segunda variable se tiene que y (x) y (x) Si denimos
x

y ( a) y (a) +

x a

y ( a) y (a) + L

x a

f (s, y (s)) f (s, y (s)) ds y (s) y (s) ds.

(1.4)

g ( x ) = y ( a) y (a) + L tenemos por un lado que

y (s) y (s) ds,

y (x) y (x) g (x), 3

(1.5)

y por otro que, g (x) = L y (x) y (x) Lg (x). que Multiplicando esta desigualdad por el factor integrante exp(L(x a)) se tiene d (g (x) exp(L(x a))) 0, dx de donde g (x) g (a) exp(L(x a)). Esto combinado con (1.5) produce el resultado. Observaci on. El paso de la estimaci on integral (1.4) a la estimaci on puntual (1.3) es lo que se conoce en la literatura como Lema de Gronwall. La desigualdad (1.3) no s olo prueba la unicidad de la soluci on del problema de valor inicial (1.2); tambi en muestra que las soluciones de dicho problema dependen de manera continua del dato inicial. La cota (1.3) es o ptima en algunos casos, por ejemplo para la ecuaci on escalar lineal y = y , > 0. Sin embargo, puede ser demasiado pesimista para otros. Ejemplo. Consideramos la ecuaci on y = y , que tiene constante de Lipschitz L = . La diferencia entre dos soluciones de este problema decae exponencialmente con el tiempo; de hecho se tiene la igualdad y (x) y (x) = (y (a) y (a))e(xa) . La condici on de Lipschitz junto con la continuidad resultan ser tambi en sucientes para demostrar la existencia de una soluci on. Teorema 1.3 (Picard). Sea D = [a, b] Rd . Si f es continua en D y Lipschitz

con respecto a su segunda variable en D, entonces existe una u nica soluci on del problema (1.2) en [a, b].

Prueba. S olo falta por probar la existencia. La clave es darse cuenta de que el 4

problema (1.2) es equivalente a encontrar una funci on y C ([a, b]) tal que
x

y (x) = +
a

f (s, y (s)) ds.

(1.6)

Las soluciones de esta ecuaci on integral son puntos jos del operador integral T : C ([a, b]) C ([a, b]) denido por (T y )(x) = +
a x

f (s, y (s)) ds.

La idea para hallar un punto jo para este operador es la misma que se utiliza para hallar puntos jos de aplicaciones en espacios de dimensi on nita: la iteraci on. Denimos una sucesi on de funciones {yn } n=0 por medio de la recurrencia
x

y0 (x) = ,

y n (x) = +
a

f (s, yn1 (s)) ds,

n = 1, 2, . . . .

(1.7)

ser a continua, y por otro, podemos tomar l mites en la relaci on de recurrencia para obtener que y es soluci on de (1.6). Dado que y n (x) = y 0 (x) +
k=1 n

Si la sucesi on {yn } converge uniformemente a una funci on y , por un lado esta

(yk (x) yk1 (x)),

la convergencia uniforme de la sucesi on {yn } se seguir a inmediatamente del

test M de Weierstrass si encontramos una sucesi on num erica {ak } tal que yk (x) yk1 (x) ak y La acotaci on yk (x) yk1 (x) K (L(x a))k , L k! Esta acotaci on se prueba por
k=1

ak < .

donde L es la constante de Lipschitz de f respecto de la segunda variable, nos dice que podemos tomar ak =
K (L(ba))k . L k!

inducci on: es cierta para k = 1, pues


x

y 1 (x) y 0 (x)

f (s, ) ds K (x a), 5

y, si es cierta para k 1, entonces yk (x) yk1 (x)


x a

f (s, yk1 (s)) f (s, yk2 (s)) ds


x a x a

L L es decir, es cierta para k .

K (L(x a))k K (L(s a))k1 ds = , L (k 1)! L k!

yk1 (s) yk2 (s) ds

En resumen, la continuidad de f junto con la condici on de Lipschitz respecto de la segunda variable garantizan que el problema (1.2) est a bien planteado: (i) tiene soluci on; (ii) es u nica y (iii) depende de manera continua de los datos iniciales. En lo sucesivo supondremos siempre que dicha condiciones se cumplen. En ocasiones necesitaremos que la soluci on sea m as regular. Para conseguirlo bastar a con imponer mayor regularidad a la f . En efecto, es f acil ver que si, adem as de ser Lipschitz con respecto a su segunda variable, f C p ([a, b] Rd ), entonces y C p+1 ([a, b]). La condici on de Lipschitz se puede relajar, pidiendo tan s olo que f sea Lipschitz en D = [a, b] , con Rd . No obstante, en este caso s olo se tiene garantizado un resultado de existencia local, en alg un intervalo [a, b], con a < b b. Ejemplo. Consideramos el problema y = y2, y (0) = 1.

para cualesquiera b, K > 0. Sin embargo, la u nica soluci on del problema, y (x) = no tiene validez m as all a de [0, 1]. 1 , 1x

La funci on f (x, y ) = y 2 satisface una condici on de Lipschitz en [0, b] [K, K ]

Como se puede ver en cualquier texto avanzado de EDOs, la soluci on se puede prolongar mientras no se salga del dominio donde f satisface la condici on 6

de Lipschitz. La dicultad en este caso reside en que y cuando x 1 . N otese que f no es Lipschitz en [0, b] R. Problemas 1. Escribir la ecuaci on lineal y n) + an1 y n1) + + a1 y + a0 y = 0 en la 2. Comprobar que las siguientes funciones satisfacen una condici on de Lipschitz sobre los respectivos intervalos y hallar las constantes de Lipschitz asociadas: a) f (x, y ) = 2yx4 , b) f (x, y ) = e
x2

forma Y = AY con Y = (y, y , . . . , y n1) ) y A una matriz n n.

arctan y,

x [1, );

c) f (x, y ) = 2y (1 + y 2 )1 (1 + e|x| ), 3. Encontrar, usando las normas dada por

x [1, );
1,

Lipschitz con respecto a y = (y 1 , y 2 )T para la funci on f : R R2 R2


2

x (, ).
2

una constante de

x2 f (x, y ) = (x + sen y , + cos y 1 )T . 2 4. Consideramos el problema de valor inicial y (x) = Ay (x) donde A= 100 0 1
1 10

para 0 x 2,

y (0) = ,

(1.8)

Encontrar una constante de Lipschitz para la funci on del lado derecho usando las normas 5. La funci on f satisface una condici on de Lipschitz unilateral en D = [a, b] Rd con constante de Lipschitz unilateral l si < f (x, y ) f (x, y ), y y > l y y ejercicio anterior es disipativo. 7
2 2

1,

(x, y ), (x, y ) D.

(a) Si l < 0 se dice que el PVI es disipativo. Demostrar que el PVI del

(b) Demostrar que si f satisface una condici on de Lipschitz unilateral con constante l y las funciones y e y son soluciones de y (x) = f (x, y (x)) en [a, b], entonces y (x) y (x)
2

exp(l(x a)) y (a) y (a)

si a x b.

1.2.

M etodos num ericos

Aunque el problema (1.2) tenga soluci on, en la mayor parte de los casos no es posible encontrar una forma cerrada para la misma por m etodos anal ticos. Ejemplo. Consideramos el PVI y (x) = ey
2 (x)

1 , 1 + x2

y (0) = 0.

Usando el teorema del valor medio se tiene que


| L|y y |, | = | 2e ||y y |f (x, y ) f (x, y )| = |ey ey
2 2 2

pero no sabemos encontrar una f ormula para la soluci on. En casos como este habr a que contentarse con obtener una aproximaci on num erica de la soluci on. La prueba del teorema de Picard sugiere una manera de construir una. En efecto, las funciones yn obtenidas mediante la relaci on de recurrencia (1.7) aproximan a la soluci on. Ejemplo. Si aplicamos el m etodo de Picard al problema lineal escalar y = y, obtenemos la recurrencia
x

y (0) = 1,

y 0 ( x ) = 1, cuya soluci on es

y n (x) = 1 +
0

yn1 (s) ds,


n

n = 1, 2, . . . ,

y n (x) =
k=0

xk , k!

es decir, los polinomios de Taylor de la exponencial en x = 0. Pero, cuidado!, este ejemplo es muy especial. En general ser a dif cil, o incluso imposible, evaluar las integrales involucradas en forma cerrada. As que buscamos una idea distinta, la discretizaci on. Sustituimos el intervalo continuo [a, b] por el conjunto discreto de puntos {x n } N n=0 denido por xn = a + nh, n = 0, 1, 2, . . . , N, h = (b a)/N,

al que llamaremos malla. El par ametro h es la longitud del paso. Para facilitar la exposici on, lo consideraremos constante, aunque conviene mencionar que gran parte de la potencia de los algoritmos modernos proviene de su capacidad para cambiar h autom aticamente a medida que se realizan los c alculos. Nuestro objetivo es encontrar una forma de producir una sucesi on de valores on y de (1.2) en los puntos {xn }N {y n } N n=0 , n=0 que aproxime a la soluci y n y (x n ). Los valores yn se pueden interpolar para obtener una aproximaci on de y (x) en puntos x que no pertenezcan a la malla. Un m etodo num erico para la integraci on1 de (1.2) ser a un procedimiento para producir la sucesi on de valores aproximados {yn }. Problemas 1. Utilizar los iterantes de Picard para construir una aproximaci on num erica de la soluci on del problema de valor inicial y + y = 0, 0 x 2, y (0) = 0, y (0) = 1.

2. Si f C p ([a, b] Rd ), podemos encontrar una soluci on aproximada utilizando la f ormula de Taylor de orden p alrededor de x = a, y (x)
1

Hist oricamente se ha reservado el t ermino integraci on para la resoluci on num erica de

EDOs, emple andose el t ermino cuadratura para la aproximaci on num erica de integrales.

p j =0

y (j ) (a)(x a)j . Los valores de las derivadas y (j ) (a) se pueden calcu-

lar derivando la EDO y usando la condici on inicial. Utilizar este procedimiento para aproximar la soluci on del problema y ( x ) = y 2 ( x ) , 0 x 1, y estimar el error cometido. y (0) = 1,

1.3.

Primeros ejemplos

Nuestro primer objetivo es ver, a trav es de algunos ejemplos signicativos, formas razonables de construir m etodos num ericos. Estos ejemplos nos servir an tambi en para ir introduciendo algunas ideas b asicas. A lo largo de la secci on supondremos que f es tan regular como sea necesario para justicar los c alculos que se hagan. M etodo de Euler. Nuestro primer m etodo, padre de alguna manera de todos yn+1 = yn + hf (xn , yn ), n = 0, . . . , N 1. (1.9)

los dem as que vamos a estudiar, es el m etodo de Euler,

Vamos a llegar a el desde tres puntos de vista diferentes. Serie de Taylor. Desarrollamos la soluci on alrededor de xn y usamos la ecuaci on diferencial para obtener y (xn+1 ) = y (xn ) + hy (xn ) + h2 y ( n ) 2 h2 = y (xn ) + hf (xn , y (xn )) + y ( n ). 2

(1.10)

La notaci on n indica que el punto intermedio n [xn , xn+1 ] puede variar de componente a componente. As pues, la soluci on teorica resuelve la recurrencia y (xn+1 ) = y (xn ) + hf (xn , y (xn )) + Rn , 10 n = 0, . . . , N 1, (1.11)

con Rn =

h2 2

ltima cantidad es desconocida, lo que impide y ( n ). Esta u

resolver la recurrencia. No obstante, sabemos que Rn es peque na si h es peque na. Si la recurrencia (1.9) es estable ante peque nas perturbaciones, esperamos que {y (xn )} se parezca a la soluci on {yn } de la recurrencia sin perturbar(1.9). La cantidad Rn , que es lo que le sobra a la soluci on nombre de residuo. Geom etricamente (en el caso d = 1), al despreciar el residuo lo que estamos haciendo es aproximar a la soluci on por su tangente. Cuadratura num erica. Integramos la EDO en (xn , xn+1 ), y obtenemos
xn+1

te orica para ser soluci on de la ecuaci on del m etodo num erico, recibe el

y (xn+1 ) = y (xn ) +
xn

f (x, y (x)) dx.

(1.12)

Para calcular la integral utilizamos la f ormula de cuadratura num erica


c+h c

g hg (c),

llamado regla rectangular izquierda, y llegamos de nuevo a (1.11). Diferenciaci on num erica. De la denici on de derivada, y (xn+1 ) y (xn ) y (xn ) = f (xn , y (xn )), h de donde, despejando, obtenemos una vez m as (1.11). Para generar una soluci on num erica de (1.2) usando (1.9) necesitamos un valor de arranque y0 . Uno desear a tomar y0 = y (x0 ), pero en general esto no es posible, debido a la precisi on nita del ordenador. As pues, habr a que contentarse con tomar una aproximaci on y0 y (x0 ). tomando m as t erminos en la f ormula de Taylor. Esto da lugar a los llamados m etodos de Taylor. Como ejemplo construimos el m etodo de Taylor de orden 2, en el caso d = 1. 11 M etodo de Taylor de orden 2. Se pueden obtener m etodos m as precisos,

El desarrollo de Taylor produce y (xn+1 ) = y (xn ) + hy (xn ) + h2 h3 y (x n ) + y ( n ). 2 3!

Para calcular y (xn ) e y (xn ) usamos la ecuaci on diferencial, y (x) = f (x, y (x)), y (x) = fx (x, y (x)) + fy (x, y (x))y (x) = fx (x, y (x)) + fy (x, y (x))f (x, y (x)). Si despreciamos el residuo, Rn = yn+1 = yn + hf (xn , yn ) +
h3 y 3!

(n ), obtenemos el m etodo

h2 (fx (xn , yn ) + fy (xn , yn )f (xn , yn )). 2

Puesto que en este caso el residuo es m as peque no que para el m etodo de Euler (si h es peque no), esperamos que la aproximaci on sea mejor. A cambio hay que hacer tres evaluaciones de funci on por paso, mientras que con el m etodo de Euler s olo hay que hacer una. Por el mismo procedimiento podemos generar m etodos de Taylor del orden que queramos. El inconveniente es que involucran cada vez m as derivadas, que hay que calcular y evaluar. Regla del trapecio. Si calculamos la integral de (1.12) por medio de la regla f (xn , y (xn )) + f (xn+1 , y (xn+1 )) + Rn . 2 Despreciando el residuo Rn , se llega a la llamada regla del trapecio, y (xn+1 ) y (xn ) = yn+1 = yn + h f (xn , yn ) + f (xn+1 , yn+1 ) . 2 (1.13)

del trapecio (que es m as precisa que la regla rectangular izquierda), se tiene que

El m etodo de Euler es expl cito; el valor yn+1 viene dado expl citamente en t erminos del valor anterior yn y se puede calcular f acilmente mediante una evaluaci on de f y unas pocas operaciones aritm eticas. Por el contrario, la regla del trapecio es un m etodo impl cito; para calcular yn+1 hay que resolver 12

un sistema de ecuaciones no lineales, lo que en general es computacionalmente costoso. La primera posibilidad para resolver el sistema es iterar la funci on h G(y ) = yn + (f (xn , yn ) + f (xn+1 , y )) 2 para obtener un punto jo. La funci on de iteraci on satisface G(y ) G( y) = Lh h f (xn+1 , y ) f (xn+1 , y ) yy . 2 2 1, esto

Para que la iteraci on converja se necesita que Lh/2 < 1. Si L determinar yn+1 como un cero de la funci on h F (y ) = y {yn + (f (xn , yn ) + f (xn+1 , y ))} 2 mediante el m etodo de Newton.

obliga a dar pasos de longitud h muy peque na. Para evitarlo lo que se hace es

impl cito de la regla del trapecio, podemos sustituir el valor yn+1 en el lado derecho de (1.13) por una aproximaci on de ese valor dada por el m etodo de Euler,
yn +1 = yn + hf (xn , yn ),

Euler mejorado. Para evitar el coste computacional derivado del car acter

de manera que yn+1 = yn + h f (xn , yn ) + f (xn+1 , yn +1 ) . 2

El m etodo resultante, que es expl cito, se conoce como m etodo de Euler mejorado. Requiere dos evaluaciones de funci on por paso, lo que queda a un m as claro si lo escribimos de la siguiente forma: k 1 = f (x n , y n ), k2 = f (xn + h, yn + hk1 ), yn+1 = yn + h k1 k2 + 2 2 .

Euler modicado. Si calculamos la integral de (1.12) por medio de la regla del punto medio, se tiene que y (xn+1 ) y (xn ) hf h h xn + , y xn + 2 2 13 .

Como no conocemos el valor y (xn + h ), lo aproximamos por el m etodo de Euler. 2 Llegamos nalmente a y (xn+1 ) y (xn ) + hf h h xn + , y (xn ) + f (xn , y (xn )) . 2 2

El m etodo de Euler modicado se obtiene imponiendo que esta relaci on se satisfaga de forma exacta, yn+1 = yn + hf h h x n + , y n + f (x n , y n ) . 2 2

Este m etodo se suele escribir bajo la forma alternativa k 1 = f (x n , y n ), k2 = f h k1 xn + , y n + h 2 2 , yn+1 = yn + hk2 .

M etodo leap-frog (regla del punto medio). Si integramos la EDO en (xn , xn+2 ) y usamos la regla del punto medio, se tiene que
xn+2

y (xn+2 ) y (xn ) =

xn

f (x, y (x)) dx 2hf (xn+1 , y (xn+1 )),

lo que da lugar al m etodo leap-frog, tambi en conocido como regla del punto medio, yn+2 = yn + 2hf (xn+1 , yn+1 ), (1.14)

Como vemos, para calcular yn+2 se utilizan dos valores anteriores, yn e yn+1 , y no uno s olo, como en los m etodos vistos hasta ahora. Diremos que es un m etodo de dos pasos. Necesitaremos por tanto dos valores de arranque, y 0 e y1 . Para y0 tomamos un valor pr oximo al dato inicial, y0 y (0). El valor de y1 se tendr a que obtener por otro procedimiento, por ejemplo por el m etodo de Euler. Tambi en se puede llegar al m etodo leap-frog a trav es de la diferenciaci on num erica. En efecto, si en lugar de usar la f ormula de orden uno y (x) y (x + h) y (x) , h 14

como hicimos para obtener el m etodo de Euler, usamos la f ormula de diferencias centradas y (x) y (x + h) y (x h) , 2h

que es una aproximaci on de orden 2, se tiene que f (xn+1 , y (xn+1 )) = y (xn+1 ) lo que da lugar al m etodo (1.14). Regla de Simpson. Si integramos la EDO en (xn , xn+2 ) y usamos la regla de Simpson obtenemos que y (xn+2 ) y (xn ) h (f (xn , y (xn )) + 4f (xn+1 , y (xn+1 )) + f (xn+2 , y (xn+2 ))). 3 y (xn+2 ) y (xn ) , 2h

Esta aproximaci on conduce al m etodo num erico, yn+2 yn = h (f (xn , yn ) + 4f (xn+1 , yn+1 ) + f (xn+2 , yn+2 )), 3

conocido como regla de Simpson, que tambi en es un m etodo de dos pasos. M etodo de colocaci on de par ametro c1 = 1/2. Buscamos un polinomio u de

grado 1 tal que

u(x n ) = y n ,

u (xn + c1 h) = f (xn + c1 h, u(xn + c1 h));

es decir, pedimos que u tome un cierto dato inicial y que sea soluci on de la EDO en el punto de colocaci on x = xn + c1 h. Puesto que u es constante, produce tenemos que u (x) = k1 f (xn + c1 h, u(xn + c1 h)), que integrado en (xn , x) u(x ) = y n + k 1 (x x n ). Si denimos yn+1 = u(xn+1 ), se tiene que yn+1 = yn + hk1 , siendo k1 soluci on de k1 = f h k1 xn + , y n + h 2 2 15 .

tiene que

Adams-Bashforth de dos pasos. Si integramos la EDO en (xn+1 , xn+2 ), se


xn+2

y (xn+2 ) y (xn+1 ) =

f (x, y (x)) dx.


xn+1

(1.15)

Aproximamos la integral sustituyendo el integrando por el polinomio de grado menor o igual que uno que interpola a f (x, y (x)) en los nodos xn y xn+1 , f (x, y (x)) f (xn , y (xn )) de forma que y (xn+2 ) y (xn+1 ) Llegamos al m etodo yn+2 yn+1 = h (3f (xn+1 , yn+1 ) f (xn , yn )), 2 h (3f (xn+1 , y (xn+1 )) f (xn , y (xn ))). 2 x xn+1 x xn + f (xn+1 , y (xn+1 )) , xn xn+1 xn+1 xn

conocido como m etodo de Adams-Bashforth de dos pasos. Adams-Moulton de dos pasos. Si sustituimos el integrando en (1.15) por el

polinomio de grado menor o igual que dos que interpola a f (x, y (x)) en los nodos xn , xn+1 y xn+2 , f (x, y (x)) f (xn , y (xn )) (x xn+1 )(x xn+2 ) (xn xn+1 )(xn xn+2 ) (x xn )(x xn+2 ) +f (xn+1 , y (xn+1 )) (xn+1 xn )(xn+1 xn+2 ) (x xn )(x xn+1 ) , +f (xn+2 , y (xn+2 )) (xn+2 xn )(xn+2 xn+1 ) h (5f (xn+2 , y (xn+2 )) + 8f (xn+1 , y (xn+1 )) f (xn , y (xn ))), 12

llegamos a y (xn+2 ) y (xn+1 )

y nalmente al m etodo yn+2 yn+1 = h (5f (xn+2 , yn+2 ) + 8f (xn+1 , yn+1 ) f (xn , yn )), 12 16 (1.16)

conocido como m etodo de Adams-Moulton de dos pasos. Predictor-corrector AB2/AM2. Podemos combinar los dos m etodos anteriores para obtener un nuevo m etodo: en primer lugar predecimos un valor de lo corregimos usando esta cantidad para calcular el lado derecho de (1.16),
h yn +2 = yn+1 + 2 (3f (xn+1 , yn+1 ) f (xn , yn )), h (5f (xn+2 , yn +2 ) 12

yn+2 mediante el m etodo de Adams-Bashforth de dos pasos y a continuaci on

yn+2 = yn+1 +

+ 8f (xn+1 , yn+1 ) f (xn , yn )).

El m etodo resultante, expl cito y de dos pasos, es un par predictor-corrector. El m etodo de Euler mejorado tambi en se puede ver como un par predictorcorrector. BDF de 2 pasos. Dadas yn e yn+1 queremos obtener yn+2 . Consideramos el

polinomio Qn,2 de grado menor o igual que 2 que interpola a yn , yn+1 e yn+2 , es decir Qn,2 (x) = yn (x xn+1 )(x xn+2 ) (x xn )(x xn+2 ) + yn+1 (xn xn+1 )(xn xn+2 ) (xn+1 xn )(xn+1 xn+2 ) (x xn )(x xn+1 ) +yn+2 . (xn+2 xn )(xn+2 xn+1 )

Este polinomio no se puede construir, porque desconocemos yn+2 . Se impone ahora que Qn,2 satisfaga la ecuaci on diferencial en xn+2 , esto es Qn,2 (xn+2 ) = f (xn+2 , Qn,2 (xn+2 )) = f (xn+2 , yn+2 ). El m etodo resultante, 4 1 2 yn+2 yn+1 + yn = hf (xn+2 , yn+2 ), 3 3 3 impl cito y de dos pasos, se conoce como f ormula BDF de 2 pasos. Problemas 1. Construir el m etodo de Taylor de orden 3 para d = 1 y el de orden 2 para d = 2. 17

2. Comprobar que el m etodo de Taylor de orden 3 aplicado al problema y = 2xy , y (0) = 1, lleva a la iteraci on
2 yn+1 = yn + h 2xn yn + yn (1 + 2x2 n )h + 2xn yn (3 + 2xn )

h2 . 3

3. Si integramos la EDO en (xn , xn+1 ) y aplicamos la regla de Simpson, obtenemos que y (xn+1 ) y (xn )
2

h (f (xn , y (xn ))+4f (xn+ 1 , y (xn+ 1 )+ f (xn+1 , y (xn+1 ))), 2 2 6


2

. Como no conocemos el valor de y (xn+ 1 ), aproximadonde xn+ 1 = xn + h 2 mos esta cantidad por Euler, y (x
1 n+ 2

conocemos el valor de y (xn+1 ). Para estimarlo podemos avanzar a partir de xn utilizando una media ponderada de las dos pendientes calculak ); es decir, das hasta ahora, k1 = f (xn , y (xn )), k2 = f (xn+ 1 , y (xn ) + h 2 1
2

) y (x n ) +

h f (xn , y (xn )). 2

Tampoco

tomamos y (xn+1 ) y (xn ) + h(k1 + k2 ). Llegamos as al m etodo k 1 = f (x n , y n ), k = f (x + h , y + h k ), 2 n n 2 2 1 k3 = f (xn + h, yn + h(k1 + k2 )) yn+1 = yn + h ( k 1 + 4k 2 + k 3 ) . 6 como m etodo de Runge-Kutta cl asico. 4. Consideramos la igualdad
xn+k

Determinar y para que Rn = O(h4 ). El m etodo resultante se conoce

y (xn+k ) y (xn+k1 ) =

f (t, y (t)) dt.


xn+k1

Si aproximamos la integral sustituyendo el integrando por el polinomio de grado menor o igual que k 1 que interpola a f (t, y (t)) en los nodos resultante exactamente, se obtiene el m etodo de Adams-Bashforth de k pasos. 18 xn , . . . , xn+k1 , y pedimos que la aproximaci on yn satisfaga la relaci on

Si aproximamos la integral sustituyendo el integrando por el polinomio de grado menor o igual que k que interpola a f (t, y (t)) en los nodos xn , . . . , xn+k , y pedimos que la aproximaci on yn satisfaga la relaci on resultante exactamente, se obtiene el m etodo de Adams-Moulton de k pasos. Construir los m etodos de Adams-Bashforth y Adams-Moulton de 1 y 3 pasos, obteniendo una expresi on para el residuo a partir del error de interpolaci on. 5. Consideramos la igualdad
xn+k

y (xn+k ) y (xn+k2 ) =

f (t, y (t)) dt.


xn+k2

Si aproximamos la integral sustituyendo el integrando por el polinomio de grado menor o igual que k 1 que interpola a f (t, y (t)) en los nodos xn , . . . , xn+k1 , y pedimos que la aproximaci on yn satisfaga la relaci on

resultante exactamente, se obtiene el m etodo de Nystrom de k pasos. Obtener los m etodos de Nystrom de 2 y 3 pasos. 6. Obtener una aproximaci on de orden 4 de la derivada y (x) a partir de los valores y (x + 2h), y (x + h), y (x), y (x h) e y (x 2h). Utilizarla para inicial para EDOs. Obtener una expresi on para el residuo. 7. Dadas las aproximaciones yn , . . . , yn+k1 , consideramos el polinomio Qn,k de grado menor o igual que k que interpola a yn , . . . , yn+k . Obviamente este polinomio no se puede construir, porque desconocemos yn+k . Se impone ahora que Qn,k satisfaga la ecuaci on diferencial en xn+k , esto es Qn,k (xn+k ) = f (xn+k , Qn,k (xn+k )) = f (xn+k , yn+k ). El m etodo resultante se conoce como f ormula BDF de k pasos. Construir las f ormulas BDF de 1 y 3 pasos. 8. Dados par ametros, c1 , . . . , c (preferiblemente en [0, 1], aunque no es imprescindible), buscamos un polinomio u de grado (con coecientes 19 construir un m etodo de cuatro pasos para resolver problemas de valor

vectoriales) tal que u(x n ) = y n , u (xn + cj h) = f (xn + cj h, u(xn + cj h)), j = 1, . . . , .

En otras palabras, u satisface la condici on inicial y tambi en la EDO en puntos distintos. Un m etodo de colocaci on consiste en calcular u y tomar yn+1 = u(xn+1 ). Los par ametros c1 , . . . , c son los par ametros de colocaci on . Obtener el m etodo de colocaci on que corresponde a los par ametros de colocaci on c1 = 1/3, c2 = 2/3.

1.4.

Convergencia

Todos los m etodos de la secci on anterior se pueden escribir en la forma


k

j yn+j = hf (xn , yn , . . . , yn+k1 ; h),


j =0

n = 0, . . . , N k,

(1.17)

donde f , la funci on de incremento, depende de sus argumentos a trav es de la funci on f (y a veces, como en los m etodos de Taylor, tambi en de sus derivadas). Ejemplos. Para el m etodo de Euler f (xn , yn ; h) = f (xn , yn ). Para la regla del trapecio f viene denida impl citamente por f (xn , yn ; h) = f (xn , yn ) + f (xn + h, yn + hf (xn , yn ; h)) . 2 (1.18)

Si la funci on de incremento f se puede expresar expl citamente en t erminos de f (y tal vez de sus derivadas), el m etodo es expl cito. En caso contrario, el m etodo es impl cito. El m etodo (1.17) se dice de k pasos, pues se necesitan k valores anteriores, yn , . . . , yn+k1 , para calcular yn+k . Por consiguiente, es necesario disponer de k valores de arranque, y0 , . . . , yk1 ; sin embargo, el problema de valor inicial 20

que restantes por alg un otro procedimiento, como puede ser por desarrollo de Taylor, utilizando un m etodo de un s olo paso, etc.

s olo proporciona y0 . Si k 2 habr a que obtener los k 1 valores de arran-

Supondremos que k = 1, eliminando as la arbitrariedad que surge del hecho de que podemos multiplicar ambos lados de (1.17) por un mismo n umero distinto de cero sin cambiar el m etodo. Supondremos tambi en que, o bien 0 = 0, o bien f depende de yn de forma no trivial. Excluimos as m etodos como por ejemplo yn+2 yn+1 = hf (xn+1 , yn+1 ), que es esencialmente de 1 paso, y no de 2, y que se puede escribir como yn+1 yn = hf (xn , yn ). Para todos los ejemplos de la secci on anterior f satisface las siguientes propiedades: (i) es continua; (ii) existen constantes h0 y L tales que
k1

f (xn , yn , . . . , yn+k1 ; h) f (xn , y n , . . . , y n+k1 ; h) L

j =0

yn+j y n+j (1.19)

para todo 0 < h < h0 ; y (iii) si f = 0, entonces f = 0. En lo que sigue, siempre que consideremos un m etodo de la forma (1.17) supondremos que verica estas tres condiciones. Dan los m etodos (1.17) una buena aproximaci on a la verdadera soluci on del problema (1.2)? Una medida posible de la bondad de la aproximaci on es el mayor error cometido,
0nN

m ax

y (x n ) y n .

Se hace el error cada vez m as peque no a medida que la malla va teniendo m as puntos? Si esto es as diremos que el m etodo es convergente. Denici on 1.4. Un m etodo (1.17) se dice convergente si para todo problema de valor inicial (1.2) con f continua en D = [a, b] Rd y Lipschitz con respecto 21

a su segunda variable en D se tiene que


N knN

l m m ax

y (x n ) y n = 0

si l m m ax

N 0nk1

m ax

y ( x n ) y n = 0.

Observaci on. La condici on l m

N 0nk1 h0

1 Estamos pidiendo que los valores de arranque, {yn }k n=0 , aproximen bien al dato

de arranque es equivalente a pedir que l m+ yn = y (x0 ) para n = 0, . . . , k 1.

y (xn ) yn = 0 sobre los valores

inicial y (x0 ); si esto no es as no hay por qu e esperar que la soluci on num erica se parezca a la te orica. Problemas

1. Para cada uno de los m etodos de la secci on 1.3, demostrar que si f es continua en D y Lipschitz con respecto a su segunda variable en D, entonces la correspondiente funci on de incremento satisface la condici on de Lipschitz (1.19). En el caso del m etodo de Taylor de orden 2 se supone adem as que todas las derivadas parciales de orden 2 de f existen y est an acotadas en D. 2. Sea y la soluci on del problema (1.2) y sea y I la funci on continua lineal una soluci on num erica del problema. Una medida alternativa del error cometido viene dada por m ax y (x) y I (x)
axb .

a trozos que pasa por los puntos (xn , yn ), n = 0, . . . , N , donde {yn } es Hallar una cota para

esta cantidad en t erminos de m ax f C 1 ([a, b] Rd ).

0nN

y (xn ) yn y de h, suponiendo que

1.5.

0-estabilidad

Salvo en casos excepcionales, la verdadera soluci on no satisface la recurrencia (1.17) que dene el m etodo num erico, sino la recurrencia m as una peque na perturbaci on,
k

j yn+j = hf (xn , yn , . . . , yn+k1 ; h) + Rn ,


j =0

n = 0, . . . , N k. (1.20)

22

La cantidad Rn , el residuo, es lo que le falta a la soluci on te orica para ser soluci on del m etodo num erico. Por cierto, la soluci on producida por el ordenador tampoco es soluci on de la ecuaci on del m etodo, pues los errores de redondeo introducen peque nas perturbaciones. Por otra parte, f (xn , y n , . . . , y n+k1 ; h) en general no se calcula exactamente, sino s olo de forma aproximada. As que en realidad el ordenador produce una soluci on {y n } de una recurrencia perturbada
k

j y n+j = h f (xn , y n , . . . , y n+k1 ; h) + n + n ,


j =0

n = 0, . . . , N k, n = 0, . . . , k 1,

y n = yn + n ,

donde n es el error cometido en el c alculo de f (xn , y n , . . . , y n+k1 ; h) y n es el error de redondeo. Para que el m etodo sirva para algo, necesitamos que y (xn ) e y n permanezcan pr oximas si las perturbaciones Rn y n son peque nas. Esto es, nos gustar a que el m etodo num erico fuese estable. Esto motiva la siguiente denici on. Denici on 1.5. Un m etodo (1.17) se dice 0-estable si para cada problema de valor inicial (1.2) con f continua en D y Lipschitz con respecto a su segunda variable en D existe una constante C > 0 tal que para cada dos sucesiones
N {u n } N n=0 y {vn }n=0 satisfaciendo k j =0 k j =0

j un+j hf (xn , un , . . . , un+k1 ; h) = hn , j vn+j hf (xn , vn , . . . , vn+k1 ; h) = hn ,

0 n N k,

se verica que m ax un vn C m ax un vn + m ax n n . (1.21)

knN

0nk1

0nN k

Ejemplo. Todos los m etodos de un paso con 0 = 1 son 0-estables. En efecto, 23

N sean {un }N n=0 y {vn }n=0 satisfaciendo

un+1 = un + hf (xn , un ; h) + hn , vn+1 = vn + hf (xn , vn ; h) + hn ,

n = 0, . . . N 1.

(1.22)

Restando ambas ecuaciones, tomando normas y usando la condici on de Lipschitz (1.19), se tiene que en = un u n verica en+1 en + h f (xn , un ; h) (xn , vn ; h) + h n n (1 + Lh)en + h n n . A partir de aqu se demuestra f acilmente por inducci on que un vn eL(xn x0 ) u0 v0 + eL(xn x0 ) (xn x0 ) m ax
0nN 1

n n , (1.23)

de donde se sigue inmediatamente que el m etodo es 0-estable. Como corolario de la denici on de 0-estabilidad se tiene el siguiente resultado de convergencia. Corolario 1.6. Si un m etodo (1.17) es 0-estable y :=
0nN k

m ax

Rn /h 0

cuando h 0+ ,

entonces el m etodo converge. Prueba. Basta con tomar un = y (xn ), n = Rn /h, vn = yn y n = 0 en la denici on de 0-estabilidad. Apliquemos el corolario al m etodo de Euler. Es 0-estable, pues es de un paso con 0 = 1. Por otra parte, Rn /h = y (xn+1 ) y (xn ) f (xn , y (xn )) = y ( n ) y (xn ). h

tanto la convergencia. La convergencia de la regla del trapecio se obtiene de forma similar. 24

usando la continuidad uniforme de y (x) en [a, b] se concluye que 0, y por

y ( n )h2 /2 y, utilizando (1.23), se llega a la cota para el error

Si f es m as regular se tiene algo mejor. Por ejemplo, si f C 1 , Rn = y (xn ) yn eL(ba) y (x0 ) y0 + eL(ba) (b a)Ch, (1.24)

donde C =

1 2

m axx[a,b] y (x) y L > 0 es una constante de Lipschitz para f

con respecto a su segunda variable. An alogamente, si f C 2 , para la regla del trapecio tenemos que Rn = y (xn+1 ) {y (xn ) + h [f (xn , y (xn )) + f (xn+1 , y (xn+1 ))]} 2 = y (xn ) + hy (xn ) +
y ( n ) 3! h2 y 2

(x n ) +

h3 y 3!

( n )

[y (xn ) + y (xn ) + hy (xn ) + {y (xn ) + h 2


y ( n ) 4

h2 y 2

h3 ,

( n )]}

de donde se deduce que y (xn ) yn eL(ba) y (x0 ) y0 + eL(ba) (b a)Ch2 , variable y C= (1.25)

donde L > 0 es una constante de Lipschitz para f con respecto a su segunda 5 m ax y (x) . 12 x[a,b]

La constantes que aparecen en las cotas anteriores se pueden estimar utilizando la ecuaci on diferencial. Ejemplo. Sea y la soluci on de y = sen (exp(y )) en [0, 1], y (0) = 0. Queremos estimar y sin conocer y . Para ello derivamos la EDO, y = cos(exp(y )) exp(y )y = cos(exp(y )) exp(y ) sen (exp(y )). Para acotar el factor exponencial tenemos que tener una idea del tama no de y . Dado que |y | 1 tenemos que |y | x 1. Concluimos que |y | e. La cotas (1.24) y (1.25) en general sobreestiman el error en muchos o rdenes de magnitud, y no se deben por tanto utilizar en la pr actica. Sin embargo 25

dan una informaci on importante: el error del m etodo de Euler es una O(h), si y (x0 ) y0 = O(h2 ). Eso motiva la siguiente denici on. siempre y cuando y (x0 ) y0 = O(h) y el de la regla del trapecio una O(h2 ),

Denici on 1.7. El m etodo num erico (1.17) es convergente de orden p si este con respecto a su segunda variable en D se tiene que
knN

es el mayor entero tal que para todo problema (1.2) con f C p (D) y Lipschitz m ax y (x n ) y n = O (h p ) si m ax y (x n ) y n = O (h p )

0nk1

cuando h 0+ . Con esta denici on, el m etodo de Euler es convergente de orden al menos uno y la regla del trapecio de orden al menos de orden 2. Para ver que el m etodo de Euler no es convergente de orden 2 lo aplicamos al problema y (x) = x para x [0, b], y (0) = 0,

cuya soluci on exacta es y (x) = x2 /2. Si tomamos valor de arranque y0 = 0 tenemos que y1 = y0 + hx0 = 0, y2 = y1 + hx1 = h2 , y3 = y2 + hx2 = h2 (1 + 2) . . . yn = h2 (1 + + (n 1)). Es decir, yn = y por tanto
1nN

x2 xn h n , 2 2 xn h/2 = bh/2.

m ax

y (xn ) yn = m ax

1nN

forma parecida se prueba que la regla del trapecio no tiene orden de convergencia 3. 26

Cuando h 0 el error tiende a cero, pero lo hace como h y no como h2 . De

La regla del trapecio tiene un orden de convergencia mayor que el m etodo de Euler. Pero, cuidado!, el orden no lo es todo. Aunque en un m etodo de orden alto en principio hay que dar menos pasos, estos pueden ser muy costosos; puede ser preferible un m etodo de orden m as bajo, en el que, a pesar de dar m as pasos, cada uno de ellos lleve menos trabajo computacional. Que un m etodo sea de orden p signica que para todos los problemas razonables el error que se comete con el m etodo es de ese orden. Pero puede suceder que para alg un problema concreto el m etodo sea mejor. Ejemplo. Consideramos el problema y ( x ) = 1, y (0) = 0,

cuya soluci on exacta es y (x) = x. Aplicando Euler con valor de arranque y0 = 0 tenemos yn+1 = yn + h, y por tanto yn = nh = xn . Euler nos da por tanto la soluci on para este problema sin ning un error. Problemas 1. Consideramos un m etodo de un s olo paso con |0 | > 1. Demostrar que no es 0-estable. Indicaci on: Aplicarselo a un problema con f = 0 y valores de arranque y0 = 0 e y 0 = h. 2. Suponiendo s olo que f es continua en D y Lipschitz con respecto a su segunda variable en D, demostrar que l m+ = 0 para la regla del trapecio.
h0

3. Consideramos la ecuaci on escalar y = arctan y . Encontrar una cota para y e y en el intervalo [0, 1] sin hallar y expl citamente. 4. Consideramos el problema de valor inicial y (x) = x(sen y (x))2 , x [0, 1], y (0) = 1. Si se resuelve por el m etodo de Euler, qu e valor de h habr a que tomar para garantizar un error menor que 103 ? Y si se usa la regla del trapecio? 5. Probar que la regla del trapecio no es convergente de orden 3. 27

6. Construir todos los m etodos convergentes de orden 2 de la forma yn+1 = yn + hf (xn + h, yn + hf (xn + h, yn + hf (xn , yn ))). Comprobar que ninguno tiene orden de convergencia 3. Tiene alguno orden de convergencia 3 para el problema y = y en [0, b], y (0) = 1? 7. Calcular la soluci on te orica del problema de valor inicial y (x) = m n(y (x), 2), 0 x 2, y (0) = 1,

y aproximarla mediante el m etodo de Euler. Comprobar que la soluci on num erica converge a la te orica. Es la convergencia de orden 1? 8. Consideramos un m etodo de un paso con 0 = 1. Sean {un }N n=0 y tal que {v n } N n=0 satisfaciendo (1.22) Demostrar que existe una constante C > 0
N 1 0nN

m ax

un vn C

0nN 1

m ax

j =0

( j j ) .

Concluir de lo anterior que si existe un problema de valor inicial tal que Rn = Chp+1 , entonces el m etodo no puede tener orden de convergencia mayor que p. Como aplicaci on, demostrar que el m etodo de Euler modicado no es convergente de orden 3. 9. Supongamos que los errores de evaluaci on de f est an acotados por y los de redondeo por . Si el m etodo es 0-estable, dar una cota para el error m ax
knN

y (x n ) y n y obtener el valor de h que minimiza dicha cota.

1.6.

Consistencia
h0

La 0-estabilidad garantiza que si l m+ = 0, el m etodo converge. Esto motiva la siguiente denici on.

Denici on 1.8. Un m etodo de la forma (1.17) es consistente si para todo problema (1.2) con f continua en D y f Lipschitz con respecto a su segunda 28

variable en D se tiene que


h0+

l m = 0.

Qu e tiene que satisfacer un m etodo para ser consistente? El siguiente resultado da una caracterizaci on completa. Teorema 1.9. Un m etodo (1.17) es consistente si y s olo si
k

j = 0
j =0

(1.26)

y adem as
k

f (x, y (x), . . . , y (x); 0) =


j =0

jj

f (x, y (x)).

(1.27)

Prueba. Aplicamos el m etodo (1.17) al problema y ( x ) = 0, y (0) = 1,

cuya soluci on es y (x) = 1. Puesto que f = 0, entonces f = 0, y se tiene que Rn l m+ = h0 h


k

j = 0
j =0

si el m etodo es consistente, es decir, (1.26). Consideramos ahora el problema general (1.2) y lo integramos num ericamente en el intervalo [a, x], con x (a, b]. Si se cumple (1.26), entonces Rn 1 = h h = =
j =0 k k j =0 k

j y (xn+j ) f (xn , y (xn ), . . . , y (xn+k1 ); h) j y (xn ) + jhy ( n,j ) f (xn , y (xn ), . . . , y (xn+k1 ); h)

1 h

j =0

jj y ( n,j ) f (xn , y (xn ), . . . , y (xn+k1 ); h) jj f ( n,j , y ( n,j )) f (xn , y (xn ), . . . , y (xn+k1 ); h), (1.28) 29

=
j =0

para n = 0 se tiene (1.27) con x = a; haciendo lo mismo para n = N k , RN k = h


k

donde xn n,j xn+j . Si el problema es consistente, pasando al l mite h 0+

j =0 k j =0

jj f ( N k,j , y ( N k,j )) f (xN k , y (xN k ), . . . , y (xN 1 ); h) jj f (x, y (x)) f (x, y (x), . . . , y (x); 0),

de donde, si el m etodo es consistente, se obtiene (1.27) para x (a, b] . Veamos el rec proco. Supongamos que se cumplen las condiciones (1.26) y (1.27). Entonces, usando (1.28) se tiene que Rn = h
k

jj
j =0

f ( n,j , y ( n,j ), . . . , y ( n,j ); 0) f (xn , y (xn ), . . . , y (xn+k1 ); h)


k

jj
j =0

Utilizando la continuidad uniforme de y y f sobre compactos, se concluye que 0. Ejemplo. Los m etodos de un paso son consistentes si y s olo si 0 = 1 por tanto es consistente. Ejemplo. Consideramos el m etodo yn+2 + yn+1 2yn = h 5f (xn+1 , y (xn+1 )) 2f (xn , y (xn )) .
2

f (x, y (x); 0) = f (x, y (x)).

Usando (1.18) es f acil ver que la regla del trapecio cumple estas dos condiciones;

(1.29) j = 0 y

Se tiene f (xn , yn , yn+1 ; h) = 5f (xn + h, yn+1 ) 2f (xn , yn ),


2 j =0

j =0

jj = 3. Por consiguiente, f (x, y, y ; 0) = 3f (x, y ). As pues, el m etodo es consistente. Si un m etodo es 0-estable y adem as = O(hp ) cuando h 0+ , entonces 30

converge con orden al menos p, lo que motiva una nueva denici on.

Denici on 1.10. Un m etodo de la forma (1.17) es consistente de orden p si este es el mayor entero tal que para todo problema (1.2) con f C p (D) y cuando h 0+ . Ejemplo. Si f C 2 , la regla del punto medio (1.14) tiene residuo Rn = y (xn+2 ) y (xn ) 2hf (xn+1 , y (xn+1 )) = = = y (xn+2 ) y (xn ) 2hy (xn+1 )
1 1 y (xn ) + y (xn )(2h) + 2! y (xn )(2h)2 + 3! y (n )(2h)3

f Lipschitz con respecto a su segunda variable en D se tiene que = O(hp )

1 y ( n )h 2 y (xn ) 2h y (xn ) + y (xn )h + 2! 4 y 3

( n ) y ( n ) h 3 ,

con xn n xn+2 y xn n xn+1 . As pues, = O(h2 ), y el m etodo es consistente de orden al menos 2. Si aplicamos el m etodo al problema y (x) = x2 , 2 0 x b, y (0) = 0, (1.30)

cuya soluci on, y (x) = x3 /3!, verica que y (x) = 1, se tiene que Rn = h3 /3. As pues, = h2 /3, y el m etodo no es consistente de orden 3. Problemas 1. Decidir si los m etodos de la secci on 1.3 son consistentes y en caso armativo determinar el orden de consistencia. 2. Determinar qu e condiciones deben cumplir las constantes y para que el m etodo yn+1 = yn + hf (xn , yn ) + hf (xn+1 , yn+1 ) sea: (i) consistente; (ii) consistente de orden al menos uno; y (iii) consistente de orden al menos dos. Es consistente de orden 3 para alguna elecci on de y ? 31

3. a) Hallar el orden de consistencia del m etodo 5 7 h h yn+1 = yn hf (xn , yn ) + hf (xn + , yn + f (xn , yn )). 2 2 7 7 b) Escribir la funci on de incremento f y comprobar que cumple la condici on (1.19). 4. Repetir el ejercicio anterior para el m etodo yn+1 = yn + hf (xn + (1 )h, yn + (1 )yn+1 ), donde [0, 1].

1.7.

Criterio de la ra z

Si un m etodo de un paso es consistente, es 0-estable, y por tanto convergente. Sucede lo mismo con los m etodos de m as de un paso? La respuesta es que no. Ejemplo. Consideramos el m etodo (1.29). Se lo aplicamos al problema m as simple que uno pueda imaginar, y ( x ) = 0, a x b, y ( a ) = 0,

cuya soluci on es y (x) = 0. El m etodo en este caso queda yn+2 + yn+1 2yn = 0. Para que yn = n sea soluci on de esta recurrencia, tiene que ser ra z del soluciones yn = 1, yn = (2)n . La soluci on general de la recurrencia ser a una combinaci on lineal de estas dos soluciones, yn = c1 + c2 (2)n . 32 polinomio ( ) = 2 + 2. As , debe ser 1 o 2, lo que da lugar a las

y que

Consideramos las soluciones un = 0 y vn = h(2)n . Se tiene que n = 0 = n


0n1

m ax un vn = 2h. ba N 2 , N

Sin embargo,
2nN

m ax

un vn = h2N =

luego (1.21) no se cumple para ning un C . Como se ve en este ejemplo, la 0-estabilidad est a relacionada con el tama no de las ra ces del polinomio
k

( ) =
j =0

j j ,

conocido como primer polinomio caracter stico del m etodo, que es el polinomio asociado a la recurrencia que se obtiene al aplicar el m etodo a problemas con f = 0. Esto motiva la siguiente denici on. Denici on 1.11. Se dice que un m etodo (1.17) satisface la condici on de la ra z si todas las ra ces del primer polinomio caracter stico tienen m odulo menor o igual que 1, y aquellas que tienen m odulo 1 son simples. Observaci on. Si un m etodo es consistente, una de las ra ces de ( ) debe ser 1. Esta es la ra z principal, a la que se etiqueta como 1 . Las restantes ra ces, i , i = 2, . . . , k , son las llamadas ra ces espurias; surgen porque decidimos representar un sistema diferencial de primer orden por un sistema en diferencias de orden k . Obviamente, los m etodos consistentes con k = 1 no tienen ra ces espurias, y satisfacen por tanto la condici on de la ra z. La 0-estabilidad resulta ser equivalente a que se satisfaga la condici on de la ra z. Teorema 1.12. Un m etodo (1.17) es 0-estable si y s olo si satisface la condici on de la ra z. 33

Prueba. Consideramos el problema de valor inicial con f = 0 y tomamos dos soluciones un y vn de la ecuaci on en diferencias sin perturbar
k

j un+j = 0.
j =0

(1.31)

Si el m etodo es 0-estable, existe una constante C tal que


knN

m ax

un vn C m ax

0nk1

un vn .

Veamos que esto es imposible si no se satisface la condici on de la ra z. (i) Supongamos que existe tal que | | > 1 y ( ) = 0. Las sucesiones ba N | | , N b a k1 | | . N

un = 0 y vn = h n son soluci on de la ecuaci on en diferencias (1.31). Tenemos que


knN

m ax

un vn = h| |N =

mientras que,
0nk1

m ax

un vn = m ax h| |n
0nk1

As pues, el m etodo no es 0-estable. (ii) Supongamos que existe tal que | | = 1, ( ) = 0 = ( ). Las suce on de la ecuaci on en diferencias (1.31) siones un = 0 y vn = hn n son soluci (n otese que es ra z doble). Entonces
knN

m ax

un vn =

hN | |N = b a N , ba hn| | (k 1), N
n

mientras que m ax un vn = m ax

0nk1

0nk1

y el m etodo no es 0-estable. Veamos ahora que si el m etodo cumple la condici on de la ra z, entonces es 0-estable. Damos la prueba (que se puede omitir en una primera lectura) en el caso escalar. El caso vectorial es an alogo. 34

La idea es escribir el m etodo como m etodo de un paso. Para ello denotamos Yn = (yn+k1 , . . . , yn )T , F (Yn ) = (f (xn , yn , . . . , yn+k1 ; 0), 0, . . . , 0) , Con esta notaci on podemos escribir el m etodo como Yn+1 = AYn + hF (Yn ), n = 0, . . . , N k,
T

n = 0, . . . , N k + 1.

n = 0, . . . , N k + 1,

donde A es la matriz compa nera del primer polinomio caracter stico, k1 k2 . . . 1 0 1 0 ... 0 ... A= . 0 1 . . . . . .. .. . . .. . . 0 ... 0 1 0 Iterando el proceso tenemos que
n1

Yn = A n Y0 + h
l=0

An1l F (Yl ).

Para las un y vn de la denici on de estabilidad, llamando Rn = (n n , 0, . . . , 0)T , y restando tendremos que


n1 n1

n = 0, . . . , N k,

U n V n = A n (U 0 V 0 ) + h

l=0

An1l (F (Ul ) F (Vl )) + h

An1l Rl .
l=0

Si las potencias de A est an todas ellas acotadas, esto es, si An M, tenemos que
n1

n = 0, 1, . . . ,

tomando normas y utilizando que f satisface la condici on de Lipschitz (1.19),

Un Vn M U0 V0 + hLM k

l=0

Ul Vl + (b a)M m ax

0lN k

l l ,

35

desigualdad que se puede escribir como


n1

n N + hLM k deniendo n y N de la manera obvia.


n1

l ,
l=0

Sea n = N + hLM k
l=0

l . Se tiene que

n+1 n = hLM kn hLM kn , de donde concluimos que n n (1 + hLM k )n1 1 e(n1)hLM k (N + hLM k U0 V0 ), y de aqu la 0-estabilidad. Para que las potencias de A est en todas acotadas es necesario y suciente que las ra ces del polinomio sean de m odulo menor que la unidad, y aquellas que sean de m odulo 1 sean simples, es decir, que se cumpla el criterio de la ra z. Para ver esto no hay m as que observar que los autovalores de A son las ra ces de . Ejemplo. El primer polinomio caracter stico de la regla del punto medio (1.14) es ( ) = 2 1. ra z. Por consiguiente, el m etodo es 0-estable. Como tambi en es consistente de orden 2, es convergente de orden al menos 2. Por otra parte, si aplicamos el m etodo al problema (1.30), se obtiene la recurrencia yn+2 yn = h3 (n + 1)2 , cuya soluci on general es yn = c1 + c2 (1)n + 36 h3 3 (n n ). 3! n = 0, . . . , N 2, Sus ra ces son 1 = 1 y 2 = 1, luego el m etodo satisface la condici on de la

Si tomamos valores de arranque y0 = 0 = y1 , entonces yn = As pues, m ax y (xn ) yn = 0 y


0n1

h3 3 (n n ). 3!

2nN

m ax

y (x n ) y n =

h2 bh2 m ax xn = ; 3! 2nN 3!

el m etodo no es por tanto convergente de orden 3. Problemas 1. Comprobar que los autovalores de la matriz compa nera del primer polinomio caracter stico son precisamente las ra ces de dicho polinomio. 2. Comprobar que la condici on necesaria y suciente para que todas las potencias de una matriz tengan norma uniformemente acotada es que todos sus autovalores tengan m odulo menor o igual que uno y aquellos que tengan m odulo uno sean simples. 3. Determinar si son 0-estables los m etodos de la secci on 1.3 de m as de un paso. 4. Consideramos la familia de m etodos yn+3 +(23)yn+2 (23)yn+1 yn = h f (xn+2 , yn+2 )+f (xn+1 , yn+1 ) , donde es un par ametro real. Estudiar para qu e valores de es 0-estable.

1.8.

Teorema de equivalencia

el rec proco?

Hemos visto que 0-estabilidad + consistencia convergencia. Es cierto

Teorema 1.13 (Teorema de equivalencia). Un m etodo (1.17) es convergente si y s olo si es 0-estable y consistente. 37

Consideramos el problema

Prueba. En primer lugar probamos que convergencia criterio de la ra z. y ( x ) = 0, y (0) = 0,

cuya soluci on es y (x) = 0. (i) Supongamos que existe tal que | | > 1 y ( ) = 0. La sucesi on yn = h n , arranque yn = h n , n = 0, . . . , k 1; por tanto
0nk1

n = 0, 1, . . . , es soluci on de la ecuaci on en diferencias y tiene condiciones de

m ax

y (xn ) yn = h| |k 0. ba N | | cuando h 0+ , N

Sin embargo,
knN

m ax

y (xn ) yn = h| |N =

y por tanto el m etodo no es convergente. (ii) Supongamos que existe tal que | | = 1, ( ) = 0 = ( ). La sucesi on n yn = hn , n = 0, 1, . . . , es soluci on de la ecuaci on en diferencias y tiene n condiciones de arranque yn = hn , n = 0, . . . , k 1; por tanto m ax y (xn ) yn = h(k 1)| |k1 0.
0nk1

Sin embargo,
knN

m ax

y (x n ) y n =

hN | |N = b a N cuando h 0+ ,

y el m etodo no es convergente. Veamos ahora que convergencia consistencia. Si un m etodo es conver-

gente, en particular lo es para el problema y (x) = 0, 0 x b, y (0) = 1, cuya soluci on es y (x) = 1. La aplicaci on del m etodo num erico a este problema
k

produce la recurrencia j yn+j = 0,


j =0

n = 0, . . . , N k. 38

(1.32)

Si tomamos valores de arranque yn = 1, n = 0, . . . , k 1, entonces


0nk1

m ax

y ( x n ) y n = 0.

Por consiguiente, la convergencia implica que


knN

m ax

1 y n 0,

, pasando al l mite en (1.32) se llega a (1.26). y por tanto que l m+ yn = 1. As


h0

Supongamos ahora que no se cumple la condici on (1.27),


k

f (x, y (x), . . . , y (x); 0) Si denimos

jj
j =0

f (x, y (x)) = g (x) 0.

(x, y ) = f (x, y ) g (x) , f k jj


j =0

se tiene que
k

f (x, y (x), . . . , y (x); 0) =


j =0

jj

(x, y (x)). f

Combinando esto con (1.26) y la 0-estabilidad, se prueba f acilmente que yn converge a la soluci on y = y de (x, y (x)), y (x) = f la ecuaci on equivocada!. Observaci on. Las condiciones de consistencia garantizan que estamos resolviendo la ecuaci on diferencial correcta, que estamos siendo consistentes con ella. Ejemplo. La funci on de incremento del m etodo yn+1 = yn + h(2f (xn , yn ) + 3f (xn+1 , yn+1 )) 39 a x b, y (a) = ,

viene dada impl citamente por f (x, y ; h) = 2f (x, y ) + 3f (x + h, y + hf (x, y ; h)). As , f (x, y (x); 0) = 5f (x, y (x)), y el m etodo no es convergente, ya que no es consistente. Sin embargo, es 0-estable y cumple (1.26). Por lo tanto, aproximar a a soluciones de la ecuaci on y (x) = 5f (x, y (x)). Problemas 1. Estudiar si son convergentes los m etodos de la secci on 1.3. 2. Consideramos la familia de m etodos yn+3 +(23)yn+2 (23)yn+1 yn = h f (xn+2 , yn+2 )+f (xn+1 , yn+1 ) , donde es un par ametro real. Estudiar para que valores de es convergente. 3. Repetir el problema anterior para la familia de m etodos de dos pasos yn+2 ( + 1)yn+1 + yn = (3 7)hf (xn+2 , yn+2 ).

1.9.

M etodos lineales multipaso

El m etodo de Euler, las reglas del trapecio, del punto medio y de Simpson, los m etodos de Adams-Bashforth y Adams-Moulton de dos pasos y la f ormula BDF de dos pasos obtienen las aproximaciones yn a la soluci on del problema de valor inicial como soluciones de recurrencias de la forma
k k

j yn+j = h
j =0 j =0

j f (xn+j , yn+j ),

n = 0, . . . , N k.

(1.33)

Los m etodos que se pueden escribir de esta manera se conocen como m etodos lineales de k -pasos, porque yn+k es una combinaci on lineal de yn+j y f (xn+j , yn+j ), j = 1, . . . , k . 40

Notaci on. Para abreviar se suele escribir fn = f (xn , yn ). La funci on de incremento del m etodo (1.33) viene dada por
k1

f (xn , yn , . . . , yn+k1 ; h) =
j =0 k1

j f (xn + jh, yn+j ) j yn+j + hf (xn , yn , . . . , yn+k1 ; h)).


j =0

+k f (xn + kh,

No es dif cil comprobar que f satisface la condici on de Lipschitz (1.19) si f satisface una condici on de Lipschitz con respecto a su segunda variable. Si k = 0, el m etodo es expl cito. En este caso se puede despejar expl citamente cada yn+k en t erminos de los k valores anteriores yn , . . . , yn+k1 . Si se han almacenado los valores fn , . . . , fn+k2 , una u nica evaluaci on de funci on, fn+k1 , producir a yn+k . Si k = 0, el m etodo es impl cito. Para obtener yn+k en cada paso tendremos que resolver la ecuaci on no lineal yn+k = hk f (xn+k , yn+k ) + g, donde g es una funci on conocida de los valores ya calculados,
k1

(1.34)

g=
j =0

(hj fn+j j yn+j ).

Si el lado derecho de la igualdad (1.34) tiene una constante de Lipschitz M con respecto a yn+k tal que M < 1, entonces este sistema de ecuaciones tiene una u nica soluci on yn+k , que se puede aproximar tanto como se desee por medio de la iteraci on yn+k = hk f (xn+k , yn+k ) + g,
[ +1] [ ]

yn+k arbitrario.

[0]

(1.35)

Por el Teorema de la Aplicaci on Contractiva, se cumple que


l m yn+k = yn+k . 41

[ ]

N otese que, siempre que f sea Lipschitz con respecto a su segunda variable, podemos forzar que se cumpla la condici on M < 1 tomando un valor de h sucientemente peque no. Si este fuera demasiado peque no se deber a optar por otro m etodo iterativo, como el de Newton. Ya vimos que los coecientes j de un m etodo general (1.17) se pueden especicar por medio de , el primer polinomio caracter stico del m etodo. En el caso de los m etodos lineales multipaso se dene un segundo polinomio caracter stico,
k

( ) =
j =0

j j ,

con el n de caracterizar los coecientes j . Qu e condiciones deben satisfacer los coecientes de un m etodo lineal multipaso para que sea consistente? Si el m etodo cumple la condici on (1.26), entonces
k1 k1

f (x, y (x), . . . , y (x); 0) =


j =0 k

j f (x, y ) + k f j f (x, y ).
j =0

x,

j y (x)
j =0

As pues, el m etodo ser a consistente si y s olo si


k k k

j = 0
j =0

y
j =0

j =
j =0

jj .

En t erminos del primer y segundo polinomio caracter stico estas condiciones se escriben como (1) = 0, (1) = (1).

Qu e condiciones se deben cumplir para que el m etodo sea consistente de 42

orden p? En este caso el residuo viene dado por


k

Rn =
j =0 k

(j y (xn+j ) hj f (xn+j , y (xn+j )) (j y (xn+j ) hj y (xn+j )), n = 0, . . . , N k.

=
j =0

Si tomamos desarrollos de Taylor para y (xn+j ) = y (xn + jh) e y (xn+j ) = y (xn + jh) alrededor del punto x = xn , y (xn+j ) = y (xn ) + y (xn )jh + + y (p+1) (xn )(jh)p+1 + O(hp+2 ), (p + 1)! y (p+1) (xn )(jh)p + O(hp+1 ), y (xn+j ) = y (xn ) + y (xn )jh + + p!

obtenemos que Rn = C0 y (xn ) + C1 y (xn )h + + Cp+1 y (p+1) (xn )hp+1 + O(hp+2 ), donde C0 =
j =0 k k

j ,
k

C1 = . . .
j =0

j j
k

j ,
j =0

1 Cq = q!

j =0

j j q

j j q1
j =0

q > 1.

As pues, si Cq = 0, q = 0, . . . , p, el m etodo ser a consistente de orden al menos p. Por otra parte, si Cp+1 = 0, el m etodo no puede tener orden de consistencia p + 1. En efecto, la soluci on del problema xp y (x) = , p! 0 x b, y (0) = 0,

verica y (p+1) (x) = 1, y por consiguiente Rn = Cp+1 hp+1 + O(hp+2 ) = O(hp+2 ). Si un m etodo lineal multipaso tiene orden de consistencia p, entonces el valor Cp+1 = 0 recibe el nombre de constante de error. 43

Ejemplo. El m etodo yn+2 + yn+1 2yn = es un m etodo lineal de dos pasos con 0 = 2, 1 = 1, 2 = 1, 0 = 3/4, 1 = 8/4, 2 = 1/4. h (fn+2 + 8fn+1 + 3fn ) 4

Un sencillo c alculo muestra que C0 = C1 = C2 = C3 = 0 y que C4 = 0. As , el m etodo es consistente de orden 3, y la constante de error es C4 = 1/4!. Observaci on. Las condiciones de consistencia del m etodo lineal multipaso (1.33) coinciden con las condiciones de consistencia de orden 1. No es necesario efectuar el desarrollo de Taylor en x = xn . Se puede (y se debe) efectuar en otro punto si hay posibilidad de aprovechar simetr as. Ejemplo. Consideramos la regla de Simpson, yn+2 yn = h (fn + 4fn+1 + fn+2 ). 3

Si desarrollamos el residuo alrededor del punto medio, x = xn+1 , queda un desarrollo en potencias impares de h, (y (xn ) + 4y (xn+1 ) + y (xn+2 )) = Rn = y (xn+2 ) y (xn ) h 3
2 (v ) = (2y (xn+1 )h + 1 y (xn+1 )h3 + 5! y (xn+1 )h5 + ) 3 2 (v ) h (6y (xn+1 ) + y (xn+1 )h2 + 4! y (xn+1 )h4 + ). 3

Concluimos que Rn = O(h5 ), y el m etodo es por tanto consistente de orden 4. Ejemplo. Consideramos la regla del trapecio yn+1 yn = h (fn+1 + fn ). 2
2

Si desarrollamos alrededor del punto medio x = xn+ 1 := xn + h , de nuevo 2 queda un desarrollo en potencias impares de h, Rn = y (xn+1 ) y (xn ) h (y (xn ) + y (xn+1 )) = 2 = (y (xn+ 1 )h +
2 2

(2y (xn+ 1 ) h 2

1 y 24 1 y +4

(xn+ 1 )h2 + ).
2

(xn+ 1 )h3 + )
2

44

Concluimos que Rn = O(h3 ), y el m etodo es por tanto consistente de orden 2. Lo que tienen en com un los dos ejemplos anteriores es que ambos m etodos son sim etricos, en el sentido de que j = kj , j = kj .

Es f acil comprobar, desarrollando alrededor del punto medio, que los m etodos sim etricos tienen orden par. As pues, si un m etodo es sim etrico s olo ser a necesario considerar las condiciones de orden impar, pues las de orden par se cumplen necesariamente. Cu al es el mejor orden que podemos conseguir para un m etodo, para un n umero de pasos k dado? Puesto que un m etodo lineal de k pasos viene determinado por 2k + 1 coecientes, y las condiciones de orden de consistencia son relaciones lineales de estos coecientes, existen m etodos lineales de k pasos con orden de consistencia p = 2k ; reciben el nombre de maximales. Sin embargo no sirven para nada, puesto que no son convergentes. Teorema 1.14 (Primera barrera de Dahlquist (1956)). El orden de convergencia p de un m etodo lineal de k pasos 0-estable satisface: p k + 2 si k es par; p k + 1 si k es impar; p k si k 0 (en particular si es expl cito). Los m etodos con p = k + 2, llamados optimales, tampoco funcionan bien en la pr actica. As pues, el mejor orden que se puede alcanzar con un m etodo de k pasos que sirva para algo es p = k + 1. Problemas 1. Comprobar que la funci on de incremento del m etodo lineal multipaso (1.33) satisface la condici on de Lipschitz (1.19) si f satisface una condici on de Lipschitz con respecto a su segunda variable. 45

2. Encontrar el orden de consistencia y la constante de error de los m etodos (f + 8fn+1 + 3fn ), (a) yn+2 + yn+1 2yn = h 4 n+2
2 h(fn+2 + fn+1 + fn ), (b) yn+2 yn = 3

(c) yn+4

8 (y 19 n+3

yn+1 ) yn =

6h (f 19 n+4

+ 4fn+3 + 4fn+1 + fn ).

Son convergentes? (El m etodo (c) se conoce como m etodo de Quade.) 3. Repetir el problema anterior para el m etodo lineal multipaso cuyos polinomios caracter sticos son ( ) = 4 1 y ( ) = 14 4 64 3 24 2 ( + 1) + ( + ) + . 45 45 45

4. De entre los m etodos lineales multipaso de la forma yn+3 + 2 yn+2 + 1 yn+1 + 0 yn = h(2 fn+2 + 1 fn+1 + 0 fn ), determinar los sim etricos convergentes de mayor orden. 5. Determinar, usando la f ormula para el error de interpolaci on, el orden de consistencia de los m etodos de Adams-Bashforth, Adams-Moulton y BDF de 2 pasos. Comprobar que coincide con el orden de convergencia. 6. Demostrar que si un m etodo lineal de 3 pasos expl cito es de orden 4, ser convergente. que: (a) Existe un u nico polinomio de grado menor o igual que k tal que el MLM dado por y tiene orden de consistencia mayor o igual que k + 1. (b) Existe un u nico polinomio de grado menor estricto que k tal que el MLM dado por y tiene orden de consistencia mayor o igual que k . 46 entonces 0 + 2 = 8 y 1 = 9. Deducir de esto que el m etodo no puede

7. Sea un polinomio m onico de grado k vericando (1) = 0. Demostrar

8. Probar que un MLM con polinomios caracter sticos y es de orden p 1 si y s olo si existe una constante c = 0 tal que cuando 1 ( ) ( ) log = c( 1)p+1 + O(| 1|p+2 ). 9. Sea un MLM tal que ( ) = ( 1)( 2 + 1). Determinar ( ) para que alcance el orden m aximo posible. Calcular su constante de error.

1.10.

M etodos de Runge-Kutta

El m etodo de Euler, la regla del trapecio, los m etodos de Euler mejorado y modicado y el m etodo de colocaci on de parametro c1 = 1/2 se pueden escribir en la forma ki = f (xn + ci h, yn + h yn+1 = yn + h
s s

aij kj ),
j =1

i = 1, 2, . . . , s, (1.36)

bi k i .

i=1

Cualquier m etodo que se pueda escribir de esta manera es un m etodo de RungeKutta de s etapas. Cada una de las evaluaciones de funci on ki es una etapa. El m etodo (1.36) se representa por medio de su tablero de Butcher: c1 c2 . . . cs a11 a21 . . . as1 b1 Si escribimos c = (c 1 , c 2 , . . . , c s ) T , el tablero se puede resumir como 47 b = (b 1 , b 2 , . . . , b s ) T , A = (aij ), a12 a22 . . . as2 b2 ... ... ... ... ... a1s a2s . . . ass bs .

A bT .

inferior estricta, entonces cada uno de los ki viene dado expl citamente en el m etodo es expl cito. Al escribir su tablero se suelen omitir los ceros sobre y por encima de la diagonal principal. Ejemplos. El m etodo de Euler modicado es expl cito. Su tablero es 0 1/2 1/2 0 1. t erminos de los anteriormente calculados, kj , j = 1, 2, . . . , i 1. En este caso

Si aij = 0 para j i, i = 1, 2, . . . , s, es decir, si la matriz A es triangular

El m etodo de Euler mejorado tambi en es expl cito. Su tablero es 0 1 1 1/2 1/2.

Si el m etodo no es expl cito, es impl cito. En general es necesario entonces resolver en cada paso un sistema no lineal para calcular los ki . Este sistema tiene dimensi on ds. Ejemplo. El m etodo RK-Radau IA de dos etapas, de tablero 0 2/3 1/4 1/4 1/4 es un m etodo de Runge-Kutta impl cito. 48 1/4 5/12 3/4,

Hay una situaci on intermedia; si aij = 0 para j > i, i = 1, 2, . . . , s, entonces cada ki est a denido individualmente por
i

ki = f (xn + ci h, yn + h
j =1

aij kj ),

i = 1, 2, . . . , s.

En vez de resolver en cada paso un sistema no lineal de dimensi on ds, tendremos que resolver s sistemas no acoplados de dimensi on d. Estos m etodos se llaman semi-impl citos. Al escribir sus tableros se omiten los ceros por encima de la diagonal principal. Ejemplo. El m etodo RK-Lobatto IIIA de dos etapas, de tablero 0 0 1/2 1/2, 1/2

1 1/2

es un m etodo de Runge-Kutta semi-impl cito. Para que un m etodo de Runge-Kutta impl cito est e bien determinado el sistema que dene las etapas debe tener soluci on u nica. Se puede probar que esto es cierto si h es peque no. Ejemplo. El m etodo de colocaci on de parametro c1 = 1/2 es un m etodo de Runge-Kutta impl cito de tablero 1/2 1/2 1. k , se puede escribir de forma equivalente como Si denimos Y1 = yn + h 2 1 h h Y 1 = y n + f (x n + , Y 1 ), 2 2 h yn+1 = yn + hf (xn + , Y1 ). 2

El vector Y1 , si existe, es un punto jo de la aplicaci on h h G (Y ) = y n + f (x n + , Y ). 2 2 49

Esta aplicaci on verica ) = h f (x n + h , Y ) f (x n + h , Y ) Lh Y Y . G (Y ) G ( Y 2 2 2 2 As pues, es contractiva, y por tanto tiene un u nico punto jo, si h < 2/L. Los m etodos de Runge-Kutta son m etodos de un paso con funci on de incremento f (xn , yn ; h) =
i=1 s

bi ki (xn , yn ; h).

(1.37)

Puesto que las etapas ki son evaluaciones de la funci on f , no es dif cil convencerse de que f satisface una condici on de Lipschitz con respecto a su segunda variable si f tambi en lo hace. Ejemplo. Para el m etodo de Euler modicado, k1 (xn , yn ; h) k1 (xn , y n ; h) L yn y n , k2 (xn , yn ; h) k2 (xn , y n ; h) L( y n y n + L(1 +
Lh ) 2 h 2

k1 (xn , yn ; h) k1 (xn , y n ; h) )

yn y n ,

de donde se obtiene inmediatamente la condici on de Lipschitz deseada observando que en este caso f (xn , yn ; h) = k2 (xn , yn ; h). Ejemplo. En el caso del m etodo RK-Radau I de dos etapas, 0 2/3 0 1/3 1/4 se tiene que k1 (xn , yn ; h) k1 (xn , y n ; h) L yn y n , k2 (xn , yn ; h) k2 (xn , y n ; h) L( yn y n k1 (xn , yn ; h) k1 (xn , y n ; h) + +h 3 L(1 +
Lh ) 3 h 3

1/3 3/4,

k2 (xn , yn ; h) k2 (xn , y n ; h) ),

yn y n +

h 3

k2 (xn , yn ; h) k2 (xn , y n ; h) , 50

de forma que, si h < 3/L, ) L(1 + Lh 3 k2 (xn , yn ; h) k2 (xn , y n ; h) yn y n . 1 Lh 3 De aqu se concluye la condici on de Lipschitz deseada utilizando que en este caso f (xn , yn ; h) = 1 k (x , y ; h) + 3 k (x , y ; h). 4 1 n n 4 2 n n Si hacemos h = 0 en (1.37), obtenemos que ki (xn , yn ; 0) = f (xn , yn ) para todo i = 1, 2, . . . , s. Por consiguiente,
s

f (x, y ; 0) =
i=1

bi

f (x, y ).

As , un m etodo de Runge-Kutta es consistente si y s olo si


s

b i = 1.
i=1

(1.38)

Qu e condiciones sobre los coecientes garantizan que el m etodo es consistente de orden p? Tenemos que desarrollar el residuo Rn = y (xn+1 ) (y (xn ) + h(xn , y (xn ); h)) alrededor de xn en potencias de h. N otese que el residuo coincide con la diferencia entre la soluci on te orica y la num erica, Rn = y (xn+1 ) yn+1 , suponiendo que en el paso n no se comet a ning un error, yn = y (xn ) (esta hip otesis se conoce como hip otesis de localizaci on). As pues, lo que hay que hacer es obtener desarrollos en potencias de h para las soluciones te orica y num erica (esta u ltima bajo la hip otesis de localizaci on). Si estos desarrollos coinciden hasta orden p, existe una constante C 51

menos p.

independiente de n tal que Rn hp+1 , y se tendr a consistencia de orden al Como ejemplo obtendremos las condiciones de consistencia de orden 1 y

de orden 2. Las condiciones para tener un orden de consistencia m as alto se obtienen de manera similar. En primer lugar desarrollamos la soluci on te orica. Se tiene que y (xn+1 ) = y (xn ) + hy (xn ) + h2 h3 y (x n ) + y ( n ), 2 3!
h2 f (xn , y (xn )) 2 x

donde n [xn , xn+1 ]. Usando la EDO para expresar y e y en t erminos de f , y (xn+1 ) = y (xn ) + hf (xn , y (xn )) + +h 2
2

d J =1

f (xn , y (xn ))f J (xn , y (xn )) y J

h3 y 3!

( n ).

Por otra parte, ki (xn , y (xn ); 0) = f (xn , y (xn )) y


dki (xn , y (xn ); h) dh d

= ci f xn + ci h, y (xn ) + h x
s j =1

aij kj (xn , y (xn ); h)


j =1 s J aij kj (xn , y (xn ); h)

+
J =1 d

f y J

xn + ci h, y (xn ) + h
J dkj (xn , y (xn ); h) dh

aij kj (xn , y (xn ); h)


j =1

+h
j =1

aij

expresi on que evaluada en h = 0 produce f dki (xn , y (xn ); 0) = ci (xn , y (xn )) + dh x


s d

aij
j =1 J =1

f (xn , y (xn ))f J (xn , y (xn )). J y

As , tenemos el siguiente desarrollo para la soluci on num erica (bajo la hip otesis de localizaci on),
s

yn+1 = y (xn ) + h
i=1 s

bi ki (xn , y (xn ); h) bi f (xn , y (xn )) + h2


d s i=1 i=1

= y (x n ) + h + h
2 s

bi ci f (xn , y (xn )) x +
h3 d 2 k i (xn , y (xn ); ), 2 dh2

bi aij
i,j =1 J =1

f (xn , y (xn ))f J (xn , y (xn )) y J

52

donde [0, h]. dependiente de n tal que y ( n ) , Si f C 2 , es f acil (aunque tedioso) probar que existe una constante C ind 2 ki (xn , y (xn ); ) dh2

comparando ambos desarrollos concluimos que la condici on


s

C . Por consiguiente,

bi = 1
i=1

(1.39)

es suciente para tener orden de consistencia al menos 1 y que si adem as


s

i=1

1 bi c i = , 2

i=1

1 bi aij = , 2

(1.40)

entonces el orden de consistencia es al menos 2. Por otra parte, si consideramos el problema y (x) = 1, x [0, b], y (0) = 0,
s i=1

cuya soluci on es y (x) = x, se tiene que Rn = h(1


s

bi ). Por consiguiente,

si
i=1

bi = 1 el m etodo no tiene orden de consistencia 1. De manera an aloga

se demuestra que las condiciones (1.40) son necesarias para tener orden de consistencia 2. Observaci on. La condici on de consistencia coincide con la condici on de consistencia de orden 1. El ejemplo anterior deber a bastar para convencerse de que calcular condiciones de orden para un m etodo de Runge-Kutta general es una tarea ardua. As que intentamos simplicar un poco las cosas. Cualquier problema (1.2) se puede escribir en forma aut onoma a costa de aumentar la dimensi on del espacio. En efecto, si denimos y (x) = x y (x) , = a , ( f y (x)) = 1 f (x, y (x)) ,

el problema (1.2) es equivalente al problema aut onomo ( y (x) = f y (x)), 53 y (a) = .

Podr amos entonces pensar que basta con estudiar las condiciones de orden para problemas aut onomos, lo que es un poco m as f acil. Hay una dicultad: en general un m etodo de Runge-Kutta no produce la misma soluci on para un problema que para su equivalente aut onomo. Sin embargo, se puede comprobar f acilmente que ambas soluciones num ericas coinciden si el m etodo es consistente y satisface la condici on de suma por las
s

ci =
j =1

aij ,

i = 1, 2 . . . , s.

(1.41)

Por consiguiente, si un m etodo cumple esta condici on, podemos calcular el orden de consistencia del m etodo sin p erdida de generalidad suponiendo que el problema es aut onomo. En adelante, salvo que se mencione expresamente lo contrario, nos restringiremos a m etodos que cumplan la condici on de suma por las. Observaci on. Si se cumple la condici on de suma por las, las dos condiciones (1.40) de orden 2 coinciden. Cu al es el mejor orden que podemos conseguir para un m etodo de RungeKutta con un n umero de etapas s dado? Las condiciones de orden son relaciones no lineales sobre los coecientes del m etodo, por lo que la respuesta no es en absoluto trivial. No obstante, tenemos una cota superior para el orden que se puede conseguir si el m etodo es expl cito. Teorema 1.15. Un m etodo de Runge-Kutta expl cito de s etapas no puede tener orden mayor que s. Prueba. Aplicamos el m etodo al problema escalar y = y en [0, b], y (0) = 1, cuya soluci on es y (x) = ex . As pues, las derivadas de la soluci on te orica vienen dadas por dp (y (xn + h)) dhp = exn +h
h=0

h=0

= e x n = y (x n ).

En cuanto a la soluci on num erica, aplicando la regla de Leibniz para la derivada 54

de un producto obtenemos que


s

yn+1 Por otra parte, k j1


(p1) h=0

(p)

h=0

=p
j1 =1

b j1 k j1

(p1) h=0

= (p 1)

j2 =1 s

aj1 j2 k j2

(p2) h=0 (p3) h=0

= (p 1)(p 2) = = (p 1)!
s

j2 ,j3 =1

aj1 j2 aj2 j3 k j3

j2 ,j3 ,...,jp =1

aj1 j2 aj2 j3 . . . ajp1 jp kjp

(0) h=0

Por consiguiente, asumiendo la hip otesis de localizaci on,


s (p) yn+1 h=0

= p!
j1 ,...,jp =1

bj1 aj1 j2 aj2 j3 . . . ajp1 jp y (xn ).

Concluimos que la condici on


s

p!
j1 ,...,jp =1

bj1 aj1 j2 aj2 j3 . . . ajp1 jp = 1

(1.42)

es necesaria para que el m etodo sea de orden p. Si el m etodo es expl cito, aij = 0 para j i. As , a menos que exista una
s

se tendr a que

sucesi on j1 , j2 , . . . , jp de enteros 1, 2, . . . , s tal que j1 > j2 > j3 > > jp ,


j1 ,...,jp =1

bj1 aj1 j2 aj2 j3 . . . ajp1 jp = 0, y la condici on (1.42) no se

podr a cumplir. Dicha sucesi on s olo puede existir si p s. Se puede conseguir orden p = s? Para s = 1, 2, 3, 4 se puede ver que s , y es relativamente f acil encontrar familias de soluciones a las correspondientes condiciones de orden. Ejemplo. Sea s = 1. La condici on de orden 1 es en este caso b1 = 1. El u nico m etodo expl cito de una etapa y orden 1 es por tanto el m etodo de Euler. 55

Ejemplo. Sea s = 2. Las condiciones de orden 1 y 2 son en este caso b1 +b2 = 1 y b1 c1 +b2 c2 = 1 respectivamente (estamos suponiendo que se cumple la condici on de suma por las). Si el m etodo es expl cito entonces c1 = 0, y la condici on de orden 2 queda que b2 c2 = 1/2. Hay pues una familia uniparam etrica de m etodos expl citos de 2 etapas y orden 2, c2 = , b1 = 1 1 , 2 b2 = 1 , 2 R , = 0.

Qu e pasa con s = 5? Para que un m etodo sea de orden 5 se tienen que satisfacer 17 condiciones de orden. Si s = 5 tenemos s olo 15 par ametros libres. Sin embargo, el sistema es no lineal, as que podr a haber soluci on. Pero no es as . Teorema 1.16. Para p 5 no existe ning un m etodo de Runge-Kutta expl cito

de orden p con s = p etapas.

Estas limitaciones sobre el orden obtenible que hemos mencionado se conocen como barreras de Butcher. Hay m as barreras. Por ejemplo, se tiene el siguiente teorema. Teorema 1.17. (i) Para p 7 no existe ning un m etodo de Runge-Kutta

expl cito de orden p con s = p + 1 etapas.

etapas.

(ii) Para p 8 no hay ning un m etodo de Runge-Kutta expl cito con s = p + 2

Problemas 1. Demostrar que las condiciones (1.40) son necesarias para tener orden de consistencia 2. 2. Comprobar que las soluciones num ericas por un m etodo de Runge-Kutta del problema de valor inicial (1.2) y de su equivalente aut onomo coinciden si el m etodo es consistente y satisface la condici on de suma por las (1.41). 56

3. Demostrar que para que un m etodo de Runge-Kutta que cumple la condici on de suma por las tenga orden de consistencia 3 es necesario y suciente que, adem as de (1.39) y (1.40), cumpla
s

bj c 2 j
j =1

1 = , 3

b Ac =

1 bj ajk ck = . 6 j,k=1

4. Construir todos los m etodos consistentes de orden al menos 2 de la forma 0 c2 c3 c2 0 0 c3 0 1

Estudiar si alguno tiene orden de consistencia 3. Tiene alguno orden de consistencia 3 para el problema y = y en [0, b], y (0) = 1? 5. Consideramos el siguiente m etodo creado por Heun: 2h h 2h h h yn+1 = yn + f (xn , yn )+3f xn + , yn + f (xn + , yn + f (xn , yn )) . 4 3 3 3 3 (i) Comprobar que la funci on de incremento satisface una condici on de Lipschitz de la forma (1.19). (ii) Escribir su tablero. (iii) Determinar el orden de convergencia. 6. Dado un m etodo de Runge-Kutta expl cito de s etapas, denimos =
s 1i,j s

m ax |aij |, =

respecto a su segunda variable. (i) Demostrar que ki (xn , yn ; h) ki (xn , y n ; h) Li yn y n , donde i satisface la recurrencia
i1

i=1

|bj |. Sea L una constante de Lipschitz para f con

1 = 1,

i = 1 + hL
j =1

j ,

i = 1, . . . , s.

57

(ii) Demostrar que la soluci on de dicha recurrencia es i = (1+ hL)i1 . (iii) Concluir que la funci on de incremento del m etodo f (xn , yn ; h) es Lipschitz respecto a su segunda variable con constante de Lipschitz L(1 + h0 L)s1 para h [0, h0 ]. 7. Consideramos los m etodos de Runge-Kutta 0 a) 2/3 0 1/3 1/4 Para cada uno de ellos: (i) Comprobar que la correspondiente funci on de incremento satisface una condici on de Lipschitz con respecto a su segunda variable. (ii) Comprobar que las etapas k1 y k2 est an determinadas de manera u nica. (iii) Determinar el orden de consistencia. (iv) Dar un problema para el cual Rn = Chp , siendo p el orden de consistencia. 8. Dado un m etodo de Runge-Kutta (1.36), comprobar que admite la formulaci on equivalente
s

0 1/3 3/4, b)

0 2/3

1/4 1/4 1/4

1/4 5/12 3/4.

Yi = y n + h
k=1 s

aij f (xn + cj h, Yj ),

i = 1, . . . , s,

(1.43)

yn+1 = yn + h
i=1

bi f (xn + ci h, Yi ),

n = 1, . . . , N 1.

(1.44)

Demostrar, utilizando el Teorema de la Aplicaci on Contractiva, que para todo h peque no el sistema de ecuaciones (1.43) tiene una u nica soluci on. 9. Consideramos el m etodo de Runge-Kutta de tablero

58

1 1/3

0 1/3 1/4

0 1/3 3/4.

Este m etodo no cumple la condici on de suma por las. Determinar su orden de consistencia. Tiene un orden de consistencia mayor cuando nos restringimos a problemas aut onomos? 10. Probar que la regla impl cita del punto medio h yn + yn+1 yn+1 = yn + hf xn + , 2 2 es un m etodo de Runge-Kutta de una etapa. Escribir su tablero y calcular su orden. 11. Restringi endonos a ecuaciones escalares aut onomas, demostrar que el m etodo de Runge-Kutta expl cito de tablero 0 1/2 1/2 1 1/2 0 0 1/6 tiene orden 4. 12. Consid erese el m etodo cuyo tablero es 0 1 1 1 1/2 3/6 1/2 1/6 2/6 1/2 0 1/3 1 1/3 1/6

(a) Probar que es de orden 2 y no es de orden 3 en general. 59

(b) Probar que s es de orden 3 para todas las ecuaciones lineales de la forma y = M y donde M es una matriz de constantes. 13. Es posible encontrar un m etodo que tenga orden tres (en general) para problemas escalares y = f (y ) y que tenga orden menor (en general) cuando sean vectoriales?

14. Sea q (x) =


i=1

(x ci ), ql (x) = q (x)/(x cl ), l = 1, . . . , . Demostrar

que el m etodo de colocaci on de par ametros c1 , . . . , c es un m etodo de Runge-Kutta impl cito de tablero c A bT , con
ci

aij =
0

q j (x) dx, q j (c j )

bi =
0

q i (x) dx, q i (c i )

i, j = 1, . . . , .

1.11.

Diagramas de eciencia

En las p aginas anteriores hemos estudiado diversos m etodos. Cu al de ellos es mejor? Para un coste computacional dado, cu al da un resultado m as preciso? Cu al requiere menos trabajo computacional para obtener una precisi on dada? Para intentar responder a estas preguntas elaboraremos los llamados diagramas de eciencia. Para ello tomamos un problema test, cuya soluci on conozcamos, que sea representativo del tipo de problemas que queremos estudiar num ericamente. Al aplicarle el m etodo num erico con mallas cada vez m as nas vamos obteniendo errores cada vez menores, a costa de trabajar cada vez m as. El diagrama de eciencia se obtiene representando en escalas logar tmicas la precisi on conseguida frente al coste computacional. La precisi on se puede medir, por ejemplo, con la norma innito del error, y el coste computacional por medio del n umero de evaluaciones de funci on (que es lo que suele suponer el mayor coste) o del tiempo de CPU. 60

10

Euler Trapecio
1

10

10

error

10

10

10

10

10

10

10

10

10

evaluaciones de funcin

Figura 1.1: Diagrama de eciencia para el problema (1.45)(1.46).

Como primer ejemplo consideramos el problema lineal y (x) = Ay (x) + B (x) con A= cuya soluci on es y = 2ex 1 1 + sen x cos x . (1.47) 2 1 1 2 , B (x) = 2 sen x 2(cos x sen x) , (1.46) para 0 x 10 y (0) = (2, 3)T , (1.45)

En la gura 1.1 representamos el diagrama de eciencia para el m etodo de Euler y la regla del trapecio aplicados a este problema. Medimos el error con la norma innito, es decir, error m ax
1nN

te computacional utilizamos el n umero de evaluaciones de funci on. Cuanta mayor precisi on, m as abajo estaremos en el diagrama, y cuanto m as trabajo realicemos, m as a la derecha. 61

y (x n ) y n

para medir el cos-

El diagrama muestra que, para un m etodo dado, a mayor precisi on mayor trabajo. Tambi en muestra que no hay un m etodo que sea el mejor. En efecto, para precisiones poco exigentes el m etodo de Euler es superior, pero las tornas se cambian a medida que pedimos que el error sea m as peque no. Los puntos parecen disponerse a lo largo de rectas. Veamos una explicaci on cuando el orden del m etodo es p. En este caso error = m ax y (x n ) y n

1nN

Chp =

C ( b a) p . Np

Llamemos fc al n umero de evaluaciones de funci on. Usando que fc KN obtenemos que error c (fc)p , y tomando logaritmos log10 (error) = p log10 (fc) + c . La pendiente de la recta es p. Esto produce una forma de obtener emp ri-

camente el orden de convergencia. En la gr aca comprobamos que el m etodo de Euler tiene orden 1 y que la regla del trapecio tiene orden 2. Esto implica en particular que la regla del trapecio acaba ganando al m etodo de Euler para un n umero de evaluaciones de funci on sucientemente grande; pero hay que tener en cuenta que quiz as no queramos trabajar tanto. Nuestro segundo ejemplo es de nuevo el problema lineal (1.45), pero ahora A= 2 1 , B (x) = 2 sen x 999(cos x sen x) . (1.48)

998 999

La soluci on viene dada, tambi en esta vez, por (1.47). El diagrama de eciencia se representa en la gura 1.2. Esta vez las cosas son muy distintas. A menos que el n umero de evaluaciones de funci on sea bastante alto, el m etodo de Euler funciona fatal. De hecho el error llega a superar las capacidades de representaci on del Matlab. Qu e demonios est a pasando? A la soluci on no le pasa nada especial. De hecho, nuestro primer ejemplo ten a la misma soluci on y Euler funcionaba bastante bien. 62

10

300

Euler Trapecio

10

250

10

200

10 error 10

150

100

10

50

10

10

50

10

10

10 evaluaciones de funcin

10

10

Figura 1.2: Diagrama de eciencia para el problema (1.45)(1.48).

En cualquier caso, hemos aprendido una nueva lecci on: la ecacia de los m etodos puede depender del problema. Veamos un tercer y u ltimo ejemplo, el problema lineal y (x) = Ay (x) para 0 x 2, donde A= 100 0 1
1 10

y (0) =

1
999 10

(1.49)

(1.50)

El diagrama de eciencia para este problema se representa en la gura 1.3. Como en el segundo ejemplo, a menos que el n umero de evaluaciones de funci on sea relativamente alto, el m etodo de Euler funciona muy mal. Por el contrario, la regla del trapecio funciona bien incluso para un n umero de evaluaciones de funci on bajo. Qu e es lo que tienen de especial el segundo y el tercer ejemplo? Lo veremos 63

10

120

Euler Trapecio 10
100

10

80

10 error 10

60

40

10

20

10

10

20

10

10

10

10

10

10

evaluaciones de funcin

Figura 1.3: Diagrama de eciencia para el problema (1.49)(1.50).

en la siguiente secci on, estudiando con detalle el problema (1.49)(1.50). Problemas 1. Consideramos un m etodo que, para un cierto problema, tiene orden p. Lo aplicamos a dicho problema con dos longitudes de paso distintas, h y h . Probar que p log(error(h)) log(error(h )) . log h log h

Como aplicaci on, determinar el orden de un m etodo que aplicado con longitudes de paso h = 0 001 y h = 0 003 produce errores 1 011 108 y 2 699 107 respectivamente. 2. Estimar, a partir del diagrama de eciencia (1.1), qu e longitud de paso hay que tomar para conseguir que el m aximo error cometido al aplicar el m etodo de Euler al problema (1.45)(1.46) sea 0,002. Comprobar que 64

la cota (1.24) sobreestima el error para esta longitud de paso en muchos o rdenes de magnitud.

1.12.

Qu e es un problema sti?

Lo primero que se nos ocurre es que a lo mejor el PVI (1.49)(1.50) no es estable. Un c alculo sencillo muestra que f (x, y ) f (x, y )

= A (y y )

yy

, .

y el problema satisface una condici on de Lipschitz con L = A


d

Dado que

= m ax

i=1,...,d

j =1

|aij |,

obtenemos L = 101 como constante de Lipschitz para el problema. Este n umero es, en efecto, bastante grande. Sin embargo, como veremos, el problema es muy estable. Calculemos su soluci on. Pasando a la forma can onica de Jordan A = V DV 1 , donde V = 1 0 1
999 10

y D=

100 0

0
1 10

La matriz de paso V tiene por columnas los vectores v1 y v2 de la nueva base, que son autovectores de la matriz A. De aqu se obtiene que la soluci on exacta del problema (considerado ahora para x 0) viene dada por y (x) = exA y0 = V exD V 1 y0 , Si V 1 y0 = (, )T , concluimos que y (x) = v1 e100x + v2 ex/10 , 65 x 0. donde exD = e100x 0 0 e 10
x

La funci on e100x decae extraordinariamente m as aprisa que ex/10 . Por tanto, incluso para x > 0 peque no, la contribuci on de v1 es despreciable a todos los efectos, y se tiene que y (x) v2 ex/10 . Supongamos que tenemos dos soluciones de la ecuaci on, y e y , tales que )T . Entonces V 1 y0 = (, )T , V 1 y 0 = ( , )v2 ex/10 0 y (x) y (x) = ( )v1 e100x + ( cuando x .

La diferencia entre dos soluciones cualesquiera decae a cero exponencialmente, as que el problema es muy estable. La estabilidad del PVI no es por tanto la causa de nuestros males. Si resolvemos el problema por el m etodo de Euler con paso jo h se tiene que yn+1 = (I + hA)yn , y por inducci on que yn = (I + hA)n y0 , Pasando a la forma can onica de Jordan, yn = V (I + hD)n V 1 y0 , y, dado que (I + hD)n = se sigue que yn = v1 (1 100h)n + v2 1 h 10
n

n = 0, 1, 2, . . . .

n = 0, 1, . . . ,

(1 100h)n 0

0 (1
h n ) 10

n = 0, 1, . . . ,

donde, como antes, V 1 y0 = (, )T . Si h > 1/50, entonces |1 100h| > 1, y para n grande los iterados de Euler crecen en magnitud geom etricamente, en contraste con el comportamiento asint otico de la verdadera soluci on. 66

16

14

12

10

10

15

20

25

Figura 1.4: Logaritmo de la norma eucl dea yn de los pasos de Euler, cuando se aplica el m etodo al problema (1.49)(1.50) con h = 1/10 y condici on inicial igual al autovector estable.

Supongamos que escogemos una condici on inicial id entica a un autovector correspondiente al autovalor 1/10, por ejemplo y0 = 1
999 10

(1.51)
h n ) . 10

La soluci on num erica converge al vector cero cuando n para valores razonables de h, concretamente para h < 20. As que podr amos esperar que todo fuera bien con el m etodo de Euler. No es as . Los ordenadores reales producen errores de redondeo y antes o despu es producir an una contribuci on distinta de cero a un autovector correspondiente al autovalor 100. En cuanto y r apidamente, a menos que h < 1/50, eclipsa a la verdadera soluci on. esto ocurre la componente inestable crece geom etricamente como (1100h)n , En la gura 1.4 se representa log yn frente a n, para n = 0, . . . , 25 con la condici on inicial (1.51) y paso h = 1/10. El c alculo se ha realizado con 67

lo que corresponde a tomar = 0, = 1. En aritm etica yn = y0 (1

Matlab. La norma de los diecinueve primeros pasos decrece con la velocidad momento las cosas se estropean, y despu es de un par de pasos la norma crece en efecto, la pendiente de la curva es inicialmente log(99/100) 0,0101, pero La anterior elecci on del dato inicial no es articial. Si nos enfrentamos a un problema como (1.49)(1.50) con una condici on inicial arbitraria tendremos que emplear un tama no de paso peque no en el r egimen transitorio inicial en el que la contribuci on del autovector inestable todav a es signicativa. Una vez pasado este corto periodo, la soluci on viene esencialmente descrita por el autovector estable, y uno se ve tentado a incrementar h. Sin embargo hay que resistirse a esta tentaci on pues, como hemos visto antes, aunque no lo parezca el autovector inestable siempre deja sentir su presencia. Es importante comprender que este comportamiento no tiene nada que ver con el error local del m etodo num erico; hay que disminuir el paso, no por consideraciones de precisi on, sino por la inestabilidad. No todos los m etodos num ericos muestran tanta sensibilidad a la estabilidad. Por ejemplo, si resolvemos (1.49)(1.50) con la regla del trapecio y paso jo h, h yn+1 = yn + (f (xn , yn ) + f (xn+1 , yn+1 )) 2 obtenemos yn+1 = Se tiene que yn = h I A 2
1

correcta, dictada por (1

h n ) 10

= (99/100)n . Sin embargo, a partir de ese

geom etricamente, como |1 100h|n = 9n . Se puede comprobar en la gura que,

pasa a ser log 9 2,1972 cuando se llega al r egimen inestable.

h I A 2

h I + A yn . 2

h I+ A 2

y0 ,

n = 0, 1 . . . .

Usando como antes la forma can onica de Jordan de A y factorizando deducimos 68

que yn = v1 Dado que 1 1 50h , 1 + 50h 1+


h 20 h 20

1 50h 1 + 50h

+ v2

1 1+

h 20 h 20

n = 0, 1, . . . .

<1

para todo h > 0, deducimos que l mn yn = 0. Esto recupera el comportamiento asint otico correcto para la ecuaci on (1.49)(1.50) independientemente del tama no de h. En otras palabras, la regla del trapecio no requiere ninguna restricci on en el paso para evitar la inestabilidad. Esto no quiere decir, por supuesto, que cualquier h valga. Es necesario escoger h > 0 sucientemente peque no como para que el error local sea razonablemente peque no y estemos aproximando adecuadamente la verdadera soluci on. Sin embargo, no hay necesidad de disminuir h hasta un tama no min usculo con el n de evitar el crecimiento incontrolado de componentes espurias de la soluci on. La ecuaci on (1.49)(1.50) es un ejemplo de problema sti (r gido, en ingl es). En la literatura se pueden encontrar varias deniciones de este concepto, pero quiz as sea m as interesante adoptar una denici on operativa, si bien un poco vaga. Denici on 1.18. Decimos que el sistema y = f (x, y ), x x0 , y (x 0 ) = y 0 ,

es sti si su resoluci on num erica por algunos m etodos exige una disminuci on signicativa del paso de integraci on para evitar inestabilidades. Es evidente que esta no es una denici on matem atica correcta; pero tampoco estamos intentando probar teoremas del tipo si un sistema es sti entonces. . . . Lo importante de este concepto es que nos debe ayudar a elegir y dise nar m etodos num ericos. 69

En nuestro ejemplo hemos visto uno de los mecanismos (de hecho, uno de los m as frecuentes) que hacen que un problema sea sti, el que haya modos con escalas y tiempos de vida muy diferentes en la soluci on. Es frecuente designar al cociente de los m odulos de los autovalores de mayor y menor m odulo de un sistema lineal (en el caso de un sistema general, los autovalores de la matriz jacobiana) como coeciente de rigidez del sistema. Si dicho coeciente es grande, el sistema suele ser sti. No obstante, haremos notar que este an alisis lineal puede fallar al aplicarlo a un sistema no lineal. Una gran parte de los sistemas de ecuaciones diferenciales ordinarias que aparecen en problemas reales son sti. Siempre que las ecuaciones modelen varios procesos con velocidades de evoluci on muy distintas, el problema ser a probablemente sti. Esto sucede por ejemplo en problemas de cin etica qu mica, combusti on, predicci on meteorol ogica, biolog a y electr onica. Otra fuente muy importante de problemas sti es el propio an alisis num erico. Por ejemplo, las ecuaciones en derivadas parciales parab olicas se aproximan con frecuencia con sistemas de ecuaciones diferenciales ordinarias que resultan ser sti. Problemas 1. Consideramos un m etodo de Runge-Kutta de tablero c 2. Sea A= (a) Probar que An = n nn1 0 n , n = 0, 1, . . . 1 0 , C . A bT .

(b) Sea g una funci on anal tica en un entorno del origen. Denimos 70

g (A ) =
n=0

g (n) (0) n A . n!

Demostrar que g (x) xg (x) 0 g (x)

g (xA) =

C .

(c) Demostrar que la soluci on de y = Ay , y (0) = , es y (x) = exA . Si Re < 0, demostrar que l m y (x) = (0, 0)T . La soluci on num erica de este problema por el m etodo de Euler verica yn = (I + hA)n . Dar una expresi on expl cita para esta cantidad y demostrar que
n x

l m yn = (0, 0)T para cualquier elecci on de si y solo si |1+ h| < 1.

3. Caracterizar el valor de la condici on inicial y (0) en el problema y = 5 4 2 1 y

para que al aplicar el m etodo de Euler con h = 1 se cumpla l m yn = 0.


n

4. Probar el teorema de los c rculos de Gershgorin que arma que los autovalores de una matriz A = (aij ) pertenecen a la uni on de los c rculos en el plano complejo dados por Di = {z : |z aii |
j =i

|aij |}.

5. Consid erese el problema y = Ay , y (0) = y0 con A M22 (R) diagonalizable en R. Demostrar que si los elementos de A son menores que
x

uno en valor absoluto y l m y (x) = 0, entonces al aplicar el m etodo de Euler con cualquier h < 1 se cumple l m yn = 0. Indicaci on: Utilizar el
n

teorema de los c rculos de Gershgorin. 6. Consid erese el problema y = 242 324 y.

183 245

Probar que cualquiera que sea la condici on inicial y el paso h < 1, al aplicar el m etodo de Euler se tiene l m yn = l m y (x) = 0. C omo es
n x+

posible si los coecientes son muy grandes? 71

1.13.

Dominio de estabilidad lineal y A-estabilidad

Supongamos que aplicamos un m etodo num erico con paso constante h > 0 a la ecuaci on lineal escalar y = y, x 0, y (0) = 1,
x

(1.52)

s olo si Re < 0.

donde C. La soluci on exacta es y (x) = ex , y por tanto l m y (x) = 0 si y

Denici on 1.19. El dominio de estabilidad lineal (tambi en llamado regi on de estabilidad absoluta) de un m etodo num erico es el conjunto de todos los verica que l m yn = 0.
n

n umeros z = h con h > 0, C, tales que la soluci on num erica de (1.52)

Es decir, el dominio de estabilidad lineal es el conjunto de los h para los que se recupera el comportamiento asint otico de la soluci on exacta cuando esta es estable. Lo denotaremos por D. Ejemplo. Al aplicar el m etodo de Euler a (1.52) obtenemos la sucesi on yn = (1 + h)n ,
n

n = 0, 1, . . . ,

que es geom etrica. As pues, l m yn = 0 si y s olo si |1 + h| < 1. Concluimos que D = {z C : |1 + z | < 1}. Ejemplo. Para la regla del trapecio tenemos que yn = 1+ 1 h 2 1 1 2 h
n

n = 0, 1, . . . ,

que es una progresi on geom etrica. El dominio de estabilidad lineal es obviamente D= zC: 1+ 1 z 2 <1 . 1 1 2z

Es f acil vericar entonces que D = {z C : Re z < 0}. 72

Por qu e estamos s ubitamente interesados en una humilde ecuaci on escalar? Supongamos que queremos resolver y = Ay, y (0) = y0 ,

entonces A = V DV 1 con D = diag (1 , 2 , . . . , d ), y se tiene que yn = V (I + hD)n V 1 y0 . Si V 1 y0 = (1 , 2 , . . . , d )T , entonces


d

es yn = (I +hA)n y0 . Si existe una base de autovectores de A, v1 , v2 , . . . , vd Cd ,

con A una matriz d d arbitraria, por el m etodo de Euler. La soluci on num erica

yn =
k=1

k vk (1 + hk )n ,

n = 0, 1, . . . .

Supongamos que la soluci on exacta es asint oticamente estable. Esto s olo ocurre si Re k < 0 para todo k = 1, 2, . . . , d. Para que la soluci on num erica de Euler imite este comportamiento se necesita que el paso h > 0 sea tal que |1 + hk | < 1, k = 1, . . . , d.

Es decir, todos los productos h1 , . . . , hd deben estar en el dominio de estabilidad lineal del m etodo de Euler. Esto signica en la pr actica que el tama no del paso est a determinado por aquel autovalor que sea peor desde el punto de vista de la estabilidad. La restricci on de que A tenga una base de autovectores se puede relajar, ya que la forma can onica de Jordan es suciente. El an alisis se puede extender tambi en f acilmente a sistemas no homog eneos, y = Ay + a. El dominio de estabilidad lineal D es tambi en importante en sistemas no y = f (x, y ), x x0 , y (x 0 ) = y 0 ,

lineales. Dado un sistema no lineal

se suele pedir que en el paso n- esimo hn,1 , hn,2 , . . . , hn,d D, 73

donde n,1 , . . . , n,d son los autovalores de la matriz jacobiana Jn f (xn , yn ) . y

Esto se basa en la suposici on de que localmente el comportamiento del sistema est a bien modelado por la ecuaci on variacional y = f (x n , y n ) + J n (y y n ). Hay que advertir que esto dista mucho de ser exacto. Cuanto mayor sea la regi on de C := {z C : Re z < 0} cubierta por D,

menos restricciones para h debidas a posibles inestabilidades (recu erdense los ejemplos de Euler y la regla del trapecio). Eso motiva la siguiente denici on. Denici on 1.20. Un m etodo es A-estable si C D .

Es decir, si un m etodo es A-estable podemos elegir la longitud de paso h (al menos para sistemas lineales) s olo por motivos de precisi on, sin restricciones debidas a la inestabilidad. Estos m etodos ser an buenos para problemas sti. Problemas 1. Determinar el dominio de estabilidad lineal de cada uno de los m etodos descritos en la secci on 1.3. 2. Consid erese el dominio de estabilidad lineal para el m etodo de Euler invariante por giros de 180o alrededor de dicho punto), con respecto a la 3. Hallar el supremo de los h > 0 tales que al aplicar el m etodo de Euler al problema y =
n

mejorado. Estudiar si es sim etrico con respecto al punto z = 1 (es decir,

recta Im z = 0, y con respecto a la recta Re z = 1.

se cumple que l m yn = 0 (para cada h jado) cualquiera que sea la condici on inicial y (0) = y0 R2 . 74

1 1

y,

4. Consid erese el problema y = 10 10 9 11 y.

Calcular aproximadamente (con un error menor que el 1 %) el supremo de los h que pueden emplearse para que con cualquier condici on inicial
n

l m yn = 0, donde yn es la soluci on num erica obtenida al aplicar el

m etodo de Runge-Kutta cl asico de cuatro etapas y orden cuatro. 5. Estudiar si es Aestable el m etodo de tablero 0 1 0 1/2 1/2 0 1/2 1/2

y hallar la funci on de incremento correspondiente, f (xn , yn ; h), comprobando que satisface una condici on de Lipschitz con respecto a su segunda variable para h peque no. 6. Determinar para qu e valores de es A-estable el -m etodo yn+1 = yn + h(fn + (1 )fn+1 ). 7. Se dice que un m etodo es Lestable si al aplicarlo a y = y se cumple yn+1 = R(h)yn con R(z ) 0 cuando Re z . a) Probar que la regla del trapecio no es Lestable mientras que el m etodo impl cito yn+1 = yn + hf (xn+1 , yn+1 ) s lo es. b) Explicar en qu e sentido los m etodos Lestables imitan mejor el de-

comparaci on con h1 .

caimiento r apido de la soluci on de y = y cuando Re es grande en

1.14.

Selecci on autom atica del paso

Hasta ahora nos hemos limitado a considerar mallas uniformes. Esto presenta un inconveniente importante: si la soluci on var a mucho en alguna zona 75

del intervalo de integraci on, nos vemos obligados a dar pasos peque nos en todo el intervalo, con el consiguiente coste computacional. Ser a preferible adaptar la malla a la soluci on, haci endola m as na en aquellas regiones donde var e r apidamente y m as gruesa donde cambie poco. La dicultad estriba en que no conocemos la soluci on (estamos intentando calcularla!), y por tanto no sabemos a priori d onde necesitamos una malla m as na. Qu e hacer? Una posibilidad es que sea el propio m etodo quien elija la malla, a medida que calcula la soluci on, de manera que el error cometido est e siempre bajo control. Supongamos que ya hemos calculado y0 , . . . , yn . Queremos avanzar de xn a xn+1 con una longitud de paso hn = xn+1 xn tal que el error global, y (xn+1 ) yn+1 , tenga tama no menor que una tolerancia dada. La dicultad estriba en que no es posible controlar el error global directamente por medio de hn . Lo que s se puede controlar es el error cometido al dar el paso suponiendo que el valor yn eran exacto. Este error, conocido como error local, viene dado por un (xn+1 ) yn+1 , donde un , la soluci on local, es la soluci on del problema de valor inicial un (x) = f (x, un (x)), u n (x n ) = y n .

Podemos controlar el error global a trav es del error local? El siguiente resultado muestra que s . Teorema 1.21. Sea =
0nN 1

de Lipschitz para f con respecto a su segunda variable. Entonces y (xn ) yn eL(ba) y (x0 ) y0 + eL(ba) (b a), Prueba. Se basa en la identidad

m ax ( un (xn+1 ) yn+1 /hn ) y L una constante n = 1, . . . , N.

y (xn+1 ) yn+1 = (y (xn+1 ) un (xn+1 )) + (un (xn+1 ) yn+1 ). 76

Por la dependencia continua y (xn+1 ) un (xn+1 ) eLhn y (xn ) yn , y por tanto y (xn+1 ) yn+1 eLhn y (xn ) yn + hn . A partir de aqu se prueba f acilmente, por inducci on, que y (xn ) yn eL(xn x0 ) y (x0 ) y0 + eL(xn x0 ) (xn x0 ), de donde se deduce inmediatamente el resultado. Observaci on. La prueba tiene dos ingredientes: el control del error local y un control del crecimiento de la diferencia entre dos soluciones de la EDO. Esto muestra una limitaci on fundamental de cualquier m etodo num erico. No importa cu an preciso sea al aproximar la soluci on en un paso dado, si el PVI es inestable, esto es, si la diferencia entre dos soluciones crece r apidamente con x, acabaremos calculando soluciones num ericas {yn } que estar an lejos de los verdaderos valores y (xn ). Motivados por este teorema, queremos escribir un c odigo que elija autom aticamente la longitud del paso de forma que la norma del error local por unidad de paso, un (xn+1 ) yn+1 /hn , se ajuste a una tolerancia prescrita. Ser a por tanto necesario tener una forma de estimar esta cantidad. Si un m etodo de un paso es consistente de orden p, se puede probar f acilmente que el error local es de orden p + 1. Es m as, si f C p+1 , existe una funci on f tal que
+1 +2 un (xn+1 ) yn+1 = f (xn , yn )hp + O (h p n n ).

Por consiguiente, podemos estimar el error local por medio del t ermino principal de este desarrollo,
+1 errorl f (xn , yn ) hp n .

77

Ejemplo. Supongamos que aplicamos Euler a un problema escalar. El error local satisface un (xn+1 ) yn+1 = u n (x n ) 2 u n ( n ) 3 hn + hn , 2 3!

y podemos estimarlo por el t ermino principal,


2 f (x n , y n )h 2 n = f x ( x n , y n ) + f y ( x n , y n ) f ( x n , y n ) h n /2.

La estimaci on supone dos evaluaciones de funci on, fx (xn , yn ) y fy (xn , yn ), (f (xn , yn ) ya se hab a evaluado para calcular yn+1 ), un coste excesivo, pues no es razonable que estimar el error, una tarea en cierto sentido auxiliar, cueste el doble que calcular la soluci on num erica.
+1 El t ermino principal del error local, f (xn , yn )hp n , se puede calcular, pero

resulta demasiado costoso (v ease el ejemplo anterior). Tendremos que pensar en otra forma m as barata de estimarlo. Supongamos que calculamos una segunda aproximaci on y n+1 y (xn+1 )
+1 +2 f (xn , yn )hp un (xn+1 ) y n+1 = + O (h p n n ),

por medio de un m etodo de un paso m as preciso,

p p + 1.

Por consiguiente, y n+1 yn+1 = y n+1 un (xn+1 ) + un (xn+1 ) yn+1


+2 +1 + O (h p = f (x n , y n )h p n ), n

as que podemos estimar el error local por medio de


+1 errorl f (xn , yn ) hp y n+1 yn+1 . n

(1.53)

prescrita para el error local por unidad de paso. Si errorl > TOL hn , el paso se rechaza, y se vuelve a calcular con un nueva longitud hn tal que f (xn , yn ) (hn )p+1 = TOL hn . 78

Una vez estimado el error se compara con TOL hn donde TOL es la tolerancia

Dado que TOL = f (xn , yn ) (hn ) = f (xn , yn ) vemos que la elecci on optima es hn = h n TOL hn errorl
1 p

hp n

hn hn

errorl hn

hn hn

(1.54)

acepta. Se intenta ahora un nuevo paso con la longitud o ptima (1.54).

El proceso se repite hasta que errorl TOL hn . En ese momento el paso se Para tener un buen c odigo hay que poner un poco m as de cuidado. Se suele multiplicar el segundo miembro de (1.54) por un factor de seguridad FAC, normalmente FAC = 0,9, de forma que el errorl sea aceptable la siguiente vez con probabilidad alta. Tampoco se suelen permitir incrementos de paso muy grandes, con el n de hacer el m etodo m as seguro. Tambi en es costumbre jar una longitud de paso m axima, HMAX. As , por ejemplo podemos poner hn = m n HMAX, hn m n FACMAX, FAC FACMAX se suele tomar entre 1,5 y 5. C omo elegir el segundo m etodo para que el coste adicional de estimar el error no sea muy grande? Utilizamos una idea debida a Merson. Sea un m etodo de Runge-Kutta de orden p de tablero c A bT . La soluci on num erica por este m etodo es
s
1 p

TOL hn errorl

yn+1 = yn + hn
i=1

bi k i .

Si tuvi eramos otro m etodo de Runge-Kutta con las mismas etapas, 79

A bT

pero de distinto orden, p > p, podr amos calcular la soluci on


s

y n+1 = yn + hn
i=1

bi k i

sin coste adicional, pues las etapas ki coinciden. Esta soluci on m as precisa se puede utilizar para estimar el error cometido con el primer m etodo. A un par de m etodos con estas caracter sticas se le conoce como par encajado. Ejemplo. El par encajado 0 1 yn+1 y n+1 1 1
1 2

0
1 2

avanza con el m etodo de Euler y estima con el m etodo de Euler mejorado. Hemos dicho que no hay coste adicional, pero esto es un poco falaz, porque el m etodo de Euler no usa la segunda etapa, mientras que el m etodo que utilizamos para estimar, Euler mejorado, s lo hace. Ahora bien, el m etodo de avance es un m etodo expl cito con la propiedad FSAL (First Same As Last), asi = bi i = 1, . . . , s.

En los m etodos con esta propiedad la u ltima etapa del paso n viene dada por
s1 s1

k s (x n , y n ; h n ) = f (x n + c s h n , y n + h n
i=1 s s

asi ki ) = f (xn + hn , yn + hn
i=1

b i k i ),

donde hemos usado las condiciones de suma por las y de consistencia para probar que cs =
j =1

asj =
j =1

bj = 1. Por otra parte, por ser el m etodo expl cito,


s1

la primera etapa del paso n + 1 viene dada por k1 (xn+1 , yn+1 ; hn+1 ) = f (xn+1 , yn+1 ) = f (xn + hn , yn + hn
i=1

b i k i ).

80

Es decir, la primera etapa de cada paso coincide con la u ltima del paso anterior. Por tanto la primera etapa s olo hay que calcularla en el primer paso, y desde el punto de vista computacional es como si el m etodo tuviera una etapa menos. En el ejemplo que nos ocupa tenemos en la pr actica una evaluaci on de funci on por paso, lo mismo que para el m etodo de Euler! Aunque la estimaci on (1.53) da el error de truncaci on para el m etodo del par encajado de orden m as bajo, si h es sucientemente peque no el error para el m etodo de orden alto ser a a un menor; as que, por qu e no avanzar con el m etodo de orden m as alto? A esto se le llama hacer extrapolaci on local. La desventaja es que si el m etodo de avance original ten a la propiedad FSAL, esta se pierde, con el coste computacional extra que ello supone. Ejemplo. El par encajado 0 1 yn+1 y n+1 1
1 2 1 2

avanza con el m etodo de Euler mejorado y estima con el m etodo de Euler. En este caso el m etodo de avance es de orden 2, pero a cambio hay que hacer dos evaluaciones de funci on por paso. Notaci on. Un par encajado es de tipo p(q ) si el orden de yn+1 (el m etodo que se utiliza para avanzar) es p, y el orden de y n+1 (el m etodo que se usa para estimar) es q . En la gura 1.5 representamos el diagrama de eciencia para el problema (1.45)(1.46) usando los dos pares encajados que acabamos de describir, as como el m etodo de Euler y la regla del trapecio, estos dos u ltimos con malla prejada uniforme. Siendo ambos de orden 1, el par encajado Euler/Euler mejorado 1(2) trabaja diez veces menos que el m etodo de Euler para conseguir un mismo error. Si comparamos la regla del trapecio con el par Euler mejora81

10

10

Euler Trapecio Euler / Euler mejorado 1(2) Euler mejorado / Euler 2(1)

10

10

10 error

10

10

10

10

10

10

10

10

10

10

10

evaluaciones de funcin

Figura 1.5: Diagrama de eciencia para el problema (1.45)(1.46).

do/Euler 2(1), dos m etodos de orden 2, se tiene el mismo factor de ahorro de coste. Por otra parte, los o rdenes emp ricos responden a lo esperado, es decir, orden 1 para el par Euler/Euler mejorado 1(2) y orden 2 cuando se hace extrapolaci on local. A pesar de ser tan s olo de orden 1, el par Euler/Euler mejorado 1(2) es capaz de competir con la regla del trapecio, a menos que queramos errores menores que 104 . Y qu e pasa si el problema es sti? Para hacernos una idea aplicamos estos m etodos al problema (1.45)(1.48). El resultado se representa en la gura 1.6 (no hemos utilizado el m etodo de Euler, pues ya sabemos que no funciona bien para estos problemas). Como vemos, para que los dos pares encajados que hemos considerado funcionen bien hace falta que trabajen bastante, pues deben tomar h peque no para que h est e en el dominio de estabilidad lineal. As que, a menos que estemos dispuestos a trabajar mucho, la regla del trapecio es superior al m etodo 82

10

10

Trapecio Euler / Euler mejorado 1(2) Euler mejorado / Euler 2(1)

10

10

10 error

10

10

10

10

10

10

10

10

10

10

10

10

evaluaciones de funcin

Figura 1.6: Diagrama de eciencia para el problema (1.45)(1.48).

con extrapolaci on. Problemas 1. Queremos resolver el problema de valor inicial (1.2) en el intervalo [0, 1] con funci on del lado derecho x2 + cos y 1 )T , f (x, y ) = (x + sen y , 2
2

y dato inicial = (0, 0)T . Suponiendo que el ordenador tiene precisi on innita, qu e tolerancia debemos tomar para el error local por paso para garantizar que el m aximo error cometido sea 105 ? 2. Consideramos la ecuaci on diferencial y (x) = 3(y (x) sen x) + cos x, 0 e y (0) = . 83 x [0, 2 ].

(a) Determinar las soluciones correspondientes a datos iniciales y (0) =

(b) Supongamos que calculamos num ericamente la soluci on correspondiente al dato inicial y (0) = 0 con un m etodo que selecciona autom aticamente el paso, imponiendo una tolerancia para el error local por paso de 1010 . Debido a la precisi on nita del ordenador se comete un error en el dato inicial de 1012 . De cu antas cifras decimales de la soluci on nos podemos ar? 3. Consideramos un problema de valor inicial en el que la funci on f del lado derecho satisface la condici on de Lipschitz unilateral < f (x, y ) f (x, y ), y y > l y y con constante l < 0. Demostrar que y (x n ) y n paso. 4. Calcular el t ermino principal del desarrollo del error local para el m etodo de Euler modicado. Cu antas evaluaciones de funci on extra tendremos que hacer para estimar el error local calculando directamente esta cantidad? 5. Construir todos los pares encajados 1(2) con dos etapas. 6. Hallar alg un par encajado de tipo 1(2) con tres etapas satisfaciendo a3i = bi (propiedad FSAL) y b3 = 0. 7. Hallar todos los pares encajados 2(3) de la forma 0 1 1/2 1 a31 b1 b1 a32 b2 b2 0 b3
2 2 2

el(ba) y (x0 ) y0

+ (b a),

n = 1, . . . , N,

siendo una cota para la norma eucl dea del error local por unidad de

84

Вам также может понравиться