Вы находитесь на странице: 1из 72

Metodos Numericos III

Profesor Guillermo Gonzalez


Transcriptor:
Bartomeu Kane Binimelis
Primavera de 1708
2

Indice general
1. Introducci on 5
2. Problemas de Condiciones Iniciales 7
2.1. Metodo de k pasos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.1.1. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2. Errores, Convergencia, Consistencia y Orden . . . . . . . . . . . . . . . . . . . . 8
2.3. Ecuaciones Lineales en Diferencias (EDLin) . . . . . . . . . . . . . . . . . . . . . 13
2.3.1. Introducci on a las EDLin . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.3.2. Algunos resultados sobre EDLin . . . . . . . . . . . . . . . . . . . . . . . 14
2.4. Estabilidad y Condiciones de Convergencia . . . . . . . . . . . . . . . . . . . . . 18
2.5. Teora de Estabilidad Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3. Metodos Lineales Multipaso 23
3.1. Metodos Lineales Multipaso y Teorema de Dahlquist . . . . . . . . . . . . . . . . 23
3.1.1. Estabilidad Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.2. Metodos Implcitos y Predictor-Corrector . . . . . . . . . . . . . . . . . . . . . . 25
3.3. Criterio de Routh-Hurwitz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.4. Estimacion del ELD para metodos de 1 paso . . . . . . . . . . . . . . . . . . . . 27
3.5. Estimacion del ELD con metodos Predictor-Corrector . . . . . . . . . . . . . . . 29
3.6. Estabilidad lineal para metodos P-C . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.7. Construccion de MLM por Interpolacion . . . . . . . . . . . . . . . . . . . . . . . 33
3.7.1. Metodos Adams-Bashfort de k pasos . . . . . . . . . . . . . . . . . . . . . 34
3.7.2. Metodos Adams-Moulton de k pasos . . . . . . . . . . . . . . . . . . . . . 35
4. Metodos Runge-Kutta 37
4.1. Formulaci on del metodo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.2. Convergencia de metodos RK . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.2.1. Error local de discretizacion . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.2.2. Metodos implcitos y semi-implcito . . . . . . . . . . . . . . . . . . . . . 39
4.2.3. Regi on de estabilidad absoluta . . . . . . . . . . . . . . . . . . . . . . . . 39
4.3. Introducci on al estudio del orden de los metodos RK . . . . . . . . . . . . . . . . 40
4.3.1. Orden de un RK explcito de 3 niveles para un PVI escalar . . . . . . . . 40
4.3.2. Algunos resultados generales . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.4. Herramientas para el estudio del orden de los metodos RK . . . . . . . . . . . . . 42
4.4.1. Caso y

= f(y) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.4.2. La M-esima derivada de Frechet . . . . . . . . . . . . . . . . . . . . . . . 43
4.4.3. Derivadas de Frechet de primer y segundo orden . . . . . . . . . . . . . . 44
3
4

INDICE GENERAL
4.4.4. Diferenciales elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.4.5.

Arboles con raz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.4.6. Funciones denidas sobre arboles con raz . . . . . . . . . . . . . . . . . . 49
4.5. Orden de los metodos Runge-Kutta . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.5.1. Expresion de metodos RK . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.5.2. Condicion suma-la . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.5.3. Formulaci on de las condiciones de orden de los metodos RK . . . . . . . . 55
4.6. Metodos RK imbricados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.7. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5. Introducci on a los Metodos para Sistemas Rgidos 65
5.0.1. Determinaci on de metodos A-estables . . . . . . . . . . . . . . . . . . . . 65
6. Problemas de Condiciones de Frontera 67
6.1. Caso general: PCF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
6.1.1. Problemas de valores singulares (eigenvalue problems) . . . . . . . . . . 67
6.1.2. Problema de la frontera libre . . . . . . . . . . . . . . . . . . . . . . . . . 68
6.2. Metodo del tiro simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
6.2.1. Limitaciones del metodo de tiro simple . . . . . . . . . . . . . . . . . . . . 69
6.3. Metodo del tiro m ultiple o tiro paralelo . . . . . . . . . . . . . . . . . . . . . . . 70
Captulo 1
Introduccion
En este captulo presentamos muy brevemente algunos de los temas que iremos desarrollando
a lo largo del curso. Introducimos tanto problemas como metodos para poder resolverlos.
El Problema de Valor Inicial
_
y

= f(x, y)
y(a) =
nos lo encontramos frecuentemente. Dicho problema es resoluble analticamente en contadas
ocasiones. Es por tanto esperable que se hayan investigado diversas tecnicas numericas para
abordarlo. Nuestro objetivo ser a obtener una soluci on numerica aproximada en el intervalo
[a, b].
Procederemos a discretizar el problema en el intervalo que queremos la soluci on:
x
n
= x
0
+ nh donde x
0
= a
Aqu h se conoce como paso y n = 0, 1 . . . , N. De esta forma observamos que N =
ba
h
y x
N
= b.
Mediante la aplicaci on de alg un metodo pasaremos de (x
n
, y
n
) a (x
n+1
, y
n+1
). Habitualmente
supondremos y
n
y(x
n
), donde y(x
n
) es la soluci on exacta del PVI en el punto x
n
. Una vez
realizadas todas las iteraciones habremos obtenido un conjunto y
n
: n = 0, 1 . . . , N, que es el
que nos da la informaci on sobre la funcion soluci on del PVI inicial.
Los metodos que estudiaremos se nos presentan en forma de formulas recurrentes. Estas
formulas pueden ser explcitas, cuando en ellas no aparece la imagen por alguna funcion de
un punto desconocido o, en caso contrario, implcitas, cuando se involucra la imagen por una
funcion de alg un punto que todava tenemos que determinar.
Ejemplo 1.1. Supongamos que tenemos y

= f(x, y). Para aproximar la siguiente imagen en


nuestro PVI podemos utilizar el denominado metodo de Euler en su variante explcita o implcita.
Explcito:
y
n+1
y
n
h
f(x
n
, y
n
)
y
n+1
= y
n
+ hf
n
, donde f
n
= f(x
n
, y
n
)
5
6 CAP

ITULO 1. INTRODUCCI

ON
Implcito:
y
n+1
y
n
h
f(x
n+1
, y
n+1
)
y
n+1
= y
n
+hf
n+1
, donde f
n+1
= f(x
n+1
, y
n+1
)
Es corriente que los metodos implcitos presenten una serie de ventajas frente a los explcitos
(si no fuera as no habra motivo aparente para utilizarlos, puesto que con uno explcito la
resolucion del problema es m as simple):
Mayor orden de convergencia.

Unicos utiles para resolver sistemas sti.


Estudiaremos dos tipos de sistemas de EDOs. Son los conocidos como sti y los no sti.
Los primeros son menos habituales pero nos enfrentan a mayores dicultades a la hora de
resolverlos. En este curso solo los introduciremos, y profundizaremos m as en el caso no sti.
Dependiendo del n umero de puntos anteriores necesarios al que estamos calculando habla-
remos de metodos multipaso. En estos ser a necesario contar con m as de un punto (recordemos
que el inmediantamente anterior es (x
n
, y
n
)) para calcular el siguiente. En un metodo de k pasos
deberemos tener la informaci on de k puntos anteriores al que vamos a aproximar ahora.
(x
nj
, y
nj
)
j = 0, 1 . . . k 1
_
Metodo

(x
n+1
, y
n+1
)
Ejemplo 1.2. Metodo de dos pasos.
y
n+2
y
n
2h
f(x
n+1
, y
n+1
) = y
n+2
= y
n
+ 2hf
n+1
En este caso se requieren dos valores iniciales: (x
0
, y
0
), (x
1
, y
1
).
Estudiaremos tambien un tipo distinto de metodos: los que pertenecen a la familia de los
metodos Runge-Kutta. Estos se caracterizan por evaluar la funcion f(x, y) en puntos diferentes
a los x
n
, n = 0, . . . , N.
Ejemplo 1.3. Metodo Runge-Kutta (un paso)
y
n+1
= y
n
+
h
2
[f(x
n
, y
n
) +f(x
n
+ h, y
n
+ hf(x
n
, y
n
))]
Ejemplo 1.4. Metodo de Heun de orden 2 (un paso)
k
1
= f(x
n
, y
n
) = f
n
k
2
= f(x
n+1
, y
n
+ hk
1
)
y
n+1
= y
n
+ h
_
k
1
+ k
2
2
_
_

_
Tambien se conoce como Runge-Kutta de dos niveles explcito.
Captulo 2
Problemas de Condiciones Iniciales
Consideremos el PVI
_
y

= f(x, y)
y(a) =
en x [a, b]. Queremos obtener una soluci on aproximada
de dicho problema mediante un metodo numerico.
Los metodos que consideraremos son los denominados de discretizacion o de variable discreta.
Como hemos descrito brevemente en la introducci on, estos metodos se basan en aproximar la
funcion soluci on en N puntos.
2.1. Metodo de k pasos
Supongamos que tenemos y
n
, y
n+1
. . . y
n+k1
. En este caso nos interesara conocer el valor
aproximado de y
n+k
. Para ello utilizaremos un algoritmo de la siguiente forma:
k

j=0

j
y
n+j
= h
f
(y
n+k
. . . y
n
, x
n
; h)
donde h es el paso y k el n umero de pasos del metodo. Habitualmente supondremos que
y
j
y(x
j
), siendo y
j
el valor aproximado de la soluci on que hemos obtenido en la iteraci on
anterior y y(x
j
) el valor exacto de tal soluci on. Asimismo, notemos que x
j
= x
0
+jh, de forma
que x
0
= a y x
N
= b.
Los valores
j
son los pesos especcos que cada metodo en particular asigna a los valores
anteriores para obtener y
n+k
. Ocurre lo mismo con la funcion de iteraci on : esta funcion
vara seg un el metodo, y como la notaci on indica, depende de f y de los puntos anteriores que
conocemos.
2.1.1. Ejemplos
Acabamos de introducir los metodos de discretizacion en general. Para comprender mejor
como funcionan veamos algunos ejemplos de los algoritmos m as conocidos y utilizados.
Metodo de Euler
Es el m as simple de todos: consiste en tomar
f
= f(x
n
, y
n
). Observamos que se trata
de un metodo de un solo paso, con las ventajas de complejidad para la implementacion que
7
8 CAP

ITULO 2. PROBLEMAS DE CONDICIONES INICIALES


ello representa, pero con los inconvenientes de bajo orden de convergencia que probablemente
conlleve.
Metodo Runge-Kutta Clasico
Se trata de un algoritmo con orden de convergencia igual a 4
1
. Consiste en aproximar el
punto y
n+1
por:
y
n+1
= y
n
+
h
6
(k
1
+ 2k
2
+ 2k
3
+ k
4
)
con
k
1
= f(x
n
, y
n
) k
3
= f(x
n
+
h
2
, y
n
+
h
2
k
2
)
k
2
= f(x
n
+
h
2
, y
n
+
h
2
k
1
) k
4
= f(x
n
+h, y
n
+ hk
3
)
Notemos que aqu la funcion de iteraci on es lineal en k
i
.
Metodo Lineal Multipaso
Como su nombre sugiere, la funcion de iteraci on es lineal en f(x
n+j
, y
n+j
) = f
n+j
. Tomamos

f
=
k

j=1

j
f
n+j
. Aplicando la expresi on general que hemos presentado al inicio del captulo
tenemos que:
k

j=1

j
y
n+j
= h[
k

j=1

j
f
n+j
]
con
j
,
j
R,
k
= 1 y [
0
[ + [
0
[ , = 0. Cabe destacar que dependiendo del valor de
k
nos
encontraremos frente a un metodo explcito (
k
= 0) o implcito (
k
,= 0).
Denicion 2.1. Consideremos un metodo dado por la expresi on

k
j=1

j
y
n+j
= h

k
j=1

j
f
n+j
,
con
k
= 1. Entonces, su polinomio caracterstico es:
(r) =
k

j=0

j
r
j
Esta denicion nos permite denotar unvocamente un metodo por la pareja (r),
f
.
2.2. Errores, Convergencia, Consistencia y Orden
Para poder comprender como funcionan los metodos numericos es conveniente analizar las
diversas formas de error que estos inducen. Esto motiva las deniciones siguientes.
Denicion 2.2. Funcion tau del metodo
(x, h) = h
1
k

j=0

j
y(x + jh)
f
(y(x + kh) . . . y(x), x; h)
Si tomamos x
n
[a, b], x
n+j
= x
n
+ jh entonces en x
n
nos queda:
(x
n
, h) = h
1
k

j=0

j
y(x
n+j
)
f
(y(x
n+k
) . . . y(x
n
), x
n
; h)
1
En breve deniremos el concepto de orden de convergencia.
2.2. ERRORES, CONVERGENCIA, CONSISTENCIA Y ORDEN 9
Denicion 2.3. El error local de discretizacion (ELD) es el error que resulta de aplicar el meto-
do por primera vez, partiendo de la soluci on exacta. Veamos que est a ntimamente relacionado
con la funcion tau:
ELD
n+1
= y(x
n+k
) y
n+k
= h(x
n
, h)
y
n+k
=
k1

j=0

j
y(x
n+j
) + h
f
(y(x
n+k
) . . . y(x
n
), x
n
; h)
En este calculo hemos supuesto que los valores calculados para puntos anteriores son exactos,
como ya hemos indicado.
Denicion 2.4. El error global de discretizacion (EGD) en x
n+k
para una soluci on numerica
y
n
: n = 0 . . . N =
ba
h
es e
n+k
= y(x
n+k
) y
n+k
. Notemos que se diferencia de la ELD por
estar la soluci on calculada a partir de los valores anteriormente hallados por el metodo.
Denicion 2.5. El error global de discretizacion (EGD) de la soluci on num`erica y
n
: n =
0 . . . N =
ba
h
se calcula a partir de m ax
0nN
|y(x
n
) y
n
|.
Ejemplo 2.6. Analisis del metodo y
n+1
= y
n
+ hf(x
n
, y
n
).
Consideremos el ELD asociado al metodo:
h(x, h) = y(x
n
+ h) y
n
hf(x
n
, y(x
n
))
Aplicando la aproximacion de Taylor de orden 2 sobre y(x
n
+ h) y suponiendola (

[a, b] nos
queda:
h(x
n
, h) =
h
2
2
y

(x
n
) + O(h
3
)
y(x
n+1
) y
n+1
= h(x
n
, h) = y(x
n+1
) y(x
n
) hf(x
n
, y(x
n
))
Respecto al error global, que podemos decir de y(x
n+1
) y
n+1
?
e
1
= y(x
1
) y
1
()
=
h
2
2
y

(x
0
) + O(h
3
)
e
2
= y(x
2
) y
2
= [y(x
1
) + hf(x
1
, y(x
1
)) + h(x
1
, h)] [y
1
+ hf(x
1
, y
1
)] =
= [y(x
1
) y
1
. .
e
1
] + h[f(x
1
, y(x
1
)) f(x
1
, y
1
)
. .
e
1
fy(x
1
,y
1
)+O(e
1
)
+(x
1
, h)] =
= e
1
+
h
2
2
y

(x
1
) + O(h
3
)
()
= 2
_
h
2
2
y

(x
0
)
_
+ O(h
3
)
donde hemos aplicado:
() y(x
0
) = y(a) =
() aplicando Taylor entorno a x
0
Para obtener el error global en la enesima iteraci on se aplica induccion: suponemos que en
e
n
= n
_
h
2
2
y

(x
0
)
_
+ O(h
3
) y se deduce que e
n+1
= (n + 1)
_
h
2
2
y

(x
0
)
_
+ O(h
3
).
Recordemos que x
n+1
= x
0
+ (n + 1)h n + 1 =
x
n+1
a
h
. Por tanto,
e
n+1
= h
_
x
n+1
a
2
y

(x
0
)
_
+ O(h
2
)
10 CAP

ITULO 2. PROBLEMAS DE CONDICIONES INICIALES


Observamos que |e
n+1
| = O(h), comportamiento que tambien presenta la funcion tau (x, h) =
O(h). Por ultimo, destacar que existe la posibilidad de escribir los sucesivos errores globales como
ecuaciones lineales en diferencias, introduciendo la sucesion de funciones
n
para tal objetivo.
e
2
e
1
=
1
(x
1
, h)

e
n+1
e
n
=
n
Hasta ahora, algunos de los conceptos m as importantes que hemos considerado son:
Los problemas (o PVI), denidos por:
y

= f(x, y(x))
y(a) =
_
donde f cumple la condici on Lipschitz para la existencia y unicidad de soluciones.
Los metodos de la forma (r),
f
, donde
k
= 1 y y
i
=
i
(h) para i = 0 k 1 son los
valores iniciales.
k

j=1

j
y
n+j
= h
f
(y
n+k
. . . y
n
, x; h)
El error global de discretizacion asociado al metodo: EGD = m ax
0nN
|y(x
n
) y
n
|.
Denicion 2.7. Un metodo es convergente si para todo problema se cumple que EGD
h0
0
Denicion 2.8. (Alternativa) Un metodo es convergente si para todo problema y toda soluci on
numerica y
n
, n = 0 N, N =
ba
h
tal que lm
h0

i
(h) = y(x
0
) se cumple que n lm
h0
y
n
= y(x
n
)
con x = a + nh jado.
La funcion del metodo induce la denicion de otra funcion ntimamente relacionada con la
consistencia del metodo que estemos analizando:
(h) = m ax
x[a,bkh]
(x, h) = m ax
x[a,bkh]
h
1
k

j=0

j
y(x + jh)
f
(y(x + kh) . . . y(x), x; h)
Denicion 2.9. Un metodo es consistente con el sistema y

= f(x, y(x)) cuando lm


h0
(h) = 0
Denicion 2.10. Un metodo es (al menos) de orden p (p Z) si para todo problema tal que
y (
p
[a, b] se cumple que (h) = O(h
p
). Si, adem as (h) ,= 0(h
p+1
) se dice que el metodo es de
orden p exactamente (es de orden p).
Teorema 1. Sea (x, h) continua h 0, x [a, b]. Si 0 cuando h 0 puntualmente
para x [a, b] entonces:
1. (x, h) converge a cero uniformemente cuando h 0 x [a, b]
2. El metodo es consistente: lm
h0
(h) = 0
3. Si (x, h) = O(h
p
) con x [a, b] entonces (h) = O(h
p
) (el metodo es de orden p)
2.2. ERRORES, CONVERGENCIA, CONSISTENCIA Y ORDEN 11
Demostracion: Buscar en la bibliograa.
Teorema 2. Consideremos un metodo lineal multipaso (r),
f
tal que
f
es continua x
[a, b] y h 0. Si se cumplen:
1.
k

j=0

j
= (1) = 0
2.
f
(y(x), . . . , x; 0) =

(1)f(x, y(x)) x [a, b]


entonces el metodo es consistente. Si ademas y(x) no es la funcion cero entonces (1) y (2) son
condiciones necesarias para la consistencia del metodo.
Demostracion. Veamos para empezar que si se cumplen (1) y (2) entonces el metodo es con-
sistente. Consideremos y (

[a, b]. Sea


y(x + jh)
()
= y(x) + jh y

(
j
)
() Por el TVM, y

(
j
) = [
1
y

(
1j
) . . .
m
y

(
mj
)]
T
,
tj
[x, x + jh], t = 1 m
o
Aplicamos este resultado a la funcion tau:
(x, h) = h
1
_
_
k

j=0

j
_
_
y(x) + h
1
_
_
k

j=0
j
j
h y

(
j
)
_
_

f
(y(x + kh), . . . y(x), x; h)
Ahora, notemos que el lmite cuando h 0 converge uniformemente (por el teorema anterior).
Por tanto,
lm
h0
(x, h) =
k

j=1
(
j
j)y

(x)
f
(y(x) . . . y(x), x; h)
Por la hip otesis (2) deducimos
lm
h0
(x, h) = 0 lm
h0
(h) = 0
que quiere decir que el metodo es consistente.
Ahora supongamos que tenemos un metodo consistente. Demostremos que se cumplen:
(1) = 0

(1)f(x, y(x)) =
f
(y(x), . . . y(x), x; 0), x [a, b]
Tenemos la hip otesis de lm
h0
h(x, h) = 0. Por otro lado,
h(x, h) =
k

j=0

j
y(x + jh) h
f
(y(x) . . . y(x), x; h)
. .
()
Observamos que () tiende a cero cuando h 0, y aprovechando que se trata de una funcion
continua podemos separar la suma en dos lmites y obtenemos
0 = lm
h0
= lm
h0
k

j=0

j
y(x + jh) =
_
_
k

j=0

j
_
_
y(x), x [a, b]
12 CAP

ITULO 2. PROBLEMAS DE CONDICIONES INICIALES


Por tanto, si y(x) ,= 0 x [a, b], se deduce el primero de los resultados buscados.
Por otro lado,
(x, h) =
k

j=0
(
j
j) y

(
j
)
f
(y(x + kh) . . . y(x), x; h)
lm
h0
(x, h) =
()
k

j=0
(
j
j) y

(x)
f
(y(x) . . . y(x), x; 0)
y () se cumple por consistencia del metodo, con lo que queda probado (2).
Teorema 3. Para todo metodo (r),
f
con
f
continua la consistencia es condici on necesaria
para la convergencia del metodo.
Demostracion. Veremos que la convergencia implica los dos puntos del teorema anterior, que
a su vez implican la consistencia:
1.
k

j=0

j
y
n+j
= 0 = h
f
(y
n+k
, . . . y
n
, x; h) lm
h0
k

j=0

j
y
n+j
= 0
Notemos que lm
h0
k

j=0

j
y
n+j
=
_

k
j=0

j
_
y(x
n
), por la convergencia del metodo. En este
caso, si y es no nula se deduce
k

j=0

j
= (1) = 0.
2.
k

j=0

j
y
n+j

j=0

j
y
n
= h
f
(y
n+k
, . . . y
n
, x
n
; h)
k

j=1
j
j
_
y
n+j
y
n
jh
_
=
f
(y
n+k
, . . . y
n
, x
n
; h)
Tomando ahora el lmite para h tendiendo a cero:
lm
h0
xn=a+nh

f
=
f
(y(x
n
), . . . y(x
n
), x
n
; 0)
lm
h0
xn=a+nh
y
n+j
y
n
jh
=
()
lm
h0
y(x
n
+ jh) y(x
n
)
jh
= y

(x
n
) = f(x
n
, y
n
)
()x
n+j
= x
n
+ jh
y para x = x
n
[a, b] se deduce la condici on (2) de consistencia.
2.3. ECUACIONES LINEALES EN DIFERENCIAS (EDLIN) 13
2.3. Ecuaciones Lineales en Diferencias (EDLin)
2.3.1. Introduccion a las EDLin
Antes de entrar a enunciar (y demostrar en algunos casos) los resultados relacionados con
la Ecuaciones Lineales en Diferencias, primero las deniremos de forma rigurosa para mejorar
la comprension del resto del captulo. Tambien introduciremos algunos teoremas importantes
sobre su resolucion.
Denicion 2.11. Sea F : R
m
R
n
y k N. Una Ecuacion en Diferencias es una relaci on
denida por la ecuaci on:
y
n+k
= F(n, y
n
, y
n+1
, . . . , y
n+k
) n = 0, 1, . . .
Notemos pues que una ED tiene como soluci on una succesion y
n
d onde los y
n
cumplen la
ecuaci on y y
0
, . . . , y
k1
son valores iniciales conocidos a priori. Hay dos maneras de encontrar
y
n
:
Por una parte, usar F de forma succesiva e ir generando valores de la sucesion soluci on.
Por otra, una forma m as pr actica es encontrar una formula cerrada del tipo y
n+k
=
G(n, y
0
, . . . , y
k1
).
En nuestro caso el objetivo ser a usar esta segunda va. Nos centraremos en un tipo especco de
ecuaci on que denimos a continuaci on:
Denicion 2.12. Una ecuaci on en diferencias lineal con coecientes constantes de orden k, que
denotaremos por EDLin, es aquella relaci on de la forma:
k

j=0

j
y
n+j
=
n
, n N,
k
= 1
donnde
j
R constantes y y
n
,
n
tienen la misma dimension.
Denicion 2.13. Decimos que (r) = r
k
+
k1
r
k1
+ . . . +
0
es el polinomio caracterstico
de la EDLin.
Por ultimo, introduciremos un par de teoremas b asicos sobre EDLin.
Teorema 4. Toda EDLin de orden k con coecientes constantes es equivalente a una EDLin
vectorial de primer orden de la forma:
z
n+1
= Bz
n
+ d
n
, n = 0, 1, . . .
Siendo z
n
= (y
n+k1
, . . . , y
n
)
T
y d
n
= (
n
, 0, . . . , 0)
T
. Por otra parte:
B =
_
_
_
_
_

k1

k2
. . .
0
1 0 . . . 0
.
.
.
.
.
.
0 0 1 0
_
_
_
_
_
Adem as, la matriz B cumple:
14 CAP

ITULO 2. PROBLEMAS DE CONDICIONES INICIALES


1. () = det(B I) es el polinomio caracterstico de la EDLin inicial.
2. Si es un valor propio de B de multiplicidad algebraica m, entonces la forma can onica
de Jordan de B solo tiene un unico bloque de Jordan asociado a que tiene dimensi on
mm.
Teorema 5. La solucion general de una EDLin es la suma de una soluci on particular y de la
solucion general de la EDLin homogenea asociada al problema. Si
1
, . . . ,
s
son las races de
(), el polinomio caracterstico de la EDLin, y k
1
, . . . , k
s
son sus respectivas multiplicidades,
entonces la solucion homogenea es combinaci on lineal de:

n
1
, n
n
1
, . . . , n
k
1
1

n
1
, . . . ,
n
s
, .., n
ks1

n
s
2.3.2. Algunos resultados sobre EDLin
El motivo de nuestro interes en las ecuaciones lineales en diferencias es el siguiente: cuando
tenemos un metodo que aplicamos con un paso h y hacemos tender h a cero, las soluciones
numericas y
n
que obtenemos se comportan como las soluciones de una EDLin homogenea,
k

j=0

j
y
n+j
= 0
k

j=0

j
y(x + jh) = h
f
+ h(x, h)
k

j=0

j
y
n+j
= h
f
(y
n+k
, . . . y
n
, x
n
; h)
_

_
x x
n
Si consideramos e
n+j
= y(x + jh) y
n+j
n 0, j = 0 k entonces,
k

j=0

j
e
n+j
=
n
;
n
= h[
f
(sol. exacta)
f
(sol. numerica) + )]
Algunos resultados sobre normas matriciales
Antes de entrar en el estudio de la estabilidad de las EDLin, introduciremos deniciones y
teoremas importantes para la comprension del resto del captulo. Son teoremas b asicos sobre
normas matriciales que usaremos para analizar las condiciones de estabilidad de las EDLin
(convenientemente transformadas a un sistema matricial) y que despues extenderemos para
razonar la estabilidad de los metodos.
Denicion 2.14. Decimos que una matriz A es de clase M VAP de A tal que
[[ = (A) entonces los bloques de Jordan asociados a son de tama no 1 1.
Teorema 6. Sea A una matriz. Existe una norma subordinada tal que [[A[[ = (A) A es
de clase M.
Teorema 7. Sea A una matriz.
lm
k
A
k
= 0 (A) < 1
Adem as, se cumple que A
k
acotada cuando k (A) < 1 o A es de clase M y (A) = 1.
2.3. ECUACIONES LINEALES EN DIFERENCIAS (EDLIN) 15
Estabilidad de EDLin
Consideremos una ecuaci on en diferencias de primer orden:
z
n+1
= G(z
n
, n), z
n
R
m
, G : R
m
R
m
Denicion 2.15. Una soluci on y
n

n0
de la ecuaci on anterior diremos que es:
Estable si dado > 0 existe > 0 tal que para y
n
cualquier otra soluci on de la ecuaci on
con |y
0
y
0
| < entonces se tiene que |y
n
y
n
| < , con n > 0.
Asintoticamente estable, si adem as de ser estable se cumple que |y
n
y
n
|
n+
0.
Teorema 8. (estabilidad de EDLin de orden 1) Consideremos el siguiente sistema de ecuacio-
nes:
z
n+1
= Bz
n
+ d, z
n
, d R
m
, B M
m
C (2.1)
Entonces una solucion y
n

n1
es:
Estable (B) < 1 o (B) = 1 y B de clase M.
Asintoticamente estable (B) < 1.
Demostracion. Sea y
n

n0
otra soluci on de la EDLin (2.1).
y
n
y
n
= w
n
= Bw
n1
= B
2
w
n2
= . . . = B
n
w
0
(a) Primera parte:
Usando la segunda parte del teorema 7 sabemos que R tal que |B
n
| < .
Notemos que depende de n.
| y
n
y
n
| = |B
n
w
0
| |B
n
| |w
0
|
Si |w
0
| = | y
0
y
0
| < =

entonces > 0, n > 0 puedo encontrar =


tal que si
| y
0
y
0
| < | y
n
y
n
| <
Supongamos que |B
n
| es no acotada cuando n . Entonces x R
n
tal que
|B
n
x| . Esto se demuetra tomando J
B
= P
1
BP
1
y distinguiendo entre dos
posibles casos para
1
.
1. Si [
1
[ > 1, (B) > 1 tomamos x = P
1
e
1
2. Si [
1
[ = 1 y (B) = 1 tomamos x = P
1
e
2
.,
e
i
= P
1
x, B
n
= PJ
n
B
P
1
B
n
x = PJ
n
B
e
i
En ambos casos B
n
x no es acotado, y tenemos | y
n
y
n
| = |w
n
| = |B
n
w
0
|. Sea x =
w
n
, R. Observamos que | y
n
y
n
| = [
1
[ |B
n
x|, y cuando n |B
n
x| no
est a acotado.
Por tanto, | y
n
y
n
| no est a acotado aunque |w
0
| = | y
0
y
0
| s lo este. En este caso
y
n

n0
no es estable.
(b) Segunda parte:
lm
n
B
n
= 0 lm
n
| y
n
y
n
| = 0, y por tanto la soluci on es asintoticamente
estable.
Supongamos que (B) 1. Dado que x R
m
tal que |B
n
x| no est a acotado
entonces lm
n
| y
n
y
n
| , = 0 y
n

n0
no es asintoticamente estable.
16 CAP

ITULO 2. PROBLEMAS DE CONDICIONES INICIALES


Denicion 2.16. Dada la ecuaci on en diferencias de orden k:
y
n+k
+
k1
y
n+k1
+ . . . +
1
y
n1
+
0
y
n
= d (2.2)
diremos que una soluci on y
n

n0
es
Estable si dada otra soluci on y
n

n0
se cumpe que > 0 > 0 tal que si [ y
i
y
i
[
i = 0, 1, . . . , k 1 entonces [ y
n
y
n
[ < para n k.
Asintoticamente estable si adem as de lo anterior se cumple que lm
n
[ y
n
y
n
[ = 0.
Teorema 9. Sea (2.3) la EDLin de primer orden equivalente obtenida de (2.2) por el metodo
presentado en el teorema (4).
z
n+1
= Bz
n
+ , z
n
=
_
_
_
y
n+k1
.
.
.
y
n
_
_
_
(2.3)
Las soluciones de (2.2) son
_
Estables
Asintoticamente Estables
_
las soluciones de (2.3) son
_
Estables
Asintoticamente Estables
_
Denicion 2.17. Un polinomio p(x) cumple la condici on de la raz si:
1. Todas sus races son de m odulo 1.
2. Todas sus races de m odulo 1 son simples.
Teorema 10. (estabilidad de EDLin de orden k) La EDLin de orden k de la forma (2.2) tiene
soluciones estables si y solo si el polinomio caracterstico de la EDLin cumple la condici on de
la raz.
Demostracion. Dada una EDLin podemos encontrar el sistema z
n+1
= Bz
n
+d
n
. El polinomio
caracterstico asociado a este sistema es:
(r) =
k

j=0

j
r
j
= det(B rI)
Entonces si (B) 1 todos los VAPs de B son de m odulo 1 todas las races de (r)
son de m odulo 1.
Por otro lado, si B es de clase M resulta que tiene bloques de Jordan 1 1. Ademas, B ha sido
obtenida a partir de transformaciones del sistema, de forma que tendremos solo un VAP por
bloque de Jordan. De esta forma queda demostrado que los VAPs de m odulo 1 solo tienen un
bloque 11 en la forma de Jordan de B, que son races simples de det(BrI), que es lo mismo
que decir que las races de m odulo 1 de (r) son simples.
Comentario 2.18. Recordemos las dos maneras que tenemos de escribir una EDLin:
k

j=0

j
y
n+k
=
n
,
k
= 1 (2.4)
z
n+1
= Bz
n
+d
n
, z
n
=
_
_
_
y
n+k1
.
.
.
y
n
_
_
_
, d
n
=
_
_
_
_
_

n
0
.
.
.
0
_
_
_
_
_
(2.5)
2.3. ECUACIONES LINEALES EN DIFERENCIAS (EDLIN) 17
Teorema 11. Sea una EDLin de la forma (2.5) tal que z
n+1
= Bz
n
tiene una soluci on nula
estable. Entonces existe una norma vectorial tal que
|z
n
| [|z
0
| +
n1

j=0
|d
j
|
Demostracion.
z
n
= Bz
n1
+ d
n1
= B[Bz
n2
+ d
n2
] + d
n+1
=
= B
2
z
n2
+ Bd
n2
+ d
n1
=
Por induccion se puede establecer
z
n
= B
n
z
0
+
k

j=0
B
nj1
d
j
Dado que la soluci on es estable entonces podemos aplicar los resultados ya estudiados:
1. (B) < 1 |B| (B) + < 1, si tomamos sucientemente peque no.
2. (B) = 1 y B de clase M. Existe una norma matricial subordinada tal que |B| = (B) = 1.
Tambien existe una norma vectorial | | cuya norma matricial subordinada satisface
|B| 1.
Por las propiedades de la norma matricial subordinada obtenemos
|z
n
| |B|
n
|z
0
| +
n1

j=0
|B|
nj1
|d
j
|
|z
0
| +
n1

j=0
|d
j
|
Teorema 12. Sea EDLin de la forma (2.4) cuyo polinomio caracterstico cumple la condici on
de la raz. Entonces existe una constante c 1 tal que toda solucion y
n

n0
de la EDLin (2.5)
cumple
[y
n
[ c
_
_
m ax
0ik1
[y
i
[ +
nk

j=0
[
j
[
_
_
, y
n
R, n 0
Demostracion. De la condici on de estabilidad de las soluciones de la EDLin de 1er orden
asociada a (2.4) deducimos
|z
n
| |z
0
| +
n1

j=0
|d
j
|, n 1 (2.6)
18 CAP

ITULO 2. PROBLEMAS DE CONDICIONES INICIALES


Asimismo, por el teorema de equivalencia de normas c
1
, c
2
R c
2
c
1
> 0 tales que
c
1
|z|

|z| c
2
|z|

|z
nk+1
| c|z
nk+1
|

c m ax
0ik1
[y
i
[, ya que z
nk+1
=
_
_
_
y
n
.
.
.
y
nk+1
_
_
_
|z
0
| +
k

j=0
|d
j
| c
2
|z
0
|

+c
2
n1

j=0
[
j
[
Si cambiamos n por n k + 1 en la ecuaci on anterior, entonces
c
1
[y
n
[ |z
nk+1
| c
2
[ m ax
0ik1
[y
i
[ +
nk

j=0
[
j
[]
Tomamos c = c
2
/c
1
y queda demostrado el teorema.
2.4. Estabilidad y Condiciones de Convergencia
Denicion 2.19. Un metodo dado por (r),
f
decimos que es cero estable (sin onimo de
estabilidad) si las soluciones de la EDLin homogenea cuyo polinomio caracterstico es (r) son
estables.
Comentario 2.20. Un metodo es cero estable (r) cumple la condici on de la raz.
Condiciones sobre
f
I)
f
0 cuando f 0
II) Debe existir C independiente de h tal que y
n+i
, y

n+i
, i = 0, . . . , k 1 del dominio
f
y
x
n
[a, b], h 0
[
f
(y
n+k
. . . y
n
, x
n
; h)
f
(y

n+k
. . . y

n
, x
n
; h)[ C m ax
0ik1
[y
n+i
y

n+i
[ (2.7)
Es decir, la funcion
f
debe ser Lipschitz respecto a las condiciones iniciales.
Teorema 13 (acotacion del EGD). Sea el PVI y

= f(x, y) y un metodo dado por (r),


f
.
Sea y
n
(h) la solucion numerica aproximada en x
n
= a+hn, n = 0, . . . , N =
ba
h
. Si el metodo
es cero estable entonces existen c
1
, c
2
independientes de h de forma que
[y(x
n
) y
n
(h)[ c
1
r(h) + c
2
(h)
donde r(h) = m ax
0ik1
[y(x
i
) y
i
(h)[ es el maximo de los errores iniciales.
Demostracion.
y
n+k
(h) + . . . +
0
y
n
(h) = h
f
(y
n+k
(h), . . . , y
n
(h), x; h)
y(x + kh) + . . . +
0
y(x
n
) = h
f
(y(x
n
+ kh), . . . , y(x
n
), x
n
; h) + (x
n
, h)
e
n+j
= y(x
n
+ jh) y
n+j
(h)
e
n+k
+ . . . +
0
e
n
=
n
= h[
f
(sol. exacta)
f
(sol. numerica) + (x
n
, h)]
2.4. ESTABILIDAD Y CONDICIONES DE CONVERGENCIA 19
Usando el teorema 12 para EDLin, es decir, que el polinomio caracterstico de la EDLin del error
global es un polinomio de un metodo cero estable, podemos deducir
1 : [e
n+k
[
_
_
m ax
0ik1
[e
i
[ +
n

j=0
[
j
[
_
_

()
r(h) + h
n

j=0
_
C m ax
0ik
[e
j+i
[ + (h)
_
r(h) + h(n + 1)
_
C m ax
0in+k
[e
i
[ +(h)
_
() condici on II de
f
Denimos w
n+k
= m ax
0in+k
[e
i
[, y observamos que w
n

n0
es una sucesion creciente. As, tene-
mos que
m ax
0in+k
[e
i
[ = w
n+k
r(h) + Ch(n + 1)w
n+k
+ h(n + 1)(h),
donde C es independiente de h y su cumple que Ch(n + 1) > 0.
Ahora supongamos que para ciertas n y h se verica
1 1 Ch(n + 1) 1/2. (2.8)
En tal caso 1 [1 Ch(n + 1)]
1
2. Entonces,
w
n+k
[1 Ch(n + 1)]
1
[(n + 1)h(h)] (2.9)
De acuerdo con las consideraciones anteriores escogemos h y n de forma que h(n + 1)
(2C)
1
, que es independiente de h (puesto que y C lo son). As tendremos que, puesto
que Ch(n + 1) 1, entonces es cierta nuetra suposici on de la existencia de n y h para que se
cumpla lo anterior.
Por otro lado, y basado en la misma desigualdad h(n +1) , tambien se cumple que h <

n+1
,
as que:
w
n+k
2r(h) + 2(h)
c
1
r(h) + c
2
(h)
con c
1
, c
2
independientes de h. Esta desigualdad es precisamente la que queramos demostrar.
Comentario 2.21. Notemos que en la demostracion anterior debamos asegurar que h(n+1)
. Por tanto, la acotacion para el EGD que hemos demostrado est a probada para el problema
y

= f(x, y), y(a) = , x [a, b] unicamente en el subintervalo [a, a + ].


Si queremos extender la acotacion a [a, b] debemos proceder como sigue. Para empezar, tomamos
los k ultimos valores de la soluci on numerica en [a, a+]. Seguidamente continuamos calculando
la soluci on numerica, y aplicando el mismo procedimiento de hasta entonces obtenemos en
[a + , a + 2] la siguiente acotacion:
w
n+k
2[r
2
(h) + (h)]
r
2
(h) 2[r(h) + (h)]
_
= w
n+k
4
2
r(h) + 2(2 + 1)(h)
c

1
r(h) + c

2
(h)
Observamos que a medida que extendemos la acotacion esta puede volverse menos na. A pesar
de esto, tiene la forma exigida por el teorema.
20 CAP

ITULO 2. PROBLEMAS DE CONDICIONES INICIALES


2.5. Teora de Estabilidad Lineal
Consideremos el problema y

= f(x, y). Si tomamos una aproximacion de primer orden


entonces podemos aproximar el sistema y

= f(x, y) por un sistema y

= Ay, con A M
m
(R) y
y : R R
m
.
Sea C un VAP de la matriz A, Re() < 0 y consideremos el problema y

= y,que es un
problema escalar.
Con este procedimiento conseguiremos establecer el comportamiento del metodo en funcion
del paso que queramos utilizar de una forma bastante simple.
Por tanto, una vez obtenido el problema a analizar (y

= y) y sabiendo que la soluci on


exacta es de la forma y(x) = e
y
, aplicamos ahora un metodo lineal multipaso al problema y
podremos establecer el comportamiento del mismo:
k

j=0

j
y
n+k
= h
k

j=0

j
(y
n+j
)
Escribimos la ecuaci on en diferencias lineal homogenea con

h = h:
k

j=0
(
j

h
j
)y
n+j
= 0 (2.10)
Notemos que para analizar las soluciones de la EDLin es necesario que consideremos el polinomio
caracterstico de la misma. De acuerdo con la ecuaci on (2.10) el polinomio es:
(r;

h) = (r)

h(r) (2.11)
Denotaremos como polinomio de estabilidad absoluta del metodo a (r;

h).
Denicion 2.22. El metodo es absolutamente estable para

h C si las soluciones de la EDLin
(2.10) son asintoticamente estables.
Proposici on 2.1. Las soluciones de (2.10) son asint oticamente estables si y solo si escogido

h
entonces:
lm
n
[[y
n
[[ 0
Sea R
A
=

h C/MLM es absolutamente estable, la regi on de estabilidad absoluta del


metodo. Podemos establecer una representacion de R
A
en R
2
de la siguiente manera:
1. Eje x Re(

h)
2. Eje y Im(

h)
Podramos tambien denir el conjunto como:
R
A
=

h C [ r
t
C, (r
t
,

h) = 0, [r
t
[ < 1 (2.12)
Ejemplo 2.23. Calcularemos los conjuntos R
A
de los metodos:
Metodo de Euler: y
n+1
= y
n
+ hf
n
Metodo de Euler implcito: y
n+1
= y
n
+ hf
n+1
2.5. TEOR

IA DE ESTABILIDAD LINEAL 21
Sus polinomios de estabilidad absoluta son:

E
(r;

b) = r 1

h r
t
= 1 +

h [r
t
[ < 1 [1 +

h[ < 1. Por lo tanto nos dene el
interior de una circumferencia de radio 1 y centro (1, 0).

EI
(r;

h) = r 1

hr r

t
=
1
1

h
[r

t
[ < 1 [1

h[ > 1. Nos dene el exterior de


una circumferencia de radio 1 y centro (1, 0).
De esta manera podemos escoger el paso adecuado sin tener que probar directamente el metodo.
Para nalizar, es necesario hacer un an alisis para encontrar el margen de h. En el caso de Euler,
considerando R con < 0

h R.
Escogeramos, por el resultado anterior, 2 <

h < 0 2 < h < 0
2

> h > 0.
En el caso complejo, C 2 > [

h[ > 0
2
||
< [h[ > 0
Hagamos ahora el an alisis de los MLM de un paso convergentes:
y
n+1
= y
n
+ h(f
n+1
+ (1 )f
n
)
Calculamos ahora (r) = r 1. Por tanto,

(1) = (1).
Comprobamos la consistencia del metodo: 1 = + (1 ) = 1.
El polinomio de estabilidad absoluta del metodo es

B
(r,

h) = r 1

h(r + (1 )) = (1

h)r + (1 (1 )

h)
Calculando las races obtenemos:
r
t
=
1 + (1 )

h
1

h
Para hacer un an alisis m as simple del metodo, analizamos la frontera de R
A
, que denotaremos
por R
A
.
R
A
estar a formada por los valores de

h tales que (r,

h) admite races r
t
tales que r
t
= e
i
,
con [0, 2].
Sabemos de antes que (r,

h) = p(r)

h(r). Por lo tanto:


(e
i
,

h) = 0

h
f
() =
p(e
i
)
(e
i)
(2.13)
La ecuaci on (2.13) nos dene R
A
como una curva uniparametrica en R
2
.
Ejemplo 2.24. MLM de un paso convergente con =
1
2
, alternativamente denominado como
la regla del trapecio.
Tenemos y
n+1
= y
n
+
h
2
(f
n+1
+f
n
), por lo tanto (r) =
1
2
(1+r). Obtenemos como curva

h
f
:

h
f
() =
e
i
1
1
2
(e
i
+ 1)
= i(2 tan(

2
)) (2.14)
Por lo tanto, obtenemos:
R
A
=

h C/Re(

h) = 0 (2.15)
Una vez obtenida la frontera, podemos obtener por continuidad los puntos

h R
A
.
Notemos que, en general, que R
A
puede ser el conjunto , ya que su frontera no siempre es
una curva continua ni conexa.
22 CAP

ITULO 2. PROBLEMAS DE CONDICIONES INICIALES


Denicion 2.25. El intervalo de estabilidad absoluta I
A
R
A
es I
A
=

h R
A
/Im(

h) = 0.
Recordemos que para un MLM se satisfaca:
[y
n
(h) y(x
n
)[ C
1
r(h) + C
2
(h)
con C
1
, C
2
constantes. Por lo tanto, las condiciones sucientes de convergencia son:
Condicion II sobre
f
Consistencia
Cero Estabilidad
Teorema 14. Si un metodo es convergente entonces es cero estable si para f 0 se tiene
f
= 0
(condici on I).
Demostracion. Sea el problema y

= 0, y(a) = . Para el metodo dado por (r) =

k
j=0

j
r
j
y
f
cualquiera. Aplicando el metodo al problema se obtiene una EDLin homogenea:
k

j=0

j
y
n+j
= 0 (2.16)
Utilizaremos el argumento del contrarecproco para demostrar el teorema. Supongamos pues que
el metodo no es cero estable. Entonces existe una raz de (r) tal que [[ > 1 o bien [[ = 1 y
raz m ultiple. Toda soluci on numerica del problema tiene terminos de la forma
n
con [[ > 1 o
proporcional a n si [[ = 1. En general pues, la soluci on general y
n
va a crecer arbitrariamente
cuando n . Por lo tanto, podemos asegurar que:
[y(x) y
n
[
n
(2.17)

Esto se cumplira aunque los valores inicial usados en (2.16) tiendan a . Por lo tanto, tenemos
que el metodo no es convergente y queda demostrado por contrarecproco.
Observacion 2.26. Es importante notar que para la demostracion del teorema anterior es
b asica la condici on de
f
= 0 ya que en caso contrario no podramos obtener la formula (2.16).
Teorema 15. Sea un metodo de la forma

k
j=0

j
y
n+j
= h
f
tal que cumpla las condiciones
(2.4) y (2.7). Entonces, se cumple que:
El metodo es convergente es consistente y cero-estable.
Adem as, si el metodo es de orden p (i.e, (h) = O(h
p
)), suponiendo que el error de los valores
iniciales sea O(h
q
) con q p entonces:
EDG = O(h
p
)
Demostracion. La demostracion del teorema anterior se sigue de todos los teoremas trabajados
en este captulo.
Captulo 3
Metodos Lineales Multipaso
3.1. Metodos Lineales Multipaso y Teorema de Dahlquist
Como ya se ha visto a lo largo del captulo anterior, un metodo lineal de k pasos es
k

i=0

i
y
n+i
= h
k

i=0

i
f
n+i
con
k
= 1
Este metodo tiene asociados dos polinomios de gran importancia:
(r) =
k

i=0

i
r
i
, (r) =
k

i=0

i
r
i
Anteriormente se ha estudiado cu ando un metodo lineal multipaso es estable y de que manera se
puede conocer su orden. Como el orden de un metodo est a totalmente relacionado con el n umero
de pasos, es necesario preguntarse cu al puede ser el orden m as grande posible de un metodo de
este tipo bajo la condici on de estabilidad.
En este apartado nos centraremos en la relaci on entre el paso h y el orden del metodo, en
el caso particular de los metodo lineales multipaso. Para establecer el orden p hay que imponer
que los coecientes del desarrollo de Taylor de h(x, h) y h(h) se anulen, ya que son estos los
que nos indican el orden de convergencia:
C
i
= 0, i = 0 . . . p, (3.1)
que da un total de p + 1 condiciones. El teorema que presentaremos a continuaci on nos da una
cota superior del orden a partir del n umero de pasos. Este teorema ser a muy importante para
poder escoger el paso deseado en nuestro metodo:
Teorema 16 (de Dahlquist). Para un MLM de k pasos y orden p, si el metodo es cero estable
entonces
Si k es impar: p k + 1
Si k es par: p k + 2
Denicion 3.1. Decimos que un metodo es optimo cuando es cero estable de k pasos y orden
k + 2.
23
24 CAP

ITULO 3. M

ETODOS LINEALES MULTIPASO


Teorema 17. Un MLM de k pasos cero estable y de orden k+2 tiene un polinomio caracterstico
tal que todas sus races son de modulo 1 y simples.
Ejemplo 3.2. Consideremos el metodo de Simpson denido por y
n+2
y
n
=
h
3
(f
n+2
+4f
n+1
+f
n
),
i.e, (r) = r
2
1. Se puede comprobar que este metodo es optimo.
3.1.1. Estabilidad Lineal
Consideremos la formula del polinomio de estabilidad:
(r,

h) = (r)

h(r)
Si el metodo es convergente, se cumple que:
_
lm
h0
(r,

h) = (r)
r
t
= 1 es raz de (r)
Por lo tanto existira r
1
(

h) raz de (r,

h) tal que lm
h0
r
1
(

h) = 1.
Teorema 18. Para un MLM convergente de orden p se cumple:
r
1
(

h) = e

h
+O(

h
p+1
)
en el lmite cuando

h 0.
Corolario. Para todo MLM existe tal que el conjunto de puntos (x, 0) R
2
[ x (0, )
no pertenecen nunca a la region de estabilidad.
Demostracion. (del teorema)
h(x; h) = O(h
p+1
) con y

= f(x, y)
Para y

= y h(x, h) =

k
j=0

j
y(x + jh) h

k
j=0

j
y

(x + jh). Con la condici on inicial


y(0) = 1 se tiene que y(x) = e
x
. Entonces:
k

j=0

j
e
(x+jh)
h
k

j=0

j
e
(x+jh)
= O(h
p+1
)
k

j=0

j
(e

h
)
j

h
j
(e

h
)
j
. .
(e

h
,

h)=(e

h
)

h(e

h
)
= O(

h
p+1
)
Escogemos pues

h <
1


h
k
,= 1 ya que el grado de es k. Ahora podemos tomar el
lmite h 0, con lo que tenemos que (e

h
,

h) = O(h
p+1
) implica que (e

h
,

h) 0 debido a que
e

h
r
1
(

h) 0. En tal caso se cumple r


i
(

h) ,= 1 para i = 2, . . . , k.

Esto sucede al ser el metodo
convergente, la unidad es raz simple y r
1
(

h) 1.
e

h
r
1
(

h) = O(

h
p+1
) r
1
(

h) = e

h
+ O(

h
p+1
)
3.2. M

ETODOS IMPL

ICITOS Y PREDICTOR-CORRECTOR 25
3.2. Metodos Implcitos y Predictor-Corrector
Denicion 3.3. Un par predictor-corrector (P-C) de k pasos est a formado por dos metodos
lineales multipaso, uno explcito llamado predictor (P) y otro implcito denominado corrector
(C). La expresi on general de un P-C es la siguiente:
_

k
j=0

j
y
n+j
= h

k1
j=0

j
f
n+j
(P)

k
j=0

j
y
n+j
= h

k
j=0

j
f
n+j
(C)
(3.2)
donde k es siempre el n umero de pasos del P, representado por la primera de las igualdades. En
la segunda, que representa el C, no se exige la condici on [
0
[ +[
0
[ , = 0, pero se sigue asumiendo
que
k
=

k
= 1. A continuaci on se describen los pasos a seguir y las formulas que se utilizan
para calcular la soluci on numerica de un PVI mediante un metodo P-C como el (3.2) en los
modos P(EC)

E
1t
, con t 0, 1, donde t = 0 indica que se efectua la evaluaci on nal de f,
mientras que t = 1 indica que no se efectua dicha evaluaci on nal.
Partiendo de los valores iniciales y
j
, j = 0 k 1, y para n 0:
P : y
[0]
n+k
= h
k1

j=0

j
f
[t]
n+j

k1

j=0

j
y
[]
n+j
(EC)

: f
[]
n+k
= f(x
n+k
, y
[]
n+k
)
y
[+1]
n+k
+
k1

j=0

j
y
[]
n+j
= h
k
f
[]
n+k
+ h
k1

j=0

j
f
[k+j]
n+j
, = 0 1
E
1t
: f
[]
n+k
= f(x
n+k
, y
[]
n+k
), si t = 0.
Denicion 3.4. Un MLM implcito de k pasos se caracteriza por tener el coeciente
k
,= 0.
k

i=0

i
y
n+i
= h
k

i=0

i
f
n+i
Cada paso requiere resolver una ecuaci on implcita:
y
n+k
= h
k
f(x
n+k
, y
n+k
) +g
n
donde g
n
es la soluci on numerica en x
n+j
con j = 0, . . . , k 1. Dado y
[0]
n+k
, iteramos:
y
[l+1]
n+k
= h
k
f(x
n+k
, y
[l]
n+k
) + g
n
l = 0, 1, . . .
[[y
[l+1]
n+k
y
[l]
n+k
[[
l
0 y
[0]
n+k
si h[
k
[L < 1
donde L es la constante de Lipschitz de f. Entonces, para garantizar un buen comportamiento,
debemos escoger un paso tal que:
h <
1
[
k
[L
Si L 1 necesitamos 1 h. Estos casos se dan en problemas mal condicionados (sistemas sti).
26 CAP

ITULO 3. M

ETODOS LINEALES MULTIPASO


En general, para acabar la iteraci on, jamos para detener la iteraciones con la condici on
[[y
[l+1]
n+k
y
[l]
n+k
[[ < . Alternativamente, podemos jar el n umero de iteracions a 1, en
cada paso. El metodo resultante en este caso es un MLM explcito que se denomina Predictor-
Corrector cuando y
[0]
n+k
se obtiende de un MLM explcito.
3.3. Criterio de Routh-Hurwitz
Este criterio puede resultar de gran utilidad cuando se analiza la estabilidad absoluta de un
metodo, concepto que introduciremos a lo largo del captulo.
Denicion 3.5. Consideremos un polinomio de grado k, coecientes reales y variable z C
P(z) = a
0
z
k
+ a
1
z
k1
+ + a
k1
z + a
k
,
con a
0
> 0. La matriz k k determinada por
H =
_

_
a
1
a
3
a
5
a
2k1
a
0
a
2
a
4
a
2k2
0 a
1
a
3
a
2k3
0 a
0
a
2
a
2k4
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 a
k
_

_
tomando a
j
= 0 cuando j > k, se denomina matriz de Hurwitz de P(z).
Proposici on 3.1. Las races de P(z) tienen parte real estrictamente negativa si y solo si todos
los menores principales de la matriz de Hurwitz de P(z) son estrictamente positivos.
Se entiende por menor principal de orden j de una matriz k k el determinante de la
submatriz obtenida con los elementos comunes de las j primeras las y las j primeras columnas
de la matriz, siendo 1 j k. En general, el criterio anterior se traduce en un sistema de k
inecuaciones para los coecientes de P(z).
Denicion 3.6. Un polinomio de grado k con coecientes reales de dice que es un polinomio
de Schur si todas sus races tienen m odulo estrictamente inferior a al unidad, es decir, si todas
sus races se encuentran en el interior de la circunferencia unidad del plano complejo.
Dados r, z C el cambio de variable
r =
1 + z
1 z
dene una aplicaci on biyectiva entre r C [ [r[ < 1 y z C [ Re(z) < 0, subconjuntos de
C. Se deduce a partir de ella el siguiente criterio para que un polinomio sea de Schur:
Proposici on 3.2. Un polinomio (r) con coecientes reales y de grado k es de Schur si y solo
si el polinomio
P(z) = (1 z)
k

_
1 + z
1 z
_
= a
0
z
k
+ a
1
z
k1
+ + a
k1
z +a
k
,
con a
0
> 0, cumple el criterio de Routh-Hurwitz
1
.
1
Si el polinomio no cumple que a0 > 0, deberemos multiplicarlo por 1 para obtener un polinomio que se
ajuste al exigido por el teorema.
3.4. ESTIMACI

ON DEL ELD PARA M

ETODOS DE 1 PASO 27
3.4. Estimacion del ELD para metodos de 1 paso
La idea es estimar el ELD de un metodo como la diferencia entre el valor que arroja el
metodo y el valor que obtenemos del mismo metodo al dividir el paso por la mitad.
Consideremos el metodo y
n+1
= y
n
+ hf
n
. Sabemos que el ELD para este vale:
ELD
n+1
= h(x
n
, h) =
y

(x
n
)
2
h
2
+ O(h
3
)
donde denimos el termino principal como el primer coeciento no nulo del desarrollo de Taylor
del ELD, que denotaremos por PELD. En nuestro caso, el termino principal es PELD
n+1
=
y

(xn)
2
h
2
. Si tomamos como paso h entonces
x
n
y
n
_

h
_
x
n+1
y
n+1
(h)
Alternativamente, podemos escoger como paso
h
2
, en cuyo caso el esquema nos queda as:
x
n+
1
2
y
n+
1
2
_

h
2
_

_
x
n+1
y
n+1
_
h
2
_
En el caso
h
2
tenemos:
y
n+1
_
h
2
_
= y
n+
1
2
+
h
2
f(x
n
+
h
2
, y
n+
1
2
) = y
n+
1
2
+
h
2
f
n+
1
2
y
n+
1
2
= y
n
+
h
2
f
n
y
n+1
(
h
2
) = y
n
+
h
2
_
f
n
+ f
n+
1
2
_
(equivalente al metodo Runge-Kutta)
y
n+1
= y
n
+
h
2
(k
1
+ k
2
)
Con respecto al error local (Euler de dos pasos con paso
h
2
)
ELD
n+1
= h
[2]
(x
n
, h) = y(x
n
, h) y(x
n
+ h) =
= y(x
n
) h[f(x
n
, y(x
n
)) + f(x
n
+
h
2
, y(x
n
) +
h
2
f(x
n
, y(x
n
)))
. .
()
]
() Taylor f(x
n
, y
n
) = f
x
h
2
+ f
y
h
2
f + O(h
2
), y

(x) =
d
dx
f = f
x
+ f
y
f
28 CAP

ITULO 3. M

ETODOS LINEALES MULTIPASO


De acuerdo con las expresiones anteriores,
h
[2]
(x
n
, h) = 2
_
y

(x
n
)
2
_
h
2
2
+ O(h
3
)
h(x
n
, h) = y(x
n+1
) y
n+1
(h)
h
[2]
(x
n
, h) = y(x
n+1
) y
n+1
_
h
2
_
_

_
=
= PELD
n+1
=
y

(x
n
)
2
h
2
= 2
_
y
n+1
_
h
2
_
y
n+1
(h)
_
+ O(h
3
)
Estimamos el PELD
n+1
usando 2[y
n+1
_
h
2
_
y
n+1
(h)].
Esquema de control del ELD de la soluci on numerica con el metodo de Euler:
2|y
n+1
(
h
2
) y
n+1
(h)|
|y
n+1
(h)|
<
r

r
es la tolerancia relativa al error. Si
r
= 10
l
, entonces los l primeros dgitos de la soluci on
numerica son correctos.
Generalizacion a metodos de 1 paso de orden p
Supongamos que tenemos un metodo de 1 paso, ahora de orden p. En este caso, el ELD
asociado a y
n+1
con paso h es
ELD
n+1
(h) = G(y(x
n
))h
p+1
+ O(h
p+2
) = y(x
n+1
) y
n+1
(h)
Procediendo de manera an aloga a la anterior, veamos que ocurre si tomamos como paso
h
2
,
considerando y
n+1
_
h
2
_
:
ELD
n+1
_
h
2
_
= 2G(y(x
n
))
_
h
2
_
p+1
+ O(h
p+2
) = y(x
n+1
) y
n+1
_
h
2
_
Si restamos las dos ecuaciones anteriores obtenemos:
y
n+1
_
h
2
_
y
n+1
(h) = G(y(x
n
))h
p+1
_
1
1
2
p
_
+ O(h
p+2
),
con lo que el PELD es
PELD
n+1
= G(y(x
n
))h
p+1
=
_
1
1
2
p
_
1
_
y
n+1
_
h
2
_
y
n+1
(h)
_
+O(h
p+2
)
Notamos que [1
1
2
p
]
1
1 cuando p 1. Si se cumple la condici on del error escogida
continuamos el proceso. En caso contrario redenimos h :=
h
2
y observamos que ocurre con
r
.
Denicion 3.7. Dado y
n+1
(h) obtenida con un metodo de orden p, consideramos
y
n+1
(h) = y
n+1
(h) +
_
1
1
2
p
_
1
[y
n+1
_
h
2
_
y
n+1
(h)].
Dicho metodo se conoce como metodo de extrapolacion (local) asociado al metodo original.
3.5. ESTIMACI

ON DEL ELD CON M

ETODOS PREDICTOR-CORRECTOR 29
3.5. Estimacion del ELD con metodos Predictor-Corrector
Supongamos que estamos tratando con un metodo predictor-corrector de la forma (3.3), para
el cual tenemos:
Predictor: p

orden, C

+1
constante de error.
Corrector: p orden, C
p+1
constante de error.
Cuando se usa el par P-C en el modo P(EC)

E
1t
con t 0, 1 en realidad se est a utilizando un
metodo explcito. Es por ello que podemos analizar el correspondiente error local de truncacion
o discretizacion (ELD) de la forma habitual: examinaremos la diferencia y(x
n+k
) y
n+k
, siendo
y
n+k
la aproximacion numerica en x
n+k
obtenida con el metodo cuando se toman valores exactos,
y
n+j
= y(x
n+j
), j = 0 k 1 (3.3)
Para empezar, suponiendo y(x) sucientemente diferenciable, se tiene que
h

(x, h) = C

+1
h
p

+1
y
(p

+1)
(x) + O(h
p

+2
) (3.4)
h(x, h) = C
p+1
h
p+1
y
(p+1)
(x) + O(h
p+2
) (3.5)
Por otro lado, a partir de la denicion de la funcion

para el P, podemos escribir


y(x
n+k
) +
k1

j=0

j
y(x
n+j
) = h
k1

j=0

j
f(x
n+j
, y(x
n+j
)) + h

(x
n
, h).
Si utilizamos (3.3) en la formula del P se obtiene
y
[0]
n+k
+
k1

j=0

j
y(x
n+j
) = h
k1

j=0

j
f(x
n+j
, y(x
n+j
)).
Restando las dos ecuaciones anteriores de deduce:
y(x
n+k
) y
[0]
n+k
= C

+1
h
p

+1
y
(p

+1)
(x
n
) + O(h
p

+2
) (3.6)
Repetimos ahora el proceso para C. A partir de la denicion de (x, h) se tiene que
y(x
n+k
) +
k1

j=0

j
y(x
n+j
) = h
k1

j=0

j
f(x
n+j
, y(x
n+j
)) + h(x
n
, h).
y utilizando (3.3) en la formula del C para cada iteraci on nos queda
y
[+1]
n+k
+
k1

j=0

j
y(x
n+j
) = h
k
f(x
n+k
, y
[]
n+k
) + h
k1

j=0

j
f(x
n+j
, y(x
n+j
)).
para = 01. Finalmente, restando las dos ultimas ecuaciones se deduce para 0 1
y(x
n+k
) y
[+1]
n+k
= h
k
_
f(x
n+k
, y(x
n+k
)) f(x
n+k
, y
[]
n+k
)
_
+ h(x
n
, h) =
= h
k
f
y
(x
n+k
,

)[y(x
n+k
) y
[]
n+k
] + C
p+1
h
p+1
y
(p+1)
(x
n
) + O(h
p+2
) (3.7)
30 CAP

ITULO 3. M

ETODOS LINEALES MULTIPASO


con = 01. En la segunda igualdad se ha aplicado el teorema del valor medio para funciones
vectoriales, con
v
representado los distintos valores intermedios para cada componente de la
derivada parcial.
En funcion de los ordenes del P y el C (los valores de p

y p respectivamente) se obtienen
los siguientes resultados:
1. Caso p

p:
Sustituyendo (3.6) en la formula (3.7) para = 0 se deduce
y(x
n+k
) y
[1]
n+k
= C
p+1
h
p+1
y
(p+1)
(x
n
) + O(h
p+2
).
A su vez, esta igualdad puede sustituirse de nuevo en (3.7) para = 1 deduciendose:
y(x
n+k
) y
[2]
n+k
= C
p+1
h
p+1
y
(p+1)
(x
n
) + O(h
p+2
).
Repitiendo el proceso el n umero necesario de veces se acaba demostrando que
y(x
n+k
) y
[]
n+k
= C
p+1
h
p+1
y
(p+1)
(x
n
) + O(h
p+2
).
Es decir, para todo 1 el orden del metodo P-C es igual al orden del C y adem as el
PELD (termino principal del ELD) del P-C es identico al del C.
2. Caso p

= p 1:
Siguiendo el mismo razonamiento que el presentado en el caso anterior, la primera susti-
tuci on de (3.6) en (3.7), con = 0, da lugar a
y(x
n+k
) y
[1]
n+k
=
_

k
f
y
C

p
y
(p)
(x
n
) + C
p+1
y
(p+1)
(x
n
)
_
h
p+1
+ O(h
p+2
).
Sin embargo, si 2 las posteriores sustituciones en (3.7), con 1, conducen siempre
a la igualdad:
y(x
n+k
) y
[]
n+k
= C
p+1
h
p+1
y
(p+1)
(x
n
) + O(h
p+2
).
Por tanto, para todo 1 el orden del metodo P-C es igual al del C, aunque si = 1
entonces el PELD del P-C no coincide con el del C. En cambio, si 2 ambos PELD son
identicos.
3. Caso p

= p 2:
En este caso, cuando sustituimos (3.6) en (3.7) obtenemos:
y(x
n+k
) y
[1]
n+k
=
k
f
y
C

p1
h
p
y
(p1)
(x
n
) + O(h
p+1
).
Notamos que ahora si = 1 el orden del P-C es p 1, inferior en una unidad al orden del
C. Si 2, sustiyendo la ecuaci on anterior en (3.7) con = 1 se deduce
y(x
n+k
) y
[2]
n+k
=
_
_

k
f
y
_
2
C

p1
y
(p1)
(x
n
) + C
p+1
y
(p+1)
(x
n
)
_
h
p+1
+ O(h
p+2
),
de modo que para = 2 el orden del metodo P-C es igual al del C, pero los PELD
de ambos metodos no coinciden. Sucesivas sustituciones en (3.7) conducen a la siguiente
formula, valida unicamente cuando 3
y(x
n+k
) y
[]
n+k
= C
p+1
h
p+1
y
(p+1)
(x
n
) + O(h
p+2
).
lo cual muestra que adem as del mismo orden, el P-C y el C tienen el mismo PELD.
3.5. ESTIMACI

ON DEL ELD CON M

ETODOS PREDICTOR-CORRECTOR 31
Por tanto, queda claro que el orden y el PELD de un metodo P-C en el modo P(EC)

E
1t
de-
penden de la diferencia de los ordenes del P y del C, as como del valor (n umero de iteraciones)
del modo. El siguiente teorema enuncia el resultado general.
Teorema 19. En las condiciones anteriores, consideremos un metodo P-C denido por (3.3) y
utilizado en el modo P(EC)

E
1t
.
1. Si p

p, o bien si p

< p y > p p

, entonces el metodo P-C y el corrector tienen el


mismo orden y el mismo PELD.
2. Si p

< p y = p p

, entonces el metodo P-C y el corrector tienen el mismo orden pero


diferentes PELD.
3. Si p

< p y < pp

, entonces el orden del P-C es igual a p

+ y siempre es estrictamente
inferior al orden del corrector.
Adem as, los modos P(EC)

E y P(EC)

tienen el mismo orden y el mismo PELD.


Demostracion. Empezamos considerando la funcion h(x
n
, h), es decir:
h

(x
n
, h) = y(x
n+k
) y
[0]
n+k
=

C
p

+1
y
p

+1
(x
n
)h
p

+1
+O(h
p

+2
)
h(x
n
, h) = y(x
n+k
) y
[]
n+k
= C
p+1
y
p+1
(x
n
)h
p+1
+ O(h
p+2
)
donde p

es el orden del predictor y p el del corrector. Si tomamos la diferencia de las dos


expresiones anteriores tenemos:
y
[]
n+k
y
[0]
n+k
=

C
p

+1
y
p

+1
(x
n
)h
p

+1
C
p+1
y
p+1
(x
n
)h
p+1
+ O(h
p+2
) (3.8)
Consideremos los posibles casos para valores de p y p

:
Si p

< p entonces
C
p+1
y
p+1
(x
n
)h
p+1
= y
[0]
n+k
y
[]
n+k
+O(h
p

+1
)
Observamos que en este caso el resultado carece de sentido, as que no lo consideramos.
Si p

> p entonces (3.8) como p

+ 1 p + 2 de manera que:
C
p+1
y
p+1
(x
n
)h
p+1
= y
[0]
n+k
y
[]
n+k
+O(h
p+1
)
Para el Predictor-Corrector, el resultado nal ser a:
PELD
n+k
= y
[0]
n+k
y
[]
n+k
Si p = p

entonces
C
p+1
y
p+1
(x
n
)h
p+1
=
C
p+1

C
p+1
C
p+1
. .
Constante de Milne
( y
[]
n+k
y
[0]
n+k
) + O(h
p+2
)
Comentario 3.8 (Modos con extrapolacion local). Dado un P-C en modo P(EC)

E
1t
se
construye un nuevo metodo como soluci on de:
y
[]
n+k
= y
[]
n+k
+
C
p+1

C
p+1
C
p+1
(y
[]
n+k
y
[0]
n+k
).
A partir de y
[]
n+k
en modo P(EC)

E
1t
se pueden construir nuevos modos P-C del tipo P(ECL)

E
1t
o del tipo P(EC)

LE
1t
.
32 CAP

ITULO 3. M

ETODOS LINEALES MULTIPASO


3.6. Estabilidad lineal para metodos P-C
Ejemplo 3.9. Consideremos para jar ideas el metodo:
y
n+2
y
n+1
=
h
2
(f
n+2
+ f
n+1
) C
y
n+2
y
n+1
=
h
2
(3f
n+1
f
n
) P
Modo P(EC)E: Si en el ejemplo tomamos y

= y, entonces
y
n+2
y
n+1
=
h
2
(y
[0]
n+2
+y
n+1
)
y
n+2
y
n+1
=
h
2
(y
n+1
+
3h
2
y
n+1
y
n
) +
h
2
y
n+1
y
n+2
y
n+1

h(
y
n+1
2
+
3
4

hy
n+1

h
2
y
n
)

h
2
y
n+1
= 0
La forma de los polinomios de estabilidad absoluta de los metodos P-C en este modo es:
(r,

h) = (r)

h(r) + M

(H)(

(r)

(r))
_
p, C
p

P
M

(H) =
H

(1 H)
1 H

, donde
_
H =

h
k
=
k
r
k
+
k1
r
k1
+ +
0
Modo P(EC)

: En este caso, la forma de los polinomios de estabilidad es


(r,

h) =
k
r
k
((r)

h(r)) + M

(H)(

(r)(r)

(r)(r))
Por lo tanto, si P y C son consistentes entonces lm
h0
(r,

h) = (r). En tal caso existe r


1
(

h)
raz de (r,

h) tal que lm
h0
r
1
(

h) = 1. Finalmente, se establece
(e

h
,

h) = O(h
p+1
)
donde p es el orden del metodo P-C. Luego, se deduce (utilizando el mismo razonamiento que
para MLM) quer
1
(

h) = e

h
+ O(h
p+1
) cuando h 0. A modo de resumen, para los diferentes
modos los polinomios de estabilidad son
P(EC)

E : (r,

h) = (r)

h(r) + M

(H)[

(r)

(r)] (3.9)
P(EC)

: (r,

h) =
k
r
k
[(r)

h(r)] + M

(H)[

(r)(r) (r)

(r)] (3.10)
donde
r
1
(

h)
h0
1, M

(H) =
H

(1 H)
1 H

= O(h

), H =
k

h
Por otro lado,
(e

h
,

h) = O(

h
p+1
) = r
1
(

h) = e

h
+ O(h
p+1
)
3.7. CONSTRUCCI

ON DE MLM POR INTERPOLACI

ON 33
Si p es el orden del C y p

es el orden del P con P y C convergentes entonces, para los modos


P(EC)

E (se deduce de la ecuaci on (3.9)) tenemos


(e

h
,

h) = O(h
p+1
), si p

+ p,
Con respecto a los modos P(EC)

, tenemos que para la ecuaci on (3.10)

= O(h
p

+1
)

= O(h
p

+1
) = O(h
p

+1
)

h = O(h
p+1
)

O(h
p+1
) = O(h
p+1
)
_

= O(h
p+1
)
Dado que h 0 entonces e

h
1 y adem as:
(1) =

(1) ,= 0

(1) = (

(1) ,= 0
Por tanto, teniendo en cuenta que los metodos son convergentes entonces, para los modos
P(EC)

:
(e

h
,

h) = O(h
p+1
)
3.7. Construcci on de MLM por Interpolaci on
Consideremos un metodo de la forma
y
n+1
y
n
=
_
x
n+1
xn
I(x)dx
donde y
n
es la soluci on numerica en x
n
= a + hn e I(x) es el polinomio interpolador de
f(x, y(x)). Si tomamos el caso:
I(x
nj
) = f
nj
j = 0, 1 . . . k 1
se obtiene
y
n+1
y
n
= h
k1

j=0

j
f
n+1k+j
y observamos que se trata de un metodo expcito de k pasos. Esta familia de metodos se conoce
como metodos de Adams-Bashford.
Por otro lado, podemos considerar el caso
I(x
n+1j
) = f
n+1j
j = 0, 1 . . . k
del que se extrae la familia de metodos
y
n+1
y
n
= h
k

j=0

j
f
n+1k
Cabe notar que se trata de un conjunto de metodos implcitos de k pasos, conocidos como meto-
dos de Adams-Moulton.
34 CAP

ITULO 3. M

ETODOS LINEALES MULTIPASO


La formula de interpolacion de Newton nos servir a para explicitar la forma de I(x). A
continuaci on la presentamos.
I(x) = P

k1
(r) =
k1

i=0
(1)
i
_
r
i
_

i
f
n+j
donde
r =
x x
n
h
,
f
n
= f
n
f
n1

2
f
n
= (f
n
) = f
n
2f
n1
+ f
n2
Denimos ahora un operador denotado por E para facilitar la notaci on.
Ef
n
= f
n+1
E
1
f
n
= f
n1
de modo que podemos reescribir como = 1 E
1
. Modicando la notaci on anterior por la
introducida con E nos queda:

i
= (1 E
1
)
i
=
i

l=0
_
i
l
_
E
l

i
f
n
=
i

l=0
_
i
l
_
f
nl
donde
_
r
i
_
=
1
i!

i1
l=0
(r l). En resumen, los metodos anteriormente descritos quedan deter-
minados as:
Adams-Bashfort: I(x) = P

k1
(r) donde r =
xx
k
h
.
Adams-Moulton: I(x) = P
k
(r) =

k
i=0
(1)
i
_
r
i
_

i
f
n+1
con r =
xx
n+1
h
.
Notemos el uso intensivo del funcional E en la nueva formulaci on de los metodos.
3.7.1. Metodos Adams-Bashfort de k pasos
Tenemos para este metodo la formula:
y
n+1
y
n
=
_
x
n+1
xn
P

k1
(r)dx = h
_
1
0
P

k1
(r)dr
_
1
0
P
k1
(r)hdr = h
k1

j=0

i
f
n
,

i
= (1)
i
_
1
0
_
r
i
_
dr
Construimos una funcion generatriz denotada por G

(t):
G

(t) =

i=0

i
t
i
=

i=0
_
(1)
i
_
1
0
_
r
i
_
dr
_
t
i
=
_
1
0
_

i=0
_
r
i
_
(t)
i
_
dr =
=
_
1
0
(1 t)
r
dr =
(1 t)
r
ln(1 t)

1
0
=
t
(1 t) ln(1 t)
3.7. CONSTRUCCI

ON DE MLM POR INTERPOLACI

ON 35
As, tenemos que el funcional denido satisface la siguiente relaci on:
G

(t)
ln(1 t)
t
= (1 t)
1
Si la desarrollamos en serie de potencias obtenemos:
(

0
+

1
t + . . .)(1 +
t
2
+ . . .) = 1 + t + t
2
+ . . .
que nos aporta los las ecuaciones que deben satisfacer los coecientes

i
:

i
+

i1
2
+ . . . +

0
i + 1
= 1 i = 0, 1 . . . k 1
Observamos que puesto que para un metodo A-B de k pasos unicamente se requieren los valores

i
para i = 0, 1 . . . k 1, entonces las ecuaciones anteriores lo determinan unvocamente.
3.7.2. Metodos Adams-Moulton de k pasos
Tenemos en el planteo del metodo:
y
n+1
y
n
=
_
0
1
P
k
(r)hdr = h
k

i=0

i
f
n+1

i
=
_
0
1
(1)
i
_
r
i
_
dr
De nuevo construimos una funcion generatriz, ahora denotada por G(t):
G(t) =

i=0

i
t
i
=
t
ln(1 t)
G(t)
ln(1 t)
t
= 1
En este caso la relaci on que satisfacen las , una vez hecho el correspondiente desarrollo en serie
de potencias es:

0
= 1,

0
2
+
1
= 0 . . .

i
+

i1
2
+ . . . +

0
i + 1
= 0, i = 0 k
El metodo A-M de k pasos requiere
i
hasta i = 0 k. Una vez incorporadas y resueltas las
ecuaciones de las
i
obtenemos para el metodo A-M de k pasos:
y
n+1
y
n
= h
k

i=0

i
f
n+1
36 CAP

ITULO 3. M

ETODOS LINEALES MULTIPASO


Captulo 4
Metodos Runge-Kutta
En este captulo analizaremos los metodos Runge-Kutta en su formulaci on general, tratare-
mos las condiciones de orden (seg un la estrategia de Butcher), y por ultimo trabajaremos sobre
el an alogo de la estabilidad lineal introducido en el tema anterior.
4.1. Formulacion del metodo
Denicion 4.1. Un metodo Runge-Kutta (RK) es un metodo de un paso dado por la ecuaci on:
y
n+1
y
n
= h
s

i=1
b
i
k
i
donde
k
i
= f(x
n
+ c
i
h, y
i
), y
i
= y
n
+ h
s

j=1
a
ij
k
j
A estas deniciones se les impone una condici on aparentemente arbitraria aunque estrecha-
mente relacionada con el orden del metodo, conocida como condici on suma-la:
s

j=1
a
ij
= c
i
, i = 1 s
Denicion 4.2. Diremos que s es el n umero de niveles del metodo.
Es habitual denotar los metodos RK mediante notaci on matricial. Para ello introducimos:
Denicion 4.3. La matrix de Butcher es
_
c A
0 b
T
_
donde:
A = (a
ij
) c = [c
1
. . . c
s
]
T
b = [b
1
. . . b
s
]
T
37
38 CAP

ITULO 4. M

ETODOS RUNGE-KUTTA
En el caso en que A sea triangular inferior estricta (con a
ii
= 0, i = 1 s), entonces el
metodo RK es explcito. Entonces tendra la estructura:
k
1
= f(x
n
, y
n
) = f
n
k
2
= f(x
n
+ c
2
h, y
n
+ hc
2
k
1
)
k
3
= f(x
n
+ c
3
h, y
n
+ h(c
3
a
32
)k
1
+ha
32
k
2
)
.
.
.
Ejemplo 4.4. De acuerdo con las deniciones anteriores, el metodo RK de un nivel es
y
n+1
y
n
= hb
1
f
n
que solo converge en el caso b
1
= 1, deniendo as, como habra apreciado el h abil lector, el ya
conocido metodo de Euler.
4.2. Convergencia de metodos RK
Veamos ahora que el metodo cumple:
Condicion (2.7) sobre
f
. Como tenemos:

f
=
s

i=1
b
i
f(x
n
+ c
i
h, y
i
)
Si f cumple la condici on de Lipschitz, entonces
f
cumple la condici on (2.7).
Cero estabilidad. Por ser (r) = r 1, los metodos siempre son cero estables.
Segunda condici on de consistencia (Teorema 2):

f
(y(x), x, 0)
?
=

(1)f(x, y(x)) = f(x, y(x))


En nuestro metodo tenemos:

f
(y(x), x, 0) =
s

j=1
b
i
f(x, y(x)).
Por tanto, la condici on de consistencia para los metodo RK es

s
i=1
b
i
= 1, que nos da
tambien la convergencia junto con las otras condiciones vericadas.
4.2.1. Error local de discretizacion
Consideremos el ELD asociado a metodos RK. De apartados anteriores conocemos que este
viene dado por:
h(x, h) = y(x + h) y(x) h
f
(y(x), x; h)
h(x, h) = y

(x)h + O(h
2
) h
f
(y(x), x; 0) + O(h
2
)
donde y

(x) = f(x, y(x)) y h


f
(y(x), x; 0) = h

i
b
i
f(x, y(x)). Si el RK es convergente, al ser
consistente en general podremos armar que (x, h) = O(h), tiene orden 1 al menos.
4.2. CONVERGENCIA DE M

ETODOS RK 39
4.2.2. Metodos implcitos y semi-implcito
Aqu introduciremos un tipo particular de metodos implcitos.
Denicion 4.5. Si A es matriz triangular inferior no estricta
1
, el metodo RK se denomina
semi-implcito.
Denicion 4.6. Decimos que el metodo es implcito cuando no es ni semi-implcito ni explcito.
k
1
, . . . , k
s
se obtienen resolviendo un sistema de s ecuaciones acopladas e implcitas.
4.2.3. Regi on de estabilidad absoluta
Proposici on 4.1. La formula general de la funcion de estabilidad absoluta de los metodos R-K
es:
y
n+1
= R(

h)y
n
!
A
=

h C[ [R(

h)[ < 1
Analizemos ahora la forma general de R(

h):
y
n+1
= y
n
+ h
s

i=1
b
i
k
i
En el caso y

= y, y
n+1
= y
n
+

s
i=1
b
i
Y
i
, donde
Y
i
= y
n
+ h
s

j=1
a
ij
(Y
j
) = y
n
+

h
s

j=1
a
ij
Y
j
Y = [Y
1
, . . . , Y
s
]
T
e = [1, . . . , 1]
T
R
s
Podemos reformular pues las condiciones anteriores de forma vectorial con el uso de el Y , la
matriz A, y el vector e:
Y = y
n
e +

hAY
(I
s

hA)Y = y
n
e
Y = [(I
s

hA)
1
e]y
n
Condicion b asica para que esto suceda es evidentemente que det(I
s

hA) ,= 0. Si el metodo Rk
es explcito, se comprueba que det(I
s

hA) = 1

h C.
Y
n+1
= Y
n
+

hb
T
(I
s

hA)
1
ey
n
= (1 +

hb
T
(I
s

hA)
1
e)y
n
Ademas R(

h) es una funcion polin omica de grado s.


1
Denimos matriz triangular inferior no estricta como matriz triangular inferior cuya diagonal no es identica-
mente cero
40 CAP

ITULO 4. M

ETODOS RUNGE-KUTTA
Ejercicio. Calculemos ahora los metodo de orden s de s niveles.
En el caso s = 2:

hb
T
(I
s

hA)
1
= RK de dos niveles explcto. R(

h) = 1 +

h +

h
2
2
.
En el caso s = 3: R(

h) = R(

h) = 1 +

h +

h
2
2
+

h
3
6
.
Veamos ahora por que R coincide con la forma del desarrollo de la exponencial hasta orden
p. El ELD y(x
n+1
) y
n+1
= O(h
p+1
), habiendo obtenido y
n
= y(x
n
).
y(x
n+1
) = y
n
+ (h)y
n
+ . . . +
(h)
p
p!
y
n
+ O(h
p+1
)
y
n+1
= (1 +

h +

h
2
2
+ . . . +

h
p
p!
)y
n
+ O(h
p+1
)
y
n+1
= R(

h)y
n
para cualquier RK aplicado a y

= y
Con las condiciones anteriores y la denicion de R(

h), se tiene que R(

h) no depende de y
n
sino
de la h y del metodo:
En el caso p = s R(h) = 1 +

h + . . . +

h
p
p!
.
Ejercicio. Obtener los intervalos de estabilidad absoluta para RK explcito de orden igual al
del numero de niveles y ver como se obtiene la regi on de estabilidad de un RK.
4.3. Introducci on al estudio del orden de los metodos RK
Para estudiar el orden hay que deteminar el desarrollo de Taylor de la funcion (x, h), que
en el caso de los metodos Runge-Kutta (RK) adopta la siguiente expresi on:
h(x, h) = y(x, h) y(x) h
f
(y(x), x, h) = y(x + h) y(x) h
s

i=1
b
i
k
i
,
siendo
k
i
= f(x + c
i
h, y
i
), y
i
= y
n
+ h
s

j=1
a
ij
k
j
, c
i
=
s

j=1
a
ij
, i = 1 s
para un RK de s niveles y un PVI dado por un sistema y

= f(x, y).
Recordemos que si consideramos metodos lineales, las derivadas de la funcion
f
se pueden
expresar en terminos de las derivadas de y(x).

Esto no es posible para los metodos RK, en
los que las derivadas de
f
se obtienen a partir de las derivadas de f(x, y). Por ello nos vemos
forzados a expresar tambien las derivadas de y(x) en terminos de las derivadas de f, complicando
considerablemente el estudio de las condiciones de orden.
4.3.1. Orden de un RK explcito de 3 niveles para un PVI escalar
Consideremos el caso general de un PVI escalar, cuya EDO es y

= f(x, y), con y(x) R, y


un metodo RK explcito de 3 niveles:
y
n+1
= y
n
+ h(b
1
k
1
+ b
2
k
2
+b
3
k
3
)
k
1
= f(x
n
, y
n
)
k
2
= f(x
n
+ hc
2
, y
n
+ hc
2
k
1
)
k
3
= f(x
n
+ hc
3
, y
n
+ h(c
3
a
32
)k
1
+ ha
32
k
2
)
4.3. INTRODUCCI

ON AL ESTUDIO DEL ORDEN DE LOS M

ETODOS RK 41
Desarrollamos en serie de Taylor hasta el termino h
4
de:
h(x, h) = y(x, h) y(x) h(b
1
k
1
+ b
2
k
2
+ b
3
k
3
)
Para las derivadas de f se adopta la siguiente notaci on (todas se evaluan en el mismo punto
(x, y(x)) y por ello no se especica):
f : = f(x, y), f
x
: =
f
x
, f
xy
: =

2
f
xy
, f
xx
: =

2
f
x
2
, etc.
El desarrollo de Taylor de y(x + h) (en torno a x) hasta O(h
4
) es:
y(x + h) = y(x) + hy
(1)
(x) +
1
2
h
2
y
(2)
(x) +
1
6
h
3
y
(3)
(x) + O(h
4
)
donde y
(i)
es la derivada de orden i respecto a la variable x. Usando la regla de la cadena se
obtinenen las siguientes expresiones:
y
(1)
(x) = y

= f
y
(2)
(x) = f
x
+f
y
y

= f
x
+ f
y
f F
y
(3)
(x) = f
xx
+ 2ff
xy
+ f
2
f
yy
+ f
y
(f
x
+ff
y
) G + f
y
F
Por otro lado, el desarrollo de
f
= b
1
k
1
+ b
2
k
2
+ b
3
k
3
hasta orden h
3
requiere hacer el corres-
pondiente desarrollo de k
2
y k
3
entorno a x (observad que k
1
= f no requiere desarrollo). Si
reunimos los obtenidos para k
2
y k
3
y el calculado para y(x + h) nos queda:
h(x, h) = h(1 b
1
b
2
b
3
)f + h
2
_
1
2
b
2
c
2
b
3
c
3
_
F
+
__
1
6
b
3
c
2
a
32
__
f
y
F +
_
1
6

b
2
c
2
2
+b
3
c
2
3
2
G
_
+ O(h
4
)
Se deducen los siguientes resultados sobre el orden de un RK explcito de 3 niveles:
b
1
+ b
2
+ b
3
= 1 orden 1 al menos,
b
2
c
2
+ b
3
c
3
=
1
2
y la anterior orden 2 al menos,
b
2
c
2
2
+ b
3
c
2
3
=
1
3
b
3
c
2
a
32
=
1
6
y las anteriores orden 3 al menos.
De hecho, examinando el termino de orden h
4
se puede comprobar que si se cumplen las condi-
ciones anteriores, el orden es exactamente 3 y no puede ser mayor.
4.3.2. Algunos resultados generales
Para un metodo RK explcito de orden p y s niveles se puede demostrar que p s. Solo
existen metodos RK explcitos tales que p = s cuando s 4.
Para construir un RK explcito de orden 5 se requieren 6 niveles como mnimo. Si es de
orden 7 se requieren 9 niveles y si es de orden 8 se requieren 11 niveles como mnimo.
42 CAP

ITULO 4. M

ETODOS RUNGE-KUTTA
El m aximo orden que puede alcanzarse con un metodo RK de s niveles es igual a 2s cuando
el metodo es implcito.
Existen metdodos RK que se comportan con orden diferente seg un se apliquen a un proble-
ma escalar (aut onomo o no) o a un sistema de EDOs. Considerar los siguientes enunciados
aplicados a un metodo RK cualquiera:
Enunciado A: El metodo tiene orden p para y

= f(y), y(x) R
m
, m > 1 (sistema de
EDOs, caso general).
Enunciado B: El metodo tiene orden p para y

= f(y), y(x) R (problema escalar, caso


general).
Enunciado C: El metodo tiene orden p para y

= f(y), y(x) R (problema escalar


aut onomo).
Se conocen los siguientes resultados:
si 1 p 3, A B C,
si p = 4, A B C, pero C B,
si p 5, A B C, pero C B y B A.
4.4. Herramientas para el estudio del orden de los metodos RK
Para estudiar a fondo el orden de los metodos RK en su caso m as general (es decir, aplicados
a sistemas de ecuaciones diferenciales), tenemos que introducir nuevas herramientas que nos
ayudar an a comprender el problema. Estas herramientas son:
la M-esima derivada de Frechet,
los diferenciales elementales, y
los arboles con raz.
Es en esta secci on donde las introduciremos y estudiaremos con cierto nivel de detalle.
Sin perdida de generalidad, un sistema de EDOs siempre puede suponerse aut onomo. As pues,
consideramos el caso general de un PVI
y

= f(y), y(a) = , y, f R
m
, m > 1
Las primeras derivadas de y(x) en el caso escalar aut onomo son:
y

= f, y
(2)
= f
y
f, y
(3)
= f
yy
f
2
+ f
2
y
f.
Para ver que estas expresiones pueden generalizarse de forma inmediata al caso de un sistema de
dimension m > 1 es suciente considerar las mismas derivadas cuando m = 2, es decir, cuando
y = [
1
y,
2
y]
T
, f = [
1
f,
2
f]
T
Introduciendo la notaci on
componente
f
derivada
:
i
f
j
:=
(
i
f)
(
j
y)
,
i
f
jk
:=

2
(
i
f)
(
j
y)(
k
y)
, etc
4.4. HERRAMIENTAS PARA EL ESTUDIO DEL ORDEN DE LOS M

ETODOS RK 43
a partir de diferenciar y

= f componente a componente se obtiene:


y
(2)
=
_
1
y
(2)
2
y
(2)
_
=
_
1
f
1
1
f
2
2
f
1
2
f
2
_
f = (Df)f
y tras cierta manipulacion se puede escribir
y
(3)
=
_
1
y
(3)
2
y
(3)
_
=
_
f
T
D
2
(
1
f)f
f
T
D
2
(
2
f)f
_
+ (Df)
2
f
siendo D
2
(
i
f) la matriz de derivadas parciales de segundo orden de la funcion
i
f.
4.4.1. Caso y

= f(y)
En este caso consideramos el problema y

= f(y) con y : R R. Buscamos los valores de F


y G.
F
x
= f
y
fG
x
= f
yy
f
2
y observamos que no se cumple f
y
F
x
,= G. En el caso y

= f(x, y(x)) cuando calculamos y


(4)
(x)
nos aparecen dos terminos:
(f
xx
+ ff
yy
)(f
x
+ ff
y
) (condici on (1) de orden) (4.1)
f
y
(f
xx
+ 2ff
xy
+ f
2
f
yy
) (condici o (2) de orden) (4.2)
Notemos que si f no depende de x, entonces los terminos (4.1) y (4.2) se convierten en:
(4.1) f
y
f
yy
f
2
(4.2) f
y
f
yy
f
2
Notemos que los dos terminos quedan exactamente iguales. Por ese motivo, las dos condiciones
colapsan en una sola condici on que denominaremos ((4.1) + (4.2)).
4.4.2. La M-esima derivada de Frechet
Sean z, f(z) R
m
. La derivada M-esima de Frechet, que se denota f
(M)
(z), es un operador
lineal cuyo dominio es el producto cartesiano R
m
R
m
(M veces) y que viene dado por la
expresi on siguiente:
f
(M)
(z)(K
1
. . . K
M
) =
m

i=1
_
_
m

j
1
=1

m

j
M
=1
i
f
j
1
...j
M
j
1
K
1

j
M
K
M
_
_
e
i
donde
e
i
, i = 1 m son los vectores de la base can onica de R
m
. De esta forma, la M-esima
derivada de Frechet evaluada en el argumento z constituye un vector de m componentes.
La expresi on de la M-esima derivada de Frechet involucra todas las posibles derivadas
parciales de orden M de la funcion f respecto a las componentes de su argumento z:
i
f
j
1
j
M
=

M
(
i
f(z))
(
j
1
z) (
j
M
z)
K
i
, i = 1 . . . M son los operandos de la derivada de Frechet. Hay M operandos si la deriva-
da es de orden M. Cada uno de ellos representa una funcion vectorial de m componentes,
K
i
= [
i
K
i
. . .
m
K
i
]
T
. En particular, los operandos pueden ser a su vez derivadas de Frechet.
44 CAP

ITULO 4. M

ETODOS RUNGE-KUTTA
4.4.3. Derivadas de Frechet de primer y segundo orden
A modo de ejemplo, consideremos el caso bidimensional, m = 2. La derivada de Frechet de
orden 1 se obtiene tomando M = 1 en la expresi on general
f
(1)
(z)(K
1
) =
2

i=1
_
_
2

j
1
=1
i
f
j
i
j
1
K
1
_
_
e
i
=
_
1
f
1
1
K
1
+
1
f
2
2
K
1
2
f
1
1
K
1
+
2
f
2
2
K
1
_
Reemplazando el argumento z por y = y(x) y el operando K
1
por f(y), siendo (para el caso
m = 2) y, f(y) R
2
la expresi on anterior adopta la forma:
f
(1)
(y)(f(y)) =
_
1
f
1
1
f +
1
f
2
2
f
2
f
1
1
f +
2
f
2
2
f
_
= D(f)f = y
(2)
Para simplicar la notaci on se suprime el argumento y, de forma que la derivada segunda de y
se puede expresar como una derivada de Frechet de primer orden:
y
(2)
= f
(1)
(f).
Tambien se puede expresar y
(3)
utilizando derivadas de Frechet hasta orden 2 como m aximo. Si
de nuevo consideramos m = 2 y adoptamos M = 2 en la formula general, se obtiene:
f
(2)
(z)(K
1
, K
2
) =
_
1
f
11
1
K
1
1
K
2
+
1
f
12
1
K
1
2
K
2
+
1
f
21
2
K
1
1
K
2
+
1
f
22
2
K
1
2
K
2
2
f
11
1
K
1
1
K
2
+
2
f
12
1
K
1
2
K
2
+
2
f
21
2
K
1
1
K
2
+
2
f
22
2
K
1
2
K
2
_
Reemplazamos z por y, tomando K
1
= K
2
= f y usando
i
f
12
=
i
f
21
se obtiene:
f
(2)
(f, f) := f
(2)
(y)(f(y), f(y)) =
_
1
f
11
(
1
f
1
)
2
+ 2
1
f
12
(
1
f)(
2
f) +
1
f
22
(
2
f)
2
2
f
11
(
1
f
1
)
2
+ 2
2
f
12
(
1
f)(
2
f) +
2
f
22
(
2
f)
2
_
=
_
f
T
D
2
(
1
f)f
f
T
D
2
(
2
f)f
_
que es el primer termino de la derivada tercera de y que se obtuvo al principio de la secci on
2. El segundo termino de y
(3)
se puede comprobar que es tambien una derivada de Frechet, en
este caso de orden 1. Concretamente, si se toma K
1
= f
(1)
(f) como operando de la derivada de
Frechet de orden 1, se deduce:
f
(1)
(f
(1)
(f)) = (Df)
2
f
Podemos escribir entonces para la derivada tercera:
y
(3)
= f
(2)
(f, f) + f
(1)
(f
(1)
(f)),
que es posible generalizar para cualquier dimension m, y en particular, para el caso escalar
m = 1 se recupera la expresi on habitual de la derivada tercera.
Comentario 4.7 (sobre la derivacion de una derivada de Frechet). Al derivar respecto a x,
y

(x) = f(x), una derivada de Frechet de orden M con argumento y = y(x) cuyos M operandos
son derivadas de Frechet de orden menor a M, se obtiene una combinaci on lineal de derivadas
de Frechet de orden M + 1 con argumentos y y operandos f o derivadas de Frechet de orden
M.
d
dx
[
i
f
j
1
...j
M
,
j
1
K
1
. . .
j
M
K
M
]
d
dx
i
f
j
1
...j
M
= f
i
f
j
1
...j
M
,j
M+1
4.4. HERRAMIENTAS PARA EL ESTUDIO DEL ORDEN DE LOS M

ETODOS RK 45
4.4.4. Diferenciales elementales
Los resultados de la secci on anterior se generalizan del siguiente modo: y
(p)
se puede escribir
(en cualquier dimension) como una combinaci on lineal de derivadas de Frechet de orden menor
o igual a p 1. Cada uno de los termino de dicha combinaci on lineal es lo que se conoce como
un diferencial elemental de f.
Los diferenciales elementales son por tanto las unidades basicas para representar las derivadas
de cualquier orden de y, y nalmente, poder estudiar el orden de los metodos RK.
Denicion 4.8. Los diferenciales elementales de la funcion f R
m
son las funciones F
s
: R
m

R
m
determinadas recursivamente del modo siguiente:
(I) f es el unico diferencial elemental de orden 1.
(II) Si F
s
, s = 1 M, son diferenciales elementales de orden r
s
, respectivamente, entonces la
derivada de Frechet de orden M
f
(M)
(F
1
. . . F
M
)
es un diferencial elemental de orden 1 +

M
s=1
r
s
. No es necesario que los F
s
sean todos
distintos, ni tampoco sus ordenes. La notaci on que adoptaremos para los diferenciales
elementales es:
F
1
F
2
. . . F
M
:= f
(M)
(F
1
. . . F
M
)
donde se sobreentiende que las derivadas involucradas son las de f(y) respecto a las com-
ponentes de y R
m
.
De acuerdo con la denicion anterior, para construir los diferenciales elementales de orden
p > 1, se tienen que utilizar derivadas de Frechet de orden M < p y los M operandos han
de ser diferenciales elementales de orden estrictamente inferior a p pero cuyos ordenes sumen
p 1. De la construccion de los diferenciales elementales hasta orden 4 obtenemos los siguientes
resultados:
Orden 1. Existe un unico diferencial elemental que por denicion es f.
Orden 2. Solo se puede tomar la derivada de Frechet de primer orden, M = 1, de un diferencial
elemental de orden 1. Por tanto, existe un unico diferencial de orden 2, que es f
(1)
(f) = f.
Orden 3 Hay dos opciones: o bien tomar M = 2 y dos difereciales elementales de orden 1 (que
por tanto deben ser f), o bien tomar M = 1 y un diferencial elemental de orden 2 (que
deber a ser f.
Con la primera opcion obtenemos f, f = f
(2)
(f, f), que denotamos como f
2
.
Con la segunda opcion se obtiene f = f
(1)
(f
(1)
(f)), que denotamos como
2
f
2
.
Orden 4. Existen 4 diferenciales elementales:
M = 3. El unico operando posible es f y se obtiene un unico diferencial elemental, f
3
.
M = 2. En este caso solo pueden usarse los operandos f y f, y el unico diferencial
elemental que se obtiene es ff = ff.
46 CAP

ITULO 4. M

ETODOS RUNGE-KUTTA
M = 1. Cada uno de los diferenciales elementales de orden 3 se puede usar como argu-
mento, de modo que hay dos posibles resultados:
2
f
2

2
y
3
f
3
.
De acuerdo con los resultados anteriores se comprueba que podemos escribir las primeras deri-
vadas de y tal como indica la siguiente tabla:
i y
(i)
1 f
2 f
3 f
2
+
2
f
2
4 f
3
+ 3ff +
2
f
2

3
+
3
f
3
Observacion 4.9. f diferencial elemental de orden 1 f
(1)
(f) diferencial elemental de orden
2 f
(1)
(f
(1)
(f)) diferencial elemental de orden 3.
Comentario 4.10. Para el caso de orden 4 y M = 1, entonces:
f
(1)
(f
(2)
(f, f)) f, f
2
f
2

3
f
3
f
(1)
(f
(1)
(f
(1)
(f)))
En el caso escalar y

= f(y) tenemos un termino de y


(1)
(x), f
y
f
y
f
y
f.
En resumen, las derivadas de y se construyen utilizando los diferenciales elementales, pero
adem as es necesario conocer:
1. Los coecientes numericos de los diferenciales elementales cuya combinaci on lineal permite
calcular con exactitud la expresi on de las derivadas de y.
2. El n umero total de diferenciales elementales que forman la combinaci on lineal que se
identica con la derivada de y
(p)
.
Estas dos cuestiones se pueden resolver utilizando resultados de combinatoria y teora de grafos
que se describen en la siguiente secci on.
4.4.5.

Arboles con raz
El objetivo de esta secci on es introducir las herramientas necesarias para representar los
diferenciales elementales y las derivadas y
(p)
, ya que nos permitira formular las condiciones de
orden de los metodos RK. Comenzaremos con algunas nociones generales de teora de grafos.
Denicion 4.11.
1. Sea V un conjunto nito. El par (V, A) se denomina grafo cuando A T
2
(V ), siendo
T
2
(V ) el conjunto de subconjuntos de cardinal 2 de V . Cuando A V V entonces el
par (V, A) se denomina grafo dirigido o digrafo. En ambos casos los elementos de V se
denominan vertices y los de A aristas.
2. Si (V, A) es un digrafo, su grafo subyacente es el grafo sin dirigir. Formalmente, ser a el
par (

V ,

A) tal que

V = V y
2
u, v V, u, v

A (u, v) A o (v, u) A.
2
Notemos que en el caso de grafos dirigidos, la arista la escribiremos como una pareja ordenada de vertices, es
decir, (a,b). En cambio, en los grafos no dirigidos, la arista es una pareja no ordenada. Por tanto, la escribiremos
como {a, b}.
4.4. HERRAMIENTAS PARA EL ESTUDIO DEL ORDEN DE LOS M

ETODOS RK 47
3. Sea un grafo (V, A). Una sucesion de vertices diferentes v
1
, . . . , v
k
con k 2, tal que
v
i
, v
i+1
A para 1 i k 1 se conoce como un camino entre v
1
y v
k
. Se dice que el
grafo (V, A) es conexo si entre cada par de vertices distintos de V existe un camino.
Denicion 4.12. Un digrafo (V, E) es un arbol con raz cuando cumple las siguientes condicio-
nes:
(1) Su grafo subyacente es conexo.
(2) Los pares ordenados de E tienen componentes distintas: (a, b) E a ,= b.
(3) Existe un unico elemento de V , denominado raz, que nunca aparece en la segunda com-
ponente de los pares ordenados de E.
(4) Excepto la raz, todos los elementos de V aparecen exactamente una vez entre las segundas
componentes de los pares ordenados de E.
Denicion 4.13.
Un grafo (V, A) es acclico si cumple las condiciones 3 y 4 anteriores. No posee caminos
cerrados o ciclos.
El n umero de vertices de un arbol con raz (y de un grafo en general) se denomina orden.
Dado el par (V, E) el orden del arbol con raz es el cardinal del conjunto de vertices de V .
Comentario 4.14 (Representacion gr aca). Los vertices se representan como puntos y las
aristas como segmentos de recta uniendo los vertices que las denen. Dada una arista (a, b) el
vertice a se representa por debajo del b: las aristas apuntan hacia arriba. La raz es el vertice
que gura en la parte inferior del diagrama.
Denicion 4.15. Si (V, E) y (V

, E

) son dos arboles con raz, se dice que son isomorfos cuando
existe una aplicaci on biyectiva : V V

tal queda
x, y V, (x, y) E ((x), (y)) E

Todos los arboles con raz isomorfos se representan con el mismo diagrama sin etiquetar
los vertices. En realidad, cuando no se usan etiquetas para los vertices el diagrama es una
representacion de toda una clase de equivalencia de arboles con raz denida por la relaci on de
isomorfa.
Comentario 4.16. A menudo hablaremos de arbol para referirnos a un arbol con raz (a
pesar de que en la teora de grafos son dos objetos distintos). Ademas, consideraremos iguales
todos los arboles isomorfos entre s.
Es posible construir los distintos arboles de un orden jado de forma recursiva utilizando la
siguiente notaci on:
Para orden 1, hay un unico arbol con raz de un vertice (arbol trivial), que denotamos .
Dado un arbol t, consideramos todos los vertices x de t tales que (v, x) es una arista de
t, siendo v la raz de t. En tal caso se dice que x es un hijo de la raz. Si suprimimos v
del conjunto de vertices de t, y todas las aristas que tengan como segunda componente a
48 CAP

ITULO 4. M

ETODOS RUNGE-KUTTA
vertices hijos de la raz, lo que queda es un conjunto de aroles t
1
, t
2
. . . t
m
(no necesaria-
mente distintos), que no est an conectados entre s por ning un camino, y cuyas races son
los vertices hijos de v en el arbol t. Utilizaremos la notaci on
t = [t
1
, t
2
. . . t
m
]
para representar el arbol t. Notemos que el orden de los t
i
en la representacion anterior es
irrelevante, de modo que si hay arboles t
i
repetidos, se agrupan y se escribe un exponente
para indicar el n umero de repeticiones. Por ejemplo:
[t
1
t
3
t
2
t
1
t
2
t
2
] := [t
2
1
t
3
2
t
3
]
Mediante la notaci on anterior se obtienen los siguientes arboles con raz distintos de cualquier
orden:
Orden 1. .
Orden 2. [].
Orden 3. [
2
], [[]] := [
2
]
2
.
Orden 4. [
3
], [[]], [[
2
]] := [
2

2
]
2
, [
3
]
3
.
Notemos que el n umero total de arboles de un orden dado coincide con el n umero de diferenciales
elementales del mismo orden que se obtuvo en la secci on anterior. Observemos tambien que si
r(t
i
) son los ordenes de los arboles t
i
, i = 1 . . . m, entonces el orden de t = [t
1
. . . t
m
] es
r(t) = 1 +
m

i=1
r(t
i
),
lo mismo que sucede con la construccion de los diferenciales elementales que se describio en la
secci on anterior. El siguiente teorema generaliza estas dos observaciones:
Teorema 20. Para p 1, el n umero de arboles con raz distintos de orden p coincide con el
n umero de diferenciales elementales de orden p de f. Existe una aplicaci on biyectiva F entre
el conjunto de arboles distintos T y el conjunto de los distintos diferenciales elementales de f.
Esta aplicaci on se dene del siguiente modo:
1. F() = f. Al arbol trivial le corresponde el unico diferencial elemental de orden 1, f.
2. Si a los arboles con raz t
s
de orden r(t
s
), s = 1 M, les corresponden los diferenciales
elementales F(t
s
) de orden r
s
, s = 1 . . . M, entonces al arbol con raz [t
1
. . . t
M
] de orden
1 +

M
s=1
r(t
s
) le corresponde el diferencial elemental de orden 1 +

M
s=1
r
s
.
F([t
1
. . . t
M
]) = F(t
1
) . . . F(t
M
),
Ejemplo 4.17. Consideramos los arboles , [], [], [
2
] y construimos el arbol:
t = [[]
2
[
2
]]
El orden, por la proposici on enunciada anteriormente, es 1+(3+2+2+1) = 9. La representacio del
mismo arbol en notaci on de derivada de Frechet es f, f
2
, f, f. En el caso escalar:
F(t) = f
yyyy
f(f
y
f)
2
f
yy
f
que es uno de los terminos de f
9)
(ya que tiene orden 9). En este caso, F(t) es uno de los terminos
de la derivada de orden 9, los otros se construirian a base de hacer todos los casos posibles de
arboles de orden 9.
4.4. HERRAMIENTAS PARA EL ESTUDIO DEL ORDEN DE LOS M

ETODOS RK 49
4.4.6. Funciones denidas sobre arboles con raz
Volviendo a las dos cuestiones que quedaron planteadas al nal de la secci on 4.3, el teorema
anterior ha establecido que el n umero de diferenciales elementales de orden n coincide con el
n umero de arboles con raz distintos de orden n. El siguiente teorema resuelve como contar
ambas cantidades:
Teorema 21. Sean a
n
el n umero de arboles con raz distintos de orden n. Es decir, el n umero de
diferentes clases de equivalencia bajo la relaci on de isomorfa de arboles con raz de n vertices.
Entonces, las cantidades a
1
, a
2
. . . satisfacen la siguiente identidad termino a termino:
a
1
+a
2
x + a
3
x
2
+ = (1 x)
a
1
(1 x
2
)
a
2
(1 x
3
)
a
3
.
Por identidad termino a termino se entiende que tras sustituir cada factor del miembro
derecho de la igualdad por su serie de Taylor, el coeciente que resulte para la potencia x
k
debe
coincidir con a
k+1
.
Cabe recalcar que el coeciente de la potencia en el miembro derecho de la igualdad solo depende
de a
1
. . . a
k
. Por tanto, la identidad anterior establece una relaci on recurrente para a
k+1
, el cual,
para k > 0, se obtiene de los valores anteriores a
i
, i = 1 k.
Aplicando el teorema anterior se obtienen los valores ya conocidos a
1
= 1, a
2
= 1, a
3
=
2, a
4
= 4. El n umero de diferenciales elementales crece signicativamente con el orden, por
ejemplo, a
5
= 9, y a
8
= 115. Esto da una idea de lo complicado que puede llegar a ser dise nar
metodos RK de orden elevado.
Por si fuera poco, todava necesitamos saber los coecientes numericos de las combinaciones
de difereciales elementales que nos permiten obtener y
(p)
. Para resolver esta cuesti on se introdu-
cen las siguientes funciones denidas sobre un arbol con raz y que pueden calcularse de forma
recursiva.
Denicion 4.18. La densidad de un arbol t, (t), es el producto del orden de todos los subarbo-
les de t:

vV
r
v
= (t)
Donde entendemos que el subarbol v del arbol t es un la pareja (

V ,

E) tal que:

V V,

E E.
(

V ,

E) es un arbol con raz.
v

V V es la raz de (

V ,

E).
El orden del subarbol v lo hemos denotado por r
v
.
Denicion 4.19. Consideremos t = (V, E). Diremos que : V V es un automorsmo de t
si cumple
v, v

V, (v, v

) E [(v), (v

)] E
Denicion 4.20. Decimos que el grupo de simetras de t es:
A(t) = : V V [ automorsmo de t
El orden de A(t), (t), se conoce como simetra de t.
50 CAP

ITULO 4. M

ETODOS RUNGE-KUTTA
Denicion 4.21. Sea un arbol con raz t = [t
m
1
1
t
m
2
2
. . . t
m
k
k
] donde t
1
, t
2
. . . t
k
son arboles con
raz distintos 2 a 2. Entonces el orden r(t), la simetra (t), y la densidad (t) del arbol t se
denen de forma recursiva de acuerdo con las siguientes relaciones:
r(t) = 1 +
k

i=1
m
i
r(t
i
),
(t) =
k

i=1
m
i
! ((t
i
))
m
i
,
(t) = r(t)
k

i=1
((t
i
))
m
i
Y para el caso del arbol trivial t = ,
r() = () = () = 1.
Finalmente, se dene la cantidad (t) para un arbol t cualquiera como
(t) =
r(t)!
(t)(t)
Comentario 4.22. Observemos que (t) es el n umero de formas que tenemos de etiquetar los
vertices de t con 1 . . . r(t) de forma que:
1. A cada vertice le asigno una y solo una etiqueta.
2. Etiquetados equivalentes por automorfa cuentan como uno solo.
3. Si (i, j) es una arista tras etiquetar, entonces i < j.
Estas deniciones nos permiten enunciar el siguiente teorema:
Teorema 22. Sea y = y(x), y

= f(y), y f : ! !. Entonces,
y
(q)
=

r(t)=q
(t)F(t)
donde F(t) es la aplicaci on biyectiva entre arboles con raz y diferenciales elementales que se
introdujo anteriormente.
La siguiente table resume toda la informaci on que se ha ido acumulando hasta ahora y que
permite obtenter las derivadas de y(x) hasta orden 4.
Con estos resultados se puede obtener el desarrollo en serie de Taylor de y(x+h). No obstante,
para obtener las condiciones de orden de un metodo RK se necesita el desarrollo de la funcion
(x, h) al completo. Por tanto, hay que obtener el desarrollo de Taylor de la parte restante de
(x, h) que no se ha considerado hasta ahora. Esta parte es:
y(h) := y(x) + h
k

i=1
b
i
k
i
, k
i
= f
_
_
y(x) + h
s

j=1
a
ij
k
j
_
_
,
s

j=1
a
ij
= c
i
, i = 1 . . . s
4.4. HERRAMIENTAS PARA EL ESTUDIO DEL ORDEN DE LOS M

ETODOS RK 51
Orden Arbol (t) F(t) r(t) (t) (t) (t)
1 f 1 1 1 1
2 [] f 2 1 2 1
3 [
2
] f
2
3 2 3 1
3 [
2
]
2

2
f
2
3 1 6 1
4 [
3
] f
3
4 6 4 1
4 [[]] ff 4 1 8 3
4 [
2

2
]
2

2
f
2

2
4 2 12 1
4 [
2
]
2

3
f
3
4 1 24 1
Ahora bien, el desarrollo de Taylor de y(x) se obtiene a partir del de los diferentes k
i
, que
coinciden con la funcion f evaluada en los distintos puntos. Puesto que y

= f en realidad
este desarrollo se puede expresar tambien en terminos de los diferenciales elementales de f. Por
tanto, el siguiente paso es determinar los coecientes numericos de la combinaci on de diferenciales
elementales que permiten obtener las derivadas de y(h). Estos coecientes en principio no tienen
por que coincidir con los que ya se han obtenido al desarrollar directamente y(x). Comenzamos
por expresar formalmente el desarrollo de Taylor de y(h) entorno a x, (o equivalentemente
entorno a h = 0) del siguiente modo:
y(h) = y(0) + h
d
dh
y(h)

h=0
+
1
2
h
2
d
2
dh
2
y(h)

h=0
+
A continuaci on, adoptando la notaci on
a
s+1,i
:= b
i
, i = 1 . . . s
se introducen las funciones
i
, i = 1 . . . s + 1 cuyo dominio es el conjunto T de los distintos
(bajo isomorsmos) arboles con raz, y cuyo recorrido es el conjunto de los reales. Es decir, son
aplicaciones
i
: T R denidas de forma recursiva de acuerdo con las siguientes reglas:

i
() =
s

j=1
a
ij
= c
i
,
si t
1
, . . . , t
M
T, ([t
1
. . . t
M
]) =
s

j=1
a
ij

j
(t
1
)
j
(t
M
).
Si denotamos (t) :=
s+1
(t), t T, podemos enunciar el siguiente resultado:
Teorema 23. Para un metodo RK de s niveles cuyas ecuaciones se han descrito anteriormente
y que se aplica al caso general de un sistema y

= f(y) con y, f R
m
, la expresi on de las
derivadas de orden q 1 de y(h) viene dada por
d
q
dh
q
y(h)

h=0
=

r(t)=q
(t)(t)(t)F(t), t T,
donde F(t) son diferenciales elementales de f(y) que estan evaluados en y(x).
52 CAP

ITULO 4. M

ETODOS RUNGE-KUTTA
4.5. Orden de los metodos Runge-Kutta
4.5.1. Expresi on de metodos RK
h(x, h) = y(x + h) y(h) =
p

q=1
h
q
q!
_
y
(q)
(x)
d
q
dh
q
y(h)

h=0
_
+O(h
p+1
)
Para un metodo de orden p se cumple:
h(x, h) = O(h
(p+1)
) =
h
p+1
(p + 1)!
_
_

r(t)=p+1
(t)[1 (t)(t)]F(t)
_
_
+O(h
p+2
)
donde el PELD es:
PELD
n+1
=
h
p+1
(p + 1)!
_
_

r(t)=p+1
(t)[1 (t)(t)]F(t)
_
_
y F(t) son las derivadas de Frechet de f(y, x(t)). La expresi on anterior la hemos obtenido a
partir de:
y
(p+1)
(x) =

r(t)=p+1
(t)F(t);
d
p+1
dq
p+1
y(h)

h=0
=

r(t)=p+1
(t)(t)(t)F(t)
y F es una biyeccion entre derivadas de Frechet y diferenciales elementales.
Ejemplo 4.23. Determinar el PELD para RK explcito de 2 niveles y orden m aximo.
0 0
c
2
c
2
0
b
1
b
2
donde se cumplen las condiciones:
b
1
+ b
2
= 1
b
2
c
2
=
1
2
Los dos arboles que consideramos son: t
1
= [[]], t
2
= [
2
].
Para ellos se tiene:
F(t
1
) = f = f
(1)
(f
(1)
(f)) f
2
y
f (dimension 1)
F(t
2
) = f
2
= f
(2)
(f, f) f
yy
f
2
(dimension 1)
Ademas, (t
1
) = 6, (t
2
) = 3 y (t
1
) = (t
2
) = 1.
Por otro lado, para los metodos sabemos que:
(t
1
) = b
T
Ac (t
2
) = b
T
c
Si imponemos que sea de dos niveles y explcito, entonces:
(t
1
) = 0, (t
2
) = b
2
c
2
2
Por tanto el PELD = (1 3b
2
c
2
2
)f
(2)
(f, f)
4.5. ORDEN DE LOS M

ETODOS RUNGE-KUTTA 53
Teorema 24. Si un metodo RK es de orden p, entonces b
T
c
q1
=
1
q
, q = 1 p.
Demostracion. Consideremos el arbol con raz de orden q: [
q1
], que existe q 1. Para
q = 1 tenemos el arbol trivial.

i
([
q1
]) =

j
a
ij
[
j
()]
q1

i
([
q1
]) =

j
a
ij
c
q1
j
([
q1
] =

j
b
j
c
q1
j
La condici on de orden q ser a:
([
p+1
]) =
1
([
q1
])

s

j=1
b
j
c
q1
j
=
1
q
Teorema 25. Un RK explcito de s niveles tiene orden s.
Demostracion. Sea un RK de orden p y t = [
p1
]
p1
.
(t) = p (p 1) 2 1 = p!
(t) =
s

i=1
b
i

i
([
p2
]
p2
) =
=
s

i=1
b
i
s

j=1
a
ij
1

j
1
([
p3
]
p3
) =

i,j
1
,j
2
b
i
a
ij
1
a
j
1
j
2

j
2
([
p4
]
p4
) =
=

i,j
1
,j
2
...j
p2
b
i
a
ij
1
a
j
1
j
2
a
j
p3
j
p2

j
p2
()
donde
j
p2
= c
j
p2
.
Ademas, sabemos que para un metodo RK explcito a
ij
= 0 si j i. Se cumple tambien
(t) = 0 excepto si existe una secuencia de enteros i, j
1
, j
2
. . . j
p2
tal que i > j
1
> j
2
> >
j
p2
> 1 ().
Utilizando () nos queda j
p2
> 1 porque si j
p1
= 1 c
j
p2
= c
1
= 0.
De () se deduce que i p, y como i s entonces p s. Por tanto (t) ,= 0 si p s. Si
p > s (t) = 0 ,=
1
(t)
, con lo que llegamos a una contradicci on.
Teorema 26. Un metodo RK explcito de s niveles tienen orden p < s si s > 4.
4.5.2. Condicion suma-la
Al principio del captulo hemos visto que habitualmente exigamos la condici on suma-la, es
decir, que para un metodo de la famlia RK de s niveles se cumpliese que:
s

j=1
a
ij
= c
i
, i = 1 s
54 CAP

ITULO 4. M

ETODOS RUNGE-KUTTA
En esta secci on profundizaremos m as en la justicaci on de este hecho: estudiaremos dos ejemplos,
uno que cumple la condici on suma-la, y otro que no la cumple.
Llegaremos a la conclusion de que en general, la condici on suma-la permite alcanzar orden
mayor que 1 para el PCI y

= f(x, y(x)).
Ejemplo 4.24 (Cumpliendo la condici on suma-la). Sea el metodo denido por:
_
k
1
= f(x
n
, y
n
+
h
2
k
1
)
k
2
= f(x
n
+ h, y
n
+
h
2
k
1
)
De lo que se deriva que:
(x, h) =
y(x + h) y(x)
h

1
2
(

k
1
+

k
2
)

k
1
= f +
h
2
f
y

k
1
+
1
2
f
yy

k
1
2
2
h
2
+ O(h
3
) = f +
h
2
f
y
f +
h
2
4
(f
2
y
f +
1
2
f
yy
f) + O(h
3
)

k
2
= f + f
x
h + f
y
h
2

k
1
+ O(h
2
) = f + f
x
h + f
y
f
h
2
+ O(h
2
)
Por lo que, nos queda:
1
2
(

k
1
+

k
2
) = f +f
x
h
2
+ f
y
f
h
2
+ O(h
2
) = y(x) +
h
2
y
(2)
(x) + O(h
2
)
Es decir, tenemos (x, h) = O(h
2
). Desarrollando un orden m as, obtenemos la expresi on de
(x, h):
(x, h) =
h
2
6
y
(3)
(x)
h
2
4
(f
2
y
f +
1
2
f
yy
f)
h
2
4
(f
xx
+ f
xx
f) + O(h
3
)
Por lo que, sabiendo que la tercera derivada tiene la expresi on:
y
(3)
(x) = f
y
(f
x
+ f
y
f) + (f
xx
+ 2f
xy
f + f
yy
f
2
)
Podemos concluir que (x, y) tiene un coeciente de orden 3 no nulo, por lo que es orden 2
exacto.
Para generalizar este ejemplo, podemos considerar las deniciones ya conocidas del metodo
RK:
_

k
i
= f(x + c
i
h, y(x) + h

s
j=1
a
ij

k
j
)

k
i
= f(x, y(x)) +f
x
(c
i
h) + f
y
(h

s
j=1
a
ij
f) +O(h
3
)

k
i
= f + h(c
i
f
x
+ (

j
a
ij
)f
y
f) + O(h
2
)
Ejemplo 4.25 (Sin cumplir la condici on suma-la). Consideremos un metodo RK de un nivel,
en general, sin cumplir la condici on suma la.
_
k
1
= f(x + ch, y + chk
1
)
y
n+1
= y
n
+ hbk
1
_
(x, h) = (y

(x) bf) + h(f


x
(
1
2
b c) + f
y
f(
1
2
bc)) + O(h
2
)
Notemos que para alcanzar orden mayor que 1 se tienen que cumplir las dos condiciones siguien-
tes:
1
2
b c = 0,
1
2
bc = 0. (4.3)
Por ser b = 1 por motivos de convergencia, enconces la condici on a cumplir es que c ,= c para que
el orden sea mayor que 1. La conclusion del ejercicio es que la condici on suma la es necesaria
para obtener ordenes mayor que 1 con los metodo RK, y a su vez facilita la formulaci on de las
condiciones de orden.
4.5. ORDEN DE LOS M

ETODOS RUNGE-KUTTA 55
4.5.3. Formulacion de las condiciones de orden de los metodos RK
Reuniendo los resultados anteriores podemos regresar a la expresi on de la funcion (x, h) de
un metodo RK:
h(x, h) = y(x + h) y(x) h
f
(y(x), x, h) = y(x + h) y(h)
Para un metodo que sea de orden p al menos debe cumplirse
(x, h) = O(h
p
)
o lo que es equivalente,
y(x + h) y(h) = O(h
p+1
).
Por un lado se tiene
y(x + h) = y(x) + hy

(x) +
h
2
2
y
(2)
(x) + . . .
siendo
y
(q)
=

r(t)=q
(t)F(t), t T
con F(t) evaluado en y(x). Por otro lado se tiene:
y(h) = y(0) + h
d
dh
y(h)

h=0
+
1
2
h
2
d
2
dh
2
y(h)

h=0
+ . . .
siendo y(0) = y(x) y
d
q
dh
q
y(h)

h=0
=

r(t)=q
(t)(t)(t)F(t), t T,
con F(t) evaluado en y(x). As pues, es inmediato enunciar el siguiente resultado.
Teorema 27 (Condiciones de orden de los metodos RK). Un metodo RK tiene orden p al menos
si:
Para todo arbol con raz t T tal que r(t) p se verica la igualdad (t) = 1/(t).
Si ademas existe t T de orden p + 1 tal que (t) ,= 1/(t), entonces el metodo RK es de
orden p exactamente.
Por ultimo, cabe destacar algunos comentarios:
En la forma matricial, los coecientes del metodo RK se agrupan de la forma convencional
para construir la correspondiente matriz de Butcher. Las potencias del vector c representan
c
m
= [c
m
1
. . . c
m
s
]
T
, m 0, c
0
= [1 . . . 1]
T
.
La matriz D es de dimension s y se dene como D = diagc
1
. . . c
s
. Las potencias de las
matrices D y A se calculan mediante el producto matricial habitual.
Para que un metodo RK sea de orden 4 al menos deben vericarse un total de 8 condiciones.
Como ya se comento, el n umero de arboles con raz va creciendo con el orden. Puesto que
hay 9 arboles de orden 5, el total de condiciones que debe cumplir un RK para alcanzar
orden 5 al menos es igual a 8 + 9 = 17.
56 CAP

ITULO 4. M

ETODOS RUNGE-KUTTA
4.6. Metodos RK imbricados
Un metodo RK imbricado es un conjunto de dos metodos RK que comparten gran parte de
los coecientes. Los dos metodos tendran un orden distinto. Uno de ellos (el de menor orden)
servir a para obtener la soluci on numerica, y el otro (el de orden m as grande), lo utilizaremos
para aproximar el ELD cometido:
_
y
n
= y
n
(metodo 1)
ELD y
n
(metodo 1) y
n
(metodo 2)
Metodo 1 (explcito o semiimplcito) de orden p.
c A
b
T
de s niveles. Sirve para obtener soluciones numericas.
Metodo 2 (explcito o semiimplcito) de orden p + 1 y s niveles con s s
c

A

b
T
donde las s primeras componentes de c forman c y las s primeras las y columnas de

A
forman A.
Es decir, las k
i
, i = 1 s de los metodos 1 y 2 son iguales.
y
(1)
n+1
= y
(1)
n
+
s

i=1
b
i
k
i
y
(2)
n+1
= y
(2)
n
+
s

i=1

b
i
k
i
Si restamos ambas expresiones obtenemos:
y
(2)
n+1
y
(1)
n+1
= h
s

i=1
(

b
i
b
i
)k
i
, si y
(1)
n
= y
(2)
n
que nos da b
i
= 0 si i > s. Por otro lado,
y(x
n+1
) y
(1)
n+1
= h
(1)
(x, h) =
(1)
(y(x
n
))h
p+1
+O(h
p+2
)
y(x
n+1
) y
(2)
n+1
= h
(2)
(x, h) =
(2)
(y(x
n
))h
p+2
+O(h
p+2
)
donde y
(1)
n+1
, y
(2)
n+1
son las soluciones numericas obtenidas con los metodos 1 y 2, suponiendo
que y
(1)
n
= y
(2)
n
= y(x
n
).
En particular, se cumple que
y
(2)
n+1
y
(1)
n+1
=
(1)
(y(x
n
))h
p+1
+ O(h
p+2
)
PELD
n+1
=
(1)
(y(x
n
))h
p+1
y
(2)
n+1
y
(1)
n+1
= h
s

i=s+1
(

b
i
b
i
)k
i
4.7. PROBLEMAS 57
Comentario 4.26. Un metodo RK imbricado (p, p + 1) nos proporciona la soluci on numerica
mediante el metodo 1, y el PELD lo obtenemos gracias a la diferencia de soluciones de los
metodos 1 y 2. Por ello puede resultar interesante denotar los coecientes de ambos metodos
mediante la siguiente matriz de Butcher adaptada:
c

A
b
T

b
T
E
T
4.7. Problemas
Problema 47. De acuerdo con el enunciado, consideremos el siguiente predictor-corrector:
P : y
[0]
n+1
= y
n
+ hf
n
C : y
n+1
= y
n
+
h
2
(f
n
+ f
n+1
)
As, para la primera iteraci on
y
[1]
n+1
= y
n
+
h
2
_
f
n
+f(x
n
+ h, y
[0]
n+1
)
_
donde
f
n
= k
1
y
[0]
n+1
= y
n
+ hk
1
Observamos que el orden del predictor es 1, y el del corrector es 2. El orden del metodo predictor-
corrector se corresponde con el del corrector si 2 1 = 1. Al aplicar el metodo en modo
PECE obtenemos un metodo de tipo Runge-Kutta:
y
n+1
= y
n
+
h
2
(k
1
+ k
2
)
k
1
= f
n
k
2
= f(x
n
+ h, y
n
+ hk
1
)
La matriz de Butcher para este caso es
0 0 0
1 1 0
1/2 1/2
que es un metodo RK de orden 2.
Supongamos que aplicamos el metodo en el modo P(EC)
2
E. En este caso
y
[2]
n+1
= y
n
+
h
2
_
f
n
+ f(x
n
+ h, y
[1]
n+1
)
_
= y
n
+
h
2
(k
1
+ k
3
)
58 CAP

ITULO 4. M

ETODOS RUNGE-KUTTA
Los valores para las k
i
del RK correspondiente son:
k
1
= f
n
k
2
= f(x
n
+ h, y
n
+ hk
1
)
k
3
= f(x
n
+ h, y
n
+
h
2
k
1
+
h
2
k
2
)
La matriz de Butcher para = 2 es
0 0
1 1 0
1 1/2 1/2 0
1/2 0 1/2
Discutimos el orden seg un la matriz de Butcher:
1
2
+
1
2
= 1 orden 1
0 1 +
1
2
1 =
1
2
orden 2
0 1
2
+
1
2
1
2
=
1
2
,=
1
3
orden exactamente 2
Para un RK implcito de 3 niveles:
b
1
+ b
2
+ b
3
= 1 = b
T
c
0
donde
c
l
= [c
l
1
. . . c
l
s
]
T
, b
T
c =
1
2
c
0
= [1 . . . 1]
T
, b
T
c =
1
3
Intuimos que para terminos en h
q
aparece una condici on de orden
b
T
c
q1
=
1
q
As es. Una condici on necesaria para que un RK alcance orden p es
b
T
c
q1
, q = 1 p
No es una condici on suciente.
Problema 50. Consideremos un metodo con matriz de Butcher:
0 1/2 0
1 1/2 0
1/2 1/2
No podemos aplicar las condiciones de orden. Deberemos obtener el desarrollo de Taylor de
(x, h). Por otro lado, tampoco cumple la condici on suma-la.
4.7. PROBLEMAS 59
A partir de la matriz de Butcher sabemos que el metodo es
y
n+1
= y
n
+
h
2
k
1
+
h
2
k
2
donde
k
1
= f(x
n
, y
n
+
1
2
k
1
) (dem ejercicio 48)
k
2
= f(x
n
+ h, y
n
+
h
2
k
1
) (caso particular k
2
para un metodo explcito)
Problema 52. Se trata de un metodo de orden 3 en el caso general. Si tomamos y

= f(y) en
dimension 1 entonces tiene orden 4:
t = [[]]
t

= [[
2
]]
Observamos que el orden es 3 para el caso general puesto que no se cumplen las dos condiciones
de orden 4:
bAc
2
=
1
12
bDAc =
1
8
Hay dos terminos en potencia de h
3
del desarrollo de Taylor de (x, h) que no se anulan:
t f
(2)
(f, f
(1)
(f)) = f
yy
f(f
y
f) = f
yy
f
y
f
2
t

f
(1)
(f
(2)
(f, f)) = f
y
(f
yy
f f) = f
yy
f
y
f
2
y notamos que ambos terminos coinciden.
Podemos reescribir las condiciones de orden 4 del modo siguiente:
1 12bAc
2
= 0
1 8bDAc = 0
de modo que
(t

)[1 12bAc
2
] = 0
(t)[1 8bDAc] = 0
Con respecto a la funcion :
(x, h) =
y(x + h) y(x)
h

s

i=1
b
i

k
i
Para este metodo la (x, h) posee en h
3
esta expresi on:
(x, h) = (t

)[1 12bAc
2
]f
(1)
(f
(2)
(f, f))
h
3
4!
+ (t)[1 8bDAc]f
(2)
(f, f
(1)(f)
)
h
3
4!
+ O(h
4
)
donde la expresi on anterior se corresponde con PELD
n+1
/h del metodo.
60 CAP

ITULO 4. M

ETODOS RUNGE-KUTTA
(t) es el n umero de formas de etiquetar los vertices de t con 1, 2 . . . r(t)
r(t) es el orden de t bajo las siguientes condiciones:
1. Cada vertice (i, j) cumple i < j.
2. Las aristas (i, j) cumplen i < j.
3. Etiquetados automorfos cuentan como uno solo.
Por tanto, tenemos los siguientes arboles:
t

(1 2, 2 3, 2 4), (

t) = 1
t (1 2, 1 3, 3 4), (1 3, 1 2, 2 4), (1 4, 1 2, 2 3), (t) = 3
(t

)[1 12bAc
2
] + (t)[1 8bDAc] = 0,
(t

) = 1, bAc
2
= 0, (t) = 3, bDAc = 1/6
Y por tanto (x, h) = O(h
4
) para el caso escalar con un sistema aut onomo.
Problema. (problema 4 Extra 7Juliol2010.pdf) El metodo de orden 3 es explcito y su matriz
de Butcher es:
_
_
_
_
_
_
0
1/2 1/2
1/2 0 1/2
b
1
b
2
b
3
_
_
_
_
_
_
por lo que se trata de un metodo de 3 niveles.
_
_
_
b
1
+ b
2
+ b
3
= 1, orden 1
b
2
2
+
b
3
2
=
1
2
, orden 2
Por otro lado, las condiciones de orden 3 son:
b
2
4
+
b
3
4
=
1
3
que es incompatible con las dos anteriores, y por tanto no puede construirse el RK (3,4) imbri-
cado.
Problema. Consideremos el siguiente caso:
y

= f(y), f : R
m
R
m
Para la derivada tercera:
y
(3)
= f
2
+
2
f
2
Se obtienen los siguientes arboles de tercer orden:
4.7. PROBLEMAS 61
[
2
]
2
, (1-2,2-3), = 6
([
2
]
2
) =
3!
6 1
= 1
[
2
], (1-3,3-1), = 2
([
2
]) =
3!
3 2
= 1
Introducimos las funciones
i
y las condiciones de orden que se obtienen a partir de estas:
Orden 1:

i
() =
s

j=1
a
ij
= c
i
, i = 1 s
() =
s

i=1
b
i
() =
1
()

i
b
i
= 1
Orden 2: []

i
([]) =

j
a
ij

j
()

=

j
a
ij
c
j
() orden 1
([]) =

j
b
j

j
() =

j
b
j
c
j
([]) =
1
([])

j
b
j
c
j
=
1
2
Orden 3:
1. [
2
]

i
([
2
]) =

j
a
ij
(
j
())
2
=

j
a
ij
c
2
j
([
2
]) =

j
b
j
c
2
j
([
2
]) = 3

j
b
j
c
2
j
=
1
3
2. [
2
]
2

i
([
2
]
2
) =

j
a
ij

j
([]) =

j
a
ij

k
a
ij
c
k
([
2
]
2
) =

j
b
j

k
a
jk
c
k
([
2
]
2
) = 6

j
b
j

k
a
jk
c
k
=
1
6
62 CAP

ITULO 4. M

ETODOS RUNGE-KUTTA
Problema. En este problema primero hemos comprobado que el metodo tiene orden 3. Una
vez hecho el an alisis sobre un problema aut onomo y no aut onomo se descubre que el primero
tiene un comportamiento de orden 4.

Esto sucede debido a que:
y
n+1
= y
n
+ h(
k
1
6
+
2
3
k
2
+
k
4
6
)
Aplicado al PCIy
1
= y
0
+ h(. . .)
k
1
= y
0
= 1
k
2
= y
0
+
h
2
k
1
= 1 +
h
2
k
3
= 1 +
h
2
k
1

3h
2
k
2
= 1 h
3
4
h
2
k
4
= y
0
+
4
3
hk
2

1
3
hk
3
= 1 + h + h
2
+
h
3
4
Por lo que la soluci on numerica en el primer paso es:
y
1
= 1 + h +
h
2
2
+
h
3
6
+
h
4
24
Como la soluci on exacta es y(x) = e
x
, tenemos que:
y(h) y
1
= O(h
5
)
Por lo que el error general de discretizacion es que orden 4. Para el caso y

= xy vamos a obtener
y(h) y
1
= O(h
4
), por lo que el EGD es de orden 3, un orden inferior como queramos ver. No
entramos en calculos detallados.
Problema. Veamos ahora que los metodos RK no explcitos tienen zonas de estabilidad no
acotadas, contrariamente a los explcitos. Tenamos:
R(

h) = 1 +

hb
T
(I
s

hA)
1
e
Adj(I
s

hA) sus coef son funciones polinomicas de



h de grado s 1.
Si el metodo no es explcito det(I
s

hA) ,= 1 el det es un polinomio en



h de grado s. es
una funcion racional en

h.
R(

h) =
p(

h)
q(

h)
Donde p, q son polinomios de grado s.
Problema 45. Comprobamos las condiciones de orden y obtenemos:
1
10
+
1
2
+
2
5
= 1 orden 1
b
T
c =
1
2
orden 2
4.7. PROBLEMAS 63
Veamos ahora si cumple las condiciones de orden 3:
(t
1
) = 1 = (t
2
) (4.4)
(t
1
) = 6 (t
2
) = 3 (4.5)
b
T
Ac =
1
6
cond de orden 3 b
3
a
32
c
2
=
1
6
(4.6)
(t
2
) =
s

i=1
b
i
c
2
i
(4.7)
b
T
c
2
=
1
3
Condicion de orden 3 (4.8)
Cumple la condici on de orden 3 y 3 niveles y explcito. Rightarrow Orden 3 exacto.
Veamos ahora el termino principal del error:
PELD =
h
4
4!

r(t)=4
(t)(1 (t)(t))F(t)
F biyeccion arboles con raz y diferenciales elementales. Ahora haciendo calculos tenemos ya
que:
PELD =
h
4
4!
f
(1
(f
(1)
(f
(1)
(f)))) + . . .
Falta pues calcular la contribucion de los otros tres arboles: Para t
2
, collita propia:
(t
2
) = 2
(t
2
) = 4!
(t
2
)
64 CAP

ITULO 4. M

ETODOS RUNGE-KUTTA
Captulo 5
Introduccion a los Metodos para
Sistemas Rgidos
En este captulo presentaremos un tipo concreto de problema, caracterizado por las dicul-
tades con a nadidas con las que nos encontramos a la hora de resolverlo. El grueso del captulo
se encuentra en el chero de Atenea stiness.pdf.
5.0.1. Determinacion de metodos A-estables
Para resolver sistemas sti utilizaremos los siguientes metodos:
Metodos implcitos.
De un paso.
Es necesario que sean A
0
-estables, aunque tambien es deseable que sean A-estables.
Utilizaremos metodos de un paso (RK o lineales).
Los aplicaremos al problema y = y, cuya soluci on numerica cumple y
n+1
= R(

h)y
n
Para un metodo RK: R(

h) = 1 +

hb
T
(I
s

hA)
1
e, que es de s niveles.
Para un metodo Lineal: R(

h) =
1+
0

h
1
1

h
, con y
n+1
y
n
= h(
1
f
n+1
+
0
f
n
).
Son metodos implcitos, R(

h) es una funcion racional.


y

= y y(x) = Ke
(
x)
y(x
n+1
) = y(x
n
+ h) = e
(
h) y(x
n
)
Si el metodo es de orden p entonces:
y(x
n+1
) y
n+1
= [exp(

h) R(

h)]y(x
n
) = O(h
p+1
)
R(

h) = exp(

h) + O(h
p+1
)
65
66 CAP

ITULO 5. INTRODUCCI

ON A LOS M

ETODOS PARA SISTEMAS R

IGIDOS
Denicion 5.1. Sea R
S
T
(q) funcion racional, donde S es el grado del polinomio del numerador
y T es el grado del polinimio del denominador. Se dice que R
S
T
(q), q C es una aproximacion
racional de orden p de la exponencial si y solo si
R
S
T
(q) = exp(q) +O(q
p+1
)
Teorema 28. Un metodo de un paso de orden p posee una funcion de estabilidad absoluta que
es una aproximaci on racional de orden p de exp(

h),

h = h.
Sea
R
S
T
(q) =

S
i=0
a
i
q
i

T
i=0
b
i
q
i
Teorema 29. R
S
T
es una aproximaci on racional de orden p de exp(q) si y solo si:
1 + a
1
q + . . . + a
S
q
S
(1 + b
1
q + . . . + b
T
q
T
)(1 + q +
q
2
2
+ . . .) = O(q
p+1
)
Teorema 30. El maximo orden de una aproximaci on racional R
S
T
es S + T. La aproximaci on
racional R
S
T
de maximo orden posible es unica y se denomina aproximaci on de Pade de e
q
. Se
denota

R
S
T
.
Denicion 5.2. Una aproximacion racional R
S
T
se denomina:
A-aceptable si q C, Re(q) < 0 [R
S
T
(q)[ < 1.
A
0
-aceptable si q R, q < 0 [R
S
T
(q)[ < 1.
L-aceptable si es A-aceptable y [R
S
T
[ 0 si Re(q) .
Comentario 5.3. Si R
S
T
es una funcion de estabilidad absoluta de un metodo de un paso
entonces:
A-aceptable metodo A-estable.
A
0
-aceptable metodo A
0
-estable.
L-aceptable metodo L-estable.
Resultados sobre aceptabilidad de funciones racionales
1. La aproximacion de Pade

R
S
T
es A-aceptable T 2 S T
2. Si S = T 2 o bien S = T 1 entonces

R
S
T
es L-aceptable.
3. R
S
T
(q) es A-aceptable y T > S R
S
T
(q) es L-aceptable.
4. R
S
T
(q) con S > T no puede ser A-aceptable.
5. Si

R
S
T
es la aproximacion de Pade y T S entonces

R
S
T
(q) es A
0
-aceptable.
Captulo 6
Problemas de Condiciones de
Frontera
6.1. Caso general: PCF
Sea y

= f(x, y) R
m
. Se busca la soluci on y(x) tal que r
_
y(a), y(b)
_
= 0, donde se tiene que
r : R
m
R
m
R
m
es una funcion que se anular a si nuestra soluci on cumple con las condiciones
de frontera.
Es decir, si exigimos que y
exacta
(a) = y
1
, y
exacta
(b) = y
2
, entonces nuestra funcion r podra
ser:
r(y(a), y(b)) = (y(a) y
1
)
2
+ (y(b) y
2
)
2
.
Hay que tener en cuenta que el Problema de Condiciones Frontera:
Puede no tener soluci on, o
puede admitir m as de una soluci on.
Condiciones de Frontera Separables
Son casos en los que tenemos: r
1
(y(a)) = 0, y r
2
(y(b)) = 0, donde r
1
, r
2
: R
m
R
m
.
Ejemplo 6.1 (Condiciones de Frontera Separables).
r
1
(y(a)) = y(a) , r
2
(y(b)) = y(b)
6.1.1. Problemas de valores singulares (eigenvalue problems)
Sea y

= f(x, y; ), con r
_
y(a), y(b);
_
= 0, donde r : R
m
R
m
R R
m+1
.
El problema consiste en determinar los valores de (valores singulares) para los cuales
existe una soluci on y(x). Denimos para y(x) R
m
,
m+1
y(x) = ,
m+1
y

(x) = 0 los siguientes


vectores:
y =
_
1
y, . . . ,
m
y,
m+1
y
_
t

f =
_
f, 0
_
t
y =

f(x, y)
67
68 CAP

ITULO 6. PROBLEMAS DE CONDICIONES DE FRONTERA


6.1.2. Problema de la frontera libre
El problema en este caso consiste en determinar R tal que la soluci on y(x) de y

(x) =
f(x, y) cumpla que r
_
y(a), y()
_
= 0.
Ejemplo 6.2.
x = a + t( a) = a + tz
m+1
, 0 t 1
dz
m+1
dt
=

z
m+1
= 0
z(t) = y(a +tz
m+1
)
Denimos el vector z(t) = [ z, z
m+1
(t)]
t
, con lo que tenemos que:
d z(t)
dt
=

z = z
m+1
y

(a + tz
m+1
) = z
m+1
f(x, y)

z =

f(t, z);

f = [z
m+1
f(x, y), 0]
t
Por tanto, r
_
y(a), y()
_
= 0 r( z) = 0, donde se tiene que cumplir que z(1) = 0.
6.2. Metodo del tiro simple
Ejemplo 6.3. Tenemos la ecuacion:
yy

= 1 y
2
, y(0) = 1, y(1) = 2
Para transformarlo en un sistema de primer orden, operamos de la siguiente manera:
y

=
1 y
2
y

_
y
y

_
= z R
2
De donde nos queda el sistema en z:
_
z
1
z
2
_

= z

= f(z) =
_
y
y

_
=
_
z
2
1z
2
2
z
1
_
Tenemos la condicion inicial y(0) = 1, y tambien nos exigen que y(1) = 2. Para resolverlo,
buscaremos la condici on que debe cumplir y

(0) para que la segunda restriccion sea cierta (o,


por lo menos, obtener una aproximacion sucientemente buena).
En nuestro caso, la soluci on que obtenemos es y

(0) = 5, es decir,
z(0) =
_
1
5
_
Para obtener este valor en la pr actica (el valor que debe cumplir y

(0)), podemos utilizar el


metodo del tiro simple. Este consiste en:
Plantear una ecuaci on no lineal cuya raiz nos dar a la soluci on: Sea y(1, s) el valor de y(1)
dada la condici on y

(0) = s. Entonces, en nuestro caso particular la ecuaci on no lineal a


minimizar ser a F(s) = y(1, s) 2 0. Habra que dar una tolerancia .
6.2. M

ETODO DEL TIRO SIMPLE 69


Resolver la ecuaci on no lineal: hay que minimizar una funcion, teniendo en cuenta que cada
punto en que evaluemos la funcion F(1, s) se obtendra resolviendo una ecuaci on diferencial
concreta (es decir, probablemente aplicando uno de los metodos estudiados anteriormente).
Se puede aplicar, por ejemplo, el metodo de la secante para aproximar el cero de F.
Si tenemos un PCF de la forma: y

= f(x, y), r
_
y(a), y(b)
_
= 0, y queremos encontrar una
soluci on de la ecuaci on, podemos utilizar el metodo del tiro simple si f cumple la condici on de
Lipschitz (ya que esto asegura que existira una soluci on y(x; s)).
Sea s R
m
. Consideramos el PCI:
y

= f(x, y), y(a) = s.


Entonces, obtenemos una soluci on numerica aproximada en x
n
que es y(x
n
; s) para n = 0, 1, . . . N, x
0
=
a, x
N
= n.
Nuestro objetivo es buscar una soluci on numerica tal que:
r
_
y(a), y(b)
_
= r
_
s, y(x
N
; s)
_
= 0
Esto es equivalente a hallar la soluci on s R
m
de una ecuaci on F(s) = r
_
s, y(x
n
; s)
_
= 0,
donde F(s) en general es no lineal y no se puede calcular analticamente debido a que depende
de y(x
n
; s).
Aplicando el metodo de Newton a F(s) = 0 (metodo para encontrar ceros de funciones), se
tiene:
J
F
(s
[0]
)

s
[0]
= F(s
[]
)
Donde J
F
es la matriz jacobiana de F respecto a s y = 0, 1, . . .. Se tiene que:

s
[]
= s
[+1]
s
[]
Cada iteraci on del metodo requiere:
1. Calcular F(s
[]
). Por tanto, tambien necesitamos calcular y(x
N
, s
[]
), y, por tanto, necesi-
tamos la soluci on numerica aproximada de y

= f(x, y), y(a) = s


[]
.
2. Calcular J
F
(s
[]
). Este es el paso m as costoso.
3. Resolver el sistema lineal J
F
(S
[0]
)

s
[0]
= F(s
[]
).
Observemos que en el caso m = 1, tenemos que J
F
(s) =
dF(s)
ds

F(s)
s
, con lo que obtener
la jacobiana no es demasiado costoso. Esto no es as en general para dimensiones superiores.
6.2.1. Limitaciones del metodo de tiro simple
Una precision elevada en la soluci on de F(s) = 0 no implica que |y(x
N
; s)y(b; s)| = EGD
N
sea lo sucientemente peque na.
Teorema 31. Sea y

= f(x, y), y(a) = s. Sean s


1
, s
2
dos condiciones iniciales posibles para
las cuales f es Lipschitz. Entonces,
|y(x
N
; s
1
) y(x
N
; s
2
)| |s
1
s
2
|e
L|xna|
Donde L es l constante de Lipschitz de f.
70 CAP

ITULO 6. PROBLEMAS DE CONDICIONES DE FRONTERA


Supongamos ahora que aplicamos el metodo del tiro simple a un problema en el que el
intervalo de integraci on es muy grande, y con una funcion suave (esto es, con un buen com-
portamiento). Por ejemplo, tomemos b a = 100, L 1.
Sea s tal que y(x; s) es la soluci on exacta del PCF. Entonces,
EGD
n
= |y(x
N
; s) y(x
N
; s)| | s s|e
L|xna|
Si al resolver F(s) = 0 la soluci on se obtiene para s = s + , entonces:
| s s| = , L 1, [x
n
a[ 100 EGD
n
e
100
10
3
Con lo que obtenemos una cota del error excesivamente grande.
Para evitar este problema, se subdivide el intervalo en trozos, y se aplica el metodo del tiro
libre en cada uno de ellos. Esta soluci on es conocida como el metodo del tiro m ultiple.
6.3. Metodo del tiro m ultiple o tiro paralelo
Tenemos el problema:
_
y

= f(x, y)
r
_
y(a), y(b)
_
= 0 [a, b] R
Consideremos una partici on: a = x
1
< x
2
< . . . < x
N
= b Ahora, dados s
1
, s
2
, . . . , s
N
,
calculamos la soluci on numerica de:
_

_
y

= f(x, y) y(x
1
) = y(a) = s
1
[x
1
, x
2
]
y

= f(x, y) y(x
2
) = s
2
[x
2
, x
3
]
.
.
.
y

= f(x, y) y(x
N1
) = s
N1
[x
N1
, x
N
]
En general, consideramos N 1 PCI:
y

= f(x, y) y(x
k
) = s
k
[x
k
, x
k+1
], k = 1, . . . , N 1
La idea consiste en ir ajustando los valores s
1
, s
2
, . . . , s
N
, de tal manera que se minimice
una cierta funcion de error F(s
1
, . . . , s
N
). Esta funcion ser a mnima cuando los N 1 PCI
cumplan la restriccion en la frontera, es decir, cuando
y

= f(x, y) y(x
k
) = s
k
[x
k
, x
k+1
] s
k+1
= y(x
k+1
), k = 1, . . . , N 1
Notemos que en este momento, la soluci on encajara, es decir, ser a contnua, y se cumplira
el PCF requerido.
Para Y, f, r con recorrido R
n
, s
i
R
m
i = 1, . . . , N, la expresi on vectorial del problema
ser a:
F(s) =
_

_
F
1
(s
1
, s
2
)
F
2
(s
2
, s
3
)
.
.
.
F
N1
(s
N1
, s
N
)
F
N
(s
1
, s
N
)
_

_
= 0
6.3. M

ETODO DEL TIRO M

ULTIPLE O TIRO PARALELO 71


Las componentes se denen como:
F
i
(s
i
, s
i+1
) = y(x
i+1
; x
i
, s
i
) s
i+1
i = i, . . . , N 1
F
N
(s
1
, s
N
) = r(s
1
, s
N
) = r
_
y(a), y(b)
_
F
i
son funciones con recorrido en R
m
. F : R
mN
R
mN
s = [s
T
1
, . . . , s
T
N
]
T
R
mN
Utilizando el metodo de Newton para resolver F(s) = 0. Obtendremos la soluci on iterando
la aproximacion con la siguiente formula:
J
F
(s
[]
)

s =
_

_
F
[]
1
.
.
.
F
[]
N
(s
1
, s
N
)
_

_ = 0, 1 . . .

s =
_

s
1
.
.
.

s
N
_

_ = s
[+1]
s
[]
Para k = 1, . . . , N 1 se tiene que:
F
k
s
k
=
y(x
k+1
; x
k
, s
k
)
s
k
=
y(x
k+1
; x
k
, s
k
+ s
k
) y(x
k+1
; x
k
, s
k
)
s
k
= G
k
/
mm
F
k
s
k+1
= I
m
k = 1, . . . , N 1
F
N
S
N
=
r(s
1
, s
N
)
s
N
= B /
mm
F
N
s
1
=
r(s
1
, s
N
)
s
1
= A /
mm
Tenemos, que la matriz J
f
(s) acabar a siendo de la forma:
J
F
(s) =
_

_
G
1
I
m
0 . . . 0
0 G
2
I
m
. . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . G
N1
I
m
A 0 . . . 0 B
_

_
s
[]
= J
F
(s)
_

s
1
.
.
.

s
N
_

_ =
_

_
F
1
.
.
.
F
N
_

_
_

_
G
1

s
1


s
2
= F
1
G
2

s
2


s
3
= F
2
.
.
.
G
N1

s
N1


s
N
= F
N1
A

s
1
+B

s
N
= F
N
72 CAP

ITULO 6. PROBLEMAS DE CONDICIONES DE FRONTERA


De donde nalmente obtenemos las ecuaciones a resolver:
_

s
2
= G
1

s
1
+F
1

s
3
= G
2

s
2
+F
2
.
.
.

s
N
= G
N1

s
N1
+ F
N1
A

s
1
+ B

s
N
= F
N
Problema. Tenemos el problema:
y

= f(x, y) = q(x)y g(x)


y(a) = y(b) =
El metodo es el siguiente:
y
n+1
2y
n
+ y
n1
= h
2
f
n
x
n
= a + hn n = 0, 1 . . . N + 1
y
n+1
2y
n
+ y
n1
= h
2
(q(x
n
)y
n
g(x
n
)) n = 1 . . . N
A partir de aqu, las ecuaciones que aparecen son:
y
2
(2 + h
2
q(x
1
))y
1
+ y
0
= g(x
1
)h
2
y
3
(2 + h
2
q(x
2
))y
2
+ y
0
= g(x
2
)h
2
.
.
.
Esto se puede resumir en la matriz A tal que Av = w:
A =
_
_
_
_
_
_
_
_
2 + q
1
h
2
1 0 . . . 0
1 2 + q
2
h
2
1 . . . 0
0 1
.
.
.
.
.
.
.
.
. 1
0 1 2 + q
N
h
2
_
_
_
_
_
_
_
_

Вам также может понравиться