Академический Документы
Профессиональный Документы
Культура Документы
Indice general
1. Introducci on 5
2. Problemas de Condiciones Iniciales 7
2.1. Metodo de k pasos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.1.1. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2. Errores, Convergencia, Consistencia y Orden . . . . . . . . . . . . . . . . . . . . 8
2.3. Ecuaciones Lineales en Diferencias (EDLin) . . . . . . . . . . . . . . . . . . . . . 13
2.3.1. Introducci on a las EDLin . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.3.2. Algunos resultados sobre EDLin . . . . . . . . . . . . . . . . . . . . . . . 14
2.4. Estabilidad y Condiciones de Convergencia . . . . . . . . . . . . . . . . . . . . . 18
2.5. Teora de Estabilidad Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3. Metodos Lineales Multipaso 23
3.1. Metodos Lineales Multipaso y Teorema de Dahlquist . . . . . . . . . . . . . . . . 23
3.1.1. Estabilidad Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.2. Metodos Implcitos y Predictor-Corrector . . . . . . . . . . . . . . . . . . . . . . 25
3.3. Criterio de Routh-Hurwitz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.4. Estimacion del ELD para metodos de 1 paso . . . . . . . . . . . . . . . . . . . . 27
3.5. Estimacion del ELD con metodos Predictor-Corrector . . . . . . . . . . . . . . . 29
3.6. Estabilidad lineal para metodos P-C . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.7. Construccion de MLM por Interpolacion . . . . . . . . . . . . . . . . . . . . . . . 33
3.7.1. Metodos Adams-Bashfort de k pasos . . . . . . . . . . . . . . . . . . . . . 34
3.7.2. Metodos Adams-Moulton de k pasos . . . . . . . . . . . . . . . . . . . . . 35
4. Metodos Runge-Kutta 37
4.1. Formulaci on del metodo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.2. Convergencia de metodos RK . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.2.1. Error local de discretizacion . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.2.2. Metodos implcitos y semi-implcito . . . . . . . . . . . . . . . . . . . . . 39
4.2.3. Regi on de estabilidad absoluta . . . . . . . . . . . . . . . . . . . . . . . . 39
4.3. Introducci on al estudio del orden de los metodos RK . . . . . . . . . . . . . . . . 40
4.3.1. Orden de un RK explcito de 3 niveles para un PVI escalar . . . . . . . . 40
4.3.2. Algunos resultados generales . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.4. Herramientas para el estudio del orden de los metodos RK . . . . . . . . . . . . . 42
4.4.1. Caso y
= f(y) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.4.2. La M-esima derivada de Frechet . . . . . . . . . . . . . . . . . . . . . . . 43
4.4.3. Derivadas de Frechet de primer y segundo orden . . . . . . . . . . . . . . 44
3
4
INDICE GENERAL
4.4.4. Diferenciales elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.4.5.
Arboles con raz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.4.6. Funciones denidas sobre arboles con raz . . . . . . . . . . . . . . . . . . 49
4.5. Orden de los metodos Runge-Kutta . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.5.1. Expresion de metodos RK . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.5.2. Condicion suma-la . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.5.3. Formulaci on de las condiciones de orden de los metodos RK . . . . . . . . 55
4.6. Metodos RK imbricados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.7. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5. Introducci on a los Metodos para Sistemas Rgidos 65
5.0.1. Determinaci on de metodos A-estables . . . . . . . . . . . . . . . . . . . . 65
6. Problemas de Condiciones de Frontera 67
6.1. Caso general: PCF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
6.1.1. Problemas de valores singulares (eigenvalue problems) . . . . . . . . . . 67
6.1.2. Problema de la frontera libre . . . . . . . . . . . . . . . . . . . . . . . . . 68
6.2. Metodo del tiro simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
6.2.1. Limitaciones del metodo de tiro simple . . . . . . . . . . . . . . . . . . . . 69
6.3. Metodo del tiro m ultiple o tiro paralelo . . . . . . . . . . . . . . . . . . . . . . . 70
Captulo 1
Introduccion
En este captulo presentamos muy brevemente algunos de los temas que iremos desarrollando
a lo largo del curso. Introducimos tanto problemas como metodos para poder resolverlos.
El Problema de Valor Inicial
_
y
= f(x, y)
y(a) =
nos lo encontramos frecuentemente. Dicho problema es resoluble analticamente en contadas
ocasiones. Es por tanto esperable que se hayan investigado diversas tecnicas numericas para
abordarlo. Nuestro objetivo ser a obtener una soluci on numerica aproximada en el intervalo
[a, b].
Procederemos a discretizar el problema en el intervalo que queremos la soluci on:
x
n
= x
0
+ nh donde x
0
= a
Aqu h se conoce como paso y n = 0, 1 . . . , N. De esta forma observamos que N =
ba
h
y x
N
= b.
Mediante la aplicaci on de alg un metodo pasaremos de (x
n
, y
n
) a (x
n+1
, y
n+1
). Habitualmente
supondremos y
n
y(x
n
), donde y(x
n
) es la soluci on exacta del PVI en el punto x
n
. Una vez
realizadas todas las iteraciones habremos obtenido un conjunto y
n
: n = 0, 1 . . . , N, que es el
que nos da la informaci on sobre la funcion soluci on del PVI inicial.
Los metodos que estudiaremos se nos presentan en forma de formulas recurrentes. Estas
formulas pueden ser explcitas, cuando en ellas no aparece la imagen por alguna funcion de
un punto desconocido o, en caso contrario, implcitas, cuando se involucra la imagen por una
funcion de alg un punto que todava tenemos que determinar.
Ejemplo 1.1. Supongamos que tenemos y
ITULO 1. INTRODUCCI
ON
Implcito:
y
n+1
y
n
h
f(x
n+1
, y
n+1
)
y
n+1
= y
n
+hf
n+1
, donde f
n+1
= f(x
n+1
, y
n+1
)
Es corriente que los metodos implcitos presenten una serie de ventajas frente a los explcitos
(si no fuera as no habra motivo aparente para utilizarlos, puesto que con uno explcito la
resolucion del problema es m as simple):
Mayor orden de convergencia.
(x
n+1
, y
n+1
)
Ejemplo 1.2. Metodo de dos pasos.
y
n+2
y
n
2h
f(x
n+1
, y
n+1
) = y
n+2
= y
n
+ 2hf
n+1
En este caso se requieren dos valores iniciales: (x
0
, y
0
), (x
1
, y
1
).
Estudiaremos tambien un tipo distinto de metodos: los que pertenecen a la familia de los
metodos Runge-Kutta. Estos se caracterizan por evaluar la funcion f(x, y) en puntos diferentes
a los x
n
, n = 0, . . . , N.
Ejemplo 1.3. Metodo Runge-Kutta (un paso)
y
n+1
= y
n
+
h
2
[f(x
n
, y
n
) +f(x
n
+ h, y
n
+ hf(x
n
, y
n
))]
Ejemplo 1.4. Metodo de Heun de orden 2 (un paso)
k
1
= f(x
n
, y
n
) = f
n
k
2
= f(x
n+1
, y
n
+ hk
1
)
y
n+1
= y
n
+ h
_
k
1
+ k
2
2
_
_
_
Tambien se conoce como Runge-Kutta de dos niveles explcito.
Captulo 2
Problemas de Condiciones Iniciales
Consideremos el PVI
_
y
= f(x, y)
y(a) =
en x [a, b]. Queremos obtener una soluci on aproximada
de dicho problema mediante un metodo numerico.
Los metodos que consideraremos son los denominados de discretizacion o de variable discreta.
Como hemos descrito brevemente en la introducci on, estos metodos se basan en aproximar la
funcion soluci on en N puntos.
2.1. Metodo de k pasos
Supongamos que tenemos y
n
, y
n+1
. . . y
n+k1
. En este caso nos interesara conocer el valor
aproximado de y
n+k
. Para ello utilizaremos un algoritmo de la siguiente forma:
k
j=0
j
y
n+j
= h
f
(y
n+k
. . . y
n
, x
n
; h)
donde h es el paso y k el n umero de pasos del metodo. Habitualmente supondremos que
y
j
y(x
j
), siendo y
j
el valor aproximado de la soluci on que hemos obtenido en la iteraci on
anterior y y(x
j
) el valor exacto de tal soluci on. Asimismo, notemos que x
j
= x
0
+jh, de forma
que x
0
= a y x
N
= b.
Los valores
j
son los pesos especcos que cada metodo en particular asigna a los valores
anteriores para obtener y
n+k
. Ocurre lo mismo con la funcion de iteraci on : esta funcion
vara seg un el metodo, y como la notaci on indica, depende de f y de los puntos anteriores que
conocemos.
2.1.1. Ejemplos
Acabamos de introducir los metodos de discretizacion en general. Para comprender mejor
como funcionan veamos algunos ejemplos de los algoritmos m as conocidos y utilizados.
Metodo de Euler
Es el m as simple de todos: consiste en tomar
f
= f(x
n
, y
n
). Observamos que se trata
de un metodo de un solo paso, con las ventajas de complejidad para la implementacion que
7
8 CAP
f
=
k
j=1
j
f
n+j
. Aplicando la expresi on general que hemos presentado al inicio del captulo
tenemos que:
k
j=1
j
y
n+j
= h[
k
j=1
j
f
n+j
]
con
j
,
j
R,
k
= 1 y [
0
[ + [
0
[ , = 0. Cabe destacar que dependiendo del valor de
k
nos
encontraremos frente a un metodo explcito (
k
= 0) o implcito (
k
,= 0).
Denicion 2.1. Consideremos un metodo dado por la expresi on
k
j=1
j
y
n+j
= h
k
j=1
j
f
n+j
,
con
k
= 1. Entonces, su polinomio caracterstico es:
(r) =
k
j=0
j
r
j
Esta denicion nos permite denotar unvocamente un metodo por la pareja (r),
f
.
2.2. Errores, Convergencia, Consistencia y Orden
Para poder comprender como funcionan los metodos numericos es conveniente analizar las
diversas formas de error que estos inducen. Esto motiva las deniciones siguientes.
Denicion 2.2. Funcion tau del metodo
(x, h) = h
1
k
j=0
j
y(x + jh)
f
(y(x + kh) . . . y(x), x; h)
Si tomamos x
n
[a, b], x
n+j
= x
n
+ jh entonces en x
n
nos queda:
(x
n
, h) = h
1
k
j=0
j
y(x
n+j
)
f
(y(x
n+k
) . . . y(x
n
), x
n
; h)
1
En breve deniremos el concepto de orden de convergencia.
2.2. ERRORES, CONVERGENCIA, CONSISTENCIA Y ORDEN 9
Denicion 2.3. El error local de discretizacion (ELD) es el error que resulta de aplicar el meto-
do por primera vez, partiendo de la soluci on exacta. Veamos que est a ntimamente relacionado
con la funcion tau:
ELD
n+1
= y(x
n+k
) y
n+k
= h(x
n
, h)
y
n+k
=
k1
j=0
j
y(x
n+j
) + h
f
(y(x
n+k
) . . . y(x
n
), x
n
; h)
En este calculo hemos supuesto que los valores calculados para puntos anteriores son exactos,
como ya hemos indicado.
Denicion 2.4. El error global de discretizacion (EGD) en x
n+k
para una soluci on numerica
y
n
: n = 0 . . . N =
ba
h
es e
n+k
= y(x
n+k
) y
n+k
. Notemos que se diferencia de la ELD por
estar la soluci on calculada a partir de los valores anteriormente hallados por el metodo.
Denicion 2.5. El error global de discretizacion (EGD) de la soluci on num`erica y
n
: n =
0 . . . N =
ba
h
se calcula a partir de m ax
0nN
|y(x
n
) y
n
|.
Ejemplo 2.6. Analisis del metodo y
n+1
= y
n
+ hf(x
n
, y
n
).
Consideremos el ELD asociado al metodo:
h(x, h) = y(x
n
+ h) y
n
hf(x
n
, y(x
n
))
Aplicando la aproximacion de Taylor de orden 2 sobre y(x
n
+ h) y suponiendola (
[a, b] nos
queda:
h(x
n
, h) =
h
2
2
y
(x
n
) + O(h
3
)
y(x
n+1
) y
n+1
= h(x
n
, h) = y(x
n+1
) y(x
n
) hf(x
n
, y(x
n
))
Respecto al error global, que podemos decir de y(x
n+1
) y
n+1
?
e
1
= y(x
1
) y
1
()
=
h
2
2
y
(x
0
) + O(h
3
)
e
2
= y(x
2
) y
2
= [y(x
1
) + hf(x
1
, y(x
1
)) + h(x
1
, h)] [y
1
+ hf(x
1
, y
1
)] =
= [y(x
1
) y
1
. .
e
1
] + h[f(x
1
, y(x
1
)) f(x
1
, y
1
)
. .
e
1
fy(x
1
,y
1
)+O(e
1
)
+(x
1
, h)] =
= e
1
+
h
2
2
y
(x
1
) + O(h
3
)
()
= 2
_
h
2
2
y
(x
0
)
_
+ O(h
3
)
donde hemos aplicado:
() y(x
0
) = y(a) =
() aplicando Taylor entorno a x
0
Para obtener el error global en la enesima iteraci on se aplica induccion: suponemos que en
e
n
= n
_
h
2
2
y
(x
0
)
_
+ O(h
3
) y se deduce que e
n+1
= (n + 1)
_
h
2
2
y
(x
0
)
_
+ O(h
3
).
Recordemos que x
n+1
= x
0
+ (n + 1)h n + 1 =
x
n+1
a
h
. Por tanto,
e
n+1
= h
_
x
n+1
a
2
y
(x
0
)
_
+ O(h
2
)
10 CAP
= f(x, y(x))
y(a) =
_
donde f cumple la condici on Lipschitz para la existencia y unicidad de soluciones.
Los metodos de la forma (r),
f
, donde
k
= 1 y y
i
=
i
(h) para i = 0 k 1 son los
valores iniciales.
k
j=1
j
y
n+j
= h
f
(y
n+k
. . . y
n
, x; h)
El error global de discretizacion asociado al metodo: EGD = m ax
0nN
|y(x
n
) y
n
|.
Denicion 2.7. Un metodo es convergente si para todo problema se cumple que EGD
h0
0
Denicion 2.8. (Alternativa) Un metodo es convergente si para todo problema y toda soluci on
numerica y
n
, n = 0 N, N =
ba
h
tal que lm
h0
i
(h) = y(x
0
) se cumple que n lm
h0
y
n
= y(x
n
)
con x = a + nh jado.
La funcion del metodo induce la denicion de otra funcion ntimamente relacionada con la
consistencia del metodo que estemos analizando:
(h) = m ax
x[a,bkh]
(x, h) = m ax
x[a,bkh]
h
1
k
j=0
j
y(x + jh)
f
(y(x + kh) . . . y(x), x; h)
Denicion 2.9. Un metodo es consistente con el sistema y
j=0
j
= (1) = 0
2.
f
(y(x), . . . , x; 0) =
(
j
)
() Por el TVM, y
(
j
) = [
1
y
(
1j
) . . .
m
y
(
mj
)]
T
,
tj
[x, x + jh], t = 1 m
o
Aplicamos este resultado a la funcion tau:
(x, h) = h
1
_
_
k
j=0
j
_
_
y(x) + h
1
_
_
k
j=0
j
j
h y
(
j
)
_
_
f
(y(x + kh), . . . y(x), x; h)
Ahora, notemos que el lmite cuando h 0 converge uniformemente (por el teorema anterior).
Por tanto,
lm
h0
(x, h) =
k
j=1
(
j
j)y
(x)
f
(y(x) . . . y(x), x; h)
Por la hip otesis (2) deducimos
lm
h0
(x, h) = 0 lm
h0
(h) = 0
que quiere decir que el metodo es consistente.
Ahora supongamos que tenemos un metodo consistente. Demostremos que se cumplen:
(1) = 0
(1)f(x, y(x)) =
f
(y(x), . . . y(x), x; 0), x [a, b]
Tenemos la hip otesis de lm
h0
h(x, h) = 0. Por otro lado,
h(x, h) =
k
j=0
j
y(x + jh) h
f
(y(x) . . . y(x), x; h)
. .
()
Observamos que () tiende a cero cuando h 0, y aprovechando que se trata de una funcion
continua podemos separar la suma en dos lmites y obtenemos
0 = lm
h0
= lm
h0
k
j=0
j
y(x + jh) =
_
_
k
j=0
j
_
_
y(x), x [a, b]
12 CAP
j=0
(
j
j) y
(
j
)
f
(y(x + kh) . . . y(x), x; h)
lm
h0
(x, h) =
()
k
j=0
(
j
j) y
(x)
f
(y(x) . . . y(x), x; 0)
y () se cumple por consistencia del metodo, con lo que queda probado (2).
Teorema 3. Para todo metodo (r),
f
con
f
continua la consistencia es condici on necesaria
para la convergencia del metodo.
Demostracion. Veremos que la convergencia implica los dos puntos del teorema anterior, que
a su vez implican la consistencia:
1.
k
j=0
j
y
n+j
= 0 = h
f
(y
n+k
, . . . y
n
, x; h) lm
h0
k
j=0
j
y
n+j
= 0
Notemos que lm
h0
k
j=0
j
y
n+j
=
_
k
j=0
j
_
y(x
n
), por la convergencia del metodo. En este
caso, si y es no nula se deduce
k
j=0
j
= (1) = 0.
2.
k
j=0
j
y
n+j
j=0
j
y
n
= h
f
(y
n+k
, . . . y
n
, x
n
; h)
k
j=1
j
j
_
y
n+j
y
n
jh
_
=
f
(y
n+k
, . . . y
n
, x
n
; h)
Tomando ahora el lmite para h tendiendo a cero:
lm
h0
xn=a+nh
f
=
f
(y(x
n
), . . . y(x
n
), x
n
; 0)
lm
h0
xn=a+nh
y
n+j
y
n
jh
=
()
lm
h0
y(x
n
+ jh) y(x
n
)
jh
= y
(x
n
) = f(x
n
, y
n
)
()x
n+j
= x
n
+ jh
y para x = x
n
[a, b] se deduce la condici on (2) de consistencia.
2.3. ECUACIONES LINEALES EN DIFERENCIAS (EDLIN) 13
2.3. Ecuaciones Lineales en Diferencias (EDLin)
2.3.1. Introduccion a las EDLin
Antes de entrar a enunciar (y demostrar en algunos casos) los resultados relacionados con
la Ecuaciones Lineales en Diferencias, primero las deniremos de forma rigurosa para mejorar
la comprension del resto del captulo. Tambien introduciremos algunos teoremas importantes
sobre su resolucion.
Denicion 2.11. Sea F : R
m
R
n
y k N. Una Ecuacion en Diferencias es una relaci on
denida por la ecuaci on:
y
n+k
= F(n, y
n
, y
n+1
, . . . , y
n+k
) n = 0, 1, . . .
Notemos pues que una ED tiene como soluci on una succesion y
n
d onde los y
n
cumplen la
ecuaci on y y
0
, . . . , y
k1
son valores iniciales conocidos a priori. Hay dos maneras de encontrar
y
n
:
Por una parte, usar F de forma succesiva e ir generando valores de la sucesion soluci on.
Por otra, una forma m as pr actica es encontrar una formula cerrada del tipo y
n+k
=
G(n, y
0
, . . . , y
k1
).
En nuestro caso el objetivo ser a usar esta segunda va. Nos centraremos en un tipo especco de
ecuaci on que denimos a continuaci on:
Denicion 2.12. Una ecuaci on en diferencias lineal con coecientes constantes de orden k, que
denotaremos por EDLin, es aquella relaci on de la forma:
k
j=0
j
y
n+j
=
n
, n N,
k
= 1
donnde
j
R constantes y y
n
,
n
tienen la misma dimension.
Denicion 2.13. Decimos que (r) = r
k
+
k1
r
k1
+ . . . +
0
es el polinomio caracterstico
de la EDLin.
Por ultimo, introduciremos un par de teoremas b asicos sobre EDLin.
Teorema 4. Toda EDLin de orden k con coecientes constantes es equivalente a una EDLin
vectorial de primer orden de la forma:
z
n+1
= Bz
n
+ d
n
, n = 0, 1, . . .
Siendo z
n
= (y
n+k1
, . . . , y
n
)
T
y d
n
= (
n
, 0, . . . , 0)
T
. Por otra parte:
B =
_
_
_
_
_
k1
k2
. . .
0
1 0 . . . 0
.
.
.
.
.
.
0 0 1 0
_
_
_
_
_
Adem as, la matriz B cumple:
14 CAP
n
1
, n
n
1
, . . . , n
k
1
1
n
1
, . . . ,
n
s
, .., n
ks1
n
s
2.3.2. Algunos resultados sobre EDLin
El motivo de nuestro interes en las ecuaciones lineales en diferencias es el siguiente: cuando
tenemos un metodo que aplicamos con un paso h y hacemos tender h a cero, las soluciones
numericas y
n
que obtenemos se comportan como las soluciones de una EDLin homogenea,
k
j=0
j
y
n+j
= 0
k
j=0
j
y(x + jh) = h
f
+ h(x, h)
k
j=0
j
y
n+j
= h
f
(y
n+k
, . . . y
n
, x
n
; h)
_
_
x x
n
Si consideramos e
n+j
= y(x + jh) y
n+j
n 0, j = 0 k entonces,
k
j=0
j
e
n+j
=
n
;
n
= h[
f
(sol. exacta)
f
(sol. numerica) + )]
Algunos resultados sobre normas matriciales
Antes de entrar en el estudio de la estabilidad de las EDLin, introduciremos deniciones y
teoremas importantes para la comprension del resto del captulo. Son teoremas b asicos sobre
normas matriciales que usaremos para analizar las condiciones de estabilidad de las EDLin
(convenientemente transformadas a un sistema matricial) y que despues extenderemos para
razonar la estabilidad de los metodos.
Denicion 2.14. Decimos que una matriz A es de clase M VAP de A tal que
[[ = (A) entonces los bloques de Jordan asociados a son de tama no 1 1.
Teorema 6. Sea A una matriz. Existe una norma subordinada tal que [[A[[ = (A) A es
de clase M.
Teorema 7. Sea A una matriz.
lm
k
A
k
= 0 (A) < 1
Adem as, se cumple que A
k
acotada cuando k (A) < 1 o A es de clase M y (A) = 1.
2.3. ECUACIONES LINEALES EN DIFERENCIAS (EDLIN) 15
Estabilidad de EDLin
Consideremos una ecuaci on en diferencias de primer orden:
z
n+1
= G(z
n
, n), z
n
R
m
, G : R
m
R
m
Denicion 2.15. Una soluci on y
n
n0
de la ecuaci on anterior diremos que es:
Estable si dado > 0 existe > 0 tal que para y
n
cualquier otra soluci on de la ecuaci on
con |y
0
y
0
| < entonces se tiene que |y
n
y
n
| < , con n > 0.
Asintoticamente estable, si adem as de ser estable se cumple que |y
n
y
n
|
n+
0.
Teorema 8. (estabilidad de EDLin de orden 1) Consideremos el siguiente sistema de ecuacio-
nes:
z
n+1
= Bz
n
+ d, z
n
, d R
m
, B M
m
C (2.1)
Entonces una solucion y
n
n1
es:
Estable (B) < 1 o (B) = 1 y B de clase M.
Asintoticamente estable (B) < 1.
Demostracion. Sea y
n
n0
otra soluci on de la EDLin (2.1).
y
n
y
n
= w
n
= Bw
n1
= B
2
w
n2
= . . . = B
n
w
0
(a) Primera parte:
Usando la segunda parte del teorema 7 sabemos que R tal que |B
n
| < .
Notemos que depende de n.
| y
n
y
n
| = |B
n
w
0
| |B
n
| |w
0
|
Si |w
0
| = | y
0
y
0
| < =
tal que si
| y
0
y
0
| < | y
n
y
n
| <
Supongamos que |B
n
| es no acotada cuando n . Entonces x R
n
tal que
|B
n
x| . Esto se demuetra tomando J
B
= P
1
BP
1
y distinguiendo entre dos
posibles casos para
1
.
1. Si [
1
[ > 1, (B) > 1 tomamos x = P
1
e
1
2. Si [
1
[ = 1 y (B) = 1 tomamos x = P
1
e
2
.,
e
i
= P
1
x, B
n
= PJ
n
B
P
1
B
n
x = PJ
n
B
e
i
En ambos casos B
n
x no es acotado, y tenemos | y
n
y
n
| = |w
n
| = |B
n
w
0
|. Sea x =
w
n
, R. Observamos que | y
n
y
n
| = [
1
[ |B
n
x|, y cuando n |B
n
x| no
est a acotado.
Por tanto, | y
n
y
n
| no est a acotado aunque |w
0
| = | y
0
y
0
| s lo este. En este caso
y
n
n0
no es estable.
(b) Segunda parte:
lm
n
B
n
= 0 lm
n
| y
n
y
n
| = 0, y por tanto la soluci on es asintoticamente
estable.
Supongamos que (B) 1. Dado que x R
m
tal que |B
n
x| no est a acotado
entonces lm
n
| y
n
y
n
| , = 0 y
n
n0
no es asintoticamente estable.
16 CAP
n0
es
Estable si dada otra soluci on y
n
n0
se cumpe que > 0 > 0 tal que si [ y
i
y
i
[
i = 0, 1, . . . , k 1 entonces [ y
n
y
n
[ < para n k.
Asintoticamente estable si adem as de lo anterior se cumple que lm
n
[ y
n
y
n
[ = 0.
Teorema 9. Sea (2.3) la EDLin de primer orden equivalente obtenida de (2.2) por el metodo
presentado en el teorema (4).
z
n+1
= Bz
n
+ , z
n
=
_
_
_
y
n+k1
.
.
.
y
n
_
_
_
(2.3)
Las soluciones de (2.2) son
_
Estables
Asintoticamente Estables
_
las soluciones de (2.3) son
_
Estables
Asintoticamente Estables
_
Denicion 2.17. Un polinomio p(x) cumple la condici on de la raz si:
1. Todas sus races son de m odulo 1.
2. Todas sus races de m odulo 1 son simples.
Teorema 10. (estabilidad de EDLin de orden k) La EDLin de orden k de la forma (2.2) tiene
soluciones estables si y solo si el polinomio caracterstico de la EDLin cumple la condici on de
la raz.
Demostracion. Dada una EDLin podemos encontrar el sistema z
n+1
= Bz
n
+d
n
. El polinomio
caracterstico asociado a este sistema es:
(r) =
k
j=0
j
r
j
= det(B rI)
Entonces si (B) 1 todos los VAPs de B son de m odulo 1 todas las races de (r)
son de m odulo 1.
Por otro lado, si B es de clase M resulta que tiene bloques de Jordan 1 1. Ademas, B ha sido
obtenida a partir de transformaciones del sistema, de forma que tendremos solo un VAP por
bloque de Jordan. De esta forma queda demostrado que los VAPs de m odulo 1 solo tienen un
bloque 11 en la forma de Jordan de B, que son races simples de det(BrI), que es lo mismo
que decir que las races de m odulo 1 de (r) son simples.
Comentario 2.18. Recordemos las dos maneras que tenemos de escribir una EDLin:
k
j=0
j
y
n+k
=
n
,
k
= 1 (2.4)
z
n+1
= Bz
n
+d
n
, z
n
=
_
_
_
y
n+k1
.
.
.
y
n
_
_
_
, d
n
=
_
_
_
_
_
n
0
.
.
.
0
_
_
_
_
_
(2.5)
2.3. ECUACIONES LINEALES EN DIFERENCIAS (EDLIN) 17
Teorema 11. Sea una EDLin de la forma (2.5) tal que z
n+1
= Bz
n
tiene una soluci on nula
estable. Entonces existe una norma vectorial tal que
|z
n
| [|z
0
| +
n1
j=0
|d
j
|
Demostracion.
z
n
= Bz
n1
+ d
n1
= B[Bz
n2
+ d
n2
] + d
n+1
=
= B
2
z
n2
+ Bd
n2
+ d
n1
=
Por induccion se puede establecer
z
n
= B
n
z
0
+
k
j=0
B
nj1
d
j
Dado que la soluci on es estable entonces podemos aplicar los resultados ya estudiados:
1. (B) < 1 |B| (B) + < 1, si tomamos sucientemente peque no.
2. (B) = 1 y B de clase M. Existe una norma matricial subordinada tal que |B| = (B) = 1.
Tambien existe una norma vectorial | | cuya norma matricial subordinada satisface
|B| 1.
Por las propiedades de la norma matricial subordinada obtenemos
|z
n
| |B|
n
|z
0
| +
n1
j=0
|B|
nj1
|d
j
|
|z
0
| +
n1
j=0
|d
j
|
Teorema 12. Sea EDLin de la forma (2.4) cuyo polinomio caracterstico cumple la condici on
de la raz. Entonces existe una constante c 1 tal que toda solucion y
n
n0
de la EDLin (2.5)
cumple
[y
n
[ c
_
_
m ax
0ik1
[y
i
[ +
nk
j=0
[
j
[
_
_
, y
n
R, n 0
Demostracion. De la condici on de estabilidad de las soluciones de la EDLin de 1er orden
asociada a (2.4) deducimos
|z
n
| |z
0
| +
n1
j=0
|d
j
|, n 1 (2.6)
18 CAP
|z| c
2
|z|
|z
nk+1
| c|z
nk+1
|
c m ax
0ik1
[y
i
[, ya que z
nk+1
=
_
_
_
y
n
.
.
.
y
nk+1
_
_
_
|z
0
| +
k
j=0
|d
j
| c
2
|z
0
|
+c
2
n1
j=0
[
j
[
Si cambiamos n por n k + 1 en la ecuaci on anterior, entonces
c
1
[y
n
[ |z
nk+1
| c
2
[ m ax
0ik1
[y
i
[ +
nk
j=0
[
j
[]
Tomamos c = c
2
/c
1
y queda demostrado el teorema.
2.4. Estabilidad y Condiciones de Convergencia
Denicion 2.19. Un metodo dado por (r),
f
decimos que es cero estable (sin onimo de
estabilidad) si las soluciones de la EDLin homogenea cuyo polinomio caracterstico es (r) son
estables.
Comentario 2.20. Un metodo es cero estable (r) cumple la condici on de la raz.
Condiciones sobre
f
I)
f
0 cuando f 0
II) Debe existir C independiente de h tal que y
n+i
, y
n+i
, i = 0, . . . , k 1 del dominio
f
y
x
n
[a, b], h 0
[
f
(y
n+k
. . . y
n
, x
n
; h)
f
(y
n+k
. . . y
n
, x
n
; h)[ C m ax
0ik1
[y
n+i
y
n+i
[ (2.7)
Es decir, la funcion
f
debe ser Lipschitz respecto a las condiciones iniciales.
Teorema 13 (acotacion del EGD). Sea el PVI y
j=0
[
j
[
_
_
()
r(h) + h
n
j=0
_
C m ax
0ik
[e
j+i
[ + (h)
_
r(h) + h(n + 1)
_
C m ax
0in+k
[e
i
[ +(h)
_
() condici on II de
f
Denimos w
n+k
= m ax
0in+k
[e
i
[, y observamos que w
n
n0
es una sucesion creciente. As, tene-
mos que
m ax
0in+k
[e
i
[ = w
n+k
r(h) + Ch(n + 1)w
n+k
+ h(n + 1)(h),
donde C es independiente de h y su cumple que Ch(n + 1) > 0.
Ahora supongamos que para ciertas n y h se verica
1 1 Ch(n + 1) 1/2. (2.8)
En tal caso 1 [1 Ch(n + 1)]
1
2. Entonces,
w
n+k
[1 Ch(n + 1)]
1
[(n + 1)h(h)] (2.9)
De acuerdo con las consideraciones anteriores escogemos h y n de forma que h(n + 1)
(2C)
1
, que es independiente de h (puesto que y C lo son). As tendremos que, puesto
que Ch(n + 1) 1, entonces es cierta nuetra suposici on de la existencia de n y h para que se
cumpla lo anterior.
Por otro lado, y basado en la misma desigualdad h(n +1) , tambien se cumple que h <
n+1
,
as que:
w
n+k
2r(h) + 2(h)
c
1
r(h) + c
2
(h)
con c
1
, c
2
independientes de h. Esta desigualdad es precisamente la que queramos demostrar.
Comentario 2.21. Notemos que en la demostracion anterior debamos asegurar que h(n+1)
. Por tanto, la acotacion para el EGD que hemos demostrado est a probada para el problema
y
1
r(h) + c
2
(h)
Observamos que a medida que extendemos la acotacion esta puede volverse menos na. A pesar
de esto, tiene la forma exigida por el teorema.
20 CAP
= Ay, con A M
m
(R) y
y : R R
m
.
Sea C un VAP de la matriz A, Re() < 0 y consideremos el problema y
= y,que es un
problema escalar.
Con este procedimiento conseguiremos establecer el comportamiento del metodo en funcion
del paso que queramos utilizar de una forma bastante simple.
Por tanto, una vez obtenido el problema a analizar (y
j=0
j
y
n+k
= h
k
j=0
j
(y
n+j
)
Escribimos la ecuaci on en diferencias lineal homogenea con
h = h:
k
j=0
(
j
h
j
)y
n+j
= 0 (2.10)
Notemos que para analizar las soluciones de la EDLin es necesario que consideremos el polinomio
caracterstico de la misma. De acuerdo con la ecuaci on (2.10) el polinomio es:
(r;
h) = (r)
h(r) (2.11)
Denotaremos como polinomio de estabilidad absoluta del metodo a (r;
h).
Denicion 2.22. El metodo es absolutamente estable para
h C si las soluciones de la EDLin
(2.10) son asintoticamente estables.
Proposici on 2.1. Las soluciones de (2.10) son asint oticamente estables si y solo si escogido
h
entonces:
lm
n
[[y
n
[[ 0
Sea R
A
=
h)
2. Eje y Im(
h)
Podramos tambien denir el conjunto como:
R
A
=
h C [ r
t
C, (r
t
,
h) = 0, [r
t
[ < 1 (2.12)
Ejemplo 2.23. Calcularemos los conjuntos R
A
de los metodos:
Metodo de Euler: y
n+1
= y
n
+ hf
n
Metodo de Euler implcito: y
n+1
= y
n
+ hf
n+1
2.5. TEOR
IA DE ESTABILIDAD LINEAL 21
Sus polinomios de estabilidad absoluta son:
E
(r;
b) = r 1
h r
t
= 1 +
h [r
t
[ < 1 [1 +
h[ < 1. Por lo tanto nos dene el
interior de una circumferencia de radio 1 y centro (1, 0).
EI
(r;
h) = r 1
hr r
t
=
1
1
h
[r
t
[ < 1 [1
h R.
Escogeramos, por el resultado anterior, 2 <
h < 0 2 < h < 0
2
> h > 0.
En el caso complejo, C 2 > [
h[ > 0
2
||
< [h[ > 0
Hagamos ahora el an alisis de los MLM de un paso convergentes:
y
n+1
= y
n
+ h(f
n+1
+ (1 )f
n
)
Calculamos ahora (r) = r 1. Por tanto,
(1) = (1).
Comprobamos la consistencia del metodo: 1 = + (1 ) = 1.
El polinomio de estabilidad absoluta del metodo es
B
(r,
h) = r 1
h(r + (1 )) = (1
h)r + (1 (1 )
h)
Calculando las races obtenemos:
r
t
=
1 + (1 )
h
1
h
Para hacer un an alisis m as simple del metodo, analizamos la frontera de R
A
, que denotaremos
por R
A
.
R
A
estar a formada por los valores de
h tales que (r,
h) admite races r
t
tales que r
t
= e
i
,
con [0, 2].
Sabemos de antes que (r,
h) = p(r)
h) = 0
h
f
() =
p(e
i
)
(e
i)
(2.13)
La ecuaci on (2.13) nos dene R
A
como una curva uniparametrica en R
2
.
Ejemplo 2.24. MLM de un paso convergente con =
1
2
, alternativamente denominado como
la regla del trapecio.
Tenemos y
n+1
= y
n
+
h
2
(f
n+1
+f
n
), por lo tanto (r) =
1
2
(1+r). Obtenemos como curva
h
f
:
h
f
() =
e
i
1
1
2
(e
i
+ 1)
= i(2 tan(
2
)) (2.14)
Por lo tanto, obtenemos:
R
A
=
h C/Re(
h) = 0 (2.15)
Una vez obtenida la frontera, podemos obtener por continuidad los puntos
h R
A
.
Notemos que, en general, que R
A
puede ser el conjunto , ya que su frontera no siempre es
una curva continua ni conexa.
22 CAP
h R
A
/Im(
h) = 0.
Recordemos que para un MLM se satisfaca:
[y
n
(h) y(x
n
)[ C
1
r(h) + C
2
(h)
con C
1
, C
2
constantes. Por lo tanto, las condiciones sucientes de convergencia son:
Condicion II sobre
f
Consistencia
Cero Estabilidad
Teorema 14. Si un metodo es convergente entonces es cero estable si para f 0 se tiene
f
= 0
(condici on I).
Demostracion. Sea el problema y
k
j=0
j
r
j
y
f
cualquiera. Aplicando el metodo al problema se obtiene una EDLin homogenea:
k
j=0
j
y
n+j
= 0 (2.16)
Utilizaremos el argumento del contrarecproco para demostrar el teorema. Supongamos pues que
el metodo no es cero estable. Entonces existe una raz de (r) tal que [[ > 1 o bien [[ = 1 y
raz m ultiple. Toda soluci on numerica del problema tiene terminos de la forma
n
con [[ > 1 o
proporcional a n si [[ = 1. En general pues, la soluci on general y
n
va a crecer arbitrariamente
cuando n . Por lo tanto, podemos asegurar que:
[y(x) y
n
[
n
(2.17)
Esto se cumplira aunque los valores inicial usados en (2.16) tiendan a . Por lo tanto, tenemos
que el metodo no es convergente y queda demostrado por contrarecproco.
Observacion 2.26. Es importante notar que para la demostracion del teorema anterior es
b asica la condici on de
f
= 0 ya que en caso contrario no podramos obtener la formula (2.16).
Teorema 15. Sea un metodo de la forma
k
j=0
j
y
n+j
= h
f
tal que cumpla las condiciones
(2.4) y (2.7). Entonces, se cumple que:
El metodo es convergente es consistente y cero-estable.
Adem as, si el metodo es de orden p (i.e, (h) = O(h
p
)), suponiendo que el error de los valores
iniciales sea O(h
q
) con q p entonces:
EDG = O(h
p
)
Demostracion. La demostracion del teorema anterior se sigue de todos los teoremas trabajados
en este captulo.
Captulo 3
Metodos Lineales Multipaso
3.1. Metodos Lineales Multipaso y Teorema de Dahlquist
Como ya se ha visto a lo largo del captulo anterior, un metodo lineal de k pasos es
k
i=0
i
y
n+i
= h
k
i=0
i
f
n+i
con
k
= 1
Este metodo tiene asociados dos polinomios de gran importancia:
(r) =
k
i=0
i
r
i
, (r) =
k
i=0
i
r
i
Anteriormente se ha estudiado cu ando un metodo lineal multipaso es estable y de que manera se
puede conocer su orden. Como el orden de un metodo est a totalmente relacionado con el n umero
de pasos, es necesario preguntarse cu al puede ser el orden m as grande posible de un metodo de
este tipo bajo la condici on de estabilidad.
En este apartado nos centraremos en la relaci on entre el paso h y el orden del metodo, en
el caso particular de los metodo lineales multipaso. Para establecer el orden p hay que imponer
que los coecientes del desarrollo de Taylor de h(x, h) y h(h) se anulen, ya que son estos los
que nos indican el orden de convergencia:
C
i
= 0, i = 0 . . . p, (3.1)
que da un total de p + 1 condiciones. El teorema que presentaremos a continuaci on nos da una
cota superior del orden a partir del n umero de pasos. Este teorema ser a muy importante para
poder escoger el paso deseado en nuestro metodo:
Teorema 16 (de Dahlquist). Para un MLM de k pasos y orden p, si el metodo es cero estable
entonces
Si k es impar: p k + 1
Si k es par: p k + 2
Denicion 3.1. Decimos que un metodo es optimo cuando es cero estable de k pasos y orden
k + 2.
23
24 CAP
ITULO 3. M
h) = (r)
h(r)
Si el metodo es convergente, se cumple que:
_
lm
h0
(r,
h) = (r)
r
t
= 1 es raz de (r)
Por lo tanto existira r
1
(
h) raz de (r,
h) tal que lm
h0
r
1
(
h) = 1.
Teorema 18. Para un MLM convergente de orden p se cumple:
r
1
(
h) = e
h
+O(
h
p+1
)
en el lmite cuando
h 0.
Corolario. Para todo MLM existe tal que el conjunto de puntos (x, 0) R
2
[ x (0, )
no pertenecen nunca a la region de estabilidad.
Demostracion. (del teorema)
h(x; h) = O(h
p+1
) con y
= f(x, y)
Para y
= y h(x, h) =
k
j=0
j
y(x + jh) h
k
j=0
j
y
j=0
j
e
(x+jh)
h
k
j=0
j
e
(x+jh)
= O(h
p+1
)
k
j=0
j
(e
h
)
j
h
j
(e
h
)
j
. .
(e
h
,
h)=(e
h
)
h(e
h
)
= O(
h
p+1
)
Escogemos pues
h <
1
h
k
,= 1 ya que el grado de es k. Ahora podemos tomar el
lmite h 0, con lo que tenemos que (e
h
,
h) = O(h
p+1
) implica que (e
h
,
h) 0 debido a que
e
h
r
1
(
h) ,= 1 para i = 2, . . . , k.
Esto sucede al ser el metodo
convergente, la unidad es raz simple y r
1
(
h) 1.
e
h
r
1
(
h) = O(
h
p+1
) r
1
(
h) = e
h
+ O(
h
p+1
)
3.2. M
ETODOS IMPL
ICITOS Y PREDICTOR-CORRECTOR 25
3.2. Metodos Implcitos y Predictor-Corrector
Denicion 3.3. Un par predictor-corrector (P-C) de k pasos est a formado por dos metodos
lineales multipaso, uno explcito llamado predictor (P) y otro implcito denominado corrector
(C). La expresi on general de un P-C es la siguiente:
_
k
j=0
j
y
n+j
= h
k1
j=0
j
f
n+j
(P)
k
j=0
j
y
n+j
= h
k
j=0
j
f
n+j
(C)
(3.2)
donde k es siempre el n umero de pasos del P, representado por la primera de las igualdades. En
la segunda, que representa el C, no se exige la condici on [
0
[ +[
0
[ , = 0, pero se sigue asumiendo
que
k
=
k
= 1. A continuaci on se describen los pasos a seguir y las formulas que se utilizan
para calcular la soluci on numerica de un PVI mediante un metodo P-C como el (3.2) en los
modos P(EC)
E
1t
, con t 0, 1, donde t = 0 indica que se efectua la evaluaci on nal de f,
mientras que t = 1 indica que no se efectua dicha evaluaci on nal.
Partiendo de los valores iniciales y
j
, j = 0 k 1, y para n 0:
P : y
[0]
n+k
= h
k1
j=0
j
f
[t]
n+j
k1
j=0
j
y
[]
n+j
(EC)
: f
[]
n+k
= f(x
n+k
, y
[]
n+k
)
y
[+1]
n+k
+
k1
j=0
j
y
[]
n+j
= h
k
f
[]
n+k
+ h
k1
j=0
j
f
[k+j]
n+j
, = 0 1
E
1t
: f
[]
n+k
= f(x
n+k
, y
[]
n+k
), si t = 0.
Denicion 3.4. Un MLM implcito de k pasos se caracteriza por tener el coeciente
k
,= 0.
k
i=0
i
y
n+i
= h
k
i=0
i
f
n+i
Cada paso requiere resolver una ecuaci on implcita:
y
n+k
= h
k
f(x
n+k
, y
n+k
) +g
n
donde g
n
es la soluci on numerica en x
n+j
con j = 0, . . . , k 1. Dado y
[0]
n+k
, iteramos:
y
[l+1]
n+k
= h
k
f(x
n+k
, y
[l]
n+k
) + g
n
l = 0, 1, . . .
[[y
[l+1]
n+k
y
[l]
n+k
[[
l
0 y
[0]
n+k
si h[
k
[L < 1
donde L es la constante de Lipschitz de f. Entonces, para garantizar un buen comportamiento,
debemos escoger un paso tal que:
h <
1
[
k
[L
Si L 1 necesitamos 1 h. Estos casos se dan en problemas mal condicionados (sistemas sti).
26 CAP
ITULO 3. M
_
a
1
a
3
a
5
a
2k1
a
0
a
2
a
4
a
2k2
0 a
1
a
3
a
2k3
0 a
0
a
2
a
2k4
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 a
k
_
_
tomando a
j
= 0 cuando j > k, se denomina matriz de Hurwitz de P(z).
Proposici on 3.1. Las races de P(z) tienen parte real estrictamente negativa si y solo si todos
los menores principales de la matriz de Hurwitz de P(z) son estrictamente positivos.
Se entiende por menor principal de orden j de una matriz k k el determinante de la
submatriz obtenida con los elementos comunes de las j primeras las y las j primeras columnas
de la matriz, siendo 1 j k. En general, el criterio anterior se traduce en un sistema de k
inecuaciones para los coecientes de P(z).
Denicion 3.6. Un polinomio de grado k con coecientes reales de dice que es un polinomio
de Schur si todas sus races tienen m odulo estrictamente inferior a al unidad, es decir, si todas
sus races se encuentran en el interior de la circunferencia unidad del plano complejo.
Dados r, z C el cambio de variable
r =
1 + z
1 z
dene una aplicaci on biyectiva entre r C [ [r[ < 1 y z C [ Re(z) < 0, subconjuntos de
C. Se deduce a partir de ella el siguiente criterio para que un polinomio sea de Schur:
Proposici on 3.2. Un polinomio (r) con coecientes reales y de grado k es de Schur si y solo
si el polinomio
P(z) = (1 z)
k
_
1 + z
1 z
_
= a
0
z
k
+ a
1
z
k1
+ + a
k1
z +a
k
,
con a
0
> 0, cumple el criterio de Routh-Hurwitz
1
.
1
Si el polinomio no cumple que a0 > 0, deberemos multiplicarlo por 1 para obtener un polinomio que se
ajuste al exigido por el teorema.
3.4. ESTIMACI
ETODOS DE 1 PASO 27
3.4. Estimacion del ELD para metodos de 1 paso
La idea es estimar el ELD de un metodo como la diferencia entre el valor que arroja el
metodo y el valor que obtenemos del mismo metodo al dividir el paso por la mitad.
Consideremos el metodo y
n+1
= y
n
+ hf
n
. Sabemos que el ELD para este vale:
ELD
n+1
= h(x
n
, h) =
y
(x
n
)
2
h
2
+ O(h
3
)
donde denimos el termino principal como el primer coeciento no nulo del desarrollo de Taylor
del ELD, que denotaremos por PELD. En nuestro caso, el termino principal es PELD
n+1
=
y
(xn)
2
h
2
. Si tomamos como paso h entonces
x
n
y
n
_
h
_
x
n+1
y
n+1
(h)
Alternativamente, podemos escoger como paso
h
2
, en cuyo caso el esquema nos queda as:
x
n+
1
2
y
n+
1
2
_
h
2
_
_
x
n+1
y
n+1
_
h
2
_
En el caso
h
2
tenemos:
y
n+1
_
h
2
_
= y
n+
1
2
+
h
2
f(x
n
+
h
2
, y
n+
1
2
) = y
n+
1
2
+
h
2
f
n+
1
2
y
n+
1
2
= y
n
+
h
2
f
n
y
n+1
(
h
2
) = y
n
+
h
2
_
f
n
+ f
n+
1
2
_
(equivalente al metodo Runge-Kutta)
y
n+1
= y
n
+
h
2
(k
1
+ k
2
)
Con respecto al error local (Euler de dos pasos con paso
h
2
)
ELD
n+1
= h
[2]
(x
n
, h) = y(x
n
, h) y(x
n
+ h) =
= y(x
n
) h[f(x
n
, y(x
n
)) + f(x
n
+
h
2
, y(x
n
) +
h
2
f(x
n
, y(x
n
)))
. .
()
]
() Taylor f(x
n
, y
n
) = f
x
h
2
+ f
y
h
2
f + O(h
2
), y
(x) =
d
dx
f = f
x
+ f
y
f
28 CAP
ITULO 3. M
(x
n
)
2
_
h
2
2
+ O(h
3
)
h(x
n
, h) = y(x
n+1
) y
n+1
(h)
h
[2]
(x
n
, h) = y(x
n+1
) y
n+1
_
h
2
_
_
_
=
= PELD
n+1
=
y
(x
n
)
2
h
2
= 2
_
y
n+1
_
h
2
_
y
n+1
(h)
_
+ O(h
3
)
Estimamos el PELD
n+1
usando 2[y
n+1
_
h
2
_
y
n+1
(h)].
Esquema de control del ELD de la soluci on numerica con el metodo de Euler:
2|y
n+1
(
h
2
) y
n+1
(h)|
|y
n+1
(h)|
<
r
r
es la tolerancia relativa al error. Si
r
= 10
l
, entonces los l primeros dgitos de la soluci on
numerica son correctos.
Generalizacion a metodos de 1 paso de orden p
Supongamos que tenemos un metodo de 1 paso, ahora de orden p. En este caso, el ELD
asociado a y
n+1
con paso h es
ELD
n+1
(h) = G(y(x
n
))h
p+1
+ O(h
p+2
) = y(x
n+1
) y
n+1
(h)
Procediendo de manera an aloga a la anterior, veamos que ocurre si tomamos como paso
h
2
,
considerando y
n+1
_
h
2
_
:
ELD
n+1
_
h
2
_
= 2G(y(x
n
))
_
h
2
_
p+1
+ O(h
p+2
) = y(x
n+1
) y
n+1
_
h
2
_
Si restamos las dos ecuaciones anteriores obtenemos:
y
n+1
_
h
2
_
y
n+1
(h) = G(y(x
n
))h
p+1
_
1
1
2
p
_
+ O(h
p+2
),
con lo que el PELD es
PELD
n+1
= G(y(x
n
))h
p+1
=
_
1
1
2
p
_
1
_
y
n+1
_
h
2
_
y
n+1
(h)
_
+O(h
p+2
)
Notamos que [1
1
2
p
]
1
1 cuando p 1. Si se cumple la condici on del error escogida
continuamos el proceso. En caso contrario redenimos h :=
h
2
y observamos que ocurre con
r
.
Denicion 3.7. Dado y
n+1
(h) obtenida con un metodo de orden p, consideramos
y
n+1
(h) = y
n+1
(h) +
_
1
1
2
p
_
1
[y
n+1
_
h
2
_
y
n+1
(h)].
Dicho metodo se conoce como metodo de extrapolacion (local) asociado al metodo original.
3.5. ESTIMACI
ETODOS PREDICTOR-CORRECTOR 29
3.5. Estimacion del ELD con metodos Predictor-Corrector
Supongamos que estamos tratando con un metodo predictor-corrector de la forma (3.3), para
el cual tenemos:
Predictor: p
orden, C
+1
constante de error.
Corrector: p orden, C
p+1
constante de error.
Cuando se usa el par P-C en el modo P(EC)
E
1t
con t 0, 1 en realidad se est a utilizando un
metodo explcito. Es por ello que podemos analizar el correspondiente error local de truncacion
o discretizacion (ELD) de la forma habitual: examinaremos la diferencia y(x
n+k
) y
n+k
, siendo
y
n+k
la aproximacion numerica en x
n+k
obtenida con el metodo cuando se toman valores exactos,
y
n+j
= y(x
n+j
), j = 0 k 1 (3.3)
Para empezar, suponiendo y(x) sucientemente diferenciable, se tiene que
h
(x, h) = C
+1
h
p
+1
y
(p
+1)
(x) + O(h
p
+2
) (3.4)
h(x, h) = C
p+1
h
p+1
y
(p+1)
(x) + O(h
p+2
) (3.5)
Por otro lado, a partir de la denicion de la funcion
j=0
j
y(x
n+j
) = h
k1
j=0
j
f(x
n+j
, y(x
n+j
)) + h
(x
n
, h).
Si utilizamos (3.3) en la formula del P se obtiene
y
[0]
n+k
+
k1
j=0
j
y(x
n+j
) = h
k1
j=0
j
f(x
n+j
, y(x
n+j
)).
Restando las dos ecuaciones anteriores de deduce:
y(x
n+k
) y
[0]
n+k
= C
+1
h
p
+1
y
(p
+1)
(x
n
) + O(h
p
+2
) (3.6)
Repetimos ahora el proceso para C. A partir de la denicion de (x, h) se tiene que
y(x
n+k
) +
k1
j=0
j
y(x
n+j
) = h
k1
j=0
j
f(x
n+j
, y(x
n+j
)) + h(x
n
, h).
y utilizando (3.3) en la formula del C para cada iteraci on nos queda
y
[+1]
n+k
+
k1
j=0
j
y(x
n+j
) = h
k
f(x
n+k
, y
[]
n+k
) + h
k1
j=0
j
f(x
n+j
, y(x
n+j
)).
para = 01. Finalmente, restando las dos ultimas ecuaciones se deduce para 0 1
y(x
n+k
) y
[+1]
n+k
= h
k
_
f(x
n+k
, y(x
n+k
)) f(x
n+k
, y
[]
n+k
)
_
+ h(x
n
, h) =
= h
k
f
y
(x
n+k
,
)[y(x
n+k
) y
[]
n+k
] + C
p+1
h
p+1
y
(p+1)
(x
n
) + O(h
p+2
) (3.7)
30 CAP
ITULO 3. M
y p respectivamente) se obtienen
los siguientes resultados:
1. Caso p
p:
Sustituyendo (3.6) en la formula (3.7) para = 0 se deduce
y(x
n+k
) y
[1]
n+k
= C
p+1
h
p+1
y
(p+1)
(x
n
) + O(h
p+2
).
A su vez, esta igualdad puede sustituirse de nuevo en (3.7) para = 1 deduciendose:
y(x
n+k
) y
[2]
n+k
= C
p+1
h
p+1
y
(p+1)
(x
n
) + O(h
p+2
).
Repitiendo el proceso el n umero necesario de veces se acaba demostrando que
y(x
n+k
) y
[]
n+k
= C
p+1
h
p+1
y
(p+1)
(x
n
) + O(h
p+2
).
Es decir, para todo 1 el orden del metodo P-C es igual al orden del C y adem as el
PELD (termino principal del ELD) del P-C es identico al del C.
2. Caso p
= p 1:
Siguiendo el mismo razonamiento que el presentado en el caso anterior, la primera susti-
tuci on de (3.6) en (3.7), con = 0, da lugar a
y(x
n+k
) y
[1]
n+k
=
_
k
f
y
C
p
y
(p)
(x
n
) + C
p+1
y
(p+1)
(x
n
)
_
h
p+1
+ O(h
p+2
).
Sin embargo, si 2 las posteriores sustituciones en (3.7), con 1, conducen siempre
a la igualdad:
y(x
n+k
) y
[]
n+k
= C
p+1
h
p+1
y
(p+1)
(x
n
) + O(h
p+2
).
Por tanto, para todo 1 el orden del metodo P-C es igual al del C, aunque si = 1
entonces el PELD del P-C no coincide con el del C. En cambio, si 2 ambos PELD son
identicos.
3. Caso p
= p 2:
En este caso, cuando sustituimos (3.6) en (3.7) obtenemos:
y(x
n+k
) y
[1]
n+k
=
k
f
y
C
p1
h
p
y
(p1)
(x
n
) + O(h
p+1
).
Notamos que ahora si = 1 el orden del P-C es p 1, inferior en una unidad al orden del
C. Si 2, sustiyendo la ecuaci on anterior en (3.7) con = 1 se deduce
y(x
n+k
) y
[2]
n+k
=
_
_
k
f
y
_
2
C
p1
y
(p1)
(x
n
) + C
p+1
y
(p+1)
(x
n
)
_
h
p+1
+ O(h
p+2
),
de modo que para = 2 el orden del metodo P-C es igual al del C, pero los PELD
de ambos metodos no coinciden. Sucesivas sustituciones en (3.7) conducen a la siguiente
formula, valida unicamente cuando 3
y(x
n+k
) y
[]
n+k
= C
p+1
h
p+1
y
(p+1)
(x
n
) + O(h
p+2
).
lo cual muestra que adem as del mismo orden, el P-C y el C tienen el mismo PELD.
3.5. ESTIMACI
ETODOS PREDICTOR-CORRECTOR 31
Por tanto, queda claro que el orden y el PELD de un metodo P-C en el modo P(EC)
E
1t
de-
penden de la diferencia de los ordenes del P y del C, as como del valor (n umero de iteraciones)
del modo. El siguiente teorema enuncia el resultado general.
Teorema 19. En las condiciones anteriores, consideremos un metodo P-C denido por (3.3) y
utilizado en el modo P(EC)
E
1t
.
1. Si p
p, o bien si p
< p y > p p
< p y = p p
< p y < pp
+ y siempre es estrictamente
inferior al orden del corrector.
Adem as, los modos P(EC)
E y P(EC)
(x
n
, h) = y(x
n+k
) y
[0]
n+k
=
C
p
+1
y
p
+1
(x
n
)h
p
+1
+O(h
p
+2
)
h(x
n
, h) = y(x
n+k
) y
[]
n+k
= C
p+1
y
p+1
(x
n
)h
p+1
+ O(h
p+2
)
donde p
+1
y
p
+1
(x
n
)h
p
+1
C
p+1
y
p+1
(x
n
)h
p+1
+ O(h
p+2
) (3.8)
Consideremos los posibles casos para valores de p y p
:
Si p
< p entonces
C
p+1
y
p+1
(x
n
)h
p+1
= y
[0]
n+k
y
[]
n+k
+O(h
p
+1
)
Observamos que en este caso el resultado carece de sentido, as que no lo consideramos.
Si p
+ 1 p + 2 de manera que:
C
p+1
y
p+1
(x
n
)h
p+1
= y
[0]
n+k
y
[]
n+k
+O(h
p+1
)
Para el Predictor-Corrector, el resultado nal ser a:
PELD
n+k
= y
[0]
n+k
y
[]
n+k
Si p = p
entonces
C
p+1
y
p+1
(x
n
)h
p+1
=
C
p+1
C
p+1
C
p+1
. .
Constante de Milne
( y
[]
n+k
y
[0]
n+k
) + O(h
p+2
)
Comentario 3.8 (Modos con extrapolacion local). Dado un P-C en modo P(EC)
E
1t
se
construye un nuevo metodo como soluci on de:
y
[]
n+k
= y
[]
n+k
+
C
p+1
C
p+1
C
p+1
(y
[]
n+k
y
[0]
n+k
).
A partir de y
[]
n+k
en modo P(EC)
E
1t
se pueden construir nuevos modos P-C del tipo P(ECL)
E
1t
o del tipo P(EC)
LE
1t
.
32 CAP
ITULO 3. M
= y, entonces
y
n+2
y
n+1
=
h
2
(y
[0]
n+2
+y
n+1
)
y
n+2
y
n+1
=
h
2
(y
n+1
+
3h
2
y
n+1
y
n
) +
h
2
y
n+1
y
n+2
y
n+1
h(
y
n+1
2
+
3
4
hy
n+1
h
2
y
n
)
h
2
y
n+1
= 0
La forma de los polinomios de estabilidad absoluta de los metodos P-C en este modo es:
(r,
h) = (r)
h(r) + M
(H)(
(r)
(r))
_
p, C
p
P
M
(H) =
H
(1 H)
1 H
, donde
_
H =
h
k
=
k
r
k
+
k1
r
k1
+ +
0
Modo P(EC)
h) =
k
r
k
((r)
h(r)) + M
(H)(
(r)(r)
(r)(r))
Por lo tanto, si P y C son consistentes entonces lm
h0
(r,
h)
raz de (r,
h) tal que lm
h0
r
1
(
h) = 1. Finalmente, se establece
(e
h
,
h) = O(h
p+1
)
donde p es el orden del metodo P-C. Luego, se deduce (utilizando el mismo razonamiento que
para MLM) quer
1
(
h) = e
h
+ O(h
p+1
) cuando h 0. A modo de resumen, para los diferentes
modos los polinomios de estabilidad son
P(EC)
E : (r,
h) = (r)
h(r) + M
(H)[
(r)
(r)] (3.9)
P(EC)
: (r,
h) =
k
r
k
[(r)
h(r)] + M
(H)[
(r)(r) (r)
(r)] (3.10)
donde
r
1
(
h)
h0
1, M
(H) =
H
(1 H)
1 H
= O(h
), H =
k
h
Por otro lado,
(e
h
,
h) = O(
h
p+1
) = r
1
(
h) = e
h
+ O(h
p+1
)
3.7. CONSTRUCCI
ON 33
Si p es el orden del C y p
h
,
h) = O(h
p+1
), si p
+ p,
Con respecto a los modos P(EC)
= O(h
p
+1
)
= O(h
p
+1
) = O(h
p
+1
)
h = O(h
p+1
)
O(h
p+1
) = O(h
p+1
)
_
= O(h
p+1
)
Dado que h 0 entonces e
h
1 y adem as:
(1) =
(1) ,= 0
(1) = (
(1) ,= 0
Por tanto, teniendo en cuenta que los metodos son convergentes entonces, para los modos
P(EC)
:
(e
h
,
h) = O(h
p+1
)
3.7. Construcci on de MLM por Interpolaci on
Consideremos un metodo de la forma
y
n+1
y
n
=
_
x
n+1
xn
I(x)dx
donde y
n
es la soluci on numerica en x
n
= a + hn e I(x) es el polinomio interpolador de
f(x, y(x)). Si tomamos el caso:
I(x
nj
) = f
nj
j = 0, 1 . . . k 1
se obtiene
y
n+1
y
n
= h
k1
j=0
j
f
n+1k+j
y observamos que se trata de un metodo expcito de k pasos. Esta familia de metodos se conoce
como metodos de Adams-Bashford.
Por otro lado, podemos considerar el caso
I(x
n+1j
) = f
n+1j
j = 0, 1 . . . k
del que se extrae la familia de metodos
y
n+1
y
n
= h
k
j=0
j
f
n+1k
Cabe notar que se trata de un conjunto de metodos implcitos de k pasos, conocidos como meto-
dos de Adams-Moulton.
34 CAP
ITULO 3. M
k1
(r) =
k1
i=0
(1)
i
_
r
i
_
i
f
n+j
donde
r =
x x
n
h
,
f
n
= f
n
f
n1
2
f
n
= (f
n
) = f
n
2f
n1
+ f
n2
Denimos ahora un operador denotado por E para facilitar la notaci on.
Ef
n
= f
n+1
E
1
f
n
= f
n1
de modo que podemos reescribir como = 1 E
1
. Modicando la notaci on anterior por la
introducida con E nos queda:
i
= (1 E
1
)
i
=
i
l=0
_
i
l
_
E
l
i
f
n
=
i
l=0
_
i
l
_
f
nl
donde
_
r
i
_
=
1
i!
i1
l=0
(r l). En resumen, los metodos anteriormente descritos quedan deter-
minados as:
Adams-Bashfort: I(x) = P
k1
(r) donde r =
xx
k
h
.
Adams-Moulton: I(x) = P
k
(r) =
k
i=0
(1)
i
_
r
i
_
i
f
n+1
con r =
xx
n+1
h
.
Notemos el uso intensivo del funcional E en la nueva formulaci on de los metodos.
3.7.1. Metodos Adams-Bashfort de k pasos
Tenemos para este metodo la formula:
y
n+1
y
n
=
_
x
n+1
xn
P
k1
(r)dx = h
_
1
0
P
k1
(r)dr
_
1
0
P
k1
(r)hdr = h
k1
j=0
i
f
n
,
i
= (1)
i
_
1
0
_
r
i
_
dr
Construimos una funcion generatriz denotada por G
(t):
G
(t) =
i=0
i
t
i
=
i=0
_
(1)
i
_
1
0
_
r
i
_
dr
_
t
i
=
_
1
0
_
i=0
_
r
i
_
(t)
i
_
dr =
=
_
1
0
(1 t)
r
dr =
(1 t)
r
ln(1 t)
1
0
=
t
(1 t) ln(1 t)
3.7. CONSTRUCCI
ON 35
As, tenemos que el funcional denido satisface la siguiente relaci on:
G
(t)
ln(1 t)
t
= (1 t)
1
Si la desarrollamos en serie de potencias obtenemos:
(
0
+
1
t + . . .)(1 +
t
2
+ . . .) = 1 + t + t
2
+ . . .
que nos aporta los las ecuaciones que deben satisfacer los coecientes
i
:
i
+
i1
2
+ . . . +
0
i + 1
= 1 i = 0, 1 . . . k 1
Observamos que puesto que para un metodo A-B de k pasos unicamente se requieren los valores
i
para i = 0, 1 . . . k 1, entonces las ecuaciones anteriores lo determinan unvocamente.
3.7.2. Metodos Adams-Moulton de k pasos
Tenemos en el planteo del metodo:
y
n+1
y
n
=
_
0
1
P
k
(r)hdr = h
k
i=0
i
f
n+1
i
=
_
0
1
(1)
i
_
r
i
_
dr
De nuevo construimos una funcion generatriz, ahora denotada por G(t):
G(t) =
i=0
i
t
i
=
t
ln(1 t)
G(t)
ln(1 t)
t
= 1
En este caso la relaci on que satisfacen las , una vez hecho el correspondiente desarrollo en serie
de potencias es:
0
= 1,
0
2
+
1
= 0 . . .
i
+
i1
2
+ . . . +
0
i + 1
= 0, i = 0 k
El metodo A-M de k pasos requiere
i
hasta i = 0 k. Una vez incorporadas y resueltas las
ecuaciones de las
i
obtenemos para el metodo A-M de k pasos:
y
n+1
y
n
= h
k
i=0
i
f
n+1
36 CAP
ITULO 3. M
i=1
b
i
k
i
donde
k
i
= f(x
n
+ c
i
h, y
i
), y
i
= y
n
+ h
s
j=1
a
ij
k
j
A estas deniciones se les impone una condici on aparentemente arbitraria aunque estrecha-
mente relacionada con el orden del metodo, conocida como condici on suma-la:
s
j=1
a
ij
= c
i
, i = 1 s
Denicion 4.2. Diremos que s es el n umero de niveles del metodo.
Es habitual denotar los metodos RK mediante notaci on matricial. Para ello introducimos:
Denicion 4.3. La matrix de Butcher es
_
c A
0 b
T
_
donde:
A = (a
ij
) c = [c
1
. . . c
s
]
T
b = [b
1
. . . b
s
]
T
37
38 CAP
ITULO 4. M
ETODOS RUNGE-KUTTA
En el caso en que A sea triangular inferior estricta (con a
ii
= 0, i = 1 s), entonces el
metodo RK es explcito. Entonces tendra la estructura:
k
1
= f(x
n
, y
n
) = f
n
k
2
= f(x
n
+ c
2
h, y
n
+ hc
2
k
1
)
k
3
= f(x
n
+ c
3
h, y
n
+ h(c
3
a
32
)k
1
+ha
32
k
2
)
.
.
.
Ejemplo 4.4. De acuerdo con las deniciones anteriores, el metodo RK de un nivel es
y
n+1
y
n
= hb
1
f
n
que solo converge en el caso b
1
= 1, deniendo as, como habra apreciado el h abil lector, el ya
conocido metodo de Euler.
4.2. Convergencia de metodos RK
Veamos ahora que el metodo cumple:
Condicion (2.7) sobre
f
. Como tenemos:
f
=
s
i=1
b
i
f(x
n
+ c
i
h, y
i
)
Si f cumple la condici on de Lipschitz, entonces
f
cumple la condici on (2.7).
Cero estabilidad. Por ser (r) = r 1, los metodos siempre son cero estables.
Segunda condici on de consistencia (Teorema 2):
f
(y(x), x, 0)
?
=
f
(y(x), x, 0) =
s
j=1
b
i
f(x, y(x)).
Por tanto, la condici on de consistencia para los metodo RK es
s
i=1
b
i
= 1, que nos da
tambien la convergencia junto con las otras condiciones vericadas.
4.2.1. Error local de discretizacion
Consideremos el ELD asociado a metodos RK. De apartados anteriores conocemos que este
viene dado por:
h(x, h) = y(x + h) y(x) h
f
(y(x), x; h)
h(x, h) = y
(x)h + O(h
2
) h
f
(y(x), x; 0) + O(h
2
)
donde y
i
b
i
f(x, y(x)). Si el RK es convergente, al ser
consistente en general podremos armar que (x, h) = O(h), tiene orden 1 al menos.
4.2. CONVERGENCIA DE M
ETODOS RK 39
4.2.2. Metodos implcitos y semi-implcito
Aqu introduciremos un tipo particular de metodos implcitos.
Denicion 4.5. Si A es matriz triangular inferior no estricta
1
, el metodo RK se denomina
semi-implcito.
Denicion 4.6. Decimos que el metodo es implcito cuando no es ni semi-implcito ni explcito.
k
1
, . . . , k
s
se obtienen resolviendo un sistema de s ecuaciones acopladas e implcitas.
4.2.3. Regi on de estabilidad absoluta
Proposici on 4.1. La formula general de la funcion de estabilidad absoluta de los metodos R-K
es:
y
n+1
= R(
h)y
n
!
A
=
h C[ [R(
h)[ < 1
Analizemos ahora la forma general de R(
h):
y
n+1
= y
n
+ h
s
i=1
b
i
k
i
En el caso y
= y, y
n+1
= y
n
+
s
i=1
b
i
Y
i
, donde
Y
i
= y
n
+ h
s
j=1
a
ij
(Y
j
) = y
n
+
h
s
j=1
a
ij
Y
j
Y = [Y
1
, . . . , Y
s
]
T
e = [1, . . . , 1]
T
R
s
Podemos reformular pues las condiciones anteriores de forma vectorial con el uso de el Y , la
matriz A, y el vector e:
Y = y
n
e +
hAY
(I
s
hA)Y = y
n
e
Y = [(I
s
hA)
1
e]y
n
Condicion b asica para que esto suceda es evidentemente que det(I
s
hA) ,= 0. Si el metodo Rk
es explcito, se comprueba que det(I
s
hA) = 1
h C.
Y
n+1
= Y
n
+
hb
T
(I
s
hA)
1
ey
n
= (1 +
hb
T
(I
s
hA)
1
e)y
n
Ademas R(
ITULO 4. M
ETODOS RUNGE-KUTTA
Ejercicio. Calculemos ahora los metodo de orden s de s niveles.
En el caso s = 2:
hb
T
(I
s
hA)
1
= RK de dos niveles explcto. R(
h) = 1 +
h +
h
2
2
.
En el caso s = 3: R(
h) = R(
h) = 1 +
h +
h
2
2
+
h
3
6
.
Veamos ahora por que R coincide con la forma del desarrollo de la exponencial hasta orden
p. El ELD y(x
n+1
) y
n+1
= O(h
p+1
), habiendo obtenido y
n
= y(x
n
).
y(x
n+1
) = y
n
+ (h)y
n
+ . . . +
(h)
p
p!
y
n
+ O(h
p+1
)
y
n+1
= (1 +
h +
h
2
2
+ . . . +
h
p
p!
)y
n
+ O(h
p+1
)
y
n+1
= R(
h)y
n
para cualquier RK aplicado a y
= y
Con las condiciones anteriores y la denicion de R(
h) no depende de y
n
sino
de la h y del metodo:
En el caso p = s R(h) = 1 +
h + . . . +
h
p
p!
.
Ejercicio. Obtener los intervalos de estabilidad absoluta para RK explcito de orden igual al
del numero de niveles y ver como se obtiene la regi on de estabilidad de un RK.
4.3. Introducci on al estudio del orden de los metodos RK
Para estudiar el orden hay que deteminar el desarrollo de Taylor de la funcion (x, h), que
en el caso de los metodos Runge-Kutta (RK) adopta la siguiente expresi on:
h(x, h) = y(x, h) y(x) h
f
(y(x), x, h) = y(x + h) y(x) h
s
i=1
b
i
k
i
,
siendo
k
i
= f(x + c
i
h, y
i
), y
i
= y
n
+ h
s
j=1
a
ij
k
j
, c
i
=
s
j=1
a
ij
, i = 1 s
para un RK de s niveles y un PVI dado por un sistema y
= f(x, y).
Recordemos que si consideramos metodos lineales, las derivadas de la funcion
f
se pueden
expresar en terminos de las derivadas de y(x).
Esto no es posible para los metodos RK, en
los que las derivadas de
f
se obtienen a partir de las derivadas de f(x, y). Por ello nos vemos
forzados a expresar tambien las derivadas de y(x) en terminos de las derivadas de f, complicando
considerablemente el estudio de las condiciones de orden.
4.3.1. Orden de un RK explcito de 3 niveles para un PVI escalar
Consideremos el caso general de un PVI escalar, cuya EDO es y
ETODOS RK 41
Desarrollamos en serie de Taylor hasta el termino h
4
de:
h(x, h) = y(x, h) y(x) h(b
1
k
1
+ b
2
k
2
+ b
3
k
3
)
Para las derivadas de f se adopta la siguiente notaci on (todas se evaluan en el mismo punto
(x, y(x)) y por ello no se especica):
f : = f(x, y), f
x
: =
f
x
, f
xy
: =
2
f
xy
, f
xx
: =
2
f
x
2
, etc.
El desarrollo de Taylor de y(x + h) (en torno a x) hasta O(h
4
) es:
y(x + h) = y(x) + hy
(1)
(x) +
1
2
h
2
y
(2)
(x) +
1
6
h
3
y
(3)
(x) + O(h
4
)
donde y
(i)
es la derivada de orden i respecto a la variable x. Usando la regla de la cadena se
obtinenen las siguientes expresiones:
y
(1)
(x) = y
= f
y
(2)
(x) = f
x
+f
y
y
= f
x
+ f
y
f F
y
(3)
(x) = f
xx
+ 2ff
xy
+ f
2
f
yy
+ f
y
(f
x
+ff
y
) G + f
y
F
Por otro lado, el desarrollo de
f
= b
1
k
1
+ b
2
k
2
+ b
3
k
3
hasta orden h
3
requiere hacer el corres-
pondiente desarrollo de k
2
y k
3
entorno a x (observad que k
1
= f no requiere desarrollo). Si
reunimos los obtenidos para k
2
y k
3
y el calculado para y(x + h) nos queda:
h(x, h) = h(1 b
1
b
2
b
3
)f + h
2
_
1
2
b
2
c
2
b
3
c
3
_
F
+
__
1
6
b
3
c
2
a
32
__
f
y
F +
_
1
6
b
2
c
2
2
+b
3
c
2
3
2
G
_
+ O(h
4
)
Se deducen los siguientes resultados sobre el orden de un RK explcito de 3 niveles:
b
1
+ b
2
+ b
3
= 1 orden 1 al menos,
b
2
c
2
+ b
3
c
3
=
1
2
y la anterior orden 2 al menos,
b
2
c
2
2
+ b
3
c
2
3
=
1
3
b
3
c
2
a
32
=
1
6
y las anteriores orden 3 al menos.
De hecho, examinando el termino de orden h
4
se puede comprobar que si se cumplen las condi-
ciones anteriores, el orden es exactamente 3 y no puede ser mayor.
4.3.2. Algunos resultados generales
Para un metodo RK explcito de orden p y s niveles se puede demostrar que p s. Solo
existen metodos RK explcitos tales que p = s cuando s 4.
Para construir un RK explcito de orden 5 se requieren 6 niveles como mnimo. Si es de
orden 7 se requieren 9 niveles y si es de orden 8 se requieren 11 niveles como mnimo.
42 CAP
ITULO 4. M
ETODOS RUNGE-KUTTA
El m aximo orden que puede alcanzarse con un metodo RK de s niveles es igual a 2s cuando
el metodo es implcito.
Existen metdodos RK que se comportan con orden diferente seg un se apliquen a un proble-
ma escalar (aut onomo o no) o a un sistema de EDOs. Considerar los siguientes enunciados
aplicados a un metodo RK cualquiera:
Enunciado A: El metodo tiene orden p para y
= f(y), y(x) R
m
, m > 1 (sistema de
EDOs, caso general).
Enunciado B: El metodo tiene orden p para y
= f(y), y(a) = , y, f R
m
, m > 1
Las primeras derivadas de y(x) en el caso escalar aut onomo son:
y
= f, y
(2)
= f
y
f, y
(3)
= f
yy
f
2
+ f
2
y
f.
Para ver que estas expresiones pueden generalizarse de forma inmediata al caso de un sistema de
dimension m > 1 es suciente considerar las mismas derivadas cuando m = 2, es decir, cuando
y = [
1
y,
2
y]
T
, f = [
1
f,
2
f]
T
Introduciendo la notaci on
componente
f
derivada
:
i
f
j
:=
(
i
f)
(
j
y)
,
i
f
jk
:=
2
(
i
f)
(
j
y)(
k
y)
, etc
4.4. HERRAMIENTAS PARA EL ESTUDIO DEL ORDEN DE LOS M
ETODOS RK 43
a partir de diferenciar y
= f(y)
En este caso consideramos el problema y
i=1
_
_
m
j
1
=1
m
j
M
=1
i
f
j
1
...j
M
j
1
K
1
j
M
K
M
_
_
e
i
donde
e
i
, i = 1 m son los vectores de la base can onica de R
m
. De esta forma, la M-esima
derivada de Frechet evaluada en el argumento z constituye un vector de m componentes.
La expresi on de la M-esima derivada de Frechet involucra todas las posibles derivadas
parciales de orden M de la funcion f respecto a las componentes de su argumento z:
i
f
j
1
j
M
=
M
(
i
f(z))
(
j
1
z) (
j
M
z)
K
i
, i = 1 . . . M son los operandos de la derivada de Frechet. Hay M operandos si la deriva-
da es de orden M. Cada uno de ellos representa una funcion vectorial de m componentes,
K
i
= [
i
K
i
. . .
m
K
i
]
T
. En particular, los operandos pueden ser a su vez derivadas de Frechet.
44 CAP
ITULO 4. M
ETODOS RUNGE-KUTTA
4.4.3. Derivadas de Frechet de primer y segundo orden
A modo de ejemplo, consideremos el caso bidimensional, m = 2. La derivada de Frechet de
orden 1 se obtiene tomando M = 1 en la expresi on general
f
(1)
(z)(K
1
) =
2
i=1
_
_
2
j
1
=1
i
f
j
i
j
1
K
1
_
_
e
i
=
_
1
f
1
1
K
1
+
1
f
2
2
K
1
2
f
1
1
K
1
+
2
f
2
2
K
1
_
Reemplazando el argumento z por y = y(x) y el operando K
1
por f(y), siendo (para el caso
m = 2) y, f(y) R
2
la expresi on anterior adopta la forma:
f
(1)
(y)(f(y)) =
_
1
f
1
1
f +
1
f
2
2
f
2
f
1
1
f +
2
f
2
2
f
_
= D(f)f = y
(2)
Para simplicar la notaci on se suprime el argumento y, de forma que la derivada segunda de y
se puede expresar como una derivada de Frechet de primer orden:
y
(2)
= f
(1)
(f).
Tambien se puede expresar y
(3)
utilizando derivadas de Frechet hasta orden 2 como m aximo. Si
de nuevo consideramos m = 2 y adoptamos M = 2 en la formula general, se obtiene:
f
(2)
(z)(K
1
, K
2
) =
_
1
f
11
1
K
1
1
K
2
+
1
f
12
1
K
1
2
K
2
+
1
f
21
2
K
1
1
K
2
+
1
f
22
2
K
1
2
K
2
2
f
11
1
K
1
1
K
2
+
2
f
12
1
K
1
2
K
2
+
2
f
21
2
K
1
1
K
2
+
2
f
22
2
K
1
2
K
2
_
Reemplazamos z por y, tomando K
1
= K
2
= f y usando
i
f
12
=
i
f
21
se obtiene:
f
(2)
(f, f) := f
(2)
(y)(f(y), f(y)) =
_
1
f
11
(
1
f
1
)
2
+ 2
1
f
12
(
1
f)(
2
f) +
1
f
22
(
2
f)
2
2
f
11
(
1
f
1
)
2
+ 2
2
f
12
(
1
f)(
2
f) +
2
f
22
(
2
f)
2
_
=
_
f
T
D
2
(
1
f)f
f
T
D
2
(
2
f)f
_
que es el primer termino de la derivada tercera de y que se obtuvo al principio de la secci on
2. El segundo termino de y
(3)
se puede comprobar que es tambien una derivada de Frechet, en
este caso de orden 1. Concretamente, si se toma K
1
= f
(1)
(f) como operando de la derivada de
Frechet de orden 1, se deduce:
f
(1)
(f
(1)
(f)) = (Df)
2
f
Podemos escribir entonces para la derivada tercera:
y
(3)
= f
(2)
(f, f) + f
(1)
(f
(1)
(f)),
que es posible generalizar para cualquier dimension m, y en particular, para el caso escalar
m = 1 se recupera la expresi on habitual de la derivada tercera.
Comentario 4.7 (sobre la derivacion de una derivada de Frechet). Al derivar respecto a x,
y
(x) = f(x), una derivada de Frechet de orden M con argumento y = y(x) cuyos M operandos
son derivadas de Frechet de orden menor a M, se obtiene una combinaci on lineal de derivadas
de Frechet de orden M + 1 con argumentos y y operandos f o derivadas de Frechet de orden
M.
d
dx
[
i
f
j
1
...j
M
,
j
1
K
1
. . .
j
M
K
M
]
d
dx
i
f
j
1
...j
M
= f
i
f
j
1
...j
M
,j
M+1
4.4. HERRAMIENTAS PARA EL ESTUDIO DEL ORDEN DE LOS M
ETODOS RK 45
4.4.4. Diferenciales elementales
Los resultados de la secci on anterior se generalizan del siguiente modo: y
(p)
se puede escribir
(en cualquier dimension) como una combinaci on lineal de derivadas de Frechet de orden menor
o igual a p 1. Cada uno de los termino de dicha combinaci on lineal es lo que se conoce como
un diferencial elemental de f.
Los diferenciales elementales son por tanto las unidades basicas para representar las derivadas
de cualquier orden de y, y nalmente, poder estudiar el orden de los metodos RK.
Denicion 4.8. Los diferenciales elementales de la funcion f R
m
son las funciones F
s
: R
m
R
m
determinadas recursivamente del modo siguiente:
(I) f es el unico diferencial elemental de orden 1.
(II) Si F
s
, s = 1 M, son diferenciales elementales de orden r
s
, respectivamente, entonces la
derivada de Frechet de orden M
f
(M)
(F
1
. . . F
M
)
es un diferencial elemental de orden 1 +
M
s=1
r
s
. No es necesario que los F
s
sean todos
distintos, ni tampoco sus ordenes. La notaci on que adoptaremos para los diferenciales
elementales es:
F
1
F
2
. . . F
M
:= f
(M)
(F
1
. . . F
M
)
donde se sobreentiende que las derivadas involucradas son las de f(y) respecto a las com-
ponentes de y R
m
.
De acuerdo con la denicion anterior, para construir los diferenciales elementales de orden
p > 1, se tienen que utilizar derivadas de Frechet de orden M < p y los M operandos han
de ser diferenciales elementales de orden estrictamente inferior a p pero cuyos ordenes sumen
p 1. De la construccion de los diferenciales elementales hasta orden 4 obtenemos los siguientes
resultados:
Orden 1. Existe un unico diferencial elemental que por denicion es f.
Orden 2. Solo se puede tomar la derivada de Frechet de primer orden, M = 1, de un diferencial
elemental de orden 1. Por tanto, existe un unico diferencial de orden 2, que es f
(1)
(f) = f.
Orden 3 Hay dos opciones: o bien tomar M = 2 y dos difereciales elementales de orden 1 (que
por tanto deben ser f), o bien tomar M = 1 y un diferencial elemental de orden 2 (que
deber a ser f.
Con la primera opcion obtenemos f, f = f
(2)
(f, f), que denotamos como f
2
.
Con la segunda opcion se obtiene f = f
(1)
(f
(1)
(f)), que denotamos como
2
f
2
.
Orden 4. Existen 4 diferenciales elementales:
M = 3. El unico operando posible es f y se obtiene un unico diferencial elemental, f
3
.
M = 2. En este caso solo pueden usarse los operandos f y f, y el unico diferencial
elemental que se obtiene es ff = ff.
46 CAP
ITULO 4. M
ETODOS RUNGE-KUTTA
M = 1. Cada uno de los diferenciales elementales de orden 3 se puede usar como argu-
mento, de modo que hay dos posibles resultados:
2
f
2
2
y
3
f
3
.
De acuerdo con los resultados anteriores se comprueba que podemos escribir las primeras deri-
vadas de y tal como indica la siguiente tabla:
i y
(i)
1 f
2 f
3 f
2
+
2
f
2
4 f
3
+ 3ff +
2
f
2
3
+
3
f
3
Observacion 4.9. f diferencial elemental de orden 1 f
(1)
(f) diferencial elemental de orden
2 f
(1)
(f
(1)
(f)) diferencial elemental de orden 3.
Comentario 4.10. Para el caso de orden 4 y M = 1, entonces:
f
(1)
(f
(2)
(f, f)) f, f
2
f
2
3
f
3
f
(1)
(f
(1)
(f
(1)
(f)))
En el caso escalar y
V ,
A) tal que
V = V y
2
u, v V, u, v
A (u, v) A o (v, u) A.
2
Notemos que en el caso de grafos dirigidos, la arista la escribiremos como una pareja ordenada de vertices, es
decir, (a,b). En cambio, en los grafos no dirigidos, la arista es una pareja no ordenada. Por tanto, la escribiremos
como {a, b}.
4.4. HERRAMIENTAS PARA EL ESTUDIO DEL ORDEN DE LOS M
ETODOS RK 47
3. Sea un grafo (V, A). Una sucesion de vertices diferentes v
1
, . . . , v
k
con k 2, tal que
v
i
, v
i+1
A para 1 i k 1 se conoce como un camino entre v
1
y v
k
. Se dice que el
grafo (V, A) es conexo si entre cada par de vertices distintos de V existe un camino.
Denicion 4.12. Un digrafo (V, E) es un arbol con raz cuando cumple las siguientes condicio-
nes:
(1) Su grafo subyacente es conexo.
(2) Los pares ordenados de E tienen componentes distintas: (a, b) E a ,= b.
(3) Existe un unico elemento de V , denominado raz, que nunca aparece en la segunda com-
ponente de los pares ordenados de E.
(4) Excepto la raz, todos los elementos de V aparecen exactamente una vez entre las segundas
componentes de los pares ordenados de E.
Denicion 4.13.
Un grafo (V, A) es acclico si cumple las condiciones 3 y 4 anteriores. No posee caminos
cerrados o ciclos.
El n umero de vertices de un arbol con raz (y de un grafo en general) se denomina orden.
Dado el par (V, E) el orden del arbol con raz es el cardinal del conjunto de vertices de V .
Comentario 4.14 (Representacion gr aca). Los vertices se representan como puntos y las
aristas como segmentos de recta uniendo los vertices que las denen. Dada una arista (a, b) el
vertice a se representa por debajo del b: las aristas apuntan hacia arriba. La raz es el vertice
que gura en la parte inferior del diagrama.
Denicion 4.15. Si (V, E) y (V
, E
) son dos arboles con raz, se dice que son isomorfos cuando
existe una aplicaci on biyectiva : V V
tal queda
x, y V, (x, y) E ((x), (y)) E
Todos los arboles con raz isomorfos se representan con el mismo diagrama sin etiquetar
los vertices. En realidad, cuando no se usan etiquetas para los vertices el diagrama es una
representacion de toda una clase de equivalencia de arboles con raz denida por la relaci on de
isomorfa.
Comentario 4.16. A menudo hablaremos de arbol para referirnos a un arbol con raz (a
pesar de que en la teora de grafos son dos objetos distintos). Ademas, consideraremos iguales
todos los arboles isomorfos entre s.
Es posible construir los distintos arboles de un orden jado de forma recursiva utilizando la
siguiente notaci on:
Para orden 1, hay un unico arbol con raz de un vertice (arbol trivial), que denotamos .
Dado un arbol t, consideramos todos los vertices x de t tales que (v, x) es una arista de
t, siendo v la raz de t. En tal caso se dice que x es un hijo de la raz. Si suprimimos v
del conjunto de vertices de t, y todas las aristas que tengan como segunda componente a
48 CAP
ITULO 4. M
ETODOS RUNGE-KUTTA
vertices hijos de la raz, lo que queda es un conjunto de aroles t
1
, t
2
. . . t
m
(no necesaria-
mente distintos), que no est an conectados entre s por ning un camino, y cuyas races son
los vertices hijos de v en el arbol t. Utilizaremos la notaci on
t = [t
1
, t
2
. . . t
m
]
para representar el arbol t. Notemos que el orden de los t
i
en la representacion anterior es
irrelevante, de modo que si hay arboles t
i
repetidos, se agrupan y se escribe un exponente
para indicar el n umero de repeticiones. Por ejemplo:
[t
1
t
3
t
2
t
1
t
2
t
2
] := [t
2
1
t
3
2
t
3
]
Mediante la notaci on anterior se obtienen los siguientes arboles con raz distintos de cualquier
orden:
Orden 1. .
Orden 2. [].
Orden 3. [
2
], [[]] := [
2
]
2
.
Orden 4. [
3
], [[]], [[
2
]] := [
2
2
]
2
, [
3
]
3
.
Notemos que el n umero total de arboles de un orden dado coincide con el n umero de diferenciales
elementales del mismo orden que se obtuvo en la secci on anterior. Observemos tambien que si
r(t
i
) son los ordenes de los arboles t
i
, i = 1 . . . m, entonces el orden de t = [t
1
. . . t
m
] es
r(t) = 1 +
m
i=1
r(t
i
),
lo mismo que sucede con la construccion de los diferenciales elementales que se describio en la
secci on anterior. El siguiente teorema generaliza estas dos observaciones:
Teorema 20. Para p 1, el n umero de arboles con raz distintos de orden p coincide con el
n umero de diferenciales elementales de orden p de f. Existe una aplicaci on biyectiva F entre
el conjunto de arboles distintos T y el conjunto de los distintos diferenciales elementales de f.
Esta aplicaci on se dene del siguiente modo:
1. F() = f. Al arbol trivial le corresponde el unico diferencial elemental de orden 1, f.
2. Si a los arboles con raz t
s
de orden r(t
s
), s = 1 M, les corresponden los diferenciales
elementales F(t
s
) de orden r
s
, s = 1 . . . M, entonces al arbol con raz [t
1
. . . t
M
] de orden
1 +
M
s=1
r(t
s
) le corresponde el diferencial elemental de orden 1 +
M
s=1
r
s
.
F([t
1
. . . t
M
]) = F(t
1
) . . . F(t
M
),
Ejemplo 4.17. Consideramos los arboles , [], [], [
2
] y construimos el arbol:
t = [[]
2
[
2
]]
El orden, por la proposici on enunciada anteriormente, es 1+(3+2+2+1) = 9. La representacio del
mismo arbol en notaci on de derivada de Frechet es f, f
2
, f, f. En el caso escalar:
F(t) = f
yyyy
f(f
y
f)
2
f
yy
f
que es uno de los terminos de f
9)
(ya que tiene orden 9). En este caso, F(t) es uno de los terminos
de la derivada de orden 9, los otros se construirian a base de hacer todos los casos posibles de
arboles de orden 9.
4.4. HERRAMIENTAS PARA EL ESTUDIO DEL ORDEN DE LOS M
ETODOS RK 49
4.4.6. Funciones denidas sobre arboles con raz
Volviendo a las dos cuestiones que quedaron planteadas al nal de la secci on 4.3, el teorema
anterior ha establecido que el n umero de diferenciales elementales de orden n coincide con el
n umero de arboles con raz distintos de orden n. El siguiente teorema resuelve como contar
ambas cantidades:
Teorema 21. Sean a
n
el n umero de arboles con raz distintos de orden n. Es decir, el n umero de
diferentes clases de equivalencia bajo la relaci on de isomorfa de arboles con raz de n vertices.
Entonces, las cantidades a
1
, a
2
. . . satisfacen la siguiente identidad termino a termino:
a
1
+a
2
x + a
3
x
2
+ = (1 x)
a
1
(1 x
2
)
a
2
(1 x
3
)
a
3
.
Por identidad termino a termino se entiende que tras sustituir cada factor del miembro
derecho de la igualdad por su serie de Taylor, el coeciente que resulte para la potencia x
k
debe
coincidir con a
k+1
.
Cabe recalcar que el coeciente de la potencia en el miembro derecho de la igualdad solo depende
de a
1
. . . a
k
. Por tanto, la identidad anterior establece una relaci on recurrente para a
k+1
, el cual,
para k > 0, se obtiene de los valores anteriores a
i
, i = 1 k.
Aplicando el teorema anterior se obtienen los valores ya conocidos a
1
= 1, a
2
= 1, a
3
=
2, a
4
= 4. El n umero de diferenciales elementales crece signicativamente con el orden, por
ejemplo, a
5
= 9, y a
8
= 115. Esto da una idea de lo complicado que puede llegar a ser dise nar
metodos RK de orden elevado.
Por si fuera poco, todava necesitamos saber los coecientes numericos de las combinaciones
de difereciales elementales que nos permiten obtener y
(p)
. Para resolver esta cuesti on se introdu-
cen las siguientes funciones denidas sobre un arbol con raz y que pueden calcularse de forma
recursiva.
Denicion 4.18. La densidad de un arbol t, (t), es el producto del orden de todos los subarbo-
les de t:
vV
r
v
= (t)
Donde entendemos que el subarbol v del arbol t es un la pareja (
V ,
E) tal que:
V V,
E E.
(
V ,
E) es un arbol con raz.
v
V V es la raz de (
V ,
E).
El orden del subarbol v lo hemos denotado por r
v
.
Denicion 4.19. Consideremos t = (V, E). Diremos que : V V es un automorsmo de t
si cumple
v, v
V, (v, v
) E [(v), (v
)] E
Denicion 4.20. Decimos que el grupo de simetras de t es:
A(t) = : V V [ automorsmo de t
El orden de A(t), (t), se conoce como simetra de t.
50 CAP
ITULO 4. M
ETODOS RUNGE-KUTTA
Denicion 4.21. Sea un arbol con raz t = [t
m
1
1
t
m
2
2
. . . t
m
k
k
] donde t
1
, t
2
. . . t
k
son arboles con
raz distintos 2 a 2. Entonces el orden r(t), la simetra (t), y la densidad (t) del arbol t se
denen de forma recursiva de acuerdo con las siguientes relaciones:
r(t) = 1 +
k
i=1
m
i
r(t
i
),
(t) =
k
i=1
m
i
! ((t
i
))
m
i
,
(t) = r(t)
k
i=1
((t
i
))
m
i
Y para el caso del arbol trivial t = ,
r() = () = () = 1.
Finalmente, se dene la cantidad (t) para un arbol t cualquiera como
(t) =
r(t)!
(t)(t)
Comentario 4.22. Observemos que (t) es el n umero de formas que tenemos de etiquetar los
vertices de t con 1 . . . r(t) de forma que:
1. A cada vertice le asigno una y solo una etiqueta.
2. Etiquetados equivalentes por automorfa cuentan como uno solo.
3. Si (i, j) es una arista tras etiquetar, entonces i < j.
Estas deniciones nos permiten enunciar el siguiente teorema:
Teorema 22. Sea y = y(x), y
= f(y), y f : ! !. Entonces,
y
(q)
=
r(t)=q
(t)F(t)
donde F(t) es la aplicaci on biyectiva entre arboles con raz y diferenciales elementales que se
introdujo anteriormente.
La siguiente table resume toda la informaci on que se ha ido acumulando hasta ahora y que
permite obtenter las derivadas de y(x) hasta orden 4.
Con estos resultados se puede obtener el desarrollo en serie de Taylor de y(x+h). No obstante,
para obtener las condiciones de orden de un metodo RK se necesita el desarrollo de la funcion
(x, h) al completo. Por tanto, hay que obtener el desarrollo de Taylor de la parte restante de
(x, h) que no se ha considerado hasta ahora. Esta parte es:
y(h) := y(x) + h
k
i=1
b
i
k
i
, k
i
= f
_
_
y(x) + h
s
j=1
a
ij
k
j
_
_
,
s
j=1
a
ij
= c
i
, i = 1 . . . s
4.4. HERRAMIENTAS PARA EL ESTUDIO DEL ORDEN DE LOS M
ETODOS RK 51
Orden Arbol (t) F(t) r(t) (t) (t) (t)
1 f 1 1 1 1
2 [] f 2 1 2 1
3 [
2
] f
2
3 2 3 1
3 [
2
]
2
2
f
2
3 1 6 1
4 [
3
] f
3
4 6 4 1
4 [[]] ff 4 1 8 3
4 [
2
2
]
2
2
f
2
2
4 2 12 1
4 [
2
]
2
3
f
3
4 1 24 1
Ahora bien, el desarrollo de Taylor de y(x) se obtiene a partir del de los diferentes k
i
, que
coinciden con la funcion f evaluada en los distintos puntos. Puesto que y
= f en realidad
este desarrollo se puede expresar tambien en terminos de los diferenciales elementales de f. Por
tanto, el siguiente paso es determinar los coecientes numericos de la combinaci on de diferenciales
elementales que permiten obtener las derivadas de y(h). Estos coecientes en principio no tienen
por que coincidir con los que ya se han obtenido al desarrollar directamente y(x). Comenzamos
por expresar formalmente el desarrollo de Taylor de y(h) entorno a x, (o equivalentemente
entorno a h = 0) del siguiente modo:
y(h) = y(0) + h
d
dh
y(h)
h=0
+
1
2
h
2
d
2
dh
2
y(h)
h=0
+
A continuaci on, adoptando la notaci on
a
s+1,i
:= b
i
, i = 1 . . . s
se introducen las funciones
i
, i = 1 . . . s + 1 cuyo dominio es el conjunto T de los distintos
(bajo isomorsmos) arboles con raz, y cuyo recorrido es el conjunto de los reales. Es decir, son
aplicaciones
i
: T R denidas de forma recursiva de acuerdo con las siguientes reglas:
i
() =
s
j=1
a
ij
= c
i
,
si t
1
, . . . , t
M
T, ([t
1
. . . t
M
]) =
s
j=1
a
ij
j
(t
1
)
j
(t
M
).
Si denotamos (t) :=
s+1
(t), t T, podemos enunciar el siguiente resultado:
Teorema 23. Para un metodo RK de s niveles cuyas ecuaciones se han descrito anteriormente
y que se aplica al caso general de un sistema y
= f(y) con y, f R
m
, la expresi on de las
derivadas de orden q 1 de y(h) viene dada por
d
q
dh
q
y(h)
h=0
=
r(t)=q
(t)(t)(t)F(t), t T,
donde F(t) son diferenciales elementales de f(y) que estan evaluados en y(x).
52 CAP
ITULO 4. M
ETODOS RUNGE-KUTTA
4.5. Orden de los metodos Runge-Kutta
4.5.1. Expresi on de metodos RK
h(x, h) = y(x + h) y(h) =
p
q=1
h
q
q!
_
y
(q)
(x)
d
q
dh
q
y(h)
h=0
_
+O(h
p+1
)
Para un metodo de orden p se cumple:
h(x, h) = O(h
(p+1)
) =
h
p+1
(p + 1)!
_
_
r(t)=p+1
(t)[1 (t)(t)]F(t)
_
_
+O(h
p+2
)
donde el PELD es:
PELD
n+1
=
h
p+1
(p + 1)!
_
_
r(t)=p+1
(t)[1 (t)(t)]F(t)
_
_
y F(t) son las derivadas de Frechet de f(y, x(t)). La expresi on anterior la hemos obtenido a
partir de:
y
(p+1)
(x) =
r(t)=p+1
(t)F(t);
d
p+1
dq
p+1
y(h)
h=0
=
r(t)=p+1
(t)(t)(t)F(t)
y F es una biyeccion entre derivadas de Frechet y diferenciales elementales.
Ejemplo 4.23. Determinar el PELD para RK explcito de 2 niveles y orden m aximo.
0 0
c
2
c
2
0
b
1
b
2
donde se cumplen las condiciones:
b
1
+ b
2
= 1
b
2
c
2
=
1
2
Los dos arboles que consideramos son: t
1
= [[]], t
2
= [
2
].
Para ellos se tiene:
F(t
1
) = f = f
(1)
(f
(1)
(f)) f
2
y
f (dimension 1)
F(t
2
) = f
2
= f
(2)
(f, f) f
yy
f
2
(dimension 1)
Ademas, (t
1
) = 6, (t
2
) = 3 y (t
1
) = (t
2
) = 1.
Por otro lado, para los metodos sabemos que:
(t
1
) = b
T
Ac (t
2
) = b
T
c
Si imponemos que sea de dos niveles y explcito, entonces:
(t
1
) = 0, (t
2
) = b
2
c
2
2
Por tanto el PELD = (1 3b
2
c
2
2
)f
(2)
(f, f)
4.5. ORDEN DE LOS M
ETODOS RUNGE-KUTTA 53
Teorema 24. Si un metodo RK es de orden p, entonces b
T
c
q1
=
1
q
, q = 1 p.
Demostracion. Consideremos el arbol con raz de orden q: [
q1
], que existe q 1. Para
q = 1 tenemos el arbol trivial.
i
([
q1
]) =
j
a
ij
[
j
()]
q1
i
([
q1
]) =
j
a
ij
c
q1
j
([
q1
] =
j
b
j
c
q1
j
La condici on de orden q ser a:
([
p+1
]) =
1
([
q1
])
s
j=1
b
j
c
q1
j
=
1
q
Teorema 25. Un RK explcito de s niveles tiene orden s.
Demostracion. Sea un RK de orden p y t = [
p1
]
p1
.
(t) = p (p 1) 2 1 = p!
(t) =
s
i=1
b
i
i
([
p2
]
p2
) =
=
s
i=1
b
i
s
j=1
a
ij
1
j
1
([
p3
]
p3
) =
i,j
1
,j
2
b
i
a
ij
1
a
j
1
j
2
j
2
([
p4
]
p4
) =
=
i,j
1
,j
2
...j
p2
b
i
a
ij
1
a
j
1
j
2
a
j
p3
j
p2
j
p2
()
donde
j
p2
= c
j
p2
.
Ademas, sabemos que para un metodo RK explcito a
ij
= 0 si j i. Se cumple tambien
(t) = 0 excepto si existe una secuencia de enteros i, j
1
, j
2
. . . j
p2
tal que i > j
1
> j
2
> >
j
p2
> 1 ().
Utilizando () nos queda j
p2
> 1 porque si j
p1
= 1 c
j
p2
= c
1
= 0.
De () se deduce que i p, y como i s entonces p s. Por tanto (t) ,= 0 si p s. Si
p > s (t) = 0 ,=
1
(t)
, con lo que llegamos a una contradicci on.
Teorema 26. Un metodo RK explcito de s niveles tienen orden p < s si s > 4.
4.5.2. Condicion suma-la
Al principio del captulo hemos visto que habitualmente exigamos la condici on suma-la, es
decir, que para un metodo de la famlia RK de s niveles se cumpliese que:
s
j=1
a
ij
= c
i
, i = 1 s
54 CAP
ITULO 4. M
ETODOS RUNGE-KUTTA
En esta secci on profundizaremos m as en la justicaci on de este hecho: estudiaremos dos ejemplos,
uno que cumple la condici on suma-la, y otro que no la cumple.
Llegaremos a la conclusion de que en general, la condici on suma-la permite alcanzar orden
mayor que 1 para el PCI y
= f(x, y(x)).
Ejemplo 4.24 (Cumpliendo la condici on suma-la). Sea el metodo denido por:
_
k
1
= f(x
n
, y
n
+
h
2
k
1
)
k
2
= f(x
n
+ h, y
n
+
h
2
k
1
)
De lo que se deriva que:
(x, h) =
y(x + h) y(x)
h
1
2
(
k
1
+
k
2
)
k
1
= f +
h
2
f
y
k
1
+
1
2
f
yy
k
1
2
2
h
2
+ O(h
3
) = f +
h
2
f
y
f +
h
2
4
(f
2
y
f +
1
2
f
yy
f) + O(h
3
)
k
2
= f + f
x
h + f
y
h
2
k
1
+ O(h
2
) = f + f
x
h + f
y
f
h
2
+ O(h
2
)
Por lo que, nos queda:
1
2
(
k
1
+
k
2
) = f +f
x
h
2
+ f
y
f
h
2
+ O(h
2
) = y(x) +
h
2
y
(2)
(x) + O(h
2
)
Es decir, tenemos (x, h) = O(h
2
). Desarrollando un orden m as, obtenemos la expresi on de
(x, h):
(x, h) =
h
2
6
y
(3)
(x)
h
2
4
(f
2
y
f +
1
2
f
yy
f)
h
2
4
(f
xx
+ f
xx
f) + O(h
3
)
Por lo que, sabiendo que la tercera derivada tiene la expresi on:
y
(3)
(x) = f
y
(f
x
+ f
y
f) + (f
xx
+ 2f
xy
f + f
yy
f
2
)
Podemos concluir que (x, y) tiene un coeciente de orden 3 no nulo, por lo que es orden 2
exacto.
Para generalizar este ejemplo, podemos considerar las deniciones ya conocidas del metodo
RK:
_
k
i
= f(x + c
i
h, y(x) + h
s
j=1
a
ij
k
j
)
k
i
= f(x, y(x)) +f
x
(c
i
h) + f
y
(h
s
j=1
a
ij
f) +O(h
3
)
k
i
= f + h(c
i
f
x
+ (
j
a
ij
)f
y
f) + O(h
2
)
Ejemplo 4.25 (Sin cumplir la condici on suma-la). Consideremos un metodo RK de un nivel,
en general, sin cumplir la condici on suma la.
_
k
1
= f(x + ch, y + chk
1
)
y
n+1
= y
n
+ hbk
1
_
(x, h) = (y
ETODOS RUNGE-KUTTA 55
4.5.3. Formulacion de las condiciones de orden de los metodos RK
Reuniendo los resultados anteriores podemos regresar a la expresi on de la funcion (x, h) de
un metodo RK:
h(x, h) = y(x + h) y(x) h
f
(y(x), x, h) = y(x + h) y(h)
Para un metodo que sea de orden p al menos debe cumplirse
(x, h) = O(h
p
)
o lo que es equivalente,
y(x + h) y(h) = O(h
p+1
).
Por un lado se tiene
y(x + h) = y(x) + hy
(x) +
h
2
2
y
(2)
(x) + . . .
siendo
y
(q)
=
r(t)=q
(t)F(t), t T
con F(t) evaluado en y(x). Por otro lado se tiene:
y(h) = y(0) + h
d
dh
y(h)
h=0
+
1
2
h
2
d
2
dh
2
y(h)
h=0
+ . . .
siendo y(0) = y(x) y
d
q
dh
q
y(h)
h=0
=
r(t)=q
(t)(t)(t)F(t), t T,
con F(t) evaluado en y(x). As pues, es inmediato enunciar el siguiente resultado.
Teorema 27 (Condiciones de orden de los metodos RK). Un metodo RK tiene orden p al menos
si:
Para todo arbol con raz t T tal que r(t) p se verica la igualdad (t) = 1/(t).
Si ademas existe t T de orden p + 1 tal que (t) ,= 1/(t), entonces el metodo RK es de
orden p exactamente.
Por ultimo, cabe destacar algunos comentarios:
En la forma matricial, los coecientes del metodo RK se agrupan de la forma convencional
para construir la correspondiente matriz de Butcher. Las potencias del vector c representan
c
m
= [c
m
1
. . . c
m
s
]
T
, m 0, c
0
= [1 . . . 1]
T
.
La matriz D es de dimension s y se dene como D = diagc
1
. . . c
s
. Las potencias de las
matrices D y A se calculan mediante el producto matricial habitual.
Para que un metodo RK sea de orden 4 al menos deben vericarse un total de 8 condiciones.
Como ya se comento, el n umero de arboles con raz va creciendo con el orden. Puesto que
hay 9 arboles de orden 5, el total de condiciones que debe cumplir un RK para alcanzar
orden 5 al menos es igual a 8 + 9 = 17.
56 CAP
ITULO 4. M
ETODOS RUNGE-KUTTA
4.6. Metodos RK imbricados
Un metodo RK imbricado es un conjunto de dos metodos RK que comparten gran parte de
los coecientes. Los dos metodos tendran un orden distinto. Uno de ellos (el de menor orden)
servir a para obtener la soluci on numerica, y el otro (el de orden m as grande), lo utilizaremos
para aproximar el ELD cometido:
_
y
n
= y
n
(metodo 1)
ELD y
n
(metodo 1) y
n
(metodo 2)
Metodo 1 (explcito o semiimplcito) de orden p.
c A
b
T
de s niveles. Sirve para obtener soluciones numericas.
Metodo 2 (explcito o semiimplcito) de orden p + 1 y s niveles con s s
c
A
b
T
donde las s primeras componentes de c forman c y las s primeras las y columnas de
A
forman A.
Es decir, las k
i
, i = 1 s de los metodos 1 y 2 son iguales.
y
(1)
n+1
= y
(1)
n
+
s
i=1
b
i
k
i
y
(2)
n+1
= y
(2)
n
+
s
i=1
b
i
k
i
Si restamos ambas expresiones obtenemos:
y
(2)
n+1
y
(1)
n+1
= h
s
i=1
(
b
i
b
i
)k
i
, si y
(1)
n
= y
(2)
n
que nos da b
i
= 0 si i > s. Por otro lado,
y(x
n+1
) y
(1)
n+1
= h
(1)
(x, h) =
(1)
(y(x
n
))h
p+1
+O(h
p+2
)
y(x
n+1
) y
(2)
n+1
= h
(2)
(x, h) =
(2)
(y(x
n
))h
p+2
+O(h
p+2
)
donde y
(1)
n+1
, y
(2)
n+1
son las soluciones numericas obtenidas con los metodos 1 y 2, suponiendo
que y
(1)
n
= y
(2)
n
= y(x
n
).
En particular, se cumple que
y
(2)
n+1
y
(1)
n+1
=
(1)
(y(x
n
))h
p+1
+ O(h
p+2
)
PELD
n+1
=
(1)
(y(x
n
))h
p+1
y
(2)
n+1
y
(1)
n+1
= h
s
i=s+1
(
b
i
b
i
)k
i
4.7. PROBLEMAS 57
Comentario 4.26. Un metodo RK imbricado (p, p + 1) nos proporciona la soluci on numerica
mediante el metodo 1, y el PELD lo obtenemos gracias a la diferencia de soluciones de los
metodos 1 y 2. Por ello puede resultar interesante denotar los coecientes de ambos metodos
mediante la siguiente matriz de Butcher adaptada:
c
A
b
T
b
T
E
T
4.7. Problemas
Problema 47. De acuerdo con el enunciado, consideremos el siguiente predictor-corrector:
P : y
[0]
n+1
= y
n
+ hf
n
C : y
n+1
= y
n
+
h
2
(f
n
+ f
n+1
)
As, para la primera iteraci on
y
[1]
n+1
= y
n
+
h
2
_
f
n
+f(x
n
+ h, y
[0]
n+1
)
_
donde
f
n
= k
1
y
[0]
n+1
= y
n
+ hk
1
Observamos que el orden del predictor es 1, y el del corrector es 2. El orden del metodo predictor-
corrector se corresponde con el del corrector si 2 1 = 1. Al aplicar el metodo en modo
PECE obtenemos un metodo de tipo Runge-Kutta:
y
n+1
= y
n
+
h
2
(k
1
+ k
2
)
k
1
= f
n
k
2
= f(x
n
+ h, y
n
+ hk
1
)
La matriz de Butcher para este caso es
0 0 0
1 1 0
1/2 1/2
que es un metodo RK de orden 2.
Supongamos que aplicamos el metodo en el modo P(EC)
2
E. En este caso
y
[2]
n+1
= y
n
+
h
2
_
f
n
+ f(x
n
+ h, y
[1]
n+1
)
_
= y
n
+
h
2
(k
1
+ k
3
)
58 CAP
ITULO 4. M
ETODOS RUNGE-KUTTA
Los valores para las k
i
del RK correspondiente son:
k
1
= f
n
k
2
= f(x
n
+ h, y
n
+ hk
1
)
k
3
= f(x
n
+ h, y
n
+
h
2
k
1
+
h
2
k
2
)
La matriz de Butcher para = 2 es
0 0
1 1 0
1 1/2 1/2 0
1/2 0 1/2
Discutimos el orden seg un la matriz de Butcher:
1
2
+
1
2
= 1 orden 1
0 1 +
1
2
1 =
1
2
orden 2
0 1
2
+
1
2
1
2
=
1
2
,=
1
3
orden exactamente 2
Para un RK implcito de 3 niveles:
b
1
+ b
2
+ b
3
= 1 = b
T
c
0
donde
c
l
= [c
l
1
. . . c
l
s
]
T
, b
T
c =
1
2
c
0
= [1 . . . 1]
T
, b
T
c =
1
3
Intuimos que para terminos en h
q
aparece una condici on de orden
b
T
c
q1
=
1
q
As es. Una condici on necesaria para que un RK alcance orden p es
b
T
c
q1
, q = 1 p
No es una condici on suciente.
Problema 50. Consideremos un metodo con matriz de Butcher:
0 1/2 0
1 1/2 0
1/2 1/2
No podemos aplicar las condiciones de orden. Deberemos obtener el desarrollo de Taylor de
(x, h). Por otro lado, tampoco cumple la condici on suma-la.
4.7. PROBLEMAS 59
A partir de la matriz de Butcher sabemos que el metodo es
y
n+1
= y
n
+
h
2
k
1
+
h
2
k
2
donde
k
1
= f(x
n
, y
n
+
1
2
k
1
) (dem ejercicio 48)
k
2
= f(x
n
+ h, y
n
+
h
2
k
1
) (caso particular k
2
para un metodo explcito)
Problema 52. Se trata de un metodo de orden 3 en el caso general. Si tomamos y
= f(y) en
dimension 1 entonces tiene orden 4:
t = [[]]
t
= [[
2
]]
Observamos que el orden es 3 para el caso general puesto que no se cumplen las dos condiciones
de orden 4:
bAc
2
=
1
12
bDAc =
1
8
Hay dos terminos en potencia de h
3
del desarrollo de Taylor de (x, h) que no se anulan:
t f
(2)
(f, f
(1)
(f)) = f
yy
f(f
y
f) = f
yy
f
y
f
2
t
f
(1)
(f
(2)
(f, f)) = f
y
(f
yy
f f) = f
yy
f
y
f
2
y notamos que ambos terminos coinciden.
Podemos reescribir las condiciones de orden 4 del modo siguiente:
1 12bAc
2
= 0
1 8bDAc = 0
de modo que
(t
)[1 12bAc
2
] = 0
(t)[1 8bDAc] = 0
Con respecto a la funcion :
(x, h) =
y(x + h) y(x)
h
s
i=1
b
i
k
i
Para este metodo la (x, h) posee en h
3
esta expresi on:
(x, h) = (t
)[1 12bAc
2
]f
(1)
(f
(2)
(f, f))
h
3
4!
+ (t)[1 8bDAc]f
(2)
(f, f
(1)(f)
)
h
3
4!
+ O(h
4
)
donde la expresi on anterior se corresponde con PELD
n+1
/h del metodo.
60 CAP
ITULO 4. M
ETODOS RUNGE-KUTTA
(t) es el n umero de formas de etiquetar los vertices de t con 1, 2 . . . r(t)
r(t) es el orden de t bajo las siguientes condiciones:
1. Cada vertice (i, j) cumple i < j.
2. Las aristas (i, j) cumplen i < j.
3. Etiquetados automorfos cuentan como uno solo.
Por tanto, tenemos los siguientes arboles:
t
(1 2, 2 3, 2 4), (
t) = 1
t (1 2, 1 3, 3 4), (1 3, 1 2, 2 4), (1 4, 1 2, 2 3), (t) = 3
(t
)[1 12bAc
2
] + (t)[1 8bDAc] = 0,
(t
) = 1, bAc
2
= 0, (t) = 3, bDAc = 1/6
Y por tanto (x, h) = O(h
4
) para el caso escalar con un sistema aut onomo.
Problema. (problema 4 Extra 7Juliol2010.pdf) El metodo de orden 3 es explcito y su matriz
de Butcher es:
_
_
_
_
_
_
0
1/2 1/2
1/2 0 1/2
b
1
b
2
b
3
_
_
_
_
_
_
por lo que se trata de un metodo de 3 niveles.
_
_
_
b
1
+ b
2
+ b
3
= 1, orden 1
b
2
2
+
b
3
2
=
1
2
, orden 2
Por otro lado, las condiciones de orden 3 son:
b
2
4
+
b
3
4
=
1
3
que es incompatible con las dos anteriores, y por tanto no puede construirse el RK (3,4) imbri-
cado.
Problema. Consideremos el siguiente caso:
y
= f(y), f : R
m
R
m
Para la derivada tercera:
y
(3)
= f
2
+
2
f
2
Se obtienen los siguientes arboles de tercer orden:
4.7. PROBLEMAS 61
[
2
]
2
, (1-2,2-3), = 6
([
2
]
2
) =
3!
6 1
= 1
[
2
], (1-3,3-1), = 2
([
2
]) =
3!
3 2
= 1
Introducimos las funciones
i
y las condiciones de orden que se obtienen a partir de estas:
Orden 1:
i
() =
s
j=1
a
ij
= c
i
, i = 1 s
() =
s
i=1
b
i
() =
1
()
i
b
i
= 1
Orden 2: []
i
([]) =
j
a
ij
j
()
=
j
a
ij
c
j
() orden 1
([]) =
j
b
j
j
() =
j
b
j
c
j
([]) =
1
([])
j
b
j
c
j
=
1
2
Orden 3:
1. [
2
]
i
([
2
]) =
j
a
ij
(
j
())
2
=
j
a
ij
c
2
j
([
2
]) =
j
b
j
c
2
j
([
2
]) = 3
j
b
j
c
2
j
=
1
3
2. [
2
]
2
i
([
2
]
2
) =
j
a
ij
j
([]) =
j
a
ij
k
a
ij
c
k
([
2
]
2
) =
j
b
j
k
a
jk
c
k
([
2
]
2
) = 6
j
b
j
k
a
jk
c
k
=
1
6
62 CAP
ITULO 4. M
ETODOS RUNGE-KUTTA
Problema. En este problema primero hemos comprobado que el metodo tiene orden 3. Una
vez hecho el an alisis sobre un problema aut onomo y no aut onomo se descubre que el primero
tiene un comportamiento de orden 4.
Esto sucede debido a que:
y
n+1
= y
n
+ h(
k
1
6
+
2
3
k
2
+
k
4
6
)
Aplicado al PCIy
1
= y
0
+ h(. . .)
k
1
= y
0
= 1
k
2
= y
0
+
h
2
k
1
= 1 +
h
2
k
3
= 1 +
h
2
k
1
3h
2
k
2
= 1 h
3
4
h
2
k
4
= y
0
+
4
3
hk
2
1
3
hk
3
= 1 + h + h
2
+
h
3
4
Por lo que la soluci on numerica en el primer paso es:
y
1
= 1 + h +
h
2
2
+
h
3
6
+
h
4
24
Como la soluci on exacta es y(x) = e
x
, tenemos que:
y(h) y
1
= O(h
5
)
Por lo que el error general de discretizacion es que orden 4. Para el caso y
= xy vamos a obtener
y(h) y
1
= O(h
4
), por lo que el EGD es de orden 3, un orden inferior como queramos ver. No
entramos en calculos detallados.
Problema. Veamos ahora que los metodos RK no explcitos tienen zonas de estabilidad no
acotadas, contrariamente a los explcitos. Tenamos:
R(
h) = 1 +
hb
T
(I
s
hA)
1
e
Adj(I
s
h) =
p(
h)
q(
h)
Donde p, q son polinomios de grado s.
Problema 45. Comprobamos las condiciones de orden y obtenemos:
1
10
+
1
2
+
2
5
= 1 orden 1
b
T
c =
1
2
orden 2
4.7. PROBLEMAS 63
Veamos ahora si cumple las condiciones de orden 3:
(t
1
) = 1 = (t
2
) (4.4)
(t
1
) = 6 (t
2
) = 3 (4.5)
b
T
Ac =
1
6
cond de orden 3 b
3
a
32
c
2
=
1
6
(4.6)
(t
2
) =
s
i=1
b
i
c
2
i
(4.7)
b
T
c
2
=
1
3
Condicion de orden 3 (4.8)
Cumple la condici on de orden 3 y 3 niveles y explcito. Rightarrow Orden 3 exacto.
Veamos ahora el termino principal del error:
PELD =
h
4
4!
r(t)=4
(t)(1 (t)(t))F(t)
F biyeccion arboles con raz y diferenciales elementales. Ahora haciendo calculos tenemos ya
que:
PELD =
h
4
4!
f
(1
(f
(1)
(f
(1)
(f)))) + . . .
Falta pues calcular la contribucion de los otros tres arboles: Para t
2
, collita propia:
(t
2
) = 2
(t
2
) = 4!
(t
2
)
64 CAP
ITULO 4. M
ETODOS RUNGE-KUTTA
Captulo 5
Introduccion a los Metodos para
Sistemas Rgidos
En este captulo presentaremos un tipo concreto de problema, caracterizado por las dicul-
tades con a nadidas con las que nos encontramos a la hora de resolverlo. El grueso del captulo
se encuentra en el chero de Atenea stiness.pdf.
5.0.1. Determinacion de metodos A-estables
Para resolver sistemas sti utilizaremos los siguientes metodos:
Metodos implcitos.
De un paso.
Es necesario que sean A
0
-estables, aunque tambien es deseable que sean A-estables.
Utilizaremos metodos de un paso (RK o lineales).
Los aplicaremos al problema y = y, cuya soluci on numerica cumple y
n+1
= R(
h)y
n
Para un metodo RK: R(
h) = 1 +
hb
T
(I
s
hA)
1
e, que es de s niveles.
Para un metodo Lineal: R(
h) =
1+
0
h
1
1
h
, con y
n+1
y
n
= h(
1
f
n+1
+
0
f
n
).
Son metodos implcitos, R(
= y y(x) = Ke
(
x)
y(x
n+1
) = y(x
n
+ h) = e
(
h) y(x
n
)
Si el metodo es de orden p entonces:
y(x
n+1
) y
n+1
= [exp(
h) R(
h)]y(x
n
) = O(h
p+1
)
R(
h) = exp(
h) + O(h
p+1
)
65
66 CAP
ITULO 5. INTRODUCCI
ON A LOS M
IGIDOS
Denicion 5.1. Sea R
S
T
(q) funcion racional, donde S es el grado del polinomio del numerador
y T es el grado del polinimio del denominador. Se dice que R
S
T
(q), q C es una aproximacion
racional de orden p de la exponencial si y solo si
R
S
T
(q) = exp(q) +O(q
p+1
)
Teorema 28. Un metodo de un paso de orden p posee una funcion de estabilidad absoluta que
es una aproximaci on racional de orden p de exp(
h),
h = h.
Sea
R
S
T
(q) =
S
i=0
a
i
q
i
T
i=0
b
i
q
i
Teorema 29. R
S
T
es una aproximaci on racional de orden p de exp(q) si y solo si:
1 + a
1
q + . . . + a
S
q
S
(1 + b
1
q + . . . + b
T
q
T
)(1 + q +
q
2
2
+ . . .) = O(q
p+1
)
Teorema 30. El maximo orden de una aproximaci on racional R
S
T
es S + T. La aproximaci on
racional R
S
T
de maximo orden posible es unica y se denomina aproximaci on de Pade de e
q
. Se
denota
R
S
T
.
Denicion 5.2. Una aproximacion racional R
S
T
se denomina:
A-aceptable si q C, Re(q) < 0 [R
S
T
(q)[ < 1.
A
0
-aceptable si q R, q < 0 [R
S
T
(q)[ < 1.
L-aceptable si es A-aceptable y [R
S
T
[ 0 si Re(q) .
Comentario 5.3. Si R
S
T
es una funcion de estabilidad absoluta de un metodo de un paso
entonces:
A-aceptable metodo A-estable.
A
0
-aceptable metodo A
0
-estable.
L-aceptable metodo L-estable.
Resultados sobre aceptabilidad de funciones racionales
1. La aproximacion de Pade
R
S
T
es A-aceptable T 2 S T
2. Si S = T 2 o bien S = T 1 entonces
R
S
T
es L-aceptable.
3. R
S
T
(q) es A-aceptable y T > S R
S
T
(q) es L-aceptable.
4. R
S
T
(q) con S > T no puede ser A-aceptable.
5. Si
R
S
T
es la aproximacion de Pade y T S entonces
R
S
T
(q) es A
0
-aceptable.
Captulo 6
Problemas de Condiciones de
Frontera
6.1. Caso general: PCF
Sea y
= f(x, y) R
m
. Se busca la soluci on y(x) tal que r
_
y(a), y(b)
_
= 0, donde se tiene que
r : R
m
R
m
R
m
es una funcion que se anular a si nuestra soluci on cumple con las condiciones
de frontera.
Es decir, si exigimos que y
exacta
(a) = y
1
, y
exacta
(b) = y
2
, entonces nuestra funcion r podra
ser:
r(y(a), y(b)) = (y(a) y
1
)
2
+ (y(b) y
2
)
2
.
Hay que tener en cuenta que el Problema de Condiciones Frontera:
Puede no tener soluci on, o
puede admitir m as de una soluci on.
Condiciones de Frontera Separables
Son casos en los que tenemos: r
1
(y(a)) = 0, y r
2
(y(b)) = 0, donde r
1
, r
2
: R
m
R
m
.
Ejemplo 6.1 (Condiciones de Frontera Separables).
r
1
(y(a)) = y(a) , r
2
(y(b)) = y(b)
6.1.1. Problemas de valores singulares (eigenvalue problems)
Sea y
= f(x, y; ), con r
_
y(a), y(b);
_
= 0, donde r : R
m
R
m
R R
m+1
.
El problema consiste en determinar los valores de (valores singulares) para los cuales
existe una soluci on y(x). Denimos para y(x) R
m
,
m+1
y(x) = ,
m+1
y
f =
_
f, 0
_
t
y =
f(x, y)
67
68 CAP
(x) =
f(x, y) cumpla que r
_
y(a), y()
_
= 0.
Ejemplo 6.2.
x = a + t( a) = a + tz
m+1
, 0 t 1
dz
m+1
dt
=
z
m+1
= 0
z(t) = y(a +tz
m+1
)
Denimos el vector z(t) = [ z, z
m+1
(t)]
t
, con lo que tenemos que:
d z(t)
dt
=
z = z
m+1
y
(a + tz
m+1
) = z
m+1
f(x, y)
z =
f(t, z);
f = [z
m+1
f(x, y), 0]
t
Por tanto, r
_
y(a), y()
_
= 0 r( z) = 0, donde se tiene que cumplir que z(1) = 0.
6.2. Metodo del tiro simple
Ejemplo 6.3. Tenemos la ecuacion:
yy
= 1 y
2
, y(0) = 1, y(1) = 2
Para transformarlo en un sistema de primer orden, operamos de la siguiente manera:
y
=
1 y
2
y
_
y
y
_
= z R
2
De donde nos queda el sistema en z:
_
z
1
z
2
_
= z
= f(z) =
_
y
y
_
=
_
z
2
1z
2
2
z
1
_
Tenemos la condicion inicial y(0) = 1, y tambien nos exigen que y(1) = 2. Para resolverlo,
buscaremos la condici on que debe cumplir y
(0) = 5, es decir,
z(0) =
_
1
5
_
Para obtener este valor en la pr actica (el valor que debe cumplir y
= f(x, y), r
_
y(a), y(b)
_
= 0, y queremos encontrar una
soluci on de la ecuaci on, podemos utilizar el metodo del tiro simple si f cumple la condici on de
Lipschitz (ya que esto asegura que existira una soluci on y(x; s)).
Sea s R
m
. Consideramos el PCI:
y
s
[0]
= F(s
[]
)
Donde J
F
es la matriz jacobiana de F respecto a s y = 0, 1, . . .. Se tiene que:
s
[]
= s
[+1]
s
[]
Cada iteraci on del metodo requiere:
1. Calcular F(s
[]
). Por tanto, tambien necesitamos calcular y(x
N
, s
[]
), y, por tanto, necesi-
tamos la soluci on numerica aproximada de y
s
[0]
= F(s
[]
).
Observemos que en el caso m = 1, tenemos que J
F
(s) =
dF(s)
ds
F(s)
s
, con lo que obtener
la jacobiana no es demasiado costoso. Esto no es as en general para dimensiones superiores.
6.2.1. Limitaciones del metodo de tiro simple
Una precision elevada en la soluci on de F(s) = 0 no implica que |y(x
N
; s)y(b; s)| = EGD
N
sea lo sucientemente peque na.
Teorema 31. Sea y
= f(x, y)
r
_
y(a), y(b)
_
= 0 [a, b] R
Consideremos una partici on: a = x
1
< x
2
< . . . < x
N
= b Ahora, dados s
1
, s
2
, . . . , s
N
,
calculamos la soluci on numerica de:
_
_
y
= f(x, y) y(x
1
) = y(a) = s
1
[x
1
, x
2
]
y
= f(x, y) y(x
2
) = s
2
[x
2
, x
3
]
.
.
.
y
= f(x, y) y(x
N1
) = s
N1
[x
N1
, x
N
]
En general, consideramos N 1 PCI:
y
= f(x, y) y(x
k
) = s
k
[x
k
, x
k+1
], k = 1, . . . , N 1
La idea consiste en ir ajustando los valores s
1
, s
2
, . . . , s
N
, de tal manera que se minimice
una cierta funcion de error F(s
1
, . . . , s
N
). Esta funcion ser a mnima cuando los N 1 PCI
cumplan la restriccion en la frontera, es decir, cuando
y
= f(x, y) y(x
k
) = s
k
[x
k
, x
k+1
] s
k+1
= y(x
k+1
), k = 1, . . . , N 1
Notemos que en este momento, la soluci on encajara, es decir, ser a contnua, y se cumplira
el PCF requerido.
Para Y, f, r con recorrido R
n
, s
i
R
m
i = 1, . . . , N, la expresi on vectorial del problema
ser a:
F(s) =
_
_
F
1
(s
1
, s
2
)
F
2
(s
2
, s
3
)
.
.
.
F
N1
(s
N1
, s
N
)
F
N
(s
1
, s
N
)
_
_
= 0
6.3. M
s =
_
_
F
[]
1
.
.
.
F
[]
N
(s
1
, s
N
)
_
_ = 0, 1 . . .
s =
_
s
1
.
.
.
s
N
_
_ = s
[+1]
s
[]
Para k = 1, . . . , N 1 se tiene que:
F
k
s
k
=
y(x
k+1
; x
k
, s
k
)
s
k
=
y(x
k+1
; x
k
, s
k
+ s
k
) y(x
k+1
; x
k
, s
k
)
s
k
= G
k
/
mm
F
k
s
k+1
= I
m
k = 1, . . . , N 1
F
N
S
N
=
r(s
1
, s
N
)
s
N
= B /
mm
F
N
s
1
=
r(s
1
, s
N
)
s
1
= A /
mm
Tenemos, que la matriz J
f
(s) acabar a siendo de la forma:
J
F
(s) =
_
_
G
1
I
m
0 . . . 0
0 G
2
I
m
. . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . G
N1
I
m
A 0 . . . 0 B
_
_
s
[]
= J
F
(s)
_
s
1
.
.
.
s
N
_
_ =
_
_
F
1
.
.
.
F
N
_
_
_
_
G
1
s
1
s
2
= F
1
G
2
s
2
s
3
= F
2
.
.
.
G
N1
s
N1
s
N
= F
N1
A
s
1
+B
s
N
= F
N
72 CAP
s
2
= G
1
s
1
+F
1
s
3
= G
2
s
2
+F
2
.
.
.
s
N
= G
N1
s
N1
+ F
N1
A
s
1
+ B
s
N
= F
N
Problema. Tenemos el problema:
y