Академический Документы
Профессиональный Документы
Культура Документы
Una Introduccion
al
Analisis Numerico
i
Este libro nace ante el vacio existente de una bibliografa en espa~nol que
trate los temas capitales del Analisis Numerico. El nombre que lleva, \Una
Introduccion al Analisis Numerico", se debe esencialmente al caracter que
deseo que tenga este libro.
El Analisis Numerico es una disciplina de las Matematicas en gran
crecimiento gracias a la utilizacion masiva de medios informaticos. Da que
pasa es mas corriente el tratamiento numerico en las Ciencias, como en
la Tecnologa; el modelaje, la simulacion numerica son moneda corriente.
Ahora bien, toda persona que pretenda tener como herramienta de tra-
bajo, los metodos numericos, debe conocer los topicos introductorios del
Analisis Numerico que son: Sistemas Lineales, Interpolacion, Resolucion de
Ecuaciones no Lineales, Calculo de Valores Propios y Solucion Numerica de
Ecuaciones Diferenciales, porque tarde o temprano se topara con alguno de
estos temas.
Siguiendo la lnea trazada por este libro, este contiene siete captulos: el
primero de caracter introductorio, donde se da los conceptos basicos de error
y estabilidad, seguido de un ejemplo mostrando que la aritmetica del punto
otante no es un impedimento para efectuar calculos de precision arbitraria;
el segundo captulo trata sobre los problemas lineales mas comunes y
los metodos de solucion de estos; el tercer captulo aborda el tema de
interpolacion numerica y extrapolacion, introduciendo el estudio de los
splines cubicos; el captulo IV analiza los problemas no lineales y los metodos
mas ecientes de resolucion de estos; en el captulo V se estudia el problema
de valores propios y la implementacion de metodos numericos para el calculo
de valores propios; el captulo sexto trata de la integracion numerica y la
transformada rapida de Fourier y nalmente el captulo VII estudia los
problemas diferenciales y los metodos numericos de resolucion mas usuales
de estos problemas.
Practicamente el contenido de este libro ven los estudiantes de segundo
a~no de las Carreras de Matematicas e Informatica de la Universidad de
Ginebra, Suiza, Universidad en la cual he sido formado. El pre-requisito
para un buen aprovechamiento de este libro es conocer bien los principios
basicos del Analisis Real y Complejo, como tambien tener una buena base
de Algebra Lineal. Por consiguiente, este libro esta destinado a estudiantes
universitarios que siguen la asignatura de Analisis Numerico, como as mismo
toda persona interesada en Analisis Numerico que tenga los pre-requisitos
y que desea cimentar sus conocimientos en esta disciplina. Este libro puede
vi Prefacio
ser utilizado como texto base o bien como complemento bibliograco.
Debo agredecer a mis profesores de la Universidad de Ginebra, E. Hairer
y G. Wanner cuyos cursos han servido de base para la elaboracion de este
libro. Por otro lado, sin el apoyo en material de trabajo del Programa
MEMI, Programa de Mejoramiento de la Ense~nanza de las Matematicas e
Informatica, de la Universidad Mayor de San Simon este libro no habra
existido. As mismo agradezco a mi familia, mis colegas y amigos que
seguieron con inters la elaboracion de este libro.
El libro ha sido transcrito en TEX y las gracas realidas en las sub-
rutinas gracas FORTRAN que G. Wanner me las cedio muy gentilmente. La
transcripcion, como la ejecucion de los programas en sido realizados sobre
una WorkStation HP-9000.
Posiblemente este libro contenga muchos errores, me gustara que los
hagan conocer, para que en una segunda edicion estos sean corregidos.
Octubre, 1995 Hans C. Muller S.C.
Contenido
I. Preliminares
I.1 Algoritmos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 2
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 6
I.2 Estabilidad : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 8
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 14
I.3 Un ejemplo: Calculo de PI : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 15
II. Sistemas Lineales
II.1 Condicion del Problema Lineal : : : : : : : : : : : : : : : : : : : : : : : : : : 25
Normas de Vectores y Matrices : : : : : : : : : : : : : : : : : : : : : : : : : : : : 25
La Condicion de una Matriz : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 29
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 33
II.2 Metodos Directos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 35
El Algoritmo de Gauss : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 36
El Algoritmo de Cholesky : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 43
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 47
II.3 Metodos Iterativos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 48
Metodos de Jacobi y Gauss-Seidel : : : : : : : : : : : : : : : : : : : : : : : : : 48
El Teorema de Perron-Frobenius : : : : : : : : : : : : : : : : : : : : : : : : : : : 52
Metodo de Sobrerelajacion SOR : : : : : : : : : : : : : : : : : : : : : : : : : : : 56
Estudio de un Problema Modelo : : : : : : : : : : : : : : : : : : : : : : : : : : : 59
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 64
II.4 Metodos Minimizantes : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 66
Metodo del Gradiente : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 68
Metodo del Gradiente Conjugado : : : : : : : : : : : : : : : : : : : : : : : : : : 69
Polinomios de Chebichef : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 73
Metodo del Gradiente Conjugado Precondicionado : : : : : : : : : 75
Resultados Numericos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 78
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 81
II.5 Mnimos Cuadrados : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 83
La descomposicion QR : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 87
La Pseudo-Inversa de una Matriz : : : : : : : : : : : : : : : : : : : : : : : : : : 92
Error del Metodo de los Mnimos Cuadrados : : : : : : : : : : : : : : : 96
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 101
viii Contenido
III. Interpolacion
III.1 Interpolacion de Lagrange : : : : : : : : : : : : : : : : : : : : : : : : : : : : 104
Bases Teoricas : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 104
Construccion del Polinomio de Interpolacion : : : : : : : : : : : : : : 106
El Error de Interpolacion : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 111
Polinomios de Chebichef : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 113
Estudio de los Errores de Redondeo : : : : : : : : : : : : : : : : : : : : : : 115
Convergencia de la Interpolacion : : : : : : : : : : : : : : : : : : : : : : : : : 119
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 129
III.2 Splines Cubicos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 131
Construccion del Spline Interpolante : : : : : : : : : : : : : : : : : : : : : : 133
El Error de la Aproximacion Spline : : : : : : : : : : : : : : : : : : : : : : : 136
Aplicacion de Spline : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 142
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 143
III.3 Extrapolacion : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 145
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 150
IV. Ecuaciones No Lineales
IV.1 Ecuaciones Polinomiales : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 152
Ecuaciones Resolubles por Radicales : : : : : : : : : : : : : : : : : : : : : : 152
Ecuaciones No Resolubles por Radicales : : : : : : : : : : : : : : : : : : 155
Localizacion de Ceros : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 155
Metodo de Newton : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 157
Sucesiones de Sturm : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 159
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 161
IV.2 Metodos Iterativos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 163
Posicion del Problema : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 163
Metodo de la Falsa Posicion : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 165
Sistema de Ecuaciones : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 168
Un Metodo Iterativo Simple : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 169
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 173
IV.3 Metodo de Newton : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 174
El Teorema de Newton-Misovski : : : : : : : : : : : : : : : : : : : : : : : : : : 179
Metodo de Newton Simplicado : : : : : : : : : : : : : : : : : : : : : : : : : : 184
Metodo de Newton con Relajacion : : : : : : : : : : : : : : : : : : : : : : : : 193
Aproximacion de Broyden : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 197
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 199
IV.4 Metodo de Gauss Newton : : : : : : : : : : : : : : : : : : : : : : : : : : : : 203
Convergencia del Metodo de Gauss-Newton : : : : : : : : : : : : : : : 204
Modicaciones del Metodo de Gauss-Newton : : : : : : : : : : : : : 207
El Metodo de Levenber-Marquandt : : : : : : : : : : : : : : : : : : : : : : : 210
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 211
Contenido ix
V. Calculo de Valores Propios
V.1 Teora Clasica y Condicion del Problema : : : : : : : : : : 214
La Condicion del Problema a Valores Propios : : : : : : : : : : : : : 217
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 221
V.2 Determinacion de Valores Propios : : : : : : : : : : : : : : : : : : : 223
El Metodo de la Potencia : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 223
Formas Tridiagonales y Formas de Hessenberg : : : : : : : : : : : : 227
Teorema de Sturm y el Algoritmo de la Biseccion : : : : : : : : : 229
Generalizacion del Metodo de la Potencia : : : : : : : : : : : : : : : : : 233
El Metodo QR : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 237
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 241
VI. Integracion Numerica
VI.1 Bases Teoricas : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 244
Formulas de Cuadratura : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 248
El Orden de una Formula de Cuadratura : : : : : : : : : : : : : : : : : 249
Estimacion del Error : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 250
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 256
VI.2 Cuadraturas de Orden Elevado : : : : : : : : : : : : : : : : : : : : : : 258
Polinomios Ortogonales : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 259
Los Polinomios de Legendre : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 263
Las Formulas de Cuadratura de Gauss : : : : : : : : : : : : : : : : : : : 264
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 267
VI.3 Implementacion Numerica : : : : : : : : : : : : : : : : : : : : : : : : : : : : 269
Tratamiento de Singularidades : : : : : : : : : : : : : : : : : : : : : : : : : : : 273
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 282
VI.4 Transformacion de Fourier : : : : : : : : : : : : : : : : : : : : : : : : : : : : 284
Estudio del Error : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 287
Interpolacion Trigonometrica : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 288
Transformacion Rapida de Fourier FFT : : : : : : : : : : : : : : : : : : 290
Aplicaciones de FFT : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 292
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 293
VII. Ecuaciones Diferenciales
VII.1 Generalidades : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 296
Teoremas de Existencia y Unicidad : : : : : : : : : : : : : : : : : : : : : : : 297
Problemas con Valores en la Frontera : : : : : : : : : : : : : : : : : : : : : 300
Diferenciabilidad respecto a los Valores Iniciales : : : : : : : : : : 300
Simple Shooting : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 303
Shooting Multiple : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 307
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 311
x Contenido
VII.2 Metodo de Euler : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 313
Efectos de los Errores de Redondeo : : : : : : : : : : : : : : : : : : : : : : : 317
Estabilidad del Metodo de Euler : : : : : : : : : : : : : : : : : : : : : : : : : 319
Metodo de Euler Impcito : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 321
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 322
VII.3 Metodos de Runge-Kutta : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 323
Construccion de un Metodo de Orden 4 : : : : : : : : : : : : : : : : : : 327
Metodos Encajonados : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 330
Soluciones Continuas : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 333
Convergencia de los Metodos de Runge-Kutta : : : : : : : : : : : : 335
Experiencias Numericas : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 338
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 340
VII.3 Metodos Multipasos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 341
Metodos de Adams Explcitos : : : : : : : : : : : : : : : : : : : : : : : : : : : : 341
Metodos de Adams Implcitos : : : : : : : : : : : : : : : : : : : : : : : : : : : : 343
Metodos Predictor-Corrector : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 344
Metodos BDF : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 345
Estudio del Error Local : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 346
Estabilidad : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 348
Convergencia de los Metodos Multipaso : : : : : : : : : : : : : : : : : : 350
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 353
Bibliografa : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 355
Indice de Smbolos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 359
Indice Alfabetico : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 361
Captulo I
Preliminares
Ejercicios
1.- Supongase que, el dispositivo de calculo, con el que se cuenta, puede
efectuar la division con resto; es decir, para a; b enteros no negativos,
con b 6= 0, el dispositivo calcula p; q satisfaciendo:
a = pb + r y 0 r < b:
a) Implementar un algoritmo que calcule el maximo comun divisor de a
y b.
b) Utilizando el inciso precedente, implementar otro algoritmo que
permita calcular m; n 2 Z, tales que
mcd(a; b) = ma + nb:
I.1 Algoritmos 7
c) Estudiar la situacion mas desfavorable, aquella donde el costo en
operaciones es el mas alto. Deducir una estimacion de la eciencia del
algoritmo.
2.- Suponiendo que, el dispositivo de calculo puede efectuar la division con
resto, con la particularidad siguiente:
X
1 (;1)k 1 )2k+1
= 48 2 k + 1 ( 18
| k=0 {z }
A
X
1 (;1)k 1
2k+1 X
1 (;1)k 1 )2k+1 :
+ 32 2k + 1 ( 57 ) ; 20 2 k + 1 ( 239 (I:3:4)
| k=0 {z } | k=0 {z }
B C
Ahora bien, se desea obtener una representacion de en notacion decimal
con N decimales de precision. Si cada serie del lado derecho de (I.3.4) es
calculada con una precision de 10;(N +1) se tiene largamente la precision
deseada. Denotando por A^, el valor calculado de A; B^ , el valor calculado de
B y C^ , el valor calculado de C , se tiene:
^ X
MA (;1)k 1
A = 48 2k + 1 ( 18 )2k+1 ;
k=0
X
MB (;1)k 1 )2k+1 ;
B^ = 32 2k + 1 ( 57
k=0
X
MC 1)k 1
C^ = 20 2(; 2k+1
k + 1 ( 239 ) :
k=0
De donde:
X 1 (;1)k 1
48 (1=18)2MA+3 ;
A^ ; A = 48 ( ) 2k +1
1 ; (1=18)2
k=MA +1 2k + 1 18
X 1 (;1)k 1
32 (1=57)2MB+3 ;
B ; B = 32
^ ( ) 2 k +1
1 ; (1=57)2
k=MB +1 2k + 1 57
X 1 (;1)k 1
20 (1=239)2MC +3 :
C ; C = 20
^ ( ) 2 k +1
1 ; (1=239)2
k=MC +1 2k + 1 239
Por hipotesis, se tiene por ejemplo que A ; A^ 10;(N +1), por lo tanto
para asegurar esta precision es suciente que
2MA+3
48 (1=18) 2 10;(N +1);
1 ; (1=18)
remplazando el signo por =, se tiene
2MA+3
48 (1=18) 2 = 10;(N +1); (I:3:5)
1 ; (1=18)
I.3 Un ejemplo: Calculo de Pi 17
obteniendo de esta manera
log10 (48) ; (2MA + 3) log10 (18) ; log10 (1 ; (1=18)2) = ;(N + 1):
Despejando MA, se obtiene
Estas normas, que son las usualmente utilizadas, tienen algunas propiedades
en comun. La mas importante es que, si se aumenta en valor absoluto una
de las componentes, la norma se incrementa. Es necesario formalizar este
hecho, motivo por el cual, se tiene la:
26 II Sistemas Lineales
Denicion II.1.2.- Si x = (x1 ; : : : ; xn ) 2 Rn , se dene el valor absoluto de
x como jxj = (jx1 j ; : : : ; jxn j). Se dice que jxj jyj, si jxi j jyi j para todo
i = 1; : : : ; n. Una norma k k sobre Rn se dice que es:
(a) Monotona, si jxj jyj implica que kxk kyk para todo
x; y 2 Rn .
(b) Absoluta, si kxk = kjxjk para todo x 2 Rn .
Proposicion II.1.3.- Una norma k k sobre Rn es monotona, si y solamente
si es absoluta.
Demostracion.- Si la norma k k es monotona, sea x 2 Rn , llamenos y = jxj.
Como jxj jyj, y jyj jxj se tiene inmediatamente, porque la norma es
monotona, que kxk = kyk.
Si la normak k es absoluta, sea x 2 Rn , considerese
x = (x1 ; : : : ; xk;1 ; xk ; xk+1 ; : : : ; xn ), con 2 [0; 1]. Utilizando el hecho
que la norma sea absoluta, desigualdad del triangulo y efectuando calculos
algebraicos se tiene:
1 1
kxk =
2 (1 ; )(x1 ; : : : ; xk;1 ; ;xk ; xk+1 ; : : : ; xn ) + 2 (1 ; )x + x
12 (1 ; ) k(x1 ; : : : ; xk;1 ; ;xk ; xk+1 ; : : : ; xn )k + 21 (1 ; ) kxk + x
= 12 (1 ; ) kxk + 21 (1 ; ) kxk + kxk = kxk :
Ahora bien, si x = (x1 ; : : : ; xk ; : : : ; xn ) y y = (x1 ; : : : ; xk1 ; yk ; xk+1 ; : : : ; xn ),
con jyk j jxk j, utilizando la desigualdad anterior se tiene kxk kyk. Para
demostrar que jxj jyj implica que kxk kyk, se repite el anterior paso n
veces, es decir una vez por cada componente.
Una matriz de orden m n puede ser vista como un vector que pertenece
al espacio Rmn , de esta manera denir la norma de una matriz como la de
un vector, pero se perdera as muchas de las propiedades que tiene una
aplicacion lineal. Es por eso la:
Denicion II.1.4.- Sea A una matriz de m n, se dene su norma como
kAk = sup kkAx
xk
k = sup kAxk : (II:1:1)
x6=0 kxk=1
La denicion de la norma de una matriz depende evidentemente de las
normas elegidas para kxk y kAxk. Sin embargo puede ser vericado sin
ningun problema, que la norma de una matriz, verica las condiciones de
norma de un vector. La demostracion es una simple vericacion de estas
condiciones, utilizando la denicion de supremo. Ademas si las norma de los
espacios Rn y Rm son monotonas o absolutas, es facil vericar que la norma
II.1 Condicio n del Problema lineal 27
de matriz inducida por estas, es todava monotona; es suciente utilizar
la denicion para probar esta armacion. Por otro lado kAk es el numero
positivo mas peque~no que satisface kAxk kxk, por lo tanto
kAxk kAkkxk ; 8x 2 Rn : (II:1:2)
Una norma sobre el espacio de matrices verica las siguientes propiedades,
dada por la:
Proposicion II.1.5.- Cualquier norma sobre el espacio de las matrices
Mm (R) satisface las propiedades adicionales siguientes:
kI k = 1; (II:1:3)
kAB k kAk kB k : (II:1:4)
Demostracion.- La relacion (II.1.3) de la proposicion es consecuencia
inmediata de la denicion de la norma de una matriz.
La relacion (II.1.4) es consecuencia de las observaciones hechas despues de
la denicion, en efecto
kABxk kAk kBxk kAk kB kkxk ;
kABxk kAkkB k ;
kxk
kAB k kAk kB k :
Se ha dado las propiedades esenciales de la norma de matrices, pero es
necesario conocer algunas de estas por su utilizacion frecuente. Utilizando
la misma notacion que en las normas de los vectores denidas al inicio de
la seccion, se puede utilizar la misma notacion en los ndices de las normas
de las matrices, con la convencion que las normas de los vectores tienen los
mismos ndices.
Teorema II.1.6.- Sea A una matriz de n m, entonces:
X
n
kAk1 = j=1max
;:::;m
jaij j ; (II:1:5)
p i=1
kAk2 = valor propio mas grande de At A; (II:1:6)
X
m
kAk1 = i=1max
;:::;n
jaij j : (II:1:7)
j =1
28 II Sistemas Lineales
Demostracion.- Se comenzara por kAk1 , se tiene:
m
n X
n m
X X X ja j jx j
kAxk1 = aij xj
i=1 j =1 i=1 j=1 ij j
Xm X n ! Xn !
jaij j jxj j max ja j
j =1;:::;m i=1 ij
kxk1 ;
j =1 i=1
X
n
por lo tanto kAk1 j=1max
;:::;m
jaij j :
i=1
Se mostrara, que la igualdad se cumple, en efecto, sea jo tal que:
X
n X
n
jaijo j = j=1max
;:::;m
jaij j ; y x tal que xjo = 1; xi = 0 si i 6= jo ;
i=1
0 a 1
i=1
1.jo C
X
n
de esta manera kAxk =
B@ .. A
= jaijo j kxk1 :
amjo
1 i=1
Para la k k2 se tiene:
kAxk22 = hAx; Axi = xt At Ax;
ahora bien At A es una matriz simetrica denida positiva, de donde los
valores propios son reales no negativos, ademas es posible formar una base de
vectores propios ortonormales. Sea fe1 ; : : : ; em g una base de vectores propios
Xm Xm
ortonormales, entonces x = i ei y Ax = i i ei , donde los i 0 son
i=1 i=1
los valores propios de A. Por lo tanto, se tiene
X
m X
m
kAxk22 = 2i 2i i=1max
;:::;m i
2i = i=1max kxk2 :
;:::;m i
i=1 i=1
Para obtener la igualdad, es suciente tomar x = ejo , donde jo es el
autovalor mas grande.
Para la k k1 se tiene:
m 0m 1
X
a x max @ ja j jx jAX
kAxk1 = i=1max
;:::;n j =1 ij j i=1;:::;n j =1 ij j
0m 1 0 1
X
@ jaij j j=1max X
m
i=1
max:::;n
jx jA @i=1max
;:::;m j ;:::;n
jaij jA kxk1 ;
j =1 j =1
X
m
as kAk1 j=1max
;:::;m
jaij j :
j =1
II.1 Condicio n del Problema lineal 29
Para obtener la igualdad es suciente tomar x = 1, donde 1 = (1; : : : ; 1)t .
Si se plantea P (A; b) = x, se tiene kx ; xk cond eps. Por otro lado,
kxk
considerando que solamente normas mononotas son utilizadas, se tiene:
0 a1111 a1nn1 1
@ .. .. .. A
eps kAk ;
. . .
an1 n1 ann nn
de esta manera
A ; A
eps kAk y
b ; b
eps kbk : (II:1:11)
Suponiendo que la matriz sea inversible, se puede enunciar el siguiente
teorema, pero antes una denicion es necesaria.
Denicion II.1.7.- La condicion de una matriz A inversible se dene como
cond(A) = kAk
A;1
:
(II:1:12)
30 II Sistemas Lineales
Teorema
A ; A
II.1.8.-
Sea A
una matriz con det A 6= 0, supongase que
kAk A ,
b ; b
kbk b . Si A cond(A) < 1, entonces
kx ; xk cond(A) ( + ): (II:1:13)
kxk 1 ; cond(A) A b
A
1,
Si ademas se tiene A cond(A) < 2 entonces la condicion del problema
resolver Ax = b es 2cond(A).
Demostracion.- Se tiene Ax = b y Ax = b, de donde:
Ax ; Ax = b ; b y Ax ; Ax + Ax ; Ax = b ; b;
A(x ; x) = (A ; A)x + (b ; b); x ; x = A;1 (A ; A)x + A;1 (b ; b);
introduciendo las desigualdades
en las
normas
se obtiene:
kx ; xk
A;1
A ; A
kxk +
A;1
b ; b
A;1
(kAk A (kxk + kx ; xk) + kbk b )
A;1
kAk (A (kxk + kx ; xk) + kxk b ) ;
de esta manera kxk;xkxk 1 ;cond( A)
cond(A) (A + b ):
A
Como la condicion del problema lineal esta ntimamente ligada a la
condicion de la matriz, es importante conocer algunas de sus propiedades,
dadas por la:
Proposicion II.1.9.- La condicion de una matriz satisface las siguientes
propiedades:
cond(A) 1; (II:1:14)
cond(I ) = 1; (II:1:15)
cond(A) = cond(A); 2 R: (II:1:16)
Demostracion.- Vericacion inmediata.
Ejemplos
1.- Q ortogonal, es decir Qt Q = I , la condicion respecto a la norma k k2
esta dada por
cond2 (Q) = 1: (II:1:17)
2.- Sea la matriz A dada por
0 4 1 0 0 1
BB 1 4 1 0 CC
A= hB 1
BB .... . . . . . . ... ... CCC ;
@ .. 1 4 1 A
1 4
II.1 Condicio n del Problema lineal 31
entonces kAk1 = h6 , ademas A = h4 (I + N ) donde
0 0 1 0 01
BB 41 40 41 0 CC 1
N =B @ ... . . . . . . ... CA ; kN k1 = 2 < 1:
0 0 41 0
Se deduce que
A;1 = h4 (I + N );1 = h4 (I ; N + N 2 ; N 3 + );
A;1
h (1 + kN k +
N 2
+ )
1 4
h4 1 ; 1kN k
h2 ;
entonces cond1 (A) 3, por lo tanto, la matriz es bien condicionada.
3.- El siguiente ejemplo muestra la existencia de una matriz mal condi-
cionada.
Sea H la matriz de n n, llamada matriz de Hilbert, denida por
hij = i + j1 ; 1 ; i; j = 1; : : : ; n:
H es una matriz simetrica denida positiva, motivo por el cual la
condicion respecto a la norma euclidiana esta dada por
cond2 H = max ;
min
donde los son valores propios de H . Se puede mostrar que
cond2 H cen : (II:1:18)
Se puede observar claramente que las matrices de Hilbert son mal
condicionadas, inclusive para n bastante peque~no.
4.- Finalmente, este ejemplo muestra la existencia de otra matriz mal
condicionada, como ser las matrices de Vandermonde. Sea V la matriz
de n n denida por
0 1 1 1 1
V =B
B c1 c2 cn CC ;
@ ... . .. A
.. .
cn1 ;1 cn2 ;1 cnn;1
32 II Sistemas Lineales
donde los ci son diferentes. Se puede mostrar que la cond2 V bn ,
donde b > 1.
Ahora bien, la estimacion kkx;xkxk 2cond(A)eps puede ser demasiada
pesimista, para ver esto, considerese el siguiente ejemplo,
1 1 x 2
0 108 y = 1 :
Si se llama A a la matriz del sistema, se tiene kAk2 = 108 y
A;1
1. El
sistema con los errores de redondeo incorporados, esta dado por:
1 + 1 + x
1 2
0 108(1 + 3 ) = y = ( 2(1 + 4 ) 1 + 5 ) ;
y = 108 11 + 5 ;8
+ 3 ' 10 (1 + 5 ; 3);
de donde jy ; yj 2eps:
jyj
Calculando x; se tiene
x = 2(1 + 41) +; (1 + 2 )y
1
= 2 ; 10;8 + 24 ; 10;8(2 + 5 ; 3)
1 + 1
= x + 21 ; 10;8(2 + 5 ; 3 )
1 + 1
' x(1 + 4eps);
por lo tanto, jx ; xj 4eps:
jxj
El problema es bien condicionado, aunque la matriz A tenga una gran
condicion. Si se multiplica el sistema de ecuaciones por una matriz diagonal
D se obtiene, el nuevo problema dado por
DAx = Db;
por el teorema II.1.8, se tiene
kx ; xk 2cond(DA)eps; si cond(DA)eps < 1 :
kxk 2
En el ejemplo anterior, se plantea
D = 10 100;8 ; as DA = 10 11 ;
II.1 Condicio n del Problema lineal 33
obteniendo el:
Corolario II.1.10.-1 Con las misma hipotesis del teorema II.1.8, y ademas
si cond(DA)eps < 2 , se tiene
La condicion del problema 2 D diagonal
inf cond(DA): (II:1:19)
Ejercicios
1.- a) Sea k k denida en Rn . La bola unitaria cerrada se dene como
B = x 2 Rn kxk 1 ;
mostrar que la bola unitaria es un conjunto convexo.
b) Sea D un conjunto convexo acotado, en cuyo interior esta 0. Si se supone
que D es equilibrado, es decir si x 2 D implica que ;x 2 D. Mostrar que
se puede denir una norma cuya bola unitaria cerrada sea precisamente
D.
2.- >Es la funcion f (x) = jx1 ; x2 j + jx2 j una norma sobre R2 ? Si lo es, >es
monotona? Dibujar la bola unitaria.
3.- Dar las condiciones para que una norma sea monotona, observando su
bola unitaria cerrada.
4.- Para una matriz A se dene la norma de Frobenius como
v
u
uX
kAkF = t
n X
n
jaij j2 :
i=1 j =1
a) Mostrar que kAkF es una norma sobre Rnn .
b) Vericar la desigualdad
kAk2 kAkF pn kAk2 :
5.- Vericar la desigualdad
max ja j kAk2 n: max
i;j ij
ja j :
i;j ij
El Algoritmo de Cholesky
Un caso particular de sistema de ecuaciones lineales, es donde la matriz A
es:
Denicion II.2.5.- Una matriz A 2 Mn(R) es simetrica y denida positiva,
si cumple las siguientes dos condiciones:
(II:2:16) At = A;
(II:2:17) xt Ax > 0; 8x 2 Rn ; x 6= 0:
44 II Sistemas Lineales
Teorema II.2.6.- Sea A simetrica y denida positiva, entonces:
a) El algoritmo de Gauss es posible sin busqueda de pivote.
b) La descomposicion A = LR satisface
R = DLt ; con D = diag(r11 ; r22 ; ; rnn ): (II:2:17)
Si se dene L = LD 21 , se tiene
A = L L t;
que es la descomposicion de Cholesky de la matriz A simetrica y denida
positiva. Para simplicar notacion, se escribe L, en lugar de L . Entonces los
46 II Sistemas Lineales
coecientes de la matriz L de la descomposicion de Cholesky de A, estan
dados por:
para k = 1; : : : ; n:
q
lkk = akk ; lk21 ; lk22 ; ; lk;k
2
;1 ;
(II:2:19)
lik = a ik ; l i1 l k 1 ; ; l i;k ;1 l k;k ;1 ; i = 1; : : : ; k ; 1:
lkk
El costo en operaciones, despreciando el calculo de las raices cuadradas,
para obtener la descomposicion de Cholesky, esta dado por
X
n Zn 3
k(n ; k) x(n ; x)dx = n6 : (II:2:20)
k=1 0
00 1 1 01
1 2
B1 2 2
0 0 0C
A=B
@0 1C
0 0
1 2A
0 0 2 0 3 4
GA
50 II Sistemas Lineales
00 01
1 2
1 0
B=B
@ 10 0
1
1
0
0C
1A
0 0 1 0
3 4
GB
Se puede observar facilmente, que la matriz A no es irreducible, mientras
que la matriz B si es irreducible.
Con la denicion anterior se puede formular el siguiente teorema que da
una condicion suciente, para que los metodos de Jacobi, como de Gauss-
Seidel, sean convergentes.
Teorema II.3.2.- Sea A una matriz no-negativa (aij 0), con las siguientes
propiedades:
Xn
i) aij 1; i = 1; : : : ; n;
j =1
X
n
ii) Existe io, tal que aio j < 1;
j =1
iii) A es irreducible;
entonces los metodos de Jacobi y Gauus-Seidel convergen hacia una solucion
unica, ademas existe < 1, tal que
(k)
e
1 Ck;1
e(0)
1 : (II:3:9)
w Κ
son independientes de .
Ejemplos
1.- La matriz A denida por
0 B
A= C 0 ;
λ1
λ2
λ3
µ
µ2 µ1
µ raices conjugadas.
se plantea:
xi = ih; i = 0; : : : ; n + 1;
(II:3:24)
yj = jh; j = 0; : : : ; n + 1;
denotando
uij = u(xi ; yj ); fij = f (xi ; yj ): (II:3:25)
Discretizando la ecuacion para esta malla, se obtiene las siguientes ecua-
ciones:
( i = 1; : : : ; n;
; ui;j+1 + ui;j;1 + uhi+12 ;j + ui;1;j ; 4ui;j = fij ;
j = 1; : : : ; n;
u0j = 0; j = 0; : : : ; n + 1;
un+1;j = 0; j = 0; : : : ; n + 1;
ui0 = 0; i = 0; : : : ; n + 1;
ui;n+1 = 0; i = 0; : : : ; n + 1:
Cambiando la forma de las ecuaciones, se tiene
(
;
uij = 14 ui;j+1 + ui;j;1 + ui+1;j + ui;1;j + h2 fij ;
i = 1; : : : ; n;
j = 1; : : : ; n;
que en notacion matricial, tiene la forma
u = Au + 14 h2 f; (II:3:26)
60 II Sistemas Lineales
donde:
u = (u11 ; : : : ; u1n ; u21 ; : : : ; u2n ; : : : ; un1 ; : : : ; unn)t ;
f = (f11 ; : : : ; f1n ; f21 ; : : : ; f2n; : : : ; fn1 ; : : : ; fnn )t ;
0B I 1
BB I B I C
A = 14 B ... ... ... C CC ;
B@
I B IA
00 1 1 I B
01 1
B=B @ 1 .. . . . . . CA ; I = @ . . . A :
.. 0 1
Denicion II.3.9.- El producto tensorial de dos matrices P de orden n m
y Q de orden l k se dene como la matriz
0p Q p Q1
11 1m
P
Q=@ . B .
. .. C
. A; (II:3:27)
pn1 Q pnmQ
de orden nl mk.
Por lo tanto, la matriz A del problema se escribe como
A = 41 (B
I + I
B ) :
Para hacer estimaciones del costo de operaciones, al encontrar la solucion
con un error jado de antemano, es necesario determinar la condicion de
la matriz A, como as mismo el radio espectral de A para determinar la
velocidad de convergencia de los metodos de Jacobi, Gauss-Seidel y SOR.
Para tal efecto, se tiene la:
Proposicion II.3.10.- El producto tensorial de matrices verica la siguiente
propiedad
(B
C ) (D
E ) = BD
CE: (II:3:28)
Demostracion.- Se deja como ejercicio
Sean, yk y k el vector y el escalar respectivamente, denidos por:
ki n
yk = sin( n + 1 ) ;
i=1 (II:3:29)
k = 2 cos( nk
+1 ) ;
II.3 Metodos Iterativos 61
puede vericarse como ejercicio que yk es un vector propio de B asociado al
valor propio k . Se tiene, utilizando (II.3.28)
A(yk
yl ) = 14 ((B
I )(yk
yl ) + (I
B )(yk
yl ))
= 14 (k + l )(yk
yl );
de donde se ha demostrado el:
Teorema II.3.11.- Los valores propios de A estan dados por:
1 1
k l
4 (k + l ) = 2 cos( n + 1 ) + cos( n + 1 ) : (II:3:30)
() A = BBB 1 1
1
C
1C
CA
6 3
@ 1
4 1
5
x1
x 3ó
2
x
o
x
λ min λ max
−ε
103
102 Gradiante.
Gradiante Conjugado.
Grad. Conj. Chols. Incom.
101
Gradiante Conjugado SSOR.
100 1
10 102 n
7.- (Modicacion del metodo del gradiante conjugado para matrices no
simetricas o no denidas positivas). Sea
Ax = b (II:4:35)
un sistema lineal, donde A es una matriz arbitraria inversible. El sistema
At Ax = At b (II:4:36)
tiene las mismas soluciones que (II.4.35), pero la matriz C = At A es
simetrica y denida positiva. Aplicar el metodo del gradiente conjugado
al sistema (II.4.36) y rescribir el algoritmo obtenido de manera que el
producto At A no aparezca mas. Cual es la desventaja del nuevo algo-
ritmo si, por mala suerte, se aplica al sistema (II.4.35) que inicialmente
era simetrico y denido positivo.
II.5 Mnimos Cuadrados
*
* *
* *
*
* * * *
*
t1 t2 tm
= Aj ; t2 v1 v1t Aj
v1 v1
= Aj ; ( 1; a ) v1 v1t Aj : (II:5:22)
1 1 11
90 II Sistemas Lineales
Despues del primer paso de la descomposicion QR, se ha obtenido
0 1 1
B 0.
Q1 A = B
CC :
@ .. A(1) A
0
El segundo paso es determinar Q 2 matriz de Householder, como en el primer
paso, de manera que
0 1 1 0 1 1
B 0 C BB 0 2 C
C
Q2 Q1 A = @ .. Q A(1) A = B
B C B@ 0.. 0.. CC ;
. 2
. . A(2) A
0 0 0
donde
01 0 0
1
B 0.
Q2 = B
CC :
@. . Q 2 A
0
Costo de la descomposicion QR
La descomposicion se la realiza en n ; 1 etapas,
1 1 2
Al nal de la descomposicion se obtiene la siguiente matriz
R
v1 v2 . .
.
vn
1 2 n
Hay que observar que QR es aplicable, si las columnas de A son linealmente
independientes. Si no fuesen linealmente independientes se llegara a la
situacion de obtener un i = 0, y la descomposicion en este caso sera
numericamente inestable. Para evitar esta situacion, se puede modicar la
descomposicion QR de la manera siguiente. Sea A la matriz a descomponer,
se considera
kAjo k22 = j=1max kA k2 ;
;:::;n j 2
(II:5:23)
se intercambia la primera columna A1 con Ajo y se procede el primer paso de
la descomposicion QR, para el segundo paso se procede de la misma manera
y as sucesivamente. Por consiguiente, con esta modicacion se obtiene la
sucesion decreciente,
1 2 k > 0: (II:5:24)
Si hay vectores linealmente dependientes se llega por lo tanto al siguiente
resultado
R R 0 1 r1n 1
R = 01 02 con R1 = @ . . . ... A : (II:5:25)
| {z k }
k = rangA
92 II Sistemas Lineales
La descomposicion QR es un instrumento numerico que permite determinar
el rango de la matriz A. Ahora bien, debido a los errores de redondeo, el
principal problema consiste en decidir cuando un j es nulo en la sucesion
decreciente (II.5.24) . Se remarca inmediatamente que, si k+1 = 0, entonces
k+i = 0 para i > 2.
Se dene la matriz R^ el resultado numerico obtenido despues de k pasos
como 0 1 1
B ...
R^ = B R^2 C
CA : (II:5:26)
@ k
0 0
Planteando
A^ = QR;
^ (II:5:27)
se tiene la:
Denicion II.5.2.- k+1 es despreciable, si y solamente si
A ; A^
2 eps kAk2 : (II:5:28)
Denotando los elementos de Qt por qij , los elementos del vector C , satisfacen
X
m
ci = qij bj ;
j =1
y las componentes del vector C2 satisfacen tambien
X
m
ci = qij (bj ; j ):
j =1
Es razonable considerar las variables aleatorias
X
m
Zi = qij (Yj ; j ); i = n + 1; : : : ; m: (II:5:47)
j =1
A continuacion, se da la proposicion siguiente, sin demostracion.
Proposicion II.5.9.- Sean Y1; : : : ; Ym variables aleatorias independientes
siguiendo N (0; 1). Entonces las variables aleatorias Zn+1 ; : : : ; Zm , denidas
por (II.5.47) son independientes y siguen tambien una ley normal N (0; 1).
El error cometido, por el metodo de los mnimos cuadrados, es equiva-
lente a estudiar kC2 k22 de donde el teorema, sin demostracion:
II.5 Mnimos Cuadrados 99
Teorema II.5.10.- Pearson. Sean Z1; Z2; : : : ; Zn variables aleatorias inde-
pendientes siguiendo la ley normal N (0; 1). Entonces, la distribucion de la
variable aleatoria
Z12 + + Zn2 ; (II:5:48)
esta dada por
fn(x) = n=2 1 xn=2;1 e;x=2; x > 0; (II:5:49)
2 ;(n=2)
y por fn (x) = 0 para x 0. Es la ley 2 con n grados de libertad. La
experanza de esta variable es n y su varianza es 2n.
Ejemplo
A partir de la funcion f (t) = t + 0:5 sin(t=2), se ha elaborado la tabla
II.5.1, que tiene como elementos (i; bi ) con 0 i 9, donde bi = f (i)+i.
i es la realizacion de una variablea aleatoria siguiendo una ley normal
N (0; ) con = 0:1.
Tabla II.5.1. Valores de bi en funcion de i.
i bi i bi
0 0:11158 5 5:5158
1 1:2972 6 6:0119
2 2:07201 7 6:6802
3 2:4744 8 7:9294
4 3:963 9 9:4129
Se considera, la funcion de modelo
'(t) = xt + y sin(t=2): (II:5:50)
Obteniendo por la descomposicion QR:
x = 1:00074;
y = 0:413516:
El siguiente paso sera estimar el intervalo de conanza para x y y. Para
tal efecto, se considera el problema
x t + y sin(t= 4) bi
= ; i = 0; : : : ; 9;
100 II Sistemas Lineales
pues, los bi = deben ser realizaciones de una variable normal con varianza
igual a 1. De donde la matriz de covarianza esta dada por
2 3:57143 10;5 ;3:57143 10;5
x xy =
2
xy y ;5
;3:57143 10 ;3 :
2:03571 10
Por consiguiente:
x = 1:00074 0:012;
y = 0:41352 0:09:
El metodo QR, con la notacion precedente da
kC2 k2 = 0:0693103;
corrigiendo, para el problema normalizado, se tiene
kC2 k22 = 6:93103:
2
Se tiene 10 ; 2 grados de libertad. Viendo en una tabla de la distribucion
2 , se deduce que este valor es lo sucientemente peque~no para ser
probable.
Ahora bien, si se hubiese considerado la funcion de modelo
'(t) = xt + y; (II:5:51)
se hubiera encontrado
kC2 k22 = 90:5225;
2
valor demasiado grande para ser probable.
La conclusion es que, para los valores de la tabla II.5.1, la ley (II.5.50)
es mas probable que la ley (II.5.51).
En la gura II.5.3, puede observarse en linea continua la graca de la
funcion modelo dada por (II.5.50) y con lineas segmentadas la graca de
la funcion modelo (II.5.1).
II.5 Mnimos Cuadrados 101
10
0
0 1 2 3 4 5 6 7 8 9
Ejercicios
1.- Sea A una matriz inversible de n n. Mostrar que la descomposicion
QR es unica, si se supone que rjj > 0 para j = 1; : : : ; n.
2.- Aplicar el algoritmo de Golub-Householder a la matrice de rotacion
sin
A = ;cos
sin cos :
Dar una interpretacion geometrica.
3.- Sea Q una matriz ortogonal de n n. Mostrar que Q puede escribirse
como el producto de n matrices de Householder, de donde cada trans-
formacion ortogonal de Rn es una sucesion de al menos n re
exiones.
4.- Escribir una subrutina DECQR(N,M,MDIM,A,ALPH),
(A(MDIM,N),ALPH(N)), que calcula la descomposicion QR de una ma-
triz m n, m n.
Escribir tambien una subrutina SOLQR(N,M,MDIM,A,ALPH,B) que cal-
cula la solucion del problema
kAX ; bk2 ;! min :
Determinar la parabola x1 + x2 t + x2 t2 , que ajusta lo mejor posible:
102 II Sistemas Lineales
ti 0 0; 2 0; 4 0; 6 0; 8 1:0
yi 0; 10 0; 15 0; 23 0; 58 0; 45 0; 60
5.- Sea A una matriz m n. Mostrar que At A + I es no singular para
>0y
A+ = lim t ;1 t
!0+ (A A + I ) A :
Captulo III
Interpolacion
donde las constantes cil;m son escogidas de manera que p(i;lm)(xi ) = 0 para
m > l y Ci;l de manera que p(i;ll) = 1.
Para construir el polinomio de interpolacion no debe utilizarse los
polinomios denidos en la demostracion, uno porque el costo en operaciones
es demasiado elevado y otro por la sensibilidad de estos polinomios as
denidos a los errores de redondeo.
Construccion del Polinomio de Interpolacion
Inicialmente se considerara polinomios de interpolacion del tipo de Lagrange.
Por lo tanto, dados los puntos x0 ; : : : ; xn todos diferentes, y los valores
y0 ; : : : ; yn, el problema se reduce a encontrar un polinomio de grado n que
satisfaga
p(xi ) = yi 0 i n: (III:1:3)
Indudablemente el caso mas sencillo es para n = 1 y luego para n = 2.
Para n = 1 la recta de interpolacion esta dada por
y1 ; y0
p(x) = y0 + x ; x (x ; x0 );
1 0
para n = 2 la parabola de interpolacion esta dada por
; y0
p(x) = y0 + xy1 ; (x ; x0 ) + a(x ; x0 )(x ; x1 );
1 x0
III.1 Interpolacio n de Lagrange 107
este ultimo polinomio verica p(x0 ) = y0 y p(x1 ) = y1 , por consiguiente es
necesario determinar a de manera que p(x2 ) = y2 . Unos simples calculos
algebraicos dan
1
y2 ; y1 y1 ; y0
a= x ;x x ;x ; x ;x :
2 0 2 1 1 2
Para n = 3 se puede continuar con el mismo esquema, pero antes es necesario
dar la nocion de diferencias divididas.
Denicion III.1.8.- (Diferencias Divididas) Sean (x0 ; y0); : : : ; (xn ; yn), los
xi diferentes entre si. Entonces las diferencias divididas de orden k se denen
de manera recursiva por:
y[xi ] = yi ; (III:1:4a)
y[xi ; xj ] = xyj ; yi ; (III:1:4b)
j ; xi
y[xi1 ; : : : ; xik ] ; y[xi0 ; : : : ; xik;1 ]
y[xi0 ; : : : ; xik ] = xik ; xi0 : (III:1:4c)
x0 y[x0 ]
&
y[x ; x ]
% 0 1&
x1 y[x1 ] y[x0 ; x1 ; x2 ]
& % &
y[x1 ; x2 ] y[x0 ; : : : ; x3 ]
% & % &
x2 y[x2 ] y[x1 ; x2 ; x3 ] y[x ; : : : ; x ]
& % & % 0 ... 4 . . .
y[x ; x ] y[x ; :.: : ; x ]
% 2 3& % 1 .. 4 . . .
x3 y[x3 ] y[x ; x. ; x ]
& % 2 .. 3 4 . . .
y[x ; x ]
% 3... 4 . . .
x4 y[x4 ]
.. .. . . .
. .
Figura III.1.1. Esquema de la Formula de Newton.
La programacion del polinomio de interpolacion es muy facil, ademas
que se puede utilizar la plaza ocupada por yi . En efecto la primera columna
del esquema es utilizada por los yi , se remarca inmediatamente que yn
aparece una vez en los calculos, por consiguiente las ultimas n ; 1 lugares de
la columna son utilizados por los n ; 1 valores de las diferencias divididas
que aparecen en la segunda columna, quedando el primer valor de y0 , y se
continua de esta manera hasta obtener y[x0 ; : : : ; xn ].
III.1 Interpolacio n de Lagrange 109
Un caso particular en la determinacion del polinomio de interpolacion
ocurre cuando la subdivision de los puntos es uniforme, es decir
xi = x0 + ih; i = 0; : : : ; n; (III:1:6)
donde h = (xn ; x0 )=n. Para poder implementar el algoritmo de Newton
con esta subdivision es necesario, las siguientes dos deniciones.
Denicion III.1.10.- (Diferencias Finitas Progresivas) Sea y0; y1; : : : ; una
sucesion de numeros reales, se dene el operador de diferencias nitas
progresivas de orden k de manera recursiva como sigue:
r0 yi = yi ; (III:1:7a)
ryi = yi+1 ; yi ; (III:1:7b)
rk+1 yi = rk yi+1 ; rk yi : (III:1:7b)
Denicion III.1.11.- (Diferencias Finitas Retrogradas) Sea y0; y1; : : : ; una
sucesion de numeros reales, se dene el operador de diferencias nitas
retrograda de orden k de manera recursiva como sigue:
r 0 yi = yi ; (III:1:8a)
r yi = yi ; yi;1 ; (III:1:8b)
r yi = r yi ; r yi;1 :
k +1 k k (III:1:8b)
Ahora bien, tomando una subdivision uniforme x0 < : : : < xn se
tiene los dos resultados equivalentes para el polinomio de interpolacion de
Lagrange que pasa por los puntos (xi ; yi ). Utilizando las diferencias nitas
progresivas se tiene
X
n ri y iY
0
;1
p(x) = i (x ; xk ); (III:1:9)
i=0 i!h k=0
Y
;1
donde h = (xn ; x0 )=n y con la convencion (x ; xk ) = 1. Utilizando las
k=0
diferencias retrogradas se tiene
X i yn iY
n r ;1
p(x) = i (x ; xn;k ); (III:1:10)
i=0 i!h k=0
Y
;1
con la convencion (x ; xn;k ) = 1. La programacion es la misma que para
k=0
el caso general, con la unica diferencia que no se efectuan divisiones. Por
110 III Interpolacio n
consiguiente, se tiene el mismo esquema de resolucion para una subdivision
uniforme. En la gura III.1.2 se observa los esquemas para las diferencias
nitas progresivas y las diferencias nitas retrogradas.
x0 r0 y0 xn r 0 yn
& ry &
ry
% & 20
0 % n & 2
0
x1 r y1 x r y r yn
& %r y0 & 3
n ; 1 n ; 1
& % & 3
r y1 r y0 ryn;1 r yn
% & 2 % & 4 % & % &4
x2 r0 y2 r y1 r y0 xn;2 r 0 yn;2 r 2 yn;1 1 ry
& % & 3 % & % &3 % n
ry ry
% ry2 & 2 %r y1
% n;2 & 2 % n;1
x3 r0 y3 r y2 x n;3 r 0 y n;3 r y
& ry % & % n;2
% 3 ry n ;3
x4 r0 y4 %
xn;4 r 0 yn;4
. .
.. .. . . . .. .. . . .
. .
Figura III.1.2. Esquemas para Diferencias Finitas
La evaluacion del polinomio de interpolacion en un punto x 2 [x0 ; xn ] se
la realiza utilizando el algoritmo de Horner, ver ejemplo seccion I.1. Para ver
la simplicidad de la determinacion del polinomio de interpolacion utilizando
diferencias divididas, y si la subdivision es uniforme, diferencias nitas; se
tiene el siguiente:
Ejemplo
Se desea evaluar la raiz cuadrada de un numero positivo, por ejemplo
1; 4. Para mostrar le ecacia y simplicidad, se va construir un polinomio
de interpolacion de grado 3, y con tal efecto se utiliza los puntos donde
la raiz cuadrada es exacta como una expresion decimal.
xi 1; 00 1; 21 1; 44 1; 69
yi 1; 00 1; 10 1; 20 1; 30
Por consiguiente, el esquema de diferencias divididas para el polinomio
de interpolacion, esta dado por
1;00 1;00
&;4762
1;21 1;10
% &;;0941
&;4348% &;0313
% & %
& ;400 %;;0725
1;44 1;20
1;69 1;30
%
III.1 Interpolacio n de Lagrange 111
de donde el polinomio de interpolacion es igual a
p(x) =1 + 0; 476(x ; 1) ; 0; 094(x ; 1)(x ; 1; 21)
+ 0; 031(x ; 1)(x ; 1; 21)(x ; 1; 44);
y p(1; 4) = 1; 183.
El Error de Interpolacion
Sea f (x) una funcion que cumple ciertas condiciones, se supone que se
hace pasar un polinomio de interpolacion por los puntos (xi ; f (xi )), la
pregunta natural es saber que error se comete con el calculo del polinomio
de interpolacion, es decir p(x) ; f (x) vale cuanto, para un x determinado.
Es por esta razon que los siguientes teoremas seran enunciados para tener
una idea del error cometido.
Teorema III.1.12.- Sea f (x) n-veces continuamente diferenciable y
yi = f (xi ), i = 0; : : : ; n; los xi todos diferentes.
Entonces existe 2 (min xi ; max xi ) tal que
(n)
y[x0 ; x1 ; : : : ; xn ] = f n!( ) : (III:1:11)
Polinomios de Chebichef
La respuesta de la anterior interrogante, esta en el estudio de los polinomios
de Chebichef, que ya fueron tratados en la seccion II.4.
Denicion III.1.14.- El n-simo polinomio de Chebichef esta denido en el
intevalo [;1; 1] por la siguiente relacion
Tn (x) = cos(n arccos x): (III:1:14)
jTkn(
x)j 1; para x 2 [;1; 1]; (III:1:16)
Tn cos n = (;1)k ; (III:1:17)
2k + 1
Tn cos 2n = 0; (III:1:18)
para k = 0; 1; : : : ; n ; 1:
Demostracion.- El inciso a) se demuestra utilizando el hecho que
cos((n + 1)') = 2cos' cos(n') ; cos((n ; 1)'):
La primera parte del inciso b) es consecuencia de la denicion del n-si-
mo polinomio de Chebichef. Las dos ultimas relaciones provienen de las
ecuaciones cos n' = 0 y jcos n'j = 1.
114 III Interpolacio n
Finalmente, es facil observar que el coeciente del termino dominante
de Tn para n > 0 es igual a 2n;1 : Los polinomios de Chebichef T0 ; T1; T2 y
T3 pueden observarse en la gura III.1.3.
T0(x) T1 (x)
T2(x) T3 (x)
Figura III.1.3. Los cuatro primeros polinomios de Chebichef:
Teorema III.1.16.- Sea q(x) un polinomio de grado n con coeciente
dominante 2n;1 para n 1 y q(x) diferente a Tn(x). Entonces
max jq(x)j > x2max
x2[;1;1]
jT (x)j = 1:
[;1;1] n
(III:1:19)
x^k = a +2 b + b ;2 a xk ; (III:1:20)
donde los xk son los ceros del n + 1-simo polinomio de Chebichef.
Estudio de los Errores de Redondeo
En esta subseccion, se estudiara la incidencia de los errores de redondeo
en la determinacion del polinomio de interpolacion, mas precisamente en
los polinomios de interpolacion de tipo Lagrange. Hay que recalcar que
los errores de redondeo en el calculo del polinomio interpolante esta muy
relacionado con el concepto de estabilidad del algoritmo de determinacion
del polinomio de interpolacion.
El problema es el siguiente: Dada una subdivision x0 ; : : : ; xn , determinar
p(x) de grado n tal que p(xi ) = yi , i = 0; : : : ; n. En el calculo se cometen
errores de redondeo por un lado, y por otro lado los datos iniciales tienen una
parte de error de redondeo. Para simplicar el estudio de la estabilidad del
polinomio de interpolacion, los errores de redondeo a considerar son aquellos
presentes en los yi , y se supone que no se comete errores de redondeo en
los calculos propiamente dichos y que los xi son considerados por su valor
exacto.
El teorema III.1.7 arma la existencia de un polinomio de interpolacion
de grado n de tipo Lagrange para (xi ; yi ), i = 0; : : : ; n y los xi diferentes,
116 III Interpolacio n
durante la demostracion de este teorema se vio de manera explcita la forma
que deba tener este polinomio, recordando se enuncia el siguiente teorema:
Teorema III.1.18.- Sean (xi ; yi), i = 0; 1; : : : ; n, los xi diferentes entre si,
p(x) el polinomio de grado n que satisface p(xi ) = yi . Entonces
X
n
p(x) = yi li (x); (III:1:21)
i=0
Yn (x ; xj )
donde li (x) = (x ; x ) : (III:1:22)
j=0 i j
j6=i
Ejemplos
a) Para la division equidistante xj = ;1 + 2nj , j = 0; : : : ; n. Se puede
mostrar que la constante de Lebesgue se comporta asintoticamente,
cuando n ;! 1, como
n+1
n en2 log n ; (III:1:24)
III.1 Interpolacio n de Lagrange 117
En el ejercicio 7 de esta seccion, se indica como se calcula numericamente
estas constantes, en la tabla III.1.1 estan los resultados deestos calculos.
b) Para la division con puntos de Chebichef xj = ; cos 22nj + +2
1 , se
puede mostrar que la constante de Lebesgue se comporta asintotica-
mente, cuando n ;! 1, como
n 2 log n: (III:1:25)
n Division Division
Equidistante de Chebichef
10 29:900 2:0687
20 10987: 2:4792
30 6:6011 106 2:7267
40 4:6925 109 2:9044
50 3:6398 1012 3:0432
60 2:9788 1015 3:1571
70 2:5281 1018 3:2537
80 2:2026 1021 3:3375
90 1:9575 1024 3:4115
100 1:7668 1027 3:4779
0
−1 0 1 −1 0 1
0 0
−1 0 1 −1 0 1
−1 −1
1 1
n=30 n=40
0 0
−1 0 1 −1 0 1
−1 −1
M (b(n;+a)1)! ;;;;;
n+1n!1! 0:
Las funciones exponencial , senos y cosenos son acotadas y sus derivadas
lo son tambien, motivo por el cual estas funciones pueden ser aproximadas
por polinomios de interpolacion teniendo asegurada la convergencia de la
interpolacion. El teorema III.1.20 da condiciones sucientes para asegurar
la convergencia, no obstante existen muchas otras funciones cuyas derivadas
de orden superior no estan acotadas por una sola constante M , por ejemplo
funciones racionales. Por lo tanto es necesario poder enunciar otras condi-
ciones para asegurar convergencia, o de lo contrario para decidir que sucede
divergencia en el proceso de interpolacion.
Para poder comprender mas aspectos de la convergencia o divergencia
de la interpolacion es necesario introducir algunas deniciones y resultados
importantes en el estudio de la aproximacion de funciones por polinomios.
120 III Interpolacio n
Considerese la aplicacion Ln que a la funcion f asocia su polinomio
de interpolacion en los puntos x0 ; x1 ; : : : ; xn : Ln (f ) = pn . Se remarca
inmediatamente que esta aplicacion es lineal, ademas si Pn es el espacio
de los polinomios de grado igual o menor a n se tiene
8q 2 Pn; Ln (q) = q:
Se puede mostrar, ver ejercicios, que
1 1 1 1
0 0 0 0
−1 0 1 −1 0 1 −1 0 1 −1 0 1
1 1 1 1
0 0 0 0
−1 0 1 −1 0 1 −1 0 1 −1 0 1
1 Z f (z ) c
f (x) = 2i z ; x dz:
C −1 1
2/e
1/e 1ó x
G(z)=2/e
−1 0 1
Ejercicios
1.- Demostrar por induccion
X
n Y 1 ;
y[x0 ; : : : ; xn ] = yj ;
j =0 i6=j j xi
x
X n n
4ny0 = j yj (;1)n;j :
j =0
2.- Supongase conocidos los valores de la funcion de Bessel
Z
J0 (x) = 1 cos(x sin t)dt:
0
128 III Interpolacio n
para los puntos equidistantes xi = x + 0 + ih, i 2 Z.
a) >Para que h, el error de la interpolacion lineal es menor a 10;11?
b) La misma pregunta para la interpolacion cuadratica.
3.- Calcular el polinomio de interpolacion de grado n = 10 y n = 20, que
pasa por (xi ; f (xi )), i = 0; 1; : : : ; n, donde f (x) = 1=(1 + 25x2 ).
a) xi = ;1 + 2ni .
b) xi = cos( 22ni ++ 12 ).
Hacer gracas, estudiar los errores.
4.- Sea p(x) el polinomio de interpolacion de grado 1 de una funcion f dos
veces continuamente derivable. Mostrar que el error satisface
Z x1
f (x) ; p(x) = G(x; t)f 00 (t)dt ()
x0
con 81
>
< h (x ; x0 )(t ; x1) si x t
G(x; t) = > :
: h1 (t ; x0)(x ; x1) si x t
Dibujar la funcion G(x; ). Deducir de () el resultado del teorema
III.1.13.
Yn
5.- Sean x0 < x1 < < xn y li (x) = ((xx ;; xxj )) .
j=0 i j
j6=i
Vericar que la funcion
X
n
n (x) = jli (x)j
i=0
tiene un solo maximo local sobre cada [xi;1 ; xi ]
Xn
Indicacion: Sobre [xj;1 ; xj ] se tiene a n (x) = i li (x) con = 1.
i=0
6.- Si la funcion f : [x0 ; x1 ] ;! R tiene solamente un maximo local y si
x0 < a < b < x1 , entonces
f (a) f (b) =) x 2 [a; x1 ];
f (a) f (b) =) x 2 [x0 ; b];
donde f (x ) = x2max
[x ;x ]
f (x).
0 1
III.1 Interpolacio n de Lagrange 129
7.- Calcular las constantes de Lebesque
X
n
n = x2max
[;1;1]
jli (x)j ; n = 10; 20; : : :; 100;
i=0
a) para la division equidistante xi = ;1 + 2i=n, i = 0; 1; : : :; n;
b) para los puntos de Chebichef.
X
n
Calcular el maximo de f (x) = jli (x)j sobre [xj;1 ; xj ] con la busqueda
i=0
de Fibonacci:
p
x1 = xj ; x0 = xj;1 ;
= ( 5 ; 1)=2;
d =
(x1 ; x0 );
a = x1 ; d; b = x0 + d;
10 d =
d; x 0a b x1
si no
x1 = b; b = a; a = x1 ; d;
x a 0 b x1
Ademas del interes del resultado del teorema que servira para la
estimacion del error, se tiene un medio simple para calcular las derivadas
de f en los puntos xi .
Demostracion.- La demostracion del caso general es muy similar a la
del caso de los puntos equidistantes, aqu se mostrara el caso equidistante,
dejando al lector el caso general. La construccion del spline esta dada por
las ecuaciones
1 3
h (pi;1 + 4pi + pi+1 ) ; h2 (f (xi+1 ) ; f (xi;1 )) = 0: (III:2:14)
Se dene qi , i = 1; : : : ; n ; 1, por
; ;
qi = h1 f 0 (xi;1 ) + 4f 0 (xi ) + f 0 (xi+1 ) ; 32 f (xi+1 ) ; f (xi;1 ) (III:2:15)
h
III.2 Splines Cubicos 137
Por otra lado, utilizando el teorema de Taylor con resto en el punto xi
se tiene:
2 3
f (xi+1 ) = f (xi ) + hf 0(xi ) + h2! f 00 (xi ) + h3! f (3)(xi )
Z1
+ h4! f (4) (xi ) + h5 (1 ;4! t) f (5)(xi + th)dt;
4 4
0
2 3
f 0 (xi+1 ) = f 0 (xi ) + hf 00 (xi ) + h f (3) (xi ) + h f (4) (xi )
Z 1 (12! ; t)3
3!
+ h4 (5)
3! f (xi + th)dt;
0
de donde, introduciendo en (III.2.15), se obtiene
Z 1 (1 ; t)3 (1 ; t) (5) 4
qi =h3 3! ; 3 4! f (xi + th)dt
0
Z 1 (1 ; t)3 (1 ; t)4
+ h3 3! ;3 4! f (5)(x ; th)dt:
i
0
Utilizando el teorema del valor medio y calculando la integral
Z 1 (1 ; t)3
; 3 (1 ;4! t) dt = 601 ;
4
0 3!
se obtiene nalmente que
1 h3 f (5) ( ) + f (5)( ) ;
qi = 60 i i
Ejercicios
1.- Considerar puntos equidistantes xi = x0 + ih, h > 0. Mostrar que existe
un unico spline llamado B-spline, tal que para un j jo se tiene:
s(xj ) = 1;
s(x) = 0 si jx ; xj j 2h:
Dibujar.
2.- Desarrollar una formula para los splines periodicos.
Mostrar la existencia y la unicidad del spline que pasa por (xi ; yi ),
i = 0; : : : ; n, tal que
s0 (x0 ) = s0 (xn ); s00 (x0 ) = s00 (xn ):
3.- Escribir una subrutina SPLICO(N,X,Y,DY,P,A,B).
Los datos son N, X(0:N), Y(0:N) y P(0), P(N). La subrutina debe
dar como valores DY(0:N-1) diferencias divididas, P(0:N) los pi ,
A(0:N-1) los (pi ; y [xi;1 ; xi ]) y B(0:N-1) los (pi;1 ; y [xi;1 ; xi ]).
4.- Escribir una funcion SPLIVA(N,X,Y,DY,A,B,T) que calcula el valor del
spline en el punto T. Examinarla sobre varias funciones de su eleccion.
5.- Sea xi = x0 + ih, i = 0; : : : ; n, una division equidistante y lj (x) el spline
de tipo Lagrange que satisface
(
1; si i = j ;
0; sino;
y lj0 (x0 ) = 0, lj0 (xn ) = 0. Para las pendientes pi = lj (xi ) mostrar:
; h3 < pj < h2 ;
: : : ; pj;3 > 0; pj;2 < 0; pj;1 > 0; pj+1 < 0; pj+2 > 0; : : : :
144 III Interpolacio n
6.- Los splines lj (x) del anterior ejercicio no cambian de signo en ningun
intervalo [xi;1 ; xi ].
7.- Sobre el intervalo [xi;1 ; xi ]
X
n
jlj (x)j = ti (x)
i=0
es el spline que satisface
(
1 si j = i + 2k o j = i ; 2k ; 1 con k = 0; 1; : : : ;
;1 sino.
8.- Utilizando SPLICO y SPLIVA de los ejercicios 3 y 4. Calcular para
xi = i=n, n = 20:
a) el spline l7 (x),
X
n
b) la funcion jli (x)j,
i=0
hacer dibujos. Vericar las propiedades de los ejercicios 5, 6 y 7.
III.3 Extrapolacion
X
m Y
m hj =hi R (h ):
Tmk ; a0 = k+1 i
i=m;k j=m;k hj =hi ; 1
j6=i
III.3 Extrapolacio n 149
Si j < i, se mayora h h=hj =h;i 1 por 1 i;j , mientras que
j hi =h 1 ; rrj;i
si i < j , se mayora h =hj ;i 1 por , nalmente jRk+1 (hi )j por
; j i 1 ; r j ;i
Ck+1 ri;m+k hm;k k+1 , deduciendo
jTm;k ; a0 j C (k; r)Ck+1 hkm+1;k
donde C (k; r) es una constante independiente de m.
La convergencia hacia a0 es obtenida en cada una de las columnas del
tablero, para la primera columna la convergencia es O(hm ), para la segunda
columna la velocidad de convergencia esta dada por O(h2m;1 ), y para la
k-esima columna la velocidad de convergencia es igual a O(hkm+1 ;k+1 ). Por
consiguiente, si a1 6= 0 la convergencia de la k-esima columna es k veces mas
rapida que de la primera columna.
Las sucesiones de Romberg y Bulirsch satisfacen las condiciones del
teorema III.3.3 con r = 1=2 y r = 3=4. Sin embargo la otra sucesion utilizada
ampliamente en las extrapolaciones numericas como ser la armonica no
cumple el requisito que hj+1 =hj r < 1. No obstante se tiene a disposicion
el siguiente teorema.
Teorema III.3.4.- Mismas hipotesis del teorema III.3.3 para la funcion f ,
se dene hn = 1=n. Entonces se tiene:
8k con 0 2k ko Tmk = a0 + O(hkm+1 ): (III:3:11)
Demostracion.- Se tiene
Rk+1 (h) = qk (h) + R2k+1 (h) con
qk (h) = ak+1 hk+1 + + a2k h2k :
Utilizando (III.3.10), se deduce
X
m ;
Tmk ; a0 = qk (hi )lm;k;i (0) + R2k+1 (hi )lm;k;i (0) :
i=m;k
Por el teorema III.1.13, se tiene
X
m Y
m
qk (0) ; qk (hi )lm;k;i (0) = (k +1 1)! (;hj )qk(k+1) ( );
i=m;k j =m;k
150 III Interpolacio n
lo que muestra que
X
m
qk (hi )lm;k;i (0) = O(hkm+1 ):
i=m;k
Por otro lado
Y
m hj Ym i ;
lm;k;i (0) = =
hj ; hi j=m;k i ; j
j=m;k
j6=i 6 i
j=
de donde jR2k+1 (hi )lm;k;i (0)j C2k+1 i2 k
h ik +1 C2k+1 y0k yik+1 ;
deduciendo facilmente el teorema.
Debido al error de redondeo que se comete en el calculo del polinomio
de interpolacion, y por consiguiente en el proceso de extrapolacion, se debe
evitar la utilizacion de polinomios de interpolacion de grado muy elevado, la
practica aconseja no pasar de 10.
Por otro lado, la extrapolacion numerica es muy utilizada en la cons-
truccion de metodos de integracion, como tambien en la construccion de
metodos de resolucion de ecuaciones diferenciales.
Ejercicios
1.- Sea f : (0; 1] ;! R una funcion cuyo desarrollo asintotico por derecha
en x = 0 esta dado por
f (x) = a0 + a1 x2 + + ak x2k + O(x2k+2 ):
Modicar el algoritmo de Aitken-Naville, es decir el proceso de extra-
polacion, de manera que el numero de operaciones se redusca ostensi-
blemente.
2.- En esta seccion, se da un ejemplo de como acelerar la convergencia de
una sucesion para calcular . Suponiendo que el desarrollo asintotico
es par, como en el ejercicio 1, recalcule y compare.
3.- Utilizando el procedimiento de la seccion III.1 para determinar la
in
uencia de los errores de redondeo en la determinacion del polinomio
de interpolacion. Estudie la in
uencia de los errores de redondeo en
la extrapolacion, suponiendo que los unicos errores de redondeo que
se comete son aquellos relativos a la evaluacion de la funcion f a ser
extrapolada.
p
4.- p
Calcule p 2, utilizando unpprocedimiento p de extrapolaciop
n, por ejemplo
1 = 1, 1 ; 21 = 1
p1; 9881 = 1; 41, : : :. ; 1, 1 ; 44 = 1 ; 2, 1 ; 69 = 1; 3; 1; 96 = 1; 4;
Captulo IV
Ecuaciones No Lineales
Sucesiones de Sturm
La utilizacion de sucesiones de Sturm en la resolucion de ecuaciones polino-
miales permite determinar las raices reales y no as las raices no reales. En
la mayor parte de los problemas, es solo importante conocer los ceros reales,
motivo por el cual los procedimientos que utilizan sucesiones de Sturm son
muy comunes en la resolucion de ecuaciones polinomiales
Denicion IV.1.6.- Una sucesion ff0; f1; : : : ; fng de funciones denidas en
R con valores reales, continuamente derivables es una sucesi on de Sturm, si:
a) f00 (x )f1 (x ) < 0 si f0 (x ) = 0, x 2 R.
b) fj;1 (x )fj+1 (x ) < 0 si fj (x ) = 0, 1 j n ; 1.
c) fn (x) no cambia de signo sobre R y es positiva
Teorema IV.1.7.- Sea ff0; f1; : : : ; fng una sucesion de Sturm, w(x) se
denota al numero de cambios de signo de ff0(x); f1 (x); : : : ; fn (x)g.
Entonces la funcion f0 (x) tiene exactamente w(b) ; w(a) ceros en el
intervalo [a; b].
160 IV Ecuaciones No Lineales
Demostracion.- w(x) puede cambiar de valor solamente si uno de los
fj (x) = 0. Por consiguiente, sea x un tal numero y supongase que
1 j n ; 1. Estudiando en un vecindario de x , la funcion w estara
determinada por los valores de las siguientes tablas:
x ; x x + x ; x x +
fj ;1 + + + fj;1 ; ; ;
fj 0 fj 0
fj+1 ; ; ; fj+1 + + +
x ; x x +
fn;1
fn + 0 +
de donde w(x + ) = w(x ; ) cuando fj (x ) = 0 para 1 j n.
Ahora bien, si f0 (x ) = 0, estudiando alrededor de un vecindario de x
se tiene las tablas:
x ; x x + x ; x x +
f0 + 0 ; f0 ; 0 + ;
f1 ; ; ; f1 + + +
de donde w(x + ) = w(x ; ) + 1.
Volviendo al problema original de encontrar los ceros reales de un
polinomio p(x) con raices simples, a coecientes reales (racionales), el
objetivo es construir una sucesion de Sturm de tal manera que f0 = p.
Se dene la siguiente sucesion de polinomios de manera recursiva utilizando
la division con resto, por
8 f (x) := p(x);
>
> 0
>
> f 0
1 (x) := ;p (x);
>
< f0(x) = g1(x)f1 (x) ;
12f2(x);
> f1 (x) = g2 (x)f2 (x) ;
22 f3 (x); (IV:1:22)
>
> ..
>
> .
: fn;1(x) = gn(x)fn(x):
La denicion de la sucesion (IV.1.22) es el algoritmo de Euclides para
determinar el mcd(p(x); p0 (x)). Se tiene el siguiente teorema.
IV.1 Ecuaciones Polinomiales 161
Teorema IV.1.8.- Supongase que p(x) solamente tiene raices simples,
entonces la sucesion denida por (IV.1.22) es una sucesion de Sturm.
Demostracion.- Puesto que p(x) tiene raices simples, si p0(x ) = 0, se tiene
p(x ) 6= 0, de donde la condicion a) es satisfecha,
a) f00 (x )f1 (x ) = ;(f00 (x ))2 < 0:.
b) Se cumple esta condicion por construccion de la sucesion.
c) fn = mcd(p; p0 ) = C .
Algoritmo
Con el algoritmo de biseccion se separa las raices realles de p(x), es decir
se divide en la mitad un intervalo original [a; b] y se continua hasta tener
todas las raices localizadas en subintervalos [ai ; bi ]. Se puede continuar con
el algoritmo de biseccion hasta lograr la precision deseada, o si no se mejora
el resultado utilizando el metodo de Newton.
Ejercicios
1.- El polinomio x4 ; 8x3 + 24x2 ; 32x + a0 ; a0 = 16 posee una raiz
de multiplicidad 4 en el punto x = 2. >Como cambian las raices del
polinomio si se remplaza a0 por a0 = a0 (1 + ) con jj eps? Calcular
las raices de este polinomio, >es un problema bien condicionado?
2.- Sea p(x) un polinomio de grado n a coecientes reales. Supongase que
todas las raices 1 2 n sean reales.
a) Mostrar que el metodo de Newton converge hacia 1 , si x0 > 1 .
Indicacion.- Para x > 1 los valores de p(x); p0 (x); p00 (x) tienen
el mismo signo que xlim !1 p(x). Mostrar que fxk g es una sucesion
monotona.
b) Si x0 es mucho mas grande que 1 , entonces el metodo de Newton
converge muy lentamente. (xk+1 xk (1 ; 1=h))
3.- Considerese el polinomio
f (x) = x6 ; 3x5 + 6x3 ; 3x2 ; 3x + 2:
Sin calcular las raices de este polinomio, determinar el numero de raices
distintas de f (x).
4.- Encontrar un algoritmo que, para un polinomio arbitrario f 2 Q [x],
permita calcular la factorizacion
; ; ;
f (x) = f1 (x) (f2 (x) 2 (f3 (x) 3 (fk (x) k ;
162 IV Ecuaciones No Lineales
donde f1 ; : : : ; fk son primos entre si y donde cada polinomio fj (x) solo
tiene raices simples.
5.- Para un polinomio
f (x) = a0 xn + a1 xn;1 + an;1 x + an ; a0 6= 0;
con coecientes en C , mostrar que todas las raices satisfacen la
estimacion
( s s s )
j j 2 max a ; a ; : : : ; 1 ana;1 ; n 2aan : (IV:1:23)
a 1 a 1 n ;
0 0 0 0
Encontrar, para cada n, un polinomio tal que se tenga igualdad en
(IV.1.23)
6.- Considerese el polinomio
f (x) = x5 ; 5x4 + 3x3 + 3x2 + 2x + 8:
a) Determinar el numero de raices reales.
b) >Cuantas raices son complejas?
c)>Cuantas raices son reales y positivas?
Indicacion.- Utilizar una sucesion de Sturm.
7.- Sea f (p + 1) veces continuamente diferenciable en un vecindario de
2 R y sea una raiz de multiplicidad p. Mostrar que la sucesion
fxk g, denida por
xk+1 = xk ; p ff0((xxk )) ;
k
converge hacia , si x0 es sucientemente proximo de , y que se tiene
xk+1 ; ;! f (p+1) ( ) :
(xk ; )2 p(p + 1)f (p+2) ( )
8.- El metodo de Newton, aplicado a z 3 ; 1 = 0, da la iteracion
zk+1 = (zk ); con (z ) = z ; z ;2 1 = 2z +2 1 :
3 3
3z 3z
Denotese por Aj = z0 2 C ; zk ! e 2 ij= 3 , j = 0; 1; 2; los canales de
atraccion. Mostrar:
a)A0 \ R = R ; f0 ; 1 ; : : :g donde 0 = 0 y k;1 = (k ),
b)Aj+1 = e2i=3 Aj ,
c)Calcular ;1 (0) y ;2 (0) con la formula de Cardano. Esto muestra
que el sector fz 2 C j j arg(z )j < =3g contiene puntos que no convergen
hacia 1.
d) Supongase que k (z ) = 0 para un k 2 N . Mostrar que U \ Aj 6= ;
(j = 0; 1; 2) para cada vecindario U de z.
IV.2 Metodos Iterativos
y=L(x)
a ξ y=f(x) b
ξ0
Ejemplos
1.- Considerese la ecuacion de una sola variable dada por
f (x) = 2x ; tan x;
para aplicar el metodo de Newton la derivada esta dada por
f 0 (x) = 2 ; 12 ;
cos x
partiendo del punto inicial x0 = 1; 2 se obtiene los siguientes valores
mediante el metodo de Newton.
Tabla IV.3.1. Valores obtenidos por el metodo de Newton.
k xk f (xk ) e2k =ek;1
0 1; 2 ;0:172152
1 1:16934 ;1:69993 10;2
2 1:16561 ;0:213431 10;3 ;3:97664
3 1:16556 ;0:347355 10;07 ;3:44610
4 1:16556 ;:133227 10;14 ;3:38337
2.- Considerese el sistema de ecuaciones dado por
( 2 2
x +y ;4=0
:
xy ; 4 = 0
Las soluciones de este sistema de ecuaciones estan dadas por la inter-
seccion de una circunferencia de radio 2 y centro en el origen y una
hiperbola inclinada. Realizando un graco se puede observar que una
de las raices esta proxima al punto (0:5; 2) que sera tomado como punto
inicial. La matriz derivada es igual a
f 0 (x; y) = 2yx 2xy ;
utilizando el metodo de eliminacion de Gauss para calcular los valores
de (xk ; yk ) se obtiene la siguiente tabla con las primeras 23 iteraciones
del metodo de Newton.
176 IV Ecuaciones No Lineales
Err de aprox
Err de redon.
ρ_ D
x0 ρ
ρ
+
α α
α
1/µ 1/µ
ρ1 ρ2 1/µ
1 2 1 1 < 1 < 2 2 = 1
s0 = ky ; x0 k < + :
Se demuestra por induccion que:
kxk+1 ; xk k tk+1 ; tk ;
kxk ; x0 k tk ;
ky ; xk k sk ; tk
El siguiente paso en la demostracion consiste en estudiar las sucesiones ftk g
y sk . Se tiene:
tk+1 ; tk = !2 (t2k ; 2tk tk;1 + t2k+1 ) + !tk;1 (tk ; tk;1 ) + 0 (tk ; tk;1 );
tk+1 ; !2 t2k ; 0 tk = tk ; !2 t2k;1 ; 0 tk;1 = ;
sk ; tk = !2 (s2k;1 ; 2sk;1tk;1 + t2k;1 )+ !tk;1 (sk;1 ; tk;1 )+ 0(sk;1 ; tk;1 )
sk ; !2 s2k;1 ; 0 sk;1 = tk ; !2 t2k;1 ; 0 tk;1 = :
192 IV Ecuaciones No Lineales
Deniendo la funcion (t) por
(t) = !2 t2 + 0 t + ;
entonces se obtiene, los resultados siguientes para sk y tk :
tk+1 = (tk ); t0 = 0;
sk = (sk;1 ); s0 = ky ; x0 k < + :
Se tiene que, 0 (t) = !t + 0 0; si t 0, para estudiar la convergencia de
las sucesiones, se debe determinar los puntos jos de , es decir resolver la
ecuacion ! t2 + ( ; 1)t + = 0;
2 0
las raices de esta, estan dadas por:
p
= 1 h1 ; 2h ;
se puede observar, que la sucesion tk es creciente y tiende hacia ; , por otro
lado la sucesion sk es decrecientre y tiende hacia ;. Ver la gura IV.3.4
Ψ (t)
t
ρ ρ
− +
Ejercicios
1.- Utilizando el teorema de Newton-Kantorovich encontrar > 0 tal que
la iteracion
zk+1 = zk ; ff0((zzk )) f (z ) = z 3 ; 1
k
converge hacia 1, si z0 2 C satisface jz0 ; 1j < .
2.- Sea D Rn y f : D ! Rn continuamente diferenciable. Para x0 2 D
supongase que f (x0 ) 6= 0 y que f 0 (x0 ) sea inversible. Mostrar que
p0 = ;f 0 (x0 );1 f (x0 )
es la unica direccion que tiene la propiedad siguiente:
para toda matriz inversible A existe 0 > 0 tal que para 0 < < 0
kAf (x0 + p0 )k2 < kAf (x0 )k2 :
3.- En el artculo
R.S. Dembo, S.C. Eisenstat & T. Steighaug(1982): Inexact Newton
methods. SIAM J. Numer. Anal., vol. 19,400-408.
200 IV Ecuaciones No Lineales
los autores consideran la modicacion siguiente del metodo de Newton:
f 0 (xk )xk = ;f (xk ) + k
(IV:3:22)
xk+1 = x + l + xk :
Las perturbaciones k pueden ser interpretadas como la in
uencia de
los errores de redondeo, como el error debido a una aproximacion de
f 0 (xk ),... Supongase que k = (xk ) y que
k (x)k kf (x)k (IV:3:23)
con < 1.
a) Mostrar el resultado:
Sea D Rn abierto, f : D ! Rn y : D ! Rn continuamente
diferenciables en D. Si la condicion (IV.3.23) es satisfecha con < 1
y si kx0 k es sucientemente peque~no, entonces la iteracion (IV.3.21)
converge hacia una solucion de f (x) = 0.
b) El teorema precedente no es cierto, en general, si se remplaza < 1
por 1. Mostrarlo.
Indicacion. Encontrar una matriz M (x) tal que la iteracion (IV.3.21) se
vuelva equivalente a
M (xk )xk = ;f (xk );
y aplicar el teorema de Newton-Kantorovich. Utilizar la norma
kukJ = kf 0 (x0 )uk :
4.- (U. Ascher & Osborne 1987). Considerar una funcion f : R2 ! R2 que
satisfaga
p
1 4 p3 ; 3 ;
f (0) = ; 10 ;4 3 ; 3 f 0 (0) = 10 01
1
4
1=p3 ;1=p3
f (u) = 5 ;3 ; 0
f (u) = 1 1
donde u = ;f (0). Aplicar el metodo de Newton con el valor inicial
x0 = 0. Para la sucesion fxk g obtenida de esta manera mostrar:
a) xk+2 = xk para todo k 0;
b) el test de monotonocidad
0 ;1
(f (xk )) f (xk+1 )
2 <
(f 0 (xk ));1f (xk )
2
IV.3 Metodo de Newton 201
es satisfecho en cada iteracion.
5.- Sea f : Rn ! Rn dos veces diferenciable. Mostrar que
kf 00 (x)(h; k)k1 M khk1 kkk1
X X @ 2fi
donde M = max (x).
i j l @xj @xl
x
6.- Sea f : D ! R2 dada por D = 1
x2 j ; 1 < x1 ; x2 < 3 ,
f (x) = (xx1;;8)x2x ; x0 = 00::125
125 :
1 2
Calcular los valores y ! del teorema de Newton-Misovski. Mostrar
que el metodo de Newton converge hacia una solucion de f (x) = 0:
7.- Sean f : D ! Rn 3 veces continuamente diferenciable, Jk una aproxi-
macion de la matriz f 0 (xk ) y p 2 Rn ; p 6= 0. Para la aproximacion de
Broyden
t
Jk+1 = Jk +
(f (xk + p) ; f (xk ) ; Jk p): pt
pp
se tiene:
a) (Jk+1 ; f 0 (x0 + p))p = (1 ;
)(Jk ; f 0(xk ))p
+(
2 ; 1)f 00 (xk )(p; p) + O(kpk3 ):
b) para
2 [0; 2]
kJk+1 ; f 0 (x0 + p)k2 kJk ; f 0 (xk )k2 + kf 00 (xk )(p; :)k2 + O(kpk2 ):
8.- Supongase que se conoce una aproximacion J0 de f 0 (x0 ), y su descom-
posicion LR. Considere la iteracion
Jk xk ; = f (xk )
xk+1 = xk + xk
donde Jk+1 (aproximacion de Broyden), esta denido por
Jk+1 xk = Jk xk + f (xk+1 );
Jk+1 p = Jk p; si pt xk = 0:
Sin calcular explicitamente J1 y J2 , encontrar formulas para x1 y x2 .
202 IV Ecuaciones No Lineales
9.- Considerese una funcion f : Rn ! Rm donde m < n. El conjunto
E = fxjg(x) = 0g
representa una supercie en Rn .
Dado x^ 2 Rn . Proponer un algoritmo para calcular el punto de E el mas
proximo de x^. Estudiar las hipotesis para que el algoritmo converga.
10.- Considerese la ecuacion integrale de Fredholm (cf. Ejercicio 3 seccion
IV.3)
Z
y(x) = 2 (3 sin x sin t + 2 sin(2x) sin(2t))(y(t) + (y(t))3 )dt
0
(IV:3:24)
y(x) = 0 es solucion de (IV.3.24) para todo 2 R. Con las ideas del
ejercicio 3 de la anterior seccion se puede escribir (IV.3.24) bajo la forma
G(c1 ; c2 ; ) = 0:
Calcular los , donde det @C @G (C; 0) = 0:
Interpretar estos puntos con el teorema de las funciones implicitas.
(Soluciones: 1 = 2; 2 = 3)
11.- Mostrar numericamente que para 1 = 1 + ( > 0) el problema
(IV.3.24) posee al menos 3 soluciones, para 1 > 2 al menos 5
soluciones.
Calcular tambien todas las soluciones de (IV.3.24) para = 10, (hay
13).
IV.4 Metodo de Gauss Newton
3.5
3.0
2.5
2.0
1.5
1.0
.5
.0
.0 .5 1.0 1.5 2.0 2.5 3.0 3.5 4.0
Ejercicios
1.- Encontrar una elipse, una hiperbola, que pasa lo mejor posible por los
puntos (xi ; yi )i=1;:::;m . Por ejemplo m = 10; (;1=2; 1), (;1=2; ;0:1),
(2:5; ;1), (1:5; 1:5), (0:3; ;1:5), (0:5; ;2), (3; 0:1), (3; ;0:3), (2:5; 1),
(0:5; 3:5).
Indicaciones.- Plantear
f (x; y) = ax2 + 2bxy + cy2 + dx + ey + g
y encontrar a; b; c; d; e; g tales que
X
m ;
f (xi ; yi ) 2 ;! min
i=1
bajo la condicion ac ; b2 = 1 para la elipse, y ac ; b2 = ;1 para la
hiperbola.
2.- Considerese el problema de localizar un barco en el oceano. Para
volver el calculo mas simple, se supondra que la curvatura terrestre
es despreciable y que todos los puntos estan situados en el sistema
de coordenadas rectangulares (x; y). Sobre el barco, se mide el angulo
entre el eje x y las varias estaciones emisoras, cuyas coordenadas son
conocidas.
i xi yi i
1 8 6 42
2 ;4 5 158
3 1 ;3 248
212 IV Ecuaciones No Lineales
Teoricamente, la posicion (x; y) del barco satisface la relacion
y ; yi
arctan x ; x = i 8i:
i
Encontrar la posicion probable de este. Las coordenadas aproximadas
del barco son x0 = 3; y0 = 2.
Atencion.- Hacer los calculos en radianes y utilizar siempre la misma
rama de la funcion arctan.
Captulo V
Calculo de Valores Propios
0 1 0 1 0 1 1
BB 2 0CCA BB@ 0 2 . . CCA
@ .. . .
n 0
0 1 n 1 0 1 0 1
=B
B 0 2 CC BB 2 0C
CA ;
@ . .. A@ ...
0 n n
de donde
j1 j2 = j1 j2 + jj2 + + jj2 ;
dando como resultado que la primera la fuera del coeciente de la diagonal
es nulo. Se continua con el mismo procedimiento hasta mostrar que B es
diagonal.
La condicion del Problema a Valores Propios
Sea, A una matriz cualquiera a coecientes complejos de orden n. Al igual que
en captulo II, es importante conocer la condicion del problema planteado,
es decir la determinacion de valores propios. Para tal efecto sea A la matriz
con errores de redondeo de A, repasando la seccion II.1, se tiene que los
coecientes de A satisfacen
aij = aij (1 + ij ) jij j eps;
donde aij son los coecientes de A, aij los coecientes de A y eps la precision
de la computadora. Por consiguiente, el estudio de los valores propios de A
pueden estudiarse de manera, mas general, para A + C , con cij = eps ij de
donde jcij j jaij j. Deniendo
f (; ) = det(A + C ; I );
se tiene inmediatamente que
f (0; ) = A ():
Supongase que 1 es una raiz simple de A (), entonces se tiene
f (0; 1 ) = 0;
@f (0; ) 6= 0:
@ 1
218 V Calculo de Valores Propios
Por el teorema de las funciones implcitas, se deduce que existe un vecindario
de (0; 1 ) en el cual existe una funcion (), tal que
f (; ()) = 0;
con
() = 1 + 01 + O(2 ):
Por consiguiente, se tiene el siguiente:
Teorema V.1.9.- Sea 1 una raiz simple de A(), entonces para ! 0,
existe un valor propio () de A + C , tal que
1
() = 1 + uu1Cv + O(2 ) (V:1:4)
1 v1
donde Av1 = 1 v1 y u1 A = 1 u1 , u y v no nulos.
Demostracion.- Por el teorema, de las funciones implcitas se tiene
(A + C )v() = ()v();
mas precisamente
(A + C )(v1 + v10 + O(2 )) = (1 + 01 + O(2 ))v1 ;
comparando los terminos de igual grado en cada miembro de la ecuacion
anterior, se tiene:
0 : Av1 = 1 v1 ;
1 : Av10 + Cv1 = 1 v10 + 01 v1 ;
de donde
(A ; 1 I ) v10 = ;Cv1 + 01 v1 ;
multiplicando esta ultima por u1 , se obtiene
0 = ;u1 Cv1 + 01 u1 v1 :
Corolario V.1.10.- Si A es normal con valores propios diferentes, entonces
uCv
1 1 kC k ;
u1 v1
es decir, el problema esta bien condicionado.
V.1 Teora Clasica y Condicio n del Problema 219
Demostracion.- A es normal, por consiguiente existe una matriz Q unitaria
tal que 0 1 1
0
Q AQ = @ ... A;
0 n
una vericacion inmediata muestra que v1 es la primera columna de Q, as
mismo u1 es la primera la de Q , de donde v1 = v1 , por lo tanto, se obtiene
uCv juCv j
1 1 1 21
u1 v1 kv1 k
kv1 kkCv2 1 k
kv1 k
kC k :
Ejemplos
1.- Se considera la matriz A denida por
1
A= 0 2 :
6.- Sea A una matriz simetrica. Para cada ndice i existe un valor propio
de A tal que sX 2
j ; aii j jaij j :
j 6=i
Indicacion.- Utilizar el ejercicio 5 con una matriz B conveniente.
V.2 Determinacion de Valores Propios
Ejemplo
Considerese, la matriz A denida por
02 1 0 0 01
B1 2 1 0 0C
A=B B@ 0 1 2 1 0CC;
0 0 1 2 1A
0 0 0 1 2
V.2 Determinacio n de Valores Propios 225
utilizando el ejercicio 2 de la seccion V.1, se obtiene que el valor propio
mas grande esta dado por
p
1 = 2(1 + 23 ) 3; 73205;
Tomando y0 = (1; 1; 1; 1; 1)t, se obtiene los valores de 1 dadas en la
tabla V.2.1.
Tabla V.2.1. Valores de 1.
Iter. 1 Iter. 1
1 3:6 2 3:696969
3 3:721854 4 3:729110
5 3:731205 6 3:731808
7 3:731981 8 3:732031
9 3:732045 10 3:732049
11 3:732050 12 3:732051
13 3:732051 14 3:732051
Las componentes del valor propio respecto a 1 estan dados por
0 1:07735026 1
B 1:86602540 CC
v=B B@ 2:1547005 CA :
1:866025
1:07735026
Uno de los inconvenientes de utilizar el metodo de la potencia es que
la convergencia puede ser muy lenta si j1 =2 j 1. Sin embargo, existe una
modicacion del metodo de la potencia para acelerar la convergencia. Este
metodo es mas conocido como el:
Metodo de la Potencia Inversa
La modicacion consiste en aplicar el metodo de la potencia a
(I ; A);1 ;
donde es una aproximacion del valor propio buscado de la matriz A. La
justicacion teorica esta dada por la siguiente proposicion:
Proposicion V.2.2.- es valor propio de A, si y solamente si,
1 (V:2:4)
;
226 V Calculo de Valores Propios
es valor propio de (I ; A);1 .
Demostracion.- es valor propio de A, si y solamente si existe v 6= 0 tal
que
Av = v;
si y solamente si
(I ; A)v = ( ; )v;
(I ; A);1 v = ;1 v:
Por otro lado aplicando, el teorema V.2.1 se tiene que la convergencia
es del orden ; k !
O ; 1 :
2
Sea el valor propio mas grande de (I ; A);1 , entonces se tiene que
1 = ; 1 : (V:2:5)
El metodo de la potencia da una relacion recursiva para los yk , que esta dada
por
yk+1 = (I ; A);1 yk ;
pero en lugar de calcular la inversa de la matriz, se puede resolver la ecuacion
(I ; A)yk+1 = yk ; (V:2:6)
utilizando para tal efecto el algoritmo de eliminacion de Gauss.
En el anterior ejemplo se tenia como valor de 1 = 3:697 despues de
2 iteraciones del metodo de la potencia inversa. Aplicando el metodo de la
potencia inversa con = 3:697, se obtiene despues de dos iteraciones:
= ;232:83;
1 = 3:7334052:
Puede suceder que la matriz A sea a coecientes reales, sin embargo, el
valor propio buscado no sea real si no que contenga una parte imaginaria.
Supongase que = + i sea una aproximacion del valor propio buscado.
Entonces aplicando el metodo de la potencia inversa, se tiene
;( + i)I ; Ay
k+1 = yk ; (V:2:7)
V.2 Determinacio n de Valores Propios 227
por otro lado los vectores yk pueden ser descompuestos en un vector real y
otro imaginario, de la manera siguiente
yk = uk + ivk ; uk ; vk 2 Rn ;
de donde, se obtiene una nueva formulacion para el metodo de la potencia
inversa, dada por
I ; A ;I u u
k+1 k
I I ; A vk+1 = vk ;
y el cociente de Rayleigh esta dado por
ykyk+1 = (utk ; ivkt )(uk+1 + ivk+1 )
yk yk utk uk + vkt vk
= (uk uk+1 + vk vkt+1 + i(utk vk+1 ; vk uk+1 ) :
t t t t
(V:2:8)
uk uk + vk vk
Formas Tridiagonales y Matrices de Hessenberg
El metodo de la potencia y su version de la potencia inversa son metodos
aplicables a matrices, donde el valor propio mas grande en valor absoluto
lo es estrictamente. Por otro lado es necesario darse un vector inicial cuya
proyeccion sobre el espacio propio, respecto a este valor propio sea no nula,
es decir se debe tener una idea clara de la posible ubicacion de los vectores
propios. Ahora bien, en muchos casos es necesario conocer los diferentes
valores propios, situacion que no es posible con las dos versiones del metodo
de la potencia estudiados mas arriba.
Una gran clase de metodos de calculo de valores propios estan dise~nados
para operar con matrices tridiagonales, sobre todo si estas son simetricas.
El objetivo de este paragrafo es construir algoritmos que permitan tridiago-
nalizar una matriz arbitraria, conservando las propiedades originales en los
casos en que sea posible.
Sea, A una matriz arbitraria de orden n n, se busca una transfor-
macion, T tal que
0 1
BB .. C
.C
T AT = H = B
;1 BB ... .. C
.C :
@ ... .. C
A
.
H es conocida bajo el nombre de matriz de Hessenberg. A continuacion, se
propone como algoritmo de reduccion a la forma de Hessenberg, utilizando
matrices de tipo L, del algoritmo de eliminacion de Gauss.
228 V Calculo de Valores Propios
Algoritmo 1.
1.- Sea A una matriz arbitraria,
se busca jak1 j = j=2
max j a j,
;:::;n j 1
se intercambia las las k y 2 y tambien las columnas k y 2,
se dene la matriz L2 por
01 01
BB 0 1 CC
L2 = B 0
B@ .. ; l 32 1 CC ; li2 = ai1 ; i = 2; : : : ; n;
. .. A a21
.
0 ;ln2 1
se obtiene 0 1
BB CC
L2AL;2 1 = BB@ 0.. A(1)
CC :
. A
0
2.- Se aplica el paso 1 a la matriz A(1) , y se continua hasta obtener una
matriz de Hessenberg.
La principal desventaja de utilizar este primer algoritmo propuesto es
que, si A es una matriz simetrica, H no lo es en general. Recordando el
captulo II.5, existe el algoritmo QR para reducir una matriz A a la forma
triangular. Es facil vericar que H = Qt AQ es simetrica, si Q es ortogonal
y A es simetrica. Por consiguiente, el segundo algoritmo propuesto utiliza
matrices de Householder para convertir una matriz A en una matriz de
Hessenberg.
Algoritmo 2.
1.- Sea A una matriz arbitraria, que puede escribirse, como
A = aA110 aA10n ;
1 n
0 ;
por consiguiente Ak 2 R .
n 1
Se dene Q2 por
Q2 = 10 Q00 ;
2
donde Q02 = I ; 2u2 ut2, u2 esta determinado por la condicion, ver
Captulo V.2,
0 2 1
B 0. CC ; = signo a kA0 k ;
Q02 A01 = B
@ .. A 2 21 1 2
0
V.2 Determinacio n de Valores Propios 229
obteniendo 0 1
BB CC
Q2AQ2 = B
;1
B@ 0.. A(1) CC :
. A
0
2.- Se procede como en 1, hasta obtener la forma de Hessenberg.
Teorema de Sturm y Metodo de la Biseccion
Al utilizar el algoritmo 2, de la anterior subseccion, a una matriz A simetrica
se obtiene una matriz tridiagonal simetrica, que se la denota nuevamente por
A, para no cargar la notacion. Por consiguiente, A es de la forma
0 d1 e2 1
BB e2 d2 e3 CC
A=BBB e3 . . . ... CC :
C (V:2:9)
@ ... ... en A
en dn
Se dene, el polinomio p0 (x) por
p0 (x) = 1; (V:2:10)
y los polinomios pi (x) i = 1; : : : ; n, como
pi (x) = det(Ai ; xI ); (V:2:11)
donde
A = A0i 0 ;
Ai es la matriz formada por las primeras i las y columnas de A. Por lo
tanto, se tiene
Pn (x) = det(A ; xI ): (V:2:12)
Por otro lado, los determinantes que denen estos polinomios cumplen la
siguiente relacion recursiva
det(Ai ; xI ) = (di ; x) det(Ai;1 ; xI ) ; e2i det(Ai;2 ; xI ); i = 2; 3; : : :; n;
de donde
pi (x) = (di ; x)pi;1 (x) ; e2i pi;2 (x); i = 2; 3; : : :; n: (V:2:13)
230 V Calculo de Valores Propios
Teorema V.2.3.- Sea A una matriz tridiagonal y simetrica con los coe-
6 0 para i = 2; : : : ; n. Entonces:
cientes ei =
a) Las raices de pn (x) = A (x) son simples,
b) p0n (i ) pn;1 (i ) < 0 si i es una raiz de pn (x),
c) pj (x ) = 0 (1 j n ; 1; x 2 R) ) pj;1 (x )pj+1 (x ) < 0,
d) p0 (x) 0 para todo x 2 R.
Demostracion.- El punto d) se verica inmediatamente puesto que p0(x) =
1 por denicion.
La demostracion del punto c) se la realiza por el absurdo, en efecto,
si se tuviera pj (x ) = 0 y pj+1 (x ) = 0, utilizando (V.2.13), se tendra
p0 (x ) = 0 lo cual contradice el hecho que p0 (x ) = 1. Ahora bien, utilizando
nuevamente (V.2.13) se tiene en el caso en que pj (x ) = 0
pj;1 (x ) = ;e2n;j+1 pj+1 (x ):
El punto b) implica el punto a), ya que p0n (i ) 6= 0 conduce a que i sea
raiz simple. Solo queda el punto b) por demostrar.
Se dene, los polinomios:
qi (x) = (;1)i pi (x) e e 1 e ; i = 1; : : : ; n;
2 3 i+1
q0 (x) = p0 (x);
donde en+1 = 1. Efectuando calculos sobre los polinomios qj (x), se tiene
(;1)i qi (x)e2 ei+1 =(di ; x)(;1)i;1 qi;1 (x)e2 ei
; e2i (;1)i;2 qi;2 (x)e2 ei;1 ;
de donde
Ejercicios
1.- Calcular los valores propios y vectores propios de
02 1 1
A=B @ 10 21 122 1 CA ;
1 2
utilizando el metodo de la potencia inversa de Wielandt.
2.- Sea 0 88 ; 7p6 296 ; 169p6 ;2 + 3p6 1
B 360 p 1800p 225 p C
A=B 169 6 88 + 7 6 ;2 ; 3 6 C
B@ 296 +1800 360p 225 C A:
p
16 ; 6 16 + 6 1
36 36 9
Calcular ; ; y una matriz T a coecientes reales, tal que
0 01
T ;1 = @ ; 0 A :
0 0
La matriz A dene un metodo de Runge-Kutta.
3.- Sea A una matriz de orden s que es diagonalizable, y sea J una matriz
de orden n. Se dene el producto tensorial A
J por
0 a11J a1s J 1
A
J = @ ... .. A :
.
as1 J ass J
242 V Calculo de Valores Propios
Encontrar un algoritmo ecaz para resolver un sistema lineal con la
matriz
I ; A
J:
Indicaciones:
a) Mostrar que
(A
B )(C
C ) = (AC )
(BD):
b) Supongase que
0 1 1
T ;1AT = = @ ... A
s
y utilizar la descomposicion
I ; A
J = (T
I )(I ;
J )(T ;1
I ) (V2:32)
c) estimar el numero de multiplicaciones necesarias, si:
| se calcula la descomposicion LR de I ; A
J ,
| se utiliza (V.2.32); el trabajo principal es el calculo de la descom-
posicon LR de I ;
J .
4.- Calcular todos los valores propios de
0 1 ;1 19 >
BB ;1 2 ;1 CC>=
A= BB@ . . . . . . ... CC n
;1 2 ;1 A> >
;
;1 3
para n = 10 y n = 20. Utilizar el metodo de la biseccion.
5.- Mostrar que si la matriz A = A1 es una matriz de Hessenberg, las
matrices Ak , k = 2, construidas en el metodo QR son igualmente
matrices de Hessenberg.
Captulo VI
Integracion Numerica
x0 x1 x2 x3 xn-1 xn
x0 x1 x2 x3 xn-1 xn
x0 x1
( xi;1 3+ 2xi ; f ( xi;1 3+ 2xi )) y (xi ; f (xi )). De la misma manera que en la
regla de Simpson, se calcula esta parabola cubica utilizando por ejemplo
la formula de Newton para determinar polinomios de interpolacion,
luego se integra para obtener
Z x1
f (x)dx 81 f (x0 )+ 38 f x0 + h31 + 83 f x0 + 2h3 1 + 18 f (x1 ) h1 :
x0
La regla de Newton es exacta para polinomios de grado menor o igual
a 3.
x0 x1
Formulas de Cuadratura
En los cuatro ejemplos precedentes de la anterior subseccion, puede obser-
varse claramente que las reglas de integracion formuladas tienen la misma
estructura, la cual dene tacitamente una formula de cuadratura. La mayor
parte de los metodos numericos estan basados en este principio.
Se desea integrar la funcion f : [a; b] ! R, donde f es Riemann
integrable. Para tal efecto se considera una subdivision
S = fa = x0 < x1 < < xn = bg :
La integral puede ser aproximada mediante la formula de cuadratura si-
guiente !
Xn X s
bi f (xj;1 + ci hj ) ; (VI:1:1)
j =1 i=1
los ci se llaman nudos de la formula de cuadratura y los bi son los coecientes
de la formula de cuadratura.
Para la regla del Trapecio, se tiene s = 2, b1 = b2 = 1=2 y c1 = 0, c2 = 1.
As mismo, para la regla de Simpson se tiene s = 3, b1 = b3 = j1=6, b = 4=6
y c1 = 0, c2 = 1=2, c3 = 1.
Dada una formula de cuadratura, uno de los objetivos principales es
medir la precision de esta. Por razones de simplicidad, es preferible estudiar
VI.1 Bases Teo ricas 249
la formula de cuadratura en una funcion f : [0; 1] ! R y considerar h1 = 1, es
decir integrar numericamente con un paso de integracion. Por consiguiente,
se analizara el problema
X
s Z1
bi f (ci ) f (x)dx:
i=0 0
c1 c2 cs 1
0
.6 .1 P2
P1
.4
.2
.0 .0
.0 .5 1.0 .0 .5 1.0
−.2
−.4
−.6 −.1
.01
P3 .004 P4
.003
.002
.001
.00 .000
.0 .5 1.0 .0 .5 1.0
−.001
−.002
−.003
−.004
−.01
10−10
Err
10−9
10−8
10−7
10−6
10−5
10−4
10−3
10−2
fe
10−1 0
10 101 102 103 104
Punto Medio Gauss de orden 4
Regla de Simpson
Regla de Newton
Ejercicios
1.- Calcular el orden de la regla de Newton:
(ci ) = (0; 31 ; 23 ; 1); (bi ) = ( 81 ; 38 ; 38 ; 18 ):
2.- Sean 0 c1 < c2 < < cs 1 dados. Mostrar que existe una formula
de cuadratura unica con nudos ci y con un orden s.
VI.1 Bases Teo ricas 257
3.- Mostrar que si la formula de cuadratura satisface
ci = 1 ; cs+1;i ;
y si es de orden s, entonces se tiene tambien
bi = bs+1;i :
4.- >Como se debe elegir c1 ; c2 ? para que la formula de cuadratura
b1 f (c1 ) + b2 f (c2 )
tenga un orden maximal. >Cual es el orden?, >La formula de cuadratura
es simetrica?
Z 2 dx
5.- Calcular = ln 2 mediante la regla del trapecio, la regla de Simpson
1 x
y la regla de Newton. >Cual formula es la mejor? Hacer un graco
logartmico para el numero de evaluaciones de la funcion f respecto
al error.
6.- Lo mismo que el ejercicio 5, pero para
Z 2
exp(sin x)dx:
0
7.- Calcular utilizando
Z 1 dx Z 1p
=4 2 y = 4 1 ; x2 dx:
0 1+x 0
>Por que el segundo resultado es menos bueno?
8.- Mostrar que el resultado obtenido por la regla del trapecio, o por la regla
de Simpson, es una suma de Riemann.
9.- Sean h = (b ; a)=n, xi = a + ih y
T (h) = h 21 f (x0 ) + f (x1 ) + + f (xn;1 ) + 21 f (xn ) :
Demostrar que para f sucientemente derivable
Zb 2
f (x)dx ; T (h) = ; h12 (f 0 (b) ; f 0 (a)) + O(h3 ):
a
10.- Calcular los nucleos de Peano para la formula del ejercicio 4 y hacer sus
gracas.
11.- Calcular la expresion
R b
a f (x)dx ; T (h)
;
h2
para f (x) = 1=x, a = 1, b = 10; con varios valores de h. Vericar la
formula del ejercicio 9.
VI.2 Cuadraturas de Orden Elevado
Ejemplo
El ejercicio 4 de la seccion precedente demanda la construccion de una
formula de cuadratura del orden mas elevado posible. En consecuencia,
se dene
M (x) = (x ; c1 )(x ; c2 ):
Se tiene que la formula de cuadratura es de orden 3 si y solamente si
Z1
M (x)dx = 0;
0
1 ; 1 (c + c ) + c c = 0;
3 2 1 2 12
la formula de cuadratura es de orden mas grande o igual a 4, si ademas
Z0
xM (x)dx = 0;
1
1 ; 1 (c + c ) + 1 c c = 0;
4 3 1 2 212
obteniendo as un sistema de dos ecuaciones y dos incognitas. Una vez
determinados los ci , el siguiente paso es determinar los bi .
Polinomios Ortogonales
Uno de los mayores inconvenientes en la construccion de formulas de
cuadratura de orden elevado utilizando el teorema VI.2.1, consiste en el hecho
siguiente: se deben resolver sistemas de ecuaciones no lineales para determi-
nar los nudos de la formula de cuadratura. Esta claro que para formulas de
cuadratura con una cantidad no muy grande de nudos esto es posible, sin
embargo para s ya mas grande esto presenta una desventaja. En esta sub-
seccion se estudiaran polinomios ortogonales, cuyas raices son precisamente
los nudos.
260 VI Integracio n Numerica
Se iniciara esta subseccion, deniendo un conjunto de funciones particu-
lares. Sea ! : (a; b) ! R una funcion, llamada funcion de peso. Sea
( Zb )
E = f : (a; b) ! Rj !(x) jf (x)j2 dx < 1 : (VI:2:3)
a
Puede mostrarse que E es un espacio vectorial para la adicion de funciones y
la multiplicacion por escalares reales. Para las aplicaciones en general, puede
suponerse que f es una funcion continua.
Suponiendo que !(x) > 0, puede denirse un producto escalar sobre E ,
de la siguiente manera,
Zb
hf; gi = !(x)f (x)g(x)dx: (VI:2:4)
a
Hay que remarcar dos hechos importantes; el primero E es en realidad
un conjunto de clases de equivalencia de funciones, donde la relacion de
equivalencia esta denida por
f g () f (x) 6= g(x) en un conjunto de medida nula.
La segunda observacion es consecuencia de la primera, se puede suponer
por lo tanto que E esta constituida por funciones continuas, a lo sumo por
funciones continuas por trozos, y con ciertas condiciones impuestas a !(x)
puede demostrarse que
hf; f i = 0 () f = 0:
Denicion VI.2.2.- f es ortogonal a g, que se denota por f ? g, si
hf; gi = 0: (VI:2:5)
Demostracion.- Una vericacion simple sobre pk (x), muestra que se tratan
efectivamente de polinomios. Para la relacion de ortogonalidad con k dado,
es suciente mostrar que si q(x) es un polinomio de grado k ; 1 entonces
q ? pk . En efecto
Zb Z b dk
!(x)pk (x)q(x)dx = k !(x)(x ; a)k (b ; x)k q(x)dx
a a dx
k ;1 b
= d k;1 !(x)x ; a)k (b ; x)k q(x)
|dx {z a}
Z b dk;1 = 0
; !(x)x ; a)k (b ; x)k q0 (x)dx
a dxk;1
..
. Z b
=
!(x)x ; a)k (b ; x)k q(k) dx
a
= 0:
La mayor parte de los calculos de integrales denidas, tienen como funcion de
peso !(x) = 1. A continuacion se estudiara con mayor detalle los polinomios
de Legendre.
Los Polinomios de Legendre
Los polinomios de Legendre son los polinomios ortogonales para la funcion
de peso !(x) = 1 denida en el intervalo (;1; 1), ver la tabla VI.2.1. Por otro
lado, utilizando la formula de Rodriguez se puede elegir los Ck de manera
que Pk (1) = 1. Por consiguiente, se tiene
k
1 = Pk (1) = Ck d k (1 ; x)k (1 + x)k = Ck (;2)k k!;
dx x=1
de donde
Ck = (;k1) ;
k
2 k!
264 VI Integracio n Numerica
por lo tanto
;
Pk (x) = (;k1) d k (1 ; x2 )k :
k k (VI:2:8)
2 k! dx
Los polinomios de Legendre pueden ser calculados mediante la formula
de Rodriguez, o mediante una relacion recursiva, ver ejercicio 1. En la tabla
VI.2.2, se da los cuatro primeros polinomios de Legendre.
Tabla VI.2.2. Polinomios de Legengre
k Pk (x)
0 1
1 x
2 3 x2 ; 1
2 2
3 5 x3 ; 3 x
2 2
Puede observarse que si k es par, entonces Pk (x) = Q(x2 ) donde Q es un
polinomio; de la misma manera si k es impar, se tiene que Pk (x) = xQ(x2 ).
Las Formulas de Cuadratura de Gauss
La vericacion del orden de una formula de cuadratura, se la realiza en el
intervalo [0; 1]. Efectuando una transformacion afn, se tiene que M (x) del
teorema VI.2.1, es igual a
M (x) = (x ; c1 ) (x ; cs ) = Ps (2x ; 1) (VI:2:9)
con Ps el s-simo polinomio de Legendre, si se desea que orden de la formula
cuadratura sea al menos s. El siguiente teorema, tiene una importancia en
lo concerniente al orden de una formula de cuadratura.
Teorema VI.2.6.- El orden de una formula de cuadratura dada por (bi; ci ),
i = 1; : : : ; s; es menor o igual a 2s.
Demostracion.- Por el absurdo. Supongase que existe una formula de
cuadratura de orden superior o igual a 2s +1, de donde para todo polinomio
l(x) de grado s, se tiene Z1
l(x)M (x)dx;
0
VI.2 Cuadraturas de Orden Elevado 265
sin embargo, tomando l(x) = M (x) se tiene
Z1
M 2 (x)dx = 0;
0
lo que conduce a una contradiccion
El objetivo, sera por consiguiente, encontrar una formula de cuadratura
de orden maximo, es decir 2s. Por la observacion hecha al inicio de esta
ultima subseccion, los nudos ci de la formula de cuadratura de orden s son
las raices de Ps (2x ; 1) polinomio de Legendre. Como consecuencia de lo
anteriormente expuesto se tiene el siguiente teorema formulado por Gauss
en 1814.
Teorema VI.2.7.- Una formula de cuadratura (ci ; bi), i = 1; : : : ; s; es de
orden 2s si y solamente si c1 ; : : : ; cs son las raices de Ps (2x ; 1), Ps (t)
polinomio de Legendre y los bi estan determinados por
X
s
bi cqi ;1 = 1q ; q = 1; : : : ; s: (VI:2:10)
i=1
Por otro lado, debe observarse que los coecientes de una formula de
cuadratura de Gauss son extrictamente positivos, en efecto, se dene
Ys x ; cj
li (x) =
j=1 ci ; cj
j6=i
Ejercicios
1.- Para los polinomios de Legendre, demostrar que:
(k + 1)Pk+1 (x) = (2k + 1)xPk (x) ; kPk;1 (x);
(1 ; x2 )Pk0 (x) = ;kxPk (x) + kPk;1 (x):
268 VI Integracio n Numerica
2.- Los polinomios de Chebychef estan denidos por
Tk (x) = cos(k arccos x):
Vericar que:
T0 (x) = 1; T1 (x) = x;
Tk+1 (x) = 2xTk (x) ; Tk;1 (x);
Z1 1
p Tk (x)Tj (x); para i 6= j:
;1 1 ; x2
3.- Calcular las raices de P8 (x) con un metodo iterativo, como por ejemplo
el metodo de la biseccion.
4.- Mostrar que el nucleo de Peano Pk (t) de una formula de cuadratura
satisface Z1 X
s
Pk (t)dt = k +1 1 ; bi cki :
0 i=1
5.- Sea p el orden de una formula de cuadratura y supongase que el nucleo
de Peano Pp (t) no cambia de signo sobre [0; 1]. Mostrar que
Z x0+h X !
f (x)dx ; h
s
bi f (x0 + ci h) = hp+1 1 ;hXs
p (p)
x0 i=1 p + 1 i=1 bi ci f ( );
con 2 (x0 ; x0 + h).
Indicacion.- Utilizar el teorema VI.1.15 con k = p.
6.- Mostrar que para las formulas de cuadratura de Gauss de orden 2s, el
nucleo de Peano P2s (t) no cambia de signo.
VI.3 Implementacion Numerica
Ejemplo
Considerese, la funcion
(0)
;1
(0)
0
&
;1 ;;;;;;! (0)
(1)
% 1 & (0)
0 ;;;;;;! 2
(1)
% & (0)
& (1) ;;;;;;!
;1 ;;;;;;!
(2) 3
% 1
& % & (0)
0 ;;;;;;! 2 ;;;;;;! 4
(2) (1)
% & (1) % & (0)
& ;;;;;;!
;1 ;;;;;;! (2)
(3) 3 ;;;;;;! 5
% 1
& % & (1) % & (0)
(3)
0 ;;;;;;! (2) ;;;;;;!
4 ;;;;;;!6
% 2
% %
100
k=0
10 −2
k=2
10−4
10−6 k=4
10−8 k=6
10−10
k=8
10−12
k=10
10−14
10−16
10−18
k=24 k=22
10−20
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Ejercicios
1.- Para una sucesion fSn gn0 , el -algoritmo esta denido por:
(;n1) = 0;
(0n) = Sn ;
(kn+1) = (kn;+1) 1 :
1 + (n+1)
k ; (kn)
Si la aplicacion del -algoritmo a fSngn0 y a fS^n gn0 = faSn + bg
proporciona respectivamente las cantidades (kn) y ^(kn) . Mostrar que
lim Sn0 ; S = 0:
n!1 S ; S
n
Indicacion.- Vericar que Sn = ( ; 1 + n )(Sn ; S ) y encontrar una
formula similar para 2 Sn
VI.4 Transformacion de Fourier
yl = f (xl ); xl = 2Nl ; l = 0; 1; : : :; N ;
para una funcion f : R ! C que es 2-periodica. La formula siguiente des-
cribe como la transformada de Fourier discreta dada por (VI.4.7) aproxima
los coecientes de Fourier dados por (VI.4.2).
X
Teorema VI.4.5.- Si la serie f^(k) es absolutamente convergente, en-
k2Z
tonces X
f^n (k) ; f^(k) = f^(k + jN ): (VI:4:11)
j2 Z
j6=0
= 0 si no N
X
= f^(k + jN )
j 2Z
Aplicaciones de la FFT
La transformada rapida de Fourier, tiene una gran cantidad de aplicaciones,
desde el calculo de espectrogramas, resolucion de ecuaciones diferenciales
ordinarias o a derivadas parciales, hasta la solucion de sistemas lineales.
Deniendo el producto de convolucion de dos sucesiones N -periodicas
y 2 PN y z 2 Pn , por
NX
;1
(y z )k = yk;l zl : (VI:4:20)
l=0
Se tiene la siguiente propiedad, ver ejercicio 1,
FN (y z ) = N FN y FN z; (VI:4:21)
de donde (VI.4.20) puede ser calculado mediante O(N log2 N ) operaciones.
La resolucion de un sistema lineal con una matriz de Toeplitz circular
puede ser resuelto utilizando FFT. En efecto, un tal sistema es de la forma
0 a0 aN ;1 aN ;2 a1 1 0 x0 1 0 b0 1
BB a1 a0 aN ;1 a2 CC BB x1 CC BB b1 CC
BB a2 a1 a0 a3 CC BB x2 CC = BB b2 CC : (VI:4:22)
@ ... ..
. . .. A @ .. A @ .. A
.. . . .
aN ;1 aN ;2 aN ;3 a0 xN ;1 bN ;1
VI.4 Transformacio n de Fourier 293
Evidentemente, el sistema lineal (VI.4.22) es equivalente a a x = b, si se
considera (ai ), (xi ) y (bi ) como sucesiones de PN .
La multiplicacion de una matriz de Toeplitz arbitraria con un vector
0 a0 a;1 a;2 a;N +1 1 0 x0 1 0 b0 1
BB a1 a0 a;1 a;N +2 C B x1 C B b1 C
BB a2 a1 a0 aN +3 C CC BBB x2 CCC = BBB b2 CCC ; (VI:4:23)
@ ... ..
.
..
.
.. A @ .. A @ .. A
. . .
aN ;1 aN ;2 aN ;3 a0 xN ;1 bN ;1
puede ser resuelta utilizando FFT, considerando las sucesiones en P2N
a = (a0 ; a1 ; : : : ; aN ;1 ; 0; a;N +1; a;N +2 ; : : : ; a;1 );
x = (x0 ; x1 ; : : : ; xN ;1 ; 0; 0; : : : ; 0):
Se puede vericar facilmente que el resultado del producto (VI.4.23) es la
primera mitad del producto de convolucion a x. Por consiguiente, el calculo
con FFT da un algoritmo rapido para efectuar el producto (VI.4.23).
Ejercicios
1.- Mostrar que
Fn (y z ) = N FN y FN z;
para el producto de convolucion
NX
;1
(y z )k = yk;l zl ;
l=0
de dos suceciones N -periodicas. Deducir que
y z = N FN;1 (FN y FN z ):
Demostracion.- Se tiene:
Zx
y(x) ; v(x) = y(x0 ) ; v(x0 ) + (y0 (s) ; v0 (s))ds
Zx x0
= y(x0 ) ; v(x0 ) + (f (s; y(s)) ; f (s; v(s)) + f (s; v(s)) ; v0 (s)) ds;
x0
VII.1 Generalidades 299
pasando a las normas y aplicando las hipotesis (VII.1.8) y (VII.1.9), se
obtiene
Zx
ky(x) ; v(x)k ky0 ; v(x0 )k + (L ky(s) ; v(s)k + ) ds:
x0
Planteando
Zx
u(x) = ky0 ; v(x0 )k + (L ky(s) ; v(s)k + ) ds;
x0
se deduce
u0 (x) = L ky(x) ; v(x)k + Lu(x) + ;
de esta manera se obtiene la desigualdad diferencial
u0 (x) Lu(x) +
(VII:1:11)
u(x0 ) = ky0 ; v(x0 )k :
Para resolver este desigualdad, se considera la familia de ecuaciones:
wn0 (x) = Lwn (x) + ; wn (x0 ) = u(x0 ) + n1 ; (VII:1:12)
cuyas soluciones estan dadas por:
wn (x) = wn (x0 )eL(x;x0) + L eL(x;x0) ; 1) :
El siguiente paso en la demostracion es mostrar que
u(x) wn (x): (VII:1:13)
Supongase lo contrario, es decir que existe un n y s > x0 , tales que
u(s) > wn (s). Considerese el conjunto
A = fx > x0 ju(x) > wn (x)g
y sea x1 = inf A. Por continuidad se tiene u(x1 ) = wn (x1 ). De donde:
Z x1 Z x1
wn (x1 ) ; wn (x0 ) = w0 (s)ds =
n (Lwn (s) + )ds
Zxx0 1 x0 Z x1
(Lu(s) + )ds u0 (s)ds
x0 x0
= u(x1 ) ; u(x0 );
300 VII Ecuaciones Diferenciales
por lo tanto
w(x0 ) u(x0 );
llegando a una contradiccion con ;1=n 0.
0 = @f
@y (x; y(x; x0 ; y0 )) : (VII:1:26)
Shooting Simple
Retomando el problema con valores en la frontera formulado bajo la forma
de las ecuaciones (VII.1.18) y (VII.1.19) puede ser resuelto utilizando el
metodo conocido como shooting simple, que en sntesis es utilizar un metodo
304 VII Ecuaciones Diferenciales
numerico para resolver (VII.1.19). Este metodo puede ser Newton u otro
metodo numerico adaptado al problema. Sin pretender dar una teora que
justique tal metodo, para tal efecto referirse a Stoer, se mostrara este
metodo implementado en ejemplos.
Ejemplos
a) Considerese el problema con valores en la frontera dado por:
y00 = ;ey ;
y(0) = 1; (VII:1:27)
y(1) = 21 :
Utilizando la notacion de la subseccion precedente, se plantea
y(x; );
la solucion del problema diferencial a valores iniciales
y00 = ;ey ;
y(0) = 1; (VII:1:27b)
y0 (0) = :
El problema (VII.1.27) se traduce en encontrar , tal que
y(1; ) = 12 :
En la gura VII.1.1, puede observarse en la graca los valores de y(1) en
funcion de .
2 y(1)
0
0 2 4 6 8 10
α
−1
4 4
3 3
2 2
1 1
0 0
0 1
0
−3 −2 −1 0 1 2 3
−1
−2
−3
3
iter=0
2
0
0 20 40 60 80 100
3
iter=1
2
0
0 20 40 60 80 100
3
iter=2
2
0
0 20 40 60 80 100
3
iter=3
2
0
0 20 40 60 80 100
3
iter=4
2
0
0 20 40 60 80 100
3
iter=11
2
0
0 20 40 60 80 100
Por la simetra del problema, se puede deducir que el silo es una supercie
de revolucion, por lo tanto el problema puede expresarse de la manera
siguiente: Encontrar una funcion y(x), tal que
Z 10 p
y 1 + y02 dx ;! min;
0
Z 10
y2 dx = 550;
0
y(0) = 5;
y(10) = 2:5:
Planteando
p
L(; y; y0) = y 1 + y02 ; y2 ; 55 ;
el problema es equivalente, por los Multiplicadores de Lagrange a
Z 10
L(; y; y0 )dx ! min :
0
Ejercicios
1.- Resolver: p
y0 = ;x signo(y) jxj;
y0 = exp(y) sin(x);
y0 = (x ; y + 3)2 :
Dibujar los campos de vectores.
2.- Dibujar el campo de vectores de la ecuacion
p
xy0 = x2 ; y2 + y:
Encontrar una formula explicita para las soluciones.
3.- La ecuacion de un cuerpo en caida libre esta dada por
r00 = ;
M2 ; r(0) = R; r0 (0) = v0 : (VII:1:39)
r
312 VII Ecuaciones Diferenciales
Plantear r0 = p(r), deducir una ecuacion diferencial para p y resolverla.
Encontrar una condicion para v0 , tal que r(t) ! 1 si t ! 1. Calcular las
soluciones de (VII.1.39) que tienen la forma a(b x) .
4.- Transformar la ecuacion de Bernoulli
y0 + 1 +y x + (1 + x)y4 = 0;
en una ecuacion lineal. Plantear y(x) = z (x)q con q conveniente.
5.- Resolver la ecuacion de Riccati
y 0 = y 2 + 1 ; x2 : (VII:1:40)
Dibujar el campo de vectores considerando las curvas donde y0 = cons,
las isoclinas. Deducir una solucion particular (x) de (VII.1.40). Calcular
las otras soluciones mediante la transformacion z (x) = y(x) ; (x):
6.- Encontrar la solucion de
0 x =2;
y00 ; 3y0 ; 4y = g(x); g(x) = cos0;x; =2 x;
que satisface y(0) = y0(0) = 0.
7.- Resolver las ecuaciones lineales
y0 = ;32 ;63 y; y0 = 14 ; 1
;3 :
VII.2 Metodo de Euler
y(x)
x1 x2 x3 x4 x5 x6
en+1 = en + hn [ @f 2
@y (tn ; yn)en ] + hn n + %n + O(kenk ): (VII:2:13)
h
Figura VII.2.2. Error de Redondeo en el Metodo de Euler.
La pregunta natural que surge es: >Cual es el h mnimo que se puede
tomar sin que el error de redondeo sea preponderante? La respuesta a esta
VII.2 Metodo de Euler 319
pregunta tiene dos fuentes, la primera que radica en la practica numerica,
y la segunda en un analisis sobre el origen de los otros errores que ocurren
durante la implementacion del metodo. Ambos estudios llegan a la conclusion
de
hmin C peps; (VII:2:16)
donde eps es la precision de la computadora.
Las mayoraciones que se acaban de dar son por lo general demasiado
pesimistas, por ser rigurosos matematicamente, uno se situa en la situacion
mas desfavorable posible. Por otro lado si se toma h muy peque~no, inferior
a eps, el algoritmo se mantiene estacionario.
Estabilidad del Metodo de Euler
En la anterior subseccion se pudo observar la incidencia directa del error de
redondeo. En esta parte se analizara la propagacion del error de redondeo
en la solucion numerica. Considerese el problema siguiente
y0 = y; y(0) = y0 : (VII:2:17)
El metodo de Euler con paso constante, da el siguiente esquema
yn+1 = yn + hyn ; (VII:2:18)
supongase que en lugar de y0 , se introduce una aproximacion y0 , planteando
en = yn ; yn donde yn es la solucion numerica de la ecucion (VII.2.17) con
valor inicial y0 . Los en verican la siguiente relacion:
en+1 = en + hen ; e0 = (y0 ; y0 );
de donde
en = (h + 1)n e0 : (VII:2:19)
Por consiguiente, el esquema (VII.2.17) sera estable siempre y cuando
lim e = 0;
n!1 n
situacion que sucede cuando jh + 1j < 1. Por consiguiente, para obtener un
metodo estable es necesario que
hmax = j2j : (VII:2:20)
Por lo expuesto en la anterior subseccion y en esta, se tiene necesariamente
que la longitud de paso esta acotada inferiormente e superiormente. La
cota inferior impide que el error de redondeo distorsione completamente
320 VII Ecuaciones Diferenciales
la solucion numerica del problema, mientras que la cota superior en los
problemas lineales impide que el metodo diverga. La idea de estabilidad
puede generalizarse a problemas diferenciales lineales de mayor dimension.
Por ejemplo, considerese el problema
y0 = Ay; y(0) = y0 :
Con el procedimiento utilizado anterioremente e introduciendo normas en
los lugares apropiados es facil mostrar que el metodo de Euler es estable si
(A + I )h < 1; (VII:2:21)
donde (A + I ) es el radio espectral de la matriz A + I . Planteando z = h,
se tiene estabilidad en el metodo, si y solamente si jz + 1j < 1. De donde, se
tiene denida una region de estabilidad, dada en la gura VII.2.3, la parte
achurada del crculo corresponde a la region donde el metodo es estable.
−1 1
−i
Ejercicios
1.- Aplicar el metodo de Euler al problema
y0 = y2 ; y(0) = 1:
Evaluar y(1=4).
Utilizar pasos constantes, (por ejemplo h=1/6). Estimar el error con el
corolario VII.2.4. Comparar esta estimacion con el error exacto.
2.- Demostrar el resultado siguiente: Si el problema
y0 = f (x; y); y(x0 ) = y0 ;
con f : U ! Rn continua, U Rn abierto y (x0 ; y0 ) 2 U posee una
y una sola solucion sobre el intervalo I , entonces los polgonos de Euler
yh (x) convergen uniformemente sobre I hacia esta solucion.
3.- Aplicar el metodo de Euler al sistema
y10 = ;y2; y1 (0) = 1;
y20 = y1 ; y2 (0) = 0:
Utilizar pasos constantes para encontrar una aproximacion de la solucion
en el punto x = 0:4. Estimar el error como en el ejercicio 1 y compararla
con el error exacto. La solucion exacta es y1 (x) = cos x, y2 (x) = ; sin x.
VII.3 Metodos de Runge-Kutta
x0 x0 +h/2 x 0 +h
Figura VII.3.1 Metodo de Runge
Kutta en 1901, generalizo la idea de Runge, conduciendo a la denicion
siguiente de los metodos que llevan sus nombres.
Denicion VII.3.1.- Un metodo de Runge-Kutta a s pisos, esta dada por:
k1 = f (x0 ; y0);
k2 = f (x0 + c2 h; y0 + ha21 k1 );
k3 = f (x0 + c3 h; y0 + h(a31 k1 + a32 k2 ));
.. (VII:3:6)
.
ks = f (x0 + cs h; y0 + h(as1 k1 + + as;s;1 ks;1 ));
y1 = y0 + h(b1 k1 + + bs ks );
VII.3 Metodos de Runge-Kutta 325
donde los ci ; aij ; bj son coecientes. El metodo se representa por el esquema
c1 = 0
c2 a21
c3 a31 a32
.. .. .. . . (VII:3:7)
. . . .
cs as1 as2 as;s;1
b1 b2 bs;1 bs
Los metodos de Euler, como tambien los metodos de Runge y Heun estan
dados en la tabla III.3.1
Tabla III.3.1. Primeros metodos de Runge-Kutta
0
0 1=3 1=3
0 1=2 1=2 2=3 0 2=3
1 0 1 1=4 0 3=4
Euler Runge Heun
Por razones de cuadratura, se supondra siempre que los ci satisfacen siempre
X
i;1
c1 = 0; ci = aij ; i = 2; : : : ; s: (VII:3:8)
j =1
La denicion de orden de cuadratura para las formulas de cuadratura,
puede extenderse a los metodos de Runge-Kutta de la siguiente manera.
Denicion VII.3.2.- Se dice que el metodo de Runge-Kutta dado por
(VII.3.6) tiene el orden p si, para cada problema y0 = f (x; y), y(x0 ) = y0
con f sucientemente derivable, el error despues de un paso satisface
y1 ; y(x0 + h) = O(hp+1 ); cuando h ! 0: (VII:3:9)
La diferencia (VII.3.9) se llama error local del metodo.
El metodo de Euler es un metodo de orden 1, por que
y(x0 + h) = y0 + hy0 (x0 ) + O(h2 ) = y0 + hf (x0 ; y0 ) + O(h2 ) = y1 + O(h2 ):
326 VII Ecuaciones Diferenciales
El metodo de Runge esta basado sobre la formula del punto medio que es
una formula de cuadratura de orden 2:
y(x0 + h) = y0 + hf (x0 + h=2; y(x0 + h=2)) + O(h3 ):
Remplazando y(x0 + h=2) por el valor y0 + (h=2)f (x0 ; y0 ) del metodo de
Euler, se agrega un termino de tama~no O(h3 ). Entonces, este metodo tiene
orden p = 2.
El metodo de Heun, ver tabla VII.3.1, se obtiene a partir de la formula
de cuadratura
h
2h 2 h
y(x0 + h) = y0 + 4 f (x0 ; y0 ) + 3f x0 + 3 ; y(x0 + 3 ) + O(h4 );
si se remplaza y(x0 + 2h=3) por la aproximacion del metodo de Runge. De
donde el metodo de Heun tiene el orden p = 3.
Utilizando la suposicion (VII.3,8) que es una condicion simplicadora,
se tiene la siguiente proposicion.
Proposicion VII.3.3.- La condicion (VII.3.8) implica que es suciente
considerar problemas autonomos de la forma y0 = f (y) para vericar la
condicion de orden.
Demostracion.- Se supone que (VII.3.9) es satisfecha para los problemas
autonomos de la forma y0 = F (y), y(x0 ) = y0 .
Considerese un problema de la forma y0 = f (x; y), y(x0 ) = y0 , el cual es
equivalente al problema
y_ = f (x; y); y(0) = y0 ;
x_ = 1; x(0) = 0;
obteniendo as
x 1
0
Y = F (Y ); donde Y = y ; F (Y ) = f (x; y); (VII:3:10)
con valor inicial Y0 = (x0 ; y0 )t . La aplicacion del metodo de Runge-Kutta al
problema (VII.3.10) da
0 1 x
X
i;1 X
s
Ki = F @Y0 + h aij Kj A = k1 ; Y 1 = Y0 + h bi Ki = y1 ;
j =1 i i=1 1
Metodos Encajonados
Para resolver un problema realista, un calculo a paso constante es en
general ineciente. Existen diversas causas para esta ineciencia: la primera
es que se debe conocer a priori una estimacion del error local cometido,
lo cual es complicado en general ocasionando una perdida de generalidad
en los programas a implementarse. La otra razon fundamental que existen
intervalos donde los pasos de integracion pueden ser de longitud mayor. El
principal problema reside en como escoger los pasos de integracion. La idea
que puede resolver satisfactoriamente estos problemas consiste en escoger
pasos de integracion de manera que el error local sea en todo caso inferior o
igual a Tol dado por el utilizador. Motivo por el cual es necesario conocer
una estimacion del error local. Inspirados en el programa GAUINT descrito
en VI.3, se construye un metodo de Runge-Kutta con y^1 como aproximacion
numerica, y se utiliza la diferencia y^1 ; y1 como estimacion del error local
del metodo menos preciso.
Se da un metodo de orden p a s pisos, con coecientes ci ; aij ; bj . Se busca
un metodo de orden p^ < p que utiliza las mismas evaluaciones de f , es decir
y^1 = y0 + h(^b1 k1 + + ^bs ks ); (VII:3:19)
VII.3 Metodos de Runge-Kutta 331
donde los ki estan dados por (VII.3.3). Para tener mas libertad, se agrega a
menudo un termino que contenga f (x1 ; y1 ) a la formula (VII.3.19), de todas
maneras se debe calcular f (x1 ; y1 ) para el paso siguiente, determinando as
y^1 , como
y^1 = y0 + h(^b1 k1 + + ^bs ks + ^bs+1 f (x1 ; y1 )): (VII:3:20)
Un tal metodo encajonado puede ser representado en forma de un esquema,
ver la tabla VII.3.3.
Tabla VII.3.3. Metodos encajonados
c1 = 0
c2 a21
c3 a31 a32
.. .. .. ...
. . .
cs as1 as2
as;s;1
(1) b1 b2 bs;1 bs
^b1 ^b2 ^bs;1 ^bs (^bs+1 )
El siguiente paso es la determinacion del h optimal. Si se aplica el metodo
con un valor h, la estimacion del error satisface
y1 ; y^1 = (y1 ; y(x0 + h)) + (y(x0 + h) ; y^1) = O(hp+1 ) + O(hp^+1 ) Chp^+1 :
(VII:3:21)
El h optimal, denotado por hopt , es aquel donde esta estimacion es proxima
de Tol, es decir
Tol Chpopt^+1 : (VII:3:22)
Eliminando C de las dos ultimas formulas, se obtiene
s
hopt = 0:9 h p^+1 Tol : (VII:3:23)
ky1 ; y^1 k
El factor 0:9 se lo agrega para volver el programa mas seguro.
Algoritmo para la seleccion automatica de paso.
Al iniciar los calculos, el utilizador provee una subrutina que calcule el valor
de f (x; y), los valores iniciales x0 ; y0 y una primera eleccion de h.
A) Con h, calcular y1 , err = ky1 ; y^1 k y hopt dado por (VII.3.23).
B) Si err Tol, el paso es aceptado, entonces
x0 := x0 + h; y0 := y1 ; h := min(hopt ; xend ; x0 );
332 VII Ecuaciones Diferenciales
si no el paso es rechazado
h := hopt:
C) Si x0 = xend se ha terminado, si no se recomienza por (A) y se calcula
el paso siguiente.
La practica numerica muestra que es aconsejable remplazar (VII.3.23)
por
hopt = h min 5; max(0:2; 0:9(Tol=err)1=p^+1 :
Para la norma dada en la relacion (VII.3.23), se utiliza en general
v
u n y ; y^ 2
u X
ky1 ; y^1 k = t 1 i1 i1 ; donde sci = 1 + max(jyi0 j ; jyi1 j):
n i=1 sci
(VII:3:24)
En la literatura especializada, estos metodos encajonados con control
de paso automatico, se los denota por RKpp^ donde RK son las iniciales
de Runge-Kutta y p, p^ son los ordenes de los metodos encajonados. En la
actualidad la utilizacion de tales metodos es muy comun. En la tabla VII.3.4
se da el esquema del metodo de Dormand-Prince RK54 ; este metodo es
analizado minuciosamente en Hairer & Wanner.
Tabla VII.3.4. Metodo Dormand-Prince 5(4)
0
1 1
5 5
3 3 9
10 40 40
4 44 ; 56 32
5 45 15 9
8 19372 ; 25360 64448 ; 212
9 6561 2187 6561 729
1 9017 355 46732 49 ; 5103
3187 ; 33 5247 176 18656
35 500 125 2187 11
1 384 0 1113 192 ; 6784 84
y1 38435 0 500 125 ; 2187 11 0
1113 192 6784 84
5179
y^1 57600 0 7571 393 ; 92097 187 1
16695 640 339200 2100 40
VII.3 Metodos de Runge-Kutta 333
En el ejemplo siguiente se detallara la construccion de un metodo
encajonado con seleccion de paso automatico. Por razones de simplicidad, se
considerara un metodo RK32.
Ejemplo
Tomese un metodo de orden p = 3 a s = 3 pisos, que en este caso sera el
metodo de Heun, ver tabla VII.1.1 y se buscara un metodo encajonado de
orden p^ = 2 de la forma (VII.3.20), es decir se aumenta s de 1, agregando
un (s + 1)-emo piso con los coecientes as+1;i , para i = 1; : : : ; s.
De esta manera se obtiene el siguiente sistema de ecuaciones para los
coecientes ^bi , el cual esta dado por:
^b1 + ^b2 + ^b3 + ^b4 = 1
1 ^b + 2 ^b + ^b = 1 :
32 33 4 2
Puedo observarse que para que el metodo encajonado tenga un orden
igual a 2, se requieren 2 condiciones, quedando as dos grados de libertad.
Al igual que en el metodo de Heun, puede plantearse ^b2 = 0, ^b4 puede
escogerse libremente, por ejemplo ^b4 = 1=2 de donde por la segunda
ecuacion se deduce facilmente que ^b3 = 0 y por la primera ecuacion
^b1 = 1=2. Por lo tanto se obtiene el esquema dado en la tabla VII.3.5.
Soluciones Continuas
Uno de los incovenientes mayores de los metodos formulados en esta seccion
consiste en el hecho que estos dan las soluciones en un conjunto discreto
de puntos. Una primera alternativa es unir estas soluciones con polgonos,
si los puntos donde el metodo ha dado las soluciones. El resultado no es
satisfactorio desde varios puntos de vista. Si el metodo es de orden elevado
la interpolacion lineal, vista en el Captulo III, tiene como efecto la perdida
de precision. Desde el punto de vista graco las soluciones dejan de ser
334 VII Ecuaciones Diferenciales
lisas. Debido a estas dos razones expuestas es necesario complementar estos
metodos con alternativas que permitan dar soluciones densas.
Existen varias alternativas validas que permiten subsanar esta falencia
de los metodos de Runge-Kutta. La primera consiste en la construccion de los
metodos de Runge-Kutta Continuos. Para tal efecto, se considera un metodo
de Runge-Kutta dado de antemano. Se desea evaluar utilizando este esquema
en el punto x = x0 + h con 0 < 1. Los coecientes de este metodo
se los denota por ci (); aij (); bj (). Ahora bien, el metodo sera interesante
desde el punto de vista numerico, si los coecientes ci (), aij () no dependen
de coincidiendo de esta manera con los del metodo dado de antemano. Sin
embargo no es nada raro que el metodo obtenido a partir de los bi () tenga
un orden inferior. Esto se debe a que los aij ; ci ya estan prescritos. Para
ilustrar esta construccion considerese el ejemplo siguiente.
Ejemplo
Se considera nuevamente el metodo de Heun dado en la tabla VII.3.1.
Utilizando el teorema VII.3.4, remplazando y(x0 + h) por y(x0 + h) se
obtienen las siguientes condiciones de orden para los coecientes bi ():
b1 + b2 + b3 = ;
1 b + 2 b = 2 ;
32 33 2
1 b + 4 b = 3 ;
92 93 3
4 b = 3 :
93 6
Como puede observarse es imposible que los coecientes bi puedan
satisfacer las condiciones para obtener un metodo de orden 3, por lo
tanto, uno debe contentarse con obtener un metodo de orden 2 para
diferente de 1 y para = 1 un metodo de orden 3. Tomando las dos
primeras ecuaciones y planteando b2 = 0, como en el metodo de Heun,
se tiene para b3 = 43 2 y para b1 = ( ; 34 ). obteniendo as, el esquema
dado en la tabla VII.5.6.
y(xn )
y0 En
e1 e n−1 E n−1
e
2
E1
y
x0 x1 x2 x 3 xn
Figura VII.3.2. Estimacion del error global.
La desigualdad del triangulo, as como (VII.3.30) da, ver la gura VII.3.3,
para la estimacion de la suma
X
n X
n
ky(xn ) ; yn k kEi k hpi;+11 e(xn ;xi )
i=1 i=1
;
Chp h0 e(xn;x1 ) + + hn;2 e(xn;xn;1 ) + hn;1
Z xn p
Chp e(xn;t) dt = Ch e (xn ;x0 ) ; 1 :
x0
Λ( x n −x)
e
x0 x1 x2 x n−1 xn
106
fe
105
104
103
102
101
err glob
100 0
10 10−1 10−2 10−3 10−4 10−5 10−6 10−7 10−8 10−9 10−10
Metodo de Euler
Metodo de Runge
Metodo de Heun
Metodo de Kutta
Metodo 3/8
5 y2
4
1 y1
0 5 10
100
10−1
10−2
0 5 Error global 10
10−3
10 −4
10−5
10−6
10−7
yn+1
yn
q(t)
yn−k+1 yn−1
Estabilidad
A simple vista la relacion (VII.4.25) permite formular metodos multipaso con
un numero dado de pasos con un orden optimal. Sin embargo la experiencia
VII.4 Metodos Multipasos 349
numerica mostro que los resultados obtenidos no siempre eran validos. Es
por eso necesario introducir una nueva nocion en el estudio de estos metodos.
Esta nocion esta intimamente ligada a la estabilidad del metodo. Para
comprender mejor el problema que se plantea con los metodos multipaso,
es necesario referirse al siguiente ejemplo enunciado por Dahlquist en 1956.
Se plantea k = 2 y se construye un metodo explicito, 2 = 0, 2 = 1
con un orden maximal. Utilizando las condiciones dadas por (VII.4.25) con
p = 3, se llega al siguiente esquema:
yn+2 + 4yn+1 ; 5yn = h(4fn+1 + 2fn): (VII:4:26)
0
Una aplicacion a la ecuacion diferencial y = y con y(0) = 1 da la formula
de recurrencia
yn+2 + 4(1 ; h)yn+1 + (5 + 2h)yn = 0: (VII:4:27)
Para resolver la ecuacion precedente, se calcula el polinomio caracterstico
de esta, obteniendo
2 + 4(1 ; h) ; (5 + 2h) = 0; (VII:4:28)
ecuacion de segundo grado cuyas soluciones son
1 = 1 + h + O(h2 ); 2 = ;5 + O(h):
La solucion de (VII.4.27) tiene la forma
yn = C1 1n + C2 2n (VII:4:29)
donde las constantes C1 y C2 estan determinadas por y0 = 1 y y1 = eh. Para
n grande, el termino C2 2n C2 (;5)n es dominante y sera muy dicil que
la solucion numerica converga hacia la solucion exacta. Ver gura VII.4.4.
h=0.01 h=0.05
3.0
2.0
.0 .5 1.0
E1
y
x0 x1 x2 x 3 xn
Figura VII.3.2. Estimacion del error global para metodos multipaso.
Ejercicios
1.- Para los coecientes del metodo de Adams explcito, demostrar la
formula de recurrencia siguiente:
m + 21
m;1 + 31
m;2 + + m 1+ 1
0 = 1:
Indicacion.-Introducir la serie
X
1 Z 1 ;s
G(t) =
j tj ;
j = (;1)j j ds
j =0 0
y demostrar que
Z1
G(t) = (1 ; t);s ds y ; log(1t ; t) G(t) = 1 ;
1 ;
t
0
enseguida, desarrollar la segunda formula en serie de Taylor y comparar
los coecients de tm .
2.- Considerese la identidad
Z xn+1
y(xn+1 ) = y(xn;1 + f (t; y(t))dt
xn;1
para la solucion de la ecuacion diferencial y0 = f (x; y).
354 VII Ecuaciones Diferenciales
a) Remplazar en la identidad la funcion desconocida f (t; y(t)) por el
polinomio p(t), como se ha hecho para construir el metodo de Adams
explcito. Deducir la formula de Nystron
kX
;1
yn+1 = yn;1 + h j rj fn :
j =0
b) Calcular los primeros j .
c) Vericar la identidad j = 2
j ;
j;1 , donde
j son los coecientes
del metodo de Adams explcito.
3.- Mostrar que el metodo BDF a k pasos tiene orden k.
4.- Calcular el orden para la formula de Nystron, ver ejercicio 2.
5.- Un metodo multipaso se dice simetrico, si
j = ;k;j ; j = k;j :
Mostrar que un metodo simetrico siempre tiene un orden par.
6.- Dado un predictor de orden p ; 1
X
k kX
;1
Pi yn+1 = h iP fn+1 ; (P )
i=0 i=0
y un corrector de orden p
X
k X
k
i yn+1 = h i fn+1 : (C )
i=0 i=0
a) Escribir el metodo P (EC )M E bajo la forma
Yn+1 = AYn + h(xn ; Yn ; h):
b) Mostrar que este metodo es convergente de orden p, si el corrector es
estable, no es necesario que el predictor sea estable.
Bibliografa
ecuaciones factorizacion,
con derivadas parciales, 59 incompleta de Cholesky, 77
cuadraticas, 152 fenomeno de Runge, 124
cubicas, 153 FFT, 290
de grado cuarto, 154 Fibonacci, busqueda, 129
diferenciales, 296 formas tridiagonales, 227
Euler-Lagrange, 310 formula
no resolubles por radicales, 155 de Cardano, 154
resolubles por radicales, 152 de Newton, 107
eciencia, 3 de Nystrom, 354
-algoritmo, 278 de Rodrguez, 262
error formula de cuadratura, 248
de aproximacion, 5 error, 250
de la aproximacion spline, 136 Gauss,
de interpolacion, 111 264{266
del metodo, 5 orden, 249
de truncacion, 4 orden elevado, 259
formula de cuadratura, 250 simetrica, 249
extrapolacion, 149 Fourier
metodo gradiente, 68 error, 287
metodo gradiente condicionado, 72 serie de, 284
metodo Gauss-Newton, 205, transformada, 284
metodo Multipaso, 346 transformada discreta, 286
metodo Newton, 176 transformada rapida, 290
transformada discreta de Fourier, funcion
287 integrable, 244
errores de redondeo, 115 modelo, 83
estabilidad ortogonal, 260
algoritmo de Gauss, 41,42,43 peso, 259
backward analysis, 13 funciones con oscilaciones, 281
forward analysis, 12
metodo de Euler, 319 Galois, teorema, 155
metodo de Euler explcito, 322 GAUINT, 272
metodo multipaso, 348 Gauss,
numericamente estable, 12 algoritmo de eliminacion, 36, 37
Euler formulas de cuadratura,
efecto de los errores de redondeo, 264{266
317 convergencia Gauss-Newton, 204
estabilidad, 319 metodo Gauss-Newton, 203
metodo, 313 Gerschgorin, teorema, 156, 232
metodo implcito, 321 grado de aproximacion, 120
polgono, 313 grafo dirigido, 49
extrapolacion
polinomial, 145 Hermite, 104, 138
tablero, 147 Heun, 325
error, 149
Indice Alfabetico 363
! optimal, 58
Sturm, 159
sucesiones
armonica, 148
Bulirsch, 148
Romberg, 148
Sturm, 159
Sylvester, 232
tablero de extrapolacion, 147
teorema
Cauchy-Lipschitz, 297, 315
Chebichef, 74
Dirichlet, 285
del Muestreo, 289
Fundamental del Algebra, 152
Galois, 155
Gerschgorin, 156, 232
Jordan, 219
Newton-Kantorovich, 185
Newton-Misovski, 179
Pearson, 99
Perron-Frobenius, 52
punto jo, 169
Schur, 215
Sylvester, 232
Weirstrass, 124
Wilkinson, 42
Wynn, 278
transformada
discreta de Fourier, 286
rapida de Fourier, 290
valor absoluto de un vector, 26
valor propio, 215
valores singulares, 94
Van der Pol, 305
vector propio, 215
Weirstrass, 124
Wilkinson, 42
Wynn, 278
366 Indice Alfabetico