Академический Документы
Профессиональный Документы
Культура Документы
Soluci
on de Grandes Sistemas
de Ecuaciones Lineales
En el capitulo anterior se discutio como proceder para transformar un
problema de ecuaciones diferenciales parciales con condicion inicial y valores
en la frontera en un sistema algebraico de ecuaciones y as poder hallar la
solucion resolviendo el sistema de ecuaciones lineales que se pueden expresar
en la forma matricial siguiente
Au = b
(4.1)
donde la matriz A es bandada y en problemas reales tiene grandes dimensiones. La eleccion del metodo especifico para resolver el sistema de ecuaciones
depende de las propiedades particulares de la matriz A, en la siguientes secciones vamos a examinar varios metodos.Los metodos de resoluvcion de del
sistema algebraico de ecuaciones Au = b se clasifican en dos grandes grupos; los metodos Directos y los metods iterativos. En los metodos directos
la solucon u se alcanza en un n
umeros fijo de pasos y solo estan sujetos
a problemas de redondeo. En los metodos iterativos, se realizan iteraciones
para aproximarse a las solucion u provechando las caractersticas propias
de la matriz A, tratando de usar el menor n
umero de de pasos que en un
metodo directo. Los metodos iterativos rara vez se usan para resolver sistemas de ecuaciones sistemas lineales de dimension peque
na ( El concepto de
dimension peque
na es muy relativo), ya que el tiempo necesario para para
conseguir una exactitud satisfactoria rebasa el que requieren los metodos directos. Sin embargo, en el caso de de sistemas de ecuaciones grandes con un
alto procentaje de elementos cero, son eficientes tanto en almacenamiento
65
66
en la computadora como como el tiempo que se invierte en su solucion.Por
est
azon al resolver estos sistemas algebraicos de ecuaciones es preferible aplicar los metodos iterativos como son Jacobi, Gauss-Seidel, Sobrerrelajacion
sucesiva, Descenso empinado, Gradiente conjugado. Cabe hacer mencion de
que la mayoria del tiempo de computo necesario para resolver el problema
de ecuaciones diferenciales parciales (EDP), es consumido en la solucion de
del sistema de algebraico de ecuaciones asociado a la discretizacion, por ello
es necesario elegir aquel metodo numerico que minimice el tiempo invertido
en este proceso.
kuk
kbk
se tiene
kuk
kbk
|kA|k|kA1 |k
kuk
kbk
| {z }
| {z }
error relativo
error relativo
resultados
en datos
4. Soluci
on de Grandes Sistemas de Ecuaciones Lineales
67
Definici
on
|k |k norma matricial y A Mn inversible.
El n
umero cond(A) = |kA|k|kA1 |k se denomina condicionamiento o n
umero de condicion de A Mn relativo a la norma |k |k
Teorema 9
|k |k Norma matricial subordinada o norma inducida y A Mn matriz
inversible se cumple que:
1. cond(A) 1
2. cond(A) = cond(A)1
3. cond(A) = cond(A) para todo K {0}
Demostracion
1. 1 = kIk = kAA1 k kAkkA1 kcond(A) entonces 1 cond(A)
2. cond(A) = kAkkA1 k = kA1 kkAk = cond(A1 )
3. Para todo 6= 0
Teorema 10
Si A Mn inversible. Se verifica que
s
cond(A) =
dende n (A A)
de A A
n (A A)
1 (A A)
Denostracion
Primero notamos que A A es hermitica y definida positiva por ser A inversible, por lo que los auvalores de A A son positivos.
Por teorema
kAk22 = (A A) = n (A A)
y
kA1 k22 = ((A1 ) A1 ) = ((A A)1 ) =
1
1 (A A)
68
de V, converge a un vector
lm kv k vk = 0 y se denota v = lm v k
k+
k+
OBSERVACION
1. La equivalencia de normas en V, demuestra que la convergencia de una
sucesion de vectores es independiente de la norma elegida.
2. La definicion anteriorincluye el caso de la convergencia de matrices, basta
considerar Mn (K) como el espacio vectorial de dimencion n2
{Ak }kN Mn converge a A Mn y lo denotamos
A = lm Ak
k+
si
lm kAk Ak = 0
k+
Teorema 11
B Mn son equivalentes
a)
lm
x
Bk = 0
b)
lm
x
Bkv = 0
c) (B) < 1
d) Existe k k norma matricial ( puede ser inducida ) tal que kBk < 1
Demostracion
a) b)
k k norma matricial subordinada por k k norma matricial, por definicion
lm B k = 0 lm kB k k = 0
k+
k+
4. Soluci
on de Grandes Sistemas de Ecuaciones Lineales
69
y as lm B k v = 0
k
b) c)
Por reduccion al absurdo.Si (B) 1 entonces exixte un autovalor =
(B) sp(B)con|| 1; basta considerar un autovector v V \{0} asosiado
a para llegar a una contradiccion.
En efecto Bv = v entonces
B k v = k v, k N
y por tanto
6 0
lm kB k vk = lm |k |kvk =
k+
k+
c) d)
Por el teorema anterior dado > 0 existe una norma matricial k kB, tal
que k kB, (B) + tomando
0 < < 1 (B)
se obtiene
k kB, < (B) + (1 (B)) = 1
d) a)
kB k k = kB k1 Bk kB k1 kkBk ... kBkk , k N
Por lo tanto, la hipotesis kBk 1implica
lm kBk = 0
k+
Es decir
lm B = 0
k+
Teorema 12
Sea k k la norma de una matriz. Entonces
(A) kAk
A C n.n
Demostracion
Sea un autovalor de A y v 6= 0 el autovalor asociado. Tenemos
||kvk = kvk = kAvk kAkkvk
|| kAk
70
4.1. M
etodos Iterativos Estacionarios y no Estacionarios
4.1.
M
etodos Iterativos Estacionarios y no Estacionarios
Denotamos por
Rp = I P 1 A
la matriz de iteracion asociada a
xk+1 = xk + P 1 rk
Donde
rk = b Axk
introducimos el parametro y tenemos el metodo estacionario de Richardson
xk+1 = xk + P 1 rk ,
k0
k0
Convergencia y An
alisis del M
etodo de Richardson
Vamos a considerar el metodo estacionario de Richardson y tenemos los
siguientes resultados
Teorema 13
Para una matriz no singular P el metodo estacionario de Richardson es
convergente sii
2Re(i )
> 1 i = 1, 2, ..n
|i |2
donde i C son los autovalores de P 1 A
4. Soluci
on de Grandes Sistemas de Ecuaciones Lineales
71
Demostraci
on
Como i C son los autovalores de P 1 A, los autovalores de la matriz de
iteracion Rp = I P 1 A son 1 i y por condicion de convergencia
|1 i | < 1 i = 1, 2, ..n se tiene la desigualdad
(1 Rei )2 + 2 (Imi )2 < 1
1 2Rei + (Rei )2 + 2 (Imi )2 < 1
2Rei + (Rei )2 + 2 (Imi )2 < 0
tenemos la desigualdad
2Re(i )
> 1 i = 1, 2, ..n
|i |2
Teorema 14
Si P
es una matriz no singular tal que P 1 A tiene autovalores reales y
positivos ordenados 1 2 ... n . entonces el metodo estacionario de
Richardson es convergente si 0 < < 21 Adem
as
opt =
2
1 + 2
1 n
1 + n
Demostraci
on
Los autovalores de R son i (R ) = 1 i y el metodo de Richardson
es convergente si
|i (R )| < 1 para i = 1, 2..n
1 < 1 i < 1
0<<
0<<
2
2
1
i
2
i
i = 1, 2..n crit =
2
1
72
4.1. M
etodos Iterativos Estacionarios y no Estacionarios
2
min + max
1 n
1 + n
Teorema 15
Sea A una matriz simetrica definida positiva, entonces el metodo de estacionario no precondicionado de Richardson es convergente y
ke(k+1) kA (R )ke(k) kA ,
k0
4. Soluci
on de Grandes Sistemas de Ecuaciones Lineales
73
1
2
k2 kA 2 e(k) k2
1
4.2.
M
etodo del M
aximo Descenso
74
4.2. M
etodo del M
aximo Descenso
Notacion
Ax = b
x1
x2
..
.
xn
b1
b2
..
.
bn
Teorema 16
La forma cuadratica
1
f (x) = xt Ax bt x + c
2
(4.2)
Donde
x: vector de incognitas,
b: vector conocido,
A: matriz cuadrada conocida
c: escalar
Mostraremos que si A es simetrica y definida positiva f (x) es minimizada por la solucion de Ax = b
Demostraci
on
En efecto
=
Como A es definida positiva, la superficie de f (x) es un paraboloide.
En el fondo del paraboloide la gradiente es cero, f (x) es minimizado cuando
0
f (x) = 0,
1
1
0
f (x) = At x + Ax b
2
2
como A es simetrica la ecuacion se reduce a
0
f (x) = Ax b
(4.3)
4. Soluci
on de Grandes Sistemas de Ecuaciones Lineales
75
f (x) = Ax b = 0
Ax = b
Observamos que la solucion de
Ax = b
es un punto critico de f (x).
=
Si A es definida positiva y simetrica, la solucion es un mnimo de f (x)
Pues si Ax = b
En la ecuacion (4,2)
f (x + e) =
1
(x + e)t A(x + e) bt (x + e) + c
2
1 t
(x + et )(Ax + Ae) bt x bt e + c
2
1 t
(x Ax + et Ax + xt Ae) bt x bt e + c
2
1 t
1
1
x Ax bt x + c + et Ae + (et Ax + xt Ae) bt e
2
|2
{z
} 2
f (x)
1
1
1
= f (x) + et Ae + et Ae + (et b + bt e) bt e
2
2
2
1
1
1
= f (x) + et Ae + et Ae + (2bt e) bt e
2
2
2
76
4.2. M
etodo del M
aximo Descenso
1
= f (x) + et Ae + bt e bt e
2
1
f (x + e) = f (x) + et Ae
2
1
f (y) = f (x) + (y x)t A(y x)
2
A es definida
As x minimiza f.
Ahora si A no es simetrica la ecuacion (3,11) queda
1
0
f (x) = (At + A)x b
2
Isinua la solucion del sistema
1 t
(A + A)x = b
2
Donde la matriz At + A es simetrica
M
etodo del M
aximo Descenso
Nosotros empezamos tomando un punto arbitrario x0 y deslizamos hacia
el fondo del paraboloide , nosotros tomamos una serie de pasos x1 , x2 , x3 , ..
,hasta que estemos satisfechos con la aproximacion para dar la solucion.
Cuando nosotros tomamos un paso, nosotros escogemos la direccion en la
0
cual f decrece mas rapidamente la cual es la direccion opuesta de f (xi ) de
acuerdo a la ecuacion (3,12) esta direccion es
0
f (x(i) ) = b Ax(i)
Vamos a intriducir unas definiciones.
4. Soluci
on de Grandes Sistemas de Ecuaciones Lineales
77
r(i) =
=
=
=
r(i) =
b Ax(i)
Ax Ax(i)
A(x x(i) )
A(x(i) x)
Ae(i)
78
4.2. M
etodo del M
aximo Descenso
f (x(1) )
= 0 por la regla de la
0
0
f (x(1) ) = f (x(1) )t x(1) = f (x(1) )t r(0) = 0 pues x(1) = x(0) + r(0)
Es decir deberia ser escogida de manera que r(0) y f (x(1) ) sean ortogonales.
0
t
.r(0) = 0 pues f (x(1) ) = r(1)
Es decir r(1)
(b Ax(1) )t .r(0) = 0
[b A(x(0) + r(0) )]t .r(0) = 0
[b Ax(0) Ar(0) ]t .r(0) = 0
[b Ax(0) ]t .r(0) [Ar(0) ]t .r(0) = 0
[b Ax(0) ]t .r(0) = [Ar(0) ]t .r(0) = 0
| {z }
t
r(0)
t
t
r(0)
.r(0) = r(0)
(Ar(0) )
t
.r(0)
r(0)
t
Ar(0)
r(0)
r(i) = b Ax(i)
t
.r(i)
r(i)
(i) = t
r(i) Ar(i)
x(i+1) = x(i) + (i) r(i)
El algoritmo como esta escrito requiere de dos matrices-vectores, multiplicado por iteracion. En general el costo computacional del algoritmo iterativo
es dominado por la productos matriz-vector, afortunadamente una puede ser
eliminada por premultiplicacion a los dos lados de la ecuacion (3,15) por A
y agregando b nosotros tenemos.
r(i+1) = r(i) (i) Ar(i)
4. Soluci
on de Grandes Sistemas de Ecuaciones Lineales
79
keR
(k+1)
Donde eR
4.3.
(k+1)
= xR
kA
k2 (A) 1 (k)
ke kA
k2 (A) + 1
M
etodo de la Gradiente Conjugada
Revisarenos el metodo de la gradiente conjugada para funciones cuadraticas. Este metodo fue desarrollado por Hastenes y stiefel (1952) para ecuacio-
80
4.3. M
etodo de la Gradiente Conjugada
nes lineales, vamos a tomar un conjunto A-ortogonal de busqueda de direcciones d0 , d1 , ..dn1 en cada direccion, nosotros tomaremos exactamente un
paso y ese paso queremos que sea justo del largo correcto. El metodo de la
gradiente conjugada modifica la expresion
0
Definici
on
(m1) =
dt(m1) Ar(m)
dt(m1) Ad(m1)
4. Soluci
on de Grandes Sistemas de Ecuaciones Lineales
81
x(0) = dado
d(0) = r(0) = b Ax(0)
r(m) = b Ax(m)
t
r(m)
Ad(m1)
(m1) = t
d(m1) Ad(m1)
d(m) = r(m) + (m1) d(m1)
dt(m) .r(m)
(m) = t
d(m) Ad(m)
x(m+1) = x(m) + (m) d(m)
Las expresiones del algoritmo anterior admiten simplificaciones.
Por ejemplo .
r(m) = b Ax(m) se puede reducir as
r(m) = b A x(m1) + (m1) d(m1)
r(m) = b Ax(m1) (m1) Ad(m1)
r(m) = r(m1) (m1) Ad(m1)
La ventaja de esta expresion es que se reduce a un u
nico producto Ad(m1)
matriz por vector que hay que hacer en cada paso, con frecuencia este es
el paso mas costoso de cada iteracion del (M GC). Tambien la expresion
(m1) puede simplificarse, usando propiedades de ortogonalidad que se veran
posteriormente, se puede llagar a demostrar que
(m1) =
t
r(m)
r(m)
t
r(m1)
r(m1)
arbitrario
r(0) = b Ax(0)
d(0) = r(0)
while err < err tol
82
4.3. M
etodo de la Gradiente Conjugada
(m) =
dt(m) .r(m)
dt(m) Ad(m)
dt(m) .r(m)
dt(m) Ad(m)
dt(m) Ad(m)
dt(m) r(m+1) = 0
Observaci
on
Recordemos que
x(m+1) = x(m) + (m) d(m) multiplicando por A y sumando b
obtenemos r(m+1) = r(m) (m) d(m)
4. Soluci
on de Grandes Sistemas de Ecuaciones Lineales
83
Teorema 19
r(m+1) es ortogonal a r(m)
Demostracion
En efecto
t
r(m) =
r(m+1)
t
d(m) (m1) d(m1) pues d(m) = r(m) + (m1) d(m1)
t
(m) Adt(m) d(m) (m1) d(m1)
r(m)
r(m) (m) Ad(m)
t
t
= r(m)
(m1) r(m)
d(m1) (m) dt(m) Ad(m) + (m) dt(m) Ad(m1) (m1)
t
= r(m)
d(m) (m) dt(m) Ad(m)
t
r(m)
d(m)
t
r(m)
d(m)
dt(m) Ad(m)
t
d(m) Ad(m)
t
t
t
r(m+1)
r(m) = r(m)
d(m) r(m)
d(m)
t
r(m+1)
r(m) = 0
Observaci
on
Recordemos que
dt(m) Ad(m1) = 0
(m) =
Teorema 20
Se cumple para i = 1, 2, 3..k
a. dt(k+1) Ad(i) = 0
b.
t
r(k+1)
d(i) = 0
c.
t
r(k+1)
d(i) = 0
t
d(m)
r(m)
dt(m) Ad(m)
84
4.3. M
etodo de la Gradiente Conjugada
Demostraci
on
Por induccion el teorema se cumple para k = 0
a,1 dt(1) Ad(0) = 0 (V ) por ser direcciones conjugadas
t
d(0) = 0 (V ) por teorema 1
b,1 r(1)
t
c,1 r(1)
r(0) = 0 (V ) por teorema 2
Se supone que el teorema (20) es cierto pra k, se debe demostrar que se cumple para k + 1 es decir se cumplen las relaciones.
a,1 dt(k+2) Ad(i) = 0
t
d(i) = 0
b,1 r(k+2)
t
c,1 r(k+2)
r(i) = 0
Para i = 1, 2, 3..k, k + 1
Se demostrara primero que se cumple (b,2)
t
t
t
d(i) +(k+1) dt(k+1) Ad(i)
+ (k+1) dt(k+1) A)d(i) = r(k+1)
d(i) = (r(k+1)
b,2 r(k+2)
| {z }
| {z }
0
t
r(k+2)
d(i)
t
r(k+2)
r(i) = 0
4. Soluci
on de Grandes Sistemas de Ecuaciones Lineales
t
t
t
t
r(i+1) +(i) r(k+2)
(r(i+1) + (i) Ad(i) ) = r(k+2)
r(i) = r(k+2)
Ad(i)
0 = r(k+2)
| {z }
0 por c.2
Por lo tanto
t
t
0 = r(k+2)
r(i) = (i) r(k+2)
Ad(i)
De aqui
i = 1, 2, 3..k
t
Ad(i) = 0 i = 1, 2, 3..k
r(k+2)
Observaci
on
Probaremos (k+1) =
t
r(m)
r(m)
t
r(m1) r(m1)
En efecto
r(m+1) = r(m) (m) Ad(m)
r(m) = r(m1) (m1) Ad(m1)
Ad(m1) =
r(m1) r(m)
(m1)
(m1) =
(m1) =
(m1) =
dt(m1) Ar(m)
dt(m1) Ad(m1)
t
r(m)
Ad(m1)
dt(m1) Ad(m1)
t
r(m)
r(m1) r(m)
(m1)
t
r(m1)
+ (m2) dt(m2)
r(m1) r(m)
(m1)
85
86
(m1) =
4.3. M
etodo de la Gradiente Conjugada
t
t
r(m)
r(m1) r(m)
r(m)
| {z }
0
t
r(m1)
r(m1)
t
r(m1)
r(m)
{z
0
(m1) =
t
r(m)
r(m)
t
r(m1)
r(m1)
Teorema 21
Sea A M(n) simetrica y definida positiva, el metodo de la Gradiente Conjugada termina en a lo sumo en N pasos obteniendo la solucion exacta.
Demostraci
on
Las direcciones d0 , d1 , d2 , ..dn1 forman una base A ortogonal en Rn
ademas xk es optimo con respecto a las direcciones dj , j = 1, 2, 3..k 1 es
decir rk es ortogonal al espacio Sk1 = span(d0 , d1 , d2 , ..dk1 ). Como consecuencia rn Sn1 = Rn as tenemos rn = 0, lo que implica xn = x.
Teorema 22
Sea una A una matriz simetrica y definida positiva y sean 1 y 2
los autovalores maximo y mnimo, respectivamente. El metodo de la gradiente
conjugada converge a la soluci
on del sistema Ax = b a lo sumo en N
pasos ademas
2ck
ke(k) kA
ke(0) kA ,
1 + c2k
k2 (A) 1
c= p
k2 (A) + 1
Demostraci
on
La convergencia del metodo de la gradiente conjugada en N pasos es
consecuencia del teorema anterior.
Probaremos la estimativa del error tomando por simplicidad x0 , para el indice
k
k
X
xk+1 =
j Aj b,
j=0
4. Soluci
on de Grandes Sistemas de Ecuaciones Lineales
87
k
X
j Aj b = pk (A)b
j=0
donde
p =
k
X
j j
j=0
88
4.3. M
etodo de la Gradiente Conjugada