Вы находитесь на странице: 1из 24

Captulo 4

Soluci
on de Grandes Sistemas
de Ecuaciones Lineales
En el capitulo anterior se discutio como proceder para transformar un
problema de ecuaciones diferenciales parciales con condicion inicial y valores
en la frontera en un sistema algebraico de ecuaciones y as poder hallar la
solucion resolviendo el sistema de ecuaciones lineales que se pueden expresar
en la forma matricial siguiente
Au = b

(4.1)

donde la matriz A es bandada y en problemas reales tiene grandes dimensiones. La eleccion del metodo especifico para resolver el sistema de ecuaciones
depende de las propiedades particulares de la matriz A, en la siguientes secciones vamos a examinar varios metodos.Los metodos de resoluvcion de del
sistema algebraico de ecuaciones Au = b se clasifican en dos grandes grupos; los metodos Directos y los metods iterativos. En los metodos directos
la solucon u se alcanza en un n
umeros fijo de pasos y solo estan sujetos
a problemas de redondeo. En los metodos iterativos, se realizan iteraciones
para aproximarse a las solucion u provechando las caractersticas propias
de la matriz A, tratando de usar el menor n
umero de de pasos que en un
metodo directo. Los metodos iterativos rara vez se usan para resolver sistemas de ecuaciones sistemas lineales de dimension peque
na ( El concepto de
dimension peque
na es muy relativo), ya que el tiempo necesario para para
conseguir una exactitud satisfactoria rebasa el que requieren los metodos directos. Sin embargo, en el caso de de sistemas de ecuaciones grandes con un
alto procentaje de elementos cero, son eficientes tanto en almacenamiento
65

66
en la computadora como como el tiempo que se invierte en su solucion.Por
est
azon al resolver estos sistemas algebraicos de ecuaciones es preferible aplicar los metodos iterativos como son Jacobi, Gauss-Seidel, Sobrerrelajacion
sucesiva, Descenso empinado, Gradiente conjugado. Cabe hacer mencion de
que la mayoria del tiempo de computo necesario para resolver el problema
de ecuaciones diferenciales parciales (EDP), es consumido en la solucion de
del sistema de algebraico de ecuaciones asociado a la discretizacion, por ello
es necesario elegir aquel metodo numerico que minimice el tiempo invertido
en este proceso.

Condicionamiento de un Sistema Lineal


No es tan sencillo establecer el n
umero de condicion que nos indique que
el sistema esta bien o mal condicionado. Para sistemas lineales el n
umero de
condicion esta ligado a la matriz del sistema , veamos.
Sea Au = b
A Mn A : inversible b V {0}.
Si en lugar de b tomamos una perturbacion de este b + b, denotamos por
u + u la solucion del sistema perturbado se tiene que
A(u + u) = b + b
Au = b
u = A1 b
luego kuk |kA1 |kkbk |k|knorma matricial subordinada a A ,k.knorma vectorial
como
Au = b
|kA|kkuk kbk
|kA|k
1

kuk
kbk
se tiene
kuk
kbk
|kA|k|kA1 |k
kuk
kbk
| {z }
| {z }
error relativo
error relativo
resultados
en datos

4. Soluci
on de Grandes Sistemas de Ecuaciones Lineales

67

Definici
on
|k |k norma matricial y A Mn inversible.
El n
umero cond(A) = |kA|k|kA1 |k se denomina condicionamiento o n
umero de condicion de A Mn relativo a la norma |k |k
Teorema 9
|k |k Norma matricial subordinada o norma inducida y A Mn matriz
inversible se cumple que:
1. cond(A) 1
2. cond(A) = cond(A)1
3. cond(A) = cond(A) para todo K {0}

Demostracion
1. 1 = kIk = kAA1 k kAkkA1 kcond(A) entonces 1 cond(A)
2. cond(A) = kAkkA1 k = kA1 kkAk = cond(A1 )
3. Para todo 6= 0

cond(A) = kAkk(A1 k = |||1 |kA1 k = cod(A)

Teorema 10
Si A Mn inversible. Se verifica que
s
cond(A) =
dende n (A A)
de A A

n (A A)
1 (A A)

1 (A A) son el mayor y el menor de los autovalores

Denostracion
Primero notamos que A A es hermitica y definida positiva por ser A inversible, por lo que los auvalores de A A son positivos.
Por teorema
kAk22 = (A A) = n (A A)
y
kA1 k22 = ((A1 ) A1 ) = ((A A)1 ) =

1
1 (A A)

68

Convergencia de las Iteraciones de una Matriz


Definici
on
kk
V si

una norma vectorial, {v k }kN

de V, converge a un vector

lm kv k vk = 0 y se denota v = lm v k

k+

k+

OBSERVACION
1. La equivalencia de normas en V, demuestra que la convergencia de una
sucesion de vectores es independiente de la norma elegida.
2. La definicion anteriorincluye el caso de la convergencia de matrices, basta
considerar Mn (K) como el espacio vectorial de dimencion n2
{Ak }kN Mn converge a A Mn y lo denotamos
A = lm Ak
k+

si

lm kAk Ak = 0

k+

Teorema 11
B Mn son equivalentes
a)

lm
x

Bk = 0

b)

lm
x

Bkv = 0

c) (B) < 1
d) Existe k k norma matricial ( puede ser inducida ) tal que kBk < 1
Demostracion
a) b)
k k norma matricial subordinada por k k norma matricial, por definicion
lm B k = 0 lm kB k k = 0

k+

k+

Por lo tanto, por definicion como para todo v V se cumple que


|B k v| kB k k|v|
entonces lm |B k | = 0
k

4. Soluci
on de Grandes Sistemas de Ecuaciones Lineales

69

y as lm B k v = 0
k

b) c)
Por reduccion al absurdo.Si (B) 1 entonces exixte un autovalor =
(B) sp(B)con|| 1; basta considerar un autovector v V \{0} asosiado
a para llegar a una contradiccion.
En efecto Bv = v entonces
B k v = k v, k N
y por tanto
6 0
lm kB k vk = lm |k |kvk =
k+

k+

c) d)
Por el teorema anterior dado > 0 existe una norma matricial k kB, tal
que k kB, (B) + tomando
0 < < 1 (B)
se obtiene
k kB, < (B) + (1 (B)) = 1
d) a)
kB k k = kB k1 Bk kB k1 kkBk ... kBkk , k N
Por lo tanto, la hipotesis kBk 1implica
lm kBk = 0

k+

Es decir
lm B = 0

k+

Teorema 12
Sea k k la norma de una matriz. Entonces
(A) kAk

A C n.n

Demostracion
Sea un autovalor de A y v 6= 0 el autovalor asociado. Tenemos
||kvk = kvk = kAvk kAkkvk
|| kAk

70

4.1. M
etodos Iterativos Estacionarios y no Estacionarios

4.1.

M
etodos Iterativos Estacionarios y no Estacionarios

Denotamos por
Rp = I P 1 A
la matriz de iteracion asociada a
xk+1 = xk + P 1 rk
Donde
rk = b Axk
introducimos el parametro y tenemos el metodo estacionario de Richardson
xk+1 = xk + P 1 rk ,

k0

mas general, tenemos dependiendo del indice de iteracion, entonces tenemos


el metodo no estacionario de Richardson
xk+1 = xk + k P 1 rk ,

k0

donde la matrix de iteracion en el kesimo paso de este metodo es


Rp = I k P 1 A
Ahora si k = el metodo en este caso es estacionario.
Si P = I el metodo es llamado no precondicionado.
El metodo de Jacobi y de Gauss-Seidel son metodos estacionarios de Richardson con = 1, P = D y P = D E respectivamente.

Convergencia y An
alisis del M
etodo de Richardson
Vamos a considerar el metodo estacionario de Richardson y tenemos los
siguientes resultados
Teorema 13
Para una matriz no singular P el metodo estacionario de Richardson es
convergente sii
2Re(i )
> 1 i = 1, 2, ..n
|i |2
donde i C son los autovalores de P 1 A

4. Soluci
on de Grandes Sistemas de Ecuaciones Lineales

71

Demostraci
on
Como i C son los autovalores de P 1 A, los autovalores de la matriz de
iteracion Rp = I P 1 A son 1 i y por condicion de convergencia
|1 i | < 1 i = 1, 2, ..n se tiene la desigualdad
(1 Rei )2 + 2 (Imi )2 < 1
1 2Rei + (Rei )2 + 2 (Imi )2 < 1
2Rei + (Rei )2 + 2 (Imi )2 < 0
tenemos la desigualdad
2Re(i )
> 1 i = 1, 2, ..n
|i |2
Teorema 14
Si P
es una matriz no singular tal que P 1 A tiene autovalores reales y
positivos ordenados 1 2 ... n . entonces el metodo estacionario de
Richardson es convergente si 0 < < 21 Adem
as
opt =

2
1 + 2

El radio espectral de la matriz de iteraccion es R es mnimo si = opt


opt = mn [(R )] =

1 n
1 + n

Demostraci
on
Los autovalores de R son i (R ) = 1 i y el metodo de Richardson
es convergente si
|i (R )| < 1 para i = 1, 2..n
1 < 1 i < 1
0<<
0<<

2
2

1
i

2
i

i = 1, 2..n crit =

2
1

72

4.1. M
etodos Iterativos Estacionarios y no Estacionarios

Ademas los autovalores de R se comportan como funcion (ver figura).Para


todos los autovalores de R estan comprendidos entre
n = min y 1 = max
La tasa de convergencia esta dada por
= max |1 i |
i

y queremos buscar el que da la mejor tasa de convergencia, es decir el


mnimo .Como los 1 i estan comprendidas en el intervalo
1 min y 1 max
es decir
h1 min , 1 max i
Ahora para el intervalo 0 < < opt el maximo corresponde a 1 min ,
mientras que para opt < < crit el maximo esta dado por 1 + max
.Pero requerimos el mnimo de segun lo visto este se da si = opt es decir
si
1 min = 1 + max
de donde
opt =

2
min + max

Como el mnimo se da para = opt de ahi el nombre de coeficiente de


relajacion optimo.Ahora reemplazando el opt obtenemos
opt = mn [(R )] = mn =

1 n
1 + n

Teorema 15
Sea A una matriz simetrica definida positiva, entonces el metodo de estacionario no precondicionado de Richardson es convergente y
ke(k+1) kA (R )ke(k) kA ,

k0

4. Soluci
on de Grandes Sistemas de Ecuaciones Lineales

73

Figura 4.1: Radio espectral en funcion de los autovalores de P 1 A


Demostraci
on
La convergencia es consecuencia del teorema 7 y tambien tenemos que
1

ke(k+1) kA = kR e(k) kA = kA 2 R e(k) k2 kA 2 R e(k) A

1
2

k2 kA 2 e(k) k2
1

La matriz R es simetrica definida positiva y es similar a A 2 R e(k) A 2 .


1
1
1
Entonces tenemos kA 2 R e(k) A 2 k2 = (R ) ademas kA 2 e(k) k2 = ke(k) kA
tenemos
ke(k+1) kA (R )ke(k) kA , k 0

4.2.

M
etodo del M
aximo Descenso

Este metodo nos servira para resolver sistemas de ecuaciones lineales de


la forma
Ax = b
Donde
x: vector de incognitas,
b :vector conocido,
A : matriz cuadrada conocida ademas simetrica y definida positiva

74

4.2. M
etodo del M
aximo Descenso
Notacion
Ax = b

a1,1 a1,2 a1,n


a2,1 a2,2 a2,n
..
..
...
.
.
an,1 an,2 an,n

x1
x2
..
.

xn

b1
b2
..
.

bn

Teorema 16
La forma cuadratica
1
f (x) = xt Ax bt x + c
2

(4.2)

Donde
x: vector de incognitas,
b: vector conocido,
A: matriz cuadrada conocida
c: escalar
Mostraremos que si A es simetrica y definida positiva f (x) es minimizada por la solucion de Ax = b

Demostraci
on
En efecto
=
Como A es definida positiva, la superficie de f (x) es un paraboloide.
En el fondo del paraboloide la gradiente es cero, f (x) es minimizado cuando
0
f (x) = 0,
1
1
0
f (x) = At x + Ax b
2
2
como A es simetrica la ecuacion se reduce a
0

f (x) = Ax b

(4.3)

4. Soluci
on de Grandes Sistemas de Ecuaciones Lineales

75

Si igualamos a cero la gradiente (4,3) , obtenemos la ecuacion (4,1) As


0

f (x) = Ax b = 0
Ax = b
Observamos que la solucion de
Ax = b
es un punto critico de f (x).
=
Si A es definida positiva y simetrica, la solucion es un mnimo de f (x)
Pues si Ax = b
En la ecuacion (4,2)
f (x + e) =

1
(x + e)t A(x + e) bt (x + e) + c
2

1 t
(x + et )(Ax + Ae) bt x bt e + c
2

1 t
(x Ax + et Ax + xt Ae) bt x bt e + c
2

1 t
1
1
x Ax bt x + c + et Ae + (et Ax + xt Ae) bt e
2
|2
{z
} 2
f (x)

1
1
1
= f (x) + et Ae + et Ae + (et b + bt e) bt e
2
2
2
1
1
1
= f (x) + et Ae + et Ae + (2bt e) bt e
2
2
2

76

4.2. M
etodo del M
aximo Descenso
1
= f (x) + et Ae + bt e bt e
2
1
f (x + e) = f (x) + et Ae
2
1
f (y) = f (x) + (y x)t A(y x)
2

Si x 6= y entonces (y x)t A(y x) > 0 y x 6= 0 pues


positiva
As
f (y) > f (x) x 6= y

A es definida

As x minimiza f.
Ahora si A no es simetrica la ecuacion (3,11) queda
1
0
f (x) = (At + A)x b
2
Isinua la solucion del sistema
1 t
(A + A)x = b
2
Donde la matriz At + A es simetrica

M
etodo del M
aximo Descenso
Nosotros empezamos tomando un punto arbitrario x0 y deslizamos hacia
el fondo del paraboloide , nosotros tomamos una serie de pasos x1 , x2 , x3 , ..
,hasta que estemos satisfechos con la aproximacion para dar la solucion.
Cuando nosotros tomamos un paso, nosotros escogemos la direccion en la
0
cual f decrece mas rapidamente la cual es la direccion opuesta de f (xi ) de
acuerdo a la ecuacion (3,12) esta direccion es
0

f (x(i) ) = b Ax(i)
Vamos a intriducir unas definiciones.

4. Soluci
on de Grandes Sistemas de Ecuaciones Lineales

77

Figura 4.2: Cuando la matriz A,es simetrica y definida positiva el grafico de


f (x) se ve como un paraboloide
El Error
e(i) = x(i) x es un vector el cual indica que tan lejos estamos de la
solucion.
El Residual
r(i) = b Ax(i) indica que tan lejos estamos del valor correcto de
vemos que r(i) = Ae(i) pues

r(i) =
=
=
=
r(i) =

b Ax(i)
Ax Ax(i)
A(x x(i) )
A(x(i) x)
Ae(i)

Nosotros pensamos en el Residual como una transformacion por A dentro


del mism,o espacio que b .
0
Mas importancia r(i) = f (x(i) ) y debemos pensar inclusive en el residual
como una direccion del descenso rapido.
Cuando veamos Residual pensaremos en la direccion de la pendiente descendente. Supongamos que nosotros empezamos en x(0) , nuestro primer paso,
siguiendo la direccion del descenso rapido, caera en algun lugar sobre la linea
de de direccion r(0) , nosotros escogemos un punto x(1) = x(0) + r(0)
C
ual es el valor de en la base de la parabola ?

78

4.2. M
etodo del M
aximo Descenso

minimiza f cuando la derivada direccional


cadena

f (x(1) )

= 0 por la regla de la

0
0
f (x(1) ) = f (x(1) )t x(1) = f (x(1) )t r(0) = 0 pues x(1) = x(0) + r(0)

Es decir deberia ser escogida de manera que r(0) y f (x(1) ) sean ortogonales.
0
t
.r(0) = 0 pues f (x(1) ) = r(1)
Es decir r(1)
(b Ax(1) )t .r(0) = 0
[b A(x(0) + r(0) )]t .r(0) = 0
[b Ax(0) Ar(0) ]t .r(0) = 0
[b Ax(0) ]t .r(0) [Ar(0) ]t .r(0) = 0
[b Ax(0) ]t .r(0) = [Ar(0) ]t .r(0) = 0
| {z }
t
r(0)

t
t
r(0)
.r(0) = r(0)
(Ar(0) )

t
.r(0)
r(0)
t
Ar(0)
r(0)

Poniendo todo junto, el metodo de descenso rapido queda

r(i) = b Ax(i)
t
.r(i)
r(i)
(i) = t
r(i) Ar(i)
x(i+1) = x(i) + (i) r(i)
El algoritmo como esta escrito requiere de dos matrices-vectores, multiplicado por iteracion. En general el costo computacional del algoritmo iterativo
es dominado por la productos matriz-vector, afortunadamente una puede ser
eliminada por premultiplicacion a los dos lados de la ecuacion (3,15) por A
y agregando b nosotros tenemos.
r(i+1) = r(i) (i) Ar(i)

4. Soluci
on de Grandes Sistemas de Ecuaciones Lineales

79

A pesar de la ecuacion (3,13) es necesario conputar r(0) , la ecuacion (3,16)


puede ser usada por todas las iteraciones. El producto Ar, el c
ual ocurre en
dos ecuaciones (3,14) (3,15) necesita solo ser computado una vez.
La desventaja de usar estas recurrencias, es que la recurrencia definida por
(3,16) es generada sin ningun retroalimentamiento del vector x(i) para converger en algun punto cerca a x. El algoritmo modificado es el siguiente :
x(0) = dado
r(0) = b Ax(0)
t
.r(i)
r(i)
(i) = t
r(i) Ar(i)
x(i+1) = x(i) + (i) r(i)
r(i+1) = r(i) (i) Ar(i)
Teorema 17
Sea A una matriz simetrica y definida positiva, entonces el metodo de la
gradiente conjugada es convergente para cualquier dato inicial que se tome
x0 y
k2 (A) 1 (k)
ke kA , k = 0, 1, 2, ..
ke(k+1) kA
k2 (A) + 1
Donde k kA es la norma energia.
Demostraci
on
Sea xk la solucion generada por el metodo de la gradiente en el k-esimo
paso. Entonces sea xk+1
un vector generado por el metodo no precondicionado
R
de Richardson con parametro optimo a partir de xk , i.e xkR = xk + opt rk .
Del teorema 9 tenemos:
(k+1)

keR
(k+1)

Donde eR

4.3.

(k+1)

= xR

kA

k2 (A) 1 (k)
ke kA
k2 (A) + 1

M
etodo de la Gradiente Conjugada

Revisarenos el metodo de la gradiente conjugada para funciones cuadraticas. Este metodo fue desarrollado por Hastenes y stiefel (1952) para ecuacio-

80

4.3. M
etodo de la Gradiente Conjugada

nes lineales, vamos a tomar un conjunto A-ortogonal de busqueda de direcciones d0 , d1 , ..dn1 en cada direccion, nosotros tomaremos exactamente un
paso y ese paso queremos que sea justo del largo correcto. El metodo de la
gradiente conjugada modifica la expresion
0

r(m) = b Ax(m) = f (x(m) )


sustituyendola por otra expresion, que hace intervenir la direccion de busqueda anterior d(m1) en la forma siguiente
d(m) = r(m) + (m1) d(m1)
El valor del coeficiente (m1) que es el paso se calcula con la condicion de
que la nueva direccion de busqueda sea Aortogonal (o conjugada ) respecto
a la direccion anterior.

Definici
on

d(m) es A-ortogonal con d(j) si dt(m) Ad(m) = 0


De aqui
dt(m1) Ad(m) = 0 de aqui
dt(m1) A(r(m) + (m) d(m1) ) = 0
dt(m1) Ar(m) + (m1) dt(m1) Ad(m1)

(m1) =

dt(m1) Ar(m)
dt(m1) Ad(m1)

El algoritmo del metodo del gradiente conjugado procede as:

4. Soluci
on de Grandes Sistemas de Ecuaciones Lineales

81

x(0) = dado
d(0) = r(0) = b Ax(0)
r(m) = b Ax(m)
t
r(m)
Ad(m1)
(m1) = t
d(m1) Ad(m1)
d(m) = r(m) + (m1) d(m1)
dt(m) .r(m)
(m) = t
d(m) Ad(m)
x(m+1) = x(m) + (m) d(m)
Las expresiones del algoritmo anterior admiten simplificaciones.
Por ejemplo .
r(m) = b Ax(m) se puede reducir as

r(m) = b A x(m1) + (m1) d(m1)
r(m) = b Ax(m1) (m1) Ad(m1)
r(m) = r(m1) (m1) Ad(m1)
La ventaja de esta expresion es que se reduce a un u
nico producto Ad(m1)
matriz por vector que hay que hacer en cada paso, con frecuencia este es
el paso mas costoso de cada iteracion del (M GC). Tambien la expresion
(m1) puede simplificarse, usando propiedades de ortogonalidad que se veran
posteriormente, se puede llagar a demostrar que
(m1) =

t
r(m)
r(m)
t
r(m1)
r(m1)

Por lo tanto el algoritmo queda


x0

arbitrario

r(0) = b Ax(0)
d(0) = r(0)
while err < err tol

nit < nit.max

82

4.3. M
etodo de la Gradiente Conjugada

(m) =

dt(m) .r(m)
dt(m) Ad(m)

x(m+1) = x(m) + (m) d(m)


r(m+1) = r(m) (m) Ad(m)
t
.r(m+1)
r(m+1)
(m) =
t
r(m)
r(m)
d(m+1) = r(m+1) + (m) d(m)
err = nor(r) nit = nit + 1
Teoremas de Ortogonalidad
los vectores que se van calculando con el metodo de la Gradiente Conjugada satisfacen:
Teorema 18
0
on de d(m)
El gradiente r(m+1) = f(m) es ortogonal a la direcci
Demostraci
on
En efecto
dt(m) r(m+1) = dt(m) r(m) (m) Ad(m)

= dt(m) r(m) (m) dt(m) Ad(m)


= dt(m) r(m)

dt(m) .r(m)
dt(m) Ad(m)

dt(m) Ad(m)

dt(m) r(m+1) = 0
Observaci
on
Recordemos que
x(m+1) = x(m) + (m) d(m) multiplicando por A y sumando b
obtenemos r(m+1) = r(m) (m) d(m)

4. Soluci
on de Grandes Sistemas de Ecuaciones Lineales

83

Teorema 19
r(m+1) es ortogonal a r(m)
Demostracion
En efecto
t
r(m) =
r(m+1)

t


d(m) (m1) d(m1) pues d(m) = r(m) + (m1) d(m1)


t
(m) Adt(m) d(m) (m1) d(m1)
r(m)
r(m) (m) Ad(m)

t
t
= r(m)
(m1) r(m)
d(m1) (m) dt(m) Ad(m) + (m) dt(m) Ad(m1) (m1)
t
= r(m)
d(m) (m) dt(m) Ad(m)

t
r(m)
d(m)

t
r(m)
d(m)

dt(m) Ad(m)
t
d(m) Ad(m)

t
t
t
r(m+1)
r(m) = r(m)
d(m) r(m)
d(m)
t
r(m+1)
r(m) = 0

Observaci
on
Recordemos que
dt(m) Ad(m1) = 0
(m) =

Teorema 20
Se cumple para i = 1, 2, 3..k
a. dt(k+1) Ad(i) = 0
b.

t
r(k+1)
d(i) = 0

c.

t
r(k+1)
d(i) = 0

t
d(m)
r(m)

dt(m) Ad(m)

84

4.3. M
etodo de la Gradiente Conjugada

Demostraci
on
Por induccion el teorema se cumple para k = 0
a,1 dt(1) Ad(0) = 0 (V ) por ser direcciones conjugadas
t
d(0) = 0 (V ) por teorema 1
b,1 r(1)
t
c,1 r(1)
r(0) = 0 (V ) por teorema 2

Se supone que el teorema (20) es cierto pra k, se debe demostrar que se cumple para k + 1 es decir se cumplen las relaciones.
a,1 dt(k+2) Ad(i) = 0
t
d(i) = 0
b,1 r(k+2)
t
c,1 r(k+2)
r(i) = 0

Para i = 1, 2, 3..k, k + 1
Se demostrara primero que se cumple (b,2)
t
t
t
d(i) +(k+1) dt(k+1) Ad(i)
+ (k+1) dt(k+1) A)d(i) = r(k+1)
d(i) = (r(k+1)
b,2 r(k+2)
| {z }
| {z }
0

t
r(k+2)
d(i)

= 0 i = 1, 2, 3..k se anula por hipotesis

Se demostrara que se cumple (c,2)


t
t
r(k+2)
r(i) = (r(k+1)
+ (k+1) dt(k+1) A)(d(i) (i1) d(i1) )
t
t
d(i) +(k+1) dt(k+1) Ad(i) (k+1) dt(k+1) Ad(i1) (i1)
= r(k+1)
d(i) (i1) r(k+1)
| {z }
| {z }
| {z }
|
{z
}
0

t
r(k+2)
r(i) = 0

Los sumandos se anulan por hipotesis.


Tambien se cumple (a.2)
t
t
dt(k+2) Ad(i) = (r(k+2)
+ (k+1) dt(i+1) )Ad(i) = r(k+2)
Ad(i) + (k+1) dt(i+1) Ad(i)
| {z }
0

se anula por hipotesis para i = 1, 2, 3..k


para el primer sumando. Se considera la expresion

4. Soluci
on de Grandes Sistemas de Ecuaciones Lineales
t
t
t
t
r(i+1) +(i) r(k+2)
(r(i+1) + (i) Ad(i) ) = r(k+2)
r(i) = r(k+2)
Ad(i)
0 = r(k+2)
| {z }
0 por c.2

Por lo tanto
t
t
0 = r(k+2)
r(i) = (i) r(k+2)
Ad(i)

De aqui

i = 1, 2, 3..k

t
Ad(i) = 0 i = 1, 2, 3..k
r(k+2)

Por lo tanto se tiene

dt(k+2) Ad(i) = 0 i = 1, 2, 3..k

Para para i = k + 1 se cumple

dt(k+2) Ad(k+1) = 0 por ser conjugados

As se concluye el teorema 20.

Observaci
on
Probaremos (k+1) =

t
r(m)
r(m)
t
r(m1) r(m1)

En efecto
r(m+1) = r(m) (m) Ad(m)
r(m) = r(m1) (m1) Ad(m1)
Ad(m1) =

r(m1) r(m)
(m1)

tambien d(m1) = r(m1) + (m2) d(m2)

(m1) =

(m1) =

(m1) = 

dt(m1) Ar(m)
dt(m1) Ad(m1)
t
r(m)
Ad(m1)

dt(m1) Ad(m1)

t
r(m)

r(m1) r(m)
(m1)

t
r(m1)
+ (m2) dt(m2)




r(m1) r(m)
(m1)

85

86

(m1) =

4.3. M
etodo de la Gradiente Conjugada
t
t
r(m)
r(m1) r(m)
r(m)
| {z }
0

t
r(m1)
r(m1)

t
r(m1)
r(m)

{z
0

(m1) =

+(m2) dt(m2) r(m1) (m2) dt(m2) r(m)


|
{z
}
| {z }
0

t
r(m)
r(m)
t
r(m1)
r(m1)

Teorema 21
Sea A M(n) simetrica y definida positiva, el metodo de la Gradiente Conjugada termina en a lo sumo en N pasos obteniendo la solucion exacta.
Demostraci
on
Las direcciones d0 , d1 , d2 , ..dn1 forman una base A ortogonal en Rn
ademas xk es optimo con respecto a las direcciones dj , j = 1, 2, 3..k 1 es
decir rk es ortogonal al espacio Sk1 = span(d0 , d1 , d2 , ..dk1 ). Como consecuencia rn Sn1 = Rn as tenemos rn = 0, lo que implica xn = x.
Teorema 22
Sea una A una matriz simetrica y definida positiva y sean 1 y 2
los autovalores maximo y mnimo, respectivamente. El metodo de la gradiente
conjugada converge a la soluci
on del sistema Ax = b a lo sumo en N
pasos ademas
2ck
ke(k) kA
ke(0) kA ,
1 + c2k

k2 (A) 1
c= p
k2 (A) + 1

Demostraci
on
La convergencia del metodo de la gradiente conjugada en N pasos es
consecuencia del teorema anterior.
Probaremos la estimativa del error tomando por simplicidad x0 , para el indice
k
k
X
xk+1 =
j Aj b,
j=0

4. Soluci
on de Grandes Sistemas de Ecuaciones Lineales

87

para cada j R. Ademaspor construccion xk+1 es el vector que miniminiza


laA norma del error en el paso k + 1 ademas el vector de la forma
z=

k
X

j Aj b = pk (A)b

j=0

donde
p =

k
X

j j

j=0

es un polinomio de grado k y pk (A) denota la correspondiente matriz matriz


polinomial. En consecuencia tenemos:
ke(k+1) k2A (x z)T A(x z) = xT qk+1 (A)Aqk+1 (A)x
Donde
0,1
qk+1 () = 1 pk () Pk+1

88

4.3. M
etodo de la Gradiente Conjugada

Вам также может понравиться