Вы находитесь на странице: 1из 12

Módulo 7

Prof : Marı́a Angélica Vega U.

5. Métodos iterativos.
5.1. Normas vectoriales y matriciales.
5.1.1. Preliminares.

Actividades 5.1
i) Si V es un espacio vectorial, ¿Qué es una norma sobre V ? , ¿Cómo se define la distancia
entre dos vectores ? ¿Cuándo una sucesión de vectores es convergente ?
ii) Sea V = IRn , las normas de uso frecuente en IRn son,
Pn
kxk1 = i=1 |xi | , llamada norma 1
Pn 1/2
kxk2 = i=1 x2i , llamada norma euclı́dea o norma 2

kxk∞ = máx1≤i≤n |xi | , llamada norma infinito o del máximo.

Ejemplo 5.1 Compare la longitud de los siguientes tres vectores en IR4 , usando cada una de las
normas anteriores.
x = (4, 4, −4, 4)T y = (0, 5, 5, 5)T w = (6, 0, 0, 0)T

Definición 5.1 Diremos que dos normas son equivalentes si existen dos números α y β positivos
tales que
αkvkq ≤ kvkp ≤ βkvkq .

Demuestre las siguientes afirmaciones.(Haga una en clases ).


iv) Las normas kvk∞ y kvk1 son equivalentes, en efecto
kvk∞ ≤ kvk1 ≤ nkvk∞

v) Las normas kvk∞ y kvk2 son equivalentes


√ 1
kvk∞ ≤ kvk2 ≤ nkvk∞ o √ kvk2 ≤ kvk∞ ≤ kvk2 .
n
vi) Las normas kvk1 y kvk2 son equivalentes

kvk2 ≤ kvk1 ≤ nkvk2 .

Observación 5.1 ¿Por qué es importante que las normas estudiadas sean equivalentes ?

Porque se puede utilizar cualquiera de ellas. Ası́ si, por ejemplo, se tiene una sucesión de vectores
que tiende a v para una cierta norma, entonces la sucesión también converge a v para las otras
normas (equivalentes).

40
5.1.2. Normas matriciales

Definición 5.2 Sea An el conjunto de las matrices de orden n, con las operaciones habituales,
definidas sobre IR (o C
I ). Definiremos una norma matricial como una aplicación
k · k : An → IR
que verifica las siguientes propiedades :

i) kAk ≥ 0 , ∀ A ∈ An y kAk = 0 ⇐⇒ A = 0
ii) kαAk = |α|kAk , ∀ α ∈ IR y A ∈ An
iii) kA + Bk ≤ kAk + kBk , ∀ A, B ∈ An
iv) kABk ≤ kAkkBk , ∀ A, B ∈ An .

Comentarios:

i) An puede ser considerado como un espacio vectorial de dimensión n2 , Ası́ las cosas, las tres
primeras propiedades son similares a las correspondientes de una norma vectorial; mientras
que la última propiedad es propia de las normas matriciales.
ii) Un concepto importante para nuetros propósitos es norma matricial inducida, puesto que
permite relacionar las normas vectoriales con las normas matriciales, pilar fundamental para
el estudio de convergencia y análisis de error en el cálculo numérico.

Definición 5.3 Sean A una matriz n × n y k · kv una norma vectorial definida en IRn , llamaremos
norma matricial inducida o norma matricial subordinada, con respecto a la norma vectorial dada
al número:
kAvkv
kAk = sup = sup kAvk.
v6=0 kvkv kvk=1

Actividades 5.2 Investigue, como demostrar los siguientes resultados importantes.

i) Para toda norma matricial inducida, se cumple


kAxkv ≤ kAkkxkv , x ∈ IRn . (46)
En este caso se dice que la norma matricial y la norma vectorial son compatibles.
ii) Sea A = (aij ) una matriz cuadrada real, entonces
n
kAvk1 X
kAk1 = sup = máx |aij |
kvk1 1≤j≤n
i=1
kAvk2
q q
kAk2 = sup = ρ(AT A) = ρ(AAT ) = kAT k2 (norma espectral)
kvk2
n
kAvk∞ X
kAk∞ = sup = máx |aij | (norma del máximo.)
kvk∞ 1≤i≤n
j=1

41
Nota 5.1 Si A es una matriz de orden n, ρ(A) denota el radio espectral de A, es decir

ρ(A) = máx |λi |


λi ∈σ(A)

Observación 5.2 Existen normas matriciales que no son subordinadas a ninguna norma vectorial,
por ejemplo, la norma
 1/2
X 1/2
kAkE =  |aij |2  = (tr(A∗ A))
i,j

es una norma matricial no subordinada.

Nota 5.2 La matriz aumentada de un sistema lineal Ax = b en general se almacena con un error
de redondeo, si la solución calculada se obtiene usando una estrategia de pivoteo que limita el error,
entonces la solución calculada y la solución exacta son iguales hasta alrededor de la exactitud de
la máquina usada. Por lo tanto es útil saber si la matriz de los coeficientes está mal condicionada.
Se entiende por matriz mal condicionada si pequeños cambios en los elementos de la matriz
Ã, pueden producir grandes cambios en el vector solución.

Un indicador de mal condicionamiento es el llamado número de condición de la matriz A que


se define como
K(A) = kAk · kA−1 k
Este número tiene la propiedad que, K(A) ≥ 1, luego un número de condición de una matriz
cercano a 1 es indicador de buen condicionamiento y un número de condición muy grande, es
indicador de mal condicionamiento.

Actividades 5.3

i) Determine kxk , kAk y kA−1 k para las k · k1 y k · k∞ , si


   
2 −1 1 −4
x =  −5  y A=  2 2 0  (47)
3 3 3 2

ii) ¿Cuál es el número de condición de la matriz A.


iii) Determine la norma espectral de A. (Para entretenerse fuera de la clase ).

5.1.3. Otros resultados importantes para el estudio de los métodos iterativos.

Si A es una matriz real de orden n, se tiene

i) ρ(A) ≤ kAk, para cualquier norma k · k.

42
ii) Diremos que A es una matriz convergente, si

lı́m (ak )ij = 0 para cada i = 1, 2, ..., n y j = 1, 2, ..., n.


k→∞

Las siguientes afirmaciones son equivalentes:

i) A es una matriz convergente.


ii) lı́m k(An )k = 0, para alguna norma natural k · k.
n→∞

iii) ρ(A) < 1.


iv) lı́m An x = 0.
n→∞

Actividades 5.4 !’ Entreténgase ! , demuestre que A es una matriz convergente si


 1 
2 0
A= 1 1 (48)
4 2

Teorema 5.1 Las siguientes afirmaciones son equivalentes:

i) A es una matriz convergente.


ii) lı́m k(An )k = 0, para alguna norma natural k · k.
n→∞

iii) ρ(A) < 1.


iv) lı́m An x = 0.
n→∞

5.2. Métodos iterativos.


Los métodos directos requieren alrededor de 2n3 /3 operaciones aritméticas para resolver un sistema
lineal de n × n, lo que limita el tamaño de los sistemas que pueden ser resueltos de manera directa.
Por ejemplo cuando se resuelven numéricamente ecuaciones diferenciales pueden surgir sistemas
de 20000 variable.
Una alternativa que puede lograr gran exactitud para n grande son los métodos iterativos.
Para obtener un método iterativo procedemos como antes, re-escribimos el sistema de ecuaciones
como una iteración de punto fijo. Es decir,

Ax = b. (49)

lo escribimos, en la forma

x(k+1) = M x(k) + c para cadak ≥ 1. (50)

donde la matriz M , se llama matriz de iteración. Relacionando nuestros conocimientos sobre


normas con estos métodos, existen algunos resultados importantes que garantizan la convergencia
de estos métodos. ( Se sugiere cosultar la demostración en los textos de la bibliografı́a entregada.)

43
1) El radio espectral de la matriz M , ρ(M ) cumple

ρ(M ) ≤ kM k

para cualquier norma matricial inducida.

2) Sea M matriz n × n, el proceso iterativo (61) converge para cada k ≥ 1 y c 6= 0 a la única


solución si y sólo si ρ(M ) < 1.

Para transformar (49) en un problema de punto fijo, se descompone la matriz A en la suma,

A=L+D+U

donde, D es la diagonal principal de A, L es la parte diagonal inferior de la matriz A y U es la


parte triangular superior de A con ceros en las diagonales.

5.2.1. Método de Jacobi.

i) Forma matricial
Transformamos el sistema,

Ax = b ⇔ (D + L + U )x =b
⇔ Dx = b − (L + U )x
⇔ x = D−1 [b − (L + U )x] (51)
⇔ x = −D−1 (L + U )x + D−1 b
⇔ x = MJAC x + c.
De aquı́ que la matriz de de iteración de Jacobi es,

MJAC = −D−1 (L + U ).

y c = D−1 b.
ii) Forma en términos de las componentes
La i-ésima componente del vector correspondiente a (k + 1)-ésima iteración es,
 
n
(k+1) 1  X (k) 
xi = bi − aij xj  . (52)
aii j=1
j6=i

44
5.3. Método de Gauss-Seidel.

i) Forma matricial
En este caso se hace la transformación,

Ax = b ⇔ (D + L + U )x =b
⇔ (D + L)x = b − Ux
⇔ x = (D + L)−1 [b − U x] (53)
⇔ x = −(D + L)−1 U x + (D + L)−1 b
⇔ x = MGS x + c.
De aquı́ que la matriz de de iteración de Gauss-Seidel es,

MGS = −(D + L)−1 U.

y el vector c = (D + L)−1 b.
ii) Forma en términos de las componentes
Este método es un mejoramiento del método de Jacobi, que consiste en calcular la compo-
(k)
nente xi a partir de las componentes de x(k−1) en la forma siguiente, para i > 1, han
(k) (k)
sido calculadas las x1 , ..., xi−1 que supuestamente son mejores aproximaciones que las
(k−1) (k−1)
x1 , ..., xi−1 a las componentes x1 , ..., xi−1 , de la solución real , por lo tanto se usa esta
idea al resolver la i-ésima ecuación,

Pi−1  (k)
 Pn 
(k−1)

− j=1 aij xj − j=i+1 aij xj + bi
(k)
xi = para i = 1, 2, ..., n.
aii

Actividades 5.5

i) Dado el sistema lineal:


 
x1 − 0x2 + 3x3 = 2
 5x1 + x2 + 2x3 = −5  (54)
x1 + 6x2 + 2x3 = −11

a) Es Definida positiva la matriz A. Justifique.


b) Determine la solución exacta del sistema.
c) Comenzando con x(0) = 0 determine cuatro iteraciones usando el método de Jacobi y
cuatro iteraciones usando Gauss-Seidel
ii) El método iterativo de Jacobi puede expresarse como :

x(k+1) = MJAC x(k) + c. (55)

donde = MJAC es la correspondiente matriz de iteración.

45
a) Verifique que (55) puede escribirse como:

x(k+1) = x(k) + z(k) . (56)

donde,

z(k) = c − BJAC x(k) con BJAC = I − MJAC


(k)
(z se llama vector de corrección)
b) Para obtener un método de relajación, se introduce en (56) el coeficiente ω para obtener
:

x(k+1) = x(k) + ωz(k) . (57)


Use el método (57) con ω = 0,5 para estimar la aproximación x(2) del sistema :
     
3 −1 0 0 x1 10
 −1 3 −1 0    x2 
   12 
 =   (58)
 0 −1 3 −1   x3   12 
0 0 −1 3 x4 10

con x(0) = 0.

5.4. Método de sobrerelajación


Estos métodos se obtienen modificando el método de Jacobi o el de Gauss-Seidel, introduciendo
un parámetro ω llamado parámetro de relajación.

i) Forma matricial
En efecto, la forma matricial del esquema, se obtiene considerando la siguiente descomposición
para la matriz A.
 
D (1 − ω)
A= +L− D + U. (59)
ω ω
donde :
ω es un parámetro
D,L,U son las matrices diagonal y triangulares inferior y superior definidas anteri-
ormente.
sustituyendo (59) en Ax = b, se tiene :
 
D −(1 − ω)
x + Lx + D + U x = b. (60)
ω ω

multiplicando (60) por ω :

Dx + ωLx + [−(1 − ω)D + ωU ]x = ωb

46
y de aquı́ :
x = (D + ωL)−1 [(1 − ω)D − ωU ]x + ω(D + ωL)−1 b
que en forma recursiva puede expresarse en la forma :
x(k) = Mω x(k−1) + c (1)
con :
Mω = (D + ωL)−1 [(1 − ω)D − ωU ]
c = ω(D + ωL)−1 b
ii) En término de componentes
Para fines computacionales la ecuación matricial, puede escribirse:
 
i−1 n
(k) (k−1) ω  X (k)
X (k−1) 
xi = (1 − ω)xi + bi − aij xj − aij xj , (2)
aii j=1 j=i+1

para i = 1, 2, ..., n.
Si ω = 1 , tenemos el método de Gauss-Seidel.
Si 0 < ω < 1, los métodos de relajación se denominan métodos de sub-relajación y se pueden usar
en sistemas que no son convergentes por el método de Gauss-Seidel.
Si ω > 1 los métodos se denominan métodos de sobre-relajación y se pueden usar para acelerar la
convergencia en sistemas que son convergentes mediante el método de Gauss-Seidel.

5.5. Resultados importantes


i) Para cualquier x(0) ∈ Rn , la sucesión definida por
x(k+1) = M x(k) + c para cadak ≥ 1. (61)
converge a la solución única si y sólo si ρ(M ) < 1.
ii) Si kM k < 1 para cualquier norma matricial subordinada, la sucesión generada por (61)
converge para cualquier x(0) ∈ Rn y se satisafacen las cotas de error:
• kx − x(k) k ≤ kM kk kx(0) − xk
kM kk
• kx − x(k) k ≤ kx(1) − x(0) k
1 − kM k
iii) Si A es diagonal dominante, entonces para cualquier elección de x(0) los métodos de Jacobi
y Gauss-Seidel convergen a la solución exacta del sistema.
iv) Si A es definida positiva y 0 < ω < 2, entonces el método SOR converge para cualquier
aproximación inicial.
v) Si A es definida positiva y tridiagonal, entonces ρ(MGS ) = ρ(MJAC )2 < 1 y la elección
óptima de ω, es
2
ω= p .
1 + 1 − ρ(MJAC )2

47
5.6. Análisis de error y Número de Condición


Consideremos el sistema A−

x = b y supongamos que A es una matriz invertible, analicemos las
siguientes situaciones:

1. Si se perturba la matriz A−1 para obtener una nueva matriz B la solución x = A−1 b resulta
perturbada y la escribiremos xe = Bb. Nos preguntamos ¿Qué tan grande es la solución
perturbada en términos absolutos y relativos ? sol. Consideremos || · ||p una norma vectorial
y su correspondiente norma matricial subordinada, determinamos

i) el error absoluto

||x − x
e|| = ||x − Bb|| = ||x − BAx|| = ||(I − BA)x|| ≤ ||I − BA|| · ||x||

ii) el error relativo

||x − xe||
≤ ||I − BA||
||x||

representan las medidas de los errores en términos absolutos y relativos.


2. Consideremos ahora que se perturba el vector b para obtener el vector b.
e Si x y x
e satisfacen


respectivamente Ax = b y Ae x = b. ¿En cuánto difiere x y x
e e en términos absolutos y
relativos ?

i) En términos absolutos

e|| =k A−1 b − A−1 b


||x − x e k=k A−1 (b − b)
e k≤k A−1 kk b − b
ek

ii) En términos relativos

||b||
||x − x
e|| ≤ ||A−1 || · ||b − b||
e = ||A−1 || · ||b − b||
e
||b||

||b − b||
e
||A−1 || · ||Ax||
||b||

||x − xe|| ||b − b||


e
≤ ||A−1 || · ||A||
||x|| ||b||



es decir, el error relativo de la solución x está acotado por κ(A) veces el error relativo de b .

Observación 5.3

i) El número de condición depende de la norma vectorial seleccionada.

48


ii) Si κ(A) es pequeño, entonces pequeñas perturbaciones en b conducen a pequeñas perturba-
ciones en x.
 
1 1+ε
Ejemplo 5.2 Analizar el condicionamiento de la matriz A = con ε > 0.
1−ε 1
Sol. Determinamos A−1  
1 −1 − ε
A−1 =
−1 + ε 1
Usando norma infinito, tenemos,
||A||∞ = 2 + ε , ||A−1 ||∞ = ε−2 (2 + ε)
2
4 + 4ε + ε2

(2 + ε) 4
κ(A) = = > 2
ε ε2 ε

Si ε ≤ 0,01, entonces κ(A) ≥ 40000. Esto significa que una pequeña perturbación sobre b puede
inducir una perturbación o error relativo de 40000 veces mayor en la solución del sistema Ax = b.

Observación 5.4 En el caso de los métodos iterativos, podemos medir qué tan buena es la solución
aproximada x
e, calculando

i) Ae
x
ii) y r = b − Ae
x. Este vector se denomina vector residual.

Observamos además que la diferencia e = x − x


e se llama vector residual.

Podemos resumir una relación importante entre vector error y vector residual.

Teorema 5.2 Si x
e es la solución exacta de Ae
x = b, e = b − r implica r = − b.
e donde b e

1 ||r|| ||e|| ||r||


≤ ≤ κ(A)
κA) ||b|| ||x|| ||b||

Criterios de parada.
Se define el vector el residual r(k) = b − Ax(k) y el vector error e(k) = x − x(k) .

Criterio 1. Dada una tolerancia , iterar hasta que,

kr(k) k
< .
kr(0) k

Criterio 2. Sean, b , x , x(0) ∈ Rn y A una matriz no singular, entonces:

ke(k) k kr(k) k
≤ κ(A) .
ke(0) k kr(0) k

donde, κ(A) es el número de condición de la matriz A.

49
Criterio 3. El criterio 1, depende del valor inicial x(0) , de modo que si la aproximación inicial
no es buena, los resultados pueden ser grotescos. Se recomienda usar en su lugar,

kr(k) k
< .
kbk

Actividades 5.6

i) Demuestre el teorema anterior


ii) Demuestre que si ||A|| < 1 entonces
• I − A es invertible.
• ||(I + A)−1 || ≤ (1 − ||A||)−1
• (I + A)−1 = I − A + A2 − A3 + · · ·
1
• ||(I + A)−1 || ≥
1 + ||A||

Teorema 5.3 El radio espectral


ρ(A) = inf ||A||
||.||

es el ı́nfimo sobre todas las normas matriciales subordinadas.

Actividades 5.7

1) Contra los deseos de su corredor Jeanette compra x tı́tulos de acciones de ENDESA, y tı́tulos
de acciones de CTC Chile y z tı́tulos de acciones de Chilgener . A inicios de Enero, Febrero
y Marzo, las acciones de ENDESA valı́an $5,18 , $3,14 y $3,01 por tı́tulo, las acciones de
CTC Chile $2,10 , $6,03 y $2,18 por tı́tulo y las acciones de Chilgener, $2,90 , $2,80 y $5,53
por tı́tulo, respectivamente.
a) Determine el vector (x(2) , y (2) , z (2) ) mediante el método de Gauss-Seidel, si Jeanette
gastó en total $2945,30 , $4113,85 y $3417,00 en Enero, Febrero y Marzo, respectiva-
mente. (x(0) = (150, 150, 150)T ).
(Justifique).
b) Determine una estimación del error absoluto de la aproximación anterior.
c) De acuerdo a lo obtenido en a), ¿Cuántos tı́tulos de cada empresa adquirió Jeanette ?
2) El sistema de ecuaciones Ax = b, donde
     
3 2 x1 1
A= ,x = ,b = (62)
1 2 x2 2
puede resolverse mediante el siguiente método iterativo :
x(k+1) = x(k) + α(Ax(k) − b),
 
1
x(0) = , (63)
1

50
a) Determinar todos los valores de α para los cuales se puede garantizar la convergencia
del algoritmo.
b) Determinar si para α = −0,4 el algoritmo es convergente.

51

Вам также может понравиться