Вы находитесь на странице: 1из 3

a base del m�todo consiste en construir una sucesi�n convergente definida

iterativamente. El l�mite de esta sucesi�n es precisamente la soluci�n del sistema.


A efectos pr�cticos si el algoritmo se detiene despu�s de un n�mero finito de pasos
se llega a una aproximaci�n al valor de x de la soluci�n del sistema.

La sucesi�n se construye descomponiendo la matriz del sistema {\displaystyle


{\mathit {A}}} {\displaystyle {\mathit {A}}} en la forma siguiente:

{\displaystyle {\mathit {A}}={\mathit {D}}+{\mathit {R}}} {\displaystyle {\mathit


{A}}={\mathit {D}}+{\mathit {R}}}

donde {\displaystyle {\mathit {D}}} {\displaystyle {\mathit {D}}}, es una matriz


diagonal y {\displaystyle {\mathit {R}}} {\displaystyle {\mathit {R}}}, es la suma
de una matriz triangular inferior {\displaystyle {\mathit {L}}} {\displaystyle
{\mathit {L}}} y una matriz triangular superior {\displaystyle {\mathit {U}}}
{\displaystyle {\mathit {U}}}, luego {\displaystyle {\mathit {R}}={\mathit {L}}+
{\mathit {U}}} {\displaystyle {\mathit {R}}={\mathit {L}}+{\mathit {U}}}. Partiendo
de {\displaystyle A\mathbf {x} =\mathbf {b} } {\displaystyle A\mathbf {x} =\mathbf
{b} }, podemos reescribir dicha ecuaci�n como:

{\displaystyle {\mathit {D}}\mathbf {x} +{\mathit {R}}\mathbf {x} =\mathbf {b} }


{\displaystyle {\mathit {D}}\mathbf {x} +{\mathit {R}}\mathbf {x} =\mathbf {b} }

Luego,

{\displaystyle \mathbf {x} ={\mathit {D}}^{-1}\left(\mathbf {b} -{\mathit


{R}}\mathbf {x} \right)} {\displaystyle \mathbf {x} ={\mathit {D}}^{-
1}\left(\mathbf {b} -{\mathit {R}}\mathbf {x} \right)}

Si aii ? 0 para cada i. Por la regla iterativa, la definici�n del M�todo de Jacobi
puede ser expresado de la forma:

{\displaystyle \mathbf {x} ^{\left(k+1\right)}={\mathit {D}}^{-1}\left(\mathbf {b}


-{\mathit {R}}\mathbf {x} ^{(k)}\right)} {\displaystyle \mathbf {x}
^{\left(k+1\right)}={\mathit {D}}^{-1}\left(\mathbf {b} -{\mathit {R}}\mathbf {x}
^{(k)}\right)}

donde {\displaystyle k} k es el contador de iteraci�n, Finalmente tenemos:

{\displaystyle x_{i}^{\left(k+1\right)}={\frac {1}{a_{ii}}}\left(b_{i}-\sum \limits


_{j\neq i}{a_{ij}x_{j}^{\left(k\right)}}\right),i=1,2,3,...} {\displaystyle
x_{i}^{\left(k+1\right)}={\frac {1}{a_{ii}}}\left(b_{i}-\sum \limits _{j\neq i}
{a_{ij}x_{j}^{\left(k\right)}}\right),i=1,2,3,...}

Cabe destacar que al calcular xi(k+1) se necesitan todos los elementos en x(k),
excepto el que tenga el mismo i. Por eso, al contrario que en el m�todo Gauss-
Seidel, no se puede sobreescribir xi(k) con xi(k+1), ya que su valor ser� necesario
para el resto de los c�lculos. Esta es la diferencia m�s significativa entre los
m�todos de Jacobi y Gauss-Seidel. La cantidad m�nima de almacenamiento es de dos
vectores de dimensi�n n, y ser� necesario realizar un copiado expl�cito.

Convergencia
El m�todo de Jacobi siempre converge si la matriz A es estrictamente diagonal
dominante y puede converger incluso si esta condici�n no se satisface.

Para verificar la convergencia del m�todo se calcula el radio espectral (?):

{\displaystyle \rho (D^{-1}R)<1.} {\displaystyle \rho (D^{-1}R)<1.}


es la condici�n necesaria y suficiente para la convergencia, siendo R = L + U . No
es necesario que los elementos de la diagonal en la matriz sean mayores (en
magnitud) que los otros elementos (la matriz es diagonalmente dominante), pero en
el caso de serlo, la matriz converge.

Algoritmo
El m�todo de Jacobi se puede escribir en forma de algoritmo de la siguiente manera:

Algoritmo M�todo de Jacobi


funci�n Jacobi ( {\displaystyle A} A, {\displaystyle x^{0}} {\displaystyle x^{0}})

// {\displaystyle x^{0}} {\displaystyle x^{0}} es una aproximaci�n inicial a la


soluci�n//
para {\displaystyle k\gets 1} {\displaystyle k\gets 1} hasta convergencia hacer
para {\displaystyle i\gets 1} i\gets 1 hasta {\displaystyle n\,} n\, hacer
{\displaystyle \sigma \gets 0} {\displaystyle \sigma \gets 0}
para {\displaystyle j\gets 1} {\displaystyle j\gets 1} hasta {\displaystyle n\,}
n\, hacer
si {\displaystyle j\neq i\,} {\displaystyle j\neq i\,} entonces
{\displaystyle \sigma =\sigma +a_{ij}x_{j}^{(k-1)}} {\displaystyle \sigma =\sigma
+a_{ij}x_{j}^{(k-1)}}
fin para
{\displaystyle x_{i}^{(k)}={{\left({b_{i}-\sigma }\right)} \over {a_{ii}}}}
{\displaystyle x_{i}^{(k)}={{\left({b_{i}-\sigma }\right)} \over {a_{ii}}}}
fin para
comprobar si se alcanza convergencia
fin para
Ejemplo
Un sistema lineal de la forma {\displaystyle Ax=b} {\displaystyle Ax=b} con una
estimaci�n inicial {\displaystyle x^{(0)}} {\displaystyle x^{(0)}} est� dado por

{\displaystyle A={\begin{bmatrix}2&1\\5&7\\\end{bmatrix}},\
b={\begin{bmatrix}11\\13\\\end{bmatrix}}\quad {\text{y}}\quad
x^{(0)}={\begin{bmatrix}1\\1\\\end{bmatrix}}.} {\displaystyle
A={\begin{bmatrix}2&1\\5&7\\\end{bmatrix}},\
b={\begin{bmatrix}11\\13\\\end{bmatrix}}\quad {\text{y}}\quad
x^{(0)}={\begin{bmatrix}1\\1\\\end{bmatrix}}.}
Usamos la ecuaci�n {\displaystyle x^{(k+1)}=D^{-1}(b-Rx^{(k)})} {\displaystyle
x^{(k+1)}=D^{-1}(b-Rx^{(k)})}, descrita anteriormente, para estimar {\displaystyle
x} x. Primero, reescribimos la ecuaci�n de una manera m�s conveniente
{\displaystyle D^{-1}(b-Rx^{(k)})=Tx^{(k)}+C} {\displaystyle D^{-1}(b-
Rx^{(k)})=Tx^{(k)}+C}, donde {\displaystyle T=-D^{-1}R} {\displaystyle T=-D^{-1}R}
y {\displaystyle C=D^{-1}b} {\displaystyle C=D^{-1}b}. vea que {\displaystyle
R=L+U} {\displaystyle R=L+U} donde {\displaystyle L} L y {\displaystyle U} U son
las partes inferior y superior de {\displaystyle A} A. de los valores conocidos.

{\displaystyle D^{-1}={\begin{bmatrix}1/2&0\\0&1/7\\\end{bmatrix}},\
L={\begin{bmatrix}0&0\\5&0\\\end{bmatrix}}\quad {\text{y}}\quad
U={\begin{bmatrix}0&1\\0&0\\\end{bmatrix}}.} {\displaystyle D^{-
1}={\begin{bmatrix}1/2&0\\0&1/7\\\end{bmatrix}},\
L={\begin{bmatrix}0&0\\5&0\\\end{bmatrix}}\quad {\text{y}}\quad
U={\begin{bmatrix}0&1\\0&0\\\end{bmatrix}}.}
determinamos {\displaystyle T=-D^{-1}(L+U)} {\displaystyle T=-D^{-1}(L+U)} como

{\displaystyle T={\begin{bmatrix}1/2&0\\0&1/7\\\end{bmatrix}}\left\
{{\begin{bmatrix}0&0\\-5&0\\\end{bmatrix}}+{\begin{bmatrix}0&-
1\\0&0\\\end{bmatrix}}\right\}={\begin{bmatrix}0&-0.5\\-0.714&0\\\end{bmatrix}}.}
{\displaystyle T={\begin{bmatrix}1/2&0\\0&1/7\\\end{bmatrix}}\left\
{{\begin{bmatrix}0&0\\-5&0\\\end{bmatrix}}+{\begin{bmatrix}0&-
1\\0&0\\\end{bmatrix}}\right\}={\begin{bmatrix}0&-0.5\\-0.714&0\\\end{bmatrix}}.}
C es encontrada como

{\displaystyle C={\begin{bmatrix}1/2&0\\0&1/7\\\end{bmatrix}}
{\begin{bmatrix}11\\13\\\end{bmatrix}}={\begin{bmatrix}5.5\\1.857\\\end{bmatrix}}.}
{\displaystyle C={\begin{bmatrix}1/2&0\\0&1/7\\\end{bmatrix}}
{\begin{bmatrix}11\\13\\\end{bmatrix}}={\begin{bmatrix}5.5\\1.857\\\end{bmatrix}}.}
con T y C calculadas, estimaremos {\displaystyle x} x como {\displaystyle
x^{(1)}=Tx^{(0)}+C} {\displaystyle x^{(1)}=Tx^{(0)}+C}:

{\displaystyle x^{(1)}={\begin{bmatrix}0&-0.5\\-0.714&0\\\end{bmatrix}}
{\begin{bmatrix}1\\1\\\end{bmatrix}}+
{\begin{bmatrix}5.5\\1.857\\\end{bmatrix}}={\begin{bmatrix}5.0\\1.143\\\end{bmatrix
}}.} {\displaystyle x^{(1)}={\begin{bmatrix}0&-0.5\\-0.714&0\\\end{bmatrix}}
{\begin{bmatrix}1\\1\\\end{bmatrix}}+
{\begin{bmatrix}5.5\\1.857\\\end{bmatrix}}={\begin{bmatrix}5.0\\1.143\\\end{bmatrix
}}.}
siguientes iteraciones.

{\displaystyle x^{(2)}={\begin{bmatrix}0&-0.5\\-0.714&0\\\end{bmatrix}}
{\begin{bmatrix}5.0\\1.143\\\end{bmatrix}}+
{\begin{bmatrix}5.5\\1.857\\\end{bmatrix}}={\begin{bmatrix}4.929\\-
1.713\\\end{bmatrix}}.} {\displaystyle x^{(2)}={\begin{bmatrix}0&-0.5\\-
0.714&0\\\end{bmatrix}}{\begin{bmatrix}5.0\\1.143\\\end{bmatrix}}+
{\begin{bmatrix}5.5\\1.857\\\end{bmatrix}}={\begin{bmatrix}4.929\\-
1.713\\\end{bmatrix}}.}
este proceso se repetir� hasta que converja (i.e., hasta que {\displaystyle \|
Ax^{(n)}-b\|} {\displaystyle \|Ax^{(n)}-b\|} sea peque�o). la soluci�n despu�s de
25 iteraciones es:

{\displaystyle x={\begin{bmatrix}7.111\\-3.222\end{bmatrix}}.} {\displaystyle


x={\begin{bmatrix}7.111\\-3.222\end{bmatrix}}.}
V�ase tambi�n