Академический Документы
Профессиональный Документы
Культура Документы
net/publication/28290926
Article
Source: OAI
CITATIONS READS
3 56
3 authors, including:
Some of the authors of this publication are also working on these related projects:
All content following this page was uploaded by Pedro Alonso on 04 June 2014.
En el caso de la eliminación de NevilIe las estrategias =b y, para ello, compararemos el resultado obtenido x
de pivotaje (incluso escalado) fueron consideradas en {lO]. bajo perturbaciones de los datos o errores de redondeo,
En [3] abordarnos el análisis de error regresivo de la eli- debidos al uso de aritmética de punto flotante, con el resul"
minación de NevilIe, especialmente en el caso de matrices tado exacto x. Obtendremos aproximaciones de primer or"
totalmente positivas, para las que se comprobó que el com- den del error absoluto, á x = x, y de su residuo aso- x-
portamiento de la eliminación de NevilIe era similar al de ciado, r = A x-
b, aproximaciones que denotaremos por s
Gauss. y t respectivamente.
La transformación de la matriz de coeficientes A en Consideremos el sistema de ecuaciones lineales Ax =
una matriz triangular superior U, mediante un método de
eliminación, equivale matricialmente a la factorización b, con A = (aij) ¡Sl.j:$n,
.. b = (b¡ )1<'<
_1_17,
donde A es no singular
triangular de A: expresar A corno A = LU, con L y U y supondremos que sobre ella se puede realizar un proceso
matrices triangular inferior y superior respectivamente. Al de eliminación de NevilIe sin permutaciones de filas, lo
utilizar aritmética de precisión finita, aparecen las matrices cual sucede, por ejemplo (pero no exclusivamente, ver [6]),
i, Oen vez de L y U. Si iO = A + E, el análisis de error si todos los menores de A con columnas consecutivas ini-
regresivo consiste en hallar cotas (por normas y por com- ciales y con filas consecutivas son no nulos. Sea
ponentes) de la matriz E. Mucho más complejo resulta el
x
análisis de error progresivo. Si es la solución computada
Al = (a(l») ¡$¡;S;n,ISj$n+l.
.. IJ
con
por eliminación con precisión finita y x es la solución
exacta del sistema, el error progresivo trata de hallar cotas (1) ._ {a¡j 1 : : :; i, j :::::; n
(por normas y por componentes) para x-x. En el caso de aij'- b.
I 1 : : :; i : : :; n, j =n+ 1.
la eliminación Gaussiana se han llevado a cabo estudios de
su error progresivo en los trabajos de Olver y Wilkinson A lo largo de la eliminación, y partiendo de Al' vamos
[17] y de Stummel ([20] y [21]). calculando una sucesión de matrices intermedias que de-
El objetivo de este trabajo es precisamente el de reali- notaremos por Ak+l = (a(k+ I ») I';¡';n, l,;j';n+l'
Q con k -- 1, ..., n-l,
zar un análisis de error progresivo de la eliminación de
NevilIe. El método seguido ha consistido en caleular de la forma siguiente
aproximaciones lineales al error y al residuo siguiendo la
(k)
técnica desarrollada por Stummel [I 9]. No obstante, en el aij 1 5, i 5, k, 1:::::; j 5, n +1
caso de la eliminación de NevilIe han aparecido nuevas
dificultades con respecto al caso de la eliminación Gaus-
aj'
(k+l)._
1
.- ¡ (k) _ a¡k
(k)
(k)
alj"'(k) a¡_l.j
a¡-l,k
k+l5,i5,n,l5,j5,n+l.
siana. Esto se debe a que en el caso de esta última toda la
información sobre el proceso de eliminación queda refleja-
da y resumida en la factorización LU de la matriz A, cosa
que no ocurre en el caso de la eliminación de NevilIe. La
Los cocientes m¡k := *'
a<k)
a¡_l,k
tiplicadores de la eliminación de NevilIe. Observemos que
reciben el nombre de mul-
Siguiendo las notaciones usadas por Stummel [19] para con k + 1 :s;; i :s;; n, k + 1 :s;; j :s;; n + 1.
la eliminación de Gauss, s:; y sj, serán las aproximaciones
lineales de los errores absolutos asociados a m¡k Y a&k l De esta forma, las aproximaciones lineales del error
cometido en el cómputo de los elementos de la submatriz
respectivamente. Con e~i' e~j ye kij representamos los erro-
res de redondeo asociados a las operaciones elementales de (a&k+!)) son los elementos de la submatriz
k+l:5;;:fn, k+l::;;j:::in+l
cocient.e, producto y diferencia, respectivamente, involu- (k+l))
Sk+! = ( Sr •
cradas en el cómputo de aS+!). 1 k+I$¡$n, k+'$j$n+!
(2.1)
s~ con
= -w--
ai _ l •k
1 O o
O 1 O
con k + 1 ~ i ~ n.
O . ,
-mk+I,k
esto es y
la componente i-ésima del vector solución según el si- q~ = -a~L I a~tk. k + 1 :s; i :s; /l, k + 1 :s; j :s; /l + 1,
'+1 _ ('+I) - k k {'I ( x , )
k + 1 :s; i :s; k + 1 :s; j :s; + 1,
guiente algoritmo: [ ij - aij .ekij - p¡qij a¡_I.k e kij + e ki ' /l, /l
.(s,k)
Jm h ~ s - card ({k, k - 1, ... , m} n
(2.7)
(2.10)
donde en los sumatorios hay que tener en cuenta 1) y 2).
que por (2.3) puede expresarse
Antes de calcular las expresiones explícitas de las
aproximaciones de primer orden del error absoluto exacto,
y su residuo asociado, aproximaciones que denotaremos 1
l! = ElI (mll d ... E2(m21)] IElI (m 1l2 ) ... E 3(m32)] ...
por s y t respectivamente, conviene distinguir en ellas dos
partes: ... [ElI (m llr ) ... Er+1(mr+I.r )].
t = fJ + 1, El siguiente resultado principal corresponde al Teore-
donde SD y fJ representan las aproximaciones de primer ma 5.3 de [2]:
orden del error absoluto y del residuo considerando aritmé-
tica exacta y sólo perturbaciones en los datos de partida, x
Teorema 2.3. Sea = (Xi)I~¡~lI la solución computa-
mientras que con SR y I representamos las aproximaciones da obtenida al resolver el sistema Ax = b por eliminación
considerando datos exactos y sólo errores debidos al re- de Neville (sin permutaciones de filas) utilizando aritmé"
dondeo. tica de punto flotante. Sean tt las aproximaciones lineales
a las componentes del residual asociado a dicha solución.
Teniendo en cuenta (2.4) conviene descomponer s Entonces ti~ admite la representación ti~ = t? + tI, con:
como s = SO + sI, con sO = U- I fo y SI = U-Ij¡.
i)
También es inmediato observar, sin más queconside-
rar la factorización de A en la forma LU, que o _ ~~ r
t¡ - -,¿., ,¿.,lik
{~ (r+1) -
,¿.,Qkj erkj X j
~ (r)' }
+ '¿"J'--r mkrQk-I,j erkj x j '(2.11)
t = As = Lf, (2.6) r=1 k=r+l J=r+l .
por lo que en t también podemos distinguir t O y t. donde denotamos con l! (lij)l~i,j$lI a la matriz de (2.10),
y donde
Los términos so, t O representan las aportaciones a s y t
de todos los errores de los datos y los errores de redondeo *
erkj = erkjx , -*
erkr = erkl,·J = r + 1, ... , n + 1.
del proceso de eliminación, mientras que SI, t representan
las aportaciones de los errores de redondeo que se produ-
cen en la resolución del sistema triangular Ux = z. (2.12)
Para obtener expresiones explícitas de s y t conviene
introducir algunas otras notaciones. Si éi u y bi son los va- con
lores perturbados inicialmente de aij y b¡, denotamos por
M y !lb respectivamente, a -e7k' k =j + 1, ... , n.
6 Matemáticas: Pedro Alonso et al. Rev.R.Acad. Cienc.Exact. Fis.Nat. (Esp), 1998; 92
En lo que se refiere a la aproximación al error absoluto En 10 que hace referencia a los términos SO y tO, éstos
asociado a las soluciones se tiene la siguiente consecuen- representan las aportaciones a s y t de todos los errores de
cia inmediata del Teorema 2.3: los datos y los producidos por el redondeo durante el pro-
ceso de eliminación. Comparando las expresiones de t? y
Corolario 2.4. Sea x
= (x¡),;;;;;. la solución compu- s? con (2.11), (2.13), vemos que estas últimas incorporan
tada, y st las aproximaciones lineales del error absoluto un sumatorio más. Esto es debido, de manera análoga a lo
asociado a los componentes de dicha solución. Entonces que ocurre para el error regresivo (ver [3]), a que en la
SiR = StO + si, con eliminación Gaussiana las matrices L y U representan toda
la información del proceso, mientras que dicha informa-
i) (2.13) ción en la eliminación de Neville se refleja a través de
todas las matrites L¡ y A¡. De todas formas los experimen-
° ~ (-1) ~ ~ r {~ (r+1) - ~ tos numéricos que hemos realizado (Apéndice de [1]) nos
aij f:t k~/jk i~lakl erkl XI + t: mkr ak-I,l erkl Xl
(r)
Si - f;;j o }
, han permitido comprobar que la diferencia entre los resul-
tados obtenidos por un método y otro no es significativa.
ii) (2.14)
3. NÚMEROS DE CONDICIÓN
y con e;kl' e;k' e;1 yejk como en el teorema anterior. En esta sección calcularemos acotaciones de
IArI = Ix - xl
y Irl =IAX - bl
componente a componente.
Terminamos esta seCClOn comparando los resultados Para ello calcularemos números de condición de SD, SR, rO,
obtenidos con los que aparecen en [20] para el método de y rR a partir de sus expresiones obtenidas en la sección
Gauss, que enumeramos a continuación: anterior.
i) (2.17)
con e~j' e;kj, e~ Ye~ números no negativos.
°
Si
Sea ahora 1] = max (1]D' 1]R)'
Matemáticas: Pedro Alonso et al. Rev.R.Acad. Cienc.Exact. Fis.Nat. (Esp), 1998; 92 7
rf f,ajklxkl + (3j' 1 :s; j :s; n, donde crD , aR, tJ y 7! denotan los vectores de los números
k=l de condición <Tf,<Tt, rf, rI,
1 :s; i, j :s; n, y
'r¡ = max(r¡D' r¡R)'
Lema 3.3. Sea SR la aproximación al error conside- 4. Ando, T. (1987) Totally positive matrices, Linear Algebra Appl.
rando datos exactos y sólo errores de redondeo. Entonces 90, 165-219.
se tiene que 5. Gallivan, KA, Plemmons, R.J. & Sameh, A.H. (1990) Parallel
algorithms for dense linear algebra computations, SIAM Rev.
ISi.RI <- <TiRr¡R' 1 :s; i :s; n 32,54-135.
9. Gasea, M. & Peña, J.M. (1993) Total positivity, QR-faetoriza- 17. Olver, F.W.J. & Wilkinson, J.H. (1982) A posteriori mor bounds
tion and Neville elimination, S1AM J. Matrix Anal. Appl. 14, for Gaussian e1imination, IMA J. Numer. Anal. 2, 377-406.
1132-1140.
18. Peña, 1.M. (1995) Matrices with sign eonsisteney of a given
10. Gasea, M. & Peña, J.M. (1993) Sea1ed pivoting in Gauss and order, Aparecerá en SIAM J. Matrix Anal. Appl. 16, 1100"
Neville elimination for totally positive systems, Appl. Numer. 1106.
Math. 13, 345-356.
19. Stummel,F. (1981) Perturbation theory for eva1uation a1gori-
11. Gasea, M. & Peña, J.M. (1994) A test for striet sign regu1arity, thms of arithmetie expressions, Math. Comp. 37,156,435-473.
Linear Algebra Appl. 197-198, 133-142.
20. Stumme1, F. (1985) Forward error ana1ysis of Gasussian elimi-
12. Gasea, M. & Peña, 1.M. (1994) A matricial deseription of Ne-
nation, Part 1: Error and residual estimates, Numer. Math. 46,
ville elimination with app1ieations to total positivity, Linear
365-395.
Algebra Appl. 202, 33-45.
13. Gasea, M. & Peña, 1.M. (1995) On the eharaeterization of AI- 21. Stummel, F. (1985) Forward error ana1ysis of Gasussian elimi-
most Stristly Totally positive matrices, Adv. Comput. Math.3, nation, Part II: Stability theorems, Numer. Math. 46,397-415.
239-250.
22. Trefethen, L.N. & Sehreiber, R.S.(1990) Average"ease stabi-
14. Gasea, M. & Peña, J.M. (1995) Neville elimination and litY of Gaussian elimination, SIAM J. Matrix Anal. Appl. 11,
approximation theory. En: Approximation Theory Wavelets and 33-360.
Applications. Ed.: Singh, S.P., K1uwer Aeademic Publishers,
pp. 131-151. 23. Wilkinson, J.H. (1961) Errors ana1ysis of direet methods of
matrix inversion, J. Assoc. Computo Mach. 8, 281-330.
15. Higham, N.J. (1996) Aeeuraey and Stability of Numerieal AI-
gorithms, SIAM, Philadelphia, PA. 24. Wilkinson, 1.H. (1963) Rounding Errors in Algebraic Proces-
ses, Notes on Applied Seienee 32, Her Majesty's Stationery
16. Km'lin, S. (1968) Total Positivity, Stanford Universite Press. Offiee.