Вы находитесь на странице: 1из 9

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/28290926

Estudio del error progresivo en la eliminación de Neville

Article
Source: OAI

CITATIONS READS

3 56

3 authors, including:

Pedro Alonso Mariano Gasca


University of Oviedo University of Zaragoza
82 PUBLICATIONS   285 CITATIONS    96 PUBLICATIONS   1,554 CITATIONS   

SEE PROFILE SEE PROFILE

Some of the authors of this publication are also working on these related projects:

Structured matrices View project

Competence Development in Future Secondary Mathematics Teachers View project

All content following this page was uploaded by Pedro Alonso on 04 June 2014.

The user has requested enhancement of the downloaded file.


Rev.R.Acad. Cienc.Exact.Fis.Nat. (Esp)
Vol. 92, N.o 1, pp 1-8, 1998
Matemáticas

ESTUDIO DEL ERROR PROGRESIVO EN LA ELIMINACION


DE NEVILLE

PEDRO ALONSO * MARIANO GASCA** JUAN MANUEL PEÑA**

* Departamento de Matemáticas. Universidad de Oviedo. Proyecto DGICYT PB93-0310


** Departamento de Matemáticas Aplicadas, Universidad de Zaragoza.
CI Pedro Cerbuna, 12. Edificio Matemáticas, planta La. 50009 Zaragoza. Proyecto DGICYT PB93-0310

Presentado por el Académico Correspondiente Mariano Gasea, 18 de enero de 1997.

RESUMEN de Neville presenta ventajas sobre la Gaussiana cuando se


trabaja con ciertas clases de matrices, en particular las
Se realiza un análisis del error progresivo del método totalmente positivas (éstas son matrices con todos los
de eliminación de Neville para la resolución de un sistema menores no negativos). Las matrices totalmente positivas
lineal de ecuaciones. Se comparan los resultados obtenidos aparecen con frecuencia en problemas de Estadística. Teo-
con otros análogos para la eliminación de Gauss y se ob- ría de Aproximación y Diseño Geométrico Asistido por
tienen expresiones de los números de condición asocia- Ordenador, entre otros campos (ver [4J, [7], [16]).
dos a las acotaciones del error de la eliminación de Ne-
ville. Las ventajas a las que hemos hecho referencia corres-
ponden a que la eliminación de Neville proporciona carac-
terizaciones algorítmicas muy sencillas de estas matrices y
ABSTRACT sus subclases. Respecto del coste computacional, en gene-
ral es el mismo para la eliminación de Neville que para la
A forward error analysls of Nevilleelimination for
solving linear systems of equations is presented. The resul-
Gaussiana, siendo éste o(~ n 3 } Sin embargo, en [12] se
ts are compared with the corresponding ones for Gaussian comprobó que el coste computacional de la eliminación de
elimination and some expressions of the condition num- Neville puede ser considerablemente inferior al de la eli-
bers of the error bounds for Neville elimination are obtai" minación Gaussiana para ciertas matrices especiales, como
ned. por ejemplo matrices totalmente positivas que son inversas
de una matriz banda. Finalmente mencionemos que en
computación en paralelo también se han mostrado útiles
1. INTRODUCCIÓN esquemas de eliminación próximos a la eliminación de
Neville (ver [5], [22]).
La eliminación de Neville es un método de eliminación
para resolver sist.emas de ecuaciones lineales distinto al Un aspecto computacional fundamental para cualquier
método de Gauss. La diferencia esencial consiste en que en algoritmo numérico es el del correspondiente análisis de
la eliminación de Neville, para hacer un cero en una fila se error. En el caso de la eliminación Gaussiana (con aritmé-
usa la fila inmediatamente anterior. En general la elimina- tica de precisión finita), su análisis de error ha sido materia
ción de Neville no presenta grandes ventajas ni inconve- de estudio desde hace 50 años, y aún continúan esclare-
nientes respecto a la Gaussiana, por lo que dada la univer- ciéndose actualmente nuevos aspectos del mismo tal como
salidad del uso de ésta no la presentamos como una reflejan las todavía abundantes publicaciones sobre esta
alternativa global que compita con ella. Sin embargo en materia (ver [15], [23] y [24]). Tres son las cuestiones
algunos problemas particulares que vamos a comentar si esenciales a considerar en el análisis de error de un método
resulta ventajosa la eliminación de Neville. Este tipo de de eliminación, para la resolución directa de un sistema de
eliminación se había usado esporádicamente en algunas ecuaciones lineales Ax = b que se transforma por dicho
cuestiones de Teoría de Aproximación y de otros campos método en el sistema triangular Ux = e (U es una matriz
(ver [8], [14]), pero no había sido analizada en profundi- triangular superior): las estrategias de pivotaje para contro-
dad hasta una serie de artículos recientes ([6], [9], [11], lar los errores de redondeo, el análisis de error regresivo y
[12], [13], [18]). En ellos se comprobó que la eliminación el análisis de error progresivo.
2 Matemáticas: Pedro Alonso et al. Rev.R.Acad.Cienc.Exact.Fis.Nat. (Esp), 1998; 92

En el caso de la eliminación de NevilIe las estrategias =b y, para ello, compararemos el resultado obtenido x
de pivotaje (incluso escalado) fueron consideradas en {lO]. bajo perturbaciones de los datos o errores de redondeo,
En [3] abordarnos el análisis de error regresivo de la eli- debidos al uso de aritmética de punto flotante, con el resul"
minación de NevilIe, especialmente en el caso de matrices tado exacto x. Obtendremos aproximaciones de primer or"
totalmente positivas, para las que se comprobó que el com- den del error absoluto, á x = x, y de su residuo aso- x-
portamiento de la eliminación de NevilIe era similar al de ciado, r = A x-
b, aproximaciones que denotaremos por s
Gauss. y t respectivamente.
La transformación de la matriz de coeficientes A en Consideremos el sistema de ecuaciones lineales Ax =
una matriz triangular superior U, mediante un método de
eliminación, equivale matricialmente a la factorización b, con A = (aij) ¡Sl.j:$n,
.. b = (b¡ )1<'<
_1_17,
donde A es no singular
triangular de A: expresar A corno A = LU, con L y U y supondremos que sobre ella se puede realizar un proceso
matrices triangular inferior y superior respectivamente. Al de eliminación de NevilIe sin permutaciones de filas, lo
utilizar aritmética de precisión finita, aparecen las matrices cual sucede, por ejemplo (pero no exclusivamente, ver [6]),
i, Oen vez de L y U. Si iO = A + E, el análisis de error si todos los menores de A con columnas consecutivas ini-
regresivo consiste en hallar cotas (por normas y por com- ciales y con filas consecutivas son no nulos. Sea
ponentes) de la matriz E. Mucho más complejo resulta el
x
análisis de error progresivo. Si es la solución computada
Al = (a(l») ¡$¡;S;n,ISj$n+l.
.. IJ
con
por eliminación con precisión finita y x es la solución
exacta del sistema, el error progresivo trata de hallar cotas (1) ._ {a¡j 1 : : :; i, j :::::; n
(por normas y por componentes) para x-x. En el caso de aij'- b.
I 1 : : :; i : : :; n, j =n+ 1.
la eliminación Gaussiana se han llevado a cabo estudios de
su error progresivo en los trabajos de Olver y Wilkinson A lo largo de la eliminación, y partiendo de Al' vamos
[17] y de Stummel ([20] y [21]). calculando una sucesión de matrices intermedias que de-
El objetivo de este trabajo es precisamente el de reali- notaremos por Ak+l = (a(k+ I ») I';¡';n, l,;j';n+l'
Q con k -- 1, ..., n-l,
zar un análisis de error progresivo de la eliminación de
NevilIe. El método seguido ha consistido en caleular de la forma siguiente
aproximaciones lineales al error y al residuo siguiendo la
(k)
técnica desarrollada por Stummel [I 9]. No obstante, en el aij 1 5, i 5, k, 1:::::; j 5, n +1
caso de la eliminación de NevilIe han aparecido nuevas
dificultades con respecto al caso de la eliminación Gaus-
aj'
(k+l)._
1
.- ¡ (k) _ a¡k
(k)
(k)
alj"'(k) a¡_l.j
a¡-l,k
k+l5,i5,n,l5,j5,n+l.
siana. Esto se debe a que en el caso de esta última toda la
información sobre el proceso de eliminación queda refleja-
da y resumida en la factorización LU de la matriz A, cosa
que no ocurre en el caso de la eliminación de NevilIe. La
Los cocientes m¡k := *'
a<k)

a¡_l,k
tiplicadores de la eliminación de NevilIe. Observemos que
reciben el nombre de mul-

gran complejidad de los resultados intermedios hace que,


por razones de brevedad, para sus demostraciones aluda- las k primeras filas de Ak+1 coinciden con las de Ak, y que
mos a [2]. Sin embargo, los resultados finalmente obteni- trabajando con aritmética exacta a&k+l) = O, con k + 1 ,: : :;,
dos en Teorema 2.3 y Corolario 2.4 resultan sorprendente- i ,: : :;, n, 1 ,: : :;, j ,:::::;, k. Por lo tanto Centraremos nuestro estudio
mente simples en comparación con aquellos resultados
en la submatriz Ak+l[k + 1, ... , nlk + 1, . , . , n + 1]
intermedios.
= (a(k+J))
Para terminar la Sección 2, compararemos nuestros . lj k+l:S;¡$n. k+l$j$n+l.

resultados para la eliminación de NevilIe con los obtenidos


por Stummel para la eliminación de Gauss. Aunque en Por otro lado, los datos de la matriz de partida pueden
nuestro caso las fórmulas presentan una mayor compleji- estar perturbados, es decir, en vez de Al tenernos la matriz
dad aparente, los experimentos numéricos realizados en el perturbada (aS»)I:::::; i : : :; n, 1:::::; j : : :; n+ 1, y el uso de aritméti-
Apéndice de [1] no han mostrado diferencias significativas
entre los resultados obtenidos por eliminación de Gauss y ca de punto flotante hace que los elementos que calcula-
~(k+l)
los de NevilIe. mas, a¡j ,no sean exactos.

Finalmente en la Sección 3 obtenernos números de En nuestro algoritmo de eliminación de NevilIe, en


condición útiles para el cálculo de la estimación del error. lugar de m¡k Y a&k) se calcularán

2. APROXIMACIÓN DEL ERROR Y DEL RESIDUO k + 1 ::; i ::; n,

En esta sección realizarnos un análisis del error progre-


sivo de la solución de un sistema de ecuaciones lineales Ax k + 1 ::; i ::; 11, k + 1::; j ::; ¡¡ + 1,
Matemáticas: Pedro Alonso et al. Rev.R.Acad. Cienc. Exact. Fis. Nat. (Esp), 1998; 92 3

donde, como es habitual, denotamos confl(x op y) el resul- k+l


sij
tado de operar, en coma flotante, x e y mediante la opera-
ción op. (2.2)

Siguiendo las notaciones usadas por Stummel [19] para con k + 1 :s;; i :s;; n, k + 1 :s;; j :s;; n + 1.
la eliminación de Gauss, s:; y sj, serán las aproximaciones
lineales de los errores absolutos asociados a m¡k Y a&k l De esta forma, las aproximaciones lineales del error
cometido en el cómputo de los elementos de la submatriz
respectivamente. Con e~i' e~j ye kij representamos los erro-
res de redondeo asociados a las operaciones elementales de (a&k+!)) son los elementos de la submatriz
k+l:5;;:fn, k+l::;;j:::in+l
cocient.e, producto y diferencia, respectivamente, involu- (k+l))
Sk+! = ( Sr •
cradas en el cómputo de aS+!). 1 k+I$¡$n, k+'$j$n+!

La matriz Sk contendrá las aportaciones al error produ"


Se tiene
cidas por perturbaciones de los datos y los errores de re-
dondeo, que distinguiremos en la forma:
a~(k)
ik
)
=fl [ ~(kl •
a i - I•k

además C on su'kD representaremos l ' ., a1 error de


a aproxlmaclOn
a&k) considerando sólo perturbaciones en los datos y arit-
mética exacta, mientras que con sj,R denotamos la aproxi-
mación al error con datos exactos y sólo errores produci-
y, de manera análoga, dos por trabajar con aritmética de punto flotante.

Una vez aplicado el proceso de eliminación de NevilIe


al sistema A:x: = b, hemos transformado éste en un siste-
ma triangular superior, que denotaremos por Ux = Z;, con
Tomando la parte lineal s¡7 del desarrollo de U = (Vij) .. l$I.}'$;n.
x = (Xi)I<'< ~l_n.
Z == (Z¡)I<'<
.
_I_n
' donde Ui¡
'J
= O,
\::Ji > j. Si hemos considerado aritmética exacta se tendrá
que uij = agl , 1 :s;; i, j :s;; n Y Z¡ = a?~+" 1 :s;; i :s;; n.

resulta: Observemos que el proceso produce una factorización


LU de la matriz A. En efecto, se tiene
f1l
Sik

(2.1)
s~ con
= -w--
ai _ l •k
1 O o
O 1 O
con k + 1 ~ i ~ n.
O . ,
-mk+I,k

luego A = LU con L = (liA:;¡.j~n (tij = O, \::Ji < j) triangular


inferior, verificando L= L¡' Ci' ... L~~!. Puesto que l¡¡ = 1,
\::Ji, la factorización LU obtenida es la misma que en elimi-
nación Gaussiana, pero a diferencia de ésta, los elementos
Respecto de Wkij se tiene
de L no tienen la interpretación de ser los multiplicadores
del proceso sino que L debe ser calculada a partir de las L k
como sigue. Es precisamente esta diferencia la que produ-
ce una mayor complicación en el estudio del error en la
y en consecuencia eliminación de NevilIe.
4 Matemáticas: Pedro Alonso et al. Rev.R.Acad.Cienc.Exact.Fis.Nat. (Esp), 1998; 92

Denotamos con E¡ (a), (2::;; i ::;; n), a la matriz triangu- donde


lar inferior, bidiagonal cuyos elementos (r, s), 1 ::;; r, s ::;; n 11+1
están dados por ¡;O == _ LsijXj'
j=i
si r == s
si (r, s) == (i, i - 1)
l iz{eij + iUijxje~, i == 1, ..., n,
en otro caso, j=i+l }=i

esto es y

e¡~== e{, e~ == -e;, (i<j),i == 1, ... ,n.

Aquí eij, e6, e; denotan los errores de redondeo de las


operaciones elementales del cálculo de Xi'

En nuestro caso, hay que tener en cuenta que sij es la


aproximación lineal del error del elemento de la primera
Es inmediato observar que fila, columna), de la submatriz (a~»)¡';I,;n.¡';j,;n+!, es decir
sij == st con nuestras notaciones anteriores. Así pues, cal-
cularemos las st, para a partir de ellas obtener s.
Así, teniendo en cuenta que E¡-I (a) == E¡ (-a), se de-
duce que El resultado anterior es válido independientemente del
tipo de eliminación usada para la obtención de U, pero
donde el estudio del error para la eliminación de Neville se
complica es a partir de ahora, obligándonos a introducir
algunas nuevas notaciones.
y de esta forma, la matriz L-¡/ se puede expresar como
producto de matrices elementales E¡ (a). A partir de las L;/
se obtiene L.
Definamos unos elementos P:, qj, fj+! y una matriz
Q; como:
Si hacemos el convenio de que u¡,n+l == z¡ y xn+l == -1, la
ecuación i-ésima del sistema U x == Z nos permite calcular p;= -mik = -a~) I a~~,k' k + 1 :s; i :s; /l.

la componente i-ésima del vector solución según el si- q~ = -a~L I a~tk. k + 1 :s; i :s; /l, k + 1 :s; j :s; /l + 1,
'+1 _ ('+I) - k k {'I ( x , )
k + 1 :s; i :s; k + 1 :s; j :s; + 1,
guiente algoritmo: [ ij - aij .ekij - p¡qij a¡_I.k e kij + e ki ' /l, /l

Qf = (o . + q' 01') l+lSIIISII+l.JSjSIl+I.


111) . 1/11· IJ
I + 1 :s; i :s; /l.
n+1
Z¡ == - U¡.n+l xn+1,
Utilizando de nuevo aproximaciones lineales, junto con
zf U¡jX j , }=n,n-l, ... ,i+l, una serie de resultados auxiliares (así como sus interpreta-
ciones matriciales), según puede verse con detalle en la
i+l Sección 3 de [2], se obtiene la siguiente expresión de los
= --,
Z¡.
l = n,
1, 1.
X¡ n - ... , elementos de la matriz Sk == sf + S::
Uj¡

Denotaremos cop z!, x¡ los valores realmente compu-


tados.

Un primer resultado que conviene destacar para la re-


solución de un sistema triangular superior cualquiera, es el
siguiente [20]:
donde
Lema 2.1 Sea x la solución computada al resolver
el sistema U x == Z con aritmética de punto fllotante, y sea 1) Lls,k) indica una suma que recorre todas las com-
· .
•b lllaClOnes ('(S,k) .(s,k) .(s,k) ) d. e l
os ei tos {1 " 2 ... ,
emen
s la aproximación de primer orden del error absoluto de I1 ,1 2 , ... , Ik-s-I

X. Denotemos por sij{i :::; j) la aproximación de primer k - 1} tomados de k ~ s - 1 en k - s - 1, ordenados en


forma creciente,
orden del error cometido en la computación del elemento
(i, }) de la matriz U. Entonces s admite la representación
2) para m == k, k - 1, ... , 1 se define j~:,k) de la si-
s == U- I f, f == fO + f' , (2.4) guiente forma
Matemáticas: Pedro Alonso et al. Rev.R.Acad.Cienc.Exact.Fis.Nat. (Esp), 1998; 92 5

.(s,k)
Jm h ~ s - card ({k, k - 1, ... , m} n
(2.7)

n {ilS,k), i~s,k), ... , ii~~~I})'


Si se usa aritmética exacta y consideramos sólo estas
perturbaciones en los datos, tenemos el siguiente resultado,
En la expresión de Si~' se observa que en el sumando que corresponde a la Proposición 5.1 de [2], donde puede
correspondiente a r = 1 aparecen las aportaciones al error verse la demostración, que hace uso de las fórmulas (2.5)
debidas a perturbaciones en los datos, que denotaremos y (2.6) así como de otros resultados auxiliares:
como S¡:, mientras que en el resto de los sumandos apa-
recen las aportaciones debidas al uso de aritmética de punto Proposición 2.2. Si se ha resuelto el sistema Ax = b
flotante, denotadas por S:. por eliminación de Neville (sin permutaciones de filas)
considerando aritmética exacta y sólo perturbaciones en
A partir de la expresión anterior de st, resulta inme- los datos de partida, se verifica
diato calcular la de sij:
(2.8)
(2.5)
(2.9)

con !lb Y M definidos por (2.7).

Sea ahora U la matriz

(2.10)
donde en los sumatorios hay que tener en cuenta 1) y 2).
que por (2.3) puede expresarse
Antes de calcular las expresiones explícitas de las
aproximaciones de primer orden del error absoluto exacto,
y su residuo asociado, aproximaciones que denotaremos 1
l! = ElI (mll d ... E2(m21)] IElI (m 1l2 ) ... E 3(m32)] ...
por s y t respectivamente, conviene distinguir en ellas dos
partes: ... [ElI (m llr ) ... Er+1(mr+I.r )].
t = fJ + 1, El siguiente resultado principal corresponde al Teore-
donde SD y fJ representan las aproximaciones de primer ma 5.3 de [2]:
orden del error absoluto y del residuo considerando aritmé-
tica exacta y sólo perturbaciones en los datos de partida, x
Teorema 2.3. Sea = (Xi)I~¡~lI la solución computa-
mientras que con SR y I representamos las aproximaciones da obtenida al resolver el sistema Ax = b por eliminación
considerando datos exactos y sólo errores debidos al re- de Neville (sin permutaciones de filas) utilizando aritmé"
dondeo. tica de punto flotante. Sean tt las aproximaciones lineales
a las componentes del residual asociado a dicha solución.
Teniendo en cuenta (2.4) conviene descomponer s Entonces ti~ admite la representación ti~ = t? + tI, con:
como s = SO + sI, con sO = U- I fo y SI = U-Ij¡.
i)
También es inmediato observar, sin más queconside-
rar la factorización de A en la forma LU, que o _ ~~ r
t¡ - -,¿., ,¿.,lik
{~ (r+1) -
,¿.,Qkj erkj X j
~ (r)' }
+ '¿"J'--r mkrQk-I,j erkj x j '(2.11)
t = As = Lf, (2.6) r=1 k=r+l J=r+l .

por lo que en t también podemos distinguir t O y t. donde denotamos con l! (lij)l~i,j$lI a la matriz de (2.10),
y donde
Los términos so, t O representan las aportaciones a s y t
de todos los errores de los datos y los errores de redondeo *
erkj = erkjx , -*
erkr = erkl,·J = r + 1, ... , n + 1.
del proceso de eliminación, mientras que SI, t representan
las aportaciones de los errores de redondeo que se produ-
cen en la resolución del sistema triangular Ux = z. (2.12)
Para obtener expresiones explícitas de s y t conviene
introducir algunas otras notaciones. Si éi u y bi son los va- con
lores perturbados inicialmente de aij y b¡, denotamos por
M y !lb respectivamente, a -e7k' k =j + 1, ... , n.
6 Matemáticas: Pedro Alonso et al. Rev.R.Acad. Cienc.Exact. Fis.Nat. (Esp), 1998; 92

Las expresiones de t? y ti se obtienen teniendo en


(2.18)
cuenta que tO = Lfo, t' = L/, con

Resulta inmediato observar que, considerando sólo


perturbaciones en los datos de partida, las expresiones de
s y t, es decir SD y rO, coinciden con las obtenidas para la
• • eliminación de Neville, lo cual era de esperar, ya que si
fi = ¿z; e~ + ¿U;k Xk el: trabajamos con aritmética exacta, no importa el método
k=i+l k=i
utilizado para calcular la solución.
donde sil R representa las aproximaciones debidas al uso de
aritmética de precisión finita. Respecto al caso de datos exactos y sólo errores debi-
dos al redondeo conviene observar que s' y t! coinciden
Además de esto, es necesario utilizar una serie de re- con las obtenidas por nosostros para la eliminación de
sultades auxiliares que aparecen en [2] y que permiten la Neville, lo cual es lógico porque representan las aportacio-
simplificación de las expresiones como (2.5) para llegar nes de los errores de redondeo producidas durante la reso-
finalmente a (2.11) y (212). lución del sistema triangular.

En lo que se refiere a la aproximación al error absoluto En 10 que hace referencia a los términos SO y tO, éstos
asociado a las soluciones se tiene la siguiente consecuen- representan las aportaciones a s y t de todos los errores de
cia inmediata del Teorema 2.3: los datos y los producidos por el redondeo durante el pro-
ceso de eliminación. Comparando las expresiones de t? y
Corolario 2.4. Sea x
= (x¡),;;;;;. la solución compu- s? con (2.11), (2.13), vemos que estas últimas incorporan
tada, y st las aproximaciones lineales del error absoluto un sumatorio más. Esto es debido, de manera análoga a lo
asociado a los componentes de dicha solución. Entonces que ocurre para el error regresivo (ver [3]), a que en la
SiR = StO + si, con eliminación Gaussiana las matrices L y U representan toda
la información del proceso, mientras que dicha informa-
i) (2.13) ción en la eliminación de Neville se refleja a través de
todas las matrites L¡ y A¡. De todas formas los experimen-
° ~ (-1) ~ ~ r {~ (r+1) - ~ tos numéricos que hemos realizado (Apéndice de [1]) nos
aij f:t k~/jk i~lakl erkl XI + t: mkr ak-I,l erkl Xl
(r)
Si - f;;j o }
, han permitido comprobar que la diferencia entre los resul-
tados obtenidos por un método y otro no es significativa.

ii) (2.14)
3. NÚMEROS DE CONDICIÓN

y con e;kl' e;k' e;1 yejk como en el teorema anterior. En esta sección calcularemos acotaciones de
IArI = Ix - xl
y Irl =IAX - bl
componente a componente.
Terminamos esta seCClOn comparando los resultados Para ello calcularemos números de condición de SD, SR, rO,
obtenidos con los que aparecen en [20] para el método de y rR a partir de sus expresiones obtenidas en la sección
Gauss, que enumeramos a continuación: anterior.

En (2.7) hemos definido M y Ab. Dada una constante


de precisión 1]D para los datos, sean CJ'ij' f3¡ números no
negativos tales que

i~lll+1 ;-1 11+1


i) t? = - ¿ ¿a~+I) erik Xk ¿L/ir Urk e;¡k Xk (2.15)
(3.1)
r=1 k=r+l r=l k=r
Análogamente si 1JR es una constante de precisión para
el redondeo, se tendrá
ii) (2.16)
(3.2)
• st = sf + si

i) (2.17)
con e~j' e;kj, e~ Ye~ números no negativos.
°
Si
Sea ahora 1] = max (1]D' 1]R)'
Matemáticas: Pedro Alonso et al. Rev.R.Acad. Cienc.Exact. Fis.Nat. (Esp), 1998; 92 7

Teniendo en cuenta las expresiones de SD, SR, ~, Y t,


de la sección anterior, se deducen de manera inmediata [2]
los siguientes resultados:

Lema 3.1. Las aproximaciones del error absoluto y


del residuo, considerando sólo perturbaciones en los datos
y aritmética exacta, SD, ~, están acotadas componente a
componente por Teniendo en cuenta estos resultados, que Ax= s +
0(r¡2), y que r = t + 0(r¡2), resulta inmediatamente:
x
Proposición 3.4. Sea la solución computada al re-
solver el sistema Ax = b por un proceso de eliminación de
donde oF, rf
son los números de condición de las compo- Neville con aritmética de punto flotante. Además, sean
nentes Xi de la solución y del residuo asociado con respec- Ax = x - x, y r = Ax - b el error absoluto y el residuo
to a perturbaciones en los .datos. Además, y pueden oF rf asociados a dicha solución. Entonces se tiene
ser expresados como
D
<Ti =~la&-I)1 {~ajklxd + (3j}, 1 :s; i:S; n,

rf f,ajklxkl + (3j' 1 :s; j :s; n, donde crD , aR, tJ y 7! denotan los vectores de los números
k=l de condición <Tf,<Tt, rf, rI,
1 :s; i, j :s; n, y
'r¡ = max(r¡D' r¡R)'

Notemos que los números de condición introducidos


Lema 3.2. La aproximación del residuo consideran- aquí pueden ser calculados de forma aproximada. Con este
do datos exactos y sólo errores de redondeo, t, está aco- fin se utilizan las cantidades computadas ay), i;j'), mk" las
tada por sumas parciales z! y las soluciones Xi en lugar de los
correspondientes valores exactos. Los números de condi-
I RI
ti <
~ r iR r¡R, 1 ::;; i :s; n, ción obtenidos de esta forma suelen llamarse números de
condición obtenidos a posteriori.
donde con r iR denotamos los números de condición resi-
duales respecto de los errores de redondeo, cuya expre-
sión es
BIBLIOGRAFÍA

1. Alonso, P. (1995) Eliminación de Neville y Análisis de Error,


Tesis Doctoral, Universidad de Oviedo.
con
2. Alonso, P., Gasea, M. & Peña, J.M. (1996) Análisis del error

I
~~
-
~ {j=:'l
f:; k:;1 ~ Ir akj(r+l) ik X
- + ~Ir
jISrkj f;::. ik mkr ak- j x ·I·}
(r)1
• rkj ,
j S
forward para la eliminación de Neville, Preprint Seminario
Matemático García de Galdeano, Universidad de Zaragoza, Se-
rie n, Sección 1, NQ 19, 1996.

3. Alonso, P., Gasea, M. & Peña, J.M. (1997) Backward error


:s; i :s; n. analysis of Nevílle elimination, Appl. Numer. Math. 23, 193-
204.

Lema 3.3. Sea SR la aproximación al error conside- 4. Ando, T. (1987) Totally positive matrices, Linear Algebra Appl.
rando datos exactos y sólo errores de redondeo. Entonces 90, 165-219.
se tiene que 5. Gallivan, KA, Plemmons, R.J. & Sameh, A.H. (1990) Parallel
algorithms for dense linear algebra computations, SIAM Rev.
ISi.RI <- <TiRr¡R' 1 :s; i :s; n 32,54-135.

6. Gasea, M. & Peña, J.M. (1992) Total positivity and Neville


con <TiR los números de condición respecto del redondeo elimination, Linear Algebra Appl. 165, 25-44.
de la componente Xi de la solución, y donde <Tt se puede
expresar en la forma 7. Gasea, M. & Michelli, C.A. (1996) Total positivity and its
Applications, Kluwer Academic Publishers, Boston.
8. Gasea, M. & Peña, J.M. (1992) Interpolación, eliminación y
matrices totalmente positivas, Rev. R. Acad. Cienc. Exact. Fís.
con Nat. 86,2.
8 Matemáticas: Pedro Alonso et al. Rev.R.Acad.Cienc.Exact.Fis.Nat. (Esp), 1998; 92

9. Gasea, M. & Peña, J.M. (1993) Total positivity, QR-faetoriza- 17. Olver, F.W.J. & Wilkinson, J.H. (1982) A posteriori mor bounds
tion and Neville elimination, S1AM J. Matrix Anal. Appl. 14, for Gaussian e1imination, IMA J. Numer. Anal. 2, 377-406.
1132-1140.
18. Peña, 1.M. (1995) Matrices with sign eonsisteney of a given
10. Gasea, M. & Peña, J.M. (1993) Sea1ed pivoting in Gauss and order, Aparecerá en SIAM J. Matrix Anal. Appl. 16, 1100"
Neville elimination for totally positive systems, Appl. Numer. 1106.
Math. 13, 345-356.
19. Stummel,F. (1981) Perturbation theory for eva1uation a1gori-
11. Gasea, M. & Peña, J.M. (1994) A test for striet sign regu1arity, thms of arithmetie expressions, Math. Comp. 37,156,435-473.
Linear Algebra Appl. 197-198, 133-142.
20. Stumme1, F. (1985) Forward error ana1ysis of Gasussian elimi-
12. Gasea, M. & Peña, 1.M. (1994) A matricial deseription of Ne-
nation, Part 1: Error and residual estimates, Numer. Math. 46,
ville elimination with app1ieations to total positivity, Linear
365-395.
Algebra Appl. 202, 33-45.

13. Gasea, M. & Peña, 1.M. (1995) On the eharaeterization of AI- 21. Stummel, F. (1985) Forward error ana1ysis of Gasussian elimi-
most Stristly Totally positive matrices, Adv. Comput. Math.3, nation, Part II: Stability theorems, Numer. Math. 46,397-415.
239-250.
22. Trefethen, L.N. & Sehreiber, R.S.(1990) Average"ease stabi-
14. Gasea, M. & Peña, J.M. (1995) Neville elimination and litY of Gaussian elimination, SIAM J. Matrix Anal. Appl. 11,
approximation theory. En: Approximation Theory Wavelets and 33-360.
Applications. Ed.: Singh, S.P., K1uwer Aeademic Publishers,
pp. 131-151. 23. Wilkinson, J.H. (1961) Errors ana1ysis of direet methods of
matrix inversion, J. Assoc. Computo Mach. 8, 281-330.
15. Higham, N.J. (1996) Aeeuraey and Stability of Numerieal AI-
gorithms, SIAM, Philadelphia, PA. 24. Wilkinson, 1.H. (1963) Rounding Errors in Algebraic Proces-
ses, Notes on Applied Seienee 32, Her Majesty's Stationery
16. Km'lin, S. (1968) Total Positivity, Stanford Universite Press. Offiee.

View publication stats

Вам также может понравиться