Вы находитесь на странице: 1из 22

Universidad Católica de Santa María

Facultad de Arquitectura, Ingeniería Civil y del Ambiente


Programa de Ingeniería Civil

Algebra Lineal Numérica

4 de diciembre de 2018

Andia Chavez, Andre Alonzo


Condori Palle, Dámaris Brigitte
Guzmán Quispe, Eduardo Alonso
Luna Hinojosa, Oscar Michael
Portocarrero Silva, Gianpool
Índice general

1. Introducción 3
1.1. Interpolación mediante esplines cúbicos . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.1. Funciones splines cubicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2. Diferencias finitas para un problema de contorno . . . . . . . . . . . . . . . . . 4
1.2.1. Diferencias finitas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3. Un sistema lineal sobre determinado . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1. Introducción al caso general n x n . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.2. Transformaciones de un sistema que conservan las soluciones . . . . . . 7
1.4. Ecuaciones diferenciales y valores propios . . . . . . . . . . . . . . . . . . . . . . 8
1.4.1. Formalización del método . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

2. Complementos sobre matrices 11


2.1. Normas vectoriales y normas matriciales . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.1. Definición 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.2. Definición 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2. Algunas clases de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2.1. Matrices cuadradas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2.2. Matriz identidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2.3. Matrices triangulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3. Valores y vectores propios de una matriz . . . . . . . . . . . . . . . . . . . . . . . 13
2.4. La SVD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

3. Solución Numérica de Sistemas de Ecuaciones Lineales 15


3.1. El número de condición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.1.1. Número de condición absoluto . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.1.2. Número de condición relativo . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2. Perturbación de los datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

1
Capítulo 0 Universidad Católica de Santa María

4. Métodos directos 17
4.1. Uso de determinantes. Sistemas triangulares . . . . . . . . . . . . . . . . . . . . . 17
4.2. El método de eliminación de Gauss (MEG) . . . . . . . . . . . . . . . . . . . . . . 18
4.3. Elección del pivote . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
4.4. Descripción matricial del MEG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

Referencias 21

2
Capítulo 1

Introducción

El Álgebra lineal numérica es el estudio de algoritmos para realizar cálculos de álgebra


lineal, en particular las operaciones con matrices, en las computadoras. A menudo es una
parte fundamental de la ingeniería y los problemas de ciencias de la computación, trata-
miento de señales, simulaciones en ciencias de materiales, la biología estructural, la minería
de datos, y la bioinformática, la dinámica de fluidos, y muchas otras áreas. Este tipo de soft-
ware depende en gran medida el desarrollo, análisis y aplicación de estado de los algoritmos
de última generación para la solución de diversos problemas de álgebra lineal numérica, en
gran parte por el papel de las matrices en diferencias finitas y métodos de elementos finitos.

1.1. I NTERPOLACIÓN MEDIANTE ESPLINES CÚBICOS


La construcción de polinomios de interpolación de grado alto, aunque justificable teó-
ricamente plantea muchos problemas. Por un lado, la forma de la función polinómica de
grado alto a menudo no responde al fenómeno debido al gran número de extremos e in-
flexiones. Por otro lado, su cálculo es muy complicado, lo que limita su utilidad en análisis
numérico. Es a menudo más conveniente dividir el intervalo de interés en subintervalos más
pequeños y usar en cada subintervalo polinomios de grado relativamente bajo, tratando de
que la función a trozos definida de este modo tenga un aspecto final adecuado al fenómeno
que estamos representando.
La idea central es que, en vez de usar un solo polinomio para interpolar los datos, pode-
mos usar segmentos de polinomios y unirlos adecuadamente para formar nuestra interpo-
lación.
Podemos decir, que una función spline está formada por varios polinomios, cada uno
definido en un intervalo y que se unen entre si bajo ciertas condiciones de continuidad.

3
Capítulo 1 Universidad Católica de Santa María

Cabe mencionar que, entre todas, las spline cúbicas han resultado ser las más adecua-
das.

1.1.1. Funciones splines cubicas


Dados 1 + n datos:

x x0 x1 ... xn
x x0 x1 ... xn

Cuadro 1.1: Tabla 1

Una spline cúbica que interpola estos datos, es una función S(x) definida como sigue:
¯ ¯
¯ s
0 (x) si x [x 0 .x 1 ] ¯
¯
¯
¯ ¯
s (x) = ¯¯ s 2 (x) si x [x 1 .x 2 ] ¯¯ (1.1)
¯ ¯
¯s n−1 (x) si x [x n−1 .x n ]¯

donde cada S1(x) es un polinomio cúbico: Si(x)=yi para toda i = 0.1, ..., n y tal que S(x)
tiene primera y segunda derivadas continuas en [x0, xn].
(Anonimo, 1998)

1.2. D IFERENCIAS FINITAS PARA UN PROBLEMA DE CONTORNO


Los problemas expresados por las ecuaciones diferenciales aparecen unidos a condicio-
nes iniciales (se conoce el valor de la función incógnita para un valor de la variable indepen-
diente, Problema de Cauchy) y/o en la frontera (se conoce el valor de la función incógnita
para algunos valores de la variable espacial en el contorno del dominio donde se estudia el
fenómeno en cuestión, Problema de Contorno). Luego de ser definido el modelo diferen-
cial. El problema que se presenta es determinar su solución, es decir, obtener la función que
expresa el comportamiento cualitativo (cuantitativo). Los métodos para la solución de los
modelos diferenciales pueden ser clasificados: Métodos Analíticos y Métodos Aproximados.

1.2.1. Diferencias finitas


Se realiza una partición uniforme del intervalo [a, b]

a = x 1 < x 2 < x 3 < ... < x n < x n +1 = b, (1.2)

4
Capítulo 1 Universidad Católica de Santa María

donde x i = a + (i —1)h, i = 1, ..., n + 1 son los nodos de la malla y h es el paso de discre-


tización. Aplicando la ecuación diferencial del (PC) en los nodos interiores se obtienen las
ecuaciones

− u u (x i ) + p(x i )u 0 (x i ) + q(x i )u(x i ) = r (x i ), i = 2, ..., n. (1.3)

Existen distintas formas de aproximar las derivadas de una función en un punto. Ejem-
plos de fórmulas para la primera y segunda derivada son las siguientes:

u (x + h) − 2u (x) + u (x − h)
u n (x) ≈ (1.4)
h2

u (x + h) − u (x − h)
u 0(x) ≈ (1.5)
2h

u (x + h) − u (x)
u 0(x) ≈ (1.6)
h

u (x) − u (x − h)
u 0(x) ≈ (1.7)
h
Se denota por ui a la aproximación de la solución en el nodo Entonces, al sustituir en
cada punto interior de la malla xi la ecuación diferencial (2) por la ecuación discreta resul-
tante de aproximar las derivadas por alguna de las fórmulas anteriores se obtiene (junto con
las condiciones de contorno) un sistema de ecuaciones lineales tridiagonal. Definición Un
esquema en diferencias finitas se dice que es convergente si

lı́m h → 0[máx i |u (x i ) − u i |] = 0 (1.8)

(Anonimo, S.F.)

1.3. U N SISTEMA LINEAL SOBRE DETERMINADO


Una ecuación con una o varias incógnitas es lineal si los términos que contienen las can-
tidades desconocidas son de primer grado en ellas.

Así, la ecuación 3x+y=z es lineal, pero x2 + cos y = ox y = log x − y no l o son.


¡ ¢

Un sistema es una familia de ecuaciones con cualquier número tanto de ecuaciones co-

5
Capítulo 1 Universidad Católica de Santa María

mo de incógnitas. Si todas las ecuaciones son lineales, tendremos un sistema lineal. Así, el
siguiente sistema es lineal:
¯ ¯
¯ 3x + y = z ¯
¯ ¯
¯ ¯
¯ x + y + z = 0¯
¯ ¯ (1.9)
¯ ¯
¯ x − y = 33 ¯

Sin embargo, este otro no lo es:


¯ ¯
¯3x + y = z 2 ¯
(1.10)
¯ ¯
¯ y
¯ x = yx ¯
¯

Un concepto básico es el de solución de una ecuación o de un sistema. Si tenemos una


ecuación o un sistema con n incógnitas, una solución de la ecuación (o del sistema) es un
conjunto ordenado de n números tales que, sustituidos en la ecuación o sistema, transfor-
man la ecuación en una identidad (o las ecuaciones del sistema en las correspondientes
identidades). Por ejemplo, el par de números (x, y) = (3, 4) es una solución de la ecuación x
+y=7
En este tema estudiaremos sólo ecuaciones y sistemas lineales, y en particular cuando
número n de ecuaciones es igual al de incógnitas. Por “sistema n x m” entenderemos un
sistema lineal con n ecuaciones y m incógnitas.

1.3.1. Introducción al caso general n x n


La mayor dificultad que encontramos al pasar al caso n x n será establecer con claridad
cuáles son las condiciones análogas a la a 6= 0 del caso 1 x 1 y la ae − bd 6= 0 del caso 2 x 2.

Llevar a cabo un análisis directo, como los realizados hasta ahora, es muy complicado, y
además aparece un problema suplementario, muy relacionado con la Informática: El núme-
ro de operaciones necesario para el cálculo de determinantes cada vez más grandes crece
con gran rapidez, y lo mismo ocurre con el cálculo de los elementos de la matriz inversa.
Además, cuando los valores numéricos de los coeficientes son sólo aproximados, los errores
se van acumulando en las sucesivas operaciones, llegando a producir soluciones muy aleja-
das de las verdaderas.

Por ello, vamos a explotar un poco más la idea de característica, para continuar con el
estudio teórico.

6
Capítulo 1 Universidad Católica de Santa María

1.3.2. Transformaciones de un sistema que conservan las soluciones


Para comenzar, fijémonos en que un sistema puede modificarse sin que cambien sus
soluciones. Veámoslo:

1. Podemos cambiar de lugar dos ecuaciones entre sí, sin que las soluciones se modifi-
quen. En efecto, dado el sistema:
¯ ¯
¯ ax + b y = c ¯
(1.11)
¯ ¯
¯ ¯
¯d x + e y = f ¯

al intercambiar el orden de las ecuaciones encontraremos


¯ ¯
¯d x + e y = f ¯
(1.12)
¯ ¯
¯ ¯
¯ ax + b y = c ¯

primero, al sustituir los valores que sean en el segundo obtendremos las mismas iden-
tidades, esto es, tales valores también son soluciones del segundo sistema.

2. Se puede cambiar el orden de las incógnitas sin que ello afecte a las soluciones. Efec-
tivamente, dado el sistema: ¯ ¯
¯ ax + b y = c ¯
(1.13)
¯ ¯
¯ ¯
¯d x + e y = f ¯

al intercambiar el orden de las incógnitas encontraremos el nuevo sistema:


¯ ¯
¯e y + d x = f ¯
(1.14)
¯ ¯
¯ ¯
¯ b y + ax = c ¯

El mismo argumento anterior nos prueba que las soluciones no cambiarán.

3. Si hay más de dos ecuaciones e incógnitas, las dos observaciones anteriores se pueden
refundir en una: Las soluciones del sistema no cambian si se permutan varias ecua-
ciones entre sí, y lo mismo ocurre si se permutan varias incógnitas entre sí, o ambas
cosas a la vez. Esta propiedad se usa en los cálculos numéricos de manera sistemática.

4. Por lo mismo, al multiplicar o dividir algunas ecuaciones por números cualesquiera


no nulos, las soluciones también se conservan, y por último, combinando las ideas
anteriores tendremos que:

7
Capítulo 1 Universidad Católica de Santa María

5. Dado un sistema, se puede sustituir cualquier ecuación por una combinación de todas
ellas, obtenida multiplicando cada una por un número y luego sumándolo todo, sin
que se modifiquen las soluciones del sistema.

Las operaciones anteriores se llaman transformaciones elementales del sistema. En la


práctica se llevan a cabo sólo sobre las matrices del sistema, A y A*, donde se encuentra toda
la información necesaria para estudiarlo y resolverlo.
Lo que haremos ahora será calcular características mediante transformaciones elemen-
tales. Los sistemas obtenidos unos de otros por transformaciones elementales se denomi-
nan sistemas equivalentes.
(Pacheco, 2013)

1.4. E CUACIONES DIFERENCIALES Y VALORES PROPIOS


Un sistema de ecuaciones diferenciales es un conjunto de una o más ecuaciones en las
que aparecen una o más funciones incógnitas, pero todas ellas dependiendo de una sola
variable independiente. Para ilustrar este concepto vamos a retomar un ejemplo de cinética
química que estudiamos en la lección anterior, pero preguntándonos ahora una cuestión
diferente y, como veremos, más complicada.

1.4.1. Formalización del método


Veamos dos ejemplos de sistemas de ecuaciones: uno fácil de resolver y uno más com-
plejo que puede reducirse a uno fácil. La transformación está relacionada con el concepto de
diagonalización como veremos posteriormente. Suponga que x(t) y y(t) son dos funciones
dependientes de t consideradas como funciones incógnitas y supongamos que ellas satisfa-
cen un sistema que tiene la forma:
à ! à !
x 0 (t ) a 1 x (t )
= (1.15)
y 0 (t ) a 2 y (t )

el sistema estaría representando a las dos ecuaciones diferenciales

x 0(t ) = a 1 x (t ) y y 0(t ) = a 2 y (t ) (1.16)

Estas ecuaciones son ecuaciones diferenciales lineales de primer orden cuyas soluciones
generales son:

8
Capítulo 1 Universidad Católica de Santa María

x (t ) = C 1 e a1 t y y (t ) = C 2 e a2 t (1.17)

Si ahora queremos regresar a la forma de vector lo anterior, lo podríamos escribir como:


à ! à !
x (t ) C 1 e a1 t
= (1.18)
y (t ) C 2 e a2 t

y de allí a:
à ! à ! à !
x (t ) 1 a1 t 0 a2 t
= C1 e +C 2 e (1.19)
y (t ) 0 1

El sistema anterior es un sistema muy fácil de resolver comparado con un sistema en


apariencia más difícil como:
à ! à !
x 0 (t ) 5x (t ) − 6y (t )
= (1.20)
y 0 (t ) 3y (t ) − 4y (t )

Si ahora hacemos el cambio de variables:

z (t ) = x (t ) − y (t ) (1.21)

w (t ) = −x (t ) − 2y (t ) (1.22)

y esto transforma al sistema en:


à ! à !
z 0 (t ) 2z (t )
= (1.23)
w 0 (t ) −1w (t )

Este sistema se resuelve como el primero dándonos como solución general:


à ! à ! à !
z (t ) 1 2t 0 −t
= C1 e +C 2 e (1.24)
w (t ) 0 1

Para regresar a las variables originales el cambio de variables hecho lo describimos en


forma matricial como:
à ! " # à !
z (t ) 1 −1 x (t )
= ∗ (1.25)
w (t ) −1 2 y (t )

Digamos que

9
Capítulo 1 Universidad Católica de Santa María

" #
1 −1
A= (1.26)
−1 2
à !
x (t )
x= (1.27)
y (t )

Así la solución queda:


à ! à !
1 2t 0 −t
Ax = C 1 e +C 2 e (1.28)
0 1

Al multiplicar por A1 la solución queda


à ! à !
−1 1 2t −1 0 −t
x = C1 A e +C 2 A e (1.29)
0 1

Como
" #
1 −1
A −1 = (1.30)
−1 2

La solución finalmente queda:


Ã! Ã !
1 2t −1 −t
x = C1 e +C 2 e (1.31)
−1 2

Hay varios comentarios sobre estos cálculos. El primer tipo de sistema de ecuaciones es
uno muy simple debido a que el sistema representa varias ecuaciones diferenciales en una
función incógnita y son fáciles de resolver. Este tipo de sistemas se llaman sistemas des-
acoplados: cuando cada ecuación está en una función incógnita y las restantes incógnitas
no aparecen en ella. Mientras que el segundo tipo de sistemas de ecuaciones diferenciales
lineales son llamados sistemas acoplados: cuando hay al menos una ecuación diferencial
donde aparecen dos o más funciones incógnitas. Este último ejemplo muestra que cuando
el sistema puede desacoplarse, puede resolverse fácilmente. Por otro lado, la sustitución que
permite desacoplar las ecuaciones no es fruto de un golpe de inspiración sino resultado de
un método.
(Anonimo, 2000)

10
Capítulo 2

Complementos sobre matrices

2.1. N ORMAS VECTORIALES Y NORMAS MATRICIALES

2.1.1. Definición 1
Sea (E,K,+,·) un espacio vectorial. Una norma en E es cualquier aplicación

k.k : E → R (2.1)

que verique ∀λ ε K y, w ε E l as si g ui ent es pr opi ed ad es :

kzk ≥ 0, y kzk = 0 ⇔ z = 0 (2.2)

kλzk = kλk kzk (2.3)

kz + wk ≤ kzk + kwk (2.4)

2.1.2. Definición 2
Se dice que dos normas ||.||1 , ||.||2 en E son equivalentes si existen

∀u ε E , α kuk1 ≤ kuk2 ≤ β kuk3 (2.5)

En dimensión nita, todas las normas son equivalentes. (Anonimo, 2003)

11
Capítulo 2 Universidad Católica de Santa María

2.2. A LGUNAS CLASES DE MATRICES


Según el aspecto de las matrices, éstas pueden clasificarse en:

2.2.1. Matrices cuadradas


Una matriz cuadrada es la que tiene el mismo número de filas que de columnas. Se dice
que una matriz cuadrada n x n es de orden n y se denomina matriz n-cuadrada.
Ejemplo: Sean las matrices.
 
1 2 −3
 
A= 
4 0 5 (2.6)
3 −1 2
y
à !
2 −3
B= (2.7)
−1 5

Entonces, A y B son matrices cuadradas de orden 3 y 2 respectivamente.

2.2.2. Matriz identidad


Sea A = (a i ) una matriz n-cuadrada. La diagonal (o diagonal principal) de A consiste
en los elementos a 1 1, a 2 2, ..., a n n. La traza de A, escrito tr A, es la suma de los elementos
diagonales.
La matriz n-cuadrada con unos en la diagonal principal y ceros en cualquier otra posi-
ción, denotada por I, se conoce como matriz identidad (o unidad). Para cualquier matriz
A,A· I = I*A = A.

2.2.3. Matrices triangulares


Una matriz cuadrada A = (a i j ) es una matriz triangular superior o simplemente una
matriz triangular, si todas las entradas bajo la diagonal principal son iguales a cero. Así pues,
las matrices
 
  −1 8 3 −6
à ! 1 7 −2  
5 3  0 2 −1 7
0 −3 4   (2.8)

 
0 −1 0 0 6 −2

0 0 2  
0 0 0 5

12
Capítulo 2 Universidad Católica de Santa María

(Anonimo, 2004)

2.3. VALORES Y VECTORES PROPIOS DE UNA MATRIZ


Sea A una transformación lineal (C n ,C ) → (C n ,C ). Un escalar λ es un valor propio si
existe un vector no nulo v tal que Av =. Cualquier vector no nulo v que satisfaga

Av = λv (2.9)

Es un vector propio asociado con el valor propio . es un valor propio de As y sólo si


satisface la ecuación

d et (λI − A) = 0 (2.10)

Donde I es la matriz identidad de igual orden que A.


El teorema brinda una posibilidad para calcular los valores propios de A: podemos cons-
truir el polinomio característico y encontrar sus raíces. Cada raíz de ∆(λ) será un valor pro-
pio de A.
Debido a que los valores propios resultan ser las raíces del polinomio característico, éstos
pueden ser reales o complejos, diferentes o repetidos. (Gracia, s.f.)

2.4. L A SVD
Un problema común es que la matriz de respuesta es singular o casi singular, por lo
que no tiene inverso bien definido. De los diversos algoritmos que se han desarrollado para
tratar este problema, la descomposición de valor singular (SVD) se ha convertido en la más
popular. Cualquier matriz se puede representar con SVD de la siguiente manera:

n
u k w k v TA
X
M= (2.11)
k=1

Donde vk es un conjunto de vectores de imán de dirección ortonormal, uk es un conjun-


to correspondiente de vectores de BPM ortonormales, y wk son los valores singulares de la
matriz M.
Dado el SVD de una matriz, la matriz inversa es:

n 1 T
M −1 =
X
vk u (2.12)
k=1 wk A

13
Capítulo 2 Universidad Católica de Santa María

Lo que se desprende de la ortonormalidad de los dos conjuntos de vectores. Es inmedia-


tamente evidente a partir de la descomposición del valor singular si la matriz de respuesta
es singular, uno o más de los valores singulares, wk, son cero. Físicamente, una semana ce-
ro implica que existe una combinación de cambios en el imán de la dirección, vk, que no
proporciona ningún cambio medible en órbita. El cambio de órbita de este vk es cero en
todos los BPM. Eliminar los términos con cero semanas de la suma en la ecuación ante-
rior produce un pseudo invertido para la corrección de la órbita que no genera cambios en
las fortalezas del imán de dirección a lo largo de los vectores propios vk correspondientes.
(Anonimo, s.f.)

14
Capítulo 3

Solución Numérica de Sistemas de


Ecuaciones Lineales

3.1. E L NÚMERO DE CONDICIÓN


El número de condición de una función respecto de su argumento mide cuánto se mo-
difica el valor de salida si se realiza un gran cambio en el valor de entrada.
Es decir, cuánto cambia f(x,y) si se modifica x.
El número de condición se utiliza para medir cuán sensible resulta una función a cambios
o errores en el valor de entrada, y cuál será el error en el valor de salida debido a este. Apli-
cando este concepto a matrices, una matriz A se dice bien condicionada si su número de
condición k(A) está cerca de 1 y se dice mal condicionada si k(A) es significativamente ma-
yor que 1.

3.1.1. Número de condición absoluto


Razón entre el error absoluto de la solución y el error absoluto del dato:

° f (x + δx) f (x) °
° °
K (x) = lı́m sup °
° − ° (3.1)
δ→0 δx δx °

3.1.2. Número de condición relativo


Razón entre el error relativo de la solución y el error relativo del dato:

15
Capítulo 3 Universidad Católica de Santa María

° °
° f (x+δx) f (x) °
° f (x) − f (x) °
K (x) = lı́m sup kδxk
(3.2)
δ→0
kxk

Si f es diferenciable:

° f (x + δx) f (x) ° ° 0 °
° °
° − ° ≈ ° f (x)° = k(x) (3.3)
° δx δx °
° °
° f (x+δx) f (x) °
° k f (x)k − k f (x)k °
kδxk
= k(x) (3.4)
kxk

3.2. P ERTURBACIÓN DE LOS DATOS


Sea P (λ) una matriz polinomial y supongamos que las matrices Ai dependen diferencial-
mente del vector p de parámetros reales p = (p1, . . . , pn). La función p(λ; p) recibe el nom-
bre familia multiparamétrica de matrices polinomiales. Los valores propios de la función de
matrices polinomiales son funciones continuas del vector p de parámetros. En esta sección
vamos a estudiar el comportamiento de un valor propio simple de la familia de matrices po-
linomiales P λ; p . Sea λ(p un valor propio simple de la matriz polinomial P λ; p . Puesto
¡ ¢ ¡ ¢ ¡ ¢

que λ(p es una raíz simple del polinomio det P (λ), tenemos:
¡ ¢

δ
d et P λ; p 6= 0
¡ ¢
(3.5)
δλ
La expresión nos permite aplicar el teorema de la función implícita a la ecuación det
P λ; p = 0, y observamos que el valor propio λ(p de la familia de matrices polinomiales,
¡ ¢ ¡ ¢

dependiente diferenciablemente del vector de parámetros p, y sus derivadas con respecto a


los parámetros son

δ
λ; p
¡ ¢
δλ p δpi d et P
¡ ¢
=− δ ¢ , i = 1, . . . , n (3.6)
δpi
δλ det P ( λ; p
¡

(Martinez, 2005)

16
Capítulo 4

Métodos directos

4.1. U SO DE DETERMINANTES . S ISTEMAS TRIANGULARES


Se define el determinante como una forma multilineal alternada de un cuerpo. Esta de-
finición indica una serie de propiedades matemáticas y generaliza el concepto de determi-
nante haciéndolo aplicable en numerosos campos. Sin embargo, el concepto de determi-
nante o de volumen orientado fue introducido para estudiar el número de soluciones de los
sistemas de ecuaciones lineales.

Algunos de los más grandes matemáticos de los siglos XVIII y XIX contribuyeron al desa-
rrollo de las propiedades de los determinantes. La mayoría de los historiadores coinciden
en afirmar que la teoría de los determinantes se originó con el matemático alemán Gottfried
Wilhelm Leibniz (1646-1716) quien fue con Newton, el co inventor del cálculo diferencial e
integral.

La importancia que tiene estudiar los sistemas de ecuaciones es poder brindarte un apo-
yo al resolver situaciones sobre problemas que se plantean en la vida real, para esto, primero
se traduce el problema del lenguaje común al lenguaje algebraico, una vez que tenemos las
ecuaciones se obtienen las soluciones del sistema y por último se comprueba si la solución
es válida como respuesta al problema.

Dentro de los métodos algebraicos en la resolución de un sistema de ecuaciones se re-


curre a métodos para transformarlos en sistemas equivalentes, hasta llegar a algún sistema
que contiene una ecuación con una sola incógnita. Lo anterior es válido solo en sistemas
compatibles determinados, o sea, sistemas que tienen una solución única.

17
Capítulo 4 Universidad Católica de Santa María

ax + b y = c (4.1)

dy =e (4.2)

ax + b y + c z = d (4.3)

ey + f z = g (4.4)

"hz = i " (4.5)

4.2. E L MÉTODO DE ELIMINACIÓN DE G AUSS (MEG)


La eliminación de Gauss Jordán, llamada así en honor de Carl Friedrich Gauss y Wil-
helm Jordán es un algoritmo del álgebra lineal que se usa para determinar las soluciones de
un sistema de ecuaciones lineales, para encontrar matrices e inversas. Un sistema de ecua-
ciones se resuelve por el método de Gauss cuando se obtienen sus soluciones mediante la
reducción del sistema dado a otro equivalente en el que cada ecuación tiene una incógnita
menos que la anterior. El método de Gauss transforma la matriz de coeficientes en una ma-
triz triangular superior. El método de Gauss-Jordán continúa el proceso de transformación
hasta obtener una matriz diagonal.

1 1 1 24
.
4 6 10..148 (4.6)
1 1 1
2 4 3
9

4.3. E LECCIÓN DEL PIVOTE


Ir a la columna no cero extrema derecha Si la primera fila tiene un cero en esta colum-
na, intercambiarlo con otra que no lo tenga. Luego, obtener ceros debajo de este elemento
delantero, sumando múltiplos adecuados del renglón superior a los renglones debajo de él.
Cubrir el renglón superior y repetir el proceso anterior con la submatriz restante. Repetir

18
Capítulo 4 Universidad Católica de Santa María

con el resto de los renglones (en este punto la matriz se encuentra en forma escalonada).
Comenzando con el último renglón no cero, avanzar hacia arriba: para cada renglón obte-
ner 1 delantero e introducir ceros arriba de éste sumando múltiplos correspondientes a los
renglones correspondientes.
 
2 2 −6
 
2 1 0 
  (4.7)
1 −2 3

F2 - F3
 
1−2 3
 
2 1 0 
  (4.8)
2 2 −6

F1X-2
 
1−2 3
 
0 5 −6 
  (4.9)
0 6 −12

F2/5
 
1 −2 3
 
0 1 −6/5 
  (4.10)
0 2/5 −12/5

F2X-2/5
 
1−2 3
 
0 1 −6/5 
  (4.11)
0 0 −48/25

F3X-25/48
 
1−2 3
 
0 1 −6/5
  (4.12)
0 0 1

19
Capítulo 4 Universidad Católica de Santa María

4.4. D ESCRIPCIÓN MATRICIAL DEL MEG


El Método de Gauss – Jordan o también llamado eliminación de Gauss – Jordan, es un
método por el cual pueden resolverse sistemas de ecuaciones lineales con n números de
variables, encontrar matrices y matrices inversas, en este caso desarrollaremos la primera
aplicación mencionada. Para resolver sistemas de ecuaciones lineales aplicando este méto-
do, se debe en primer lugar anotar los coeficientes de las variables del sistema de ecuaciones
lineales en su notación matricial:

Z Ax + B y +C z = D
Ax + B y +C z = D (4.13)
Ax + B y +C z = D

(Pastor, 2014)

20
Referencias

Anonimo. (s.f.). La svd.


Anonimo. (1998). Splines cubicos. Universidad de Valencia, 07(3), 1–1.
Anonimo. (2000). Ecuaciones diferenciales y valores propios. Universidad de Valencia, 30.
Anonimo. (2003). Normas vectoriales y normas matriciales . Algebra II, 8(1), 10.
Anonimo. (2004). Algunas clases de matrices. (1-2), 15.
Anonimo. (S.F.). Diferencias finitas para un problema de contorno. Monografias.com, 13.
Gracia, J. M. (s.f.). Valores y vectores propios de una matriz. (4-12), 28.
Martinez, L. A. A. (2005). Solución numérica de sistemas de ecuaciones lineales. DMA.
Pacheco, J. (2013). Un sistema lineal sobre determinado. Departamento de Matemáticas de
la ULPGC, 13.
Pastor, M. D. M. J. (2014). Metodos directos. Universidad de Valencia, 56 - 64.

21

Вам также может понравиться